You are on page 1of 35

1.

Vektorski prostori

1. Baza i dimenzija vektorskoga prostora . . . . .......


2. Vektorski prostori nad općim poljem
i prostori funkcija . . . . . . . . . . . . . . . .
3. Promjena baze . . . . . . . . . . . . . . . . . . . . . . . . . .
4. Skalarni produkt i unitarni vektorski prostori . . . . . . .
5. Normirani vektorski prostori . . . . . . . . . . . . . . . . .

1.1. Baza i dimenzija vektorskoga prostora

Vektorski prostor. Vektorski prostori koje ćemo proučavati u ovom udžbeniku


poopćenja su klasičnih i studentu dobro poznatih skupova vektora u ravnini i prostoru
-
ili pak elemenata prostora Rn uredenih n -torki realnih brojeva.
Vektorski se prostori uvode sustavom aksioma, koji preciziraju njihova svojstva.
Navodimo strogu definiciju.
Neprazni skup X na kojemu su definirane dvije operacije, + : X × X → X (zbra-
janje vektora) i · : R × X → X (množenje skalara i vektora) naziva se vektorski
prostor 1 ako vrijede sljedeća svojstva:
VP1 ) za sve x, y ∈ X je x + y = y + x (komutativnost zbrajanja vektora).
VP2 ) za sve x, y, z ∈ X je x + (y + z) = (x + y) + z (asocijativnost zbrajanja).
VP3 ) postoji vektor 0 ∈ X tako da za sve x ∈ X vrijedi x + 0 = 0 + x = x
(vektor 0 zovemo nul-vektorom).
VP4 ) za svaki vektor x ∈ X postoji x′ ∈ X tako da je x + x′ = x′ + x = 0
(vektor x′ zovemo suprotnim vektorom od x , i označavamo ga sa −x ).
VP5 ) za sve α , β ∈ R i x ∈ X je α (β x) = (αβ )x (uskladenost - množenja
skalara s vektorom).
VP6 ) za sve α ∈ R i x, y ∈ X je α (x + y) = α x + α y (distributivnost
množenja sa skalarom prema zbrajanju vektora).
VP7 ) za sve α , β ∈ R i x ∈ X je (α + β )x = α x + β x (distributivnost
množenja vektora sa zbrajanjem skalara).
VP8 ) 1 · x = x (netrivijalnost množenja).
- trojac (X, +, ·) . Kažemo još
Govorimo preciznije da je vektorski prostor uredeni
da je to vektorski prostor nad poljem realnih brojeva R , budući se u definiciji množenja
sa skalarom koriste realni brojevi. Umjesto polja R može se koristiti i drugo polje
skalara, na primjer polje kompleksnih brojeva C . Tada bismo govorili o vektorskom
prostoru nad poljem C ili naprosto o kompleksnom vektorskom prostoru.

∗*∗
Navedimo neke primjere vektorskih prostora koje smo upoznali u prijašnim pred-
metima. Na primjer, skup Mmn svih matrica tipa m × n čini vektorski prostor, uz
operacije matričnoga zbrajanja i množenja skalara s matricom.
Tako i vektor-stupci, odnosno vektor retci duljine n čine vektorski prostor, jer su
to matrice tipa n × 1 odnosno 1 × n .
Prostori V 1 , V 2 , V 3 vektora na pravcu, ravnini i u prostoru E3 , uz standardno
definirane operacije zbrajanja i množenja sa skalarom takoder - su vektorski prostori.
Nazivamo ih klasičnim vektorskim prostorima.
Vektorski prostor mogu činiti i funkcije. Neka je X skup svih funkcija definiranih
na intervalu [a, b] s vrijednostima u R . Operacije definiramo na način
(x + y)(t) := x(t) + y(t),
(α x)(t) := α x(t).
Svojstva VP1 – VP8 vrijede jer se svode na analogna svojstva za skup realnih
brojeva.

∗*∗

-
Vektorski podprostor. Pri navodenju narednih primjera često ćemo biti u situaciji
da promatramo neki podskup gore navedenih vektorskih prostora te se pitamo čini li i
taj podskup vektorski prostor? S tim je u vezi sljedeća definicija.
Neka je (X, +, ·) vektorski prostor. Podskup W ⊂ X čini vektorski podprostor
prostora X ako je on vektorski prostor uz iste operacije koje su definirane na prostoru
X.
Da bi neki podskup vektorskog prostora bio vektorski podprostor, nužno je i do-
voljno da linearne kombinacije vektora iz tog podskupa ostaju u njemu:

Teorem 1. Neka je X vektorski prostor. W ⊂ X je podprostor onda i samo onda


ako vrijedi
(1) za sve vektore x, y ∈ W i skalare α , β ∈ R je α x + β y ∈ W .

DOKAZ. Činjenica da je W podskup vektorskoga prostora dozvoljava nam da ne pro-


vjeravamo posebno vrijede li svojstva VP1 , VP2 , VP5 , VP6 , VP7 i VP8 u prostoru
W : ona su ispunjena jer vrijede u većem prostoru X . Potrebno je samo provjeriti da li
nul-element iz X leži u W te da li suprotni element svakoga elementa iz W i sam leži
u W.
Ako je x ∈ W , onda po pretpostavci u W leži i kombinacija 1 · x + (−1) · x = 0 .
- čim je x ∈ W , u tom prostoru leži i kombinacija 0 · x + (−1) · x = −x . Time
Takoder,
smo pokazali da je W vektorski prostor.
Obratna tvrdnja je očevidna, ako je W vektorski prostor, on mora sadržavati line-
arni spoj svaka svoja dva elementa.
Uvjet (1) iz Teorema može se zamijeniti sa sljedeća dva uvjeta
2a) ako su x, y ∈ W , onda mora biti i x + y ∈ W (zatvorenost skupa W s
obzirom na zbrajanje vektora);
(2b) ako je x ∈ W i α bilo koji skalar, onda mora biti α x ∈ W (zatvorenost
skupa W s obzirom na množenje sa skalarima).
Ekvivalenciju uvjeta (1) i (2a), (2b) čitatelj može lako sam provjeriti.
Budući svaki podprostor W sadrži nul-element 0, podprostor si obično predoču-
jemo kao ravninu (ili pravac) koji prolazi ishodištem. Medu - mogućim podprostorima
od X je i trivijalni podprostor W = {0} , koji zovemo i nul-podprostorom od X .
Podprostore od X koji su različiti od nul-podprostora i X zovemo netrivijalnim pod-
prostorima od X .

Primjer 1. Neka je W skup svih matrica A oblika


 
λ +2µ λ
A= ,
µ 3µ
gdje su λ i µ bilo koji realni brojevi. Pokažimo da je W vektorski podprostor prostora
X = M2 (R) svih realnih kvadratnih matrica reda 2 :
(a) Ako su A1 i A2 iz W , onda je i matrica
     
λ1 +2µ1 λ2 λ2 +2µ2 λ2 (λ1 +λ2 )+2(µ1 +µ2 ) λ1 +λ2
A1 + A2 = + =
µ1 3µ1 µ2 3µ2 µ1 +µ2 3µ1 +µ2
-
takoder u W .
(b) Za bilo koju matricu A ∈ W i bilo koji skalar α ∈ R je
   
λ +2µ λ tλ +2tµ tλ
tA = t = ∈ W.
µ 3µ tµ 3tµ

Primjeri vektorskih prostora. Znajući za primjere vrlo općenitih vektorskih


prostora, pomoću ovoga teorema možemo dati i neke nove primjere.
Budući da sve matrice tipa n × n čine vektorski prostor, onda će vektorski prostor
činiti i sve dijagonalne matrice, sve gornje ili donje trokutaste matrice itd., jer je linearna
kombinacija dviju takvih matrica ponovo matrica istoga oblika.
Slično, vektorski prostor čini skup C[a, b] svih neprekinutih funkcija na intervalu
[a, b] , jer je zbroj neprekinutih funkcija ponovo neprekinuta funkcija. Vektorski prostor
čini skup P svih polinoma, skup Pn svih polinoma stupnja 6 n itd.
Podprostor razapet skupom vektora. Navest ćemo najvažniji način dobivanja
vektorskih podprostora. Neka je X vektorski prostor te a1 , . . . , an bilo koji vektori iz
X . Tvrdimo da je skup
W = {a ∈ X : a = λ1 a1 + . . . + λn an , λi ∈ R}
vektorski podprostor. Da se uvjerimo u to, uzmimo dva elementa a , b ovoga skupa:
a = λ1 a1 + . . . + λn an , b = µ1 a1 + . . . + µn an .
Provjerimo uvjet (1). Vektor
α a + β b = (αλ1 + βµ1 )a1 + . . . + (αλn + βµn )an
ponovo pripada skupu W . Stoga je W vektorski podprostor od X . Nazivamo ga pod-
prostor generiran (razapet) vektorima a1 , . . . , an i označavamo s L(a1 , . . . , an ) .
Zove se još i linearni omotač ili linearna ljuska skupa vektora {a1 , . . . an } .

Primjer 2. Neka je X prostor svih funkcija definiranih na R . Izdvojimo sljedeće


funkcije
x0 (t) = 1,
x1 (t) = t,
..
.
xn (t) = tn .
Onda je L(x0 , x1 , . . . , xn ) = Pn , prostor svih polinoma stupnja 6 n .

Primjer 3. Neka je a ∈ V 3 zadani vektor. L(a) je vektorski podprostor koji čine


svi vektori kolinearni s a . Ako b nije takav, onda L(a, b) predstavlja skup svih vektora
u ravnini razapetoj s a i b .

Linearna nezavisnost vektora. Ako su v1 , . . . , vn bilo koji vektori vektorskog


prostora X i λ1 , . . . , λn bilo koji skalari, tada tom vektorskom prostoru pripada i vektor
λ1 v1 + . . . + λn vn
koji nazivamo linearnom kombinacijom vektora v1 , . . . vn .
Za vektore v1 , . . . , vn u vektorskom prostoru kažemo da su linearno nezavisni ako
iz λ1 v1 +. . .+vn λn = 0 slijedi da su svi koeficijenti jednaki nuli, tj. λ1 = . . . = λn = 0 .
Drugim riječima, kažemo da su vektori v1 , . . . , vn su linearno nezavisni ako nji-
hova linearna kombinacija iščezava samo na trivijalan način.
U suprotnom kažemo da su vektori v1 , . . . , vn linearno zavisni. Tada postoje
skalari λ1 , . . . , λn koji nisu svi jednaki nuli, takvi da vrijedi λ1 v1 + . . . + vn λn = 0 .
Dakle, vektori v1 , . . . , vn su linearno zavisni ako postoji njihova linearna kombi-
nacija koja iščezava na netrivijalan način.
Svaki skup vektora koji sadrži nul-element je linearno zavisan. Dovoljno je uzeti
linearnu kombinaciju koju čine skalari jednaki nuli, osim onog skalara uz nul vektor.
Prema tome, ako su vektori linearno nezavisni, u tom slučaju mora biti vi 6= 0 za sve
i.
Geometrijska interpretacija linearne nezavisnosti u prostorima V 2 i V 3 je ova:
dva su vektora v1 i v2 linearno nezavisni ako su neparalelni (tj. nisu na istom pravcu),
tri su vektora linearno nezavisni ako su nekomplanarni (tj. nisu u istoj ravnini).

Primjer 4. U prostoru R2 su vektori v1 = (1, 0)⊤ i v2 = (0, 1)⊤ linearno neza-


visni. Iz
λ1 v1 + λ2 v2 = 0
slijedi (λ1 , λ2 )⊤ = 0 pa je λ1 = 0 i λ2 = 0 .
- su nezavisni i vektori w1 = (4, 3)⊤ , w2 = (−2, 5)⊤ . Doista, iz
Takoder
λ1 w1 + λ2 w2 = 0 slijedi 4λ1 − 2λ1 = 0 i 3λ1 + 5λ2 = 0 , a taj sustav ima rje-
šenje λ1 = λ2 = 0 .
Vektori v1 = (1, 1)⊤ , v2 = (−1, 1)⊤ i v3 = (2, 4)⊤ su linearno zavisni, jer
vrijedi v3 = 3v1 + v2 , odnosno
3v1 + v2 − v3 = 0.
Pronašli smo netrivijalnu linearnu kombinaciju ovih vektora koja je jednaka nuli.

∗*∗

Konačno-dimenzionalni i beskonačno-dimenzionalni prostori. Svi se prosto-


ri u gornjim primjerima mogu podijeliti u dvije bitno različite skupine. Prvu čine
konačno-dimenzionalni a drugu beskonačno-dimenzionalni prostori. Je li neki pros-
-
tor konačno ili beskonačno-dimenzionalan odredujemo po broju linearno nezavisnih
vektora koje možemo u njemu pronaći. Tako na primjer, prostor P svih polinoma
zasigurno je beskonačno-dimenzionalan jer su za svaki n vektori 1 , t , t2 ,. . . , tn
linearno nezavisni: njihov linearni spoj jednak je nul funkciji ako za svaki t vrijedi
α0 + α1 t + α2 t2 + . . . + αn tn = 0
što je moguće samo ako su svi koeficijenti jednaki nuli.
Jednako tako, beskonačno-dimenzionalni su prostor neprekinutih funkcija (jer sa-
drži sve polinome!), prostor svih funkcija itd.
Područje matematike koje izučava beskonačno-dimenzionalne vektorske pros-
tore naziva se funkcionalna analiza. Linearna algebra bavi se uglavnom konačno-
dimenzionalnim prostorima.
Po prethodnoj definiciji, to znači da će u njima broj linearno nezavisnih vektora
biti ograničen.
Dimenzija vektorskoga prostora. U konačno-dimenzionalnome prostoru broj
linearno nezavisnih vektora je konačan. Sam naziv prostora sadrži u sebi riječ ‘di-
menzionalan’ koji upravo odreduje - koliki je taj broj. Dimenzija prostora maksimalan
je mogući broj linearno-nezavisnih vektora u tome prostoru. Taj broj označavamo s
dim X .
Pojam dimenzije vektorskoga prostora intuitivno je jasan. Mi smo navikli govoriti
o dvo ili tro-dimenzionalnom prostoru. Primjeri takvih prostora su R2 , V 2 , R3 , V 3
itd, broj u oznaci prostora upravo označava njegovu dimenziju. Ako su u (stupčanom)
vektorskom prostoru Rn zadano k vektora a1 , . . . , ak , vektorski prostor L(a1 , . . . , ak )
je najviše k -dimenzionalan. Može se pokazati da je dimenzija tog prostora jednaka
rangu matrice [a1 , . . . , ak ] .
-
Kod složenijih prostora dimenziju je nešto teže utvrditi. Posebice, pri odredivanju
dimenzije raznih podprostora moramo koristiti aparat linearne algebre.
-
Prije no što nastavimo s navodenjem primjera, korisno je definirati još jedan pojam
koji se prirodno nastavlja na ovo razmatranje. To je pojam baze vektorskoga prostora.
Baza vektorskoga prostora. Neka je X vektorski prostor dimenzije k . To znači
da u njemu možemo pronaći skup v1 , . . . , vk linearno nezavisnih vektora, takav da —
dodamo li mu bilo koji novi element x iz tog prostora — novodobiveni skup više neće
biti linearno nezavisan. Stoga postoje skalari λ1 , . . . , λk , λ od kojih je barem jedan
različit od nule, takvi da vrijedi
λ1 v1 + . . . + λk vk + λ x = 0.
Pri tom je sigurno λ 6= 0 , inače bi iščezavala linearna kombinacija vektora v1 , . . . , vk .
Dijeljenjem s brojem −λ vektor x prikazujemo u obliku spoja vektora v1 , . . . , vk :
λ1 λk
x = − v1 − . . . − vk .
λ λ
Prema tome, svaki se vektor prostora može napisati u obliku linearne kombinacije
v1 , . . . , vk .
Ova dva svojstva upravo definiraju bazu prostora. Zbog njezine važnosti, ponovit
ćemo ih u strogoj definiciji.
Neka je X vektorski prostor. Baza u X je svaki skup v1 , . . . , vk koji ima sljedeća
dva svojstva
(B1 ) vektori v1 , v2 , . . . , vk su linearno nezavisni, i
(B2 ) svaki drugi vektor x ∈ X može se napisati u obliku linearne kombinacije
vektora v1 , v2 , . . . , vk .
Skup svih linearnih kombinacija vektora v1 , . . . , vk označili smo s L(v1 , . . . , vk ) .
Svojstvo (B2 ) kaže da za bazu vrijedi
X = L(v1 , v2 , . . . , vk ).
Kažemo još da vektori baze razapinju čitav prostor. Prikaz svakoga vektora u odabranoj
bazi je jednoznačan. Zaista, iz pretpostavke da x ima dva različita prikaza,
x = λ1 v1 + . . . + λk vk = µ1 v1 + . . . + µk vk
slijedi
(λ1 − µ1 )v1 + . . . + (λk − µk )vk = 0
a odavde, zbog linearne nezavisnosti, svi koeficijenti moraju biti jednaki nuli, te je
λ1 = µ1 ,. . . , λk = µk .

∗*∗
Po ovoj konstrukciji baze zaključujemo da se broj vektora u bazi podudara s di-
menzijom prostora. No, ta tvrdnja nije posve očita pa bi bilo korisno dati detaljniji
dokaz. Naime, baza ima beskonačno mnogo i nije očito da će svake dvije imati isti broj
elemenata.

Teorem 2. Svake dvije baze u vektorskom prostoru X imaju isti broj elemenata.
Taj se broj podudara s dimenzijom prostora.

DOKAZ. Neka je n dimenzija prostora. Broj vektora u bazi mora biti manji ili jednak
n jer su njezini elementi linearno nezavisni vektori. Pretpostavimo da postoji baza
v1 , . . . , vm kod koje je m < n .
Neka su w1 , . . . , wn linearno nezavisni vektori toga prostora. (Takav skup postoji
jer je n dimenzija prostora.) Budući da je X = L(v1 , . . . , vm ) , postoje brojevi (aij )
takvi da vrijedi
w1 = a11 v1 + . . . + am1 vm ,
..
.
wn = a1n v1 + . . . + amn vm .
Promotrimo sad linearnu kombinaciju vektora w1 , . . . , wn . Ona ima oblik
x1 w1 + . . . + xn wn = (x1 a11 + . . . + xn a1n )v1 + . . . + (x1 am1 + . . . + xn amn )vm
(pomnožimo gornje jednakosti redom s x1 , . . . , xn i zbrojimo ih). Može li ova kombi-
nacija iščezavati na netrivijalan način? Promotrimo sustav jednadžbi
a11 x1 + . . . + a1n xn = 0,
..
.
am1 x1 + . . . + amn xn = 0.
Ovo je homogeni sustav s m jednadžbi i n nepoznanica. Kako je m < n , takav sustav
uvijek ima netrivijalno rješenje (x1 , . . . , xn ) . To znači da postoji linearna kombinacija
x1 w1 + . . . + xn wn
koja iščezava na netrivijalan način, pa su w1 , . . . , wn linearno zavisni, protivno pret-
postavci.
Time smo dobili proturječje. Pretpostavka m < n nije stoga istinita i mora biti
m = n.
Iskažimo odmah i jednu važnu posljedicu ovoga teorema.

Teorem 3. Neka je X vektorski prostor dimenzije n . Onda svaki skup v1 , . . . , vn


od n linearno nezavisnih vektora čini bazu.

DOKAZ. Prvo svojstvo (B1 ) je ispunjeno po pretpostavci. Da dokažemo drugo, dovo-


ljno je primijetiti da je za svaki vektor x skup {v1 , . . . , vn , x} linearno zavisan, inače
bi dimenzija prostora bila veća od n . No, odavde slijedi da se x može prikazati kao
linearna kombinacija vektora v1 , . . . , vn , te oni razapinju cijeli prostor.
Ovaj teorem je izrazito koristan, jer za većinu prostora s kojima baratamo mi una-
prijed znamo kolika im je dimenzija (recimo stoga što smo jednom pronašli neku bazu
- broj linearno
u njima). Želimo li odrediti neku drugu bazu, dovoljno je izabrati odreden
nezavisnih vektora; nismo dužni provjeravati razapinje li taj skup čitav prostor.

Primjer 5. U prostoru Pn polinoma stupnja 6 n bazu čine vektori


e0 (t) = 1,
e1 (t) = t,
e2 (t) = t2 ,
..
.
en (t) = tn ,
stoga je njegova dimenzija n + 1 .
Ovi su vektori linearno nezavisni. Naime, ako njihova linearna kombinacija, tj.
polinom a0 + a1 t + . . . + an tn stupnja 6 n iščezava na nekom intervalu (a, b) , onda
taj polinom ima bezbroj nultočaka, a to svojstvo prema Gaussovu osnovnom teoremu
algebre ima samo nul-polinom, tj. vrijedi ai = 0 za sve i .
Promotrimo sljedeći skup:
e′0 (t) = 1,
e′1 (t) = t − 1,
e′2 (t) = (t − 1)2 ,
..
.

en (t) = (t − 1)n .
Tvrdimo da i ovaj skup čini bazu. Broj elemenata u njemu je n + 1 . Oni su linearno
nezavisni jer svaki polinom ima veći stupanj od prethodnih i ne može se prikazati kao
njihova linearna kombinacija. Stoga, po teoremu, ovaj skup čini bazu.
Zaključujemo da se svaki polinom P(t) može napisati u obliku
P(t) = λ0 + λ1 (t − 1) + . . . + λn (t − 1)n .
Ovdje se zapravo radi o razvoju polinom u red potencija oko točke a = 1 , pa se
(k)
koeficijenti dobivaju formulom λk = P k!(1) .

Primjer 6. Dokažimo da polinomi 1 , 1 − t , 1 + t + t2 čine bazu u vektorskom


prostoru P2 svih polinoma najviše drugog stupnja s realnim koeficijentima.
Budući da je dim P2 = 3 , dovoljno je pokazati da su zadani polinomi linearno
nezavisni. Jednadžba λ1 · 1 + λ2 (1 − t) + λ3 (1 + t + t2 ) ≡ 0 je ekvivalentna sa sustavom
λ1 + λ2 + λ3 = 0 , −λ2 + λ3 = 0 , λ3 = 0 , čije jedino rješenje je λ1 = λ2 = λ3 = 0 .

∗*∗
Interesantno je da vrijedi i obrat teorema 3. Ako ne želimo provjeravati linearnu
nezavisnost, onda možemo iskoristiti ovaj teorem:

Teorem 4. Neka je X vektorski prostor dimenzije n . Ako za vektore v1 , . . . , vn


vrijedi L(v1 , . . . , vn ) = X , onda oni čine bazu.

DOKAZ. Moramo dokazati da su ovakvi vektori linearno nezavisni. Pretpostavimo su-


protno. Izbacimo iz poredanog skupa (v1 , . . . , vn ) sve vektore koji su linearno zavisni
s prethodnima. Dobit ćemo skup koji će sadržavati m < n vektora, biti će linearno
nezavisan i još uvijek će razapinjati isti prostor. Takav skup je baza prostora, s manjim
brojem elemenata od dimenzije prostora — proturječje. Zato su početni vektori linearno
nezavisni.

∗*∗
Po ova dva teorema, pokazali smo da je skup v1 , . . . , vk baza u prostoru X ako
vrijede bilo koja dva od sljedeća tri uvjeta:
• k = dim X ,
• v1 , . . . , vk su linearno nezavisni,
• v1 , . . . , vk razapinju prostor X .
Treće je svojstvo u tom slučaju posljedica odabrana dva.

∗*∗
Navedimo sad još neke načine konstruiranja vektorskih prostora.
1
engl. vector space, njem. Vektorraum, franc. l’espace vectoriel, rus. vektornoe prostranstvo.
2 1. VEKTORSKI PROSTORI

Presjek podprostora. Presjek dvaju podprostora nekog vektorskog prostora je


opet podprostor. Točnije, pretpostavimo da su X i Y podprostori vektorskog prostora
- vektorski podprostor. Lako je vidjeti da unija dvaju
Z . Onda je i presjek X ∩ Y takoder
vektorskih podprostora općenito nije vektorski podprostor, osim ako je X podprostor
od Y ili obratno.

Primjer 7. Neku su X = L(a1 , a2 ) i Y = L(b1 , b2 , b3 ) podprostori od R4 zadani


sa a1 = (0, −1, 1, 1) i a2 = (2, 4, 2, 1) , te b1 = (1, 1, 1, 1) , b2 = (1, 2, 0, 0) i
b3 = (1, 2, 2, 1) . Odredite dimenziju prostora X ∩ Y i nadi - neku njegovu bazu.
Vrijedi x ∈ X∩Y onda i samo onda ako je x ∈ X i x ∈ Y , tj. x = λ1 a1 +λ2 a2 i x =
λ3 b1 + λ4 b2 + λ5 b3 za neke skalare λi ∈ R . Dakle, λ1 a1 + λ2 a2 = λ3 b1 + λ4 b2 + λ5 b3 ,
tj.
λ1 a1 + λ2 a2 − λ3 b1 − λ4 b2 − λ5 b3 = 0.
Po komponenatama u R4 dobivamo sustav četiriju jednadžbi s pet nepoznanica:
2λ2 −λ3 − λ4 − λ5 = 0
−λ1 +4λ2 −λ3 − 2λ4 −2λ5 = 0
λ1 +2λ2 −λ3 −2λ5 = 0
λ1 +λ2 −λ3 − λ5 = 0
Rješavanjem tog sustava Gaussovom metodom eliminacije, svodenjem - proširene mat-
rice sustava na reducirani oblik, dobivamo dvije slobodne varijable λ4 i λ5 , a vezane
varijable su λ1 = −λ4 + λ5 , λ2 = λ5 , λ3 = −λ4 + λ5 (ili neki njemu ekviva-
lentan sustav). Podsjetimo se, rang matrice definira se kao maksimalni mogući broj
linearno nezavisnih redaka. Rang sustava je u ovom slučaju r = 3 (jer je jednak
broju stožernih elemenata, tj. vezanih varijabla), pa je dimenzija skupa rješenja jednaka
n − r = 5 − 3 = 2 (broj slobodnih varijabla), tj. dim X ∩ Y = 2 . Da bismo dobili neku
bazu u X ∩ Y , primijetimo da je
x = λ1 a1 + λ2 a2 = (−λ4 + λ5 )(0, −1, 1, 1) + λ5 (2, 4, 2, 1)
= λ4 (0, 1, −1, −1) + λ5 (2, 3, 3, 2).
Prema tome jednu bazu u prostoru X ∩ Y čine vektori e = (0, 1, −1, −1) i f =
(2, 3, 3, 2) .

Zbroj dvaju podprostora. Za dva podprostora E i F od X možemo definirati


zbroj podprostora E + F kao skup svih vektora oblika e + f , gdje je e ∈ E i f ∈ F .
- podprostor od X . Ako je pritom E ∩ F = {0} , onda zbroj takvih prostora
To je takoder
zovemo direktnom sumom podprostora, i označavamo sa E ⊕ F . Svaki vektor iz di-
rektne sume onda možemo na jednoznačan način prikazati u obliku e+f , gdje je e ∈ E
i f ∈ F . Ako je {e1 , . . . , ek } baza u E i {f 1 , . . . , f l } baza u F , onda je unija tih dviju
baza — baza prostora E ⊕ F , i dimenzija mu je k + l , tj. dim X ⊕ Y = dim X + dim Y .
Ako su X i Y dva vektorska prostora nad istim poljem, onda je prirodno definirati
kartezijev produkt vektorskih prostora X × Y kao vektorski prostor parova (x, y)
takvih da je x ∈ X i y ∈ Y . Zbrajanje parova definiramo po komponentama, a množe-
nje sa skalarom kao λ (x, y) = (λ x, λ y) . Jasno je da je dim(X × Y) = dim X + dim Y ,
jer ako je ei baza u X , a f j baza u Y , onda vektori (ei , 0) i (0, f j ) zajedno čine bazu
u X×Y.
Ako je B bilo koji podskup od X , onda možemo definirati vektorski podprostor
svih linearnih kombinacija elemenata iz B . Ako je Y pravi podprostor od X takav da
za bilo koji e ∈ / Y vrijedi L(Y ∪ {e}) = X , onda kažemo da je Y podprostor u X
kodimenzije jedan, ili hiperprostor. Drugim riječima, podprostor Y je kodimenzije
jedan ako postoji jednodimenzionalan podprostor E u X takav da je Y ⊕ E = X . Npr.
ako je {x1 , . . . , xk } baza u X , onda je podprostor L(x1 , . . . , xk−1 ) kodimenzije 1 u X .
1. VEKTORSKI PROSTORI 3

1.2. Vektorski prostori nad općim poljem i prostori funkcija

U uvodnim primjerima navodili smo vektorske prostore u kojima su skalari bili


realni brojevi. Bilo je rečeno da se jednako tako mogu promatrati i skalari iz polja
kompleksnih brojeva. Medutim,- vektorski prostor se može definirati i nad bilo kojim
poljem skalara, pa čak i nad konačnim poljima. Opišimo detaljnije algebarske strukture
koje se javljaju pri definiciji vektorskih prostora.
Grupa. Neprazni skup G zajedno s binarnom operacijom ◦ jest grupa ako vri-
jede sljedeća četiri svojstva:
1) za svaka dva elementa a, b ∈ G je a ◦ b ∈ G ,
2) za sve a, b, c ∈ G je a ◦ (b ◦ c) = (a ◦ b) ◦ c ,
3) postoji element e ∈ G takav da za sve a ∈ G vrijedi e ◦ a = a ◦ e = a ( e se zove
neutralni element)
4) za svaki a ∈ G postoji a−1 ∈ G takav da je a ◦ a−1 = a−1 ◦ x = e ( a−1 se zove
inverzni element od a ).
Ako je još k tome binarna operacija komutativna, onda kažemo da je G komuta-
tivna ili Abelova grupa 1 . Grupu kraće označavamo s (G, ◦) , ili samo kao G ako je
jasno o kojoj se binarnoj operaciji radi.
U slučaju da je binarna operacija zapisana multiplikativno, tj. kao množenje, onda
umjesto e često pišemo 1 . Ako je binarna operacija na G zapisana aditivno, tj. kao
+ , onda automatski smatramo da je grupa Abelova, neutralni element zovemo nul-
elementom i označavamo s 0 , a inverzni element od a zove suprotnim elementom i
označavamo s −a .

Primjer 8. Neki jednostavni primjeri grupa su ovi.


a) skup realnih brojeva R s obzirom na zbrajanje (takoder - i Q , Z , C s obzirom na
istu operaciju);
b) R \ {0} s obzirom na množenje (takoder - i Q \ {0} , C \ {0} , ali i skup pozitivnih
brojeva R+ .
Nekoliko primjera različitih konačnih grupa:
c) grupa G = {1, −1} s operacijom množenja;
d) Zn = {0, 1, 2, . . . , n − 1} ostataka modulo n . Elemente zbrajamo po modulu n ,
tj. a +n b je jednak ostatku koji se dobiva pri dijeljenju uobičajenog zbroja a + b
s n . Na pr. u Z3 = {0, 1, 2} , vrijedi 2 +3 2 = 1 , 1 +3 2 = 0 , pa je suprotan
element broja 1 jednak −1 = 2 .
e) Skup Z∗n = {1, 2, . . . , n − 1} je grupa s obzirom na množenje ·n po modulu n
onda i samo onda ako je n prim-broj. Npr. u Z∗3 = {1, 2} je 2 · 2 = 1 , pa
je 2−1 = 2 . Broj n mora biti prost, inače skup nije zatvoren uz ovu operaciju
množenja. Na primjer, ako je n = 6 , onda vrijedi 2 · 3 = 0 .
f ) Za svaki prirodni broj n > 2 , skup kompleksnih brojeva εk = cos 2πn k + i sin 2πn k ,
k = 0, 1, . . . , n − 1 ( n -ti korijeni jedinice) čini grupu s obzirom na uobičajeno
množenje kompleksnih brojeva.
Još neki primjeri grupa iz matrične algebre:
g) Skup svih kvadratnih matrica zadanog reda n koje su invertibilne čini grupu s ob-
zirom na množenje matrica kao binarnu operaciju. Jedinični element je jedinična
matrica. Ova grupa nije komutativna za n > 2 .
h) Sve kvadratne matrice kojima je determinanta jednaka 1, uz množenje kao binarnu
operaciju.

Polje. U definiciji vektorskog prostora važnu ulogu igra i polje skalara. Prisjetimo
se definicije polja.
Neprazan skup K zajedno s dvije binarne operacije, zbrajanjem + i množenjem
· jest polje, ako vrijedi:
a) (K, +) je komutativna grupa (znači, ima nulu kao neutralni element)
b) (K \ {0}, · ) je komutativna grupa s obzirom na množenje (neutralni element
označavamo s 1 ),
c) za sve λ , µ , ν ∈ K vrijedi λ (µ + ν ) = λ µ + λ ν (distributivnost zbrajanja prema
množenju).
Polje označavamo kao trojac (K, +, ·) , ili kraće samo kao K ako su pripadajuće
dvije binarne operacije poznate.

Primjer 9. Najjednostavniji primjeri polja su


1) polje kompleksnih brojeva (C, +, ·) ;
2) (R, +, ·) polje realnih brojeva;
3) polje racionalnih brojeva (Q, +, ·) ;
4) Neka od konačnih polja su (Zp, +p , ·p ) , gdje je p prim-broj. Polje s najma-
njim mogućim brojem elemenata je Z2 = {0, 1} , s množenjem i zbrajanjem po
modulu 2 .

Elemente nekog polja K (kod nas najčešće R ili C ) zvat ćemo skalarima. Skalar
je dakle drugi naziv za “broj”.
Sad možemo iskazati opću definiciju vektorskog prostora.
Vektorski prostor (X, +, ·) nad zadanim poljem K sastoji se od skupa vektora X
i dviju algebarskih operacija, zbrajanja vektora ( + ) i množenja vektora skalarom ( · )
tako da vrijedi:
1) zbroj dvaju vektora iz X pripada opet skupu X ,
2) umnožak bilo kojeg skalara λ ∈ K i vektora x ∈ X jest vektor λ · x koji pripada
skupu X . (U nastavku ćemo ovaj umnožak pisati bez znaka operacije: λ x .)
Pri tom ove operacije moraju imati svojstva:
a) (X, +) je aditivna Abelova grupa,
b) operacije množenja skalara u polju K i množenja skalara s vektorima u X su
-
uskladene, vrijedi
λ (µ x) = (λ µ )x, 1x = x,
za sve λ , µ ∈ K i x ∈ X ;
c) vrijede zakoni distribucije:
(λ + µ )x = λ x + µ x, λ (x + y) = λ x + λ y,
za sve λ , µ ∈ K i x, y ∈ X .
Operacija množenja · u vektorskom prostoru (X, +, ·) odnosi se na množenje
skalara iz K s vektorima iz X i ne smije se brkati s operacijom množenja skalara u
polju K , iako se označavaju na isti način.
∗*∗
Navedimo neke primjere vektorskih prostora nad nestandardnim poljima.

Primjer 10. Jedan od najvažnijih primjera konačno-dimenzionalnih prostora je


X = Rn nad poljem K = R . Lako se vidi da je dim Rn = n . Slično, vektorski
prostor X = Cn nad poljem K = C je n -dimenzionalan. Ako gledamo vektorski
prostor X = Cn nad poljem K = R , onda je njegova dimenzija 2n . U tom slučaju
naime možemo Cn poistovjetiti s R2n , jer je C = R × R (Gaussova ravnina).

Primjer 11. Skup realnih brojeva R nad poljem R (nad samim sobom) je jed-
nodimenzionalan. S druge strane, isti skup R nad poljem racionalnih brojeva je
beskonačno-dimenzionalan. Npr. ako je π = 3.14 . . . Ludolphov broj, onda se poka-
zuje da je beskonačan skup 1, π , π 2 , . . . linearno nezavisan (tj. svaki njegov konačan
podskup je linearno nezavisan). Razlog je taj što je broj π transcendentan, tj. ne
može se dobiti kao nultočka nekog netrivijalnog polinoma (tj. P(x) 6≡ 0 ) s racionalnim
koeficijentima.

Primjer 12. Spomenimo i primjere vektorskih prostora koji imaju konačno mnogo
elemenata. Takav je npr. prostor X = Z2 × Z2 nad poljem K = Z2 , koji ima četiri
elementa (vektora). Njegova dimenzija jednaka je 2 . Zbroj bilo koja dva ista vektora
je nul-vektor. On ima ukupno tri netrivijalna podprostora. To su tri pravca kroz is-
hodište, a svaki pravac sastoji se od samo dva elementa. Općenitije, vektorski prostor
X = Zp × . . . × Zp ( k puta), gdje je p prost broj, je k -dimenzionalni vektorski prostor
nad poljem Zp . On ima konačno mnogo elemenata, ukupno pk .

Moguće je definirati matrice s elementima iz zadanog polja K , množenje matri-


ca. Pojam determinante kvadratne matrice, regularne matrice, inverzne matrice, ranga,
defekta su potpuno analogni kao i za polje K = R . Inverzna matrica nad poljem K
računa se po analognoj formuli,
A−1 = (det A)−1 (Aij )⊤ , Aij = (−1)i+j Mij ,
gdje su Mij minore matrice A (dobiju se tako da brišemo i -ti redak i j -ti stu-
pac matrice A i izračunamo determinantu). Vrijedi i Binet-Cauchyjeva formula
det AB = det A det B .
 
−1 1 3
Primjer 13. Izračunajmo A za A = , s koeficijentima iz polja Z7 =
0 5
{0, 1, 2, 3, 4, 5, 6} . Vrijedi
 ⊤    
−1 1 5 0 5 4 1 5
A = =3 = .
5 −3 1 0 1 0 3
Ovdje smo 1/5 računali tako da računamo umnoške 5 · 2 , 5 · 3 ,. . . 5 · 6 . Jedan od
tih umnožaka jednak je jedan: 5 · 3 = 1 , dakle 5−1 = 3 . Takoder, - −3 = 4 jer je
3 + 4 = 0.

∗*∗
Istaknimo sad najvažnije primjere vektorskih prostora realnih funkcija.
Prostor neprekinutih funkcija na otvorenom intervalu. Skup X svih nepre-
kinutih funkcija f : (a, b) → R , gdje je interval (a, b) učvršćen čini beskonačno-
dimenzionalni vektorski prostor nad poljem realnih brojeva. U beskonačnom slijedu ne-
prekinutih funkcija 1, x, x2 , . . . , xk , . . . , skup funkcija {1, x, x2 , . . . , xk } je linearno ne-
zavisan za svaki k , zato je i skup svih neprekinutih funkcija beskonačno-dimenzionalan.
Taj važan prostor označavamo sa C(a, b) i zovemo prostorom neprekinutih
funkcija na intervalu (a, b) . Ovdje se dopušta da bude a ili b beskonačno, npr.
C(0, ∞) . Primijetimo da neprekinute funkcije definirane na otvorenom intervalu mogu
imati singularitet na rubu intervala, kao npr. funkcija 1/x ∈ C(0, 1) .
Prostor jednoliko neprekinutih funkcija na zatvorenom intervalu. Sljedeći
primjer vektorskog prostora, takoder - beskonačno-dimenzionalni, je prostor nepreki-
nutih funkcija na zatvorenom intervalu [a, b] . Označavamo ga sa C[a, b] . Svaka
funkcija neprekinuta na zatvorenom intervalu je uniformno (jednoliko) neprekinuta na
tom intervalu: za svaki ε > 0 postoji δ > 0 tako da za sve x1 , x2 ∈ [a, b] iz uvjeta
|x1 − x2 | 6 δ slijedi |f (x1) − f (x2 )| 6 ε .
Zato C[a, b] zovemo prostorom uniformno neprekinutih funkcija. Neprekinuta
-
funkcija definirana na zatvorenom intervalu je uvijek omedena, pa funkcije iz C[a, b]
ne mogu imati singularitet, za razliku od funkcija iz prostora C(a, b) . Lako se vidi
da je C[a, b] ⊂ C(a, b) , tj. svaka funkcija f : [a, b] → R ujedno definira funkciju
f : (a, b) → R .
Prostori neprekinuto diferencijabilnih funkcija. Na sličan način može se defi-
nirati vektorski prostor C1 (a, b) svih funkcija f : (a, b) → R koje su svuda diferenci-
jabilne i njihova derivacija f ′ je neprekinuta. Analogno i skup C2 (a, b) svih funkcija
y = f (x) za koje su f , f ′ i f ′′ neprekinute (zapravo, dovoljno je zahtijevati samo
neprekinutost od f ′′ ).
Slično definiramo i prostor C1 [a, b] kao skup svih funkcija f ∈ C1 (a, b) takvih da
se derivacija f ′ : (a, b) → R može proširiti do neprekinute funkcije f ′ : [a, b] → R .
Poanta je u tome da su za f ∈ C1 [a, b] funkcije f i f ′ neprekinute na zatvorenom
-
intervalu (dakle i omedene), za razliku od funkcija iz C1 (a, b) . Slično definiramo
2
C [a, b] , kao vektorski prostor funkcija čije se prve i druge derivacije mogu proširiti
s intervala (a, b) do neprekinute funkcije (dakle i omedene) - na zatvorenom intervalu
[a, b] .
Prostor kvadratno integrabilnih funkcija. Za funkciju f : (a, b) → R kažemo
da je kvadratno integrabilna ako vrijedi
Z b
|f (x)|2 dx < ∞.
a
Prostor svih takvih funkcija označavamo sa L2 (a, b) i zovemo Lebesgueovim prosto-
rom kvadratno integrabilnih funkcija (kratko: L2 -prostor). Vidjet ćemo kasnije da
je to doista vektorski prostor, tj. iz f , g ∈ L2 (a, b) slijedi da je i f + g ∈ L2 (a, b) . Npr.
x−1/3 ∈ L2 (0, 1) , ali x−2/3 ∈
/ L2 (0, 1) .

Primjer 14. Srednja vrijednost funkcije f definira se pomoću integrala


Z b
1
f¯ = f (x)dx.
b−a a
(Srednja vrijednost funkcije pomnožena duljinom intervala daje vrijednost integrala te
funkcije.)
Skup svih funkcija f ∈ L2 (a, b) za koje je srednja vrijednost jednaka nuli je
podprostor Y od L2 (a, b) čija kodimenzija je 1 . Doista, označimo li sa E podprostor
svih konstantnih funkcija (možemo ga poistovjetiti sa R ), onda je L2 (a, b) = E ⊕ Y .
Svaku funkciju f ∈ L2 (a, b) možemo naime rastaviti na dva dijela: f (x) =
e(x) + g(x) pri čemu je e(x) konstantna funkcija,
Z b
1
e(x) := f¯ = f (x) dx,
b−a a
a g(x) je definirana razlikom
Z b
1
g(x) := f (x) − f (x),
b−a a
i pritom je e ∈ E i g ∈ Y .

Iz ovih primjera dobivamo već cijelu jednu beskonačnu skalu vektorskih podpros-
-
tora uloženih u L2 (a, b) (ovdje pretpostavljamo da je interval (a, b) omeden):
{0} ⊂ P1 ⊂ P2 ⊂ . . . ⊂ Pk . . . ⊂ C2 ([a, b]) ⊂ C1 ([a, b]) ⊂ C([a, b]) ⊂ L2 (a, b).
Primijetimo da prostor C(0, 1) nije sadržan u L2 (0, 1) , jer npr. 1/x jest u C(0, 1) , ali
nije u L2 (0, 1) .
4 1. VEKTORSKI PROSTORI

1.3. Promjena baze

Neka je X bilo koji vektorski prostor dimenzije n te {e1 , . . . , en } , {e′1 , . . . , e′n }


dvije po volji odabrane baze u tome prostoru. Prvu ćemo zvati stara, a drugu nova baza.
Vektor x ima u te dvije baze prikaz
x = x1 e1 + . . . + xn en = x′1 e′1 + . . . + x′n e′n .
U ovakvoj situaciji prirodno se nameće pitanje: na koji su način povezane kompo-
nente vektora u staroj i novoj bazi? Da bismo odgovorili na nj, potrebno je pronaći vezu
izmedu- vektora stare i nove baze. Ta se veza može izraziti na dva načina. Budući da
su obje baze ravnopravne, možemo prikazati vektore nove baze kao spoj vektora stare
i obratno. Odaberimo prvu mogućnost:
e′1 = t11 e1 + . . . + tn1 en ,
.. (1)
.

en = t1n e1 + . . . + tnn en .
Načinimo matricu prijelaza izmedu - dviju baza:
 
t11 . . . t1n
T =  ... .
tn1 . . . tnn
Njeni stupci predstavljaju komponente vektora nove baze prikazanih pomoću vektora
stare baze.
-
Predimo sad na izračun komponenata vektora u ove dvije baze.
X n X n X n  X n X
n 
′ ′ ′ ′
x= xj ej = xj tij ei = tij xj ei .
j=1 j=1 i=1 i=1 j=1
Odavde zaključujemo da vrijedi
n
X
xi = tij x′j (2)
j=1
ili, u matričnom zapisu
x = Tx′ , tj. x′ = T−1 x. (3)
Drugim riječima, tražene komponente x′1 , . . . , x′n rješenje su linearnoga sustava
  ′   
t11 t12 . . . t1n x1 x1
 ..  ..  =  .. . (4)
. . .
tn1 tn2 . . . tnn x′n xn
Matrica sustava je regularna jer je punoga ranga (stupci su linearno nezavisni), stoga
ovaj sustav uvijek ima (jednoznačno) rješenje.
Ako je T matrica prijelaza iz baze B = {e1 , . . . , en } u bazu B′ = {e′1 , . . . , e′n }
u prostoru Rn , a matrica S matrica prijelaza iz baze B′ u bazu B′′ , onda je matrica
prijelaza iz baze B u B′′ jednaka TS . Doista, iz x = Tx′ , x′ = Sx′′ uvrštavanjem
slijedi x′′ = TSx′ .
Posebno, ako je T matrica prijelaza iz baze B = {e1 , . . . , en } u bazu B′ =
{e1 , . . . , e′n } u prostoru Rn , a matrica S matrica prijelaza iz baze B′ nazad u B , onda

je TS = I , jer je matrica prijelaza iz baze B u samu sebe očevidno jednaka jediničnoj


matrici I . Prema tome matrica prijelaza T je regularna i vrijedi S = T −1 .
Prostor Rn . Za nas je najvažniji primjer prostora Rn . Promotrimo opisane poj-
move i njihove veze u ovoj jednostavnijoj situaciji.
O elementima prostora Rn možemo govoriti kao o vektor-stupcima, ili pak o
vektor-retcima: to je samo stvar zapisivanja vektora. Mi ćemo ovdje zapisivati elemen-
te prostora kao poredane n -terce. Operacije su definirane na način:
(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn ),
α (x1 , . . . , xn ) = (α x1 , . . . , α xn ).
U prostoru Rn izdvajamo n karakterističnih vektora:
e1 = (1, 0, . . . , 0),
e2 = (0, 1, . . . , 0),
..
.
en = (0, 0, . . . , 1).
Skup {e1 , e2 , . . . , en } nazivamo kanonskom bazom prostora Rn .
Pokažimo da ovaj skup zaista čini bazu prostora. Linearna kombinacija tih vektora
ima oblik:
λ1 e1 + . . . + λn en = λ1 (1, . . . , 0) + . . . + λn (0, . . . , 1) = (λ1 , . . . , λn )
i ona iščezava onda i samo onda kad su svi skalari λi jednaki nuli. Nadalje, bilo koji
element x = (x1 , . . . , xn ) ∈ Rn može se napisati u obliku
x = (x1 . . . , xn ) = x1 (1, . . . , 0) + . . . + xn (0, . . . , 1) = x1 e1 + . . . xn en
te je on spoj vektora e1 , . . . , en .
Time smo utvrdili da je dimenzija prostora Rn jednaka n .

Primjer 15. Kanonsku bazu vektorskog prostora svih pravokutnih matrica zadanog
tipa m × n čini ukupno mn matrica oblika Eij tipa m × n , čiji element u i -tom retku
i j -tom stupcu je 1 , a svi ostali su 0 . dim Mm,n = mn . Skup svih gornjih trokutastih
kvadratnih matrica reda n čini vektorski dimenzije 12 n(n+1) . Jednu njegovu kanonsku
bazu čine matrice Eij gdje je i 6 j , tj. s jedinicom na dijagonali ili iznad nje. Tih
matrica ima ukupno n + (n − 1) + . . . + 1 = 12 n(n + 1) , jer na dijagonali imamo mjesta
za n jedinica, na sporednoj dijagonali n − 1 mjesta, itd.

∗*∗
Baza u svakom vektorskom prostoru ima beskonačno mnogo, sve su one medu -
sobom ravnopravne. Mi smo slobodni birati bazu po vlastitome izboru, ovisno o pro-
blemu koji rješavamo. U prostoru Rn je za većinu problema najpogodnija kanonska
baza, jer su koeficijenti vektora u toj bazi jednaki njegovim koordinatama. Medutim, -
u nekim je problemima nužno preći i na neku drugu bazu. Općeniti postupak prijelaza
opisali smo u prošloj točki. No, ako je jedna od baza kanonska, onda se taj postupak
pojednostavnjuje.
Neka je dakle e1 , . . . , en kanonska, a e′1 , . . . , e′n neka druga baza. Vektor x ima
u te dvije baze prikaz
x = x1 e1 + . . . + xn en = x′1 e′1 + . . . + x′n e′n .
Olakšanje prema općenitoj situaciji sastoji se u tome što je prikaz vektora nove baze
preko vektora stare iznimno jednostavan: koordinate vektora jednake su komponentama
u tome prikazu: Neka je
e′1 = (t11, . . . , tn1 ) = t11 e1 + . . . + tn1 en ,
..
.
e′n = (t1n, . . . , tnn ) = t1n e1 + . . . + tnn en ,
zapis vektora druge baze. Onda imamo sljedeću vezu:
x = Tx′ . (5)
odnosno
x′ = T−1 x. (6)

Primjer 16. Vektori a1 = i + j , a2 = −2i + j čine bazu u prostoru V 2 . Kako


glase koordinate točke T(2, 3) kartezijevoga sustava u sustavu (O; a1 , a2 ) ?
Pitanje je ekvivalentno ovome: Kako glasi rastav radij-vektora točke T po bazi
a1 , a2 ? Po formuli (5), zbog OT = x′ a1 + y′ a2 koordinate (x′ , y′ ) točke T dobivamo
rješavajući sustav     
1 −2 x′ 2
= .
1 1 y′ 3
Odavde:     −1       8 
x′ 1 −2 2 1 1 2 2
= = = 31 .
y′ 1 1 3 3 −1 1 3 3

Moguć je naravno i izravan način rješavanja preko 2i + 3j = x′ (i + j) + y′ (−2i + j) .


1. VEKTORSKI PROSTORI 5

1.4. Skalarni produkt i unitarni vektorski prostori

Skalarni produkt u V 3 . Skalarni produkt 1 vektora u trodimenzionalnom pros-


toru definirali smo formulom
a · b := |a| |b| cos ϕ (7)
-
gdje smo ozačili s |a| , |b| duljine vektora a i b , a s ϕ kut medu njima. Ova formula
nije pogodna za poopćenje u n -dimenzionalni prostor, naprosto stoga što nam zor ne
pomaže niti pri računanju duljine niti kuta izmedu - dva vektora u takvome prostoru.
No, postoji i druga formula. Ako je {i, j, k} kanonska baza u V 3 u kojoj vektori
imaju prikaze
a = ax i + ay j + az k, b = bx i + by j + bz k,
onda se skalarni produkt računa formulom
a · b = ax bx + ay by + az bz . (8)
Za razliku od prethodne, ova se formula direktno poopćava u n -dimenzionalni
prostor Rn .
-
Skalarni produkt u Rn . Elementi prostora Rn uredene su n -torke:
x = (x1 , . . . , xn ), y = (y1 , . . . , yn ).
Skalarni produkt (umnožak) vektora x i y označavamo s (x | y) i definiramo for-
mulom
(x | y) := x1 y1 + . . . + xn yn . (9)
Imajući definiran skalarni umnožak, možemo definirati geometrijske pojmove koje
ne možemo naslutiti po zoru. Tako na pr. duljina (norma) vektora računa se formulom
p q
kxk = (x | x) = x21 + . . . + x2n . (10)
- vektorima služi nam formula (7):
Za definiciju kuta medu
(x | y)
cos ϕ = . (11)
kxk · kyk
Specijalno, često ćemo koristiti pojam okomitosti. Dva su vektora x i y okomita,
(kažemo još ortogonalna) ako je njihov skalarni umnožak jednak nuli:
x ⊥ y ⇐⇒ x1 y1 + . . . + xn yn = 0. (12)
Svojstva skalarnoga produkta. Izdvojiti ćemo četiri osnovna svojstva skalarnoga
produkta:
1) Pozitivnost. Za svaki x ∈ Rn vrijedi (x | x) > 0 . Nadalje, (x | x) = 0 ako i
samo ako je x = 0 . Ovo svojstvo slijedi neposredno iz definicije, (x | x) jednak
je kvadratu duljine vektora x .
2) Homogenost. Za svaki skalar α ∈ R vrijedi
(α x | y) = (x | α y) = α (x | y).
Dokaz ovoga svojstva osniva se na definiciji množenja vektora sa skalarom:
Xn Xn
(α x | y) = (α xi )yi = α xi yi = α (x | y),
i=1 i=1
slično za umnožak (x | α y) .
3) Komutativnost. Za svake x, y ∈ Rn vrijedi
(x | y) = (y | x).
Očevidno!
4) Aditivnost. Za svaka tri vektora x, y, z ∈ Rn vrijedi
(x + y | z) = (x | z) + (y | z).
I ovo se svojstvo lako provjerava.
Svojstva aditivnosti i homogenosti zovemo jednim imenom linearnost skalarnoga
produkta.
∗*∗
Zbog čega izdvajamo upravo ova četiri svojstva skalarnoga produkta? Razlog tome je što se
pomoću njih može definirati skalarni produkt u općenitijem prostoru X : to je svaka funkcija defini-
rana na X × X i s vrijednostima u R , koja zadovoljava ta četiri svojstva. Tako na primjer, u prostoru
funkcija primjer skalarog produkta dan je formulom
Z b
(f | g) := f (t)g(t)dt.
a
Vektorski prostor X na kojem je definiran skalarni produkt naziva se unitarni prostor, koji ćemo
uvesti malo niže u ovom odjeljku. Svaki vektorski prostor nije unitaran — na nekim se skalarni
produkt ne da definirati. Proučavanjem unitarnih prostora bavi se (uz mnoge druge probleme) dio
matematike zvan funkcionalna analiza.
Ukoliko je polje skalara C , onda se definicija skalarnog produkta mora neznatno izmijeniti.
Svojstvo (2) glasi samo (α x | y) = α (x | y) , a svojstvo (3) se mijenja u (x | y) = (y | x) . Primijetimo
da je zbog toga (x | α y) = α (x | y) . Tako na primjer, ako su f i g funkcije s vrijednostima koje
mogu biti kompleksni brojevi, onda se gornji primjer skalarnog produkta mijenja u
Z b
(f | g) := f (t)g(t)dt.
a

∗*∗

Ortogonalna i ortonormirana baza. Pojam ortogonalnosti dvaju vektora proši-


ruje se na niz od konačno mnogo vektora: vektori x1 , . . . , xn su ortogonalni ako su
svaka dva vektora medu- njima ortogonalna. Oni su ortonormirani ako su ortogonalni
i duljina svakoga vektora jednaka je 1 .
Iz ortogonalnog skupa ne-nul vektora možemo odmah dobiti ortonormirani, dije-
ljenjem svakoga vektora s njegovom duljinom.
Primjer ortonormiranoga skupa je kanonska baza prostora Rn . Nju čine vektori
e1 = (1, 0, . . . , 0)
e2 = (0, 1, . . . , 0)
..
.
en = (0, 0, . . . , 1)
za koje prostim okom vidimo da su ortogonalni i jedinične duljine.
Ortogonalnost i linearna nezavisnost. Dva su okomita ne-nul vektora u V 2 li-
nearno nezavisna. Isto vrijedi i za tri (ili manje) vektora u prostoru V 3 : vektor okomit
na dva zadana vektora ne može ležati u njihovoj ravnini.
Ista tvrdnja vrijedi i u prostoru Rn : ortogonalni ne-nul vektori medusobno- su
linearno nezavisni. Evo zašto. Napišimo linearnu kombinaciju ortogonalnih vektora
koja iščezava:
α1 x1 + α2 x2 + . . . + αk xk = 0.
Pomnožimo ovu relaciju skalarno s vektorom x1 i iskoristimo svojstvo linearnosti
skalarnoga produkta:
α1 (x1 | x1 ) + α2 (x2 | x1 ) + . . . + αk (xk | x1 ) = 0.
Svi umnošci osim prvoga jednaki su nuli (zbog ortogonalnosti). Relacija prelazi u:
α1 kx1 k2 = 0
odakle zaključujemo da vrijedi α1 = 0 . Na isti način možemo zaključiti da su i svi
ostali koeficijenti jednaki nuli. Stoga su vektori x1 , . . . , xk linearno nezavisni.
Rastav vektora po ortogonalnoj bazi. Znamo da je problem odredivanja - kom-
ponenata nekog vektora u rastavu po odabranoj bazi u Rn ekvivalentan s rješavanjem
linearnoga sustava, dakle poprilično zahtjevan posao — osim ako je promatrana baza
ortogonalna! Ortogonalnost baze pretvara ovaj težak zadatak u trivijalan. Naime, iz
prikaza
x = x1 e1 + x2 e2 + . . . + xn en
skalarnim množenjem s vektorom e1 zbog pretpostavljene ortogonalnosti slijedi
(x | e1 ) = x1 ke1 k2
i slično za preostale koeficijente. Tako se vektor x može prikazati u obliku
(x | e1 ) (x | e2 ) (x | en )
x= 2
e1 + 2
e2 + . . . + en . (13)
ke1 k ke2 k ken k2
-
Vidimo da je za odredivanje komponenata vektora dovoljno izračunati n skalarnih um-
nožaka (vrijednosti normi u nazivniku ne ovise o vektoru x ∈ Rn i obično su unaprijed
poznate).
Ova je formula utoliko važnija jer se može poopćiti i na beskonačno-dimenzionalne
prostore, gdje pojam linearnoga sustava gubi uobičajeni smisao. Tim se problemom
bavi Fourierova analiza, grana matematike od velikoga interesa u tehnici.
Unitarni prostori. Vektorski prostor na kojem je definiran tzv. skalarni produkt
omogućava da se geometrija prostora obogati pojmom okomitosti dvaju vektora, dulji-
- vektorima.
nom vektora i udaljenošću medu
Neka je X realan (ili kompleksan) vektorski prostor. Skalarnim produktom na
X zovemo funkciju dviju vektorskih varijabla (· | ·) : X × X → R (ili C ) za koju
vrijedi:
a) (x | x) > 0 za sve x ∈ X ; (x | x) = 0 onda i samo onda ako je x = 0 (pozitivnost);
b) (λ x | y) = λ (x | y) (homogenost);
c) (x | y) = (y | x) u realnom vektorskom prostoru, a (x | y) = (y | x) u kompleksnom
(simetričnost). Radi toga je (x | λ y) = λ (x | y) za sve skalare λ ∈ C .
d) (x + y | z) = (x | z) + (y | z) (linearnost).
Vektorski prostor X snabdjeven skalarnim produktom zovemo unitarnim prosto-
rom. Često se skalarni produkt označava i sa h x, yi ili h x | yi . Primijetimo da zbog
svojstava b) i c) u realnom slučaju vrijedi (x | λ y) = λ (x | y) za sve λ ∈ R , ali u
kompleksnom slučaju je (x | λ y) = λ (x | y) za sve λ ∈ C .
Za vektore x i y kažemo da su okomiti u unitarnom prostoru X , i pišemo x ⊥ y ,
ako je (x | y) = 0 . Za vektor x kažemo da je okomit na podskup M od X ako je
(x | m) = 0 za sve m ∈ M . Skup svih vektora x koji su okomiti na podskup M čini
vektorski podprostor koji se zove ortogonalni komplement skupa M , i označava se sa
M ⊥ . Ako je M podprostor kodimenzije 1 u unitarnom prostoru X , onda je podprostor
M ⊥ jednodimenzionalan.
Jasno je da je M ⊥ = L(M)⊥ jer je x ∈ M ⊥ onda i samo onda ako je x ∈ L(M)⊥
(na pr. ako je x okomit na M onda je x okomit i na sve linearne kombinacije vektora
iz M , tj. na M ; obratno je jasno). Nadalje, ako je prostor X konačnodimenzionalan,
onda nije teško vidjeti da vrijedi
dim L(M)⊥ = dim X − dim L(M).
Na pr. ortogonalni komplement dvodimenzionalnog podprostora u R5 je trodimenzi-
onalan.
Broj p
kxk := (x | x) > 0
je zbog svojstva pozitivnosti dobro definiran za sve x ∈ X , i zove se norma vektora
x . Jasno je da vrijedi kλ xk = |λ | · kxk . S normom je na prirodan način definirana i
udaljenost d(x, y) izmedu - x i y:
d(x, y) := kx − yk.

Propozicija. U unitarnom prostoru X vrijedi nejednakost Cauchy-Schwarz-Bunia-


kowskog (nejednakost CSB):
|(x | y)| 6 kxk · kyk.
-
Takoder, vrijedi nejednakost trokuta: kx + yk 6 kxk + kyk .
DOKAZ. Pretpostavimo da je X realan vektorski prostor (u kompleksnom slučaju do-
kaz je sličan). Funkcija f : R → R definirana sa f (t) = (x + ty | x + ty) je > 0 i
kvadratna u varijabli t ∈ R :
f (t) = kxk2 + 2t(x | y) + t2 kyk2 > 0.
Prema tome je diskriminanta nepozitivna: D = b2 − 4ac = 4(x | y)2 − 4kx|2 kyk2 6 0 ,
odakle odmah slijedi nejednakost CSB. Odavde odmah dobivamo i nejednakost trokuta,
jer je kx + yk2 = (x + y | x + y) = kxk2 + 2(x | y) + kyk2 6 kxk2 + 2kxk · kyk + kyk2 6
(kxk + kyk)2

- neku bazu u prostoru L(e, f, g)⊥ , gdje su e = (1, 0, 1, 2) ,


Primjer 17. Nadi
f = (3, −1, 2, 1) i g = (5, −1, 4, 5) ∈ R4 .
Ortogonalni komplement je presjek triju podprostora e⊥ ∩ f ⊥ ∩ g⊥ , pa je odreden -
4
kao skup rješenja (x1 , x2 , x3 , x4 ) ∈ R sustava (e | x) = 0 , (f | x) = 0 i (g | x) = 0 , tj.
x1 + x3 + 2x4 = 0 , 3x1 − x2 + 2x3 + x4 = 0 i 5x1 − x2 + 4x3 + 5x4 = 0 . Svodenjem - ma-
trice tog sustava na reduciranu formu dobivamo ekvivalentan sustav x1 + x3 + 2x4 = 0 ,
x2 + x3 + 5x4 = 0 . Prema tome je rang sustava r = 2 (slobodne varijable su x3 i x4 ),
pa je dimenzija skupa rješenja n − r = 4 − 2 = 2 . Jednu bazu skupa rješenja možemo
očitati iz općeg rješenja, izrazivši vezane varijable s pomoću slobodnih:
(x1 , x2 , x3 , x4 ) = (−x3 − 2x4 , −x3 − 5x4 , x3 , x4 ) = x3 g + x4 h.
Vektori g = (−1, −1, 1, 0) i h = (−2, −5, 0, 1) čine traženu bazu podprostora
L(e, f, g)⊥ u R4 .
Ako se malo bolje pogleda, vidimo da je g = 2e + f , pa je prostor L(e, f, g) = L(e, f)
dvodimenzionalan, jer su e i f linearno nezavisni. Njegov ortogonalni komplement u R4 je onda
dimenzije 4 − dim L(e, f) = 4 − 2 = 2 .

Sl. 1.1. Ortogonalna projekcija Px


vektora x na vektor e 6= 0 .

Pojam ortogonalne projekcije vektora x na zadani vektor e 6= 0 moguće je uvesti


i u bilo koji unitarni prostor X . Ortogonalna projekcija vektora x na e 6= 0 je vektor
oblika Px = λ e takav da je x − λ e okomit na e (nacrtaj sliku), tj. (x − λ e | e) = 0 .
Time dobivamo λ = (xke|ke)2 , ili kraće,
(x | e)
Px =
e = (x |e0 ) e0 ,
kek2
gdje smo sa e0 = keek označili normirani vektor od e (tj. jedinični vektor smjera od
e ). Broj (x |e0 ) zove se skalarna projekcija vektora x na e , jer je duljina projekcije
jednaka
kPxk = |(x |e0 )|.

Primjer 18. Za vektorski prostor X = Rn elemente definiramo kao vektore stupce,


a standardni skalarni produkt sa (x | y) := x1 y1 + . . . + xn yn . Nejednakost CSB u ovom
slučaju glasi:
q q
|x1 y1 + . . . + xn yn | 6 x21 + . . . + x2n y21 + . . . + y2n ,
gdje su xi i yi bilo koji realni brojevi.

Za vektore e1 , . . . , en u unitarnom prostoru X dimenzije n kažemo da čine orto-


gonalnu bazu ako su svi medusobno - okomiti i 6= 0 . Iz ortogonalnosti se odmah vidi
njihova linearna nezavisnost (dokaz je isti kao malo prije u Rn ), a budući da je njihov
broj jednak dim X , slijedi da ti vektori razapinju X (i dakle doista čine bazu u X ). Za
svaki vektor x ∈ X onda vrijedi rastav po ortogonalnoj bazi
(x | e1 ) (x | en )
x= 2
e1 + . . . + en ,
ke1 k ken k2
a dokaz je potpuno isti kao i malo prije u slučaju prostora Rn , vidi (13). Razlomci
u ovom rastavu zovu se Fourierovi koeficijenti vektora x . Vektor (xke|k ekk2) ek je upravo
ortogonalna projekcija vektora x na ek . Riječima možemo gornji rezultat izraziti ova-
ko: vektor x jednak je zbroju svojih vektorskih projekcija po ortogonalnoj bazi (što je
gotovo očevidno).
Ako su vektori e1 , . . . , en ortogonalni i jedinični (kraće, ortonormirani vektori),
onda kažemo da oni čine ortogonalnu bazu u Rn . Vidimo da je u tom slučaju
x = (x | e1 )e1 + . . . + (x | en )en .
Računajući kxk2 = (x | x) , dobiva se odmah poznata Besselova jednakost:
kxk2 = |(x | e1 )|2 + . . . + |(x | en )|2 .
Besselova jednakost je ništa drugo nego poopćenje Pitagorina poučka. Doista, za svaki
vektor x ∈ R2 je kxk2 = |(x | i)|2 + |(x | j)|2 .
Standardnu ortonormiranu bazu u unitarnom prostoru Rn (kao i u Cn ) čine vek-
tori e1 = (1, 0, . . . , 0)⊤ , e2 = (0, 1, 0, . . . , 0)⊤ , . . . en = (0, . . . , 0, 1)⊤ . U slučaju
prostora R3 , tj. V 3 , to su poznati vektori kanonske baze i , j , k .
-
Primjer 19. Neka je X unitarni prostor. Pronadimo ortogonalnu projekciju za-
danog vektora x ∈ X na podprostor E = L(e1 , . . . , ek ) . Ovdje pretpostavljamo da
vektori ei čine ortogonalnu bazu u E . Budući da je Px = λ1 e1 + . . . + λk ek ∈ E takav
da je x − Px ⊥ E , tj. (x − Px | ei ) = 0 , vrijedi da je (x | ei ) = λi (ei | ei ) . Prema tome
je ortogonalna projekcija vektora x ∈ X na zadani podprostor E razapet ortogonalnim
vektorima e1 ,. . . ek jednaka
(x | e1 ) (x | ek )
Px = e1 + . . . + ek .
ke1 k2 ken k2
Vektor Px ∈ E je najbolja aproksimacija vektora x s pomoću vektora iz E u slje-
dećem smislu: udaljenost kx − ek za e ∈ E je minimalna onda i samo onda kad je
e = Px .
Doista, budući da su u rastavu x − e = (x − Px) + (Px − e) vektori x − Px i Px − e
-
medusobno okomiti, vrijedi
kx − ek2 = kx − Pxk2 + kPx − ek2 .
Za čvrsti x ∈ X i varijabilni e ∈ E , desna strana je minimalna kad je e = Px .
Pojam ortonormirane baze e1 , e2 , e3 , . . . u beskonačno-dimenzionalnom Hilbertovom prostoru
X je suptilniji, i vodi do pojma tzv. Fourierova reda vektora x ∈ X

X
x= (x | ek )ek ,
k=1
Rabi se ponajviše u Lebesgueovom prostoru kvadratno integrabilnih funkcija. Fourierov red je važan
u matematičkoj fizici i teoriji signala.

U vektorskom prostoru kvadratno integrabilnih funkcija L2 (a, b) definiramo ska-


larni umnožak funkcija f , g ∈ L2 (a, b) sa
Z b
(f | g) := f (x)g(x) dx.
a
Nejednakost CSB u ovom slučaju glasi:
s s
Z b Z b Z b
f (x)g(x) dx 6 f (x)2dx · g(x)2 dx.
a a a
Ako su f i g kvadratno integrabilne, onda je zbog nejednakosti trokuta i f + g kvad-
ratno integrabilna ( kf + gkL2 6 kf kL2 + kgkL2 ), pa je L2 (a, b) doista vektorski prostor.

Ako je npr. X = L2 (0, 2π ) Lebesgueov prostor kvadratno integrabilnih funkci-


R 2π
ja, sa skalarnim produktom (x | y) = 0 x(t)y(t) dt , onda funkcije ek (t) = sin kt ,
k = 1, 2, 3, . . . , čine ortogonalnu bazu u X . Neki zadani “signal” x(t) iz X možemo
rastaviti u Fourierov red po sinusoidalnim harmonicima ek (t) , koji osciliraju sve brže
i brže:

X
(x | e1 ) (x | e2 ) (x | ek )
x= 2
e1 + 2
e2 + . . . = ek
ke1 k ke2 k kek k2
k=0

-
Primjer 20. Nadimo ortogonalnu projekciju h(x) funkcije f (x) = x na funk-
ciju g(x) = sin 2x u prostoru L2 (0, 2π ) . Najprije je h = Pf = (fkg|kg)2 g . Raču-
R 2π
namo (f | g) = 0 x sin 2x dx = −π (parcijalnom integracijom), i zatim kgk2 =
R 2π R 2π
0
(sin 2x)2 dx = 12 0 (1 − cos 4x)dx = π , pa dobivamo h(x) = − sin 2x .

Primjer 21. Odredimo ortogonalnu projekciju vektora x = (1, 2, 3) na podp-


rostor L(e, f) od R3 , gdje su e = (1, 1, 0) i f = (0, 1, 1) . Vektori e i f ni-
-
su medusobno ortogonalni jer (e | f) = 1 6= 0 , pa ćemo zato vektor f zamijeniti
s vektorom h = f − (kfe|ke2) e koji je takoder - u L(e, f) i okomit na e . Dakle e i
h = (0, 1, 1) − 12 (1, 1, 0) = (− 21 , 21 , 1) ∼ (−1, 1, 2) čine ortonormiranu bazu i oče-
vidno je L(e, f) = L(e, h) . Ortogonalna projekcija vektora x podprostor L(e, h) je
vektor Px = (kxe|ke2) e + (kxh|kh2) h = 32 (1, 1, 0) + 76 (−1, 1, 2) = ( 31 , 83 , 37 ) .

Primjer 22. Izračunajmo L2 -normu funkcije f (x) = 1 , gdje je x ∈ (0, 2π ) :


Z 2π √
kf k2L2 = 12 dx = 2π ⇒ kf kL2 = 2π .
0
Za f (x) = cos x je
Z 2π
kf k2L2 = cos2 x dx = π ,
0
√ √
pa je k cos xkL2 = π , i slično k sin xkL2√= π , na intervalu (0, 2π ) . Slično se
pokazuje da je k cos nxkL2 = k sin nxkL2 = π za sve prirodne brojeve n . Takoder- je
1 ⊥ cos nx , jer je
Z 2π
sin nx 2π
(1| cos nx) = 1 · cos nx dx = =0
0 n x=0
za sve n ∈ N , i slično 1 ⊥ sin nx , te sin nx ⊥ sin mx za sve n 6= m . Prema tome,
funkcije
1 cos nx sin nx
√ , √ , √
2π π π
čine ortonormiran skup u Hilbertovom prostoru L2 (0, 2π ) . Pokazuje se da je on i or-
tonormirana baza u tom prostoru, tj. svaka funkcija f ∈ L2 (0, 2π ) ima svoj Fourierov
razvoj po toj bazi:
X∞  
1 cos nx sin nx
f (x) = a0 √ + an √ + bn √ .
2π n=1
π π
Koeficijenti se mogu lako odrediti zbog ortogonalnosti: (f | √12π ) = a0 , (f | cos
√ nx ) =
π
an , i slično za bn , tj.
Z 2π
1
a0 = √ f (x) dx,
2π 0
Z 2π
(f | cos nx) 1
an = √ =√ f (x) cos nx dx,
π π 0
Z 2π
(f | sin nx) 1
bn = √ =√ f (x) sin nx dx.
π π 0

Jasno je da je skup X svih beskonačnih sljedova x = (x1 , x2 , . . .) = (xi )i∈N svih


realnih (ili kompleksnih) brojeva xi vektorski prostor s obzirom na zbrajanje sljedo-
va po komponentama, (x)i + (y)i = (xi + yi )i , te prirodnog množenja sa skalarom:
λ (x)i = (λ xi )i . Vrlo često se u primjenama pojavljuje jedan njegov podprostor koji se
zove prostor kvadratno sumabilnih sljedova (ili kvadratno P zbrojivih). Označava se s
ℓ2 , a sastoji se od svih sljedova x = (xi ) takvih da je i |xi |2 < ∞ . Pokazuje se da je
to ne samo vektorski podprostor, nego i unitarni prostor s obzirom na skalarni produkt
definiran sa
X∞
(x | y) = xi yi = x1 y1 + x2 y2 + . . . ,
i=1
p
u realnom slučaju. Posebno, pripadajuća norma je kxk = (x | x) , tj.
kxk = (|x1 |2 + |x2 |2 + . . .)1/2.
I ovdje takoder - vrijedi CSB-nejdnakost |(x | y)| 6 kxk kyk , kao i nejednakost tro-
kuta: kx + yk 6 kxk + kyk . Primijetimo da prostor ℓ2 sadrži svaki prostor
Rn kao podprostor, ako vektor x = (x1 , . . . , xn ) ∈ Rn poistovjetimo s vektorom
x = (x1 , . . . , xn , 0, . . .) ∈ ℓ2 . Slično kao gore definira se i skalarni produkt na prostoru
kvadratno zbrojivih sljedova kompleksnih brojeva:
X∞
(x | y) = xi yi = x1 y1 + x2 y2 + . . . ,
i=1
gdje xi označava konjugiranje kompleksnog broja xi . Prostor kvadratno zbrojivih
sljedova pojavljuje se u elektrotehnici na pr. u teoriji obradbe signala.

Primjer 23. Neka je ℓ2 prostor kvadratno zbrojivih sljedova realnih brojeva. Pro-
vjeri je li x ∈ ℓ2 , ako je x = (xk )k>1 definiran sa
(a) xk = k−1 , tj. x = (1, 12 , 31 , . . .)
(b) xk = k−1/2 , tj. x = (1, √12 , √13 , . . .)
P P
U slučaju (a) je k x2k = Pk k−2 <P ∞ (Dirichletov red s potencijom p = 2 > 1 ),
pa je x ∈ ℓ2 . U slučaju (b) je k x2k = k k−1 = ∞ (harmonijski red), pa x ∈ / ℓ2 .

1
engl. scalar product, njem. Skalarprodukt (inneres Produkt), franc. produit scalaire, rus. skalrnoe
proizvedenie.
6 1. VEKTORSKI PROSTORI

1.5. Normirani vektorski prostori

Prirodno je uvesti i pojam normiranog prostora. To je jednostavno realni (ili kom-


pleksni) vektorski prostor X na kojem je definirana norma, tj. funkcija k · k : X → R
takva da za sve x, y ∈ X i λ ∈ R (ili λ ∈ C ) vrijedi:
a) kxk > 0 za sve x ∈ X ; kxk = 0 onda i samo onda ako je x = 0 (pozitivnost);
b) kλ xk = |λ | · kxk (homogenost);
c) kx + yk 6 kxk + kyk (nejednakost trokuta).
Kao što smo vidjeli u prethodnom odjeljku, svaki unitarni prostor je normiran
prostor. Niže ćemo vidjeti neke normirane prostore za koje ne postoji skalarni produkt
koji bi ih generirao. U normiranom prostoru može se uvesti pojam udaljenosti, kugle i
-
otvorenog skupa, što omogućava uvodenje važnog pojam konvergencije slijeda vektora.

U normiranom prostoru X skup svih vektora x takvih da je kxk < r zovemo


otvorenom kuglom polumjera r > 0 sa središtem u ishodištu, i označavamo s Br (0) .
Općenitije, kugla Br (a) polumjera r > 0 sa središtem u zadanom vektoru a ∈ X ,
definira se kao skup svih x za koje vrijedi kx − ak < r . Na sličan način uvodimo i
zatvorenu kuglu Br (a) , kao skup svih x za koje je kx − ak 6 r .
Skup svih x takvih da je kx − ak = r zove se sfera oko a polumjera r , i označava
sa Sr (a) . Jasno je da vrijedi Br (a) = Br (a) ∪ Sr (a) .
Za neki podskup A normiranog prostora (X, k · k) kažemo da je otvoren skup
ako se može dobiti kao unija otvorenih kugala. Primijetimo da pojam otvorenog skupa
ovisi i o odabranoj normi.
Za dvije norme k · k1 i k · k2 na istom vektorskom prostoru X kažemo da su
-
medusobno ekvivalentne ako postoje pozitivne konstante C1 i C2 takve da za sve
x ∈ X vrijedi C1 kxk1 6 kxk2 6 C2 kxk1 , ili što je isto, C1 6 kxk2 /kxk1 6 C2 za sve
x 6= 0 . Nije teško vidjeti da ekvivalentne norme definiraju iste otvorene skupove u X .
Na pr. nutrina kvadrata (tj. puni kvadrat bez ruba) je otvoren skup u R2 s obzirom na
metriku k · k2 .

Primjer 24. Svake dvije norme na konačno-dimenzionalnom prostoru X su medusobno - ek-


vivalentne.
Da bismo to vidjeli, primijetimo da se svaki konačnodimenzionalni prostor, prelaskom na koor-
dinatni prikaz u bilo kojoj bazi, može poistovjetiti s Rn , gdje je n dimenzija od X . Zato je tvrdnju
dovoljno dokazati za prostor Rn . Neka su k · k1 i k · k2 dvije norme na Rn . Treba dokazati da
postoje dvije pozitivne konstante C1 i C2 takve da je
kxk2
C1 6 6 C2
kxk1
‚ ‚
‚ x ‚ x
za sve x 6= 0 . Srednji razlomak možemo pisati kao ‚ kxk 1
‚ . Za svaki vektor y = kxk1 vrijedi
2
kyk1 = 1 , pa treba dokazati da je funkcija f (y) = kyk2 , gdje je kyk1 = 1 , omedena - s dvije
pozitivne konstante. To medutim - slijedi iz činjenice da je f neprekinuta, f (y) > 0 za sve y , i
-
definirana na omedenom i zatvorenom skupu (na jediničnoj sferi po prvoj normi, označimo ju s
S1 ). Točnije, neprekinuta funkcija f : S1 → R definirana na kompaktnom skupu (omedenom - i
zatvorenom) dostiže svoj minimum i maksimum, tj. postoje y1 i y2 u S1 takvi da za sve y ∈ S1
vrijedi f (y1 ) 6 f (y) 6 f (y2 ) . Prema tome, C1 = f (y1 ) > 0 i C2 = f (y2 ) .

Opišimo neke od najvažnijih norma u Rn .


Unitarni vektorski prostor Rn (sa skalarnim q produktom (x | y) = x⊤ · y =
x1 y1 +. . .+xn yn ) ima pripadnu normu kxk2 = x21 + . . . + x2n koja se zove Euklidska
norma na Rn . Drugi vektorski prostor Rn s normom kxk∞ := max{|x1 |, . . . , |xn |}
postaje takoder- normiran prostor. On nije unitaran, tj. ne postoji nikakav skalarni
produkt na Rn čija bi pripadna norma bila kxk∞ . Vektorski prostor Rn s normom
- Sva ova tri (različita!) normirana prostora su spe-
kxk1 := |x1 | + . . . + |xn | takoder.
cijalni slučaj cijele jedne skale normiranih prostora Rn s tzv. p -normom definiranom
sa
kxkp := (|x1 |p + . . . + |xn |p )1/p ,
gdje je p zadani broj, 1 6 p < ∞ . Normirane prostore ( Rn , k · kp ) i ( Rn , k · kq ) sma-
tramo različitim prostorima za p 6= q , iako su kao skupovi isti. Ponovimo, normirani
prostor nije samo skup X , nego i pripadajuća norma. Inače, nije teško vidjeti da za
svaki x ∈ Rn vrijedi kxk∞ = limp→∞ kxkp .
Oblik jedinične kružnice S1 (0) u R2 jako ovisi o odabranoj normi. Npr. s normom
k · k2 jedinična kružnica S1 (0) je okrugla, dok s normom k · k1 ili k · k∞ jedinična
kružnica S1 (0) ima oblik kvadrata.
Normirani vektorski prostor Lp (a, b) (Lebesgueov Lp -prostor), gdje je p zadan
broj, 1 6 p < ∞ , sadrži sve funkcije f : (a, b) → R koje su p -integrabilne, tj. broj
Rb
a
|f (x)|p dx je konačan. Definiramo
Z !1/p
b
kf kp := |f (x)|p dx .
a

Ako je interval (a, b) omeden - i p < q , onda je Lq (a, b) ⊂ Lp (a, b) . Nije teško vidjeti
da pritom postoje funkcije f ∈ Lq koje nisu u Lp , tj. prostori se bitno razlikuju kao
skupovi. Za p = 2 dobivamo poznati Lebesgueov prostor kvadratno integrabilnih
funkcija L2 (a, b) , koji je unitaran. Prostori Lp (a, b) za p 6= 2 nisu unitarni, tj. u tom
slučaju ne postoji skalarni produkt na Lp koji bi generirao pripadnu normu.
Spomenimo bez dokaza zanimljivu i važnu generalizaciju nejednakosti CSB, za
slučaj prostora X = Rn , kao i za i slučaj Lp -prostora.

Teorem. (Hölderova nejednakost) Neka je 1 < p < ∞ i definirajmo konjugirani


eksponent od p kao broj q = p/(p − 1) , tj. 1/p + 1/q = 1 .
a) Za sve xi , yi ∈ R vrijedi:
|x1 y1 + . . . + xn yn | 6 (|x1 |p + . . . + |xn |p )1/p (|y1 |q + . . . + |yn |q )1/q .
ili kraće, za sve x, y ∈ Rn je |(x | y)| 6 kxkp kykq . Posebno, za p = q = 2 dobivamo
CSB-nejednakost.
b) Neka su zadane funkcije f ∈ Lp (a, b) i g ∈ Lq (a, b) . Onda je f · g ∈ L1 (a, b) ,
i vrijedi
Z b Z b !1/p Z !1/q
b
p q
|f (x)g(x)| dx 6 |f (x)| dx |g(x)| dx
a a a

ili kraće, kf gk1 6 kf kp kgkq .


Pokazuje se da iz Höldereve nejednakosti slijedi odgovarajuća nejednakost trokuta
kx + ykp 6 kxkp + kykp , za sve x, y ∈ Rn , i kf + gkp 6 kf kp + kgkp , za sve
f , g ∈ Lp (a, b) , koja se u oba slučaja zove nejednakost Minkowskog.
Sve gore spomenute definicije normiranih prostora funkcija s jednom varijablom
možemo proširiti i na funkcije više varijabla. Na pr. L2 (Ω) , gdje je Ω zadani otvoren
skup u Rn , Rje skup svih kvadratno integrabilnih funkcija f : Ω → R , tj. onih za
koje je broj Ω |f (x)|2dx konačan. Skalarni produkt na prostoru L2 (Ω) , definiramo sa
R p R
(f | g) := Ω f (x)g(x) dx . Pripadna norma je kf k2 = (f | f ) = ( Ω |f (x)|2 dx)1/2 .
Moguće je definirati i normirani vektorski prostorR Lp (Ω) , 1 6 p < ∞ , kao
skup svih funkcija f : Ω → R takvih da je Ω |f (x)|pdx < ∞ , s normom
R
kf kp = ( Ω |f (x)|p dx)1/p . I za te prostore vrijedi analogna Hölderova nejednakost
kao i za prostore Lp (a, b) . Za p ∈ (0, 1) ovo nisu vektorski prostori, jer se mogu
pronaći f , g ∈ Lp (a, b) takve da f + g ∈ / Lp (a, b) .

-
Primjer 25. Pronadimo sve a ∈ R za koje je funkcija f (x) = xa sadrža-
R1 R1
na u prostoru L2 (0, 1) . Mora biti konačan integral 0 |f (x)|2 dx = 0 x2a dx =
1
x2a+1 1
[uz pretp. 2a 6= −1 ] = 2a+1 = limx→0+ 2a+1 (1 − x2a+1 ) . Taj će izraz biti ko-
x=0
načan onda i samo onda ako je 2a + 1 > 0 , tj. a > −1/2 . Ako je 2a = −1 , onda je
R1
integral beskonačan, jer je 0 x−1 dx = ln x|1x=0 = ∞ .

∗*∗

Banachov i Hilbertov prostor. Za odabrana dva elementa x i y u normiranom


prostoru X definirana je udaljenost kx − yk izmedu - x i y . To onda omogućava da
definiramo i konvergenciju u X : za slijed (xk )k>1 vektora iz X kažemo da konvergira
k x , i pišemo lim xk = x , ako kxk − xk → 0 kad k → ∞ .
Isto tako, za slijed (xk )k>1 kažemo da je Cauchyjev ako za svaki ε > 0 postoji
n = n(ε ) takav da za sve k, l > n vrijedi kxk − xl k 6 ε . Ovo svojstvo pišemo kraće
ovako: kxk − xl k → 0 kad k, l → ∞ . Lako se provjeri da je npr. svaki konvergentan
slijed u normiranom prostoru Cauchyjev.
Ako svaki Cauchyjev slijed u X konvergira, onda kažemo da je vektorski prostor
X potpun. Slikovito rečeno, potpun normiran prostor je prostor “bez šupljina”, tj. gust
u sebi.
Potpun normiran prostor zove se Banachov prostor. Potpun unitaran prostor
(znamo da je on i normiran) zove se Hilbertov prostor.
Svaki konačno-dimenzionalni normiran prostor je Banachov (tj. potpun), neovisno
o izboru norme.
Budući da u normiranomPprostoru imamo definiran pojam konvergencije, P∞onda
∞ -
možemo uvesti i pojam reda k=1 xk odredenog slijedom (xk ) u X . Za red k=1 xk
kažemo da konvergira ako konvergira slijed njegovih parcijalnih suma sk =Px1 +. . .+xk
k nekom s ∈ X , tj. ks−sk k → 0 kad k → ∞ . U tom slučaju pišemo da je ∞ k=1 xk = s .

Važni beskonačno-dimenzionalni Banachovi prostori su Lp (a, b) , 1 6 p < ∞ .


-
Medu njima je samo L2 (a, b) unitaran prostor, dakle i Hilbertov prostor. Vektorski
podprostor C([a, b]) kao podprostor normiranog prostora Lp (a, b) (tj. s pripadnom
normom k · kp ) nije potpun. Ipak, on je gust u Lp (a, b) , tj. za svaki f ∈ Lp (a, b)
i bilo koji ε > 0 postoji uniformno neprekinuta funkcija f 0 ∈ C([a, b]) takva da je
kf − f 0 kp 6 ε .
Npr. za funkciju x−1/3 ∈ L2 (0, 1) postoji slijed uniformno neprekinutih funkcija (funkcija iz
C([a, b]) ) koje k njoj konvergiraju u L2 -normi. Budući da je x−1/3 ∈ / C([0, 1]) , to pokazuje da
prostor C([0, 1]) nije gust u sebi s L2 -normom, tj. nije potpun (i dakle nije Hilbertov prostor).
S druge strane, može se pokazati da prostor C([a, b]) s ∞ -normom, tj. kf k∞ =
max{|f (x)| : x ∈ [a, b]} , jest potpun, tj. Banachov je prostor.
Spomenimo da je Hilbertov prostor ℓ2 svih kvadratno zbrojivih sljedova realnih
brojeva (xk )k>1 specijalan slučaj Banachovog prostora ℓp svih p -sumabilnih slje-
dova
P∞ realnih brojeva, gdje je 1 6 p < ∞ , tj. svih sljedova (xk )k>1 takvih da je
p
|x
k=1 k | < ∞ , s pripadnom normom

!1/p
X
p
k(xk )kp = |xk | .
k=1
2.
Linearni operatori

1. Prikaz operatora . . . . . . . . . . . . . . . . . . . . . . . . .
2. Promjena baze. Slične matrice . . . . . . . . . . . . . . . .
3. Primjeri operatora u ravnini i prostoru . . . . . . . . . . .
4. Algebra operatora . . . . . . . . . . . . . . . . . . . . . . . .
5. Minimalni polinom . . . . . . . . . . . . . . . . . . . . . . .

2.1. Prikaz operatora

Definicija linearnoga operatora. Neka su X i Y vektorski prostori. Preslikava-


nje A : X → Y naziva se linearni operator 1 ako za sve vektore x1 , x2 ∈ X i skalare
α1 , α2 ∈ R vrijedi
A(α1 x1 + α2 x2 ) = α1 A(x1 ) + α2 A(x2 ). (1)
Uvjet (1) naziva se uvjet linearnosti. On je ekvivalentan s uvjetima aditivnosti i
homogenosti, tj. (1) vrijedi onda i samo onda ako je ispunjeno
(∀x1 , x2 ∈ X) A(x1 + x2 ) = A(x1 ) + A(x2 ) (2)
(∀x ∈ X)(∀α ∈ R) A(α x) = α A(x) (3)

Primjer 1. Za svaki linearni operator A : X → Y je A(0) = 0 . Doista,


A(0) = A(0 · 0) = 0 · A(0) = 0 .

Primjer 2. U slučaju X = Y = R , svaki linearni operator A : R → R je oblika


A(x) = ax , gdje je a neka konstanta. Graf te funkcije je pravac kroz ishodište.

Primjer 3. Neka je X = Rn , Y = Rm i A matrica tipa m×n . Svaka takva matrica


- matrice i linearnoga operatora
definira neki linearni operator. Prirodna veza izmedu
definira se sa
A(x) := Ax.
Ovako definiran operator zaista je linearan, zbog poznatih svojstava matričnoga mno-
ženja.

∗*∗
Zadavanje operatora s pomoću neke matrice najvažniji je primjer linearnoga operatora. Dobar
dio ovoga poglavlja biti će posvećen proučavanju veze izmedu - matrice i linearnoga operatora.
Pokazat ćemo da vrijedi i obratna tvrdnja: svakom linearnom operatoru odgovara jedna matrica.
Čitatelj bi mogao pomisliti da je stoga pojam linearnoga operatora nepotreban, ukoliko se on može
potpuno opisati matricama. Medutim, - - operatora i
situacija je nešto složenija. Preciznija veza izmedu
matrice mogla bi se ovako opisati: ako su zadane baze vektorskih prostora, onda svakome operatoru
u tom paru baza odgovara jednoznačno odredena - matrica. Medutim,- promijenimo li baze, istome
operatoru odgovarati će neka druga matrica.
Linearni operator može se zadati na način koji je neovisan o bazi prostora (vidi geometrijske
primjere u narednoj točki). Stoga tek izbor baze odreduje - koja će mu matrica odgovarati.
Najinteresantnija analiza matričnoga računa upravo se sastoji u tome da se dadu odgovori na
sljedeća dva pitanja:
(1) kako odabrati bazu prostora pa da prikaz linearnoga operatora bude po mogućnosti što
jednostavnija matrica (što sličnija dijagonalnoj);
(2) da li (i kada) dvije različite matrice A , B pripadaju istome linearnom operatoru (u različitim
bazama)?

∗*∗
Opišimo obrnutu vezu: kako linearni operator odreduje - matricu.
Neka je e1 . . . , en baza u prostoru X , a f1 , . . . , fm baza u prostoru Y . Neka je
A : X → Y linearni operator. Vektor a1 = A(e1 ) pripada prostoru Y i može se razviti
po bazi f1 , . . . , fm . Dakle, postoje skalari a11 , a21 ,. . . am1 takvi da vrijedi
A(e1 ) = a11 f1 + a21 f2 + . . . + am1 fm .
Slično vrijedi i za ostale vektore:
A(e2 ) = a12 f1 + a22 f2 + . . . + am2 fm ,
..
.
A(en ) = a1n f1 + a2n f2 + . . . + amn fm .
Pomoću ovih koeficijenata definiramo matricu A :
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
A=  ...
.

am1 am2 . . . amn
Vidimo da j -ti stupac matrice A čine komponente vektora A(ej ) po bazi f1 , . . . , fm .
Tvrdimo da vrijedi A(x) = Ax , za svaki vektor x . Zaista, neka je x =
x1 e1 + . . . + xn en . Onda vrijedi
Xn n
X m
X Xm X n 
A(x) = xj A(ej ) = xj aij fi = aij xj fi = Ax.
j=1 j=1 i=1 i=1 j=1

Time je tvrdnja dokazana.


Ponovimo dokazane tvrdnje u sljedećem teoremu.

Teorem 1. Neka su X i Y vektorski prostori, A : X → Y linearni operator,


{e1 , . . . , en } baza u X i {f1 , . . . , fm } baza u Y . Operatoru A odgovara u tom paru
baza matrica A čiji su stupci komponente vektora A(ej ) u bazi {f1 , . . . , fm } . Pri tom
za svaki vektor x ∈ X vrijedi
A(x) = Ax. (4)

∗*∗
Ova je relacija — veza operatora i matrice — toliko važna da smo zbog jednostavnosti formule
namjerno bili nedovoljno precizni. Pažljiviji čitatelj će uočiti da u formuli (4) vektor x s lijeve i s
desne strane nema isto značenje. S lijeve strane, on je element vektorskoga prostora X i njegov prikaz
u bazi toga prostora ima oblik x = x1 e1 + . . . + xn en . S desne strane, vektor x poistovjećujemo s
vektor-stupcem x = [ x1 x2 . . . xn ]⊤ ∈ Rn , a zatim, nakon množenja s matricom A , vektor Ax
(koji pripada prostoru Y ) treba shvatiti na način (Ax)1 f 1 + . . . + (Ax)m f m .
Ove su veze prirodne i čitatelj će doći sam do odgovarajućih ispravnih interpretacija. Pogledaj-
mo primjenu teorema na primjerima.

∗*∗

Primjer 4. Jedinični operator I : X → X , definiran je formulom I(x) = x za


svaki x ∈ X . Budući da za svaki vektor baze vrijedi I(ej ) = ej , onda ovome operatoru
odgovara (u bilo kojoj bazi) jedinična matrica I .

Primjer 5. Nul operator O : X → Y , definiran je formulom O(x) = 0 , za svaki


x ∈ X . Njemu odgovara nul-matrica tipa (m, n) .

d
Primjer 6. Odredimo matricu koja odgovara operatoru deriviranja A = : Pn →
dt
Pn u bazi e0 (t) = 1 , e1 (t) = t ,. . . , en (t) = tn .
Vrijednosti operatora na vektorima baze je:
A(e0 )(t) = 0(t),
A(e1 )(t) = 1 = e0 (t),
A(e2 )(t) = 2t = 2e1 (t),
..
.
A(en )(t) = ntn−1 = nen−1 .
Njegova matrica u tom paru baza glasi
 
0 1 0 ... 0
0 0 2 ... 0
. 
A =  .. .
 
0 0 0 ... n
0 0 0 ... 0

Evo nekoliko zadataka koje bi čitatelj trebao riješiti:


• Izračunaj A2 .
• Kojem operatoru odgovara ta matrica?
• Napiši matricu A za slučaj n = 4 i provjeri da vrijedi A4 = 0 .
• Na isti se način uvjeri da vrijedi An = 0 . Što to govori o operatoru A ?

∗*∗

Primjer 7. Operator simetrije s obzirom na apscisu. Promotrimo operator ko-


ji vektoru a pridružuje vektor simetričan ovome s obzirom na os apscisa. Ako je
a = xi + yj , onda je A(a) = xi − yj . Operator je linearan:
A(a1 + a2 ) = A((x1 + x2 )i + (y1 + y2 )j) = (x1 + x2 )i − (y1 + y2 )j = A(a1 ) + A(a2 ),
A(α a) = A(α xi + α yj) = α xi − α yj = α A(a).

y
a
j
i
x
-j
A(a)
Sl. 2.1. Operator simetrije s ob- -y
zirom na os apscisa

Da odredimo njegovu matricu u paru kanonskih baza, moramo odrediti djelovanje


na jediničnim vektorima i zatim te vektore rastaviti po kanonskoj bazi:
A(i) = i = 1i + 0j, A(j) = −j = 0i − 1j.
- stupce matrice A :
Ovi vektori odreduju
 
1 0
A= .
0 −1

Primjer 8. Operator rotacije. Promotrimo operator koji radij vektoru r pridru-


žuje radij vektor zarotiran za kut ϕ . Zbog geometrijskih razloga, vrijedi A(a + b) =
A(a) + A(b) (slika 2.2). Očito vrijedi A(α a) = α A(a) . Stoga je A linearan.

A(b)
a+b
A(a)
b
A(a+b)
a
Sl. 2.2. Provjera svojstva aditivnosti

Odredimo njegovo djelovanje na jediničnim vektorima:


A(i) = cos ϕ i + sin ϕ j
A(j) = − sin ϕ i + cos ϕ j

j
A( j )
ϕ A( i )
Sl. 2.3. Djelovanje operatora rotacije za ϕ
kut α i

Stoga ovome operatoru odgovara matrica


 
cos ϕ − sin ϕ
A= .
sin ϕ cos ϕ
koju nazivamo matrica rotacije za kut ϕ .
Ovaj je rezultat moguće lako dobiti i s pomoću kompleksnih brojeva. Dovoljno je sjetiti se
da ako kompleksni broj z rotiramo za kut ϕ oko ishodišta, onda dobivamo kompleksni broj zeiϕ
(naime, arg(zeiϕ ) = arg z + ϕ i |zeiϕ | = |z| ). Prema tome, ako vektore u ravnini gledamo kao kom-
pleksne brojeve, onda rotacijom broja 1 za kut ϕ dobivamo kompleksni broj 1eiϕ = cos ϕ + i sin ϕ ,
a rotacijom broja i za kut ϕ dobivamo broj ieiϕ = i(cos ϕ + i sin ϕ ) = − sin ϕ + i cos ϕ .
Matrica operatora rotacije ravnine za kut ϕ = π /2 oko ishodišta je
 
0 −1
A= .
1 0
Ako s A označimo pripadajući operator rotacije za π /2 , očevidno je (A ◦ A)x = −x =
−Ix za sve x , tj. A2 = −I , gdje je I : R2 → R2 identitet, tj. Ix = x . S druge strane,
izravnim računom se dobiva A2 = −I . To nije slučajno, vidi Teorem 5 niže, koji kaže
da kompoziciji operatora odgovara umnožak odgovarajućih matrica. Ova matrica A je
prema tome matrična imaginarna jedinica.

Primjer 9. Neka je a = ax i + ay j + az k zadani vektor u trodimenzionalnom pros-


toru. Definirajmo operator A : V 3 → V 3 na način:
A(x) := a × x.
On je očito linearan, jer vektorsko množenje ima svojstva distributivnosti i homogenosti:
A(x + y) = a × (x + y) = a × x + a × y = A(x) + A(y),
A(α x) = a × (α x) = α (a × x) = α A(x).
Odredimo njegovu matricu u kanonskoj bazi {i, j, k} . U tu svrhu, moramo odrediti
vektore A(i) , A(j) , A(k) :

i j k

A(i) = a × i = ax ay az = 0i + az j − ay k.
1 0 0
Slično, dobivamo
A(j) = −az i + 0j + ax k,
A(k) = ay i − ax j + 0k.
Tako dobivamo sljedeću matricu operatora:
" #
0 −az ay
A = az 0 −ax .
−ay ax 0
Primijetimo da je to antisimetrična matrica.

Primjer 10. Translacija za vektor b 6= 0 . Translacija je preslikavanje f : X → X


koje vektoru x pridružuje vektor x + b , za neki fiksni vektor b , tj. f (x) = x + b . Ovo
preslikavanje, iako jednostavno, ne definira linearni operator, pošto vrijedi A(0) = b ,
a za svaki linearni operator mora biti A(0) = 0 .

Spomenimo još i pojam afine funkcije, koji se često susreće. Za funkciju f : X → Y , gdje
su X i Y vektorski prostori, kažemo da je afina funkcija, ako je oblika f (x) = Ax + b , gdje je
A : X → Y linearni operator. Afina funkcija je linearni operator translatiran za vektor b , i vrijedi
f (0) = b jer je A(0) = 0 . Na pr. funkcije f : R → R , f (x) = 2x + 3 , ili g : R2 → R3 ,
g(x, y) = (2x + y + 3, −x + 2y + 7, 5x) , su afine, ali nisu linearni operatori. Vrlo su važne na pr.
u opisivanju tzv. splajnova, aproskimaciji nelinearnih sustava s pomoću linearnih (tzv. linearizacija
sustava), itd.

∗*∗

Zadavanje operatora. Djelovanje linearnog operatora A : X → Y u potpunosti


-
je odredeno vrijednostima tog operatora na vektorima baze: znamo li A(e1 ) ,. . . , A(en )
onda je jednoznačno odreden- i vektor A(x) = x1 A(e1 ) + . . . + xn A(en ) . Zato, ako za
dva operatora A i B vrijedi A(ej ) = B(ej ) , j = 1, . . . , n , onda je A(x) = B(x) za
svaki x ∈ X , tj. vrijedi A = B .

Teorem 2. Neka je e1 , . . . , en baza u X i b1 , . . . , bn bilo koji vektori u Y . Postoji


točno jedan operator A : X → Y za kojega vrijedi A(e1 ) = b1 ,. . . , A(en ) = bn .

DOKAZ. Jednoznačnost slijedi iz gornjega, jer je s vrijednostima na bazi operator od-


- jednoznačno. Egzistenciju ćemo pokazati tako da ukažemo koju će vrijednost
reden
operator imati na po volji odabranom vektoru prostora. Uzmimo bilo koji vektor x ∈ X .
Prikažimo ga po vektorima baze:
x = x1 e1 + . . . + xn en .
Definirajmo operator A na način
A(x) := x1 b1 + . . . + xn bn .
Ovaj je operator linearan (uvjerite se u to!). Definiran je na čitavom X i za njega
vrijedi A(e1 ) = b1 ,. . . , A(en ) = bn .
Time je tvrdnja dokazana.
8 2. LINEARNI OPERATORI

2.2. Promjena baze. Slične matrice

Neka je sad A linearni operator koji djeluje na prostoru X , A : X → X . Istaknimo


u tom prostoru bazu e1 , . . . , en . Neka je A matrica koja odgovara ovome operatoru u
toj bazi (stupci te matrice su komponente vektora A(ej ) u zadanoj bazi).
Izaberimo sad u prostoru drugu bazu, koju čine vektori e′1 , . . . , e′n . Neka je A′
matrica koja odgovara operatoru u ovoj bazi. Prirodno se nameće sljedeće pitanje:
• Koja je veza izmedu - dviju matrica A i A′ koje su prikaz istoga operatora u
različitim bazama?
Da bismo odgovorili na ovo pitanje, potrebno je utvrditi vezu izmedu - dviju baza.
U tu svrhu ćemo vektore nove baze izraziti pomoću vektora stare baze, na istovjetan
način kao i u prošlome poglavlju:
e′1 = t11 e1 + t21 e2 + . . . + tn1 en ,
e′2 = t12 e1 + t22 e2 + . . . + tn2 en ,
..
.

en = t1n e1 + t2n e2 + . . . + tnn en .
-
Veza izmedu ovih dviju baza opisana je matricom
 
t11 t12 . . . t1n
 t21 t22 . . . t2n 
T=  ...


tn1 tn2 . . . tnn
čiji su stupci komponente vektora nove baze prikazanih pomoću vektora stare.
Djelovanje operatora A na vektoru x može se opisati množenjem s matricom A ,
relacija A(x) = y znači zapravo
Ax = y. (5)
Slično, u drugom paru baza, isto se djelovanje opisuje formulom
A′ x′ = y′ . (6)
-
Prisjetimo se da je veza izmedu starih koordinata vektora x i koordinata u novoj
bazi dana relacijom (3):
x = Tx′
i istovjetno za vektor y :
y = Ty′ .
Uvrštavanjem ovih relacija u jednadžbu (5) dobivamo
Ty′ = ATx′
odakle slijedi, koristeći (6):
y′ = T−1 ATx′ = A′ x′ . (7)
Budući da formula vrijedi za svaki x′ , ova relacija daje odgovor na traženo pitanje:
operatoru A u novoj bazi odgovara matrica
A′ = T−1 AT.
Time smo dokazali

Teorem 3. Neka je A prikaz operatora A u bazi {e1 , . . . , en } prostora X , T


matrica prijelaza iz stare baze u novu bazu {e′1 , . . . , e′n } . U novoj bazi operatoru A
odgovara matrica
A′ = T−1 AT. (8)

∗*∗

Matrice A i A , koje odgovaraju istome operatoru, imaju neka zajednička svoj-
stva. Stoga je prirodno definirati: za dvije matrice A i B kažemo da su slične, ako
postoji regularna matrica T takva da vrijedi
B = T−1 AT. (9)
Ponovimo izrijek teorema u novoj terminologiji: operatoru A odgovaraju u raznim
bazama slične matrice.
∗*∗
Od zajedničkih svojstava sličnih matrica izdvojimo za sad samo ovo: slične matrice
imaju identičnu determinantu. Uistinu, po Binet-Cauchyjevom teoremu vrijedi
det(B) = det(T−1) det(A) det(T) = det(A)
pošto je det(T−1 ) = 1/ det(T) . Zato ima smisla definirati determinantu operatora:
det(A) = det(A)
gdje je A matrica operatora u bilo kojoj odabranoj bazi.
Neka nam A ∼ B označava da su matrice A i B slične, tj. postoji regularna
matrica T takva da je B = T−1 AT . Čitatelj se lako može sam uvjeriti da je relacija
sličnosti medu- matricama relacija ekvivalencije. To po definiciji znači da ona ima
sljedeća tri svojstva:
(a) za sve A je A ∼ A (refleksivnost relacije);
(b) za sve A i B iz A ∼ B slijedi B ∼ A (simetričnost);
(c) za sve A , B i C iz A ∼ B i B ∼ C slijedi A ∼ C (tranzitivnost).
Jedan od osnovnih problema linearne algebre je odrediti kada su dvije matrice
slične. Odgovor na to pitanje daje Jordanov teorem, vidi Odjeljak 3.4.
2. LINEARNI OPERATORI 9

2.3. Primjeri operatora u ravnini i prostoru

Nastavimo s primjerima jednostavnijih operatora definiranih na prostoru V 2 ili V 3


i odredimo odgovarajuće im matrice u pogodno odabranim bazama.

Primjer 11. Operator homotetije. Promotrimo djelovanje operatora koji svaki


vektor u smjeru Ox -osi rasteže (steže) za faktor λ , dok vektore u smjeru osi Oy ostav-
lja nepromijenjenim. Njegovo djelovanje na bilo kojem vektoru a = xi + yj definirano
je formulom
A(a) = A(xi + yj) = λ xi + yj.
Odavde izvodimo posebice djelovanje na vektorima baze
A(i) = λ i, A(j) = j,
te je matrica operatora u kanonskoj bazi
 
λ 0
A= .
0 1
Korisno je pogledati što takav operator radi na
nekom podskupu ravnine. Izbor konstante λ = 0.8
pretvara font Helvetica u Helvetica Narrow:

Sl. 2.4. Operator homotetije duž Ox -osi

 
λ 0
Primjer 12. Operator definiran matricom A = imat će slično djelovanje
0 µ
duž obiju osi. Na slici vidimo djelovanje operatora za izbor λ = 1.25 , µ = 0.8 .

Sl. 2.5. Operator homotetije

 
1 ε
Primjer 13. Operator zakošenja. Definiran je matricom A = . Ovaj
0 1
operator preslikava jedinične vektore na način
A(i) = i, A(j) = ε i + j.

εi

j
A( j )
Sl. 2.6. Operator zakošenja. Vek-
tor j preslikava se u zakošeni
vektor. Iznos zakošenja ovisi o
parametru ε . Za pozitivne vrijed-
nosti, zakošenje će biti udesno, za i
negativne ulijevo.

Sl. 2.7. U računarskoj grafici uobičajeni su izbori parametara ε = 0.16666 kod slanted
fontova, te ε = 0.25 kod italic fontova.

Primjer 14. Ortogonalna projekcija na pravac. Neka je p pravac koji prolazi


ishodištem, a s realnom osi zatvara kut α . Točki M u ravnini pridružena je njezina
projekcija na pravac p . Time je definirano preslikavanje A medu - pripadnim radij-
vektorima koje definira linearni operator (v. sl. 2.8). Linearnost slijedi iz svojstava
vektorske projekcije.
Odredimo matricu toga operatora u kanonskoj bazi {i, j} . Vektor A(i) predočen
−→
je usmjerenom dužinom OA′ skalarne projekcije cos α u smjeru jediničnog vektora
cos α i + sin α j , pa ima komponente
A(i) = cos α (cos α i + sin α j).
Slično, vrijedi
A(j) = sin α (cos α i + sin α j).
Stoga operatoru odgovara u kanonskoj bazi matrica
 
A= cos2 α cos α sin α .
cos α sin α sin2 α
Izaberimo sad bazu koja je prikladnija za opis ovoga operatora. Nju čine dva
jedinična vektora: vektor smjera i vektor normale pravca p . Označimo te vektore s
c i n . Matricu operatora u toj bazi možemo lako napisati, no radije ćemo je izvesti
koristeći formulu (8).

α
j
A’

B’
α
i A
Sl. 2.8. Projekcija na pravac

Vektor smjera i normale imaju prikaze u staroj bazi:


c = cos α i + sin α j,
n = − sin α i + cos α j.
-
Time je odredena matrica prijelaza iz jedne baze u drugu i njezina inverzna:
   
cos α − sin α −1 cos α sin α
T= , T = .
sin α cos α − sin α cos α
Zato je matrica operatora u novoj bazi
   
cos α sin α 2 cos α − sin α
′ −1
A = T AT = cos α cos α sin α
− sin α cos α cos α sin α sin2 α sin α cos α
    
cos α sin α cos α 0 1 0
= = .
− sin α cos α sin α 0 0 0
Oblik ove matrice sugerira da je nova baza pogodnija za opis operatora.
Primijetite da matrice A i A′ imaju istu determinantu ( 0 ) i isti trag (zbroj dija-
gonalnih elemenata, u ovom slučaju 1 ). To će vrijediti i općenito.
Do matrice A ortogonalne projekcije na pravac p kroz ishodište, odreden - vek-
torom smjera a 6= 0 , možemo doći i ovako. Uzmimo bilo koji vektor x = (x, y)⊤ .
Njegova ortogonalna projekcija P(x) na pravac p jednaka je
x·a a·x a(a⊤ x) aa⊤
P(x) = a = a = = x,
kak2 kak2 kak2 kak2
gdje smo rabili asocijativnost množenja matrica. Prema tome zbog P(x) = Ax (vidi
Teorem 1) je
aa⊤
A= .
kak2
Za a = (cos α , sin α )⊤ zbog kak = 1 dobivamo da je
   
cos α cos2 α cos α sin α .
A= · [cos α , sin α ] =
sin α cos α sin α sin2 α

Primjer 15. Simetrija s obzirom na pravac. Neka je p pravac koji prolazi is-
hodištem, a s realnom osi zatvara kut α . Opišimo matricu koja odgovara operatoru
simetrije s obzirom na pravac p .
Djelovanje operatora na vektorima kanonske baze glasi
A(i) = cos 2α i + sin 2α j,
A(j) = sin 2α i − cos 2α j.
Doista, kut izmedu- vektora j i pravca je π − α , pa je kut β izmedu - vektora i i A(j)
2
jednak β = 2α − π2 , vidi sliku. Znači A(j) = cos β i + sin β j = sin 2α − cos 2α .
Zato je  
cos 2α sin 2α
A = A(i, j) = .
sin 2α − cos 2α

A( i )

α
α
i
Sl. 2.9. Operator simetrije s obzirom na A( j )
pravac p

Izvedimo ovu formulu na drugi način. Krenimo od baze koja je prirodnija za


promatrani operator. Jedan njezin vektor čini (jedinični) vektor smjera pravca p , a
drugi vektor, vektor okomit na njega. Označimo te vektore s e i f . Neka je A′ matrica
operatora u toj bazi. Budući da vrijedi
A(e) = e,
A(f) = −f,
dobivamo  
′ 1 0
A = .
0 −1
- stare i
Novi sustav dobiven je iz starog rotacijom za kut α . Zato je veza izmedu
nove baze opisana jednadžbama
e = cos α i + sin α j,
f = − sin α i + cos α j.
Matrica prijelaza iz kanonske baze u novu i njezina inverzna glase:
   
cos α − sin α −1 cos α sin α
T= , T = .
sin α cos α − sin α cos α
Formulu (8) sad koristimo u obrnutom smjeru:
A′ = T−1 AT =⇒ A = TA′ T−1 .
Stoga operatoru u kanonskoj bazi odgovara matrica
   
′ −1 cos α − sin α 1 0 cos α sin α
TA T =
sin α cos α 0 −1 − sin α cos α
   
2 2
= cos α − sin α 2 sin α cos α = cos 2α sin 2α .
2 sin α cos α sin2 α − cos2 α sin 2α − cos 2α

∗*∗
Primijetimo da je u ovome primjeru matrica T−1 jednaka transponiranoj matrici T⊤ . Vidjet
ćemo u nastavku da to nije slučajno, već će ta jednakost vrijediti kad god su vektori nove baze okomiti
i jedinične duljine. Determinanta takve matrice jednaka je +1 ili −1 .
Nadalje, primijetimo da djelovanje operatora A u ovome primjeru možemo shvatiti kao kom-
poziciju triju preslikavanja: prvoga koji će kanonsku bazu prevesti u novu: to je rotacija za kut α ,
drugoga koji će zrcaliti s obzirom na os apscisa u novoj bazi, i trećega koji će vratiti novu bazu u
staru (rotacija za kut −α ).
Pojam i svojstva kompozicije operatora razmotrit ćemo u sljedećoj točki.

∗*∗

-
Primjer 16. Izdvojimo dva medusobno okomita jedinična vektora e i f . Operator
-
koji duž smjerova odredenih tim vektorima djeluje na način
A(e) = λ e, A(f) = µ f
bit će očito operator homotetije u naznačenim smjerovima. Njegova matrica u bazi
{e, f} glasi  
′ λ 0
A = .
0 µ
- stare i nove baze, onda se matrica operatora u originalnoj
Ako je α kut rotacije izmedu
bazi dobiva formulom (8.8):
   
′ ⊤ cos α − sin α λ 0 cos α sin α
A = TA T = .
sin α cos α 0 µ − sin α cos α
Djelovanje operatora vidimo na slici 2.10.

Sl. 2.10. Operator homotetije duž dviju istaknutih osi.

Primjer 17. Operator ortogonalnog projiciranja ili projektor u V 3 . Vektorski


prostor V 3 , koji postovjećujemo s R3 , ima dvije vrste netrivijalni podprostora. To su
jednodimenzionalni podprostori (pravci kroz ishodište) i dvodimenzionalni podprostori
(ravnine kroz ishodište).
(a) Neka je P : V 3 → V 3 operator ortogonalnog projiciranja na x -os. To je oče-
vidno linearni operator, jer projekcija zbroja dvaju vektora je zbroj njihovih projekcija,
P(a1 + a2 ) = Pa1 + Pa2 , i slično P(λ a) = λ Pa . Taj operator na kanonsku bazu
djeluje ovako,
Pi = i, Pj = 0, Pk = 0,
pa je pripadajuća matrica u kanonskoj bazi jednaka
" #
1 0 0
P= 0 0 0 .
0 0 0
(b) Ako s P : V 3 → V 3 označimo ortogonalni operator projiciranja na (x, y) -
ravninu, onda je
Pi = i, Pj = j, Pk = 0,
pa je pripadajuća matrica u kanonskoj bazi jednaka
" #
1 0 0
P= 0 1 0 .
0 0 0
Operator ortogonalnog projiciranja na nul-podprostor {0} ima pripadajuću matrica
jednaku nul-matrici, a operator ortogonalnog projiciranja na cijeli V 3 je identitet I , pa
njemu pripada jedinična matrica I . U svim navedenim slučajevima je P2 = P = P⊤ .
Pokazuje se da vrijedi i obratno: ako je matrica P reda n takva da je P2 = P = P⊤ , on-
da je ona jednaka matrici ortogonalnog projiciranja s Rn na neki podprostor Y od Rn .
Ta matrica je slična dijagonalnoj matrici s jedinicama ili nulama na dijagonali.

Primjer 18. Operator rotacije u prostoru V 3 . Promotrimo operator rotacije


oko osi Oz , za kut α . Njegovo djelovanje i njegovu matricu možemo lako izvesti
poznavajući djelovanje operatora rotacije u ravnini xOy . Naime, vrijedi
A(i) = cos α i + sin α j,
A(j) = − sin α i + cos α j,
A(k) = k,
te matrica ovoga operatora glasi
" #
cos α − sin α 0
A = sin α cos α 0 .
0 0 1

Primjer 19. Eulerovi kutovi. Promotrimo bilo koja dva jednako orijentirana kar-
tezijeva sustava s zajedničkim ishodištem. Neka su to sustavi Oxyz i OXYZ . Iz
početnog sustava Oxyz možemo prijeći u novi sustav OXYZ s pomoću triju rotacija.
Opišimo ih:
1. Rotacija za kut ϕ oko osi Oz . Pri tom os Ox prelazi u os Ox1 , a os Oy u os
Oy1 . Pravac Ox1 dobiven je kao presjek ravnina Oxy i OXY (vidi sliku 2.11).
z
Y
Z

y2

ϑ
y1

O y
Sl. 2.11. Ako dva jednako orjen-
tirana kartezijeva sustava imaju ϕ
zajedničko ishodište, onda se pri- ψ
jelaz iz jednog sustava u drugi x1
može dobiti s pomoću triju rota-
cija. Pripadni kutovi nazivaju se x
Eulerovi kutovi X

2. Rotacija za kut ϑ oko osi Ox1 . Pri tom os Oy1 prelazi u Oy2 , a os Oz u
konačni položaj — os OZ .
3. Rotacija za kut ψ oko osi OZ , nakon koje os Ox1 prelazi u OX , a os Oy2 u
os OY .
Kutovi ϕ , ϑ , ψ nazivaju se Eulerovi kutovi.
Napišimo matricu ove transformacije. Neka su (x, y, z) koordinate točke M u
starom, a (X, Y, Z) koordinate te točke u novom koordinatnom sustavu. Ako sa T1 ,
T2 , T3 označimo matrice operatora rotacija opisanih u pojedinom koraku, onda vrijedi
" # " #
X x
Y = T3 T2 T1 y .
Z z
Matrica T1 odgovara operatoru rotacije oko treće osi, za kut ϕ . Po prošlom
primjeru, ona glasi " #
cos ϕ − sin ϕ 0
T1 = sin ϕ cos ϕ 0 .
0 0 1
Matrica T2 odgovara operatoru rotacije oko prve osi, za kut ϑ :
" #
1 0 0
T2 = 0 cos ϑ − sin ϑ .
0 sin ϑ cos ϑ
Matrica T3 predstavlja operator rotacije za kut ψ oko treće osi:
" #
cos ψ − sin ψ 0
T3 = sin ψ cos ψ 0 .
0 0 1
Umnožak T = T3 T2 T1 predstavlja traženu matricu transformacije početnog u
novi koordinatni sustav. Množenjem gornjih matrica dobivamo
" #
cos ϕ cos ψ − sin ϕ cos ϑ sin ψ − sin ϕ cos ψ − cos ϕ cos ϑ cos ψ sin ϑ sin ψ
T = cos ϕ sin ψ + sin ϕ cos ϑ cos ψ − sin ϕ sin ψ − cos ϕ cos ϑ cos ψ − sin ϑ cos ψ
sin ϕ sin ϑ cos ϕ sin ϑ cos ϑ
10 2. LINEARNI OPERATORI

2.4. Algebra operatora

Kompozicija operatora. Budući da su linearni operatori preslikavanja, onda je


je moguće definirati njihovu kompoziciju u sljedećoj situaciji: Ako je A : X → Y i
B : Y → Z , onda je definirana kompozicija B ◦ A (samo u tom poretku!) koju ćemo
zbog kratkoće označavati s BA .

Teorem 4. Kompozicija linearnih operatora linearni je operator.

DOKAZ. Dovoljno je napisati sljedeće


(BA)(α x + β y) = B(A(α x + β y)) = B(α A(x) + β A(y))
= α B(A(x)) + β B(A(y)) = α (BA)(x) + β (BA)(y).

∗*∗
Koja matrica odgovara operatoru BA ?
Neka je dim X = n , dim Y = m , dim Z = p . Označimo ovu kompoziciju s
C = BA i njegovu matricu s (cij ) . Budući da vrijedi C : X → Z , onda je pripadna
matrica tipa p × n . Neka operatoru A odgovara matrica (aij ) tipa m × n , a operatoru
B matrica (bij ) tipa p × m . Neka su e1 , e2 , . . . , en baza za X , f1 , f2 , . . . , fm baza za
Y i g1 , g2 , . . . , gp baza za Z . Da bismo odredili matricu operatora BA u paru baza
{e1 , e2 , . . . , en } , {g1 , g2 , . . . , gp } , moramo izračunati njegovo djelovanje na vektorima
prve baze i rezultat rastaviti po vektorima druge baze:
X m  X m
(BA)(ek ) = B(A(ek )) = B ajk fj = ajk B(fj )
j=1 j=1
m
X X
p  p X
X m 
= ajk bij gi = bij ajk gi .
j=1 i=1 i=1 j=1
Pp
S druge strane je (BA)(ek ) = i=1 cik gi , pa zaključujemo da vrijedi
m
X
cik = bij ajk . (10)
j=1
Tako smo dokazali

Teorem 5. Kompoziciji linearnih operatora odgovara matrica koja je jednaka um-


nošku matrica pojedinih linearnih operatora. Točnije, neka su A : X → Y i B : Y → Z
linearni operatori i neka je u svakom od vektorskih prostora X , Y i Z zadana po jedna
baza. Neka je C matrica operatora B ◦ A : X → Z u odgovarajućem paru baza, te A
matrica operatora A i B matrica operatora B . Onda je C = BA .

Ovaj teorem možemo interpretirati i drukčije: matrice množimo onako kako ih


množimo upravo zato da bi kompoziciji operatora odgovarao umnožak matrica.
∗*∗

Primjer 20. Neka je Aϕ operator rotacije za kut ϕ , Aψ rotacija za kut ψ . Onda


je očevidno
Aϕ ◦ Aψ = Aϕ +ψ ,
pošto se kompozicijom ovih operatora (u bilo kojem poretku!) dobiva rotacija za kut
ϕ+ψ.
Za pripadne matrice će vrijediti, po formuli (10)
    
cos ϕ − sin ϕ cos ψ − sin ψ cos(ϕ +ψ ) − sin(ϕ +ψ )
= .
sin ϕ cos ϕ sin ψ cos ψ sin(ϕ +ψ ) cos(ϕ +ψ )
-
Množenjem matrica slijeva i usporedivanjem možemo izvesti adicione teoreme za tri-
gonometrijske funkcije:
cos(ϕ + ψ ) = cos ϕ cos ψ − sin ϕ sin ψ ,
sin(ϕ + ψ ) = sin ϕ cos ψ + cos ϕ sin ψ .

Primjer 21. Označimo s Pn vektorski prostor svih polinoma u realnoj varijabli


x , stupnja 6 n . Definirajmo linearni operator A : Pn → Pn kao operator deriviranja,
tj. Af = f ′ za svaki polinom f ∈ Pn . Budući da je f polinom stupnja najviše n u
varijabli x , onda (n + 1) -va derivacija poništava xn , dakle i svaki polinom f ∈ Pn .
Drugim riječima, An+1 je nul-operator. Kako je (xk )′ = kxk−1 , matrica operatora
deriviranja u (kanonskoj) bazi 1, x, . . . , xn prostora Pn je
 
0 1
 0 2 
A=  .

.. n  .
0
Matrica je reda n + 1 , na glavnoj dijagonali su nule, na gornjoj sporednoj 1, 2, . . . , n ,
a svi ostali elementi su nula. Za bilo koji polinom iz Pn je njegova n + 1 -va deriva-
cija jednaka nula. To znači da je An+1 = 0 na prostoru Rn . Iz prethodnog teorema
zaključujemo da je onda An+1 = 0 , tj. (n + 1) -va potencija matrice A jednaka je
nul-matrici. Kvadratne matrice čija neka potencija je jednaka nul-matrici zovu se
nilpotentne matrice.

Jezgra i slika linearnoga operatora. Uz svaki linearni operator A pridružena


su dva skupa. Prvoga sačinjavaju svi oni vektori prostora X koji se preslikavaju u
nul-vektor prostora Y . Označavamo ga s Ker A i nazivamo jezgra ili nul-podprostor
operatora)operatora A . Drugog čine svi vektori u Y koji su slika nekoga vektora iz X .
Označavamo ga s Im A i nazivamo slika 1 operatora A .
Ker A := {x ∈ X : A(x) = 0},
Im A := {y ∈ Y : y = A(x) za neki x ∈ X}.
Ker A i Im A vektorski su podprostori. Dokaz toga je jednostavan. Recimo, za
jezgru slijedi ovako. Uzmimo x, y ∈ Ker A . Onda je
A(α x + β y) = α A(x) + β A(y) = 0
jer su oba pribrojnika jednaka nuli. Slično vrijedi i za sliku.
Često se za nul-podprostor i sliku operatora rabe oznake N(A) i R(A) .
Rang i defekt operatora. Pojam jezgre operatora vezan je s problemom rješava-
nja homogenih linearnih sustava. Zaista, ako je A matrica pridružena operatoru, onda
je jednadžba A(x) = 0 ekvivalentna s Ax = 0 . Pokazali smo da je skup svih rješenja
ove jednadžbe podprostor razapet s n − r vektora, pri čemu je n dimenzija prostora X
(= broj nepoznanica), a r rang matrice A . Taj podprostor jednak je jezgri operatora
A . Ova dimenzija jezgre operatora A zove se još defekt operatora.
Gornju formulu o dimenziji prostora rješenja homogenoga sustava još ćemo do-
datno objasniti. Pokazat ćemo da vrijedi sljedeći

Teorem 6. Ako je n dimenzija prostora X , k dimenzija jezgre, a r dimenzija slike


operatora A : X → Y , onda vrijedi n = r + k .

DOKAZ. I jezgra i slika linearnog operatora su podprostori. Neka je e1 , . . . , ek baza u


jezgri Ker A . Ako je k = n , onda je to i baza za X . To znači da se svaki vektor iz X
preslikava u nul-vektor te je dimenzija slike operatora A jednaka nuli. Formula u tom
slučaju vrijedi.
Neka je sad k < n . Bazu podprostora Ker A možemo nadopuniti do baze u čita-
vom prostoru X . Neka je dakle {e1 , . . . , ek , ek+1 , . . . , en } baza u X . Želimo pokazati
da slike vektora ek+1 , . . . , en čine bazu u Im A . Time ćemo dokazati da je r = n − k .
Pokažimo da vektori A(ek+1 ), . . . , A(en ) razapinju Im A . Uzmimo bilo koji
y ∈ Im A . Onda je y = A(x) za neki x ∈ X . Prikažimo vektor x preko vektora
baze:
x = α1 e1 + . . . + αk ek + αk+1 ek+1 + . . . + αn en .
Sad vrijedi
A(x) = α1 A(e1 ) + . . . + αk A(ek ) + αk+1 A(ek+1 ) + . . . + αn A(en )
= αk+1 A(ek+1 ) + . . . + αn A(en )
te je zaista
Im A = L(A(ek+1 ), . . . , A(en )).
Preostaje još pokazati da su ovi vektori linearno nezavisni. Pretpostavimo da
vrijedi
λk+1 A(ek+1 ) + . . . + λn A(en ) = 0.
Budući da je A linearan, onda vrijedi
A(λk+1 ek+1 + . . . + λn en ) = 0.
Vidimo da je vektor λk+1 ek+1 + . . . + λn en sadržan u jezgri operatora A . Budući da
bazu jezgre čine vektori {e1 , . . . , ek } , taj se vektor može prikazati u obliku
λk+1 ek+1 + . . . + λn en = µ1 e1 + . . . + µk ek .
Odavde slijedi
µ1 e1 + . . . + µk ek . − λk+1 ek+1 − . . . − λn en = 0.
No, ovi vektori {e1 , . . . , en } čine bazu u X pa su linearno nezavisni. Zato svi koefi-
cijenti u ovoj linearnoj kombinaciji moraju biti jednaki nuli. Specijalno, koeficijenti
λk+1 , . . . , λn jednaki su nuli, što pokazuje nezavisnost vektora u slici Im A .
Time je teorem dokazan.

∗*∗

Oblik rješenja linearnog sustava. Na ovome ćemo mjestu ponoviti kako se može
opisati rješenje linearnoga sustava.
Promatramo linearni sustav
Ax = b. (11)
Neka je A operator pridružen matrici A . Da bi jednadžba (11) imala rješenje,
nužno je i dovoljno da vektor b leži u slici operatora A . (Onda će postojati x ∈ X za
koga je A(x) = b .) Neka je xp partikularno rješenje jednadžbe te xh neki vektor u
jezgri. Očito je i xh + xp rješenje, jer je A(xh + xp ) = A(xh ) + A(xp ) = b . Neka je
e1 , . . . ek baza u jezgri Ker A . Opći oblik rješenja jednadžbe (11) ima oblik
x = xp + α1 e1 + . . . + αk ek .
Injektivnost i surjektivnost operatora. Da bi jednadžba Ax = b imala jednoz-
načno rješenje, nužno mora biti Ker A = {0} . Pokažimo da je to svojstvo ekvivalentno
s injektivnošću operatora A , tj. da iz Ax1 = Ax2 slijedi x1 = x2 .
Zaista, ako je jezgra trivijalna, tj. Ker A = {0} , onda iz A(x1 ) = A(x2 ) slijedi
(zbog linearnosti) A(x1 − x2 ) = 0 i zato je (zbog trivijalnosti jezgre) x1 − x2 = 0 , tj.
x1 = x2 te je A injektivan.
Obratno, ako jezgra nije trivijalna, tj. postoji x ∈ Ker A takav da je x 6= 0 , onda
se i x i 0 preslikavaju u isti vektor 0 u prostoru Y , pa A nije injektivan.
Operator A je surjektivan ako je Y = Im A . Nužan i dovoljan uvjet za to je da se
dimenzije ovih prostora podudaraju.
Inverzni operator. Linearni operator A : X → Y koji je injektivan i surjektivan
nazivamo regularnim operatorom ili izomorfizmom prostora X i Y . Da bi to bio
slučaj, mora biti dim(Ker A) = 0 i dim X = dim Y = n . Onda je A bijekcija, pa stoga
postoji njegov inverz. Označimo ga s A−1 . To je preslikavanje sa Y u X definirano
na način
y = A(x) ⇐⇒ x = A−1 y.
Tvrdimo da je i A−1 linearni operator. Zaista, ako su y1 , y2 ∈ Y , onda postoje (je-
dincati!) x1 , x2 ∈ X za koje je A(x1 ) = y1 , A(x2 ) = y2 . Sad imamo x1 = A−1 (y1 ) ,
x2 = A−1 (y2 ) . Zbog linearnosti je
A(λ1 x1 + λ2 x2 ) = λ1 A(x1 ) + λ2 A(x2 ) = λ1 y1 + λ2 y2
a odavde, djelovanjem inverznog operatora:
λ1 x1 + λ2 x2 = λ1 A−1 (y1 ) + λ2 A−1 (y2 ) = A−1 (λ1 y1 + λ2 y2 ).
Time je dokazana linearnost.
∗*∗
Pokazali smo da kompoziciji operatora odgovara umnožak matrica. Neka je Ã
matrica operatora A−1 . Budući da je kompozicija A−1 ◦A identično preslikavanje I na
prostoru X , onda mora vrijediti ÃA = I . Slično, vrijedi i AÃ = I jer je i kompozicija
A ◦ A−1 identitet (na prostoru Y ). Stoga je à upravo inverzna matrica matrice A .
Prema tome, inverznom operatoru odgovara inverzna matrica.
Dakle, linearni operator je regularan (izomorfizam) onda i samo onda ako je pri-
padna matrica regularna.
Ako izmedu - dvaju vektorskih prostora X i Y postoji izomorfizam (regularni ope-
rator) A : X → Y , onda kažemo da su prostori X i Y izomorfni. Izomorfne vektorske
prostore poistovjećujemo. Jasno je da izomorfni prostori imaju istu dimenziju.
Na pr. vektorski prostori M22 i R4 su izomorfni. Takoder - i P3 i R4 . Lako je
provjeriti da je izomorfnost vektorskih prostora relacija ekvivalencije (tj. refleksivna,
tranzitivna i simetrična relacija). Prema tome, i prostori M22 i P3 su medusobno -
izomorfni.

Primjer 22. Izomorfni vektorski prostori X i Y imaju iste dimenzije. Ako je


dim X = k onda je X izomorfan s Rk u slučaju realnog prostora, ili s Ck u slučaju da
je X vektorski prostor nad poljem kompleksnih brojeva. Općenitije, ako je X vektorski
prostor nad poljem F , te dim X = k , onda je X izomorfan s F k = F × . . . × F . Ako
je A : X → Y izomorfizam vektorskih prostora X i Y i {e1 , . . . , ek } neka baza u X ,
onda je {Ae1 , . . . , Aek } baza u Y . Kraće rečeno, izomorfizam prebacuje bazu jednog
vektorskog prostora u bazu drugog.

Primjer 23. Dokažimo da je linearni operator A : R3 → P2 zadan sa A(a, b, c) =


ax + (b + c)x + (a + c) regularan operator, tj. izomorfizam prostora R3 i P2 . Prona-
2
-
dimo najprije matricu tog operatora u paru kanonskih baza. Zbog A(1, 0, 0) = 1 + x2 ,
A(0, 1, 0) = x i A(0, 0, 1) = 1 + x je
" #
1 0 1
A= 0 1 1 .
1 0 0
Zbog det A = −1 6= 0 je ta matrica regularna, pa je i operator A regularan, tj.
izomorfizam.
2. LINEARNI OPERATORI 11

2.5. Minimalni polinom

U ovoj će točki sve matrice biti kvadratne.


Dimenzija prostora Mn . Skup Mn svih kvadratnih matrica reda n čini vektor-
ski prostor dimenzije n2 . Bazu u tome prostoru čini n2 matrica Bij čiji su svi elementi
nula, osim jedinice na mjestu (i, j) . Tako na pr. u prostoru M2 bazu čine matrice
       
1 0 0 1 0 0 0 0
B11 = , B12 = , B21 = , B22 = .
0 0 0 0 1 0 0 1
Čitatelj će se lako uvjeriti da su ovakve matrice linearno nezavisne. One razapinju čitav
prostor jer vrijedi za svaku matricu prostora Mn :
X
A= aij Bij .
Time smo pokazali da je dimenzija prostora Mn zaista n2 .
Linearna zavisnost potencija matrice. Kakvu posljedicu možemo iz toga izvu-
ći? Promatramo li sve potencije neke matrice A (krenuvši od A0 koju po definiciji
smatramo jediničnom matricom), dobit ćemo niz:
I, A, A2 , A3 , . . .
 
1 2
Tako na primjer, za matricu A = dobivamo sljedeći niz:
−1 1
         
1 0 1 2 −1 4 −5 2 −7 −8
, , , , ,...
0 1 −1 1 −2 −1 −1 −5 5 −7
Možemo se upitati: je li neka od tih matrica linearna kombinacija prethodnih?
2
Odgovor je na ovo pitanje potvrdan! Ako ne prije, matrica An sigurno je linearna
kombinacija prethodnih, pošto u nizu
2
I, A, A2 , A3 , . . . , An
imamo n2 + 1 element prostora Mn , a njegova je dimenzija n2 . Stoga su gornje
matrice linearno zavisne.
Pogledajmo ponovo u matrice gornjega niza. Računajmo ponovo potencije i zaus-
tavimo se kod prve koja je linearno zavisna s prethodnima. Prema tome, matrice
I, A, A2 , . . . , Ak−1
su linearno nezavisne, a matrice
I, A, A2 , . . . , Ak−1 , Ak
su linearno zavisne. Onda se matrica Ak može napisati kao spoj prethodnih; postoje
skalari µ1 , . . . , µk za koje vrijedi
Ak = µ1 Ak−1 + . . . + µk−1 A + µk I. (12)

∗*∗
Ova relacija nije očekivana. Imajući u vidu složeni način na koji je definirano
matrično množenje, u najmanju je ruku neobično da će se medu - matričnim elementima
moći pronaći ovakva veza. Za broj k sigurni smo da vrijedi ocjena k 6 n2 . Medutim, -
pokazat ćemo da vrijedi čak k 6 n , što relaciju (12) čini još neobičnijom.
∗*∗

Minimalni polinom. Definirajmo polinom pridružen matrici A na način:


µ ( λ ) = λ k − µ 1 λ k −1 − . . . − µ k −1 λ − µ k .
Ovaj se polinom naziva minimalni polinom matrice A . Vidimo da matrica A poniš-
tava minimalni polinom, jer vrijedi
µ (A) = Ak − µ1 Ak−1 − . . . − µk−1 A − µk I = 0.
Opravdanje za naziv minimalni nalazimo u sljedećem teoremu.

Teorem 7. Neka je P(λ ) bilo koji polinom koji se poništava u matrici A . Onda
je P(λ ) djeljiv s minimalnim polinomom µ (λ ) .

DOKAZ. Pretpostavimo da vrijedi P(A) = 0 . Polinom P(λ ) uvijek možemo podijeliti


polinomom µ (λ ) :
P(λ ) = Q(λ )µ (λ ) + R(λ ).
Tu je Q(λ ) kvocijent dijeljenja, a R(λ ) ostatak: polinom stupnja manjeg od stupnja k
minimalnoga polinoma. Uvrštavajući matricu A na mjesto nepoznanice, dobivamo
P(A) = Q(A)µ (A) + R(A).
Kako vrijedi P(A) = 0 i µ (A) = 0 , odavde slijedi R(A) = 0 . No to znači da pos-
toji netrivijalna linearna kombinacija matrica I, A, A2 . . . , Ak−1 koja iščezava, što je u
suprotnosti s definicijom broja k (kao prve potencije za koju je to svojstvo ispunjeno).

Prema tome, zaključujemo sljedeće:


• Niti jedan polinom stupnja < k ne može poništiti matricu A .
• Svaki drugi polinom koji poništava matricu A dijeljiv je s minimalnim poli-
nomom.
Ova svojstva opravdavaju naziv minimalni polinom.
∗*∗

Računanje minimalnog polinoma. Postoji više načina za računanje minimalno-


ga polinoma. Mi ćemo navesti jedan način koji možemo lako opisati. Napravimo
sljedeću matričnu tablicu:

I A A2 ... Am ...
A11 A12 ... A1m ...
A22 ... A2m ...
...
Amm ...
Matrice u prvome redu dobivamo računanjem potencija zadane matrice A . Matrice u
drugome redu dobivamo iz prethodnoga reda, po formulama:
A11 = A − β11 I, A12 = A2 − β12 I, . . . A1m = Am − β1m I
-
Pri tom koeficijente β1j odredujemo tako da sve te matrice na istome mjestu (obično
mjestu (1,1)) imaju nul-element.
Treći red računamo formulama
A22 = A12 − β22 A11 , . . . A2m = A1m − β2m A11 .
Pri tom zahtijevamo da sve ove matrice imaju na drugom mjestu takoder - nul-element.
To je obično pozicija (1,2), no ako već od prije sve matrice na tom mjestu imaju nule,
izabrat ćemo neku drugu poziciju. Budući da je pri tom i element na mjestu (1,1)
u svim matricama trećega retka jednak nuli, nastavljanjem ovoga postupka na koncu
ćemo dobiti nul-matricu. Uvažavajući sve izračunate relacije, iz nje možemo odrediti
minimalni polinom.
Napomenimo još da u postupku računanja matrice računamo u poretku: I , A ,
A11 , A2 , A12 , A22 , A3 itd., dakle, po stupcima ove sheme, kako ne bismo nepotrebno
računali potencije matrica (recimo potenciju A3 ukoliko je ispunjeno A22 = 0 ).
 
2 1
Primjer 24. Odredimo minimalni polinom matrice A = .
−1 3
Napravimo gore navedenu shemu:
     
1 0 2 1 3 5
I= A= A2 =
0 1 −1 3 −5 8
   
0 1 0 5
A11 = A12 =
−1 1 −5 5
 
0 0
A22 =
0 0
Pri tome je
A11 = A − 2I,
A12 = A2 − 3I,
A22 = A12 − 5A11
Krenuvši od posljednje relacije, čitamo:
0 = A12 − 5A11 = (A2 − 3I) − 5(A − 2I) = A2 − 5A + 7I.
Prema tome, minimalni polinom matrice A glasi
µ (λ ) = λ 2 − 5λ + 7.
3.
Vlastiti vektori
i vlastite vrijednosti

1. Karakteristični polinom i vlastite vrijednosti . . . . . . .


2. Dijagonalizacija operatora. Matrične funkcije . . . . . .
3. Hamilton-Cayleyev teorem . . . . . . . . . . . . . . . . . .
4. Nilpotentne matrice. Jordanova forma matrice . . . . . .

3.1. Karakteristični polinom i vlastite vrijednosti

U ovom ćemo poglavlju opisati kako se traži ‘najprikladnija’ baza vektorskoga


prostora X , baza u kojoj će linearni operator A : X → X imati najjednostavniji prikaz.
U čitavom poglavlju, X će biti n -dimenzionalni vektorski prostor i svi operatori bit će
definirani i uzimati vrijednosti u istome prostoru X .
Pogledajmo ponovo jedan primjer iz prošloga poglavlja.
Neka je A operator simetrije s obzirom na pravac p . Kazali smo da je najpriklad-
nija baza za opis ovoga operatora ona koju sačinjava vektor smjera pravca p i vektor
okomit na njega. Označili smo te vektore s e i s f . Primijetimo da pri tom vrijedi
A(e) = e , A(f) = −f : slike vektora e i f imaju isti nosač kao i sami vektori. Pri-
mijetimo nadalje da su to (i njima kolinearni vektori!) jedini vektori s tim svojstvima.
Uzmemo li bilo koji drugi vektor koji nije kolinearan s jednim od ova dva, x = α e+ β f ,
onda je A(x) = α e − β f i ovaj vektor nije kolinearan s x ; operator A mijenja njegov
nosač.

Definicija 1. Vektor v 6= 0 zovemo vlastitim vektorom operatora A ako postoji


skalar λ takav da vrijedi
A(v) = λ v. (1)
Skalar λ nazivamo vlastita vrijednost 1 operatora A , koja odgovara vlastitom vekto-
ru v .

∗*∗
Po definiciji je jasno da je i α v ( α 6= 0 ) vlastiti vektor, čim je v vlastiti vektor.
Svi ti vektori odgovaraju istoj vlastitoj vrijednosti.
Neka su x, y dva vlastita vektora (ako postoje, ali ne nužno kolinearna) koji
odgovaraju istoj vlastitoj vrijednosti λ . Onda vrijedi
A(α x + β y) = α A(x) + β A(y) = αλ x + βλ y = λ (α x + β y)
te je i α x + β y vlastiti vektor za istu vlastitu vrijednost (ukoliko je različit od 0 ).
Poopćujući ovo razmatranje, možemo za svaku vlastitu vrijednost λ promotriti
podprostor Ker(λ I − A) , tj. jezgru operatora λ I − A . Svaki vektor, različit od nule,
iz toga podprostora vlastiti je vektor operatora A . Naime, (λ I − A)(v) = 0 povla-
či A(v) = λ v . Ovaj se podprostor naziva vlastiti podprostor koji pripada vlastitoj
vrijednosti λ .

Primjer 1. Za identički operator I svaki je vektor vlastit, a zajednička vlastita


vrijednost je broj 1, budući da vrijedi I(v) = v za svaki v .

Primjer 2. Neka je Aϕ operator rotacije za kut ϕ , pri čemu je ϕ različit od 0 i od


180◦ . Očevidno, operator Aϕ ne ostavlja niti jedan vektor kolinearnim: ovaj operator
nema vlastitih vektora s realnim komponentama ni realnih vlastitih vrijednosti.

Primjer 3. Neka je operator A zadan matricom


 
1 1
A= .
0 1
-
Nadimo njegove vlastite vrijednosti i vektore.
Iz jednadžbe Av = λ v , stavljajući v = (x1 , x2 )⊤ , dobivamo sljedeći sustav:
x1 + x2 = λ x1
.
x2 = λ x2
Iz druge jednadžbe čitamo λ = 1 ili x2 = 0 . Ako je λ = 1 , iz prve slijedi x1 +x2 = x1
te je x2 = 0 , x1 bilo kakav. Ako je pak x2 = 0 onda iz prve jednadžbe vidimo da
je λ = 1 i opet x1 bilo kakav (različit od nule). Postoji  zato jedna vlastita vrijednost
1
λ = 1 i jednodimenzionalni vlastiti podprostor α koji odgovaraju toj vlastitoj
0
vrijednosti.
Umjesto da govorimo o jednodimenzionalnom podprostoru, radije ćemo izabrati
jedan (bilo koji) njegov vektor i govoriti o vlastitom vektoru koji pripada toj vlastitoj
vrijednosti.

Nalaženje vlastitih vektora. Ovaj primjer pokazuje da će se nalaženje vlasti-


tih vektora svesti na rješavanje homogenoga linearnoga sustava. Zaista, jednadžba
A(v) = λ v ekvivalentna je s
(λ I − A)(v) = 0. (2)
Dakle, v je vlastiti vektor ako i samo ako pripada jezgri operatora λ I − A . Ovaj uvjet
govori o načinu na koji se mora birati skalar λ .
Karakteristični polinom i spektar matrice. Da bi jednadžba (2) imala netrivi-
jalno rješenje, operator λ I − A ne smije biti regularan. Neka je A matrica operatora
A u nekoj bazi. Matrica jediničnog operatora (u svakoj bazi) jedinična je matrica I .
Zato operatoru λ I − A odgova matrica λ I − A . Budući da ta matrica nije regularna,
njena determinanta mora biti jednaka nuli:

λ −a11 −a12 . . . −a1n

−a21 λ −a22 . . . −a2n

|λ I − A| = .. = 0.

.
−a −an2 . . . λ −ann
n1
Ova je determinanta polinom po nepoznanici λ , stupnja n . Nazivamo ga karak-
teristični polinom operatora A (ili matrice A ) i označavamo (obično) s κ (λ ) ,
κ (λ ) = det(λ I − A).
Vodeći koeficijent ovoga polinoma (uz potenciju λ n ) je 1. Stoga on ima oblik
κ (λ ) = λ n − σ1 λ n−1 − . . . − σn−1 λ − σn .
Jednadžba
κ (λ ) = det(λ I − A) = 0
naziva se karakteristična jednadžba operatora A (matrice A ). Njena rješenja su
vlastite vrijednosti operatora A .
Skup svih vlastitih vrijednosti kvadratne matrice A zove se spektar matrice A i
označava sa σ (A) . Za λ ∈ σ (A) jednadžba (λ I − A)x = 0 ima netrivijalno rješenje
x 6= 0 , pa vrijedi det (λ I − A) = 0 , tj.
σ (A) = {λ ∈ C : κ (λ ) = 0}.
Prema tome spektar matrice A može imati najviše n elemenata. Slične matrice imaju
isti karakteristični polinom, dakle isti spektar.
Maksimum svih apsolutnih vrijednosti vlastitih vrijednosti kvadratne matrice A
zove se spektralni radijus matrice A i označava sa r(A) , tj. r(A) = max{|λ | :
κ (λ ) = 0} . Neka nas ne zbunjuje što se istom oznakom označava sasvim drugi pojam,
rang matrice (najveći mogući broj njenih linearno nezavisnih redaka). Zamislimo li
u kompleksnoj ravnini krug polumjera r(A) sa središtem u ishodištu, onda on sadrži
cijeli spektar od A , tj. sve vlastite vrijednosti od A , a na rubnoj kružnici se nalazi bar
jedna od vlastitih vrijednosti.

Karakteristični polinom operatora ne ovisi o izboru baze. Karakteristični se


polinom računa preko determinante matrice koja odgovara operatoru λ I − A . Ta matri-
-
ca ovisi o izabranoj bazi, medutim, njezina determinanta ne! Svake takve dvije matrice
su slične i stoga imaju istu determinantu.
Budući da su vlastite vrijednosti nul-točke karakterističnog polinoma, to niti one
ne ovise o izboru baze. Zato pri računu vlastitih vrijednosti možemo uzeti bilo koju
bazu za prikaz operatora A .
Računanje vlastitih vrijednosti. Vlastite su vrijednosti nul-točke polinoma stup-
nja n . Da bismo ih odredili, moramo odrediti najprije taj polinom. Budući da je on
determinanta matrice reda n , suočeni smo s dva ozbiljna problema:
• Kako odrediti determinantu matrice reda n , čiji elementi nisu numerički, već
se u njoj pojavljuje i nepoznanica λ ?
• Nakon što je taj polinom izračunat (na neki način!), kako odrediti njegove
nul-točke?
Na prvo se pitanje ne može dati zadovoljavajući odgovor 1 . Postoji nekoliko na-
-
čina za odredivanje koeficijenata karakterističnog polinoma koji ne koriste direktno
računanje determinanti, medutim - svi su oni efikasni samo za matrice maloga reda.
Što se nalaženja vlastitih vrijednosti tiče, nul-točke polinoma velikoga stupnja mo-
gu se računati samo približnim metodama. Razlog tome je što eksplicitne formule za
nalaženje nul-točaka polinoma stupnja većeg od četiri ne postoje. Za polinome stupnja
tri i četiri, formule postoje ali su praktički neuporabljive.
Sve ovo ukazuje da se vlastite vrijednosti (i vektori) matrica velikoga reda nalaze
posve drukčijim metodama. Tim se problemom bavi posebno područje matematike,
tzv. numerička linearna algebra.
Značenje kompleksnih brojeva. Polje realnih brojeva je nedostatno u problemu
nalaženja vlastitih vrijednosti. Razlog tomu je što polinom ( čak i onaj s realnim koefici-
jentima) ne mora imati niti jedan realni korijen. Ako je to karakteristični polinom, onda
odgovarajući operator nema (realnih) vlastitih vrijednosti. S druge strane, po osnovnom
stavku algebre svaki polinom stupnja n ima točno n kompleksnih nul-točaka (brojeći
njihovu višestrukost). Stoga je korisno pri nalaženju vlastitih vrijednosti dozvoliti račun
u polju kompleksnih brojeva. Na taj će način svaki operator imati bar jednu vlastitu
vrijednost i bar jedan vlastiti vektor (koji ne mora imati geometrijsku interpretaciju).

Primjer 4. Promotrimo matricu



0 −1
A= .
1 0
Ona odgovara operatoru rotacije za 90◦ , stoga očevidno neće imati (realnih) vlastitih
vrijednosti i vektora. Odredimo njezin karakteristični polinom:

λ 1

κ (λ ) = = λ 2 + 1.
−1 λ
- imati kompleksne
Njegove su nul-točke λ1 = i te λ2 = −i . Vlastiti vektori će takoder
koeficijente.

∗*∗
Birajući koju alternativu prihvatiti, nesumnjivo ćemo odabrati račun s kompleksnim
brojevima. Stoga riječ skalar u definiciji vlastitih vrijednosti i vektora s početka ovoga
poglavlja znači kompleksan broj. Dakako, realni su brojevi sadržani u kompleksnim,
potonje ćemo koristiti samo onda kada račun pokaže da su neophodni.
3. VLASTITI VEKTORI I VLASTITE VRIJEDNOSTI 13

3.2. Dijagonalizacija operatora. Matrične funkcije

Dokažimo jednu osobinu vlastitih vektora linearnog operatora A : X → X .

Teorem 1. Vlastiti vektori koji odgovaraju različitim vlastitim vrijednostima me-


-
dusobno su linearno nezavisni.

Dokaz. Tvrdnju dokazujemo indukcijom po broju različitih vlastitih vrijednosti.


Ako je taj broj jednak 1, nemamo što dokazivati. Pretpostavimo da tvrdnja vrijedi za
k−1 vlastitu vrijednost. Neka su sad λ1 , . . . , λk različite vlastite vrijednosti i v1 , . . . , vk
odgovarajući vlastiti vektori. Pogledajmo njihovu linearnu kombinaciju koja iščezava:
α1 v1 + α2 v2 + . . . + αk vk = 0. (3)
Operator A prebacuje ovu kombinaciju ponovo u nul-vektor. Budući da su gornji
vektori vlastiti za taj operator, onda vrijedi
α1 λ1 v1 + α2 λ2 v2 + . . . + αk λk vk = 0. (4)
Pomnožimo relaciju (3) s λ1 i oduzmimo od (4). Dobivamo
α2 (λ2 − λ1 )v2 + . . . + αk (λk − λ1 )vk = 0.
Vektori v2 , . . . , vk po pretpostavci su linearno nezavisni. Stoga su svi koeficijenti jedna-
-
ki nuli. Budući da su vlastite vrijednosti medusobno različite, to vrijedi α2 , . . . , αk = 0 .
Sad iz (3) slijedi i α1 = 0 , čime je tvrdnja dokazana.
∗*∗

Dijagonalizacija operatora. Izvedimo odmah važnu posljedicu ovog teorema:


Ako su sve nul-točke karakterističnog polinoma različite, onda postoji baza prostora
koju čine vlastiti vektori promatranog operatora.
Neka su to vektori v1 , . . . , vn . Kako izgleda matrica operatora A u toj bazi? Vrije-
di A(v1 ) = λ1 v1 ,. . . , A(vn ) = λn vn . Zato je njegova matrica u ovoj bazi dijagonalna.
Uobičajen redoslijed postupaka je sljedeći: zadana je matrica A operatora u po-
četnoj (obično kanonskoj) bazi. Računajući vlastite vektore te matrice mi odabiremo
drugu bazu u kojoj će operator imati dijagonalni prikaz. U jeziku matrica, tražimo da
li postoji dijagonalna matrica slična početnoj.
∗*∗

Algoritam za dijagonalizaciju matrice.


Korak 1. Odredimo karakteristični polinom κ (λ ) matrice A .
Korak 2. Odredimo nul-točke λ1 , . . . , λn karakterističnog polinoma. To su vlastite
vrijednosti matrice A .
Korak 3. Rješavamo homogene sustave (λi I − A)v = 0 . Njihova su rješenja vlastiti
vektori matrice A .
Ako postoji n linearno nezavisnih vlastitih vektora, onda je matrica slična
dijagonalnoj (operator se može dijagonalizirati). Vlastite vektore zapišimo
kao stupce matrice prijelaza T .
Korak 4. Matrica operatora u novoj bazi je dijagonalna
λ 0 ... 0 
1
′ −1  0 λ2 . . . 0 
A = T AT =  ... .
0 0 . . . λn
Dijagonalni elementi su vlastite vrijednosti matrice A .
∗*∗
Vrijedi i obrat. Zbog njegove važnosti, istaknimo tvrdnju:

Teorem 2. Operator se može dijagonalizirati onda i samo onda ako postoji baza
koju čine njegovi vlastiti vektori.

Zaista, ako je matrica operatora (u nekoj bazi) dijagonalna, onda su vektori te baze
vlastiti vektori, a elementi na dijagonali vlastite vrijednosti. To slijedi iz načina kako
operatoru pridružujemo matricu.
Primijetimo nadalje da pri tom nije bilo važno da su sve vlastite vrijednosti razli-
čite! Nuždan i dovoljan uvjet da bi se A dao dijagonalizirati je da posjeduje n linearno
nezavisnih vlastitih vektora. Pokazali smo da će se to sigurno dogoditi ukoliko su
vlastite vrijednosti različite, no taj uvjet nije uvijek nuždan.

Primjer 5. Operator simetrije s obzirom na neku ravninu π (koja prolazi ishodiš-


tem) ima matricu " #
1 0 0
A= 0 1 0 .
0 0 −1
Bazu smo izabrali tako da prva dva vektora leže u ravnini π (možemo uzeti bilo koja
dva linearno nezavisna vektora!) a treći je okomit na ravninu. Karakteristični polinom
ove matrice glasi (λ − 1)2 (λ + 1) . Postoje dvije vlastite vrijednosti: 1 i −1 . Prva je
dvostruka i njoj odgovara dvodimenzionalni vlastiti podprostor: svaki vektor u ravnini
π je vlastiti, operator ga ostavlja nepromijenjenog. Dakle, operator ima dvije jednake
vlastite vrijednosti, ali unatoč tome postoji baza koju čine vlastiti vektori.
Jedinični je operator najdrastičniji primjer: on posjeduje samo jednu vlastitu vri-
jednost 1 , ali vrijedi I(v) = 1 · v za svaki vektor v , stoga je odgovarajući vlastiti
podprostor čitav prostor X .

Primjer 6. Postoje i suprotni primjeri. Operator zakošenja ima u odgovarajućoj


bazi matricu 

1 1
A= .
0 1

Njegov karaktristični polinom je (λ − 1)2 i λ = 1 je jedina vlastita vrijednost. Potra-


žimo vlastite vektore. Oni su rješenja linearnog sistema
    
0 −1 x1 0
= .
0 0 x2 0
 
1
Ovaj sistem ima za rješenje vektor(e) α — vlastiti je podprostor jednodimenziona-
0
 
1
lan. Izaberimo za vlastiti vektor vektor . Drugoga vlastitog vektora nekolinearnog
0
s ovim operator nema. Stoga ne postoji baza u kojoj bi operator imao dijagonalni oblik.
Isti zaključak vrijedi i za operator čija je matrica
 
1 1 0 ... 0
0 1 1 ... 0
 ... ... 
A= 
 
1 1
1
On ima samo jednu vlastitu vrijednost λ = 1 i jednodimenzionalan vlastiti podprostor!

Gornja trokutasta forma. Ovi primjeri pokazuju da se svaki operator ne da dija-


-
gonalizirati. Medutim, svaki se može svesti na gornju trokutastu formu. To znači da se
može odabrati baza takva da je odgovarajuća matrica gornja trokutasta matrica.
Iskažimo ovu tvrdnju u jeziku matrica koje odgovaraju operatoru A . Neka je A
matrica operatora u početnoj bazi. Gornja tvrdnja ekvivalentna je ovoj u narednom
teoremu.

Teorem 3. (Schurov teorem) Za svaku matricu A s kompleksnim koeficijenti-


ma postoji regularna matrica T s kompleksnim koeficijentima takva da je matrica
B := T−1 AT gornja trokutasta.

Matrica T predstavlja matricu prijelaza iz baze u kojoj je operator prikazan ma-


tricom A u bazu u kojoj on ima za prikaz gornju trokutastu matricu B . Njeni su
koeficijenti općenito kompleksni brojevi. Tvrdnja nije istinita ako za T zahtijevamo da
bude realna matrica.
Dokaz. Tvrdnju dokazujemo indukcijom po redu n matrice. Ako je n = 1 , ne-
mamo što dokazivati. Pretpostavimo da tvrdnja vrijedi za sve matrice reda n − 1 i
uzmimo matricu A reda n . Ona posjeduje bar jednu vlastitu vrijednost λ1 i bar jedan
vlastiti vektor e1 (nad poljem kompleksnih brojeva C !). Nadopunimo taj vektor do
baze prostora X , neka e1 , . . . , en čine bazu. (Primijeti da ostali vektori ne moraju biti
vlastiti za operator A .)
Neka je T1 matrica prijelaza iz početne u ovu bazu. Onda matrica T− 1
1 AT1 ima
oblik  
λ1 a′12 . . . a′1n
′ ′
 0 a22 . . . a2n 
T− 1
1 AT1 =  ..
  = A′

.
′ ′
0 an2 . . . ann
U prvom stupcu imamo samo jedan element koji je možda različit od nule. Ovu matricu
možemo zapisati shematski u obliku
 
λ1 ∗
0 A′1
Ovdje ∗ označava preostale elemente u prvome retku, 0 je nul-vektor, A′1 matrica reda
n−1 .
Sad koristimo pretpostavku indukcije. Postoji matrica T′2 reda n − 1 takva da je
′−1 ′ ′
T2 A1 T2 gornja trokutasta:
λ ∗ ∗ ... ∗ 
2
 0 λ3 ∗ . . . ∗ 
T′− 1 ′ ′
2 A1 T2 =  ...  =: B
0 0 . . . 0 λn

Matricu T2 nadopunimo do kvadratne matrice T2 reda n na sljedeći način:
 
1 0
T2 = .
0 T′2
Konstruirajmo sad traženu matricu T kao umnožak početne matrice T1 s ovako nado-
punjenom matricom T2
T = T1 T2 .
Za nju vrijedi
T−1 AT = T− 1 −1
2 (T1 AT1 )T2
= T− 1 ′
A T2
2   
1 0 λ1 ∗ 1 0
=
0 T′2 −1 0 A′1 0 T′2
   
λ1 ∗ λ1 ∗
= = .
0 T′2 −1 A′1 T′2 0 B
Dobivena matrica je gornja trokutasta. Time je teorem dokazan.

Primjer 7. Slične matrice imaju iste karakteristične polinome:


A ∼ B ⇒ κA (λ ) = κB (λ )
Posebno, slične matrice imaju iste vlastite vrijednosti, računajući i algebarsku kratnost.
Doista, ako je B = T−1 AT , onda je λ I − B = T−1 (λ I − B)T , pa tvrdnja sli-
jedi iz Binet-Cauchyjeva teorema: κB (λ ) = det(λ I − B) = det(T−1 (λ I − B)T) =
det(λ I − B) = κB (λ ) .

∗*∗
Dosad smo pokazali (izmedu - ostaloga) sljedeća dva svojstva matrica:
• Ako su sve vlastite vrijednosti matrice A različite, onda postoji matrica T
takva da je T−1 AT dijagonalna, s vlastitim vrijednostima na dijagonali.
• U općem slučaju, postoji matrica T takva da je T−1 AT gornja trokutasta.
Pokažimo da se i sad na dijagonali bile koje gornje trokutaste matrice nalaze vlastite
vrijednosti!
U tu ćemo svrhu iskoristiti poznati rezultat: karakteristični polinom ne ovisi o
izabranoj bazi. Neka je A matrica, neka su λ1 , . . . , λn sve njezine vlastite vrijednosti
(koje mogu biti i kompleksni brojevi). Neka je T matrica takva da je B = T−1 AT
gornja trokutasta. Onda je karakteristični polinom matrice B jednak onome od matrice
-
A , pošto su te dvije matrice slične. Medutim, taj karakteristični polinom možemo
direktno izračunati. Neka B ima oblik
b 
11 ∗ . . . ∗
 0 b22 . . . ∗ 
B= ... 
0 0 . . . bnn
Onda je
 λ −b ∗ ... ∗ 
11
 0 λ −b22 . . . ∗ 
λI − B =  ... 
0 0 . . . λ −bnn
i determinanta ove matrice jednaka je umnošku dijagonalnih elemenata. Dakle,
κA (λ ) = κB (λ ) = (λ − b11 )(λ − b22 ) . . . (λ − bnn ).
Nul-točke ovoga polinoma su brojevi b11 , . . . , bnn i stoga se oni podudaraju s vlastitim
vrijednostima. Dakle, nakon svodenja- na gornju trokutastu formu, na dijagonali matrice
B naći će se vlastite vrijednosti matrice A (u nekom poretku). Time je naša tvrdnja
dokazana.

Primjer 8. (a) Za svaku kvadratnu matricu A vrijedi


det A = λ1 · · · λn ,
gdje su λi sve njene vlastite vrijednosti, računajući i kratnost (tj. nisu sve nužno raz-
ličite). Posebno, matrica A je regularna (invertibilna) onda i samo onda ako su sve
njene vlastite vrijednosti 6= 0 .
Ova tvrdnja slijedi primjenom činjenice da je svaka matrica slična gornjoj troku-
tastoj. Slične matrice zbog Binet-Cauchyjeva teorema imaju iste determinante. Vidjeli
smo da gornja trokutasta matrica ima na dijagonali vlastite vrijednosti, a njena deter-
minanta jednaka je umnošku dijagonalnih elemenata.
(b) Iz κ (λ ) = (λ − λ1 ) . . . (λ − λn ) vidimo da je slobodni koeficijent karakteris-
tičnog polinom κ (λ ) matrice A jednak
(−1)n λ1 · · · λn = (−1)n det A.
To znači da iz slobodnog koeficijenta karakterističnog polinoma možemo odmah oči-
tati determinantu matrice. Posebno, ako karakteristični polinom matrice ima slobodni
koeficijent 6= 0 , onda je matrica regularna, i obratno.

∗*∗

Matrični polinom. Pretpostavimo da je matrica A slična dijagonalnoj: postoji


matrica T takva da je T−1 AT = D dijagonalna. (Primijetite da pri tom ne zahtijevamo
da su vlastite vrijednosti različite, s obzirom na činjenicu da postoje matrice slične
dijagonalnoj čije sve vlastite vrijednosti nisu različite.)
Računanje s dijagonalnim matricama iznimno je lagan posao; takve se matrice
ponašaju poput skalara. Tako na pr. vrijedi
d 0... 0   2   p 
1 d1 0 . . . 0 d1 0 . . . 0
 0 d22 . . . 0   p 
 0 d2 . . . 0  , Dp =  0 d2 . . . 0 .
D= ...  =⇒ D2 =   ...   ... 
0 0 . . . dn 2 p
0 0 . . . dn 0 0 . . . dn
Općenitije, ako je P(λ ) = ck λ k + . . . + c1 λ + c0 bilo koji polinom s kompleksnim
koeficijentima, onda se odgovarajući matrični polinom P(A) definira kao
P(A) = ck Ak + . . . + c1 A + c0 I,
gdje je I jedinična matrica koju stavljamo uz slobodni koeficijent c0 , da bi izraz imao
smisla. Vrijednost toga polinoma u dijagonalnoj matrici D je prema tome ponovno
dijagonalna matrica:
 
P(d1 ) 0 . . . 0
 0 P(d2 ) . . . 0 
P(D) =   ...
.
 (5)
0 0 . . . P(dn )

∗*∗
Kako se koristi ovaj rezultat? Iz veze T−1 AT = D slijedi
A = TDT−1 . (6)
Zato je
A2 = (TDT−1)(TDT−1 ) = TD2 T−1 .
Ponavljajući ovaj postupak, vidimo da za svaku potenciju vrijedi
Ap = TDp T−1 .
Stoga, za polinom P(λ ) stupnja p možemo pisati
P(A) = TP(D)T−1 (7)
pri čemu P(D) računamo formulom (5).
 1000
5 2
Primjer 9. Izračunajmo .
−6 −2
Rješenje ovoga problema nije jednostavno (kao ni pitanje, uostalom!). Da bismo
odredili ovu potenciju, potražit ćemo dijagonalnu matricu sličnu matrici A (ukoliko
postoji!) i primijeniti formulu (7).
Najprije moramo odrediti vlastite vrijednosti:

λ −5 −2
κ (λ ) = = λ 2 − 3λ + 2.
6 λ +2
Nul-točke karakterističnog polinoma su λ1 = 1 i λ2 = 2 . One su različite i stoga smo
sigurni da je matrica slična dijagonalnoj.
-
Sad odredujemo vlastite vektore. Onaj koji odgovara prvoj vlastitoj vrijednosti
nalazimo iz sustava (I − A)v = 0 , odnosno
   
−4x1 −2x2 = 0 x1 1
=⇒ =α .
6x1 +3x2 = 0 x2 −2
Drugi vlastiti vektor je rješenje jednadžbe (2I − A)v = 0 , odnosno
   
−3x1 −2x2 = 0 x1 2
=⇒ =α .
6x1 +4x2 = 0 x2 −3
Time dobivamo matricu T :  
1 2
T= .
−2 −3
Njena inverzna matrica iznosi
 
−3 −2
T −1 = .
2 1
Za nju vrijedi T−1 AT = D , gdje je D dijagonalna:
     
−3 −2 5 2 1 2 1 0
= .
2 1 −6 −2 −2 −3 0 2
Provjeri točnost učinjenih računa direktnim množenjem!
Formula (6) sad glasi
     
−1 5 2 1 2 1 0 −3 −2
A = TDT ⇐⇒ = .
−6 −2 −2 −3 0 2 2 1
Potenciju A1000 računamo po formuli (7):
A1000 = TD1000T−1
  1000 
1 2 1 0 −3 −2
=
−2 −3 0 2 2 1
   
1 2 1 0 −3 −2
= .
−2 −3 0 21000 2 1
Direktnim množenjem sad dobivamo točan rezultat!

∗*∗

Matrične funkcije. Osim polinoma, ovakvim se računom mogu dobiti i druge


matrične funkcije.
Označimo sa σ (A) = {λ1 , . . . , λn } skup svih vlastitih vrijednosti operatora A (ili
pripadne matrice). Taj se skup naziva spektar operatora. Neka je f : R → R bilo
koja funkcija definirana u svakoj točki spektra operatora. Pretpostavimo da se A može
dijagonalizirati. Onda definiramo vrijednost te funkcije u matrici A na način
 
f (λ1 ) 0 . . . 0
 0 f (λ2 ) . . . 0  −1
f (A) = T ... ...
T .
 (8)
0 0 . . . f (λn )

Primjer 10. Provjerimo formulu (8) na matrici iz prethodnog primjera i na funkciji


1
f (t) = . Ova je funkcija definirana u svakoj točki skupa {1, 2} koji je spektar matrice
t
A . Imamo      
1 2 1 0 −3 −2 −1 −1
f (A) = = 3 25 .
−2 −3 0 12 2 1
1
U kakvoj je vezi ova matrica s matricom A ? Jednadžba preslikavanja f (t) = =
t
t−1 sugerira da je riječ o inverznoj matrici. Provjerite da je to istina!

∗*∗
Ukoliko je matrica A slična gornjoj trokutastoj matrici B (ali ne i dijagonalnoj),
onda je samo dio gornjih formula istinit. Za gornju trokutastu matricu sve njezine
potencije su opet gornje trokutaste, a na dijagonali se nalaze potencije dijagonalnih
elemenata (o preostalim elementima ne možemo najčešće ništa kazati):
λ ∗ ... ∗   p 
1 λ1 ∗ . . . ∗
 0 λ2 . . . ∗   0 λ2p . . . ∗ 
B=  =⇒ B p
=  
...  ... 
0 0 . . . λn p
0 0 . . . λn
Slično, ako je P(λ ) bilo koji polinom, za njega će vrijediti:
 
P(λ1 ) ∗ . . . ∗
 0 P(λ2 ) . . . ∗ 
P(B) =   ...
.

0 0 . . . P(λn )
O elementima označenim s ∗ ne možemo općenito ništa kazati. Zapravo, odgovor u
ovom slučaju daje Jordanova forma matrice, o kojoj će biti riječ u nastavku.
14 3. VLASTITI VEKTORI I VLASTITE VRIJEDNOSTI

3.3. Hamilton-Cayleyev teorem

Dokažimo sad sljedeći važni teorem

Teorem 4. (Hamilton-Cayley 1 ) Matrica A poništava svoj vlastiti polinom: vri-


jedi κ (A) = 0 .

Dokaz. Neka je B(λ ) adjunkta matrice λ I − A , tj. matrica za koju vrijedi


B(λ )[λ I − A] = det(λ I − A)I.
Ako ju promotrimo kao funkciju nepoznanice λ , onda je B(λ ) polinom stupnja n−1 :
B(λ ) = λ n−1 B0 + λ n−2 B1 + . . . + Bn−1
(jer je svaki njezin element determinanta matrice reda n−1 dobivene brisanjem jednog
retka i jednog stupca u matrici λ I − A ).
Usporedimo jednake potencije u objema stranama identiteta:
(λ n−1B0 + λ n−2 B1 + . . . + Bn−1 )(λ I − A) = (λ n − σ1 λ n−1 − . . . − σn )I.
Dobivamo sljedeće relacije:
B0 = I
B1 − B0 A = −σ1 I
B2 − B1 A = −σ2 I
..
.
Bn−1 − Bn−2 A = −σn−1 I
−Bn−1 A = −σn I
Pomnožimo prvu jednakost s An , drugu s An−1 ,. . . , pretposljednju s A i zbrojimo
rezultate:
0 = An − σ1 An−1 − . . . − σn−1 A − σn I = κ (A).
To smo i trebali dokazati.
Vlastite vrijednosti i regularnost operatora. Operator A je regularan ako i sa-
mo ako broj 0 nije njegova vlastita vrijednost. Naime, jednadžba A(x) = 0 ima
netrivijalno rješenje onda i samo onda ako je λ = 0 vlastita vrijednost operatora.
U jeziku matrica, A ima inverz ako i samo ako su sve njezine vlastite vrijednosti
različite od nule. U tom se slučaju njezin inverz može dobiti, primjenom Hamilton-
Cayleyevog teorema, po formuli
B n −1
A−1 = . (9)
σn
Primijetimo pri tom da je slobodni član σn u karakterističnom polinomu jednak
±λ1 λ2 . . . λn , te formula (9) ima smisla samo onda kad su sve vlastite vrijednosti
različite od nule.

Primjer 11. Odredimo karakteristični polinom i vlastite vrijednosti matrice


" #
0 1 0
A= −4 4 0 .
−2 1 2
Razvojem po trećem stupcu računamo:

λ −1 0 λ −1

κ (λ ) = 4 λ −4 0 = (λ − 2)
2 −1 λ −2 4 λ −4

= (λ − 2)(λ 2 − 4λ + 4) = (λ − 2)3
= λ 3 − 6λ 2 + 12λ − 8.
Matrica ima trostruku vlastitu vrijednost λ = 2 .
Po Hamilton-Cayleyevom teoremu je
A3 − 6A2 + 12A − 8I = 0.
Množenjem s A−1 slijedi
A2 − 6A + 12I = 8A−1 .
Odavde možemo odrediti inverz A−1 .

∗*∗
Navedimo nekoliko posljedica Hamilton-Cayleyeva teorema.
Kako matrica A poništava svoj karakteristični polinom, a minimalni je polinom
najmanjega stupnja s tim svojstvom, to je karakteristični polinom djeljiv s minimalnim.
To znači da su nul-točke minimalnoga polinoma ujedno i nul-točke karakteristič-
noga: vlastite vrijednosti su nul-točke minimalnoga polinoma.

U sljedećem teoremu ćemo prikupiti već poznate nužne i dovoljne uvjete za inver-
tibilnost kvadratnih matrica.
-
Teorem 5. Sljedeća svojstva kvadratne matrice A reda n su medusobno ekviva-
lentna:
a) A je regularna matrica ( tj. invertibilna ) ;
b) det A 6= 0 ;
c) r(A) = n ( tj. A je maksimalnog ranga ) ;
d) redci matrice A su linearno nezavisni;
e) stupci matrice A su linearno nezavisni;
f ) sve vlastite vrijednosti matrice A su različite od nula;
g) slobodni koeficijent karakterističnog polinoma κA matrice A je različit od nula.

Prethodni teorem možemo sročiti i u obliku nužnih i dovoljnih uvjete za neinver-


tibilnost kvadratnih matrica.
-
Teorem 6. Sljedeća svojstva kvadratne matrice A reda n su medusobno ekviva-
lentna:
a) A nije invertibilna ( tj. singularna je ili neregularna ) ;
b) det A = 0 ;
c) r(A) < n ( tj. A nije maksimalnog ranga ) ;
d) redci matrice A su linearno zavisni;
e) stupci matrice A su linearno zavisni;
f ) postoji barem jedna vlastita vrijednost matrice A koja je jednaka nula ( tj. λ = 0
je vlastita vrijednost matrice A ) ;
g) slobodni koeficijent karakterističnog polinoma κA matrice A jednak je nuli.
3. VLASTITI VEKTORI I VLASTITE VRIJEDNOSTI 15

3.4. Nilpotentne matrice. Jordanova forma matrice

Za kvadratnu matricu N reda n kažemo da je nilpotentna ako postoji k > 1 takav


da je Nk = 0 . Minimalan takav k zove se stupanj nilpotentnosti matrice N . Može se
pokazati da je stupanj nilpotentnosti uvijek 6 od reda matrice, tj. k 6 n .
Osnovni primjeri nilpotentnih matrica su
 
  " # 0 1 0 0
0 1 0
0 1  0 0 1 0 
N2 = 0 0 , N3 = 0 0 1 , N4 =  0 0 0 1  .
0 0 0
0 0 0 0
Vrijedi (N2 )2 = 0 , (N3 )3 = 0 i (N4 )4 = 0 . Označimo sa Nk matricu reda k koja na
gornjoj sporednoj dijagonali (onoj iznad glavne dijagonale) ima jedinice, a na ostalim
mjestima nule. Njena k -ta potencija jednaka je nul-matrici, i to je najmanja potencija
s tim svojstvom.
Matrica
J(λ ) = λ I + Nk
ima na glavnoj dijagonali svuda λ , na gornjoj sporednoj 1 , a na svim ostalim mjes-
tima 0 . To je gornja trokutasta matrica koju zovemo elementarnom Jordanovom
klijetkom. Na pr.  
λ 1
J(λ ) = [λ ], J(λ ) = 0 λ ,
 
" # λ 1 0 0
λ 1 0
 0 λ 1 0 
J(λ ) = 0 λ 1 , J(λ ) =  0 0 λ 1  .
0 0 λ
0 0 0 λ
Primijetite da je algebarska kratnost vlastite vrijednosti λ jednaka redu matrice, dok
je geometrijska kratnost jednaka točno jedan: J(λ )e1 = λ e1 , ali J(λ )e2 = e1 + λ e2
itd., gdje je e1 , . . . , en kanonska baza.
Pogledajmo sve elementarne Jordanove klijetke reda 2 :
   
λ1 0 λ1 1
0 λ , 0 λ .
2 1

Pogledajmo sve elementarne Jordanove klijetke reda 3 :


" # " #
λ1 0 0 λ1 1 0
0 λ2 0 , 0 λ1 0 ,
0 0 λ3 0 0 λ2
" # " #
λ1 0 0 λ1 1 0
0 λ2 1 , 0 λ1 1 .
0 0 λ2 0 0 λ1
Prva matrica ima tri bloka, druga ima dva, treća dva, i četvrta jedan. Ovdje kompleksni
-
brojevi λ1 , λ2 i λ3 ne moraju biti medusobno različiti. Na pr., ako je u predzadnjoj
matrici λ1 = λ2 , onda pripadna vlastita vrijednost ima geometrijsku kratnost dva, a
algebarsku tri.
Nije teško vidjeti da su matrice
2 3
λ1 1
A=4 0 λ1 5
λ2
i 2 3
λ2
B=4 λ1 1 5
0 λ1
-
medusobno slične (neupisani elementi su nula). Doista, neka je A kvadratna matrica reda n i T
matrica koja se iz I dobije zamjenom i -tog retka i j -tog stupca. Onda je T2 = I , tj. T−1 = T .
Nadalje, matrica T−1 A = TA jednaka je matrici koja se iz A dobije zamjenom njenog i -tog i j -tog
retka. S druge strane, matrica AT jednaka je matrici koja se iz A dobije zamjenom i -tog i j -tog
stupca. Primijetite da u jediničnoj matrici zamjena i -tog i j -tog retka ili stupca daje isti rezultat.
Dakle matrica
T−1 AT = TAT
jednaka je matrici koja se iz A dobiva zamjenom i -tog i j -tog retka, te i -tog i j -tog stupca.
Dobivena matrica je slična matrici A . Evo jedne ilustracije. Iz matrice
2 3
λ1 1 0
A=4 0 λ1 0 5
0 0 λ2
zamjenom 1. i 3. retka, i zatim stupca, dobivamo matricu
2 3
λ2 0 0
A1 = 4 0 λ1 0 5.
0 1 λ1
Zamjenom 2. i 3. retka, i zatim stupca, iz ove matrice dobivamo
2 3
λ2 0 0
B=4 0 λ1 1 5,
0 0 λ1
tj. A ∼ B . Matrica sličnosti T jednaka je umnošku T13 T23 :
T−1 AT = T−1 −1
23 T13 AT13 T23 = T23 T13 AT13 T23 = T23 A1 T23 = B.

Lema 1. Neka je N nilpotentna matrica s jedinicama na gornjoj sporednoj dijagonali


(tj. (N)i,i+1 = 1 za sve i = 1, . . . , n − 1 ) i nulama na svim ostalim mjestima. Onda
N2 ima jedinice na drugoj sporednoj dijagonali, a ostali elementi su nula. Matrica N3
ima jedinice na trećoj sporednoj dijagonali, a ostali elementi su nula, itd.

DOKAZ. Neka je e1 , . . . , en kanonska baza u Rn . Budući da je


Ne1 = 0, Ne2 = e1 , Ne3 = e2 , ... Nen = en−1 ,
onda je
N2 e1 = 0, N2 e2 = Ne1 = 0, N2 e3 = Ne2 = e1 , ... N2 en = Nen−1 = en−2 ,
itd.

Propozicija 2. Neka je J = λ I + N elementarna Jordanova klijetka reda n i P(x)


polinom k -tog stupnja. Onda je
P′′ (λ ) 2 P(k) (λ ) k
P(J) = P(λ )I + P′ (λ )N + N + ... + N,
2! k!
tj. P(J) je gornja trokutasta matrica oblika
 ′′ (n−1)

P(λ ) P′ (λ ) P 2!(λ ) . . . P(n−1)! (λ )
 (n−2)

 P(λ ) P′ (λ ) . . . P(n−2)! (λ ) 
 
 . 
P(J) =  . .
 . 
 
 . .. P′ ( λ ) 
P(λ )

DOKAZ. Razvijmo polinom P(x) u Taylorov red (polinom) oko λ , tj. po potencijama
od x − λ :
P′′ (λ ) P(k) (λ )
P(x) = P(λ ) + P′ (λ )(x − λ ) + (x − λ )2 + . . . + (x − λ )k .
2! k!
Onda je
P′′ (λ ) P(k) (λ )
P(J) = P(λ )I + P′ (λ )(J − λ I) + (J − λ I)2 + . . . + (J − λ I)k ,
2! k!
i tvrdnja slijedi zbog J − λ I = N .

Primjer 12. Primjenom na polinom P(x) = xk dobivamo da je


 k  
λ 1 λk k λ k −1
λ = .
0 0 λk

Korolar 3. Neka je J = λ I + N elementarna Jordanova klijetka reda n i k prirodan


broj. Onda je Jk gornja trokutasta matrica oblika
 k k
 k −1 k
 k −2 k
 k−n+1 
λ 1 λ 2λ ... n−1λ
 λk k k −1 k k−n+2 
 1 λ ... n −2 λ 
 . 
 .
. 
k
J =   k −2 .
k 
 2 λ 
 ...  k −1 
 k 
1 λ
k
λ

U gornja dva rezultata dogovorno stavljamo mk = 0 ako je m > k . To je u skladu

s definicijom mk = k(k−1)...(km!
−m+1)
za m 6 k (koju s istim razlomkom proširujemo
na m = k + 1, k + 2, . . . ).
Iz Propozicije 2 slijedi da ako je P(x) polinom i J Jordanova matrica s elemen-
tarnim Jordanovim klijetkama J1 (λ1 ), . . . , Jr (λr ) onda je:
 
P(J1 (λ1 ))
 P(J2 (λ2 )) 
P(J) =  . ..
.

P(Jr (λr ))
Ako je na pr.
 
λ1 1 0
 0 λ1 1 
 0 0 λ1 
J=
 λ2 1


 
0 λ2
λ3
(neupisani elementi matrice su nula), onda je
 ′′ 
P(λ1 ) P′ (λ1 ) P 2!(λ1 )
 0 P(λ1 ) P′ (λ1 ) 
 
 0 0 P(λ1 ) 
P(J) =  .
 P(λ2 ) P′ (λ2 ) 
 0 P(λ2 ) 
P(λ3 )

Ako je vlastita vrijednost višestruka, odgovarajući vlastiti podprostor može biti


manje dimenzije nego što je kratnost vlastite vrijednosti. To znači da neće postojati
baza koju čine vlastiti vektori, pa matrica neće biti slična dijagonalnoj. U tom slučaju
matricu svodimo na Jordanovu 1 formu.
Opišimo oblik Jordanove forme. 2 To je dijagonalna blok-matrica kojoj se na
dijagonali nalaze Jordanovi blokovi:
 
J(λ1 ) 0 0 . . . 0
 0 J(λ2 ) 0 . . . 0 
 . . (10)
 . 
.
0 0 0 . . . J(λk )
Jordanov blok je kvadratna matrica specijalnoga oblika, koji ćemo uskoro opisati.
Gornji zapis sugerira da svaki Jordanov blok odgovara pojedinoj vlastitoj vrijednosti
matrice A . Njegov je red jednak kratnosti vlastite vrijednosti. Tako na primjer, Jorda-
nova matrica gornjeg oblika pojavit će se u slučaju kad karakteristični polinom matrice
A glasi
κ (λ ) = (λ − λ1 )r1 (λ − λ2 )r2 · · · (λ − λk )rk .
Sad je J(λ1 ) reda r1 , J(λ2 ) reda r2 itd. Primijetimo da je ovdje r1 + r2 + . . .+ rk = n ,
n je red matrice A .
U slučaju da su sve vlastite vrijednosti različite, svi su Jordanovi blokovi reda
1, J(λi ) = λi i Jordanova matrica je dijagonalna. Tako je problem dijagonalizacije
-
specijalni slučaj odredivanja Jordanove forme matrice.
U općem slučaju, Jordanov blok J(λi ) opisan je sljedećim uvjetima:
• na svim mjestima dijagonale ima vlastitu vrijednost λi ;
• na gornjoj sporednoj dijagonali ima elemente 0 ili 1;
• svi su ostali elementi jednaki 0.

∗*∗
Želimo li biti potpuno precizni, moramo pogledati detaljnije u strukturu pojedinog
Jordanovog bloka. Pogledat ćemo, recimo, prvi Jordanov blok i — radi jednostavnosti
zapisa — pisati ga bez indeksa. Svaki je blok i sam dijagonalna blok-matrica koja se
sastoji od elementarnih Jordanovih klijetki 1 :
 
J1 0 0 . . . 0
 0 J2 0 . . . 0 
J(λ ) =  ...
.
 (11)
0 0 0 ... Jm
Elementarna Jordanova klijetka je matrica oblika:
 
λ 1 0 0 ... 0
 0 λ 1 0 ... 0
 0
J1 =  0 0 λ 1 . . . . (12)
 .. 
.
0 0 0 0 ... λ
Ona na dijagonali ima vlastitu vrijednost λ , na gornjoj sporednoj dijagonali vrijednost
1 , a svi su ostali elementi jednaki 0. Pri tom se u formuli (11) elementarne Jordanove
klijetke mogu poredati tako da redovi matrica J1 , J2 ,. . . opadaju.
Red ‘najveće’ Jordanove klijetke takoder- ima veze s kratnošću vlastite vrijednosti.
Ako je
µ (λ ) = (λ − λ1 )s1 (λ − λ2 )s2 · · · (λ − λk )sk .
minimalni polinom matrice A , onda su redovi najvećih elementarnih klijetki upravo
potencije s1 , s2 itd. Primijetimo da je s1 6 r1 , s2 6 r2 itd.
Evo nekoliko primjera Jordanovih blokova. Napisat ćemo cjelokupni blok, student
bi trebao sam prepoznati pojedine elementarne Jordanove klijetke:
   
2 1 0 0 0 0 3 1 0 0 0 0  −1 1 0 0 0 
0 2 1 0 0 0 0 3 1 0 0 0
0 0 2 0 0 0 0 0 3 1 0 0  0 −1 0 0 0 
 ,  ,  0 0 −1 0 0 .
0 0 0 2 1 0 0 0 0 3 0 0  
    0 0 0 −1 0
0 0 0 0 2 0 0 0 0 0 3 0
0 0 0 0 −1
0 0 0 0 0 2 0 0 0 0 0 3
(Pomoć: u prvoj su matrici dimenzije elementarnih klijetki 3-2-1, u drugoj 4-1-1, trećoj
2-1-1-1.)
Napisat ćemo i dva primjera Jordanove forme matrice. Zbog jednostavnosti (i
pomoći) izdvojit ćemo samo Jordanove blokove (ostali nenapisani elementi matrice
jednaki su nuli) Student bi trebao prepoznati pojedine elementarne Jordanove klijetke.
   
2 1 0 0 0 1 0
0 2 1 0  0 0 0 
0 0 2 0  0 0 0 
   
0 0 0 2   3 1 
 ;  . (13)
 5   0 3 
   
 −1 1 0   −2 1 0 
 0 −1 0   0 −2 1 
0 0 −1 0 0 −2

∗*∗
Jedan od najvažnijih rezultata linearne algebre sadržan je u sljedećem teoremu.
Navodimo ga bez dokaza, jer on nije jednostavan, pogledajte na pr. [Kurepa].

Teorem 4. (Jordanova forma matrice) Svaka kvadratna matrica A s kompleksnim


koeficijentima slična je nekoj Jordanovoj matrici. Točnije, postoji matrica T (s komp-
leksnim koeficijentima) takva da je
T−1 AT = J
-
Jordanova matrica. Jordanova matrica J odredena je jednoznačno s matricom A , do
na poredak Jordanovih blokova po dijagonali.
Na temelju Teorema 4 možemo opisati postupak kako izračunati P(A) za neku
-
zadanu kvadratnu matricu A i polinom P(x) . Najprije nademo Jordanovu formu J od
A , i matricu sličnosti T tako da je T AT = J . Onda je A = TJT−1 i
−1

P(A) = TP(J)T−1.
Iz Teorema 4 odmah slijedi da je svaka nilpotentna matrica N slična matrici koja
ima samo nule ili jedinice na gornjoj sporednoj dijagonali, a svi ostali elementi su nula.
Iz Teorema 4 slijedi još jedan važan rezultat, tzv. teorem o preslikavanju spektra.
Zapravo, u dokazu je dovoljno rabiti samo Schurov teorem koji kaže da je svaka matrica
slična gornjoj trokutastoj.

Teorem 5. (o preslikavanju spektra) Neka je A zadana kvadratna matrica s komp-


leksnim koeficijentima, i P(x) polinom s kompleksnim koeficijentima. Sve vlastite
vrijednosti matrice P(A) su oblika P(λ ) , gdje je λ vlastita vrijednost matrice A :
σ (A) = {λ1 , . . . , λn } ⇒ σ (P(A)) = {P(λ1 ), . . . , P(λn )}.
Kraće,
σ (P(A)) = P(σ (A)).

DOKAZ. Matrica A je slična gornjoj trokutastoj matrici J . Na dijagonali matrice J


nalaze se vlastite vrijednosti od A . Prema tome na dijagonali matrice P(J) nalaze se
vrijednosti iz skupa P(σ (A)) , tj. vrijednosti P(λ ) gdje je λ vlastita vrijednost od A .
Budući da su matrice P(A) i P(J) slične, one imaju isti karakteristični polinom, pa im
je i spektar isti. Prema tome spektar matrice P(A) je P(σ (A)) .

Primjer 13. Ako je N nilpotentna matrica i A ∼ N (tj. T−1 AT = N za ne-


ku regularnu matricu T ), onda je i A nilpotentna. Doista, ako je Nk = 0 onda je
Ak = (TNT−1 )k = TNk T−1 = 0 .

Primjer 14. Koliko rješenja ima kvadratna jednadžba X2 = 0 ? Ako je na desnoj


-
strani realan broj nula, onda imamo samo jedno rješenje X = 0 . Medutim, ako je
0 kvadratna nul-matrica reda 2 , onda kvadratna jednadžba X2 = 0 ima  beskonacno

0 α
mnogo rješenja. Svaka nilpotentna matrica X je rješenje, na pr. X = , gdje je
0 0
α bilo koji realan broj.

Primjer 15. Kvadratna jednadžba x2 = a , gdje je a zadan kompleksni broj, uvijek


-
ima rješenje u skupu kompleksnih brojeva. To medutim ne vrijedi za matrične kvadratne
jednadžbe.  
0 1
Neka je na pr. A = (nilpotentna matrica). Pokažimo da kvadratna jed-
0 0
nadžba X2 = A , nema rješenja. Ovdje je nepoznanica X takoder - matrica reda 2 .
Pretpostavimo, protivno tvrdnji, da postoji rješenje. Najprije, spektar matrice X2 je
{0} , jer je takav spektar of A . Prema teoremu o preslikavanju spektra, takav je i
spektar od X . Matrica X je različita od nul-matrice (inače bismo dobili protuslovlje s
X2 = A ). Prema  Schurovom
 teoremu (Teorem 3) matrica X je onda slična nilpotentnoj
0 a
matrici N = , a 6= 0 . Budući da je X ∼ N , onda je X2 ∼ N2 = 0 , dakle
0 0
X2 = 0 , što je opet protuslovlje.

∗*∗
- Jordanova forma matrice? Postupak je sličan dijagonalizaciji.
Kako se odreduje
Odredimo najprije vlastite vrijednosti i zatim vlastite vektore. U trenutku kad je di-
menzija podprostora manja nego kratnost vlastite vrijednosti doći ćemo u situaciju da
dobiveni vektori ne čine bazu prostora. Onda ih nadopunjujemo pridruženim vlastitim
vektorima.
Prikažimo situaciju na matrici A , čija je Jordanova forma prva matrica u (13).
Neka je v1 vlastiti vektor koji odgovara prvoj vlastitoj vrijednosti matrice, λ1 = 2 .
Vrijedi Av1 = 2v1 i na osnovu toga pišemo prvi stupac Jordanove forme. Iz drugog
stupca čitamo da za drugi vektor v2 vrijedi Av2 = v1 + 2v2 . On nije vlastiti vektor
matrice već upravo — pridruženi vlastiti vektor. Nalazimo ga dakle iz uvjeta
(λ I − A)v = −v1 ,
gdje je v1 ‘pravi’ vlastiti vektor.
- pridruženi
Iz trećeg stupca čitamo Av3 = v2 + 2v3 , što znači da je v3 takoder
vlastiti vektor. Iz četvrtog stupca čitamo Av4 = 2v4 , v4 je ponovo ‘pravi’ vlastiti
vektor.

Primjer 16. Ilustirajmo


 situaciju
 na (jednostavnom) primjeru. Odredimo Jordano-
0 4
vu formu matrice A = .
−1 4
Karakteristični polinom je

λ −4

κ (λ ) = = λ 2 − 4λ + 4 = (λ − 2)2 .
1 λ −4
Vlastiti vrijednost λ = 2 je dvostruka.
Potražimo vlastite vektore. Iz sustava (λ I − A)v = 0 dobivamo
        
2 −4 x1 0 x 2
= =⇒ v1 = 1 = .
1 −2 x2 0 x2 1
Drugog vlastitog vektora matrica nema. Stoga moramo potražiti pridruženi vlastiti
vektor. On je rješenje sustava
(λ I − A)v2 = −v1 ,
odnosno     
2 −4 x1 −2
= .
1 −2 x2 −1
 
1
Odavde slijedi x1 = 2x2 − 1 i za pridruženi vektor uzimamo na primjer v2 = .
1
Tako dobivamo matricu prijelaza
 
2 1
T= .
1 1
Njen je inverz  
1 −1
T −1 = .
−1 2

Uvjerite se da umnožak T−1 AT daje Jordanovu formu matrice:


     
−1 1 −1 0 4 2 1 2 1
T AT = = .
−1 2 −1 4 1 1 0 2

∗*∗
-
Sad možemo napisati algoritam za odredivanje Jordanove forme matrice.
Algoritam za nalaženje Jordanove forme.
Korak 1. Odredimo karakteristični polinom matrice
κ (λ ) = (λ − λ1 )r1 (λ − λ2 )r2 · · · (λ − λk )rk .
Korak 2. Za odabranu vlastitu vrijednost λi odredujemo njezin Jordanov blok.
Rješavamo sustav
(λi I − A)v = 0.
Ako je time pronadeno - m linearno nezavisnih vlastitih vektora, onda će Jordanov
blok imati m elementarnih Jordanovih klijetki. Ako je m = ri , postupak je završen
i Jordanov blok je dijagonalan. Inače moramo odrediti ri − m pridruženih vlastitih
vektora.
Korak 3. Veličina pojedine elementarne Jordanove klijetke nije unaprijed poznata.
- ne znamo koji od vlastitih vektora će imati pridružene a koji ne. Ako je v1
Takoder
jedini vlastiti vektor, pridružene vlastite vektore tražimo iz jednadžbi
(λ I − A)v2 = −v1
(λ I − A)v3 = −v2
(λ I − A)v4 = −v3
..
.
i postupak ponavljamo onoliko dugo dok postoji rješenje.
Ako postoji nekoliko linearno nezavisnih vektora, onda je korisno umjesto v1
-
u gornjoj jednadžbi staviti njihovu linearnu kombinaciju s privremeno neodredenim
koeficijentima. Te ćemo koeficijente odrediti tako da jednadžba ima rješenje.
Pokažimo to na primjeru.

1
Marie Ennemond Camille Jordan (1838–1922), francuski matematičar.
2
Na nekoliko mjesta ovaj opis neće biti popraćen strogim dokazom, jer on prelazi okvire ovoga dodatka.
Čitatelj se upućuje na knjigu [6] gdje može pronaći sve potrebne pojedinosti.
1
U literaturi se pod pojmom elementarne Jordanove klijetke spominje i matrica sličnoga oblika koja na
dijagonali ima nule.
16 3. VLASTITI VEKTORI I VLASTITE VRIJEDNOSTI

Primjer 17. Odredimo Jordanovu formu matrice


" #
0 5 −2
A= −3 8 −2 .
−3 5 1
Karakteristični polinom glasi

λ −5 2

κ (λ ) = 3 λ −8 2 = λ 3 − 9λ 2 + 27λ − 27 = (λ − 3)3 .
3 −5 λ −1
Stoga postoji samo jedna, trostruka vlastita vrijednost. Čitava će Jordanova matrica
imati samo jedan Jordanov blok.
Potražimo vlastite vektore. Jednadžba (λ I − A)v = 0 glasi
" #" # " #
3 −5 2 x1 0
3 −5 2 x2 = 0
3 −5 2 x3 0
odakle slijedi x1 = 35 x2 − 23 x3 . Stavljajući x2 = 3s , x3 = 3t dobivamo
" # " # " # " #
x1 5s−2t 5 −2
x2 = 3s =s 3 +t 0 . ( ∗)
x3 3t 0 3
" # " #
5 −2
-
Možemo izabrati v1 = 3 , v2 = 0 , to su vlastiti vektori matrice A . Medutim,
0 3
niti jedan od njih nema pridruženih vektora! Naime, sustav
(λ I − A)v = −v1 ( ∗∗ )
vodi na " #" # " #
3 −5 2 x1 −5
3 −5 2 x2 = −3
3 −5 2 x3 0
i on očevidno nema rješenja (prve dvije jednadžbe su proturječne). Zato umjesto v1 u
(∗∗) stavljamo linearnu kombinaciju vektora v1 i v2 , a to je baš vektor oblika (∗) :
" #" # " #
3 −5 2 x1 −5s+2t
3 −5 2 x2 = −3s
3 −5 2 x3 −3t
gdje vrijednosti od s i t tek treba odrediti. Gaussovim transformacijama dobivamo:
" # " #
3 −5 2 −5s+2t 3 −5 2 −5s+2t
3 −5 2 −3s ∼ 0 0 0 2s−2t
3 −5 2 −3t 0 0 0 5s−5t
1
te mora biti s = t . Stavimo s = t = . Dobivamo popravljeni prvi vlastiti vektor
3
" #
1
v1 = 1
1
Za njemu pridruženi vlastiti vektor vrijedi
3x1 − 5x2 + 2x3 = −1.
Vidimo da ovaj uvjet zadovoljava dvoparametarska familija pridruženih vektora. Mi
trebamo samo jedan medu - njima! Uvrštavajući, recimo, x1 = 1 , x2 = 2 dobivamo
x3 = 3 . Tako je pridruženi vlastiti vektor v3 = [1, 2, 3]⊤ .
Drugi vlastiti vektor možemo ostaviti nepromijenjen, jer je linearno nezavisan s
promijenjenim prvim vektorom. Načinimo matricu prijelaza T . Pri tom pripazimo
na raspored vektora, pridružene vektore stavljamo odmah iza odgovarajućih vlastitih
vektora: " #
1 1 −2
T = [v1 , v3 , v2 ] = 1 2 0 .
1 3 3
Inverzna matrica glasi
" #
6 −9 4
−1
T = −3 5 −2 .
1 −2 1
Uvjerite se direktnim množenjem da uistinu vrijedi
" #" #" # " #
6 −9 4 0 5 −2 1 1 −2 3 1 0
−1
T AT = −3 5 −2 −3 8 −2 1 2 0 = 0 3 0 .
1 −2 1 −3 5 1 1 3 3 0 0 3

∗*∗

Matrične funkcije, općeniti slučaj. Znajući Jordanovu formu, možemo napisati


i opći oblik matrične funkcije.
Neka je σ (A) = {λ1 , λ2 , . . . , λk } spektar matrice A , f : R → R elementar-
na funkcija ( čitaj: dovoljno puta diferencijabilna na području definicije) definirana u
točkama spektra. Neka je T matrica koja prevodi matricu A u Jordanovu formu:
A = TJT−1 .
Ovdje je J Jordanova forma. Onda definiramo matričnu funkciju f (A) na način:
f (A) := Tf (J)T−1.
Opišimo f (J) . Kako je J dijagonalna blok matrica, to će i f (J) biti dijagonalna
blok matrica istoga oblika:
 
f (J(λ1 )) 0 0 ... 0
 0 f (J(λ2)) 0 . . . 0 
f (J) :=  .. 
 (14)
.
0 0 0 . . . f (J(λk ))
Svaki blok izgleda ovako:
 
f (J1) 0 0 . . . 0
 0 f (J2 ) 0 . . . 0 
f (J(λ )) :=   ...

 (15)
0 0 0 . . . f (Jm )
i preostaje napisati kako se definira funkcija elementarne Jordanove klijetke:
 
f (λ ) f ′ (λ ) 2!1 f ′′ (λ ) 3!1 f ′′′ (λ ) . . . (n−11)! f (n−1)(λ )
 
 0 f (λ ) f ′ (λ ) 2!1 f ′′ (λ ) . . . (n−12)! f (n−2)(λ ) 
 
f (J1 ) := 
 0 0 f (λ ) f ′ (λ ) . . . (n−13)! f (n−3)(λ )  . (16)
 . 
 .. 
0 0 0 0 ... f (λ )
Razlog ovakvoj definiciji je u tome što formula vrijedi ako je f polinom. U to se
možemo uvjeriti direktnim računom (koji nije sasvim jednostavan!). Zato je prirodno
uzeti istu formulu i za definiciju matrične funkcije za po volji odabranu funkciju f .
∗*∗
Napišimo još jedan primjer. Matrična funkcija druge matrice u (13) glasi
 
f (0) f ′ (0) 0
 0 f (0) 0 
 0 0 f (0) 
 ′

 f (3) f (3) 
 .
 0 f (3) 
 
 f (−2) f ′ (−2) 21 f ′′ (−2) 
 ′ 
0 f (−2) f (−2)
0 0 f (−2)

Primjer 18. U primjenama je od najveće važnosti eksponencijalna matrična


funkcija.  
2 1
Po ovome postupku, za matricu J = vrijedi
0 2
 
2 2
eJ = e e2 .
0 e
S druge strane, matricu eJ možemo pokušati računati na način
1 1 1
eJ = I + J + J2 + J3 + . . . + Jn + . . .
2 3! n!
Uvjerite se, računajući ove potencije, da ćete dobiti isti rezultat.
4.
Dijagonalizacija simetrične matrice

1. Gram-Schmidtov postupak ortogonalizacije . . . . . . . .


2. Simetrične matrice . . . . . . . . . . . . . . . . . . . . . . . .
3. Ortogonalne matrice . . . . . . . . . . . . . . . . . . . . . . .
4. Dijagonalizacija simetrične matrice . . . . . . . . . . . . .

4.1. Gram-Schmidtov postupak ortogonalizacije

Gramova matrica. Neka je {x1 , . . . , xk } bilo koji linearno nezavisan skup u


unitarnom prostoru X (na pr. u Rn ), ne nužno ortogonalan. Linearna kombinacija
λ1 x1 + λ2 x2 + . . . + λk xk = 0
iščezava samo ako su svi koeficijenti jednaki nuli. Pomnožimo ovu jednakost skalarno
redom s vektorima x1 , . . . , xn . Dobivamo homogeni sustav linearnih jednačaba
(x1 | x1 )λ1 + (x1 | x2 )λ2 + . . . + (x1 | xk )λk = 0,
(x2 | x1 )λ1 + (x2 | x2 )λ2 + . . . + (x2 | xk )λk = 0,
..
.
(xk | x1 )λ1 + (xn | x2 )λ2 + . . . + (xk | xk )λk = 0.
koji ima samo trivijalno rješenje λi = 0 . No, to se dogada - onda i samo onda ako
je determinanta sustava različita od nule. Ta se determinanta označava simbolom
Γ(x1 , . . . , xn ) i naziva Gramova determinanta:

(x1 | x1 ) (x1 | x2 ) . . . (x1 | xn )

(x2 | x1 ) (x2 | x2 ) . . . (x2 | xn )

Γ(x1 , . . . , xn ) := .. .

.
(x | x ) (x | x ) . . . (x | x )
n 1 n 2 n n
Ponovimo zaključak

Teorem 1. Vektori x1 , . . . , xk u Rn su linearno nezavisni onda i samo onda ako


je Gramova determinanta Γ(x1 , . . . , xk ) različita od nule.

U daljnjem će nam trebati ortogonalna projekcija vektora x na podprostor L(e1 )


od Rn , gdje je e1 jedinični vektor. Ona iznosi (x | e1 ) e1 . Ako su vektori e1 , . . . , ek
ortonormirani, onda je ortogonalna projekcija vektora x na podprostor L(e1 , . . . , ek )
jednaka
(x | e1 ) e1 + . . . + (x | ek ) ek .

∗*∗

Postupak ortogonalizacije. Kako bismo pronašli bazu ortogonalnih vlastitih vek-


tora u primjerima gdje vlastiti podprostor koji odgovara jednoj vlastitoj vrijednosti ima
više dimenzija? Postupak nalaženja ortogonalnih vektora u njemu važan je postupak;
stoga ćemo opisati općeniti algoritam za zamjenjivanje linearno nezavisnih vektora me-
-
dusobno ortogonalnim vektorima. Taj se postupak naziva Gram-Schmidtov postupak
ortogonalizacije.
Pretpostavimo da su x1 , . . . , xn bilo koji linearno nezavisni vektori. Definirajmo
e1 := x1 .
Vektor e2 ćemo izabrati tako da on zadovoljava sljedeća dva svojstva:
• okomit je na e1 ,
• podprostor L(e1 , e2 ) podudara se s podprostorom L(x1 , x2 ) ,
• sustav (O; x1 , x2 ) ima istu orijentaciju kao i sustav (O; e1 , e2 ) .
Sva ta svojstva zadovoljava sljedeći vektor:
(x2 | e1 )
e2 := x2 − e1 .
ke1 k2
Treći vektor dobivamo formulom
(x3 | e1 ) (x3 | e2 )
e3 := x3 − 2
e1 − e2 ,
ke1 k ke2 k2
i općenito,
(xk | e1 ) (xk | ek−1 )
ek := xk − 2
e1 − . . . − ek−1 .
ke1 k kek−1 k2
Ukoliko nakon svakog koraka vektor ek zamijenimo s ek /kek k , dobit ćemo orto-
normirani niz istih svojstava.

x3
e3

e2
Sl. 4.1. Vektor ek dobivamo ta-
ko da od xk oduzmemo njegovu
projekciju na podprostor razapet s
prvih k − 1 vektora e1

Primjer 1. Ortogonalizirajmo skup {x1 , x2 , x3 } ⊂ R3 ako je x1 = (1, 1, 1) ,


x2 = (1, 1, 0) , x3 = (1, 0, 0) .
Prema navedenom algoritmu imamo
e1 = x1 = (1, 1, 1),
(x2 | e1 )
e2 = x2 − e1
ke1 k2
= (1, 1, 0) − 23 (1, 1, 1) = ( 13 , 31 , − 32 )
(x3 | e1 ) (x3 | e2 )
e3 = x3 − e1 − e2 ,
ke1 k2 ke2 k2
1
= (1, 0, 0) − 13 (1, 1, 1) − 3
2
( 13 , 31 , − 32 ) = ( 12 , − 21 , 0).
3
Dobiveni vektori su okomiti. Pritom vrijedi L(e1 ) = L(x1 ) , L(e1 , e2 ) = L(x1 , x2 ) ,
- svi sustavi imaju istu orijentaciju.
L(e1 , e2 , e3 ) = L(x1 , x2 , x3 ) . Takoder,
Rezultat ortogonalizacije bitno ovisi o poretku vektora koje ortogonaliziramo.
Razlog tome je upravo zahtjev da u svakom koraku k vrijedi
L(e1 , . . . , ek ) = L(x1 , . . . , xk ).
Tako na primjer, ako u gornjem primjeru izaberemo poredak x2 , x3 , x1 dobit ćemo
za rezultat niz (1, 1, 0) , ( 21 , − 21 , 0) , (0, 0, 1) . Uzmemo li pak poredak x3 , x2 , x1 ,
ortogonalizacijom dobivamo kanonsku bazu u R3 . Provjerite!

∗*∗
Ovaj postupak možemo zamisliti i u ponešto izmjenjenim okolnostima. Zamisli-
mo da imamo nekoliko ortogonalnih vektora {e1 , . . . , ek } koji ne čine bazu. Lako je
zamisliti postupak koji će te vektore nadopuniti do bilo koje baze prostora: dovoljno je
dodavati jedan po jedan vektor {xk+1 , . . . , xn } koji se ne nalazi u podprostoru razape-
tom s već odabranim vektorima. Sad Gram-Schmidtovim postupkom ortogonaliziramo
zadani skup. Pri tom prvih k vektora ostaje nepromijenjeno (jer su već ortogonalni).
Istaknimo ovaj zaključak. Pri tom riječ ortogonalni možemo po potrebi zamijeniti
s ortonormirani.

Teorem 2. Svaki se ortogonalni (ortonormirani) skup e1 , . . . , ek može nadopuniti


do ortogonalne (ortonormirane) baze.

QR -rastav matrice. Gram-Schmidtovim postupkom ortogonalizacije možemo


lako vidjeti da se svaka regularna matrica može dobiti kao umnožak ortogonalne i gor-
nje trokutaste. Za kvadratnu matricu kažemo da je ortogonalna ako su joj vektori stupci
ortonormirani vektori (o njima opširnije vidi u Odjeljku 4.4). To je tzv. QR-rastav
matrice.

Teorem 3. ( QR -rastav matrice) Svaka regularna kvadratna matrica A može se


dobiti kao umnožak ortogonalne matrice Q i gornje trokutaste matrice R : A = QR .
Rastav se dobiva ortogonalizacijom vektora stupaca matrice A .

Umjesto općeg dokaza, pogledajmo primjer neke matrice A = [x1 , x2 , x3 ] reda 3 .


Ortogonalizacijom njenih vektora stupaca dolazimo do ortonormiranih vektora e1 , e2 ,
e3 . Time smo dobili ortogonalnu matricu
Q = [e1 , e2 , e3 ].
Da bismo dobili gornju trokutastu matricu R u željenom rastavu A = QR , napiši-
mo vektore xi , rastavljene po ortogonalnoj bazi koju čine vektori ei (tu rabimo da je
x1 ∈ L(e1 ) ), x2 ∈ L(e1 , e2 ) i x3 ∈ L(e1 , e2 , e3 ) ):
x1 = (x1 |e1 )e1
x2 = (x2 |e1 )e1 + (x2 |e2 )e2
x3 = (x3 |e1 )e1 + (x3 |e2 )e2 + (x3 |e3 )e3
Posljednje tri jednakosti možemo napisati zajedno u matričnom obliku:
" #
(x1 |e1 ) (x2 |e1 ) (x3 |e1 )
[x1 , x2 , x3 ] = [e1 , e2 , e3 ] 0 (x2 |e2 ) (x3 |e2 ) ,
0 0 (x3 |e3 )
a to je upravo rastav A = QR .

Primjer 2. Pogledajmo kao ilustraciju matricu


# "
1 1 1
A= 1 1 0 .
1 0 0
Prema prethodnom primjeru, gdje smo Gram-Schmidtovim postupkom dobili ortogo-
nalnu bazu, trebamo vektore ei još normirati, tj. podijeliti s kei k :
(1, 1, 1)⊤
e1 = √
3
( 31 , 31 , − 23 )⊤
e2 = √
6
3
( 21 , − 21 , 0)⊤
e3 = .
√1
2
Prema tome vrijedi A = QR , gdje je
 1 1  √ 
√ √ √1 3 √2 √1
3 6 2 3 3
 √1 √1 − √12   √2 √1

Q= 3 6 , R= 0 6 6 
√1 − √26 0 0 0 √1
3 2

Primjer 3. Postupkom Gram-Schmidtove ortogonalizacije linearno nezavisnog sli-


jeda polinoma 1 , x , x2 ,. . . u Hilbertovom prostoru L2 (−1, 1) dobivaju se poznati
R1
Legendreovi polinomi Ln (x) , n > 0 . Na pr. zbog (1 | x) = −1 1 · x dx = 0 je L0 = 1
i L1 = x . Zatim je
(x2 | L0 ) (x2 | L1 ) 1
L2 = x2 − 2
L 0 − 2
1 = x2 − ,
kL0 k kL1 k 3
2
R1 2 2
R1 2 2
jer je (x | L0 ) = −1 x dx = 2/3 , kL0 k = −1 1 dx = 2 i (x | L1 ) = 0 . Svaka dva
-
Legendreova polinoma su medusobno okomita u prostoru L2 (−1, 1) . Evo jedne male
provjere:
Z 1
1 x3 x
(L0 | L2 ) = 1 · (x2 − )dx = ( − )|1−1 = 0.
−1 3 3 3
18 4. DIJAGONALIZACIJA SIMETRIČNE MATRICE

4.2. Simetrične matrice

Mnogi fizikalni problemi koje zapisujemo s pomoću matrica uključuju račun sa


simetričnim matricama — svojstvo i zakoni simetrije spadaju u osnovne zakone prirode.
Mi ćemo u ovoj točki navesti neka najvažnija svojstva koja posjeduju takve matrice.
Prisjetimo se, kvadratna matrica je simetrična ako za njezine elemente vrijedi
aij = aji ,
za sve indexe i i j . Označimo li s A⊤ transponiranu matricu, onda je A simetrična
onda i samo onda ako vrijedi
A⊤ = A.

∗*∗
Napomenimo da ovdje govorimo samo o realnim matricama. Simetričnost se u
slučaju kompleksnih matrica definira (i naziva!) drukčije. Ako je A matrica s komp-
leksnim koeficijentima, onda ulogu simetrične matrice preuzima hermitska matrica,
za koju vrijedi aij = aji .
Spomenimo da za opu pravokutnu matricu A s kompleksnim koeficijentima, tipa
m×n , definiramo hermitski adjungiranu matricu A∗ tipa n×m sa (A∗ )ij := (A∗ )ji ,

za sve indekse i, j , ili krae, A∗ := A .
Sav račun u nastavku bit će isključivo s realnim (a ne kompleksnim!) skalarima.
-
Medutim, da bismo pokazali da se smijemo ograničiti samo na račun s realnim
skalarima, moramo ipak pogledati kako bi se definirao skalarni umnožak nad poljem
C.
Ako dozvolimo da skalari i komponente vektora mogu biti kompleksni brojevi,
onda se mora promijeniti osnovna definicija skalarnoga umnoška u sljedeću:
(x | y) := x1 y¯1 + x2 ȳ2 + . . . + xn y¯n .
(Potez označava kompleksno konjugiranje.) Primijetimo da se u slučaju vektora s
realnim koeficijentima, ova definicija podudara s prijašnjom.
Opravdanje ove preinake možemo naći u tome što u suprotnome norma vektora ne
bi bila pozitivan (pa ni realan) broj. No, uz ovu izmjenu vrijedi
kxk2 = x1 x̄1 + . . . + xn x̄n = |x1 |2 + . . . + |xn |2 . (1)
Svojstva homogenosti i komutativnosti takoder - se mijenjaju, i glase

(α x | y) = α (x | y), (x | α y) = ᾱ (x | y), (2)


(x | y) = (y | x). (3)

Primjer 4. Matrica  
1 1 1 1
1 1 i −1 −i 
S= 
2 1 −1 1 −1 
1 −i −1 i
nije hermitska:
 ⊤  
1 1 1 1 1 1 1 1
∗ 1  1 i −1 −i  1 1 −i −1 i 
S =   = 1 .
2 1 −1 1 −1 2 −1 1 −1 
1 −i −1 i 1 i −1 −i
Uvjerite se da je matrica S unitarna, tj. SS∗ = I .

Matrično množenje i skalarni umnožak. Skalarni umnožak dvaju vektora po-


dudara se s matričnim umnoškom vektor-retka s vektor-stupcem!
(x | y) = x⊤ y. (4)
Ova se činjenica često koristi. U mnogim se priručnicima rabi samo gornji za-
pis skalarnoga produkta. Pogledajmo kako se ovaj zapis može iskoristiti. Neka je A
kvadratna matrica. Onda je definiran skalarni umnožak vektora Ax i vektora y i vrijedi
(Ax | y) = (Ax)⊤ y = (x⊤ A⊤ )y = x⊤ (A⊤ y) = (x | A⊤ y). (5)
Pri tome smo koristili svojstvo operatora transponiranja.
Za simetričnu matricu A pak vrijedi
(Ax | y) = (x | A⊤ y) = (x | Ay). (6)
Ovaj rezultat vrijedi i općenitije, za svaku pravokutnu matricu A :

Lema 1. Za svaku pravokutnu matricu A tipa m × n i vektore x ∈ Rn i y ∈ Rm


vrijedi
(Ax | y) = (x | A⊤ y).
Analogno, za matricu i vektore s kompleksnim koeficijentima, vrijedi
(Ax | y) = (x | A∗ y).
Posebno, ako je matrica A simetrična, onda je (Ax | y) = (x | Ay).

Vlastite vrijednosti simetričnih matrica. Ako se ograničimo samo na realne


skalare, moraju li postojati vlastite vrijednosti (simetrične) matrice? Odgovor je više
no potvrdan:

Teorem 4. Ako je matrica A simetrična, onda su sve njezine vlastite vrijednosti


realne.

Dokaz. Pretpostavimo da je λ vlastita vrijednost, x odgovarajući vlastiti vek-


tor. Za trenutak ćemo pretpostaviti (opreznosti radi!) da računamo s kompleksnim
skalarima. Iz relacije Ax = λ x slijedi:
(Ax | x) = (λ x | x) = λ (x | x).
S druge strane, početni je skalarni produkt jednak, zbog simetričnosti matrice A , svoj-
stva skalarnoga produkta (2) i relacije (6):
(Ax | x) = (x | Ax) = (x | λ x) = λ̄ (x | x).
Usporedbom obaju rezultata zaključujemo da mora vrijediti λ = λ̄ , tj. vlastita vrijed-
nost λ je realna.
∗*∗

Simetrična matrica ima realne vlastite vektore. Čim je vlastita vrijednost re-
alna, realan je i vlastiti vektor, homogeni sustav s realnom singularnom matricom
uvijek ima realno rješenje, pošto pri njegovu računanju primjenjujemo samo algebarske
operacije s realnim brojevima.
∗*∗
Pokazali smo da su vlastiti vektori koji odgovaraju različitim vlastitim vrijed-
-
nostima medusobno linearno nezavisni. Za simetrične matrice ponovo vrijedi mnogo
više:

Teorem 5. Ako je A simetrična, onda su vlastiti vektori koji odgovaraju različitim


-
vlastitim vrijednostima medusobno okomiti.

Dokaz. Neka su xj i xk vlastiti vektori koji odgovaraju različitim vlastitim vri-


jednostima λj i λk . Onda zbog svojstva simetričnosti imamo
(Axj | xk ) = (xj | Axk ).
Budući da su to vlastiti vektori, onda iz gornje relacije slijedi
(λj xj | xk ) = (xj | λk xk ).
Broj λk je realan, možemo ga izlučiti ispred skalarnoga produkta. Gornja relacija daje
(λj − λk )(xj | xk ) = 0.
Budući da je po pretpostavci λj 6= λk , mora biti (xj | xk ) = 0 , čime je teorem dokazan.

Dijagonalizacija simetrične matrice. Cilj nam je dokazati da je svaka simetrična


matrica slična dijagonalnoj. U tu svrhu, nužno je i dovoljno pokazati da postoji baza
-
koju čine vlastiti vektori matrice. Gornji je teorem velik korak na tome putu. Medutim,
-
težak problem je odgovoriti na pitanje: što se dogada s onim vlastitim vektorima koji
odgovaraju istoj vlastitoj vrijednosti.
Postavit ćemo ovo pitanje preciznije:
• Ako je A simetrična matrica i λ njezina vlastita vrijednost kratnosti veće od
1 , kolika je dimenzija odgovarajućega vlastitog podprostora?
Nagoviješteni odgovor: jednaka kratnosti vlastite vrijednosti — nije jednostavno
dokazati. Ako neka vlastita vrijednost ima kratnost veću od 1, recimo k , onda odgova-
rajući vlastiti podprostor mora biti k -dimenzionalan! Unutar njega možemo (recimo,
Gram-Schmidtovim postupkom) pronaći k medusobno - okomitih vektora. To znači da
će postojati ortonormirana baza koju čine vlastiti vektori matrice. Neka je S matrica
- vlastiti vektori. Za nju vrijedi
čiji su stupci pronadeni
λ 0 ... 0 
1
−1  0 λ2 . . . 0 
S AS =  ... .
0 0 . . . λn
Dokaz ove tvrdnje odložit ćemo za trenutak. Prije toga, upoznajmo se sa svojstvima
ovakve matrice S .
4. DIJAGONALIZACIJA SIMETRIČNE MATRICE 19

4.3. Ortogonalne matrice

Neka je A simetrična matrica. Pokazat ćemo u nastavku da postoji ortogonalna


baza koju čine njezini vlastiti vektori. Učinimo još mali dodatni napor i ortonormi-
rajmo ih. Vidjet ćemo da će nam se trud isplatiti. Neka je S matrica čiji su stupci
ortonormirani vektori.

Definicija 2. Za matricu S kažemo da je ortogonalna ako su njezini stupci orto-


normirani vektori.

Ortogonalne matrice imaju interesantna svojstva. Ako su njezini stupci vlastiti


vektori matrice A , onda je po već dokazanim teoremima matrica S−1 AS dijagonalna.
Ovdje je interesantno da ne moramo računati inverz matrice S . Naime, vrijedi sljedeći

Teorem 6. Ako je S ortogonalna, onda vrijedi S−1 = S⊤ .

Dokaz. Da dokažemo ovo svojstvo, pogledajmo umnožak S⊤ S . Element ovoga


umnoška na mjestu (i, j) jednak je skalarnom umnošku i -toga retka matrice S⊤ i
j -toga stupca matrice S , odnosno, skalarnom umnošku i -tog i j -tog stupca matrice S .
Po pretpostavci, taj je umnožak jednak δij , što dokazuje teorem.
Pomniji pogled na ovaj teorem pokazuje da vrijedi i obrat: S−1 = S⊤ ako i
samo ako je S ortogonalna. No, promijenimo li poredak matrica u gornjem umnošku,
dobivamo SS⊤ = I . Zaključujemo da su i redci matrice S ortonormirani! Ovaj je
-
rezultat potpuno neočekivan: slažući n medusobno ortonormiranih vektora u stupce
- moraju biti ortonormirani!
jedne matrice, njezini redci takoder
∗*∗
Kolika je determinanta ortogonalne matrice? Relacija S−1 = S⊤ , u usporedbi
s izrazom za inverznu matricu s pomoću determinante i adjunkte, sugerira valjanost
sljedećega teorema

Teorem 7. Ako je S ortogonalna, njezina je determinanta jednaka 1 ili −1 .

Dokaz. Kako vrijedi SS⊤ = I , po Binet-Cauchyjevom teoremu dobivamo


-
det(S) det(S⊤ ) = 1 . Medutim, determinanta se ne mijenja transponiranjem, stoga
2
je [det(S)] = 1 i odavde slijedi tvrdnja.

Primjer 5. Odredimo, za primjer, sve ortogonalne matrice drugoga reda.


 
a b
Neka je S = ortogonalna matrica. Što se može reći o njezinim elementi-
c d
ma? Ova matrica zadovoljava jednakost SS⊤ = I , dakle
      
2 2
a b a c
= a +b ac+bd =
1 0
.
c d b d ac+bd c2 +d2 0 1
Odavde slijedi
a2 + b2 = c2 + d2 = 1, ac + bd = 0.
Nadalje, vrijedi det(S) = ad − bc = ±1 . Promotrimo sad dva moguća slučaja
1. slučaj. det(S) = 1 .
Četiri su jednadžbe koje zadovoljavaju koeficijenti: a2 + b2 = 1 , c2 + d2 = 1 ,
ac + bd = 0 i ad − bc = 1 . Sjetimo li se da su i stupci matrice ortonormirani, možemo
-
dopisati još tri(!): a2 + c2 = 1 , b2 + d2 = 1 , ab + cd = 0 . Razumije se, mnoge medu
njima su zavisne.
Rješenje ovoga sustava može se zapisati u obliku: d = a (jednadžbu ac + bd = 0
pomnoži s c , zatim ad − bc = 1 s d , i zbroji), c = −b (jednadžbu ab + cd = 0
pomnoži s d , zatim ad − bc = 1 s b , i oduzmi), b2 = 1 − a2 . Dakle, matrica ima
oblik  
a −c
S=
c a

pri čemu je |a| 6 1 i c2 = 1 − a2 . No, to znači da postoji kut ϕ takav da je a = cos ϕ ,


c = sin ϕ i matrica ima oblik
 
cos ϕ − sin ϕ
S= .
sin ϕ cos ϕ
Dakle, ortogonalne matrice drugoga reda, s pozitivnom determinantom predstav-
ljaju matricu rotacije za kut ϕ .
2. slučaj. Ako je det(S) = −1 , onda sličnim razmatranjem dolazimo do formule
 
cos ϕ sin ϕ
S= .
sin ϕ − cos ϕ
Ova matrica opisuje simetriju s obzirom na pravac koji s realnom osi zatvara kut ϕ /2 .

∗*∗
Ortogonalne matrice čuvaju Euklidsku normu, tj.
kSxk = kxk.
Naime, za ortogonalnu matricu S i bilo koji vektor x vrijedi kSxk2 = (Sx | Sx) =
(x | S⊤ Sx) = (x | x) = kxk2 . Posebno, ortogonalne matrice su izometrije, tj. čuvaju
- vektorima:
udaljenost medu
kSx − Syk = kx − yk.
Doista, kSx − Syk = kS(x − y)k = kx − yk .

Primjer 6. Umnožak ortogonalnih matrica je opet ortogonalna matrica. Doista,


ako su S1 i S2 ortogonalne, onda je
(S1 S2 )⊤ (S1 S2 ) = S⊤ ⊤ ⊤
2 S1 S1 S2 = S2 S2 = I,
- ortogonalna
i slično (S1 S2 )(S1S2 )⊤ = I . Inverz ortogonalne matrice S je takoder
−1 ⊤
matrica: S = S . Prema tome, skup svih ortogonalnih matrica reda n je grupa s
obzirom na množenje, a označava se sa O(n) .
20 4. DIJAGONALIZACIJA SIMETRIČNE MATRICE

4.4. Dijagonalizacija simetrične matrice

Dokažimo sad prije najavljeni teorem.

Teorem 8. (Spektralni teorem za simetrične matrice) Svaka simetrična matrica


A posjeduje točno n realnih vlastitih vrijednosti (brojeći njihovu višestrukost) i n me-
-
dusobno okomitih vlastitih vektora. Stoga je ona slična dijagonalnoj matrici. Dakle,
postoji ortogonalna matrica S i realni brojevi λ1 , . . . , λn tako da je
λ 0 ... 0 
1
 0 λ2 . . . 0 
S⊤ AS =  ... .
0 0 . . . λn
Matrica S = [e1 . . . en ] ima vektore stupce e1 . . . en koji čine ortonormiranu bazu
sastavljenu od vlastitih vektora matrice A .

Dokaz. Označimo s {e1 , . . . , en } kanonsku bazu prostora Rn . Izaberimo nor-


mirani jedinični vektor v1 koji odgovara vlastitoj vrijednosti λ1 . Nadopunimo ga
(Gram-Schmidtovim postupkom) do ortonormirane baze vektorima w2 , . . . , wn . Mat-
rica S1 = [v1 , w2 , . . . , wn ] je ortogonalna matrica. Stavimo sad A1 = S⊤
1 AS1 . Imamo
−1
A1 e1 = S⊤ ⊤ ⊤
1 A(S1 e1 ) = S1 Av1 = S1 (λ1 v1 ) = λ1 S1 v1 = λ1 e1 .
Ovaj je vektor prvi stupac matrice A1 . Primijetimo nadalje da je A1 simetrična ma-
trica: A⊤ ⊤ ⊤ ⊤ ⊤ ⊤⊤
1 = (S1 AS1 ) = S1 A S1 = S⊤ 1 AS1 . Zato je i njezin prvi redak istoga
oblika. Dakle, imamo
 
λ1 0 . . . 0
 0 b22 . . . b2n 
A1 = S⊤ 
1 AS1 =  ..

 (7)
.
0 bn2 . . . bnn
Sad nastavljamo dokaz matematičkom indukcijom. Ako je n = 2 , ova je matrica
već dijagonalna. Pretpostavimo da tvrdnja vrijedi za sve realne simetrične matrice reda
n − 1 . Tada se realna simetrična matrica B reda n − 1 koja se pojavljuje u (7) može
dijagonalizirati. To znači da postoji ortogonalna matrica S2 takva da je
 
λ2 . . . 0
S⊤  ... .
2 BS2 =
0 . . . λn
 
1 0
sad zaključujemo da je i matrica ortogonalna, jer su joj stupci očevidno or-
0 S2
tonormirani. Umnožak dviju ortogonalnih matrica je ortogonalna matrica, zato je i
matrica  
1 0
S = S1
0 S2
ortogonalna. Za nju vrijedi
   
1 0 1 0
S⊤ AS = S⊤
AS
0 S⊤
2
1 1
0 S2
     
1 0 λ1 0 1 0 λ1 0
= =
0 S⊤
2 0 B 0 S2 0 S⊤
2 BS2
λ 0 ... 0 
1
 0 λ2 . . . 0 
= ... .
0 0 . . . λn
Time je teorem dokazan.
Evo još jedne interesantne posljedice ovoga teorema.

Teorem 9. Za svaku simetričnu matricu postoji ortonormirana baza {e1 , . . . , en }


u Rn koju čine vlastiti vektori matrice A , takva da je
Xn
Ax = λi (x | ei )ei .
i=1

Dokaz. Riječ je o bazi koju čine normirani vlastiti vektori te matrice. U toj bazi
(zapravo u bilo kojoj ortonormiranoj) vektor x ima prikaz
Xn
x= (x | ei )ei
i=1
i budući da su vektori vlastiti za matricu A , onda vrijedi
Xn n
X
Ax = (x | ei )Aei = λi (x | ei )ei .
i=1 i=1

Ako je V podprostor od Rn , onda svaki vektor x ∈ Rn možemo na jednoznačan


način napisati kao x = x′ + x′′ gdje je x′ ∈ V i x′′ ∈ V ⊥ . Preslikavanje P : Rn → Rn
definirano s Px = x′ zove se operator ortogonalnog projiciranja ili projektor na
podprostor V .

Teorem 10. Ako je P operator ortogonalnog projiciranja na neki podprostor V


od Rn , onda je P2 = P = P⊤ . Obratno, ako je P2 = P = P⊤ , onda je P operator
ortogonalnog projiciranja na neki podprostor. Matrica operatora P je ortogonalno
slična dijagonalnoj matrici P koja na dijagonali ima samo jedinice ili nule:
 
1
 ... 
 
 1 
P=   = diag {1, . . . , 1, 0 . . . , 0}.
0 
 
 ... 
0

Dokaz. Neka je V ⊥ ortogonalni komplement od V . Onda je Rn = V ⊕ V ⊥ ,


pa svaki vektor x ∈ Rn možemo jednoznačno napisati u obliku x = x′ + x′′ , gdje je
x′ ∈ V , x′′ ∈ V ⊥ . Ako je P operator ortogonalnog projiciranja na podprostor Y od
Rn , onda je Px = x′ , pa je P2 x = Px′ = x′ = Px za sve x , tj. P2 = P . Za sve x, y ∈
Rn vrijedi (Px | y) = (x′ | y′ +y′′ ) = (x′ | y′ ) = (x′ + x′′ | y′ ) = (x | Py) = (P⊤ x | y .
Budući da jednakost vrijedi za sve y onda je Px = P⊤ x , a budući da ovo vrijedi za sve
x onda je P = P⊤
Obratno, neka je P2 = P = P⊤ . Označimo V = N(I − P) (nul-podprostor, tj.
jezgra operatora I − T ). Za bilo koji x je (I − P)Px = Px − P2 x = 0 , dakle Px ∈ V .
Označimo x′ := Px ∈ V i dokažimo da je x′′ := x − x′ ∈ V ⊥ . Doista, za svaki v ∈ V
je (x′ | v) = (x − x′ | v) = ((I − P)x | v) = (x | (I − P)v) = (x | v − v) = 0 . Dakle,
x = x′ + x′′ = Px + x′′ gdje je Px ∈ V i x′′ ∈ V ⊥ . To pokazuje da je P operator
ortogonalnog projiciranja na podprostor V .
Konačno, neka je e1 , . . . ek ortonormirana baza u V , koju nadopunimo vektorim
ek+1 , . . . , en do ortonormirane baze u Rn . Očevidno je Pe1 = e1 , . . . , Pek = ek ,
Pek+1 = 0 , . . . , Pen = 0 . Prema tome, matrica operatora P u toj bazi ima oblik
diag (1, . . . , 1, 0, . . . , 0) .

Primjer 7. Svedimo na dijagonalnu formu matricu


" #
2 1 1
A= 1 2 1 .
1 1 2
Njen je karakteristični polinom

λ −2 −1 −1

−1 λ −2 −1 = (λ − 4)(λ − 1)2
−1 −1 λ −2
i matrica ima dvije različite vlastite vrijednosti, λ1 = 4 i (dvostruku) λ2 = 1 .
Vlastiti vektor koji odgovara vrijednosti λ1 = 4 dobivamo iz sustava
) " #
2x −y −z = 0 1
−x +2y −z = 0 =⇒ x = y = z, e1 = 1 .
−x −y +2z = 0 1
Vlastitoj vrijednosti λ2 = 1 odgovara dvodimenzionalni vlastiti podprostor. Rje-
šavanjem sustava dobivamo
)
−x −y −z = 0
−x −y −z = 0 =⇒ x = −y − z
−x −y −z = 0
te se opće rješenje može napisati u obliku
" # " #
−1 −1
e=β 1 +γ 0 .
0 1
Svaki vektor ovoga oblika je vlastiti, sa vlastitom vrijednošću 1.
Primijetimo da pri tom vrijedi e1 e = 0 , vektor e1 okomit je na svaki vektor iz toga
podprostora. Da bismo odredili bazu koju čine medusobno- okomiti
" vektori,
# " moramo#
−1 −1
odrediti dva okomita vektora iz toga podprostora. To nisu vektori 1 i 0 koji
0 1
razapinju ovaj podprostor!
Za vektor e2 možemo uzeti bilo koji vektor iz tog podprostora. Recimo
" #
−1
e2 = 1 .
0
Vektore e3 potražimo u obliku
" # " #
−1 −1
e3 = β 1 +γ 0 ,
0 1
pri čemu ćemo koeficijente odrediti tako da on bude okomit na e2 :
e2 e3 = β + γ + β = 0 =⇒ γ = −2β .
Dakle, " # " # " #
−1 −1 1
e3 = 1 −2 0 = 1 .
0 1 −2
Dakako da ovo nije jedini mogući izbor vektora. Krenuvši od bilo kojega drugoga
vektora e2 iz ovoga podprostora, možemo odrediti njemu okomit e3 .
S ovim izborom postupamo dalje na sljedeći način. Načinimo ortonormiranu bazu
be1 , b
e2 , b
e3 :
" # " # " #
1 1 1 −1 1 1
be1 = √ 1 , be2 = √ 1 , be3 = √ 1 .
3 1 2 0 6 −2
Onda je matrica S prijelaza iz stare u novu bazu definirana na način
 1 −1 1 
√ √ √
3 2 6
 
S =  √13 √1
2
√1
6 
√1 −2
3
0 √
6
ortogonalna, i za nju vrijedi
" # " #
2 1 1 4 0 0

S 1 2 1 S= 0 1 0 .
1 1 2 0 0 1
5.
Matrične norme, spektar i
spektralni radijus matrice

1. Operatorske norme i konvergencija matrica . . . . . . . . . .


2. Funkcija matrice i teorem o preslikavanju spektra . . . . . .
3. Spektralni radijus i Neumannov red . . . . . . . . . . . . . . .
4. Spektralni radijus i spektralna norma matrice . . . . . . . . .
5. Stabilne matrice . . . . . . . . . . . . . . . . . . . . . . . . . . .
6. Geršgorinov teorem o krugovima . . . . . . . . . . . . . . . .
7. Bauerov teorem o Cassinijevim ovalima . . . . . . . . . . . .
8. Jacobijeva i Gauss–Seidelova iterativna metoda . . . . . . .
9. Matrična analiza za linearne diferencijalne jednadžbe . . . .
10. Varijacijska karakterizacija vlastitih vrijednosti
hermitske matrice . . . . . . . . . . . . . . ....
11. Fréchetova derivacija . . . . . . . . . . . . . . . . . . . . ....

5.1. Operatorske norme i konvergencija matrica

Vektorski prostor linearnih operatora. Ako su zadani normirani vektorski pros-


tori X i Y onda se, kao što smo vidjeli, na njima može uvesti pojam konvergencije. To
omogućava da definiramo i pojam neprekinute funkcije medu - normiranim prostorima.
Za neku funkciju F : X → Y kažemo da je neprekinuta u točki x ∈ X ako iz xk → x sli-
jedi F(xk ) → F(x) , ili kraće: limk→∞ F(xk ) = F(x) . Ako je F = A : X → Y linearni
operator, onda je zbog linearnosti neprekinutost linearnog operatora dovoljno provje-
riti samo za x = 0 . Svaki linearni operator definiran medu - konačno-dimenzionalnim
vektorskim prostorima X i Y je neprekinut.
Za zadane konačno-dimenzionalne vektorske prostore X i Y skup svih linearnih
operatora A : X → Y označavamo sa L(X, Y) . Taj skup je vektorski prostor, ako
zbrajanje operatora A i B : X → Y definiramo sa (A + B)(x) = Ax + Bx , a množenje
sa skalarom λ A sa (λ A)(x) = λ · Ax . Ako su X i Y konačno-dimenzionalni prostori,
lako se vidi da je dim L(X, Y) = dim X · dim Y . Na pr. dim L(Rn , Rm ) = mn , jer
L(Rn , Rm ) možemo poistovjetiti s vektorskim prostorom matrica tipa m × n , tj. sa
Mmn . Vektorski prostor L(X, X) svih linearnih operatora iz X u samog sebe označa-
vamo kraće sa L(X) .
Operatorska norma linearnih operatora i matrica. Ako su X i Y normirani
vektorski prostori (ne nužno konačno-dimenzionalni), onda se i u vektorski prostor
L(X, Y) svih neprekinutih linearnih operatora iz X u Y može na prirodan način uvesti
tzv. operatorska norma:
kAxk
kAk := sup , tj. kAk = sup kAxk.
x6=0 kxk kxk=1

Pritom je neprekinutost operatora A ekvivalentna s uvjetom kAk < ∞ , pa kažemo još


da je A omeden - linearan operator (engl. “bounded linear operator”). Ako su X i
- a sup se u
Y konačno-dimenzionalni prostori, onda je svaki linearni operator omeden,
definiciji operatorske norme može zamijeniti s max (tj. supremum je dostignut za neki
x ).
Ako je kAk < ∞ , onda je A doista neprekinut operator: iz xk → x kad k → ∞ , slijedi
kAxk − Axk = kA(xk − x)k 6 kAk kxk − xk → 0 .
Normu od A možemo opisati na ekvivalentan način s ova dva zahtjeva:
1. kAxk 6 kAk · kxk
2. kAk ima svojstvo minimalnosti: kAk je najmanji broj M > 0 za koji vrijedi
kAxk 6 Mkxk za sve x .
S tom normom vektorski prostor L(X, Y) postaje normiran prostor. Doista,
a) kAk > 0 je jasno; ako je kAk = 0 onda je kAxk = 0 za sve x , dakle A = 0
(pozitivnost);
b) kλ Ak = supx6=0 kλkxAxk k = supx6=0 |λ | · kkAx k kAxk
xk = |λ | · supx6=0 kxk = |λ | · kAk (ho-
mogenost);
c) k(A+B)xk = kAx+Bxk 6 kAxk+kBxk 6 (kAk+kBk)kxk , dakle zbog svojstva
minimalnosti je onda kA + Bk 6 kAk + kBk (nejednakost trokuta).
Za operatorsku normu vrijedi i još jedno vrlo važno svojstvo:
d) ako su A, B ∈ L(X) , onda je
kABk 6 kAk · kBk.
Posebno, vrijedi kAk k 6 kAkk za svaki prirodan broj k .
Dokaz je lagan. Vrijedi kABxk 6 kAk · kBxk 6 kAk · kBk · kxk , dakle zbog
svojstva minimalnosti broja kABk je onda kABk 6 kAk · kBk .
O toj važnoj normi bit će više riječi u odjeljku o matričnim normama.
Neka je X konačno-dimenzionalni vektorski prostor nad poljem K = R ili C .
Neprekinuti linearni operatori iz X u K zovu se linearni funkcionali. Vektorski pros-
tor L(X, K) svih neprekinutih linearnih funkcionala iz X u K zove se dualni prostor
od X , i označava sa X ′ . Na pr. funkcional f : Rn → R zadan sa
f (x) = a1 x1 + . . . + an xn ,
je linearan funkcional, tj. sadržan u (Rn )′ . To su zapravo i jedini funkcionali na Rn ,
tj. svi su oblika f a : Rn → R , gdje je f a (x) = (x | a) , a ∈ Rn (Rieszov teorem o
reprezentaciji linearnog funkcionala). Vrlo lako je vidjeti da je pridruživanje f 7→ a
linearni operator iz (Rn )′ u Rn , i to bijektivan (tj. izomorfizam), pa se dualni prostor
(Rn )′ može poistovjetiti sa Rn .
Ako je X beskonačno-dimenzionalan prostor, točan opis dualnog prostora nije sasvim jednos-
tavan. Na pr. ako je X = Lp (0, 1) , p ∈ (1, ∞) , onda se pokazuje da je prostor X ′ izomorfan sa
Lq (a, b) , gdje je q dualni eksponent od p , tj. q = p/(p − 1) . To znači da svaki linearni funkcional
F ∈ Lp (0, 1)′ , tj. F : Lp (0, 1) → R , ima oblik
Z 1
F(x) = a(t)x(t) dt
0
gdje je a(t) neka funkcija iz Lq (0, 1) . Funkcional F ∈ Lp (0, 1)′ poistovjećujemo s funkcijom
a ∈ Lq (0, 1) . Za p = 2 je q = 2/(2 − 1) = 2 , pa dual prostora L2 (0, 1) možemo poistovjetiti sa
samim sobom.

Neka je Mmn vektorski prostor svih realnih (ili kompleksnih) matrica A tipa
m × n . Gledajući matricu A kao linearni operator iz Rn u Rm ( Rn ∋ x 7→ Ax ∈ Rm ),
možemo na prirodan način definirati operatorsku normu od A , generiranu s nekom
zadanom normom na Rn i još jednom normom na Rm : kAk = supx6=0 kAxk/kxk .
S tom matričnom normom vektorski prostor Mmn postaje normirani prostor. Budu-
ći da je on konačno-dimenzionalan (dimenzije mn ) onda je to Banachov prostor, tj.
svaki Cauchyjev slijed matrica u njemu konvergira: ako za slijed matrica (Ak ) vrijedi
kAk − Al k → 0 kada k, l → ∞ , onda slijed matrica Ak konvergira k nekoj matrici A .

Na pr., uzimajući ∞ -normu na Rn i Rm dobivamo operatorsku matričnu normu


kAk∞ . Vrijedi
Xn
kAk∞ = max |aij |.
1 6 i6 m
j=1

Računamo maksimum zbrojeva po redcima u matrici, pa se zato ta norma nekad zove i


redčana norma matrice.
DOKAZ. Uzmimo bilo koji x ∈ Rn . Za y = Ax je
n
X
kAxk∞ = max |yi | = max | aij xj |
i i
j=1
n
X Xn
6 max |aij | · |xj | 6 max |xj | · max |aij | = Mkxk∞ .
i j i
j=1 j=1
P
gdje smo označili M = maxi nj=1 |aij | . Dakle, kAk∞ 6 M . Treba još samo vidjeti
da je broj M doista najmanji za koji vrijedi ova nejednakost. Dovoljno je pronaći
vektor x norme 1 za koji je kAxk∞ = M .PNeka je i0 indeks (retka) na kojem se
n
dostiže maksimum redčane norme, tj. M = j=1 |ai0 j | . Stavimo x = (x1 , . . . , xn )⊤ ,
xj = sgn ai0 j . Onda
Pje ai0 j xj =P|ai0 j | , pa za y = Ax vrijedi yi0 = M . Budući da za sve
i vrijedi |yi | = | j aij xj | 6 j |aij | 6 |yi0 | , onda je kAxk∞ = kyk∞ = |yi0 | = M .

Na sličan način, uzimajući 1 -normu na Rn i Rm dobivamo operatorsku normu


kAk1 . Vrijedi
Xm
kAk1 = max |aij |.
1 6 j6 n
i=1

Računamo maksimum zbrojeva po stupcima u matrici, pa ju zato zovemo i stupčanom


normom. Primijetite da je kAk1 = kA⊤ k∞ , jer transponiranjem redci matrice A
postaju stupci matrice A⊤ . Za obje ove operatorske matrične norme vrijedi važna
nejednakost
kABk 6 kAk · kBk,
pod uvjetom da su A i B ulančane.
- matricama
Kad imamo matričnu normu onda možemo definirati i udaljenost medu
A i B istoga tipa: d(A, B) = kA − Bk . To nam omogućava da uvedemo i pojam kugle
u prostoru matrica. Pojam udaljenosti omogućava da uvedemo konvergenciju slijeda
matrica.

Konvergencija slijeda matrica i redovi matrica. Pretpostavimo da je zadan sli-


(k)
jed matrica Ak = (aij ) , k = 1, 2, . . . , istog tipa m × n . Kažemo da slijed matrica Ak
konvergira k matrici A = (aij ) , i pišemo Ak → A kad k → ∞ , ili limk→∞ Ak = A ,
ako kAk − Ak → 0 kad k → ∞ , gdje je k · k bilo koja matrična norma. Budući da je
prostor matrica Mmn konačno-dimenzionalan (dimenzije mn ), sve matrične norme na
-
njemu su medusobno ekvivalentne, pa definicija konvergencije ne ovisi o izboru norme.
(k)
Uvjet Ak → A je ekvivalentan s uvjetom da aij → aij kad k → ∞ , za sve
i, j . Drugim riječima, slijed matrica Ak konvergira matrici A onda i samo onda ako
odgovarajući matrični koeficijenti konvergiraju na uobičajen način.
(k) P (k)
Doista, ako aij → aij kad k → ∞ , za sve ij , onda pišući Ak − A = i,j (aij − aij )Eij , gdje
je Eij matrica koja je nula svuda osim na mjestu (i, j) na koje stavljamo jedinicu, dobivamo zbog
P (k)
nejednakosti trokuta kAk − Ak 6 i,j |aij − aij | · kEij k → 0 kada k → ∞ . Obratno, pretposta-
vimo da kAk − Ak → 0 kad k → ∞ . Zbog ekvivalentnosti norma na konačno-dimenzionalnom
(k)
prostoru Mmn zaključujemo da onda kAk − Ak∞ → 0 , pa slijedi da |aij − aij | 6 kAk − Ak → 0
kad k → ∞ .

Primjer 1. Slijed matrica


 
(1 + 1k )k k+1
Ak = 1
k
k k sin 1k
konvergira prema matrici  
e 1
A= 0 1 .

-
Na sličan način može se uvesti konvergencija beskonačnog reda matrica odredenog
slijedom matrica Ak istogP tipa. Najprije gledamo parcijalne sume Sk := A1 +. . . +Ak .

Kažemo da red matrica k=1 Ak konvergira ako slijed parcijalnihP∞ suma Sk konver-
gira k matrici S , tj. kS − Sk k → 0 . U tom slučaju pišemo k=1 Ak = S . Red matrica
P∞ P∞ (k)
k=1 Ak konvergira onda i samo onda ako redovi brojeva k=1 aij konvergiraju k
nekom broju sij za sve i , j .

Primjer 2. Vrijedi
" 2k
#  

X xk x
k! (−1)k (2k)! ex cos x
k x2k+1 1
= π 2
(−1) (2k+1)! (k+1)2
sin x 6
k=0
za sve x ∈ R .

Eksponencijalna funkcija matrice. Važan primjer je matrica eA , koju zovemo


eksponencijalna funkcija matrice. Za bilo koju zadanu kvadratnu matricu A ona se
2 3
definira s pomoću MacLaurinova reda funkcije ex = 1 + x + x2! + x3! + . . . ovako:
A2 A3
eA := I + A +
+ + ...
2! 3!
Dokažimo da taj red konvergira prema nekoj matrici za bilo koju odabranu kvadratnu
k
matricu A . Dovoljno je pokazati da slijed parcijalnih suma Sk = I + A + . . . + Ak! čini
Al+1 k
Cauchyjev slijed. Neka je l < k i pokažimo da Sk − Sl = (l+1)! + . . . + Ak! teži prema
nuli (nul matrici) kada k i l teže u ∞ . Rabeći bilo koju operatorsku matričnu normu
i činjenicu da je kAi k 6 kAki , dobivamo
kAl+1 k kAk k kAkl+1 kAkk
kSk − Sl k 6 + ... + 6 + ... + →0
(l + 1)! k! (l + 1)! k!
2
kada k, l → ∞ . Naime numerički red ekAk = 1 + kAk + kA2!k + . . . konvergira (na
pr. po D’Alambertovu kriteriju), pa njegove parcijalne sume konvergiraju.
Na sličan način mogu se definirati matrica sin A , cos A , pa i općenito f (A) uz
-
odredene uvjete na f , koje ćemo opisati u sljedećem odjeljku.
Ako je A dijagonalna matrica,
 
λ1
 λ2 
A=  ...
,

λn
onda je i P(A) dijagonalna matrica
 
P(λ1 )
 P(λ2 ) 
P(A) = 
 ...
.

P(λn )
A
Lako se provjeri da je i e dijagonalna matrica:
 λ1 
e
 eλ2 
eA =  ...
.

eλn
Ako je A gornja trokutasta matrica, onda je P(A) gornja trokutasta, kao i eA . Na
dijagonali su isti brojevi kao u dijagonalnom slučaju.

Primjedba 1. Pokazuje se da ako kvadratne matrice A i B komutiraju, tj. AB =


BA , onda je
eA+B = eA eB .

Primjer 3. Pogledajmo za ilustraciju gornju trokutastu matricu


 
λ 1
A= 0 λ ,

- (At)2 (At)3
i nadimo eAt = I + At + 2! + 3! + . . . , gdje je t bilo koji realni broj. Kao što
znamo, vidi Primjer 3.18,
 
λk k λ k −1
Ak = ,
0 λk
dakle " P #
∞ (λ t)k P∞ kλ k−1 tk
At k=0 k!
e = Pk=1

k!
(λ t)k
.
0 k=0 k! ,
P∞ kλ k−1 tk
P∞ λ k−1 tk−1
P∞ (λ t)j
Zbog k=1 k! =t k=1 (k−1)! = [j := k − 1] = t j=0 j! = teλ t dobivamo
 λt 
e teλ t
eAt = .
0 eλ t
Primijetimo da je λ vlastita vrijednost od A , te ako je λ negativan realan broj, tj.
λ < 0 , onda vrijedi da eAt → 0 kada t → +∞ . Gornja matrica A s λ < 0 je
specijalan slučaj tzv. stabilne matrice, koje ćemo definirati malo kasnije, vidi Odjeljak
5.5. Matrica A je u ovom primjeru matrica linearnog sustava diferencijalnih jednačaba
ẋ = λ x + y, ẏ = λ y,

jer uz oznaku x = (x, y) ovaj sustav možemo kratko zapisati kao
ẋ = Ax.
Sa zadanim početnim uvjetima x(0) = x0 , y(0) = y0 dobivamo Cauchyjev problem
čije rješenje je
x(t) = eAt x0 ,
gdje je x0 = (x0 , y0 )⊤ . Matrica eAt zove se evolucijska matrica sustava. Više o njoj vidi
u Odjeljku 5.9. U ovom slučaju iz gornjeg rješenja vidimo da je x(t) = eλ t x0 + teλ t y0 ,
y(t) = eλ t y0 . Ako je λ < 0 onda x(t) → 0 kada t → +∞ , tj. trajektorija x(t) je
asimptotski stabilna (teži k nuli).

Primjer 4. Pokažimo da za matricu A operatora rotacije ravnine za kut π /2 (oko


ishodišta), tj. za matricu  
0 −1
A= 1 0 ,
vrijedi  
At cos t − sin t
e = sin t cos t ,

pri čemu je t bilo koji realan broj. Matrica eAt zove se evolucijska ili fundamentalna
matrica matrice A , o čemu će više riječi biti u Odjeljku 5.9. Kao što vidimo, matrica
eAt je u ovom slučaju matrica operatora rotacije ravnine za kut t oko ishodišta.
t2 tk
Pokažimo da je na mjestu (1, 1) u matrici eAt := I + At + A2 2! + . . . + Ak k! +...
2
stvarno broj cos t . Doista, budući da je A = −I (tj. A je matrična imaginar-
na jedinica), A3 = −A , A4 = I , itd., onda na mjestu (1, 1) matrice eAt imamo
t2 t4
1 − 2! + 4! + . . . , što je dobro poznati MacLaurinov razvoj funkcije cos t . Slično i za
ostala mjesta evolucijske matrice eAt .
Matrica A je u ovom primjeru matrica linearnog sustava diferencijalnih jednačaba
ẋ = −y, ẏ = x,
gdje je x = x(t) i y = y(t) , jer uz oznaku x = (x, y)⊤ ovaj sustav možemo kratko
zapisati kao
ẋ = Ax.
Sa zadanim početnim uvjetima x(0) = x0 , y(0) = y0 dobivamo Cauchyjev problem
čije rješenje je
x(t) = eAt x0 ,
pri čemu je x0 = (x0 , y0 )⊤ . Drugim riječima, vektor x(t) nastaje iz x0 rotacijom za
kut t oko ishodišta. Primijetite da je ẍ = −ẏ = −x , tj. ẍ + x = 0 , pa funkcija x = x(t)
predstavlja rješenje dobro poznate jednadžbe harmonijskog oscilatora.
22 5. MATRIČNE NORME , SPEKTAR I SPEKTRALNI RADIJUS MATRICE

5.2. Funkcija matrice i teorem o preslikavanju spektra

Umjesto polinoma matrice P(A) moguće je definirati čak i funkciju matrice f (A) .
O tome govori sljedeći važan teorem, koji navodimo bez dokaza.

Teorem 1. Neka je A kvadratna matrica s kompleksnim koeficijentima. Pretpostavimo


da je zadana funkcija f : Kr (z0 ) → C kompleksne varijable, definirana na otvorenom
krugu Kr (z0 ) = {z ∈ C : |z − z0 | < r} , takva da posjeduje Taylorov red
X ∞
f (z) = αk (z − z0 )k
k=0
s radijusom konvergencije ( barem ) r oko z0 . Ako je σ (A) ⊂ Kr (z0) , tj. sve vlastite
vrijednosti od A su u nutrini kruga konvergencije reda, onda matrični red

X
f (A) := αk (A − z0 I)k
k=0
konvergira.
Ako je λ ∈ Kr (z0 ) , onda za matricu J = λ I + N , gdje je N nilpotentna matrica
s jedinicama na gornjoj sporednoj dijagonali i nulama inače, vrijedi
 ′′ (n−1)

f (λ ) f ′ (λ ) f 2!(λ ) . . . f (n−1)! (λ )
 (n−2)

 f (λ ) f ′ (λ ) . . . f (n−2)! (λ ) 
 
 .. 
f (J) =  .
 . 
 
 ... f (λ ) 

f (λ )
Ako je f (z) funkcija kao u Teoremu 1 i J Jordanova matrica sa Jordanovim
blokovima J1 (λ1 ), . . . , Jr (λr ) , tako da su svi λi u nutrini kruga Kr (z0) , onda je
 
f (J1(λ1 ))
 f (J2 (λ2 )) 
f (J) =   ...
.

f (Jr (λr ))
Matrica f (J) je gornja trokutasta i na dijagonali se nalaze brojevi f (λi ) , gdje su
λi ∈ σ (J) .
Nije teško vidjeti da i u Teoremu 1 vrijedi Teorem o preslikavanju spektra kao i
za funkcije od polinoma: ako je σ (A) = {λ1 , . . . , λn } onda je
σ (f (A)) = {f (λ1 ), . . . , f (λn )},
ili kraće zapisano,
σ f (A)) = f (σ (A)).
Drugim riječima, vlastite vrijednosti matrice f (A) su kompleksni brojevi oblika f (λ ) ,
gdje je λ vlastita vrijednost od A . Dokaz je sličan kao i u slučaju polinoma. Naime,
budući da je matrica A slična gornjoj trokutastoj J , onda je f (A) slična gornjoj tro-
kutastoj matrici f (J) koja na dijagonali ima brojeve oblika f (λ ) , gdje je λ ∈ σ (A) .
To su upravo vlastite vrijednosti od f (J) , dakle i od f (A) .
Ako odgovarajući Taylorov red od f (z) konvergira za z0 = 0 (tzv. MacLaurinov
red od f (z) ) s beskonačnim radijusom konvergencije, tj.
X∞
f (z) = αk zk
k=0
konvergira na cijelom C , onda takvu funkciju kompleksne varijable zovemo cijelom
funkcijom. U tom slučaju je funkcija f (A) definirana za svaku kvadratnu matricu A :
X∞
f (A) := αk Ak .
k=0
Kao što je poznato, funkcije f (z) = ez , sin z , cos z su cijele funkcije, pa prema tome
redovi
X∞ ∞
X X∞
Ak A2k+1 A2k
eA := , sin A := (−1)k , cos A := (−1)k
k! (2k + 1)! (2k)!
k=0 k=0 k=0
konvergiraju za svaku kvadratnu matricu A s kompleksnim koeficijentima.

Primjer 5. Vrijedi:
   
λ 1 sin λ cos λ
sin = .
0 λ 0 sin λ

- da funkcija (1 − z)−1 ima MacLaurinov red


Poznato je takoder
(1 − z)−1 = 1 + z + z2 + . . .
koji konvergira za |z| < 1 , tj. na K1 (0) . Rabeći Teorem 1 dobivamo da ako je A
kvadratna matrica čije vlastite vrijednosti su unutar jediničnog kruga, tj. |λ | < 1 za
sve λ ∈ σ (A) (tj. spektralni radijus od A je manji od 1 ), onda vrijedi
(I − A)−1 = I + A + A2 + . . .
Izravan dokaz te tvrdnje, bez pozivanja na Teorem 1, vidjet ćemo u sljedećem odjeljku.
5. MATRIČNE NORME , SPEKTAR I SPEKTRALNI RADIJUS MATRICE 23

5.3. Spektralni radijus i Neumannov red za (I − A)−1

Dobro je poznato da za neki kompleksan broj a vrijedi da ak → 0 kad k → ∞


onda i samo onda ako je |a| < 1 . Poopćenje ovog rezultata na slučaj kvadratnih
matrica A daje sljedeći teorem. Podsjetimo se definicije spektralnog radiusa matrice:
r(A) := max{|λ | : λ ∈ σ (A)} .

Teorem 1. Neka je A kvadratna matrica s kompleksnim koeficijentima. Ako je


r(A) < 1 onda Ak → 0 kad k → ∞ , i obratno.

DOKAZ. Matrica A je slična svojoj Jordanovoj formi J . Matrica Ak je onda slična


gornjoj trokutastoj matrici Jk koja na dijagonali ima λlk , gdje su λl vlastite vrijednosti,

a na mjestu (i, j) , i < j (tj. iznad glavne dijagonale), stoji element oblika j−k i λ k−j+i .
Neka je r(A) < 1 , tj. |λl | < 1 . Očevidno |λlk | = |λl |k → 0 kada k → ∞ . Za
 −(j−i)+1)
čvrste i , j , gdje je i 6 j , vrijedi da je j−k i = k(k−1)...(k
(j−i)! polinom u k kons-

tantnog stupnja j − i , pa s pomoću L’Hospitalova pravila lako dobijemo da j−k i λlk
konvergira k 0 kad k → ∞ , jer je |λl | < 1 . Prema tome Jk konvergira k nuli kad
k → ∞ , dakle i Ak .
Obratno, ako Ak konvergira k 0 , onda i Jk konvergira k nuli. Budući da su na
dijagonali gornje trokutaste matrice Jk brojevi λlk , gdje su λl vlastite vrijednosti od
A , onda λlk → 0 kad k → ∞ , pa mora biti |λl | < 1 . Odatle je r(A) < 1 .
Iz Matematike 2 znamo da za svaki realan broj x takav da je |x| < 1 , vrijedi
1 2
1−x = 1 + x + x + . . . . Slično vrijedi i za matrice.

Teorem 2. Neka je A kvadratna matrica reda n s kompleksnim koeficijentima i


r(A) < 1 (tj. sve vlastite vrijednosti od A su unutar jediničnog kruga u C ). On-
da je matrica I − A regularna i vrijedi
(I − A)−1 = I + A + A2 + . . .
pri čemu matrični red konvergira. Obratno, ako red na desnoj strani konvergira, onda
je r(A) < 1 .
DOKAZ. Neka je r(A) < 1 . Ako je λ ∈ σ (A) onda je prema teoremu o preslikavanju
spektra 1− λ ∈ σ (I−A) (uzmi f (x) = 1−x ). Zbog |λ | < 1 je 1− λ 6= 0 , pa je mat-
rica I−A regularna. Iz jednakosti (I+A+A2 +. . .+Ak )−(A+A2 +. . .+Ak +Ak+1 ) =
I − Ak+1 slijedi (I − A)(I + A + A2 + . . . + Ak ) = I − Ak+1 , tj.
I + A + A2 + . . . + Ak = (I − A)−1 (I − Ak+1 ).
Ako na desnoj strani pustimo k → P ∞ , zbog Teorem 1 dobivamo na desnoj strani

(I − A)−1 . Time smo dokazali da je k=0 Ak = (I − A)−1 .
P∞ k k
Obratno, pretpostavimo da red k=0 A konvergira. Onda vrijedi A → 0 kad
k → ∞ (nuždan uvjet konvergencije reda), pa iz Teorema 1 zaključujemo da je
r(A) < 1 .
Tu je činjenicu dokazao njemački matematičar F. Neumann (1798.–1895.) kon-
cem 19. st. Matrični red u prethodnom teoremu zove se Neumannov red (ne miješati
to ime s Johnom von Neumannom).
Sljedeći korolar pokazuje da se za svaki µ izvan kruga polumjera r(A) u kom-
pleksnoj ravnini matrica (µ I − A)−1 može razviti u konvergentan red potencija od
A.

Korolar 3. Neka je A zadana matrica i µ kompleksan broj takav da je |µ | > r(A) .


Onda je

1 X Ak
(µ I − A)−1 = .
µ µk
k=0

DOKAZ. Zbog r(A) < |µ | je r(A/µ ) < 1 , jer iz λ ∈ σ (A) slijedi λ /µ ∈ σ (A/µ ) ,
pa zbog |λ | < |µ | imamo |λ /µ | < 1 . Stoga je I − A/µ regularna matrica, pa
invertiranjem matrice µ I − A = µ (I − A/µ ) dobivamo
 −1 ∞  k
−1 1 A 1X A
(µ I − A) = I− = .
µ µ µ µ
k=0
P k
Može se pokazati da red k=0 Aµ k divergira ako je µ unutar kruga polumjera r(A)
oko ishodišta, tj. za |µ | < r(A) .
Kao što znamo, skup svih kompleksnih brojeva µ za koje je matrica µ I − A
regularna, tj. postoji (µ I − A)−1 , zove se rezolventni skup matrice A , i ozna-
čava sa ρ(A) . Taj skup je kompleksna ravnina bez vlastitih vrijednosti od A :
ρ(A) = C \ σ (A) = C \ {λ1 , . . . , λn } . Funkcija R(·) : ρ(A) ⊂ C → Mn koja
kompleksnom broju µ pridružuje matricu R(µ ) = (µ I − A)−1 zove se rezolventa
matrica A . Ako je u nehomogenoj matričnoj jednadžbi
(µ I − A)x = h
vektor h zadan, x nepoznanica, i µ ∈ ρ(A) , onda je rješenje jednako x = R(µ )h =
(µ I − A)−1 h . U slučaju kad je µ ∈ σ (A) imamo Fredholmovu alternativu: ako je
h ⊥ N(µ I − A∗ ) onda postoji rješenje, a u suprotnom rješenja nema.
U žargonu linearne algebre se nerijetko umjesto vlastitih vrijednosti λ matrice A
govori o njenim recipročnim vrijednostima (pod uvjetom λ 6= 0 ), koje se zovu ka-
rakteristične vrijednosti matrice. Prema tome, kompleksni broj µ je karatkeristična
vrijednost od A ako postoji vektor x 6= 0 takav da je µ Ax = x .
U svjetlu Teorema 1 korisno je znati sljedeći teorem, jer on daje jednostavan
dovoljni uvjet da bi spektralni radijus bio < 1 .
24 5. MATRIČNE NORME , SPEKTAR I SPEKTRALNI RADIJUS MATRICE

5.4. Spektralni radijus i spektralna norma matrice

Podsjetimo se da za matrice s koeficijentima iz polja realnih brojeva imamo poj-


move ortogonalnih matrica i simetričnih matrica. U slučaju polja kompleksnih brojeva,
njima odgovaraju pojmovi unitarnih matrica i hermitskih matrica.
Jasno je da je realan broj b nenegativan (pozitivan) onda i samo onda ako je
bx2 > 0 za sve realne brojeve x ( bx2 > 0 za sve x 6= 0 ).
Za hermitsku matricu B reda n (tj. takvu da je B= B ) kažemo da je pozitivno
semidefinitna matrica ako je (Bx | x) > 0 za sve x ∈ Cn . Ako je (Bx | x) > 0 za
sve x 6= 0 , kažemo da je B pozitivno definitna matrica.
Lako se vidi da matrica je B pozitivno semidefinitna (definitna) onda i samo onda
ako su sve njene vlastite vrijednosti nenegativne (pozitivne). Doista, ako je B pozi-
tivno semidefinitna matrica i λi ∈ σ (B) , onda za pripadajući jedinični vlastiti vektor
xi vrijedi 0 6 (Bxi | xi ) = (λ xi | xi ) = λi . Obratno, ako su sve vlastite vrijednosti λi
neke hermitske matrice pozitivne, onda je B pozitivno semidefinitna. Doista, za svaki
x = x1 e1 + . . . + xn en , gdje (ei ) čine ortonormiranu bazu vlastitih vektora hermitske
matrice B , vrijedi
(Bx | x) = (x1 Be1 + . . . + xn Ben |x1 e1 + . . . + xn en )
= λ1 |x1 |2 + . . . + λn |xn |2 > 0.
Zanimljivo je da se iz pozitivno semidefinitne matrice B može ‘izvaditi korijen’, tj.
postoji jednoznačno -
odredena pozitivno semidefinitna matrica C takva da je C2 = B .

Pišemo C = B .
Spektralna norma bilo koje pravokutne matrice A tipa m × n s kompleksnim ko-
eficijentima definira se kao operatorska norma kAk2 generirana Euklidskom normom
kxk2 , tj.
q
kAxk2
kAk2 = sup , kxk2 = |x1 |2 + . . . + |xn |2 .
x6=0 kxk2

Sljedeći teorem pokazuje da se spektralna norma matrice A može vrlo lako izračunati
znajući spektar kvadratne matrice A∗ A . Time je naziv spektralne norme opravdan. (U
uporabi je i oznaka kAkS = kAk2 .)

Teorem 1. Neka je A pravokutna matrica s kompleksnim koeficijentima. Onda je


kAk2 = r(A∗ A)1/2 ,

gdje je A∗ hermitski adjungirana matrica od A , tj. A∗ := A .
DOKAZ. Normu k · k2 na Cn označavat ćemo u dokazu radi kratkoće samo sa k · k .
Matrica A∗ A je hermitska, jer je (A∗ A)∗ = A∗ A∗∗ = A∗ A . Odatle slijedi da su njene
vlastite vrijednosti λk realne, a pripadni vlastiti vektori mogu se uzeti tako da tvore
ortonormiranu bazu ek u Cn :
A∗ Aek = λk ek , (ek | ej ) = δkj .
Nadalje, matrica A∗ A je pozitivno semidefinitna:
(A∗ Ax | x) = (Ax | Ax) = kAxk2 > 0,
pa su vlastite vrijednosti od A∗ A nenegativne: 0 6 (A∗ Aek |ek ) = (λk ek | ek ) =
λk kek k2 = λk . Poredajmo vlastite vrijednosti po veličini:
(0 6) λ1 6 λ2 6 . . . 6 λn .

Onda je r(A A) = max{|λ1 |, |λ2 |, . . . , |λn |} = λn .
Pn
Odaberimo bilo koji x = k=1 xk ek takav da je kxk = 1 . Vrijedi
kAxk2 = (Ax | Ax) = (A∗ Ax | x)
X X  X X 
= xk A∗ Aek | xk ek = λk xk ek | xk ek = [zbog ei ⊥ ej ]
k k k k
X X
2 2
= |xk | (λk ek | ek ) = λk |xk | 6 [zbog 0 6 λk 6 λn ]
k k
X
6 λn |xk |2 = λn
k

Uzimajući supremum po svim x takvim da je kxk = 1 dobivamo kAk2 6 λn . S druge


strane za jedinični vektor x = en vrijedi kAen k2 = (Aen | Aen ) = (A∗ Aen | en ) =
1/2
λn (en | en ) = λn , pa dobivamo kAk2 > λn . Dakle, kAk = λn = r(A∗ A)1/2 .

Korolar 2. Neka je A hermitska matrica, tj. A∗ = A . (a) spektralni radijus od A


jednak je spektralnoj normi, tj. r(A) = kAk2 . (b) Štoviše, za svaki polinom p(x) s
realnim koeficijentima je r(p(A)) = kp(A)k2 .

DOKAZ. (a) Prema teoremu o preslikavanju spektra je σ (A2 ) = σ (A)2 , tj. spektar
matrice A2 dobiva se kvadriranjem svih elemenata spektra matrice A . Budući da su
za hermitsku matricu vlastite vrijednosti λ realne, vrijedi λ 2 = |λ |2 . Prema tome je
r(A2 ) = max{λ 2 : λ ∈ σ (A)} = max{|λ |2 : λ ∈ σ (A)} = max{|λ | : λ ∈ σ (A)}2 =
r(A)2 . Iz prethodnog teorema je onda kAk22 = r(A∗ A) = r(A2 ) = r(A)2 , dakle
kAk2 = r(A) .
(b) Budući da je A hermitska matrica, onda je i p(A) hermitska: p(A)∗ =
[jer A ima realne koeficijente] = p(A∗ ) = p(A) . Tvrdnja slijedi iz (a).

Primjer 7. Tvrdnja korolara ne vrijedi za matrice koje nisu hermitske. Na pr. za


matricu  
0 1
A= 0 0
je očevidno σ (A) = {0} , tj. r(A) = 0 . S druge strane je
 
∗ 0 0
A A= 0 1 ,

dakle σ (A∗ A) = {0, 1} . Prema Teoremu 1 je kAk2 = r(A∗ A)1/2 = 1 , i odatle


r(A) < kAk2 .

 
- i 1
Primjer 8. Nadimo spektralnu normu kAk2 matrice A = . Vrijedi
0 1+i
 ⊤  
−i 1 −i 0
A∗ = = , pa je
0 1−i 1 1−i
 
∗ 1 −i
A A=
i 3
2
Karakteristični polinom

√ √ matrice je k(λ ) =∗ λ − 4λ√+ 2 . To znači da je
ove
σ (A A) p
= {2 − 2, 2 + 2} . Budući da je r(A A) = 2 + 2 , prema Teoremu 1 je

kAk2 = 2 + 2 .
5. MATRIČNE NORME , SPEKTAR I SPEKTRALNI RADIJUS MATRICE 25

5.5. Stabilne matrice

Za kvadratnu matricu A s kompleksnim koeficijentima kažemo da je stabilna


matrica ako je Re λ < 0 za svaki λ ∈ σ (A) . Drugim riječima, spektar matrice A
nalazi se u lijevoj poluravnini u odnosu na imaginarnu os kompleksne ravnine. Razlog
zašto se takve matrice zovu stabilnima vidljiv je iz sljedećeg teorema.

Teorem 1. Matrica A je stabilna onda i samo onda ako eAt → 0 kad t → +∞ .

DOKAZ. Prema Jordanovu teoremu matrica A je slična svojoj Jordanovoj matrici J ,


koja je dijagonalna blok matrica sa Jordanovim blokovima J(λ1 ), . . . , J(λr ) na glavnoj
dijagonali. Budući da je At = T(Jt)T−1 , onda je
eAt = TeJt T−1 .
Jasno je da eAt → 0 onda i samo onda ako eJt → 0 kada t → +∞ .
Neka je t na trenutak fiksiran. Definirajmo funkciju f (x) = ext . Onda je
 
f (J1 (λ1 ))
 f (J2 (λ2 )) 
eJt = f (J) = 
 ...
.

f (Jr (λr ))
Označimo radi kratkoće bilo koji od brojeva λi sa λ . Svaka od matrica f (J(λ )) je
gornja trokutasta:
   
′′
t2 λ t
f (λ ) f ′ (λ ) f 2!(λ ) . . . eλ t teλ t 2! e ...
 
  eλ t λt 
 f (λ ) f ′ (λ ) . . .   te ... 
 ..   .. 
f (J(λ )) =  . = . .
   
 . . . f ′ (λ )   . . . teλ t 

f (λ ) eλ t
Tvrdnja će biti dokazana ako se pokaže da je Re λ < 0 onda i samo onda ako tk eλ t → 0
kad t → +∞ (za sve k = 0, 1, 2, . . . ).
(⇒) Neka je λ = c + di ∈ σ (A) takav da je Re λ < 0 , tj. c < 0 . On-
da iz |edti | = 1 slijedi da |eλ t | = |ect edti | = ect → 0 kad t → +∞ . Isto tako
|teλ t | = tect → 0 primjenom L’Hospitalova pravila:
t h∞i 1
lim tect = [∞ · 0] = lim −ct = = lim = 0.
t→+∞ t→+∞ e ∞ t → +∞ −ce−ct
Na isti način k -strukom primjenom L’Hospitalova pravila dobivamo da i tk ect → 0 kad
t → +∞ .
(⇐) Pretpostavimo da tk eλ t → 0 kad t → +∞ , za bilo koji k = 0, 1, 2, . . . . Za
k = 0 imamo eλ t → 0 , tj. za λ = c + di vrijedi ect → 0 kad t → +∞ . To je moguće
jedino kad je c < 0 . Dakle Re λ < 0 .
Ako je matrica A stabilna, onda eAt → 0 čak eksponencijalnom brzinom. Točnije
ako odaberemo bilo koji negativan broj α takav da je α > max{Re λ : λ ∈ σ (A)} ,
onda postoji konstanta M > 0 neovisna od t takva da je
keAt k 6 Meα t .
Doista, za λ = c + di ∈ σ (A) je |tk eλ t | = tk ect = tk e(c−α )t eα t , a izraz tk e(c−α )t je
- nekim brojem M > 0 , jer on zbog c < α teži u nulu kad t → +∞ .
odozgor omeden

Primjer 9. Matrica  
a −b
A= b a
gdje su a i b bilo koja dva realna broja, je stabilna onda i samo onda ako je a < 0 .
Doista, pišući    
1 0 0 −1
A=a 0 1 +b 1 0 = aI + bJ

koristeći teorem o preslikavanju spektra od J (koji se sastoji od ±i ) s funkcijom


f (x) = a + bx , dobivamo da je σ (A) = σ (f (J)) = f (σ (J)) = {f (i), f (−i)} =
{a + bi, a − bi} , jer je σ (J) = {i, −i} (isti rezultat se lako dobije i izravnim računom,
preko karaterističnog polinoma matrice A ). Dakle, matrica A stabilna onda i samo
onda ako je a < 0 . Naravno, spektar matrice A može se lako izračunati i izravno,
preko njenog karakterističnog polinoma.
Nije teško vidjeti da za matricu A = aI + bJ iz ovog primjera vrijedi da je
 
A a cos b − sin b
e =e sin b cos b .
Doista, budući da matrice aI i bJ komutiraju (s obzirom na množenje), onda je (vidi
Primjedbu 1 i Primjer 4):
 
cos b − sin b
eA = eaI+bJ = eaI ebJ = ea IebJ = ea ebJ = ea sin b cos b .

Stabilne matrice zovu se još i Hurwitzove matrice.


26 5. MATRIČNE NORME , SPEKTAR I SPEKTRALNI RADIJUS MATRICE

5.6. Geršgorinov teorem o krugovima

Geršgorinov teorem omogućava lokalizaciju vlastitih vrijednosti matrice A , i vrlo


je koristan ako je A velikog reda, kada ne možemo lako pronaći sve vlastite vrijednosti.
Za matricu A reda n vrlo je teško računati sve nultočke karakterističnog polinoma ako
je n velik. Taj zanimljiv teorem otkrio je ruski matematičar S. Geršgorin godine 1931.
Za kvadratnu matricu A = (aij ) reda n označimo
r1 = |a12 | + |a13 | + . . . + |a1n |,
r2 = |a21 | + |a23 | + . . . + |a2n |,
...
rn = |an1 | + |an2 | + . . . + |an n−1 |.
Drugim riječima, ri dobiva se kao zbroj apsolutnih vrijednosti brojeva u i -tome retku
matrice A , ali bez dijagonalnog elementa |aii | :
X n
ri = |aij |.
j=1
j6=i

Definirajmo Geršgorinove krugove u kompleksnoj ravnini:


Di = {z ∈ C : |z − aii | 6 ri }.
Za matricu A kažemo da je dijagonalno dominantna matrica ako je u sva-
kom njenom retku apsolutna vrijednost broja na dijagonali veća od zbroja apsolutnih
vrijednosti ostalih koeficijenata u tom retku, tj.
n
X
|aii | > |aij |.
j=1
j6=i

Primijetimo da ako je matrica A dijagonalno dominantna, tj. |aii | > ri za sve i , onda
niti jedan krug Di ne sadrži z = 0 .

Teorem 1. (Geršgorin, 1931.) Svaka vlastita vrijednost matrice A sadržana je u barem


jednom krugu Di , tj.
[n
σ (A) ⊆ Di .
i=1

Drugim riječima, {λ1 , . . . , λn } ⊆ D1 ∪ . . . ∪ Dn .


Prije dokaza teorema pogledajmo jedan važan posljedak tog teorema.

Korolar 2. Neka je A dijagonalno dominantna matrica.


(a) Onda je A regularna.
(b) Ako su svi dijagonalni elementi pozitivni, tj. aii > 0 , onda sve vlastite vrijednosti
leže u desnoj poluravnini, tj. Re λ > 0 za sve λ ∈ σ (A) .
(c) Ako su svi dijagonalni elementi negativni, tj. aii < 0 , onda sve vlastite vrijednosti
leže u lijevoj poluravnini, tj. Re λ < 0 za sve λ ∈ σ (A) . Drugim riječima,
matrica A je stabilna.
DOKAZ. (a) Stroga dijagonalna dominantnost znači da je |aii | > ri , pa Di ne sadrži
z = 0 . Prema Geršgorinovu teoremu onda niti σ (A) ne sadrži 0 . Odatle slijedi da su
svi λi 6= 0 , pa je A regularna.
(b) Svaki Geršgorinov krug ima središte na pozitivnom dijelu x -osi, i sadržan je u
desnoj poluravnini.
(b) Svaki Geršgorinov krug ima središte na negativnom dijelu x -osi, i sadržan je
u lijevoj poluravnini.
DOKAZ GER ŠGORINOVA TEOREMA . Neka je λ ∈ σ (A) , tj. λ je vlastita vrijednost
od A . Treba dokazati da je λ u nekom od krugova Di . Vrijedi Ax = λ x za neki
x = [x1 , . . . , xn ]⊤ 6= 0 . Neka je m maksimum apsolutnih vrijednosti komponenata od
x . Vektor y = m1 x je takoder - vlastiti vektor za λ . Maksimum apsolutnih vrijednosti
komponenta od y iznosi 1 . Neka je taj maksimum dostignut na i -toj komponenti, tj.
|yi | = 1 . U jednakosti Ay = λ y pogledajmo i -komponentu s lijeva (to je umnožak
i -tog retka matrice A i stupca y ) i s desna:
ai1 y1 + ai2 y2 + . . . + ain yn = λ yi .
Oduzimajući aii yi lijevo i desno, dobivamo
Xn
aij yj = (λ − aii )yi .
j=1
j6=i

Rabeći |yi | = 1 i nejednakost trokuta, slijedi


n
X n
X n
X
|λ − aii | = | aij yj | 6 |aij yj | 6 |aij | = ri .
j=1 j=1 j=1
j6=i j6=i j6=i

Primjedba 2. Vrijedi i ovakvo profinjenje Geršgorinova teorema. Ako se uni-


ja svih Geršgorinovih krugova sastoji od više komponenata povezanosti, onda svaka
komponenta sadrži barem jednu vlastitu vrijednost. Štoviše, ako je neka komponenta
poveznosti dobivena kao unija m krugova, onda ona sadrži točno m vlastitih vrijednosti
računajući i njihovu kratnost.

Primjedba 3. Ako su svi dijagonalni elementi kvadratne matrice A jednaki 0 , tj.


aii = 0 za sve i , onda su Geršgorinovi krugovi koncentrični sa zajedničkim središtem
u ishodištu Gaussove ravnine, pa je njihova unija krug maksimalnog radijusa maxi ri .
P∞ k ako su svi ri < 1 , onda je −
Posebno, r(A) < 1 , pa odgovarajući Neumannov red
1
k=1 A konvergira k matrici (I − A) . Vidi Teorem 2 u Odjeljku 5.3 gore. Tu
ćemo situaciju imati i u Odjeljku 5.8 niže, posvećenom nekim iterativnim metodama u
Linearnoj algebri.
5. MATRIČNE NORME , SPEKTAR I SPEKTRALNI RADIJUS MATRICE 27

5.7. Bauerov teorem o Cassinijevim ovalima

Uz pomoć Cassinijevih ovala njemački matematičar Bauer je godine 1946. dobio


zanimljivo poopćenje Geršgorinova teorema. Cassinijev oval definira se kao skup svih
točaka u kompleksnoj ravnini takav da je umnožak njihovih udaljenosti od dvije čvrste
točke jednak zadanoj konstanti. Ako su zadana dva kompleksna broja a1 i a2 , onda
Cassinijev oval čine svi kompleksni brojeva z za koje je
|z − a1 | · |z − a2 | = r2
gdje je r zadani pozitivan broj. Ako je a1 = a2 , dobivamo kružnicu polumjera r .
Ako je |a1 − a2 | < 2r , dobivamo povezanu zatvorenu krivulju u obliku kikirikija. Ako
je |a1 − a2 | = 2r , dobivamo krivulju koja se zove lemniskata, koja sliči na znak ∞ .
Za |a1 − a2 | > 2r Cassinijev oval se sastoji od dvije “jajaste” krivulje od kojih jedna
sadrži a1 a druga a2 . Pogledajte odgovarajuće izvore na mreži s pomoću ključnih
riječi Cassini ovals.
etna.mcs.kent.edu/vol.8.1999/pp15-20.dir/gershini.html
Skup svih z ∈ C za koje vrijedi nejednakost
|z − a1 | · |z − a2 | 6 r2
- zovemo Cassinijevim ovalom.
takoder
Uz zadanu matricu A , za naše potrebe definiramo sljedeće Cassinijeve ovale za
svaki par i 6= j :
Dij = {z ∈ C : |z − aii | · |z − ajj | 6 ri rj }.

Primijetimo da su i, j ∈ {1, . . . , n} , pa je broj tih ovala jednak najviše n2 = 12 n(n−1) .

Teorem 1. (Bauer, 1946) Neka je A kompleksna matrica reda n , n > 2 . Onda je


[
σ (A) ⊂ Dij .
i6=j

Drugim riječima, za svaku vlastitu vrijednost λ matrice A postoji neki Cassinijev oval
Dij u kojem je λ sadržan, tj.
|λ − aii | · |λ − ajj | 6 ri rj .

DOKAZ. Primijenit ćemo sličan postupak kao u dokazu Geršgorinova teorema, uz malu
izmjenu. Neka λ ∈ σ (A) i Ax = λ x , x 6= 0 . Možemo pretpostaviti da je kxk∞ = 1 ,
-
tj. |xj | 6 1 i postoji k takav daje xk = 1 (u suprotnom pronademo komponentu xk s
najvećom apsolutnom vrijednošću medu - komponentama od x , i zatim gledamo vlastiti
vektor x1k x umjesto x ).
Ako su svi xj = 0 za j 6= k , onda gledajući jednadžbu Ax = λ x na k -toj
komponenti dobivamo akk = λ . Prema tome je λ ∈ Dkl za bilo koji l 6= k , jer je
|λ − akk | = 0 .
Pretpostavimo da nisu svi xj = 0 za j 6= k , i neka je onda xl druga najveća
komponenta po apsolutnoj vrijednosti:
1 = xk > |xl | > 0, |xl | > |xj |,
Pn
za sve j 6= k . Gledajući k -tu koponentu u Ax = λ x dobivamo j=1 akj xj = λ xk .
Oduzimajući akk xk s lijeva i desna dobivamo
Xn
(λ − akk )xk = akj xj . (1)
j=1
j6=k

Na isti način, gledajući l -tu komponentu u Ax = λ x dobivamo


n
X
(λ − all )xl = alj xj . (2)
j=1
j6=l

Uzimajući apsolutnu vrijednost u (1) i rabeći xk = 1 dobivamo


Xn n
X
|λ − akk | 6 |akj xj | 6 |akj ||xl | = rk |xl |.
j=1 j=1
j6=k j6=k

Iz (2) slijedi zbog |xj | 6 1 za sve j ,


n
X n
X
|λ − all | · |xl | 6 |alj xj | 6 |alj | = rl .
j=1 j=1
j6=l j6=l

Množenjem prethodnih dviju nejednakosti, i zatim skraćivanjem s |xl | > 0 , dobivamo


|λ − akk | · |λ − all | 6 rk rl .
Nije teško vidjeti da je Bauerov teorem doista bolji od Geršgorinova. Vrijedi naime
Dij ⊆ Di ∪ Dj ,
odakle slijedi da je σ (A) ⊆ ∪i,j Dij ⊆ ∪i Di , tj. Bauerov teorem daje bolju lokalizaciju
spektra nego Geršgorinov.
Da bi dokazali gornju inkluziju, neka je z ∈ Dij , tj. |z − aii | · |z − ajj | 6 ri rj .
Pretpostavimo da z ∈ / Di (u suprotnom nemamo što dokazivati), tj. |z − aii | > ri .
Onda je
ri |z − ajj | 6 |z − aii | · |z − ajj | 6 ri rj ,
odakle (uz pretpostavku ri 6= 0 ) slijedi |z − ajj | 6 rj , tj. z ∈ Dj . Ako je ri = 0 , onda
je z = ajj ∈ Dj .
28 5. MATRIČNE NORME , SPEKTAR I SPEKTRALNI RADIJUS MATRICE

5.8. Jacobijeva i Gauss–Seidelova iterativna metoda

Da bismo ukratko motivirali iterativnu metodu (uzastopnih aproksimacija), neka


je zadana bilo koja diferencijabilna funkcija f : R → R (ne nužno linearna), za koju
postoji broj q ∈ (0, 1) takav da je ispunjen uvjet kontrakcije (ili sažimanja):
|f ′ (x)| 6 q za sve x ∈ R .
Vrlo je lako uvjeriti se (crtanjem grafova funkcija y = f (x) i y = x ) da jednadžba
fiksne točke, f (x) = x , posjeduje točno jedno rješenje. To rješenje zovemo fiksnom
točkom funkcije f .

Sl. 5.1. Funkcija f : R → R ko-


ja je kontrakcija.

Doista, budući da f ne raste brže od pravca y = x , onda se njihovi grafovi sigurno


sijeku u fiksnoj točki od f . (Taj rezultat je specijalan slučaj puno općenitijeg Banachova
teorema o fiksnoj točki.) Štoviše, do tog se rješenja može doći tako da odaberemo bilo
koju početnu iteraciju x0 ∈ R , te zatim konstruiramo slijed realnih brojeva (xk )k>0
definiran sa
xk+1 = f (xk ), k = 0, 1, 2, . . .
Vrlo lako je zaključiti da svaki takav slijed konvergira prema fiksnoj točki. Iz tog
razloga članove navedenog slijeda zovemo sukcesivnim (uzastopnim) aproksimacijama
fiksne točke. Razlog zašto se gore navedeni uvjet zove uvjetom kontrakcije, vidljiv
je odmah iz Lagrangeova teorema o srednjoj vrijednosti: za sve realne brojeve a i b
- f (a) i f (b)
vrijedi |f (b) − f (a)| = |f ′ (ξ )(b − a)| 6 q|b − a| , tj. udaljenost izmedu
se smanjila u odnosu na udaljenost izmedu - a i b.
-
Prijedimo sada na jedan problem iz Linearne algebre.
Pretpostavimo da nam imamo linearni sustav Ax = b s regularnom kvadratnom
matricom A , gdje je vektor b na desnoj strani zadan, a x je nepoznanica. Pretpos-
tavimo da su svi dijagonalni elementi aii različiti od nula. Prva jednadžba u sistemu
Ax = b glasi a11 x1 + a12 x2 + . . . + a1n xn = b1 . Iz nje izračunamo x1 :
a12 a13 a1n b1
x1 = − x2 − x3 − . . . − xn + .
a11 a11 a11 a11
Iz druge jednadžbe izračunamo x2 ,
a21 a23 a2n b1
x2 = − x1 − x3 − . . . − xn + .
a22 a22 a22 a22
itd. do xn . Na taj način dolazimo do sistema oblika
x = Tx + b′
koji je ekvivalentan s Ax = b . Novi sistem je zapisan kao problem nalaženja fiksne
točke funkcije F : Rn → Rn zadane sa F(x) = Tx + b′ , tj. u obliku x = F(x) .
Rješenje jednadžbe x = Tx + b′ nalazimo Jacobijevom iterativnom metodom:
x(k+1) = Tx(k) + b′
x(0) = 0.
Zapravo, za početnu vrijednost x(0) možemo uzeti bilo koji vektor iz Cn , ne nužno 0 .
Drugim riječima, računamo slijed vektora u Cn : x(0) , x(1) = F(x(0) ) , x(2) = F(x(1) )
itd. Uz neke vrlo općenite uvjete može se postići da taj slijed konvergira točno prema
rješenju jednadžbe x = F(x) , tj. x = Tx + b′ , tj. Ax = b .
Mala varijacija Jacobijeve metode jest Gauss-Seidelova iterativna metoda. Opi-
šimo ju na primjeru rješavanja sistema tri jednadžbe s tri nepoznanice. Najprije,
Jacobijeva metoda opisana je sa
(k+1) (k) (k) (k)
x1 = t11 x1 + t12 x2 + t13 x3 + b′1
(k+1) (k) (k) (k)
x2 = t21 x1 + t22 x2 + t23 x3 + b′2
(k+1) (k) (k) (k)
x3 = t31 x1 + t32 x2 + t33 x3 + b′3 ,
(k+1)
gdje su svi tii = 0 . Kao što vidimo, u trenutku dok prelazimo na računanje x2 ,
(k+1)
vrijednost x1 je već poznata. Stoga nju uvrštavamo u desnu stranu druge jednadžbe
(k) - (k+1)
umjesto x1 . Na sličan način, prije nego prijedemo na računanje x3 , vrijednosti
(k+1) (k+1)
x1 i x2 su poznate, pa u desnu stranu uvrštavamo te dvije vrijednosti:
(k+1) (k) (k) (k)
x1 = t11 x1 + t12 x2 + t13 x3 + b′1
(k+1) (k+1) (k) (k)
x2 = t21 x1 + t22 x2 + t23 x3 + b′2
(k+1) (k+1) (k+1) (k)
x3 = t31 x1 + t32 x2 + t33 x3 + b′3 .
Često je konvergencija Gauss-Seidelove metode brža od Jacobijeve, ali ne uvijek.
Može se dogoditi da za neki sistem Jacobijeva metoda konvergira, a Gauss-Seidelova
divergira, i obratno.
Da bismo točno opisali matricu T u ovisnosti od A , rastavimo najprije matricu A
na zbroj L + D + U , gdje je
(a) D dijagonalni dio od A , tj. matrica s brojevima aii na dijagonali,
(b) matrica L je dolnji trokutasti dio od A , tj. elementi su joj aij za j < i , ostali nula,
(c) matrica U je gornji trokutasti dio od A , tj. elementi su joj aij za j > i , ostali nula.
Pogledajmo primjer rastava A = L + D + U :
       
2 3 0 0 2 0 0 3
1 4 = 1 0 + 0 4 + 0 0 .

Teorem 1. Neka je A kvadratna matrica. (a) Jacobijeva iterativna metoda konvergira


k rješenju jednadžbe Ax = b za svaki b onda i samo onda ako je
r(D−1 (L + U)) < 1,
gdje je r(·) spektralni radijus matrice.
(b) Gauss-Seidelova iterativna metoda konvergira k rješenju jednadžbe Ax = b
za svaki b onda i samo onda ako je
r((D + L)−1 U) < 1.

DOKAZ. (a) Jednadžbu Ax = b možemo zapisati kao (L + D + U)x = b , tj.


D̄ = −(L + U)x + b , tj. x = −D−1 (L + U)x + D−1 b . Uz oznake
T = −D−1 (L + U), b′ = D−1 b
ova jednadžba postaje x = Tx + b′ . Iz x(0) = 0 dobivamo x(1) = b′ , x(2) =
Tb′ + b′ = (T + I)b′ , x(3) = Tx(2) + b′ = T(T + I)b′ + b′ = (T2 + T + I)b′ , i dalje
induktivno, x(k) = (Tk−1 + . . . + T + I)b′ . Vidimo da slijed x(k) konvergira za sve b
onda i samo onda ako red I + T + T2 + . . . konvergira, a to će biti onda i samo onda
ako je r(T) < 1 .
(b) Promatrajući jednadžbu x = −D−1 (L + U)x + b′ , tj. x = −D−1 Lx −
D Ux + b′ , vidimo da Gauss-Seidelova metoda varijablama koje odgovaraju dol-
−1

njem trokutu u L pridjeljuje već izračunate vrijednosti. Prema tome je x(k+1) =


−D−1 Lx(k+1) − D−1 Ux(k) + b′ , tj. (I + D−1 L)x(k+1) = −D−1 Ux(k) + b′ . Da bi izra-
čunali x(k+1) , rabimo (I + D−1 L)−1D−1 = [D(I + D−1 L)]−1 = (D + L)−1 . Prema
tome je x = Tx + b′′ gdje je T = −(D + L)−1 U i b′′ = (D + L)−1 b′ . Slično kao u
(a), Gauss-Seidelova metoda konvergira onda i samo onda ako je r(T) < 1 .
Dijagonalna dominantnost matrice A osigurava konvergenciju obje metode.

Korolar 2. Neka je A dijagonalno dominantna matrica. Onda Jacobijeva i Gauss-


Seidelova metoda konvergiraju k rješenju problema Ax = b .
DOKAZ. Zbog tij = −aij /aii za i 6= j i tii = 0 , zbroj apsolutnih vrijednosti elemenata
u i -tom retku matrice T jednak je
X 1 X
|tij | = |aij |.
j
|aii | j=1
j6=i
P
Iz dijagonalne dominantnosti od A dobivamo
P j |tij | < 1 . Odatle slijedi da je i
kTk∞ = maxi j |tij | < 1 . Budući da je r(T) 6 kTk∞ < 1 , vidi Propoziciju 1 u
Odjeljku 5.1, tvrdnja slijedi iz Teorema 1.
Opišimo još i kriterij za zaustavljanje iterativne metode za rješavanje sistema
Ax = b .
U tu svrhu uvedimo pojam apsolutne i relativne pogreške za izračunavanje toč-
ne vrijednosti x rješenja nekog problema. Pretpostavimo da smo nekom iterativnom
metodom našli približnu vrijednost x(k) . Onda apsolutnom pogreškom zovemo iznos
kx − x(k) k . Relativnom pogreškom zovemo broj kx − x(k) k/kxk .
Za ilustraciju, ako imamo realan broj x = 2 i x(k) = 2.1 za neku iteraciju k , onda
je apsolutna pogreška 0.1 , a relativna 0.1/2 = 0.05 . Ako je x = 2000 i x(k) = 2000.1 ,
onda je apsolutna pogreška opet 0.1 , ali relativna pogreška (tj. pogreška s obzirom na
točan iznos) je mnogo manja: 0.1/2000 = 0.00005 .
Razumije se, u konkretnom problemu relativnu pogrešku ne možemo izračunati
jer unaprijed ne znamo točnu vrijednost x . Stoga se relativna pogreška zamjenjuje s
izrazom
kx(k) − x(k−1) k
kx(k) k
koji ne ovisi o x . Slijed iteracija x(k) računamo sve dok taj kvocjent ne bude manji od
nekog zadanog (malog) broja ε > 0 . Za taj k ne možemo na žalost reći koliko je x(k)
udaljen od točnog rješenja x .
Ukoliko je matrica A u problemu Ax = b dijagonalno dominantna, onda možemo
procijeniti apsolutnu pogrešku k -te iteracije Jacobijeve metode, tj. kx(k) −xk∞ . Primi-
jetite da je taj iznos maksimum odgovarajućih apsolutnih pogrešaka po komponentama,
(k)
tj. maxi |xi − xi | , gdje je x = (x1 , . . . , xn )⊤ točno rješenje problema.

Teorem 3. (Točna procjena pogreške aproksimacije) Neka je matrica A u problemu


Ax = b dijagonalno dominantna. Onda za k -tu iteraciju x(k) Jacobijeve metode (1)
vrijedi ocjena
kTk∞
kx(k) − xk∞ 6 kx(k) − x(k−1) k∞ ,
1 − kTk∞
gdje je T = −D−1 (L + U) . Ako je zadana točnost ε > 0 , onda slijed x(k) računamo
sve dok ne bude kx(k) −x(k−1) k∞ 6 (1−kTk∞ )ε /kTk∞ . Za taj k je kx(k) −xk∞ 6 ε ,
gdje je x točno rješenje problema Ax = b .

DOKAZ. Pokažimo da je x(k) Cauchyjev slijed u Rn . Računamo normu od x(k+p) −


x(k) = (x(k+p) − x(k+p−1) ) + (x(k+p−1) − x(k+p−2) ) + . . . + (x(k+1) − x(k) ) . Radi kratkoće
pišemo samo kTk umjesto kTk∞ . Rabeći nejednakost trokuta dobivamo da je
kx(k+p) − x(k) k 6 kx(k+p) − x(k+p−1) k
+ kx(k+p−1) − x(k+p−2) k + . . . + kx(k+1) − x(k) k.
Zbog x(m+1) = Tx(m) + b′ je najprije kx(k+1) − x(k) k = kT(x(k) − x(k−1) )k 6
kTkkx(k) − x(k−1) k . Za sljedeći član je kx(k+2) − x(k+1) k = kT(x(k+1) − x(k) k 6
kTkkx(k+1) − x(k) k 6 kTk2 kx(k) − x(k−1) k , i slično dalje.
Prema tome je
kx(k+p) − x(k) k 6 (kTkp + . . . + kTk2 + kTk) kx(k) − x(k−1) k
= kTk(1 + kTk + kTk2 + . . . + kTkp−1 ) kx(k) − x(k−1) k
6 kTk(1 + kTk + kTk2 + . . .) kx(k) − x(k−1) k (2)
kTk
6 kx(k) − x(k−1) k.
1 − kTk
Zbog kx(k) − x(k−1) k 6 kTkk−1 kx(1) − x(0) k je
kTk
kx(k+p) − x(k) k 6 kTkk−1 kx(1) − x(0) k
1 − kTk
Time je pokazano da je x(k) Cauchyjev slijed vektora u Rn , jer zbog kTk < 1 desna
strana teži u nulu kad k → ∞ , neovisno o p . Budući da je Rn potpun vektorski prostor
(tj. Banachov prostor), onda taj slijed konvergira. Tražena ocjena u teoremu dobiva se
iz (2) tako da pustimo p → ∞ .
Primijetimo da je jednadžba x = Tx + b′ ekvivalentna s (I − T)x=b′ , tj.
x = (I − T)−1 b′ , tj. x = (I + T + T2 + . . .)b′ , što smo već vidjeli iterativnim
postupkom. Dobiveni matrični red konvergira jer mu je spektralni radijus manji od 1 ,
tj. r(T) < 1 .
Matrica A može biti takva da pripadne Jacobijeva i Gauss-Seidelova metoda za
problem Ax = b obje konvergiraju, a da sama matrica A nije dijagonalno dominantna.

Primjer 10. Matrica  


2 3
A= 1 4
nije dijagonalno dominantna. S druge strane, za nju je A = L + D + U uz
     
0 0 2 0 0 3
L= 1 0 , D= 0 4 , U= 0 0 .

Zbog
   
−1 0 3/2 −1 0 3/2
T = D (L + U) = 1/4 0 , (D + L) U = 0 −3/8 ,
p p
je spektar prve matrice
p { 3/8, − 3/8} , a druge {0, −3/8} . Prema tome je
r(D−1 (L + U)) = 3/8 < 1 i r((D + L)−1 U) = 3/8 < 1 , pa Jacobijeva i Gauss-
Seidelova metoda za problem Ax = b konvergiraju za svaki b . Primijetite da je u oba
slučaja kTk∞ = 3/2 > 1 .

Primjer 11. Pogledajmo primjer matrice A za koju Jacobijeva metoda za problem


Ax = b konvergira za svaki b , a Gauss-Seidelova metoda ne konvergira za barem
jedan b , jest " #
1 0 1
A = −1 1 0
1 2 −3
Za nju je A = L + D + U uz
" # " # " #
0 0 0 1 0 0 0 0 1
L = −1 0 0 , D= 0 1 0 , U= 0 0 0 .
1 2 0 0 0 −3 0 0 0
Nakon malog računa dobivamo da matrica
" #" # " #
1 0 0 0 0 1 0 0 −1
T = −D−1 (L+U) = − 0 1 0 · −1 0 0 = 1 0 0
0 0 −1/3 1 2 0 1/3 2/3 0
koja odgovara Jacobijevoj metodi ima karakteristični polinom κ (λ ) = λ 3 − 13 λ + 23 .
Vlastite vrijednosti su λ1 ≈ −0.747 , λ2 ≈ −0.374 − 0.867i i λ3 ≈ −0.374 + 0.867i ,
pa je spektralni radijus jednak r(T) = max{|λ1 |, |λ2 |, |λ3 |} < 1 . Odatle slijedi da
Jacobijeva metoda konvergira.
S druge strane, za matricu
" #
0 0 −1
T = −(D + L)−1 U = . . . = 0 0 −1 ,
0 0 −1
koja odgovara Gauss-Seidelovoj metodi, dobivamo vlastite vrijednosti λ1,2 = 0 ,
λ3 = −1 . Prema tome je r(T) = 1 , pa postoji barem jedan b′ ∈ Rn za koji
Gauss-Seidelov slijed iteracija za jednadžbu x = Tx + b′ ne konvergira.
5. MATRIČNE NORME , SPEKTAR I SPEKTRALNI RADIJUS MATRICE 29

5.9. Matrična analiza za linearne diferencijalne jednadžbe

Linearna nehomogena (homogena) jednadžba višeg reda može se uvijek svesti na


vektorsku linearnu nehomogenu (homogenu) jednadžbu prvog reda. Pogledajmo jedan
primjer diferencijalne jednadžbe četvrtog reda:
d4 u du
4
+ et − tu = sin t.
dt dt
U njoj je nepoznanica funkcija u = u(t) realne varijable t , tj. traže se funkcije u(t)
koje tu jednadžbu ispunjavaju za sve t na nekom zadanom intervalu u R . Uvodimo
nove funkcije od t , njih četiri:
du d2 u d3 u
x1 := u, x2 =
, x3 = 2 , x4 = 3 .
dt dt dt
Drugim riječima, broj novih funkcija jednak je maksimalnoj derivaciji u početnoj jed-
nadžbi. Zadnja funkcija x4 odgovara maksimalnoj derivaciji umanjenoj za jedan.
Deriviranjem novih funkcija dobivamo linearni sistem u kojem se pojavljuju samo prve
derivacije:  dx

 dt
1
= x2


 dx2 = x3
dt
 dx3

 dt = x4

 dx4
dt = tx1 − et x2 + sin t,
d4 u
jer je dxdt4 = dt4 = sin t − et du
dt + tu . Taj sistem možemo napisati sažeto u matričnom
obliku
dx
= A(t)x(t) + f(t),
dt
tj. kao vektorsku diferencijalnu jednadžbu prvog stupnja, gdje je
     
x1 (t) 0 1 0 0 0
 x (t)   0 0 1 0   0 
x = x(t) =  x2 (t)  , A(t) =  0 0 0 1  , f(t) =  0  .
3
x4 (t) t −et 0 0 sin t
Pogledajmo sada kako riješiti nehomogenu vektorsku jednadžbu prvog stupnja
x′ = A(t)x(t) + f(t) , gdje je x(t) ∈ Rn tražena funkcija, s početnim uvjetom
x(0) = x0 ∈ Rn . Problem nalaženja vektorske funkcije x(t) iz zadane diferenci-
jalne jednadžbe prvog reda po x(t) , i početnog uvjeta za t = 0 , zove se Cauchyjev
problem.
Označimo sa e1 , . . . , en kanonsku bazu u Rn , i pogledajmo pomoćni, homogen
Cauchyjev problem u Rn :
duj
= A(t) uj (t)
dt
uj (0) = ej .
Zašto je od interesa znati rješenja uj (t) ? U tom se slučaju svako rješenje x(t) vektor-
skog Cauchyjeva problema
x′ (t) = A(t)x(t)
x(0) = c ∈ Rn ,
gdje je c = c1 e1 + . . . + cn en , može napisati u obliku x(t) = c1 u1 (t) + . . . + cn un (t) .
Drugim riječima, rješenje Cauchyjeva problema dobiva se kao linearna kombinacija
funkcija uj (t) s koeficijentima koji predstavljaju komponente početnog uvjeta.
Formirajmo sada matricu reda n ,
X(t) := [u1 (t), . . . , un (t)],
čiji j -ti stupac je uj (t) . Gornjih ukupno n vektorskih homogenih Cauchyjevih pro-
blema po uj (t) (za j = 1, . . . , n ) može se sažeto zapisati kao jedan jedini matrični
homogen Cauchyjev problem po X(t) :
X′ (t) = A(t) X(t)
X(0) = I.
Primijetite da je I = [e1 , . . . , en ] . Ako imamo rješenje X(t) ovog matričnog, homoge-
nog Cauchyjeva problema, onda imamo odmah i funkcije uj (t) : to su upravo stupci od
X(t) . Štoviše, vrijedi ova propozicija.

Propozicija 1. Neka je x(t) rješenje vektorskog Cauchyjeva problema x′ (t) = A(t)x(t) ,


x(0) = c ∈ Rn . Onda je
x(t) = X(t) c.

DOKAZ. Doista, vrijedi X(t) c = c1 u1 (t) + . . . + cn un (t) , gdje su uj (t) stupci matrice
X(t) , a cj komponente vektora c ∈ Rn .
Drugi, izravni način da se to pokaže je jednostavan račun. Za x(t) = X(t) c vrijedi
x′ (t) = X′ (t) c = A(t)X(t) c = A(t)x(t), x(0) = X(0) c = Ic = c.
Može se pokazati da su rješenja X(t) , odnosno x(t) , za odgovarajuće Cauchyjeve
probleme jedincata.
Matrica X(t) ima zbog svoje važnosti poseban naziv: zove se fundamentalna ma-
trica (ili fundamentalno rješenje) Cauchyjeva problema X′ = A(t) X(t) , X(0) = I .
U uporabi je još jedan sugestivan naziv: evolucijska matrica.
Što je zapravo matrica X(t) ? Na to pitanje možemo odgovoriti u slučaju kad je
A(t) konstantna matrična funkcija, tj. A . Najprije, u jednodimenzionalnom slučaju
kad je A = a ∈ R , rješenje problema x′ = ax , x(0) = 1 , je x(t) = eat .

Propozicija 2. Ako je A konstantna matrica, onda je fundamentalno rješenje od-


govarajućeg homogenog Cauchyjeva problema X′ (t) = AX(t) , X(0) = I , jednako
eksponencijalnoj funkciji matrice At , tj.
A2 t2
X(t) = eAt = I + At +
+ ....
2!
Drugim riječima, Cauchyjev problem x′ (t) = Ax(t) , x(0) = x0 , ima jednoznačno
-
odredeno rješenje x(t) = eAt x0 za sve t ∈ R .

DOKAZ. Za matričnu funkciju t 7→ eAt prema pravilu za derivaciju složene funkci-


je imamo (eAt )′ = eAt A = AeAt (naime, matrice A i eAt komutiraju radi eAt =
2 2
I + At + A2!t + . . . ). Prema tome je x′ (t) = (eAt x0 )′ = (eAt )′ x0 = AeAt x0 = Ax(t) .

U slučaju kad matrica A(t) nije konstantna, nalaženje odgovarajuće fundamental-


ne matrice X(t) nije jednostavno. Tim problemom se ovdje nećemo baviti.
U slučaju kada rješavamo običnu nehomogenu linearnu diferencijalnu jednadžbu
prvog stupnja s početnim uvjetom (tj. Caućyjev problem)
y′ (t) = a(t)y(t) + f (t)
y(0) = y0 ,
gdje je y = y(t) nepoznata realna funkcija koju tražimo, a = a(t) i f = f (t) zadane
funkcije i y0 zadan realan broj (početni uvjet), onda je rješenje Caućyjeva problema
jednako  Z t Rs 
Rt
a(s) ds − a(σ ) d σ
y(t) = e 0 y0 + e 0 f (s) ds .
0

Primijetimo da je fundamentalno rješenjeRza taj problem, tj. rješenje problema X′ (t) =


t
a(s) ds
a(t)X(t) , X(0) = 1 , jednako X(t) = e 0 . Zanimljivo je da sličan rezultat vri-
jedi i za vektorsku nehomogenu linearnu diferencijalnu jednadžbu prvog stupnja. U
sljedećem teoremu radi jednostavnosti pretpostavljamo da su neke vektorske funkcije
neprekinute, iako je jasno da se taj uvjet može znatno oslabiti.

Teorem 3. Neka je A(t) zadana neprekinuta matrična funkcija, f(t) ∈ Rn zadana


neprekinuta vektorska funkcija, i y0 ∈ Rn zadana početna vrijednost. Rješenje odgo-
varajućeg nehomogenog linearnog Cauchyjeva problema
y′ (t) = A(t)y(t) + f(t)
y(0) = y0
jednako je  Z  t
y(t) = X(t) y0 + X−1 (s)f(s) ds .
0

gdje je X(t) fundamentalna matrica homogenog Cauchyjeva problema X′ = A(t)X(t) ,


X(0) = I . Posebno, ako je A(t) konstantna matrica A , onda je rješenje odgovarajućeg
Cauchyjeva problema y′ = Ay(t) + f(t) i y(0) = y0 , jednako
Z t
y(t) = eAt y0 + eAt e−As f(s) ds.
0
tj. Z t
y(t) = eAt y0 + eA(t−s) f(s) ds.
0

DOKAZ. Može se pokazati da je matrica X(t) uvijek regularna. Uvedimo novu funkciju
z(t) sa y(t) = X(t)z(t) , tj. z(t) = X(t)−1 y(t) . Onda je
y′ = X′ z + Xz′ .
P P P
Doista, i -ta koponenta vektora y je yi = j Xij zj , dakle y′i = j Xij′ zj + j Xij z′j .
Zbog y′ = A(t)y + f(t) vrijedi X′ z + Xz′ = A(t)Xz + f , dakle R t Xz

= f , tj.
′ −1 −1
z = X f . Integriranjem od 0 do t dobivamo z(t) − z(0) = 0 X (s)f(s) ds .
Budući da je Ry(t) = X(t)z(t) , onda je y0 = X(0)z(0) = Iz(0) = z(0) , pa imamo
t
z(t) = y0 + 0 X−1 (s)f(s) ds . Tvrdnja slijedi množenjem ove jednakosti s X(t) s
lijeva.

Primjer 12. Pogledajmo Cauchyjev problem y′ = Ay + f(t) , y(0) = y0 , u slučaju


kad je      
0 −1 0 1
A= , f(t) = , y0 = .
1 0 e−t 0
Drugim riječima, radi se o Cauchyjevu problemu
 ′          
y1 0 −1 y1 0 y1 (0) 1
y′2 = + , = .
1 0 y2 e−t y2 (0) 0
tj.
y′1 = −y2
y′2 = y1 + e−t
y1 (0) = 1
y2 (0) = 0.
Znajući da je
   
At cos t − sin t A(t−s) cos(t − s) − sin(t − s)
e = sin t cos t , dakle e = sin(t − s) cos(t − s) ,
Rt
iz y(t) = eAt y0 + 0 eA(t−s) f(s) ds dobivamo
     Z t  
y1 cos t − sin t 1 cos(t − s) − sin(t − s) 0
= 0 + 0 ds,
y2 sin t cos t sin(t − s) cos(t − s) e−s
tj.     Z t 
y1 cos t − sin(t − s) · e−s
= + ds,
y2 sin t 0
cos(t − s) · e−s
tj.
Z t
1
y1 (t) = cos t − sin(t − s) · e−s ds =
(3 cos t − sin t − e−t )
0 2
Z t
1
y2 (t) = sin t + cos(t − s) · e−s ds = (3 sin t + cos t − e−t ).
0 2
U zadnja dva integrala smo dvaput rabili parcijalnu integraciju (ili se pomognemo s
nekim od simboličkih matematičkih alata).
-
R t −Još jednostavniji
i(t−s) −s
R t način da prijedemo
−i(t−s)−s
na računanje kompleksnog integrala F(t) :=
0
e e ds = 0
e ds , te nakon što (izravno!) izračunamo zadnji integral,
u prvom integralu samo odvojimo realni i imaginarni dio od F(t) s pomoću Eulerove
formule: e−i(t−s) = cos(t − s) + i sin(t − s) . Točnije,
Z t
e−s(i+1) s=t e−it
F(t) = e−it e−s(i+1) ds = e−it |s=0 = (1 − e−t(1+i) ),
0 −(i + 1) i + 1
Rt Rt
pa je 0 cos(t − s) · e−s ds = F( t) , a 0 sin(t − s) · e−s ds = F(t) .
Zanimljivo je primijetiti da parametarski zadana krivulja (y1 (t), y2 (t)) , gdje
je t > 0 , predstavlja spiralu koju se svi više približava krivulji (z1(t), z2 (t)) :=
( 21 (3 cos t − sin t), 12 (3 sin t + cos t)) , koja je najobičnija kružnica: z21 + z22 = 5/2 .
Ta kružnica na koju se spirala namata kada t → +∞ zove se granični ciklus.

-
Primjer 13. Nadimo fundamentalnu matricu X(t) matrice
 
−7 4
A= −8 1 .

Nultočke karakterističnog polinoma κ (λ ) = det (λ I − A) su λ1,2 = −3 ± 4i . Pre-


-
ma tome, matrica A je stabilna. vlastite vrijednosti su medusobno različite, pa je
matrica A slična dijagonalnoj matrici D = diag (λ1 , λ2 ) . Rješavajući jednadžbu
(λ I − A)v = 0 dobivamo da su vlastiti podprostori razapeti vektorima v1 = [1, 1 + i]⊤
i v2 = [1, 1 − i]⊤ . Time dolazimo do matrice
 
1 1
T = [v1 , v2 ] = 1 + i 1 − i

koja dijagonalizira matricu A , tj. T−1 AT = D . Zbog A = TDT−1 i


 
−1 1 1 + i −i
T =
2 1−i i
dobivamo da je
   (−3+4i)t   
At D t −1 1 1 e 0 1 1+i −i
e = Te T = 1 + i 1 − i (−3−4i)t
0 e 2 1−i i
Rabeći Eulerov identitet eiϕ = cos ϕ + i sin ϕ dobivamo nakon malog računa:
 
At −3t cos 4t − sin 4t sin 4t
e =e −2 sin 4t cos 4t + sin 4t .
Pretpostavimo da je zadan Cauchyjev problem oblika x′ (t) = Ax(t) , x(0) = x0 , gdje
je x(t) = [x1 (t), x2 (t)]⊤ , matrica A kao na početku ovog primjera, i x0 = [1, 0]⊤ .
Drugim riječima, promatramo dinamički sistem opisan sustavom dviju autonomnih
diferencijalnih jednačaba u ravnini,
x′1 (t) = −7x1 (t) + 4x2 (t)
x′2 (t) = −8x1 (t) + x2 (t)
s početnim uvjetima x1 (0) = 1 i x2 (0) = 0 . Rješenje tog Cauchyjevog problema
jednako je x(t) = eAt x0 , tj.
x1 (t) = e−3t (cos 4t − sin 4t)
x2 (t) = −2e−3t sin 4t.
Budući da e−3t → 0 kad t → +∞ , a sinus i kosinus su cijelo vrijeme omede- -
ni, onda x1 (t) → 0 i x2 (t) → 0 kad t → +∞ . Drugim riječima, trajektorija
x(t) = [x1 (t), x2 (t)]⊤ je stabilna, u smislu da teži k 0 kad t → +∞ . To je u vezi s
činjenicom da je matrica A stabilna, jer obje vlastite vrijednosti λ1,2 imaju negativne
realne dijelove, tj. leže lijevo od imaginarne osi u Gaussovoj ravnini.

Primjer 14. Zadan je sustav diferencijskih (ili rekurzivnih) jednačaba


uk+1 = −7uk + 4vk
vk+1 = −8uk + vk ,
gdje je k = 0, 1, 2, . . . , a sljedovi realnih brojeva (uk ) i (vk ) su nepoznanice, koje
interpretiramo kao diskretne trajektorije, tj. (uk , vk ) je diskretna trajektorija u ravnini.
Indeks k interpretiramo kao (diskretno) vrijeme. Pretpostavimo da je početni položaj
(u0 , v0 ) zadan. Problem je naći uk i vk u zatvorenoj formi, tj. kao eksplicine funkcije
od k .
Označimo li sa xk = (uk , vk )⊤ , onda gornji sistem diferencijskih jednačaba mo-
žemo zapisati kratko u vektorskom obliku:
xk+1 = Axk , k = 0, 1, 2, . . .
gdje je A matrica iz prethodnog primjera. Uz zadani x0 = (u0 , v0 )⊤ ∈ R2 vrijedi
xk = Ak x0 .
Doista, x1 = Ax0 , x2 = Ax1 = A2 x0 , itd. Budući da je A = TDT−1 , onda je
Ak = TDk T−1 , pa slijedi xk = Ak x0 = TDk T−1 x0 , tj.
       
uk 1 1 (−3 + 4i)k 0 1 1 + i −i u0
vk = 1 + i 1 − i 0 (−3 − 4i)k 2 1 − i i v0 .
Nakon kratkog računa dobivamo
1   
uk = (1−i)(−3+4i)k +(1−i)(−3−4i)k u0 + −i(−3+4i)k +i(−3−4i)k v0
2
1   
vk = 2i(−3+4i)k −2i(−3−4i)k u0 + (1−i)(−3+4i)k +(1+i)(−3−4i)k v0 .
2
Primijetite da su uk i v√k realni brojevi, iako su izraženi s pomoću kompleksnih brojeva.
Budući da je r(A) = 32 + 42 = 5 > 1 , onda neće vrijediti da Ak → 0 , vidi Teorem
2.3. Dakle postoji x0 ∈ R2 za koji Ak x0 ne konvergira k 0 .
30 5. MATRIČNE NORME , SPEKTAR I SPEKTRALNI RADIJUS MATRICE

5.10. Varijacijska karakterizacija vlastitih vrijednosti


hermitske matrice

Pretpostavimo da je zadana kvadratna matrica A s kompleksnim koeficijentima.



Podsjetimo se, matricu A∗ = A zovemo hermitski adjungiranom matricom od A .
Na pr.
   ⊤  
1−i i ∗ 1+i −i 1+i 1
A= 1 1+i =⇒ A = 1 1−i = −i 1−i .
Za matricu A kažemo da je hermitska ako je A∗ = A . Za matrice A s realnim
koeficijentima pojam hermitske matrice se podudara s pojmom simetrične matrice.
Neka je A hermitska matrica reda n . Kao što znamo, onda su sve vlastite vrijed-
nosti λ1 , . . . , λn od A realne, i postoji ortonormirana baza (realnih) vlastitih vektora
{e1 , . . . , en } od A . Možemo bez gubitka općenitosti uzeti da su vlastite vrijednosti
poredane u opadajućem slijedu, tj.
λ1 > λ2 > . . . > λn .
Zbog Aek = λk ek i kek k = 1 je λk = (Aek | ek ) . Stoga je prirodno promatrati
kvadratnu formu f (x) = (Ax | x) definiranu za x takve da je kxk = 1 , tj. za x iz
(n − 1) -dimenzionalne jedinične sfere u Rn sa središtem u ishodištu.

Teorem 1. (Varijacijska karakterizacija vlastitih vrijednosti hermitske matrice) Neka


je A hermitska matrica, tj. A∗ = A . (a) Onda je
λ1 = maxn (Ax | x),
x∈R
kxk=1

i maksimum se dostiže točno kada je x vlastiti vektor matrice A koji pripada vlastitoj
vrijednosti λ1 .
-
(b) Takoder,
(Ax | x)
λ1 = max .
x6=0 kxk2

DOKAZ. (a) Odaberimo x ∈ Rn takav da je kxk = 1 . Budući da vektori ek čine


ortonormiranu bazu u Rn , vrijedi
x = (x | e1 )e1 + . . . + (x | en )en ,
i |(x | e1 )|2 + . . . + |(x | en )|2 = 1 zbog (x | x) = 1 . Iz Aek = λk ek slijedi
Ax = λ1 (x | e1 )e1 + . . . + λn (x | en )en , dakle
(Ax | x) = λ1 |(x | e1 )|2 + . . . + λn |(x | en )|2 6 λ1 |(x | e1 )|2 + . . . + λ1 |(x | en )|2 = λ1 .
Time je dokazano da je λ1 > (Ax | x) za sve x ∈ Rn takve da je kxk = 1 . Još
treba samo vidjeti da postoji neki x čija norma je jedan, za koji vrijedi λ1 = (Ax | x) .
Dovoljno je uzeti x = e1 , jer onda imamo (Ae1 | e1 ) = (λ1 e1 | e1 ) = λ1 .
(b) Tvrdnja slijedi iz (a), jer u izrazu
 
(Ax | x) x x
= A |
kxk2 kxk kxk
je vektor x/kxk jedinični.
Razlomak
(Ax | x)
R(x) :=
kxk2
zove se Rayleighov kvocijent.
Ponekad je zgodno Teorem 1(b) sročiti u ovom obliku.

Korolar 2. Ako je A hermitska matrica i λ1 njena najveća vlastita vrijednost, onda za


sve x ∈ Rn vrijedi
(Ax | x) 6 λ1 kxk2 .
Konstanta C = λ1 je najmanja konstanta za koju vrijedi (Ax | x) 6 Ckxk2 za sve x .
Pozitivno semidefinitne i pozitivno definitne matrice imaju sličnu ulogu kao nene-
negativni ( > 0 ) i pozitivni brojevi ( > 0 ) medu- svim realnim brojevima. Pokazuje se
da za svaku pozitivno semidefinitnu matricu A postoji jednoznačno odredena- pozitivno
2
semidefinitna matrica√ B takva da je B = A . Matrica B zove se drugi korijen iz A ,
i označava sa B = A ili A1/2 .

Korolar 3. Neka je A hermitska matrica.


a) A je pozitivno semidefinitna onda i samo onda ako je λi > 0 za sve i . U tom
slučaju je spektralna norma jednaka najvećoj vlastitoj vrijednosti od A , tj.
kAk2 = λ1 ,
gdje λ1 najveća vlastita vrijednost od A : λ1 > λ2 > . . . > λn (> 0) .
b) A je pozitivno definitna onda i samo onda ako je λi > 0 za sve i . Ako je λn
najmanja vlastita vrijednost od A , onda za sve x ∈ Rn vrijedi
(Ax | x) > λn kxk2 .
Konstanta C = λn je najveća konstanta sa svojstvom da za sve x vrijedi
(Ax | x) > Ckxk2 , tj.
(Ax | x)
λn = min .
x6=0 kxk2

DOKAZ. a) Ako je A > 0 , onda je λi = (Aei | ei ) > 0 za sve i . Obratno, ako je


λi > 0 za sve i , onda iz rastava x = x1 e1 + . . . + xn en po volji odabranog vektora x
dobivamo X X X
(Ax | x) = ( λi xi ei | xi ei ) = λi |xi |2 > 0.
i i i

Da bismo dokazali λ1 = kAk , odaberimo bilo koji jedinični vektor x . Onda je


(Ax | x) 6 kAxk · kxk 6 kAk · kxk2 = kAk,
gdje smo rabili nejednakost CSB. Uzimajući u gornjoj nejednakosti maksimum po svim
jediničnim vektorima x dobivamo prema Teoremu 1 da je kAk 6 λ1 . Da bi dokazali
obratnu nejednakost, za jedinični vektor x gledamo
X X X X
kAxk2 = kA( xi ei )k2 = k λi xi ei k2 = λi2 |xi |2 6 λ12 |xi |2 = λ12 ,
i i i i
gdje smo rabili da je λ1 najveća vlastita vrijednost. Prema tome je kAxk 6 λ1 , pa
uzimajući maksimum po svim jediničnim vektorima x dobivamo kAk 6 λ1 .
b) Tvrdnja slijedi odmah iz dokaza provedenog u a).
Pokazuje se da je hermitska matrica A = (aij ) pozitivno definitna onda i samo
onda ako su sve glavne minore od A pozitivne, tj.,

a11 . . . a1n
a11 a12 . .. > 0.
a11 > 0, a a22
> 0, . . . , .
. .
21 a
n1 . . . a nn

U primjenama (na pr. u teoriji antena) od koristi je sljedeći rezultat o tzv. gene-
raliziranim vlastitim vrijednostima λ koja rješavaju problem Ax = λ Bx , x 6= 0
(zapravo, ovdje su nepoznanice parovi λ i x 6= 0 ). On predstavlja poopćenje Teorema
1. Naime, tvrdnja se svodi na Teorem 1 ako je matrica B jedinična. U tom slučaju
se nalaženje generalizirane vlastite vrijednosti λ svodi na problem nalaženja klasične
vlastite vrijednosti matrice A : Ax = λ x , x 6= 0 .

Teorem 4. Neka su A i B hermitske matrice i B pozitivno definitna (tj. (Bx | x) > 0


za sve x 6= 0 ). Neka su λ1 > . . . > λn rješenja generalizirane karakteristične jednadž-
be
det (λ B − A) = 0.
Onda postoje vektori e1 , . . . , en ∈ Rn takvi da je
Aei = λi Bei , (Bei | ej ) = δij ,
i vrijedi
(Ax | x)
λ1 = maxn .
x∈R (Bx | x)
x6=0

Maksimum se dostiže za x = e1 .
SKICA DOKAZA . (a) Pokažimo da postoji regularna matrica T takva da je
T∗ AT = D := diag (λ1 , . . . , λn ), T∗ BT = I.
Doista, neka je S ortogonalna matrica koja dijagonalizira B , tj. S∗ BS = D1 :=
diag (µ1 , . . . , µn ) . Pritom A prelazi u A1 := S∗ AS . Matrica A1 je takoder - hermitska
∗ ∗ ∗ ∗ ∗∗ ∗
jer je A1 = (S AS) = S AS = S AS = A1 . √ Budući da su
√zbog pozitivne def-
nitnosti od B svi µi > 0 , matrica D2 := diag (1/ µ1 , . . . , 1/ µn ) = D2 je dobro
definirana. Ona prevodi D1 u jediničnu matricu (umnošku triju dijagonalnih matrica
odgovara umnožak dijagonalnih elemenata):
D∗2 (S∗ BS)D2 = D2 D1 D2 = I.
Matrica A1 prelazi u novu hermitsku matricu
D∗2 (S∗ AS)D2 = D∗2 A1 D2 := A2 .
Neka je S1 ortogonalna matrica koja prevodi hermitsku matricu A2 u dijagonalnu:
S∗1 (D∗2 (S∗ AS)D2 )S1 = S∗1 A2 S1 = D := diag (λ1 , . . . , λn ).
Onda za T = SD2 S1 imamo T∗ AT = D i
T∗ BT = S∗1 (D∗2 (S∗ BS)D2 )S1 = S∗1 IS1 = I.
(b) Budući da je (T∗ )−1 = BT , onda je AT = T∗ −1 D = BTD . Neka je
T = [e1 , . . . , en ] , tj. ei su stupci od T . Budući da je TD = [λ1 e1 , . . . , λn en ] (provje-
ri!), onda iz AT = [Ae1 , . . . , Aen ] i BTD = B[λ1 e1 , . . . , λn en ] = [λ1 Be1 , . . . , λn Ben ]
dobivamo Aei = λi Bei . Vektori ei su svi 6= 0 jer je T = [e1 , . . . , en ] regularna
matrica.
(c) Vrijednosti λi dobivaju se iz jednadžbe det (λ I − D) = 0 , tj. det (λ T∗ BT −
T∗ AT) = 0 , tj. det (T∗ (λ B − A)T) = 0 , tj. prema Binet-Cauchyjevu teoremu, iz
jednadžbe det (λ B − A) = 0 .
(d) Iz svojstva T∗ BT = I , rabeći definiciju množenja matrica, slijedi da na mjestu
(i, j) vrijedi jednakost e∗i Bej = δij , tj. (ei | Bej ) = δij , tj. vektori ei su ortonormirani
s obzirom na skalarni produkt (x | y)b := (x | By) = (Bx | y) . Lako se provjeri da je
to doista skalarni produkt, na pr. (x | x)b = (Bx | x) > 0 za x 6= 0 . Primijetimo da je
(Aεi | ei ) = (λi Bei | ei ) = λi . Preostali dio dokaza je sličan kao dokaz Teorema 1.
Spomenimo na kraju bez dokaza sljedeći zanimljiv teorem koji daje varijacijski
opis vlastitih vrijednosti hermitske matrice A .

Teorem 6. (Courantov princip minimaksa) Neka je A hermitska matrica reda n i neka


su λ1 > . . . > λn sve vlastite vrijednosti od A . Onda za sve k < n vrijedi
λk+1 = min n max (Ax | x).
x1 ,...,xk ∈R kxk=1
x∈L(x1 ,...,xk )⊥

Na pr. λ2 dobiva se tako da za bilo koji x1 ∈ Rn , x1 6= 0 gledamo maksimum


kvadratne forme (Ax1 | x1 ) na jediničnoj sferi u hiperravnini L(x1 )⊥ , i zatim minimum
tih brojeva (maksimuma) po svim x1 .
5. MATRIČNE NORME , SPEKTAR I SPEKTRALNI RADIJUS MATRICE 31

5.11. Fréchetova derivacija

Pretpostavimo da su zadani normirani vektorski prostori X i Y . Radi jednostav-


nosti pretpostavit ćemo da su oba konačno-dimenzionalni. Za funkciju F : X → Y ,
općenito nelinearnu, kažemo da je diferencijabilna u točki x ∈ X ako postoji linearni
operator A ∈ L(X, Y) takav da je
F(x + h) = F(x) + Ah + o(h),
gdje o(h)
khk → 0 u Y kada h → 0 u prostoru X . Drugim riječima, funkcija F : X → Y
je diferencijabilna u točki x ako postoji linearni operator A ∈ L(X, Y) takav da vrijedi
kF(x + h) − F(x) − Ahk
lim = 0.
h →0 khk
Lako se vidi da je gornjom jednakošću operator A odreden - jednoznačno. Označava
se sa A = F ′ (x) ∈ L(X, Y) , i zove se Fréchetova derivacija od F u točki x . Time
smo dobili novu funkciju F ′ : X → L(X, Y) . Ako je funkcija F ′ neprekinuta (prostor
- normiran), onda kažemo da je funkcija F Fréchet diferencijabilna,
L(X, Y) je takoder
ili klase C , te u tom slučaju pišemo F ∈ C1 (X, Y) . Ovdje smo sa C1 (X, Y) označili
1

skup svih funkcija F iz X u Y koje su klase C1 . U literaturi se često umjesto F ′ (x) h


rabi i oznaka dF(x) h (diferencijal od F u točki x ).

Primjer 15. Neka je A zadana matrica tipa m×n i F : Rn → Rm linearni operator


zadan sa F(x) = Ax . Onda je F ′ (x) = A za sve x . Dakle F ′ (x) je isti linearni opera-
tor za sve x . Doista, za učvršćeni vektor x je F(x+h)−F(x) = A(x+h)−Ax = Ah ,
pa vidimo da je F ′ (x)h = Ah za sve h ∈ Rn (dakle F ′ (x) = A ) i o(h) = 0 . Sjetimo
se iz Matematike 1 da za učvršćeni a ∈ R i funkciju F(x) = ax , x ∈ R , vrijedi
F ′ (x) = a , što ovdje odgovara slučaju m = n = 1 .

Nakon što smo dobili novu funkciju F ′ : X → L(X, Y) , općenito takoder - nelinear-
nu, na analogan način možemo definirati i njenu derivaciju na X , tj. F ′′ , jer je prostor
L(X, Y) takoder - normiran s operatorskom normom. Sada će prema prethodnom biti
definiran ovakav linearni operator iz X u L(X, Y) :
F ′′ (x) ∈ L(X, L(X, Y))
Drugim riječima, u točki x ∈ X za bilo koje vektore h, k ∈ X vrijedi da je
F ′′ (x)h ∈ L(X, Y) , dakle [F ′′ (x)h]k ∈ Y . Ovaj izraz često kraće zapisujemo kao
[F ′′ (x)h]k = F ′′ (x) (h, k) = F ′′ (x) hk ∈ Y.
′′
Drugim riječima, F (x) shvaćamo kao bilinearnu funkciju dviju varijabla iz X . Bili-
nearnost znači da je funkcija h 7→ F ′′ (x) hk linearna iz X u Y za bilo koji učvršćeni k
(tj. F ′′ (x) (λ1 h1 + λ2 h2 )k = λ1 F ′′ (x) h1 k + λ2 F ′′ (x) h2 k ), a funkcija k 7→ F ′′ (x) hk je
linearna za učvršćeni h (tj. F ′′ (x) h(λ1 k1 + λ2 k2 ) = λ1 F ′′ (x) hk1 + λ2 F ′′ (x) hk2 ).
Primijetite da funkcija (h, k) 7→ [F ′′ (x)h]k općenito nije linearna iz X × X u Y .
Vektorski prostor bilinearnih operatora iz X × X u Y označavamo sa L2 (X × X, Y) ,
pa je F ′′ (x) ∈ L2 (X × X, Y) .

Primjer 16. U uvjetima prethodnog primjera je F ′ (x)k = Ak (jednakost u Rm ),


pa je F ′ (x+h)k−F ′(x)k = Ak−Ak = 0 , za sve k ∈ Rn , dakle F ′ (x+h)−F ′(x) = 0
(jednakost u prostoru matrica tipa m × n ), dakle F ′′ (x)h = 0 , tj. F ′′ (x) = 0
za svaki x ( F ′′ (x) je linearni operator iz Rn u prostor m × n matrica, F ′′ (x) ∈
L(Rn , L(Rn , eRm )) ).

Jednostavna bilinearna funkcija B : R × R → R je na pr. B(h, k) = 3hk . U slučaju


B : R2 × R2 → R2 to je na pr. B(h, k) = (3h1 k1 + h2 k1 + h2 k2 , 2h1 k1 − h1 k2 + h2 k1 − h2 k2 )⊤ ,
gdje je h = (h1 , h2 ) i k = (k1 , k2 ) .
Na sličan način se dobiva i treća derivacije od F . To je funkcija F ′′′ (x) ∈
L(X, L(X, L(X, Y))) koja je trilinearna: X × X × X ∋ (h, k, l) 7→ F ′′′ (x) hkl ∈ Y , tj.
F ′′′ (x) ∈ L3 (X ×X ×X, Y) , gdje je L3 (X ×X ×X, Y) prostor svih trilinearnih operatora
iz X × X × X u Y , itd.
Fréchetova derivacija kompozicije vektorskih funkcija (općenito nelinearnih), ra-
čuna se kao kompozicija njihovih derivacija. Te su derivacije linearni operatori. Drugim
riječima, ako su F : X → Y i G : Y → Z preslikavanja izmedu - triju vektorskih pros-
tora, onda za G ◦ F : X → Z vrijedi pravilo deriviranja kompozicije:
(G ◦ F)′ (x) = G′ (F(x)) ◦ F ′ (x).
Ovdje je (G ◦ F)′ (x) ∈ L(X, Z) , G′ (F(x)) ∈ L(Y, Z) i F ′ (x) ∈ L(X, Y) .

Primjer 17. U slučaju realne funkcije realne varijable F : R → R je F ′ (x) uobi-


čajena derivacija.
Za F : R2 → R je F ′ (x) linearni operator iz R2 u R (za svaki x po jedan),
definiran sa
∂f (x) ∂f (x)
F ′ (x)h = h1 + h2 ,
∂x1 ∂x2
tj. totalni diferencijal funkcije F , gdje je h = (h1 , h2 ) ∈ R2 . Parcijalne derivacije
izračunavamo u točki x = (x1 , x2 ) .
Ovdje je  ′′ 
f x1 x1 f x′′1 x2
F ′′ (x) = ∈ L(R2 , L(R2 , R)),
f x′′2 x1 f x′′2 x2
jer taj prostor linearnih operator možemo poistovjetiti s prostorom kvadratnih matrica
M22 . Ova se matrica zove Hesseova matrica ili Hessijan preslikavanja F . Prema
tome je
F ′′ (x) hk = f x′′1 x1 h1 k1 + f x′′1 x2 (h1 k2 + h2 k1 ) + f x′′2 x2 k1 k2 .
Posebno,
F ′′ (x) hh = f x′′1 x1 h21 + 2f x′′1 x2 h1 h2 + f x′′2 x2 h22 ,
a to je upravo poznati drugi diferencijal d2 F(x) realne funkcije dviju realnih varijabla
F , izračunat u točki x . Rezultat je kvadratni polinom (točnije, kvadratna forma) s
varijablama h1 i h2 .

Primjer 18. Zadana je vektorska funkcija vektorske varijable F : R2 → R2 sa


F = (f , g)⊤ , tj. F(x1 , x2 ) = (f (x1, x2 ), g(x1 , x2 ))⊤ , uz zadane realne funkcije dviju
varijabla f i g . Onda za h = (h1 , h2 )⊤ , zbog f (x1 + h1 , x2 + h2 ) − f (x1 , x2 ) =
f x′1 h1 + f x′2 h2 + o1 (h) , i slično za g , vrijedi
F(x + h) − F(x) = (f x′1 h1 + f x′2 h2 + o1 (h), g′x1 h1 + g′x2 h2 + o2 (h))⊤ ,
gdje se parcijalne derivacije izračunavaju u točki x . Dakle, F(x + h) = F(x) + Ah +
O(h) , gdje je  ′ 
f f′
A = F ′ (x) = gx′ 1 gx′2 ,
x1 x2

tzv. Jacobijeva matrica preslikavanja F (ili Jacobijan od F ) i o(h) = (o1 (h), o2 (h)) .

Primjer 19. Za h = (h1 , h2 ) je


   ′ 
f x′1 (x+h) f x′2 (x+h) f x1 (x) f x′2 (x)
F ′ (x+h) − F ′ (x) = −
g′x1 (x+h) g′x2 (x+h) g′x1 (x) g′x2 (x)
 
f ′′ h1 +f x′′1 x2 h2 +o11 (h) f x′′2 x1 h1 +f x′′2 x2 h2 +o12 (h)
= ′′x1 x1
gx1 x1 h1 +g′′x1 x2 h2 +o21 (h) g′′x2 x1 h1 +g′′x1 x2 h2 +o22 (h)
tj.
   
′ ′ f x′′1 x1 f x′′2 x1 f x′′1 x2 f x′′2 x2
F (x + h) = F (x) + g′′x1 x1 g′′x2 x1 h1 + g′′x1 x2 g′′x1 x2 h2 + o(h),
h)
gdje je o(h) = (oij (h)) matrica takva da o( khk konvergira prema nul-matrici kada
h → 0 . Odavde čitamo da je
 ′′   ′′ 
′′ f x1 x1 f x′′2 x1 f x1 x2 f x′′2 x2
F (x) h = h1 + h2 ∈ L(R2 , R2 ).
g′′x1 x1 g′′x2 x1 g′′x1 x2 g′′x1 x2
Drugim riječima, operator F ′′ (x) ∈ L(R2 , L(R2 , R2 )) možemo shvatiti kao par dviju
matrica reda 2 , tj. kao kvadratnu matricu tipa 4 × 2 :
 ′′ 
f x1 x1 f x′′2 x1
′′ ′′
 g gx2 x1 
F ′′ (x) =  x′′1 x1 . (1)
f x1 x2 f x′′2 x2 
′′ ′′
gx1 x2 gx1 x2
Primijetite da je prostor L(R2 , L(R2 , R2 )) izomorfan s prostorom matrica M4,2 , jer je
L(R2 , R2 )) izomorfan s R4 .
Smisao druge derivacije (ili tzv. drugog diferencijala) je u ovom slučaju ovakav:
 ′′     ′′   
′′ f x1 x1 f x′′2 x1 k1 f x1 x2 f x′′2 x1 k1
F (x) hk = g′′ g′′ h1 k + g′′ g′′ h2 k ,
x1 x1 x2 x1 2 x1 x2 x2 x2 2

tj.  
′′ f x′′1 x1 h1 k1 + f x′′1 x2 (h1 k2 + h2 k1 ) + f x′′2 x2 h2 k2
F (x) hk = g′′x1 x1 h1 k1 + g′′x1 x2 (h1 k2 + h2 k1 ) + g′′x2 x2 h2 k2 .

Posebno,  
′′ f x′′1 x1 h21 + 2f x′′1 x2 h1 h2 + f x′′2 x2 h22
F (x) hh = ∈ R2 .
g′′x1 x1 h21 + 2g′′x1 x2 h1 h2 + g′′x2 x2 h22
Prepoznajemo da su komponente od F ′′ (x) hh upravo drugi diferencijali funkcija f i
g.
Pokazuje se da je za vektorske funkcije F : R2 → R2 , kao u ovom primjeru,
moguć prikaz u obliku Taylorova razvoja. Na pr. za funkciju F klase C1 vrijedi
F(x + h) = F(x) + F ′ (x) h + o(h),
za h → 0 . Za funkciju klase C2 vrijedi
1 ′′
F(x + h) = F(x) + F ′ (x) h + F (x) hh + o(khk2 ),
2!
o(khk2 )
gdje je o(khk2 ) vektor koji trne brže od khk2 , točnije, takav da khk2 → 0 kad
h → 0.
6.
Singularna dekompozicija matrica

1. Singularne vrijednosti matrice . . . . . . . . . . . . . . . .


2. Singularna dekompozicija matrica i primjene . . . . . . .
3. Primjeri singularne dekompozicije . . . . . . . . . . . . . .
4. Pseudoinverzna matrica . . . . . . . . . . . . . . . . . . . . .

6.1. Singularne vrijednosti matrice

Cilj ovog poglavlja je pokazati da se svaka pravokutna matrica A tipa m × n


(gledana kao linearni operator A : Rn → Rm ) može prikazati u odgovarajućem paru
ortonormiranih baza (u Rn i Rm ) kao dijagonalna matrica. Pojam dijagonalne matrice
bit će uveden pri kraju ovog odjeljka. Glavni rezultati ovog poglavlja sadržani su u
Teoremu 3 (o singularnom rastavu matrice) i u Korolaru 4. U dokazu ključnu ulogu ima
teorem o dijagonalizaciji simetričnih matrica. Teorem o singularnom rastavu matrica
(SVD - Singular Value Decomposition) ima veliku važnost u primjenama (u obradi sig-
nala, prijenosu slika, prepoznavanju oblika, dubinskim pretraživanjima podataka itd.).
Jedan od najboljih danas poznatih algoritama za singularni rastav matrice potječe od
dvojice hrvatskih matematičara, profesora Zlatka Drmača i Krešimira Veselića.
Za kvadratnu matricu A definiramo trag matrice kao zbroj njenih dijagonalnih
elemenata:
tr A = a11 + . . . + ann .
U izračunu karakterističnog polinoma det(λ I − A) = (λ − a11 )(λ − a22 ) . . . (λ −
ann ) + . . . , broj − tr A je upravo koeficijent uz λ n−1 . Budući da slične matrice imaju
isti karakteristični polinom, onda je i trag sličnih matrica isti:
tr(T−1 AT) = tr A.

Primjer 1. Neka su A i B bilo koje kvadratne matrice istog reda. Onda je


tr(AB) = tr(BA). (1)
Provjerite ovu jednakost za matrice A i B reda 2 .

Frobeniusova norma pravokutne matrice A = (aij ) definira se kao njena Euklid-


ska norma, tj.
 1/2
X
kAkF =  |aij |2  .
i,j

Vrlo lako je provjeriti izravnim računom da za svaku realnu pravokutnu matricu A


vrijedi
kAk2F = tr(A⊤ A) = tr(AA⊤ ). (2)
Pokušajte provjeriti najprije za matrice A reda 2 . Slično vrijedi i za kompleksne

matrice: kAk2F = tr(A∗ A) = tr(AA∗ ) , gdje je A∗ = A . Osim Frobeniusove norme,
u uporabi je i naziv Hilbert–Sćmidtova norma ili HS–norma.
RJEŠENJE. Izravno iz definicije traga.
Sljedeća propozicija nam kaže da su Frobeniusova i spektralna norma matrice
invarijantne s obzirom na množenje s ortogonalnom matricom.

Propozicija 1. Neka je A realna matrica tipa m × n , te U i V ortogonalne


matrice reda m i n . Onda je
kUAVkF = kAkF , kUAVk2 = kAk2 , (3)
gdje je kAk2 spektralna norma matrice A , tj. kAk2 := maxkxk2 =1 kAxk2 .

DOKAZ. Rabimo (2). Stavljajući B = UAV dobivamo B⊤ B = (UAV)⊤ UAV =


V⊤ A⊤ U ⊤ UAV = V⊤ A⊤ AV . Prema tome je zbog (1),
kBk2F = tr(B⊤ B) = tr(V⊤ A⊤ A V) = tr(V V⊤ A⊤ A) = tr(A⊤ A) = kAk2F .
Stavljajući y = Vx , i označivši s kxk2 = (x21 + . . . + x2n )1/2 Euklidsku normu vektora
x , dobivamo
kUAVk2 = max kU(AVx)k2 = max kAVxk2
kxk2 =1 kxk2 =1

= max
−1
kAyk2 = max kAyk2 = kAk2 .
kV yk2 =1 kyk2 =1

Ovdje će nam biti od koristi matrično množenje opisati na drugi način. Ako su
A i B dvije ulančane matrice tipa m × n i n × p , tako da prvu shvatimo kao redak
sastavljen od n vektora stupaca, a drugu kao stupac sastavljen od n vektora redaka, tj.
 
b1
A = [a1 , . . . , an ], B =  ...  ,
bn
onda je
AB = a1 b1 + a2 b2 + . . . + an bn . (4)
Na desnoj strani imamo zbroj od n matrica tipa m × p (svaki pribrojnik je umnožak
matrica tipa (m, 1) i (1, p) ). Da bismo dokazali ovu jednakost, primijetimo da na
mjestu (i, j) na lijevoj strani stoji zbroj ai1 b1j + ai2 b2j + . . . + ain bnj . S desne pak strane
prva matrica na mjestu (i, j) ima broj ai1 b1j , druga ai2 b2j itd., a zadnja broj ain bnj .

Primjer 2. Matrica Ax , gdje je x = (x1 , . . . , xn )⊤ vektor stupac tipa n × 1 , je


linearna kombinacija svojih vektora stupaca:
Ax = x1 a1 + . . . + xn an .
Na primjer,
" # " # " # " #
1 2   x1 +2x2 1 2
x1
−2 1 = −2x1 +x2 = x1 −2 + x2 1 .
x2
3 4 3x1 +4x2 3 4

Znamo da se svaka simetrična matrica A može ortogonalno dijagonalizirati, vidi


Teorem 4.5.8. To znači da postoje ortogonalna matrica U = [u1 , . . . , un ] ( ui -ovi su
stupci matrice U ), i dijagonalna matrica D s vlastitim vrijednostima λi na dijagonali,
takve da je U⊤ AU = D , tj.
 ⊤ 
u1
 .. 
A = UDU = [λ1 u1 , . . . , λn un ]  .  = λ1 u1 u1 ⊤ + . . . + λn un un ⊤ .

u⊤n
-
Ovakav rastav nije moguće dobiti za bilo koju matricu. Medutim, moguće ga je dje-
lomice generalizirati na bilo koje matrice, pa čak i pravokutne. Vidi Teorem 3 niže.

λi ui u⊤
P
Moguć je i drugi dokaz jednakosti A = i . Rabeći asocijativnost množenja matrica
imamo:
X X
Ax = λi (x | ui )ui = λi ui (ui | x)
i i
!
λi ui (u⊤ λi (ui u⊤
X X
= i x) = i ) x.
i i
P ⊤
Budući da ovo vrijedi za sve x , zaključujemo da je A = i λi (ui ui ) .
Radi se o rastavu (ili dekompoziciji) pravokutne matrice A na umnožak triju spe-
cijalnih matrica: A = UDV⊤ , gdje su U i V ortogonalne. Pri tom se rabe singularne
vrijednosti od A , koje ćemo definirati malo kasnije. Ključnu ulogu u konstrukciji ra-
stava igraju kvadratne matrice A⊤ A i AA⊤ , pa zato pogledajmo neka njihova osnovna
svojstva.
Ako je A pravokutna matrica, onda je A⊤ A ne samo simetrična matrica, ne-
go i pozitivno semidefinitna. Isto vrijedi i za matricu AA⊤ . Posebno, sve vlastite
vrijednosti od A⊤ A (ili AA⊤ ) koje su različite od nula su pozitivne (tj. > 0 ).

Lema 2. Neka je A zadana realna pravokutna matrica. Kvadratne matrice A⊤ A


i AA⊤ imaju iste skupove pozitivnih vlastitih vrijednosti.

DOKAZ. Ako je λ 6= 0 vlastita vrijednost matrice A⊤ A , tj. A⊤ Ax = λ x za neki vek-


tor x 6= 0 , onda množenjem s A dobivamo da je AA⊤ Ax = λ Ax , pa zbog Ax 6= 0
(u suprotnom bi moralo biti λ x = 0 , tj. λ = 0 ) dobivamo da je λ vlastita vrijednost
matrice AA⊤ . Obratno na isti način zamjenom A i A⊤ .

-
Primjer 3. Nadimo sve vlastite vrijednosti matrice A⊤ A , ako je A = [1, −2, 2] .

RJEŠENJE. Matrica A⊤ A je reda 3 . Zato pogledajmo matricu AA⊤ koja je reda 1 :


" #
1

AA = [1, −2, 2] · −2 = 12 + (−2)2 + 22 = 9.
2
Prema Lemi 2 matrica A⊤ A ima ove vlastite vrijednosti: 9 i 0 ( 0 ima kratnost dva).
Pogledajmo ipak kako izgleda naša matrica:
" # " #
1 1 −2 2
A⊤ A = −2 · [1, −2, 2] = −2 4 −4
2 2 −4 4
Klasični proračun njenih vlastitih vrijednosti svodi se na nalaženja korijena kubne
jednadžbe det(λ I − A⊤ A) = 0 , gdje u principu ima još dosta posla.
Singularne vrijednosti realne pravokutne matrice A definiraju se kao pozitivni
realni brojevi σi koji se dobivaju kao drugi korijeni iz svih pozitivnih vlastitih vrijednosti
kvadratne matrice A⊤ A reda n (ili matrice AA⊤ reda m , vidi Lemu 2). Singularnih
vrijednosti od A ima točno koliko iznosi njen rang r , r 6 min{m, n} , i ne moraju biti
-
sve medusobno različite. Dakle σi2 je vlastita vrijednost od A⊤ A (ili što je isto, od

AA ).
Neka su σ1 , . . . , σr sve singularne vrijednosti. Matrici A pridružujemo pravokut-
nu matricu D istoga tipa koja je dijagonalna matrica u sljedećem smislu: na mjestima
(1, 1) do (r, r) su elementi σ1 , . . . , σr , a svi ostali su nula. Na pr.
" #
σ1 0 0 0 0
D= 0 σ2 0 0 0
0 0 0 0 0
Iz Leme 2 vidimo ovo: da bismo našli singularne vrijednosti matrice A , dovoljno
je gledati samo jednu od dviju kvadratnih matrica A⊤ A ili AA⊤ (naravno, onu manjeg
reda), i računati njene vlastite vrijednosti.
Iz Leme 2 vidimo i to da matrice A i A⊤ imaju iste singularne vrijednosti. Običaj
je singularne vrijednosti σi matrice A u dijagonalnu matricu D stavljati u padajućem
slijedu, tj. σ1 > σ2 > . . . > σr > 0 .
6. SINGULARNA DEKOMPOZICIJA MATRICA 33

6.2. Singularna dekompozicija matrica i primjene

Sljedeći važan teorem pokazuje da se proučavanje pravokutne matrice A može u


bitnom svesti na proučavanje dijagonalne pravokutne matrice D . Engleski termin za
metodu singularne dekompozicije matrice je SVD-metoda (SVD = Singular Valude
Decomposition).

Teorem 3. (Singularni rastav matrice) Neka je A pravokutna realna matrica tipa


m × n . Onda postoje ortogonalne matrice U reda m i V reda n , te dijagonalna
pravokutna matrica D reda m × n , takve da je
A = UDV⊤ , (5)
a na dijagonali matrice D su singularne vrijednosti σ1 , . . . , σr matrice A , gdje je r
rang matrice. Matrica U ima kao stupce vlastite vektore simetrične kvadratne matrice
AA⊤ reda m , a V ima za stupce vlastite vektore matrice A⊤ A reda n . Prvih r stu-
paca matrice U čini bazu prostora R(A) ⊆ Rm (tj. bazu slike matrice A ), a preostalih
m − r stupaca čini bazu prostora N(A⊤ ) . Prvih r stupaca matrice V čini bazu od
R(A⊤ ) ⊆ Rn (tj. bazu slike matrice A⊤ ), a preostalih n − r čini bazu prostora N(A) .

DOKAZ. Jednakost (5) je ekvivalentna (nakon množenja matricom V s desna) sa


AV = UD . Ako je V = [v1 , . . . , vn ] , U = [u1 , . . . , um ] (stupčani zapis), onda je
jednakost AV = UD ekvivalentna s

σi ui za i = 1, . . . , r
Avi = 0 za i > r . (6)

Prema tome, dovoljno je dokazati gornju jednakost.


Pogledajmo kvadratnu matricu A⊤ A reda n , i ranga r . Ona je pozitivno se-
midefinitna, pa se može dijagonalizirati tako da ima nenegativne vlastite vrijednosti i
ortonormirane vlastite vektore vi :

σi2 vi za i = 1, . . . , r
A⊤ Avi =
0 za i > r .
Ovdje su σi > 0 za i = 1, . . . , r . Množenjem prve jednakosti s A dobivamo
AA⊤ Avi = σi2 Avi , tj. (AA⊤ )(Avi ) = σi2 (Avi ) .
To pokazuje da su vektori Avi vlastiti vektori matrice AA⊤ . Dokažimo da su vektori
1
ui := Avi , i = 1, . . . , r (7)
σi
- ortonormirani (pritom primijetite da su gornje jednakosti (6) i (7) medusobno
takoder -
ekvivalentne). Doista, vrijedi
1 1 σ2
(ui | uj ) = (Avi | Avj ) = (A⊤ Avi | vj ) = i δij = δij .
σi σj σi σj σi σj
Ortonormirane vektore u1 , . . . , ur zatim nadopunimo do ortonormirane baze u Rm s
m−r vektora u N(A⊤ ) . Time smo dobili ortogonalnu matricu U = [u1 , . . . , um ] takvu
da je Avi = σi ui , vidi (7). Za i > r iz A⊤ Avi = 0 slijedi kAvi k2 = (Avi | Avi ) =
(A⊤ Avi | vi ) = 0 , pa je Avi = 0 .
Za kompleksnu matricu A u gornjem teoremu će matrice U i V biti unitarne
umjesto ortogonalne, a umjesto (5) imamo A = UDV∗ .

Primjedba 4. Pretpostavimo da imamo rastav oblika A = UDV⊤ , gdje su U i


V ortogonalne matrice. Ortonormirani vlastiti vektori matrice AA⊤ onda moraju biti
stupci matrice U , jer je
AA⊤ = UDV⊤ VD⊤ U⊤ = U(DD⊤ )U⊤ , (8)
- ⊤ ⊤
tj. U je ortogonalna matrica sličnosti izmedu kvadratnih matrica AA i DD . Slič-
no matrica V se sastoji od ortonormiranih vlastitih vektora matrice A⊤ A , jer je ona
- kvadratnih matrica A⊤ A i D⊤ D .
matrica sličnosti izmedu
-
Takoder zbog A = UDV⊤ (tj. AV = UD ) i A⊤ = VD⊤ U⊤ (tj. A⊤ U = VD⊤ )
vrijedi
Avi = σi ui , A⊤ ui = σi vi
za sve i = 1, . . . , r .

Primjedba 5. Iz (6) vidimo i geometrijski opis singularne dekompozicije matrice


A : postoje dvije ortonormirane baze u Rn i Rm tako da A prebacuje prvu bazu u drugu.
Točnije, ako matricu A tipa m × n shvatimo kao linearni operator iz Rn u Rm ,
onda postoji ortonormirana baza {v1 , . . . , vn } u Rn i ortonormirana baza {u1 , . . . , um }
u Rm tako da je Avi = σi ui za i = 1, . . . , r (tj. vektor vi se preslika u pozitivni više-
kratnik od ui ), a svi ostali vektori vi , i = r + 1, . . . , m se preslikavaju u nul-vektor u
Rm . Prema tome, u tom paru baza operator A : Rn → Rm je reprezentiran matricom
D s ukupno r pozitivnih brojeva σi na dijagonali, a ostali su nula. Brojevi σi su
drugi korijeni iz pozitivnih vlastitih vrijednosti matrice A⊤ A (ili AA⊤ ). Intuitivno,
jedinični vektor vi se preslika u σi ui , tj. s faktorom pojačanja σi . Prema tome, dijago-
nalnu matricu D možemo gledati kao “matricu pojačanja”. Male singularne vrijednosti
odgovaraju slabom šumu, pa se mogu zanemariti.

 
a b
Primjer 4. Zadana je matrica A = gdje su a i b realni brojevi,
b a
a > b > 0 . Dokažimo da su vektori v1 = (1, 1)⊤ i v2 = (1, −1)⊤ vlastiti vektori.
Doista, izravnim množenjem dobivamo Av1 = (a + b)v1 , a Av2 = (a − b)v2 . Prema
tome su vlastite vrijednosti matrice A jednake λ1 = a + b i λ2 = a − b . Primijetite da
-
su pripadajući vlastiti vektori v1 i v2 medusobno okomiti, tj. v1 · v2 = 0 , jer je matrica
A simetrična. Neka je T unitarna matrica čije vektore stupce čine ortonomirani
" vektori
#
√1 √1
v1 √1 (1, 1)⊤ √1 (1, −1)⊤ , 2 2
v̂1 = = i v̂2 = tj. T = [v̂1 , v̂2 ] = √1
.
kv1 k 2 2
2
− √12
Onda je T−1 AT = D , gdje je D = diag (a + b, a − b) . Budući da je T = T⊤ , −1

vrijedi A = TDT⊤ . To je singularna dekompozicija matrice A . Za simetrične matri-


ce radi se zapravo o dijagonalizaciji u ortonormiranoj bazi {v̂1 , v̂2 } koju čine vlastiti
vektori: matrica A prebacuje vektore v̂1 i v̂2 u same sebe s faktorima a + b i a − b :
Av̂1 = (a + b)v̂1 , Av̂2 = (a − b)v̂2



1 1 -
Primjer 5. Zadana je matrica A =
2 −2 . Nadimo njenu singularnu de-
kompoziciju A = UDV⊤ , gdje su matrice U i V ortogonalne a D dijagonalna.
Primijetimo da matrica A nije simetrična, pa se ne može dijagonalizirati
 s pomoću
⊤ 5 −3
samo jedne ortogonalne matrice. Matrica A A = −3 5 je simetrična, i
A⊤ A = (UDV⊤ )⊤ UDV⊤ = VD2 V , što predstavlja dijagonalizaciju te simetrične ma-
trice. Budući da je ta matrica istog oblika kao u prethodnom zadatku, onda je prvi
(normirani) vlastiti vektor od A⊤ A jednak v1 = √12 (1, 1)⊤ s pripadajućom vlastitom
vrijednošću λ1 = 5 − 3 = 2 , a drugi v2 = √1 (1, −1)⊤ s vlastitom vrijednošću
" 2 #
√1 √1
λ2 = 5 + 3 = 8 . Vidimo da je V = [v1 , v2 ] = 2
. Singularne vrijed-2
√1 − √1
√ √ 2 √ 2
√ √
nosti matrice A jednake
 σ1 =
 λ1 = 2 i σ2 = λ2 = 8 = 2 2 . S druge strane,
2 0
matrica AA⊤ = 0 8 ima prikaz AA⊤ = UD2 U⊤ , iz kojega možemo naći
matricu U . Doista, matrica AA⊤ je već sama dijagonalna, pa su njeni (normirani)
vlastiti vektori jednaki vektorima kanonske baze: u1 = (1, 0)⊤ s vlastitom vrijednošću
λ1 = 2 i λ2 = 8 , tj. U = [u1 , u2 ] = I . Singularni rastav matrice A je A = UDV⊤ , tj.
     √  " √1 √1
#⊤
1 1 1 0 2 0
√ 2 2
2 −2 = 0 1 · · √1 √1
.
0 2 2 2
− 2
Matrica A prebacuje ortonormiranu
√ bazu {v1 , v2 } u ortonormiranu
√ bazu {u1 , u2 } , s
faktorima pojačanja 2 i 2 2 : Av1 = 2u1 i Av2 = 2 2u2 . Vidimo da ovdje nije
ispunjen uvjet σ1 > σ2 . Da bi on bio ispunjen, treba zamijeniti uloge dviju singularnih
vrijednosti, ali onda i poredak stupaca u matricama U i V , tj. stavljamo U1 = [u2 , u1 ]
i V1 = [u2 , u1 ] , D1 = diag {σ2 , σ1 } . Dakle singularna dekompozicija A = U1 D1 V⊤ 1
izgleda ovako:
     √  " √1 √1
#⊤
1 1 0 1 2 2 √ 0 2 2
= 1 0 · · .
2 −2 0 2 − √12 √1
2
Provjerite.

Primjer 6.Pogledajmo
 primjer singularnedekompozicije
 za matricu koja nije re-
1 1 ⊤ 5 5
gularna: A = 2 2 . Ovdje je A A = 5 5 . Nulpodprostor (jezgra) te
matrice je razapet vektorom (1, −1)⊤ (tj. pripadajuća vlastita vrijednost je λ2 = 0 ),
a drugi vlastiti podprostor je okomit na njega: (1, 1)⊤ . Normirani vlastiti vektori su
v1 = √12 (1, 1) (s vlastitom vrijednošću λ1 = 5 + 5 = 10 ) i v2 = √12 (1, −1) (s
 
⊤ 1 2
λ2 = 5 − 5 = 0 ). Dakle V = [v1 , v2 ] . S druge strane je AA = 2 4 . Nul-
podprostor te matrice je razapet vektorom (2, −1)⊤ (tj. vlastiti podprostor s vlastitom
vrijednošću λ2 = 0 ), a drugi vlastiti vektor je okomit na njega: (1, 2)⊤ , s pripada-
jućom vlastitom vrijednošću λ2 = 10 (provjerite). Odgovarajući normirani vlastiti
vektori su u1 = √15 (2, 1)⊤ (s vlastitom vrijednošću λ1 = 10 ) i u2 = √15 (2, −1)⊤ (s
√ √
λ2 = √0 ), pa stavljamo U = [u1 , u2 ] . Singularne vrijednosti su σ1 = λ1 = 10 i
σ2 = λ2 = 0 . Prema tome, singularni rastav A = UDV⊤ matrice A glasi
  " √1 √2
#  √  " √1 √1
#⊤
1 1 5 5 10 0 2 2
= √2
· · .
2 2
5
− √15 0 0 √1
2
− √12

√ {v1 , v2 } u ortonormiranu bazu {u1 , u2 } , s


Matrica A prebacuje√ortonormiranu bazu
faktorima pojačanja 10 i 0 : Av1 = 10u1 i Av2 = 0u2 .

Primjer 7. Neka je U ortogonalna matrica reda m , a C pravokutna tipa m × n .


Onda matrice C i UC imaju iste singularne vrijednosti. Doista, (UC)⊤ (UC) =
C⊤ U⊤ UC = C⊤ C . Na isti način matrice CV i V imaju iste singularne vrijednosti,
ako je V ortogonalna.

Korolar 4. U uvjetima Teorema 3, gdje je A = UDV⊤ singularni rastav, vrijedi


skraćena singularna dekompozicija matrice A :
A = σ1 u1 v⊤ ⊤
1 + . . . + σr ur vr . (9)
Nadalje, Frobeniusova i spektralna norma su:
kAkF = (σ12 + . . . + σr2 )1/2 , kAk2 = σ1 . (10)

DOKAZ. Jednakost (9) slijedi iz (4), rabeći umjesto A i B matrice


 ⊤ 
v1
⊤  .. 
UD = [σ1 u1 , . . . , σr ur , 0, . . . , 0], V =  .  .
v⊤
n
Jednakosti norma u (10) slijede iz (3):
r
!1/2
X

kAkF = kUDV kF = kDkF = σi2
i=1
q
kAk2 = kUDV⊤ k2 = kDk2 = r(D⊤ D) = max{σ1 , . . . , σr } = σ1 .
Rastav (9) zove se skraćena singularna dekompocizija matrice A , jer u njoj nam ne
trebaju vektori ur+1 , . . . , um ∈ N(A⊤ ) i vr+1 , . . . , vn ∈ N(A) .

Primjer 8. Skraćeni singularni matrice A iz Primjera 5 glasi:


     
1 1 √ 0 1 1 √ 1 1 1
2 −2 =2 2 · (√ , −√ ) + 2 0
1 · ( √ , √ ).
2 2 2 2
Skraćeni singularni rastav matrice iz Primjera 6 glasi:
  " #
1 1 √ √1 1 1
= 10 5 · ( √ , √ ).
2 2 √2 2 2
5

Primjer 9. Neka su a ∈ Rm i b ∈ Rn jedinični vektori stupci (jedinični s obzirom


na Euklidsku normu). Dokaži da za matricu ab⊤ tipa m × n vrijedi kab⊤ kF = 1 .
Naputak: izravnim računom preko definicije Frobeniusove norme. Štoviše, vidi
se lako da za bilo koja dva vektora a ∈ Rm i b ∈ Rn vrijedi kab⊤ kF = kak2 kbk2 .

Jedinični vektori stupci ui zovu se lijevi singularni vektori, a jedinični vektori stupci
vi su desni singularni vektori matrice A , gdje je A = UDV⊤ singularna dekompozicija
matrice A . U jednakosti Avi = σi ui koeficijent σi > 0 govori o veličini deformacije
jediničnog vektora vi nakon djelovanja matrice A . Budući da su singularne vrijednosti
poredane u padajućem slijedu, tj. σ1 > . . . > σr > 0 , jasno je da prve singularne
vrijednosti uzrokuju najveću deformaciju. Zanemarujući male singularne vrijednosti
(tj. odbacujući σk+1 , . . . , σr , pretpostavljajući da su blizu nule), dobivamo da je, vidi
(9),
A ≈ Ak = σ1 u1 v⊤ ⊤
1 + . . . + σr uk vk . (11)
Pogreška je mala:
kA − Ak kF = kσk+1 uk+1 v⊤ ⊤
k+1 + . . . + σr ur vr kF
6 σk+1 kuk+1 v⊤ ⊤
k+1 kF + . . . + σr kur vr kF
6 σk+1 + . . . + σr 6 (r − k)σk+1 .
Već za relativno male k matrica Ak u (11) postaje vrlo blizu matrice A , uz
pretpostavku da je σk+1 malen. Drugim riječima, često je i vrlo malen broj (prvih
nekoliko) singularnih vrijednosti dovoljno da se dobije zadovoljavajući rezultat.
Evo jedan zanimljiv primjer koji navodimo prema Strangu [9, str. 332]. Treba
odaslati sliku prikazanu tablicom od 1000 × 1000 kvadratića (pixels), u kojoj je svaki
od milijun kvadratića (i, j) kodiran s nekim cijelim brojem aij . Taj broj predstavlja
boju kvadratića na tom mjestu u slici. Može li se barem donekle vjerno prenijeti slika,
a da se ne prenosi svih milijun podataka (brojeva) aij ? Može, i to na način koji je
-
iznenadujuće efikasan.
Najprije sliku shvatimo kao kvadratnu matricu A reda 1000 s tim brojevima.
Obavimo skraćenu singularnu dekompoziciju kao u (9), gdje na desnoj strani imamo
r pribrojnika, u kojem r može biti jako velik, ali 6 1000 . Ako umjesto cijele sume
uzmemo samo prvih 20 pribrojnika, tj. matricu A20 , vidi (11), i pošaljemo pripadajućih
20 + 20 · 2000 podataka ( 20 za σi -ove, 20 · 1000 za u1 , . . . , u20 , i još 20 · 1000 za
v1 , . . . , v20 ), dobiva se često slika zadovoljavajućih karakteristika u detaljima. Razlog
je taj što prvih dvadeset singularnih vrijednosti dominira nad ostalima. Prenijeli smo
samo 40 020 podataka umjesto milijun, što je ogromna ušteda. Naravno, platili smo
cijenu na drugom mjestu, prilikom proračuna singularnih vrijednosti σi matrice A , te
proračuna lijevih i desnih singularnih vektora ui i vi za i = 1, . . . , r . Zato ta metoda
nije upotrebljiva za matrice pretjerano velikog reda. Od velikog je interesa znati što je
moguće efikasniju metodu za nalaženje singularne dekompozicije matrice.
Algoritmi za singularnu dekompoziciju matrice A izbjegavaju proračun matrica
A⊤ A i AA⊤ , nego rade izravno samo s matricom A .
Jedan od najboljih danas poznatih algoritama za singularni rastav matrice potječe
od dvojice hrvatskih matematičara, profesora Zlatka Drmača i Krešimira Veselića, vidi
http://web.math.hr/˜drmac/. Njegova složenost je 4 · mn2 za m 6 n , odnosno
4 · nm2 za m > n . Za svoje su objavljene radove na tu temu godine 2009. dobili
nagradu ugledne medunarodne- organizacije SIAM (Society for Industrial and Applied
Mathematics).

Primjer 10. U slučaju da je A simetrična matrica, onda prema teoremu o dijagona-


lizaciji takvih matrica znamo da postoji ortogonalna matrica S takva da je S⊤ AS = D
dijagonalna, tj.  
λ1 0 ... 0
 0 λ2 . . . 0  ⊤
A = S  ... ..  S .
. 
0 0 ... λn
Je li ovo singularna dekompozicija? Ako su sve vlastite vrijednosti od A nenegativne,
onda jest (uz nebitnu pretpostavku da su pozitivne na prvih r mjesta na dijagonali). U
tom slučaju je U = V = S , tj. singularna dekompozicija je obavljena u tom slučaju s
istim matricama U i V . Ako pak je neka od vlastitih vrijednosti λi negativna, onda
jednakost Asi = λi si ( si je i -ti stupac matrice S ) sugerira da ju napišemo u obliku
Asi = |λi |(−si ) , dakle ui = −si . Na taj način dobivamo novu matricu U koja nije
više jednaka S , ali je i dalje ortogonalna:
 
|λ1 | 0 ... 0
 0 |λ2 | . . . 0 
A = U  ... ..  S⊤
. 
0 0 ... |λn |
Prema tome, Teorem 3 predstavlja djelomičnu (ali dalekosežnu) generalizaciju teorema
o dijagonalizaciji simetričnih matrica.
Ako kvadratna matrica A nije simetrična, onda općenito njene singularne vrijed-
nosti nisu jednake |λi | , gdje su λi vlastite vrijednosti od A .

Primjedba 6. Skraćeni singularni rastav matrice A opisan jednakošću (9), rabi


se u statistici, obradbi signala, prepoznavanju oblika, računalnoj obradbi teksta (data
mining), pretraživanju podataka (u mrežnim pretraživačima) automatskom upravljanju
(robotici), imunologiji, molekularnoj dinamici itd.

Sljedeći korolar govori o tzv. polarnoj dekompoziciji kvadratne matrice A . Ako je


A matrica reda 1 , tj. najobičniji kompleksni broj z , onda je
A = z = reiϕ ,
gdje je r = |z| nenegativan realan broj (pozitivno semidefinitna matrica reda 1 ) i
eiϕ = cos ϕ + i sin ϕ kompleksni broj jedinične norme. Primijetite da je eiϕ eiϕ =
eiϕ e−iϕ = e0 = 1 , pa je eiϕ unitarna matrica reda 1. Sličan prikaz ima i bilo koja
kvadratna matrica.

Korolar 5. Neka je A realna kvadratna matrica. Onda postoje pozitivno semidefi-


nitna matrica R i ortogonalna matrica S takve da je A = RS . Ako je A kompleskna
matrica, onda postoje pozitivno semidefinitna matrica R i unitarna matrica S takve
da je A = RS . Ako je A regularna matrica, onda je R pozitivno definitna.

DOKAZ. Prema Teoremu 3 je


A = UDV⊤ = UDU⊤ UV⊤ ,
pa je dovoljno staviti R = UDU⊤ i S = UV⊤ . Matrica R je ortogonalno slična
pozitivno semidefinitnoj matrici D , pa je i sama pozitivno semidefinitna. Matrica S je
kao umnožak ortogonalnih matrica takoder- ortogonalna.
Moguć je i obratni polarni rastav kvadratne matrice A , A = S′ R′ . Doista,
A = UDV⊤ = UV⊤ VDV⊤ , pa je S′ = UV⊤ = S , R′ = VDV⊤ .
34 6. SINGULARNA DEKOMPOZICIJA MATRICA

6.3. Primjeri singularne dekompozicije

Primjer 11. Singularna dekompozicija 1 × 1 matrice A = −7 glasi −7 =


1 · 7 · (−1) , ili −7 = (−1) · 7 · 1 . Za kompleksni broj A = 3 + 4i singularna
−iϕ iϕ
dekompozicija glasi 3 + 4i = 1 · 5 · 3+4i
5 , ili 3 + 4i = e · 5 · ( 3+4i
5 e ) , gdje je ϕ
bilo koji realan broj.

Primjer 12. Neka je A = [1, −2, 2] . Umjesto A⊤ A , koja je matrica√reda 3 ,


pogledajmo radije AA⊤ = 12 + (−2)2 + 22 = 9 . Prema tome je σ1 = 9 = 3 .
To da imamo samo jednu singularnu vrijednost u skladu je s činjenicom da matrica
A ima rang 1 . Vidimo da je D = [3, 0, 0] . Da bismo našli matricu V , moramo
dijagonalizirati simetričnu matricu A⊤ A , vidi Primjer 3. Njene vlastite vrijednosti su
9 i 0 . Pogledajmo jednadžbu (λ I − A⊤ A)v = 0 , tj. sustav
" #" # " #
λ −1 2 −2 x1 0

(λ I − A A)v = 2 λ −4 4 x2 = 0 .
−2 4 λ −4 x3 0
Za λ1 = 9 , dobivamo sustav 8x1 + 2x2 − 2x3 = 0 , 2x1 + 5x2 + 4x3 = 0 , Eliminacijom
x1 iz druge jednadžbe dobivamo
1 1
x1 + x2 − x3 = 0
4 4
x2 + x3 = 0.
Odatle slijedi, uzimajući x3 kao slobodni parametar t , da je
v = t[1/2, −1, 1]⊤ ∼ t[1, −2, 2]⊤
Normiranjem, tj. za t = 1/3 , dobivamo jedinični vektor v1 = 13 [1, −2, 2]⊤ , i to je prvi
stupac matrice V .
Budući da je druga vlastita vrijednost 0 dvostruka, onda je za simetričnu matricu
A⊤ A pripadajući vlastiti podprostor dvodimenzionalan. Taj podprostor je ravnina kroz
ishodište okomita na vektor v1 , tj. vektor v1 je vektor normale na ravninu, pa odmah
dobivamo da je jednadžba tog podprostora x1 − 2x2 + 2x3 = 0 . Odavde slijedi da su
vlastiti vektori za λ = 0 oblika
" # " # " #
2x2 − 2x3 2 −2
v= x2 = x2 1 + x3 0 = x2 w2 + x3 w3 .
x3 0 1
Dovoljno je ortogonalizirati neku bazu u tom podprostoru. Uzmimo na pr. bazu
{w2 , w3 } . Vrijedi
" # " #   " #
(w | w ) −2 −4 2 − 25 −2
3 2
w′3 = w3 − w2 = 0 − 1 = 4 ∼ 4
kw2 k2 1 5 0
5
1 5
Normiranjem dobivamo preostala dva stupca ortogonalne matrice V :
" # " #
w2 1 2 w′3 1 −2
v2 = =√ 1 , v3 = = √ 4
kw2 k 5 0 kw′3 k 3 5 5
Dakle,  
1 √2 −
√2
3 5 3 5
 
V = [v1 , v2 , v3 ] =  − 32 √1
5
√4
3√ 5 
2 5
3 0 3

Postupkom opisanim u dokazu Teorema 3 je


 1

1 1 3
u1 = Av1 = [1, −2, 2] ·  − 23  = 1,
σ1 3 2
3
- A1v2 = 0
i dakle U = [1] . To je bilo odmah jasno, jer je matrica U reda 1 . Takoder,
i Av3 = 0 . Prema tome, singularna dekompozicija matrice A glasi A = UDV⊤ , tj.
 1 2 −2
⊤
√ √
3 5 3 5
 
[1, −2, 2] = [1] · [3, 0, 0] ·  − 23 √1
5
4

3√ 5 
2 5
3 0 3
Primijetite da je, u skladu s (9),
[1, −2, 2] = σ1 u1 v⊤ 1 2 2
1 = 3 · [1] · [ 3 , − 3 , 3 ]. (12)

Primjer 13. Ako je A 6= 0 jedno-redčana matrica, dokažimo da je vektor v = A⊤


vlastiti vektor matrice A⊤ A s pripadnom vlastitom vrijednošću λ = AA⊤ .
Primijetimo da je λ = AA⊤ doista realan broj. Prema tome vrijedi A⊤ Av =
(A A)A⊤ = A⊤ (AA⊤ ) = [jer je AA⊤ skalar] = (AA⊤ )A⊤ = λ v .

Primjer 14. Evo primjera singularnih rastava još nekih matrica A u obliku A =
UDV⊤ (pogledajte http://www.bluebit.gr/matrix-calculator):
     
1 0 0 1 3 0 0 1
= UDV⊤ =
0 3 1 0 0 1 1 0
     
1 2 0.585 −0.811 3.650 0 0.160 0.987
=
0 3 0.811 0.585 0 0.822 −0.987 0.160
    
1 0 4 −0.788 −0.615 4.821 0 0
= ×
0 3 2 −0.615 0.788 0 2.599 0
" #
−0.163 −0.383 −0.909
× −0.237 0.910 −0.341
−0.958 −0.160 0.239
6. SINGULARNA DEKOMPOZICIJA MATRICA 35

6.4. Pseudoinverzna matrica

Neka su zadani matrica A tipa m × n i vektor b reda m . Jednadžba Ax+ = b ne


mora imati rješenje, pa je od interesa pronaći vektor x+ za koji se lijeva i desna strana
najmanje razlikuju. Cilj nam je pronaći vektor x+ u Rn takav da je Euklidska norma
kAx+ − bk
najmanja. Naravno, ako je A invertibilna kvadratna matrica, onda je x+ = A−1 b , i
u tom slučaju je gornja norma jednaka nula. U općem slučaju rješenje će biti oblika
x+ = A+ b , gdje A+ tzv. pseudoinverz matrice A koji ćemo definirati za trenutak.
Radi jednostavnosti pogledajmo najprije slučaj kada je A = D dijagonalna pra-
vokutna matrica tipa m × n , s brojevima σ1 , . . . , σr na dijagonali. Onda je
Dx − b = (σ1 x1 − b1 , . . . , σr xr − br , −br+1 , . . . , −bm )⊤ .
Izraz
kDx − bk2 = (σ1 x1 − b1 )2 + . . . + (σr xr − br )2 + b2r+1 + . . . + b2m
je minimalan kada su izrazi u zagradama jednaki nula, tj. x1 = b1 /σ1 , . . . xr = br /σr ,
a ostale komponente biramo po volji, pa radi jednostavnosti stavljamo xr+1 = . . . =
xn = 0 . Drugim riječima, optimalan vektor koji minimizira izraz kDx − bk je
 
b1 /σ1
 .. 
 . 
 
 b / σ 
x+ =  r r  = D+ b, (13)
 0 
 .. 
 . 
0
gdje je D+ dijagonalna matrica tipa n × m s brojevima 1/σ1 , . . . , 1/σr na dijagonali:
 
1/σ1
 ... 
D+ = 
.

1/σr

Na praznim mjestima su nule. Matrica D+ zove se pseudoinverz dijagonalne matrice


D . Jasno je da se pseudoinvertiranjem matrice D+ dobiva D , tj. D++ = D .
Pogledajmo sada opću, ne nužno dijagonalnu matricu A , tipa m × n . Najprije
napravimo njenu singularnu dekompoziciju A = UDV⊤ , vidi Teorem 3. Matricu
A+ = VD+ U⊤ (14)
tipa n × m zovemo pseudoinverzom matrice A . U slučaju kada je A regularna
(kvadratna) matrica, onda je A+ inverz matrice A , tj.
A+ = A−1 .
Doista, za regularnu matricu A = UDV⊤ je A−1 = (UDV⊤ )−1 = (V⊤ )−1 D−1 U−1 =
VD+ U⊤ = A+ , jer je (V⊤ )−1 = (V−1 )−1 = V .

Teorem 6. Izraz kAx − bk je najmanji za x = A+ b , gdje je A+ pseudoinverz


matrice A . Ako je A = UDV⊤ singularni rastav i A = σ1 u1 v⊤ ⊤
1 + . . . + σr ur vr
+ + ⊤
pripadajući skraćeni singularni rastav, onda A = VD U ima skraćeni singularni
rastav
A+ = σ11 v1 u⊤ 1 ⊤
1 + . . . + σr vr ur . (15)
Vrijedi
u⊤
1 b u⊤ b
x = A+ b = v1 + . . . + r vr (16)
σ1 σr

DOKAZ. Budući da je matrica U unitarna, vektori Ax − b i U⊤ (Ax − b) imaju istu


duljinu, pa je
kAx − bk = kU⊤ (UDV⊤ x − b)k = kDV⊤ x − U⊤ bk.
Prirodno je uvesti u igru novi vektor y = V⊤ x . Izraz kDy − U⊤ bk je, kao što smo
vidjeli u (13), minimalan za y = D+ (U⊤ b) . Prema tome je V⊤ x = D+ (U⊤ b) .
Množenjem ove jednosti s V (s lijeva) dobivamo
x = VD+ U⊤ b = A+ b.
Relacija (16) slijedi iz skraćenog rastava (15), asocijativnosti množenja matrica, te radi
toga što su matrice u⊤i b zapravo realni brojevi:
A+ b = 1 ⊤
σ1 v1 (u1 b) + ... + 1 ⊤
σr vr (ur b).

Primjer 15. Operacija pseudoinvertiranja matrica je involutivna, tj. njenom dvostru-


kom primjenom se ništa ne mijenja: A++ = A . Doista, po definiciji je A+ = VD+ U⊤ .
Budući da je to opet singularna dekompozicija matrice A+ , onda primjenjujući defini-
ciju pseudonvertiranja na A+ dobivamo (A+ )+ = U⊤⊤ D++ V⊤ = UDV⊤ = A .

Pseudoinverz matrice se još često zove generalizirani inverz ili kvazi-inverz.

Primjer 16. Odredimo pseudoinverz matrice A = [1, −2, 2] . Iz (15) za tu matricu


dobivamo   " #
1
1
 · [1] = 1
3
+ 1 ⊤ 1  2
A = σ1 v1 u1 = 3 −3 −2
2 9 2
3

Pretpostavimo da je A kvadratna, i to regularna matrica. Onda jednadžba Ax = b


ima jednoznačno odredeno- rješenje. Ako u jednadžbi Ax = b mala promjena vek-
tora b na desnoj strani ili koeficijenata u A , uzrokuje radi pogreške u zaokruživanju
veliku promjenu u rješenju, onda kažemo da je matrica A slabo uvjetovana (engl. ill-
conditioned). To se dogada - ako je determinanta kvadratne matrice A blizu nula, tj.
blizu nekoj singularnoj (neinvertibilnoj) matrici. Matrici A se pridružuje broj σ1 /σr
(kvocijent najveće i najmanje singularne vrijednosti), koji se zove uvjetovanost matrice
A (engl. condition of A ). Što je veća uvjetovanost, matrica A je bliže singularnoj.

Primjer 17. Matrica  


2 6
A= 1 3.00001
je regularna, ali slabo uvjetovana jer je njena determinanta skoro nula: det A = 0.00001 .
Slaba uvjetovanost se očituje u tome da sustav
2x + 6y = 2
x + 3.00001 y = 1
ima rješenje x = 1 , y = 0 , dok sustav s malo promijenjenom desnom stranom,
2x + 6y = 2
x + 3.00001 y = 1.00001
ima jako promijenjeno rješenje: x = −2 , y = 1 . Sustav
2x + 6y = 2
x + 3y = 1.0001
nema rješenja. Sustav
2x + 6y = 2
x + 3y = 1
pak ima bezbroj rješenja. Sva četiri sustava su po svojim koeficijentima vrlo bliski jedan
drugome, a pitanje točnog rješenja, pa čak i rješivosti, je jako osjetljivo već na malu
promjenu koeficijenata. Singularne vrijednosti početne matrice A su 7.071072055 i
0.000002828 (provjeri putem www.bluebit.gr/matrix-calculator), pa je uvje-
tovanost matrice ogromna:
7.071072055
≈ 2 500 000.
0.000002828

You might also like