You are on page 1of 3

Sajátérték, sajátvektor

Előadásvázlat

Lineáris transzformáció

Ha adott egy A négyzetes mátrix, akkor az x→Ax hozzárendelést lineáris


transzformációnak nevezzük. Az x vektort tárgyvektornak, az y=Ax vektort az x
képvektorának hívjuk.
Itt feltettük, hogy az A oszlopvektorai az I egységmátrix oszlopai által alkotott
bázisban vannak megadva, A oszlopai az erre a bázisra vonatkozó koordináták. Ha
áttérünk egy másik bázisra és B az átmenet mátrixa (vagyis az új bázisnak a régi,
ebben az esetben az I bázisra vonatkozó koordinátái), akkor az x tárgyvektornak az új
bázisra vonatkozó koordinátáit az x’= B-1x formában tudjuk felírni, míg az y=Ax
képvektor koordinátái az új bázisban az y’= B-1y vektor elemei. A transzformáció,
amely az x’ tárgyvektorhoz az y’ képvektort rendeli így x’→y’= B-1ABx’ alakú lesz.

Alkalmas bázis megválasztásával a lineáris transzformáció mátrixa egyszerű formát


ölthet akkor is, ha eredetileg az A nem volt „egyszerű”. Különös figyelmet érdemel az
az eset, amikor a transzformáció mátrixa diagonális, mivel, mint azt később látni
fogjuk, a diagonális elemek előjele és nagysága sok mindenre használható mind a
matematika különböző területein, mind a közgazdasági elemzésekben.

A diagonalizációban (és egyéb területeken is) nagyon hasznosak a sajátértékek és


sajátvektorok.

Definíció: A λ számot az A mátrix sajátértékének, az x≠0 vektort pedig a λ-hoz tartozó


sajátvektorának nevezzük, ha kielégítik az Ax=λx egyenletrendszert.

A sajátértékeket a p(λ)=det(A-λI)=0 karakterisztikus egyenlet megoldásai, míg a λ


sajátértékhez tartozó sajátvektorokat az ((A-λI)x=0 homogén lineáris egyenletrendszer
nem triviális megoldásai adják.

Például, az
1 2
A=
3 0

mátrix karakterisztikus egyenlete a -λ(1-λ)-6=0 másodfokú egyenlet, amelynek két


megoldása: λ1=-2 és λ2=3 az A sajátértékei. A -2 sajátértékhez tartozó sajátvektorok az
x1 =t(1,1)’ alakban (t≠0), míg a 3 sajátértékhez tartozó sajátvektorok az x2 =s(-2, 3)’
(s≠0) alakban írhatók. Megfigyelhetjük, hogy ebben az esetben a különböző
sajátértékekhez tartozó sajátvektorok lineárisan függetlenek.

Nem minden mátrixnak van a valós számok körében sajátértéke, mint például az
0 1
A= mátrixnak nincs való sajátértéke, mivel a λ2+1=0 karakterisztikus
-1 0

egyenletnek nincs valós megoldása.

Nagyon könnyű meghatározni egy diagonális mátrix sajátértékeit: ezek pontosan a


mátrix diagonális elemei.

A sajátértékek fontos tulajdonsága, hogy függetlenek attól, hogy a transzformáció A


mátrixa mely bázisban van megadva, vagyis ha (λ, x) az A-nak sajátértéke és
sajátvektora, akkor (λ, B-1x) sajátértéke és sajátvektora a B-1AB mátrixnak.

Így, ha sikerül egy mátrixot diagonalizálni (találni egy olyan bázist, amelyben a
transzformáció mátrixa diagonális), akkor a sajátértékek meghatározása már egyszerű
dolog.

A diagonalizálhatóság kérdése szorosan összefügg azzal, hogy az A n-rendű mátrixnak


valamennyi sajátértéke valós-e. Ha ugyanis az A-nak λ1, …,λn valós sajátértékei
(ezek között lehetnek azonosak is), és az ezekhez tartozó x1,…,xn sajátvektorok
lineárisan függetlenek, akkor a lineáris transzformáció A mátrixa a sajátvektorokból
felépített B bázisban diagonális és a diagonális elemek maguk a sajátértékek, vagyis

B-1AB = diag (λ1, …,λn).

Könnyen ellenőrizhetjük, hogy az

1 2
A=
3 0

mátrix a sajátvektorokból felépített


2 1 1 -1
B= ( B-1 = 1/5 )
-3 1 3 2

bázisban diagonális, vagyis

B-1AB = diag(-2, 3).

Érdekes az alábbi tétel (amit nem bizonyítunk), amely egy elégséges (de nem
szükséges!) feltételt ad a diagonizálhatóságra: ha az A mátrixnak n különböző valós
sajátértéke van, akkor diagonizálható.
Mikor valósak egy A mátrix sajátértékei? Erre is adunk egy elégséges feltételt, ami sok
területen (pl. szélsőértékszámítás, statisztika) jól alkalmazható. Ha az A mátrix
szimmetrikus, akkor valamennyi sajátértéke valós.

Ezt a tételt 2-rendű mátrixok esetében könnyű bizonyítani, hiszen a karakterisztikus


egyenlet ekkor másodfokú és a gyökök akkor és csak akkor valósak, ha ennek az
egyenletnek a diszkriminánsa pozitív. Mivel a diszkrimináns (a 11- a22)2 + 4a12 a21, ez a
kifejezés pozitív, ha a12 = a21. Az általános bizonyítás nehezebb, ezzel nem
foglalkozunk.

A következő két állítást könnyű bizonyítani:


1. Szimmetrikus mátrixok esetében két különböző sajátértékhez tartozó sajátvektorok
ortogonálisak.
2. Egy ortogonális vektorrendszer (amelynek vektorai páronként ortogonálisak)
lineárisan független.

A fenti két tényből már következik, hogy azok a szimmetrikus mátrixok, amelyeknek
minden sajátértéke különböző, a sajátvektorok alkotta bázisban diagonálisak.

Ez a tétel igaz akkor is, ha a sajátértékek között vannak egyenlők is. (Ezt sem
bizonyítjuk)

Mivel a sajátvektorok nem nullák, ezért mindegyiket lehet normálni (vagyis minden
vektor abszolut értékének reciprokával beszorozzuk a vektor minden komponensét és
ezáltal egységnyi hosszúságúvá tesszük). Így a fentieket összefoglalhatjuk az alábbi
u.n. spektrál tételben:

Ha A szimmetrikus, akkor mindig van olyan U ortogonális mátrix (a normált


sajátvektorokból álló mátrix), hogy

U-1AU = diag (λ1, …,λn),

a λ1, …,λn az A valós sajátértékei.

Például, ha
1 -2
A=
-2 1

akkor a sajátértékek -1 és 3, a normalizált sajátvektorok (1/√2) (1, 1)’ és (1/√2) (-1, 1)’
így
1 -1 1 1
U= 1/√2 U-1 = 1/√2 U-1AU = diag (-1, 3).
1 1 -1 1

You might also like