You are on page 1of 75

UNIVERZA V MARIBORU

FAKULTETA ZA NARAVOSLOVJE IN MATEMATIKO

Oddelek za matematiko in računalništvo

DIPLOMSKO DELO

Klavdija Križnik

Maribor, 2011
UNIVERZA V MARIBORU

FAKULTETA ZA NARAVOSLOVJE IN MATEMATIKO

Oddelek za matematiko in računalništvo

Diplomsko delo

NENEGATIVNE MATRIKE

Mentor: Kandidatka:

doc. dr. Igor Klep Klavdija Križnik

Maribor, 2011
ZAHVALA

Zahvaljujem se svojemu mentorju docentu dr. Igorju Klepu za strokovno pomoč in


nasvete pri nastajanju in oblikovanju diplomskega dela.

Posebna zahvala gre tudi moji družini in Boštjanu, ki so mi v vseh letih študija stali
ob strani, me vzpodbujali ter verjeli vame.

Vsem se iskreno zahvaljujem.


UNIVERZA V MARIBORU

FAKULTETA ZA NARAVOSLOVJE IN MATEMATIKO

IZJAVA

Podpisana Klavdija Križnik, rojena 14. novembra 1987, študentka Fakultete za na-
ravoslovje in matematiko Univerze v Mariboru, študijskega programa matematika,
izjavljam, da je diplomsko delo z naslovom

NENEGATIVNE MATRIKE

pri mentorju doc. dr. Igorju Klepu avtorsko delo. V diplomskem delu so uporabljeni
viri in literatura korektno navedeni; teksti niso uporabljeni brez navedbe avtorjev.

Maribor, avgust 2011

Klavdija Križnik
Nenegativne matrike
program diplomskega dela

Realna matrika je nenegativna, če so vsi njeni elementi nenegativna realna števila. V
delu naj se kandidat seznani z osnovnimi lastnostmi nenegativnih matrik. Kot glavni
rezultat naj bo dokazan Perron-Frobeniusov izrek, ki govori o lastnih vrednostih in
lastnih vektorjih pozitivnih in nenegativnih matrik. Delo naj vsebuje tudi pregled
nekaterih razredov matrik, ki so sorodni nenegativnim matrikam; npr. M-matrike,
stohastične in bistohastične matrike. Delo naj vsebuje tudi kratek pregled osnovnih
pojmov o matrikah, ki so potrebni za lažje razumevanje besedila.

Osnovni viri:

1. D. Serre, Matrices: Theory and Applications, Springer-Verlag, New York, 2002.

2. H. Minc, Nonnegative Matrices, University of California, California, 1988.

doc. dr. Igor Klep


KRIŽNIK, K.: Nenegativne matrike.
Diplomsko delo, Univerza v Mariboru, Fakulteta za naravoslovje in mate-
matiko, Oddelek za matematiko in raunalnitvo, 2011.

IZVLEČEK

Diplomsko delo je sestavljeno iz štirih poglavij.

Prvo poglavje je namenjeno ponovitvi osnovnih pojmov matrik. V drugem poglavju so


predstavljene nenegativne matrike s poudarkom na Perron-Frobeniusovem izreku, ki opisuje
lastne vrednosti in lastne vektorje kvadratnih nenegativnih matrik. Kot poseben primer
nenegativnih matrik so opisane stohastične matrike.

V zadnjih dveh poglavjih pa predstavimo povezavo nenegativnih matrik z M -matrikami in


posplošenimi permutacijskimi matrikami.

Ključne besede: nenegativne matrike, Perron-Frobeniusov izrek, stohastične matrike,


M -matrike, posplošene permutacijske matrike

Math. Subj. Class. (2010): 15A04, 15A15, 15A18, 15B51


KRIŽNIK, K.: Nonnegative matrices.
Graduation Thesis, University of Maribor, Faculty of Natural Scicences and
Mathematics, Department of Mathematics and Computer Science, 2011.

ABSTRACT

The thesis includes four chapters.

The first chapter serves as an overview of the basic phrases from the field of matrices. The
second chapter introduces nonnegative matrices with an emphasis on the Perron-Frobenius
theorem, which describes eigenvalues and eigenvectors of nonnegative square matrices. As
a special example of nonnegative matrices the thesis also describes stochastic matrices.

The last two chapters demonstrate the connection between nonnegative matrices and M-
matrices as well as generalized permutation matrices.

Keywords: nonnegative matrices, Perron-Frobenius theorem, stochastic matrices,


M -matrices, generalized permutation matrices

Math. Subj. Class. (2010): 15A04, 15A15, 15A18, 15B51


Kazalo

Uvod 1

1 Matrike 2

1.1 Osnovno o matrikah . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.2 Determinanta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.3 Lastne vrednosti in lastni vektorji . . . . . . . . . . . . . . . . . . . . . . . . 15

1.4 Diagonalizacija . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

2 Nenegativne matrike 21

2.1 Uvod v nenegativne matrike . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2.2 Perron-Frobeniusov izrek . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

2.3 Stohastične matrike . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3 M -matrike 44

4 Posplošene permutacijske matrike 53

4.1 Definicija posplošene permutacijske matrike . . . . . . . . . . . . . . . . . . 54

4.2 Semidirektni produkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

4.3 Linearne transformacije na nenegativnih matrikah . . . . . . . . . . . . . . 58

Zaključek 64

Literatura 65

ix
Uvod

V diplomskem delu bomo predstavili nenegativne matrike. Pri razvoju teorije nenegativnih
matrik sta imela pomemben vpliv matematika Oskar Perron in Ferdinand Georg Frobenius.
Njun izrek o lastnih vrednostih nenegativnih matrik bomo dokazali v drugem poglavju.
Sicer pa se Perron-Frobeniusov izrek uporablja tudi v verjetnosti, v teoriji dinamičnih pro-
cesov, na področju ekonomije in demografije, kot matematično ozadje internetnih iskalnikov
in celo pri uvrstitvi nogometnih reprezentanc. Spoznali bomo posebne nenegativne matrike,
ki jih imenujemo stohastične matrike. Te matrike so zaradi svoje oblike, vsota elementov
v vsaki vrstici stohastične matrike je enaka ena, uporabne predvsem v teoriji verjetnosti.
Med drugim predstavljajo matrike prehoda v Markovskih verigah.

V tretjem poglavju bomo definirali M -matrike in prikazali njihovo povezavo z nenegativ-


nimi matrikami. Tudi M -matrike so uporabne na drugih področjih, na primer v brezžični
komunikaciji. V zadnjem poglavju bomo predstavili posplošene permutacijske matrike in
njihovo povezavo na nenegativne matrike.

Nenegativne matrike se uporabljajo tudi v teoriji grafov, kombinatoriki, statistiki, numerični


analizi, psihologiji, kemiji, ekonomiji, sociologiji in vseh drugih področjih, kjer lahko nu-
merične modele predstavimo z nenegativnimi matrikami.

1
Poglavje 1

Matrike

Namen tega poglavja je predstaviti osnovne pojme, definicije in izreke, ki se navezujejo na


matrike, saj jih bomo potrebovali za razumevanje naslednjih poglavij.

V prvem razdelku bomo zapisali definicijo in lastnosti matrike. Omenili bomo več vrst
matrik, jih opisali in prikazali na konkretnih primerih. Nato pa se bomo osredotočili še na
računanje z matrikami in zapisali osnovne lastnosti računskih operacij.

V drugem delu prvega poglavja bomo definirali determinanto matrike. Pogledali si bomo
kako se determinante izračunajo ter opisali njihov razvoj po vrstici in stolpcu. Nato bomo
dokazali nekaj lastnosti, ki veljajo zanje.

V naslednjem delu poglavja bomo vpeljali pojma lastne vrednosti in lastnega vektorja.
Predstavili bomo karakteristični in minimalni polinom ter pojasnili njun pomen. Omenili
in definirali bomo tudi spekter matrike.

V zadnjem razdelku prvega poglavja bomo zapisali, kdaj je matrika diagonalizabilna in


prikazali postopek diagonalizacije.

2
1.1 Osnovno o matrikah 3

1.1 Osnovno o matrikah

Naj bosta m in n naravni števili. Tedaj tabelo števil velikosti m × n imenujemo matrika
razsežnosti (ali reda) m × n. Označujemo jih z velikimi črkami. Matrika velikosti m × n
ima m vrstic in n stolpcev, splošno pa jo zapišemo tako:
 
a11 a12 ··· a1n
 
 a21 a22 · · · a2n 
A= .  = [aij ]m×n .
 
 .. .. .. ..
 . . . 

am1 am2 · · · amn

Z aij označimo element matrike, ki leži v i-ti vrstici in j-tem stolpcu.

Zgled 1 Naj bo dana matrika


 
2 3 5 1
 
A=
 6 8 4 3 .

1 1 7 9

Matrika A je razsežnosti 3 × 4, saj ima tri vrstice in štiri stolpce. Element a23 matrike A
leži v drugi vrstici in tretjem stolpcu ter ima vrednost 4.

V primeru, ko je n = 1, dobimo matriko velikosti m × 1 in jo imenujemo stolpec:


 
a1
 
 a2 
.
 
 ..

 . 

am

V primeru, ko je m = 1, pa dobimo matriko velikosti 1 × n in jo imenujemo vrstica:


h i
a1 a2 · · · an .

Matriko, ki ima enako število vrstic in stolpcev, torej matriko razsežnosti n × n imenujemo
kvadratna matrika. Kvadratna matrika, ki ima vse elemente, razen elementov aii na
diagonali, enake 0, se imenuje diagonalna matrika.
1.1 Osnovno o matrikah 4

Identična matrika reda n je matrika velikosti n×n, ki jo označimo z I = In in je definirana


s predpisom (
1; i = j
(I)ij =
0; sicer.
Zgled 2 Za n = 3 je identična matrika enaka
 
1 0 0
 
I3 = 
 0 1 0 .

0 0 1

Za identično matriko velja, da je AI = IA = A za vse A. Identična matrika ima torej pri


množenju matrik vlogo nevtralnega elementa.

Matrika je ničelna, če ima vse elemente enake 0 in jo označimo z 0.

Naj bo A matrika reda m × n. Potem matriko velikosti n × m, ki jo dobimo tako, da


zamenjamo vrstice in stolpce matrike A, imenujemo transponirana matrika matrike A
in jo označimo z AT .

Zgled 3 Naj bo " #


1 3 5
A= .
2 4 6
Potem je njena transponirana matrika enaka:
 
1 2
AT = 
 
 3 4 .

5 6

Neposredno iz definicije transponiranja matrike sledi naslednja lastnost. Če transponirano


matriko še enkrat transponiramo, dobimo prvotno matriko:

(AT )T = A.

Kvadratna matrika A je simetrična, če je enaka svoji transponirani matriki. To lahko


zapišemo tudi kot A = AT .

Konjugirano transponirano kompleksno matriko matrike A označimo z A∗ in jo imenu-


jemo adjungirana matrika. Za adjugirano matriko torej velja: A∗ = AT .
1.1 Osnovno o matrikah 5

Matrika A ∈ Mn (C) je hermitska, če je A∗ = A.

Matriko U ∈ Mn (R) pa imenujemo ortogonalna, če je U T U = U U T = I.

Matrika, ki ima za elemente namesto skalarjev matrike ustreznih razsežnosti, je bločna


matrika. Razsežnosti posameznih matrik so določene tako:
 
A11 A12 · · · A1n
 
 A21 A22 · · · A2n 
A= .  = [Auv ]r×n ,
 
 .. .. .. ..
 . . . 

Ar1 Ar2 · · · Arn

kjer je Auv = [aij ]ru ×nv , za u ∈ 1, 2, ..., r in v ∈ 1, 2, ..., n. Matrike A11 , A12 ,..., Arn imenu-
jemo bloki matrike A.

Zgled 4 Primer bločne matrike:


 " # " # 
2 3 5 2 " #
  A11 A12
 h 1 4 0 i
A= 6 = .
 A21 A22
7 8 9 [7]

Kvadratna matrika oblike  


A11 · · · 0
 . .. .. 
A= .
 . . ,
. 
0 · · · Akk
Pk
kjer je Aii ∈ Mni ×ni (R), za i ∈ 1, 2, ..., k in i=1 ni = n, se imenuje bločno diagonalna
matrika.

Zgled 5 Primer bločno diagonalne matrike:


 
3 2 0 0 0
 
 1 5 0 0 0 
 
A= 0 0 7 0 0 .
 
 
 0 0 0 6 4 
 
0 0 0 9 8
" # " #
3 2 6 4
Pri tem so urejeni bloki matrike A11 = , A22 = [7] in A33 = .
1 5 9 8
1.1 Osnovno o matrikah 6

Računanje z matrikami

Matriki A in B sta enaki, če imata isto dimenzijo in se ujemata v vseh istoležnih ele-
mentih. Torej matriki A reda m × n in B reda p × q sta enaki natanko tedaj, kadar je
m = p, n = q in velja aij = bij za vsak i = 1, ..., m in j = 1, ..., n.

Matrike lahko množimo s skalarjem, seštevamo pa lahko le matrike istega reda.

Naj bo α ∈ R poljuben skalar in matrika A ∈ Mm×n (R). Produkt matrike s skalarjem


definiramo na naslednji način
 
αa11 αa12 ··· αa1n
 
 αa21 αa22 · · · αa2n 
αA =  . .
 
 .. .. .. ..
 . . . 

αam1 αam2 · · · αamn

Torej matriko množimo s skalarjem α tako, da vsak element pomnožimo z α. Matriki reda
m × n pa seštejemo tako, da seštejemo vse istoležne elemente.

Naj bosta matriki A, B ∈ Mm×n (R). Potem je vsota matrik definirana s predpisom
 
a11 + b11 a12 + b12 ··· a1n + b1n
 
 a21 + b21 a22 + b22 · · · a2n + b2n 
A+B = .
 
.
.. .. .. ..

 . . . 

am1 + bm1 am2 + bm2 · · · amn + bmn

Za operacijo seštevanja matrik veljajo naslednje lastnosti:

• komutativnost: A + B = B + A za vse A, B ∈ Mm×n (R),

• asociativnost: A + (B + C) = (A + B) + C za vse A, B, C ∈ Mm×n (R),

• nevtralni element za seštevanje: A + 0 = 0 + A = A za vse A ∈ Mm×n (R) in ničelno


matriko 0 ∈ Mm×n (R),

• inverz za seštevanje: −A + A = 0 za vse A ∈ Mm×n (R). Pri tem je −A = (−1) · A,

• za transponiranje vsote matrik pa velja: (A+B)T = AT +B T za vse A, B ∈ Mm×n (R).


1.1 Osnovno o matrikah 7

Te lastnosti sledijo iz podobnih lastnosti za seštevanje realnih števil, zato jih ne bomo
dokazovali. Naslednje lastnosti pa veljajo za seštevanje in množenje matrik s skalarjem in
tudi sledijo iz podobnih lastnosti za seštevanje in množenje realnih števil:

• množenje matrike s skalarjem je distributivno glede na seštevanje matrik in glede na


seštevanje števil:
α(A + B) = αA + αB

(α + β)A = αA + βA,

za vse A, B ∈ Mm×n (R) in α, β ∈ R,

• α(βA) = (αβ)A za vse A ∈ Mm×n (R) in α, β ∈ R,

• (αA)T = αAT za vse A ∈ Mm×n (R) in α ∈ R,

• 1 · A = A za vse A ∈ Mm×n (R).

Matriko B, ki ima lastnost A + B = 0 imenujemo nasprotna matrika matrike A in jo


označimo z −A, torej
A + (−A) = 0.

Iz definicije seštevanja matrik izhaja, da ima matrika −A vse elemente nasprotnega pred-
znaka kot matrika A: −A = [−aij ].

Sedaj pa si poglejmo še operacijo množenja matrik. Matriki A in B lahko pomnožimo


le, če je število stolpcev prve matrike enako številu vrstic druge matrike. Naj bosta torej
matrika A reda m×n in matrika B reda n×p. Tedaj je produkt matrik A in B, C = A·B
matrika reda m × p, definirana s predpisom
n
X
(C)ij = (A · B)ij = aik bkj .
k=1

Element cij lahko opišemo na kratko kot skalarni produkt i-te vrstice matrike A in j-tega
stolpca matrike B.

Zgled 6 Dani sta matriki


 
3 −1 " #
  3 1
A=
 −6  in
2  B= .
2 2
−3 1
1.1 Osnovno o matrikah 8

Potem je njun produkt enak


   
3 · 3 + (−1) · 2 3 · 1 + (−1) · 2 7 1
   
A·B =
 −6 · 3 + 2 · 2 −6 · 1 + 2 · 2  =
 
 −14 −2  .

−3 · 3 + 1 · 2 −3 · 1 + 1 · 2 −7 −1

Naj bodo A, B in C dane matrike. Naštejmo še nekaj lastnosti množenja matrik, če so
matrike A, B in C takih razsežnosti, da so računske operacije izvedljive:

• množenje matrik je asociativno: (AB)C = A(BC),

• množenje matrik je distributivno: (A + B)C = AC + BC in A(B + C) = AB + AC,

• množenje matrik v splošnem ni komutativno: AB 6= BA,

• (AB)T = B T AT ,

• (αA)B = α(AB) = A(αB) za vse α ∈ R,

• enota za množenje je identična matrika: AI = IA = A.

Za nekatere matrike lahko definiramo matriko, ki ima analogen pomen, kot ga ima pri
realnih številih obratno število danega števila. Torej, če število a ni enako 0, lahko najdemo
tako število x, da velja ax = xa = 1. Število x imenujemo obratno število števila a in ga
označimo z a−1 . Med matrikami ima identična matrika I enako vlogo kot število 1 med
realnimi števili, saj smo ugotovili, da velja AI = IA = A.

Naj bo A kvadratna matrika in I identična matrika istega reda kot A. Če obstaja kvadratna
matrika X, ki zadošča pogojema AX = I in XA = I, jo imenujemo inverzna ali obratna
matrika matrike A. Označimo jo z A−1 . Matrika, pri kateri obstaja inverzna matrika, se
imenuje obrnljiva matrika.

Za obrnljivi matriki A in B veljajo naslednje lastnosti:

• (A−1 )−1 = A,

• (AB)−1 = B −1 A−1 ,

• (A−1 )T = (AT )−1 .


1.2 Determinanta 9

1.2 Determinanta

V tem poglavju bomo vpeljali pojem determinante matrike, spoznali računanje z determi-
nantami in obravnavali njene lastnosti.

Determinanto definiramo s pomočjo permutacij, zato si najprej poglejmo, kaj je permuta-


cija. Permutacija dolžine n je bijektivna preslikava iz {1, 2, ..., n} v {1, 2, ..., n}. Množico
vseh permutacij dolžine n označimo s Sn . Permutacija π je transpozicija permutacije π 0 , če
se π in π 0 razlikujeta v natanko dveh slikah. Vsako permutacijo iz Sn lahko zapišemo kot
produkt transpozicij. Če je permutacija zapisana kot produkt sodega števila transpozicij,
potem je soda. Sicer je permutacija liha.

Naj bo A kvadratna matrika reda n:


 
a11 a12 · · · a1n
 
 a21 a22 · · · a2n 
A= .  = [aij ].
 
 .. .. .. ..
 . . . 

an1 an2 · · · ann

Tedaj je determinanta matrike A definirana s predpisom


X
det A = s(π)a1,π(1) · a2,π(2) · ... · an,π(n) ,
π∈Sn

kjer je s(π) = 1, če je π soda in s(π) = −1, če je π liha permutacija.

Determinanta je torej vsota vseh možnih produktov, kjer iz vsake vrstice in vsakega stolpca
izberemo po en element.

Determinanto zapišemo tudi s tabelo



a11 a12 · · · a1n



a21 a22 · · · a2n
det A = det[aij ] = . .

.. .. .. ..
. . .

an1 an2 · · · ann


1.2 Determinanta 10

Razvoj determinante

Determinanto matrike lahko izračunamo s pomočjo rekurzivne formule. Determinanta ma-


trike reda 1, A = [a], je kar enaka edinemu elementu matrike:

det[a] = a.

Determinanta matrike reda 2, " #


a11 a12
A= ,
a21 a22
pa je število, ki ga izračunamo tako:

a
11 a12

det A = = a11 a22 − a12 a21 .

a21 a22

Naj bo n ≥ 2 in A = [aij ], kjer je 1 ≤ i ≤ n in 1 ≤ j ≤ n, kvadratna matrika reda n. Z Dij


označimo tisto determinanto reda n − 1, ki jo dobimo, če v matriki A izpustimo i-to vrstico
in j-ti stolpec. Determinanto matrike A lahko zapišemo s predpisom

det A = a11 D11 + · · · + a1j (−1)1+j D1j + · · · + a1n (−1)n+1 D1n .

Temu zapisu pravimo razvoj determinante po prvi vrstici. Determinantam, ki jih dobimo
tako, da v matriki A prečrtamo eno ali več vrstic in stolpec, pravimo poddeterminante
matrike A. V našem zapisu so torej determinante Dij poddeterminante matrike A.

Poglejmo si bolj natančno determinanto matrike reda 3. Determinanta



a11 a12 a13



det A = a21 a22 a23


a31 a32 a33

je enaka
a
22 a23
a
21 a23
a
21 a22

det A = a11 − a12 + a13 .

a32 a33 a31 a33 a31 a32

Zgled 7 Naj bo dana matrika


 
3 0 1
 
A=
 1 .
2 5 
−1 4 2
1.2 Determinanta 11

Potem je determinanta matrike A enaka


3 0 1

2 5 1 5 1 2
det A = 1 2 5 = 3 − 0 + 1


4 2 −1 2 −1 4
−1 4 2

= 3(4 − 20) + (4 + 2) = −48 + 6 = −42.

Če upoštevamo rekurzivno formulo za determinanto matrike reda 3 dobimo

det A = a11 (a22 a33 − a23 a33 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a22 a31 ).

S primerjavo členov lahko ugotovimo, da dobimo isti rezultat, če determinanto det A razvi-
jemo po prvem stolpcu namestu po prvi vrstici:

a
22 a23
a
12 a13
a
12 a13

det A = a11 − a21 + a31 .

a32 a33 a32 a33 a22 a23

Prav tako dobimo isti rezultat, če determinanto razvijemo po katerikoli drugi vrstici ali
stolpcu. Splošno torej velja:
n
X n
X
det A = aij (−1)i+j Dij = aij (−1)i+j Dij .
j=1 i=1

Produkt
Aij = (−1)i+j Dij

v razvoju determinante imenujemo kofaktor elementa aij v matriki A. Torej lahko razvoj
determinante po i-ti vrstici zapišemo krajše
n
X
det A = aij Aij ,
j=1

razvoj po j-tem stolpcu pa


n
X
det A = aij Aij .
i=1
1.2 Determinanta 12

Lastnosti determinante

Izrek 1.1 Determinanti matrike in njene transponiranke sta enaki

det A = det AT .

Dokaz. Ta lastnost je neposredna posledica dejstva, da lahko determinanto izračunamo z


razvojem po prvi vrstici ali pa z razvojem po prvem stolpcu. Če determinanto matrike A
razvijemo po prvi vrstici, dobimo natanko isti izraz, kot če determinanto njene transponi-
ranke razvijemo po prvem stolpcu.

Zaradi te lastnosti veljajo lastnosti, ki jih bomo navedli v nadaljevanju za vrstice in za


stolpce. Dokazali pa jih bomo samo za vrstice.

Izrek 1.2 Če v kvadratni matriki A zamenjamo dve vrstici, dobimo matriko A0 in velja

det A0 = − det A.

Dokaz. Naj bo A kvadratna matrika, v kateri zamenjamo dve sosednji vrstici. Naj bosta
to i-ta in (i + 1)-ta vrstica. Novo matriko označimo z A0 , njene elemente pa z a0ij . Nato
det A razvijemo po i-ti vrstici in det A0 po (i + 1)-ti vrstici. Vrstici imata iste elemente,
ustrezni kofaktorji pa se razlikujejo samo po predznaku, saj se vsota indeksov vrstice in
stolpca pri vsakem kofaktorju spremeni za 1.
n
X
det A = ak Ak
k=1

n
X n
X n
X
det A0 = a0i+1k A0i+1k = aik (−Aik ) = − aik Aik = − det A.
k=1 k=1 k=1

Če pa v matriki zamenjamo dve enaki vrstici, je dobljena matrika A0 enaka matriki A, torej
je
det A = det A0 = − det A in det A = 0.

S tem smo dokazali naslednjo posledico:

Posledica 1.3 Če sta dve vrstici matrike A enaki, je det A = 0.


1.2 Determinanta 13

V primeru, da ima matrika A v kakšni vrstici same ničle, je njena determinanta enaka 0.

Prav tako pa je det A = 0, če je ena vrstica v matriki A večkratnik kakšne druge vrstice.

Izrek 1.4 Če pomnožimo vse elemente kakšne vrstice ali kakšnega stolpca kvadratne ma-
trike A s skalarjem α, je determinanta nove matrike A0 enaka produktu determinante ma-
trike A in skalarja α.

Dokaz. Vse elemente v i-ti vrstici matrike A pomnožimo s skalarjem α in izračunamo


determinanto nove matrike A0 z razvojem po i-ti vrstici:
n
X n
X n
X
0
det A = (αaik )Aik = α(aik Aik ) = α aik Aik = α det A.
k=1 k=1 k=1

Če lahko v matriki A vse elemente kakšne vrstice zapišemo kot vsoto dveh členov, potem
je njena determinanta enaka vsoti dveh determinant

a11 ··· a1n a11 · · · a1n a11 · · · a1n


.
.. .. .
. .. .
. ..
. . . . .



ai1 + bi1 · · · ain + bin = ai1 · · · ain + bi1 · · · bin .

.. .. .
.. .. .
.. ..

. . . .


an1 ··· ann an1 · · · ann an1 · · · ann

Determinanta matrike se ne spremeni, če kakšni vrstici matrike prištejemo večkratnik kakšne
druge vrstice.

Če matriko reda n × n pomnožimo s skalarjem, potem velja

det(αA) = αn det A.

Za determinanto produkta dveh matrik pa velja naslednji izrek.


1.2 Determinanta 14

Izrek 1.5 Naj bosta A, B ∈ Mn (R), potem je

det AB = det A · det B

Dokaz. Naj bo C = AB. Naj bodo c1 , c2 , ..., cn stolpci matrike C, a1 , a2 , ..., an stolpci
matrike A in  
b11 b12 · · · b1n
 
 b21 b22 · · · b2n 
B= .
 
.. .. .. ..

 . . . . 

bn1 bn2 · · · bnn

Potem je
n
X
cj = bij j aij .
ij =1

Z uporabo zgoraj naštetih lastnosti determinante matrik dobimo:


det C = c1 c2 · · · cn

P
n Pn Pn
= b a b a · · · b a

i1 =1 i1 1 i1 i2 =1 i2 2 i2 in =1 in n i1 n
X n X n Xn
= ··· bi1 1 ai1 bi2 2 ai2 · · · bin n ain

i1 =1 i2 =1 in =1
X n X n Xn
= ··· bi1 1 bi2 2 · · · b1n n ai1 a i2 · · · ain

i1 =1 i2 =1 in =1
X
= bπ(1)1 bπ(2)2 · · · bπ(n)n aπ(1) aπ(2) · · · aπ(n)

π∈Sn
X
= s(π)bπ(1)1 bπ(2)2 · · · bπ(n)n a1 a2 · · · an

π∈Sn

= det A det(B T ) = det A det B


1.3 Lastne vrednosti in lastni vektorji 15

1.3 Lastne vrednosti in lastni vektorji

V tem poglavju bomo definirali pojma lastne vrednosti in lastnega vektorja matrik. Nato
bomo predstavili karakteristični in minimalni polinom ter zapisali nekaj njunih lastnosti.
Na koncu pa bomo vpeljali še pojem spektra matrike.

Definicija 1.6 Naj bo A ∈ Mn (C) kvadratna matrika. Kompleksno število λ imenujemo


lastna vrednost matrike A, če obstaja takšen neničelni vektor x ∈ Cn , da je

Ax = λx.

Vektor x imenujemo lastni vektor matrike A, pripadajoč lastni vrednosti λ.

Po definiciji je λ ∈ C lastna vrednost za A ∈ Mn (C), če obstaja takšen neničeln vektor


x ∈ Cn , da je Ax = λx oziroma, da velja (A − λI)x = 0. To pa je ekvivalentno zahtevi, da
je ker(A − λI) 6= 0, saj je 0 6= x ∈ ker(A − λI). Tako smo dokazali naslednjo trditev.

Trditev 1.7 Kompleksno število λ je lastna vrednost za A ∈ Mn (C) natanko tedaj, ko je


ker(A − λI) 6= 0.

Zgled 8 Naj bo dana diagonalna matrika


 
a1 0 ··· 0
 
 0 a2 · · · 0 
A= .
 
.. .. . . ..

 . . . . 

0 0 · · · an

Vsi standardni bazni vektorji e1 , ..., en so lastni vektorji matrike A, saj je Aei = ai ei . La-
stna vrednost, ki pripada vektorju ei , je diagonalni element ai .

Lastni vektorji kvadaratne matrike A ∈ Mn (C) so netrivialne rešitve enačbe

Ax = λx = λIx,

ki jo lahko zapišemo tudi takole


(A − λI)x = 0.
1.3 Lastne vrednosti in lastni vektorji 16

Lastne vrednosti so tista števila λ, pri katerih ima ta enačba netrivialne rešitve. Lastni
vektorji so torej netrivialne rešitve homogenega sistema linearnih enačb, kjer je matrika
koeficientov enaka (A − λI). Homogen sistem pa ima netrivialne rešitve samo v primeru,
če je rang matrike koeficientov manjši od n, torej, če je

det(A − λI) = 0.

Pri tem je rang matrike A število linearno neodvisnih vrstic oziroma stolpcev matrike.
Linearna neodvisnost vrstic ali stolpcev pomeni, da se posamezne vrstice ali stolpci ne mo-
rejo izraziti z drugimi.

Definicija 1.8 Polinom


pA (λ) = det(A − λI)

v spremenljivki λ imenujemo karakteristični polinom matrike A.

Iz te definicije torej sledi:

Izrek 1.9 Lastne vrednosti kvadratne matrike A reda n so ničle karakterističnega polinoma
matrike, torej rešitve enačbe
det(A − λI) = 0.

Pripadajoči lastni vektorji so netrivialne rešitve homogenega sistema

(A − λI)x = 0.

Skupaj z vektorjem 0 sestavljajo vektorski prostor, katerega dimenzija je enaka

n − rang(A − λI).

Zgled 9 Poiščimo lastne vrednosti in pripadajoče lastne vektorje za matriko


" #
5 4
A= .
1 2

Karakteristični polinom za A je

5−λ 4
pA (λ) = det(A − λI) = = (5 − λ)(2 − λ) − 4 = λ2 − 7λ + 6 = (λ − 6)(λ − 1).

1 2−λ
1.3 Lastne vrednosti in lastni vektorji 17

Lastni vrednosti sta ničli karakterističnega polinoma pA (λ), torej λ1 = 6 in λ2 = 1. Pripa-


dajoča lastna vektorja x1 in x2 pa morata rešiti enačbi

(A − 6I)x1 = 0 in (A − I)x2 = 0.
" # " #
4 −1
Za rešitvi teh dveh enačb izberemo npr. x1 = in x2 = .
1 1

Trditev 1.10 Če sta si matriki A in B podobni, potem imata enaka karakteristična poli-
noma.

Dokaz. Dve kvadratni matriki enake velikosti A in B sta podobni, če obstaja obrnljiva
matrika P , za katero velja A = P BP −1 . Potem z uporabo te definicije in lastnosti deter-
minante sledi:

pA (λ) = det(A − λI) = det(P BP −1 − λI) = det(P (B − λI)P −1 )


= det P det(B − λI) det P −1 = det P det P −1 det(B − λI)
= det(B − λI) = pB (λ).

Naj bo λ lastna vrednost matrike A. Večkratnost λ kot ničle karakterističnega polinoma


pA (λ) imenujemo algebraična večkratnost lastne vrednosti λ. Označimo jo z a(λ). Dimen-
zijo lastnega podprostora ker(A − λI) imenujemo geometrična večkratnost lastne vrednosti
λ. Označimo jo z g(λ).

Ker so lastne vrednosti ničle karakterističnega polinoma, ki je polinom stopnje n, je vsota al-
gebraičnih večkratnosti vseh lastnih vrednosti enaka n. To sledi iz osnovnega izreka algebre.

Zgled 10 Poiščimo algebraične in geometrične večkratnosti lastnih vrednosti matrike


 
2 1 0
 
A=
 0 1 −1  .

0 2 4
1.3 Lastne vrednosti in lastni vektorji 18

Karakteristični polinom matrike A je


2−λ 1 0



pA (λ) = 0
1 − λ −1 = (2 − λ)((1 − λ)(4 − λ) + 2)

4−λ

0 2
= (2 − λ)(λ2 − 5λ + 6) = (2 − λ)2 (3 − λ).

Lastni vrednosti sta λ1 = 2 in λ2 = 3. Njuni algebraični večkratnosti pa sta a(λ1 ) = 2 in


a(λ2 ) = 1. Geometrični večkratnosti poiščemo tako, da izračunamo rang matrike (A − λj I),
za j = 1, 2. Tako je
g(λj ) = 3 − r(A − λj I).

Za λ1 = 2 je  
0 1 0
 
A − 2I = 
 0 −1 −1  .

0 2 2

Ker sta druga in tretja vrstica v A − 2I linearno odvisni, je rang r(A − 2I) = 2. Potem je
g(2) = 3 − 2 = 1.

Za λ2 = 3 dobimo  
−1 1 0
 
A − 3I = 
 0 .
−2 −1 
0 2 1

Zopet sta druga in tretja vrstica v A − 3I linearno odvisni. Torej je rang r(A − 3I) = 2 in
je g(3) = 1.

Polinom imenujemo enični, če ima vodilni koeficient enak 1.

Definicija 1.11 Minimalni polinom matrike A ∈ Mn (C), mA (x), je enični polinom p


najmanjše stopnje, za katerega je p(A) = 0.

Število λ je lastna vrednost matrike A ∈ Mn (C) natanko tedaj, ko je λ ničla minimalnega


polinoma:
mA (λ) = 0.

Množico vseh lastnih vrednosti λ ∈ C matrike A ∈ Mn (C) imenujemo spekter matrike A


in ga označimo z σ(A). Spektralni radij matrike A pa označimo z ρ(A) in ga definiramo
kot
ρ(A) = max{|λ|; λ ∈ σ(A)}.
1.4 Diagonalizacija 19

1.4 Diagonalizacija

Definicija 1.12 Matrika A je diagonalizabilna, če je podobna neki diagonalni matriki.


To pomeni, da obstaja taka matrika P , da je P −1 AP = D.

Naj bo A ∈ Mn (R), ki ima n linearno neodvisnih lastnih vektorjev u1 , ..., un . Ti vektorji


sestavljajo bazo prostora Rn in poljuben vektor lahko zapišemo na en sam način kot linearno
kombinacijo
x = α1 u1 + · · · + αn un .

Komponente poljubnega vektorja x v standardni bazi dobimo tako, da n-terico njegovih


komponent pri dani bazi pomnožimo s prehodno matriko P , ki ima v stolpcih ravno kom-
ponente lastnih vektorjev u1 , ..., un . Zato velja
   
x1 α1
 .   . 
 ..  = P  ..  .
   
xn αn

Prav tako lahko  


y1
 . 
Ax =  . 
 . 
yn
zapišemo kot linearno kombinacijo

Ax = β1 u1 + · · · + βn un

in velja        
α1 x1 y1 β1
 .   ..   ..   . 
AP  ..  = A  =  ..  .
.  =P
. 

      
αn xn yn βn
Matrika P je obrnljiva, ker ima v stolpcih linearno neodvisne vektorje u1 , ..., un , torej je
   
β1 α1
 .   . 
 ..  = P −1 AP  ..  .
   
βn αn
1.4 Diagonalizacija 20

Prav tako pa je P −1 AP matrika, ki ima v stolpcih slike baznih vektorjev Au1 = λ1 u1 , ..., Aun =
λn un , zapisanih v bazi u1 , ..., un . Torej je
 
λ1 0 ··· 0
 
 0 λ2 · · · 0 
P −1 AP = D = 
 
.. .. . . .. 

 . . . . 

0 0 · · · λn

diagonalna matrika. Postopek, ki smo ga opisali pa imenujemo diagonalizacija matrike A.

S tem smo dokazali naslednji izrek.

Izrek 1.13 Če je A ∈ Mn (R) matrika, ki ima n linearno neodvisnih lastnih vektorjev
u1 , ..., un , sestavljajo ti vektorji bazo prostora Rn . Naj bo P prehodna matrika med to bazo
in standardno bazo prostora Rn . P ima torej v stolpcih vektorje u1 , ..., un . Produkt

D = P −1 AP

opisuje linearno preslikavo A(x) = Ax v bazi iz lastnih vektorjev, kjer je A : Rn → Rn . D


je diagonalna matrika z lastnimi vrednostmi matrike A na diagonali.
Poglavje 2

Nenegativne matrike

V tem poglavju bomo naprej razložili pojem nenegativnih matrik, kasneje bomo predstavili
še njihovo uporabo. Nenegativne matrike so matrike, ki imajo za elemente nenegativna
števila. Dokazali bomo Perron-Frobeniusov izrek, ki opisuje lastnosti največjih lastnih vre-
dnosti in pripadajočih lastnih vektorjev nenegativnih kvadratnih matrik. Najprej bomo s
pomočjo Brouwerjevega izreka o negibni točki dokazali šibko obliko Perron-Frobeniusovega
izreka, ki pravi, da je pripadajoči lastni vektor največje lastne vrednosti nenegativne matrike
nenegativen. Nato bomo definirali nerazcepne matrike in zapisali nekaj trditev, ki veljajo za
nenegativne nerazcepne matrike, saj jih bomo potrebovali pri formulaciji in dokazu krepke
oblike Perron-Frobeniusovega izreka. Ta pravi, da je največja lastna vrednost nenegativne
nerazcepne matrike enostavna, njen pripadajoči lastni vektor pa je pozitiven.

V zadnjem razdelku tega poglavja bomo predstavili in zapisali še nekaj lastnosti posebnih
nenegativnih matrik, ki jim pravimo stohastične matrike. To so matrike, katerih elementi
so nenegativna števila, vsota elementov vsake vrstice pa je enaka ena. V primeru, da je tudi
vsota elementov vsakega stolpca enaka ena, pa je matrika bistohastična. Poseben primer
bistohastične matrike je permutacijska matrika. Eden pomembnejših izrekov, ki pojasnjuje
vlogo permutacijskih matrik je Birkhoffov izrek, ki pravi, da je matrika bistohastična, ko
je enaka konveksni kombinaciji permutacijskih matrik. Dokazali ga bomo s pomočjo Krein-
Milmanovega izreka o kompaktnih konveksnih množicah. Na koncu pa bomo na konkretnem
primeru ponazorili razcep bistohastične matrike na bločno strukturo, kjer bloki, dobljeni iz
enako indiksiranih particij razcepa, predstavljajo stohastične matrike. Pokazali bomo, da
lahko najdemo še boljši razcep matrike, ki ga imenujemo kanonični razcep. Ustrezni bloki
tega razcepa spadajo med bistohastične matrike.

21
2.1 Uvod v nenegativne matrike 22

2.1 Uvod v nenegativne matrike

Definicija 2.1 Vektor x ∈ Rn je nenegativen, če so vse njegove koordinate nenegativne,


kar označimo z x ≥ 0 in je pozitiven, če so vse njegove koordinate pozitivne, kar označimo
z x > 0.
Matrika A ∈ Mn×m (R) (ne nujno kvadratna) je nenegativna, če so vsi njeni elementi
nenegativna števila, kar označimo z A ≥ 0 in je pozitivna, če so vsi njeni elementi pozitivna
števila, kar pa označimo z A > 0.

Naj bo dan x ∈ Cn . Z |x| označimo nenegativen vektor, katerega koordinate so števila |xj |.
Podobno, če A ∈ Mn (C), ima matrika |A| elemente |aij |.

Za matriko in vektor (ali dve matriki) velja trikotniška neenakost

|Ax| ≤ |A| · |x|.

Trditev 2.2 Matrika A je nenegativna natanko tedaj, ko za vsak x ≥ 0 velja Ax ≥ 0.


Pozitivna pa je natanko tedaj, ko za vsak 0 6= x ≥ 0 velja Ax > 0.

Dokaz. Privzemimo, da je Ax ≥ 0 (oziroma Ax > 0) za vsak x ≥ 0 (oziroma x ≥ 0 in


x 6= 0). Potem je i-ti stolpec matrike A (označimo ga z A(i) ) nenegativen, saj predstavlja
sliko i-tega vektorja v kanonični bazi. Zato sledi, da je A ≥ 0 (oziroma A > 0).

Obratna implikacija je trivialna. Torej, če je A ≥ 0 in x ≥ 0, potem od tod sledi, da je


Ax ≥ 0. Če pa je A > 0, x ≥ 0 in x 6= 0, potem obstaja tak indeks `, tako da velja x` > 0.
Od tod sledi, da je
X
(Ax)i = aij xj ≥ ai` x` > 0,
j

in zato je Ax > 0.
2.2 Perron-Frobeniusov izrek 23

2.2 Perron-Frobeniusov izrek

V tem razdelku poglavju bomo dokazali dve obliki Perron-Frobeniusovega izreka. Prva šibka
oblika izreka velja za nenegativne matrike, medtem ko druga krepka oblika izreka velja za
nenegativne nerazcepne matrike.

Pri dokazu šibke oblike Perron-Frobeniusovega izreka, si bomo pomagali z Brouwerjevim


izrekom. Njegov dokaz lahko najdemo npr. v knjigi [2].

Izrek 2.3 (Brouwerjev izrek) Naj bo S neprazna, zaprta, omejena in konveksna množica
v Rn in naj bo f : S → S zvezna preslikava. Potem obstaja takšen x ∈ S, da je f (x) = x.
Pri tem točko x imenujemo negibna točka preslikave f .

Šibka oblika Perron-Frobeniusovega izreka se glasi:

Izrek 2.4 (Perron-Frobeniusov izrek, šibka oblika) Naj bo A ∈ Mn (R) nenegativna


matrika. Tedaj je ρ(A) lastna vrednost matrike A, katere pripadajoči lastni vektor je nene-
gativen.

Dokaz. Naj bo λ po absolutni vrednosti največja lastna vrednost in v lastni vektor


P
normiran z ||v||1 = |vj | = 1. Torej je

ρ(A)|v| = |λv| = |Av| ≤ A|v|.

Označimo s C podmnožico množice Rn , ki jo določajo (ne)enakosti


X
xi = 1, x≥0 in Ax ≥ ρ(A)x.
i

To je zaprta konveksna in neprazna množica, saj vsebuje vektor |v|. Prav tako je omejena,
saj za x ∈ C velja, da je 0 ≤ xj ≤ 1 za vsak j. Ločimo dva primera:

1. Naj obstaja takšen x ∈ C, da je Ax = 0. Tedaj iz neenakosti ρ(A)x ≤ Ax sledi, da


je ρ(A)x ≤ 0. Ker vektor x ∈ C, je x ≥ 0. ρ(A) pa kot največja lastna vrednost po
absolutni vrednosti ni negativna, zato sledi, da je ρ(A) = 0. V tem primeru je izrek
dokazan.
2.2 Perron-Frobeniusov izrek 24

2. Naj za vsak x ∈ C velja, da je Ax 6= 0. Na množici C definirajmo zvezno preslikavo


f na nasledji način:
1
f (x) = Ax.
||Ax||1

Po predpostavki je Ax 6= 0, torej je tudi ||Ax||1 6= 0, zato je tako definirana funkcija


f (x) ≥ 0 in je ||f (x)||1 = 1 za vsak x. Prav tako pa velja naslednja neenakost

1 1
Af (x) = AAx ≥ Aρ(A)x = ρ(A)f (x).
||Ax||1 ||Ax||1

Ker je f (x) ≥ 0, ||f (x)||1 = 1 in Af (x) ≥ ρ(A)f (x) sledi, da je f (C) ⊂ C. Sedaj upo-
rabimo Brouwerjev izrek, ki trdi, da ima zvezna funkcija, ki se preslika iz kompaktne
konveksne podmnožice Rn sama vase, negibno točko.

Naj bo y negibna točka funkcije f . Potem za y velja, da je

Ay
f (y) = = y.
||Ay||1

Od tod sledi, da je
Ay = f (y)||Ay||1 = y||Ay||1 .

Naj bo r lastna vrednost, katere pripadajoči lastni vektor je y. Torej je Ay = ry. Prav
tako pa je Ay = y||Ay||1 , zato sledi, da je ry = y||Ay||1 oziroma r = ||Ay||1 . Negibna
točka y funkcije f je torej nenegativni lastni vektor za lastno vrednost r = ||Ay||1 ,
saj je y = f (y) ≥ 0.

Ker y ∈ C, velja ry = Ay ≥ ρ(A)y. Torej je r ≥ ρ(A), ki pa je največja lastna


vrednost po absolutni vrednosti, kar pomeni, da je r = ρ(A).

Ta dokaz lahko uporabimo tudi v primeru, kjer imamo realno število r in neničelni vektor
y, tako da je y ≥ 0 in Ay ≥ ry. Za C pa vzamemo takšno množico vektorjev x, da je
X
xi = 1, x≥0 in Ax ≥ rx.
i

Nato sklepamo, da je ρ(A) ≥ r.


2.2 Perron-Frobeniusov izrek 25

Dokazali smo šibko obliko Perron-Frobeniusovega izreka, ki velja za nenegativne matrike.


Krepka oblika izreka pa je bolj natančna od šibke in se ne nanaša le na nenegativne matrike,
temveč tudi na nerazcepne matrike, zato si poglejmo še definicijo nerazcepnih matrik.

Nerazcepne matrike

Kvadratno n × n matriko P , ki je dobljena iz identične matrike reda n × n s permuta-


cijo njenih vrstic in stolpcev, imenujemo permutacijska matrika reda n. Predpostavimo, da
premešamo vrstice matrike A in novo dobljeno matriko označimo z B. Potem lahko matriko
B zapišemo kot B = P A, kjer je P permutacijska matrika dobljena s permutacijo vrstic
identične matrike. Podobno lahko s permutacijo stolpcev matrike A dobimo matriko C, za
katero velja, da je C = AP .

Matrika A reda n × n je razcepna, če je A ničelna matrika reda n × n ali pa je n ≥ 2


in obstaja permutacijska matrika P takšna, da velja:
" #
T B 0
P AP = ,
C D

kjer sta B in D kvadratni matriki in je 0 ničelna matrika. Matrika A je nerazcepna, če ni


razcepna.

Prav tako pa je matrika A reda n × n, kjer je n ≥ 2, razcepna, če za vsak element aij , kjer
i ∈ S in j ∈
/ S ter je S neprazna podmnožica množice {1, ..., n}, velja aij = 0.

Zgled 11 Naj bosta dani matriki


" # " #
1 1 1 1
A1 = in A2 = .
0 1 1 0
" # " #
1 0 0 1
Matrika A1 je primer razcepne matrike, saj je P A1 P T = za P = .
1 1 1 0
Medtem ko je matrika A2 nerazcepna, saj ne obstaja takšna permutacijska matrika P .
Edini možni permutacijski matriki sta
" # " #
0 1 1 0
P1 = ali P2 = .
1 0 0 1
2.2 Perron-Frobeniusov izrek 26

Če matriki pomnožimo z matriko A2 in njuno transponirano matriko dobimo:


" # " #
0 1 1 1
P1 A2 P1T = in P2 A2 P2T = .
1 1 1 0
" #
B 0
Nobena od dobljenih matrik ni oblike , zato je matrika A2 nerazcepna.
C D

Naslednja trditev nam pove, kdaj iz nenegativnih in nerazcepnih matrik dobimo pozitivno
matriko.

Trditev 2.5 Če je A ∈ Mn (R) nenegativna in nerazcepna matrika, potem je (I+A)n−1 > 0.

Dokaz. Naj bo x nenegativen, neničelni vektor. Za m ∈ N definirajmo

xm = (I + A)m x,

ki je prav tako nenegativen. S Pm označimo množico indeksov neničelnih komponent vek-


torja xm . Torej je Pm ⊂ {1, 2, ..., n}. Množica P0 je neprazna, saj je vektor x0 = x neničelni
vektor. Ker pa je xm+1
i ≥ xm
i , je množica Pm ⊂ Pm+1 .

Privzemimo, da je kardinalnost množice Pm strogo manjša od n, kar označimo kot |Pm | < n.
Tedaj obstaja vsaj ena ničelna komponenta, indeksi le teh pa tvorijo neprazno podmnožico
I, ki je komplement množice Pm . Torej je tudi I ⊂ {1, 2, ..., n}. Ker pa je A nerazcepna
matrika, obstaja neničelni element aij , kjer i ∈ I in j ∈ Pm . Torej je

xm+1
i ≥ aij xm
j > 0,

kar pomeni, da Pm+1 ni enaka Pm in zato je |Pm+1 | > |Pm |. Z indukcijo pridemo do sklepa,
da je |Pm | ≥ min{m + 1, n}. Torej je |Pn−1 | = n. To pa pomeni, da ima vektor

xn−1 = (I + A)n−1 x

same neničelne komponente in zato je (I + A)n−1 > 0 po trditvi 2.2.

Preden dokažemo še krepko obliko Perron-Frobeniusovega izreka si zapišimo tri leme, ki
nam bodo v pomoč pri dokazu izreka.
2.2 Perron-Frobeniusov izrek 27

Za r ≥ 0 označimo s Cr množico vektorjev v Rn , ki je definirana z (ne)enakostmi

x ≥ 0, ||x||1 = 1, Ax ≥ rx.

Lema 2.6 Naj bo A nenegativna in nerazcepna matrika in naj bosta r ≥ 0 ter x ≥ 0 takšna,
da bo Ax ≥ rx in Ax 6= rx. Potem obstaja takšen r0 > r, da je Cr0 neprazna množica.

Dokaz. Naj bo
y = (In + A)n−1 x.

Ker je A nerazcepna matrika in je x ≥ 0 neničelni vektor, je zaradi trditve 2.5 vektor y


pozitiven. Iz predpostavk Ax ≥ rx in Ax 6= rx sledi, da je

Ay − ry = (In + A)n−1 (Ax − rx) > 0.

Ay
Torej je Ay − ry > 0 oziroma Ay > ry. Če to neenakost delimo z y dobimo, da je y > r.
Zato definirajmo
(Ay)j
r0 = min .
j yj
To pomeni, da je r0 strogo večji od r. Od tod pa sledi, da je Ay ≥ r0 y. Torej je množica
y
Cr0 neprazna, saj vsebuje vektor ||y||1 .

Lema 2.7 Nenegativni lastni vektorji matrike A so pozitivni.

Dokaz. Naj bo x nenegativni lastni vektor in Ax = λx. To lahko zapišemo tudi kot

(I + A)x = Ix + Ax = x + λx = (I + λ)x.

Ker λ ∈ R>0 , lahko izrazimo x na naslednji način

1
x= (I + A)x.
(1 + λ)

Zato velja tudi


1
x= (In + A)n−1 x.
(1 + λ)n−1

Izraz na desni strani je strogo pozitiven zaradi trditve 2.5. Od tod pa sledi, da je vektor x
pozitiven.
2.2 Perron-Frobeniusov izrek 28

Lema 2.8 Naj bosta A, B ∈ Mn (C) matriki, kjer je A nerazcepna matrika in |B| ≤ A.
Potem je ρ(B) ≤ ρ(A). V primeru enakosti ρ(B) = ρ(A) pa velja naslednje:

• |B| = A;

• za vsak lastni vektor x matrike B z največjo lastno vrednostjo po absolutni vrednosti


ρ(A), je |x| lastni vektor matrike A z lastno vrednostjo ρ(A).

Dokaz. Za dokaz neenakosti postopamo enako kot v prejšnji lemi. Če je λ lastna vrednost
matrike B in je |λ| = ρ(B), x pa je normiran lastni vektor, potem je

ρ(B)|x| ≤ |B| · |x| ≤ A · |x|

in tako je Cρ(B) neprazna množica, saj vsebuje |x|. Od tod sledi, da je

ρ(B) ≤ R = ρ(A).

Raziščimo še primer enakosti. Če je ρ(B) = ρ(A), potem |x| ∈ Cρ(A) in zato je |x| lastni
vektor. Torej velja
A|x| = ρ(A)|x| = ρ(B)|x| ≤ |B| · |x|.

Od tod sledi (A − |B|)|x| ≤ 0. Zaradi leme 2.7 je |x| > 0 in po predpostavki je A − |B| ≥ 0.
Torej velja |B| = A.

Sedaj pa dokažimo še krepko obliko Perron-Frobeniusovega izreka.

Izrek 2.9 (Perron-Frobeniusov izrek, krepka oblika) Naj bo A ∈ Mn (R) nenegativna


nerazcepna matrika. Potem je ρ(A) enostavna lastna vrednost matrike A, katere pripadajoči
lastni vektor je pozitiven. Hkrati je ρ(A) > 0.

Dokaz. Naj bo množica Cr za r ≥ 0 definirana z (ne)enakostmi

x ≥ 0, ||x||1 = 1, Ax ≥ rx.

Za vsak r je Cr konveksna kompaktna množica. V prejšnjem izreku smo ugotovili, da če je


λ lastna vrednost, katere pripadajoči lastni vektor x ima normo ||x||1 = 1, potem |x| ∈ C|λ| .
Množica Cρ(A) je seveda neprazna, saj vsebuje normiran lastni vektor, pripadajoč lastni
vrednosti ρ(A). V primeru, da je Cr neprazna množica, potem za x ∈ Cr velja naslednje:

r = r||x||1 ≤ ||Ax||1 ≤ ||A||1 ||x||1 = ||A||1 ,


2.2 Perron-Frobeniusov izrek 29

pri tem pa je
n
X
||A||1 = max |aij |.
1≤j≤n
i=1

Torej sledi, da je r ≤ ||A||1 . V primeru, da je r ≥ s, potem je Cr ⊆ Cs . Zato je preslikava


r 7→ Cr nenaraščajoča in zvezna z leve v naslednjem smislu: če je r > 0, potem je
\
Cr = Cs .
s<r

Definirajmo
R = sup{r|Cr 6= Ø}.

Torej R pripada intervalu [ρ(A), ||A||1 ]. Zaradi monotonosti preslikave r 7→ Cr pa za r < R


velja Cr 6= Ø.

V primeru, da je x > 0 in ||x||1 = 1, potem je Ax ≥ 0 in Ax 6= 0, saj je A nenegativna in


nerazcepna matrika. Ker je R > r, po lemi 2.6 sledi, da je množica CR neprazna. Prav tako
velja, da je R > 0, saj je r ≥ 0. Množica CR pa je torej neprazna, saj je presek povsem
urejene družine nepraznih kompaktnih množic.

Naj bo x ∈ CR . Potem lema 2.6 pove, da je x lastni vektor matrike A z lastno vrednostjo R.
Opazimo lahko, da je ta lastna vrednost večja od ρ(A), saj pripada intervalu [ρ(A), ||A||1 ],
zato sklepamo, da je ρ(A) = R. Torej je ρ(A) lastna vrednost, katere pripadajoči lastni
vektor je x in ρ(A) > 0. Po lema 2.7 pa je x > 0.

Sedaj moramo dokazati le še enostavnost lastne vrednosti ρ(A).

Naj bo pA (X) karakteristični polinom matrike A, podan kot n-linearna preslikava (deter-
minante) s polinomsko vektorsko funkcijo (s stolpci matrike XIn − A):
h i
pA (X) = det(XIn − A) = det (XIn − A)(1) (XIn − A)(2) · · · (XIn − A)(n) .

Karakteristični polinom torej sestavlja n stolpcev. Pri tem pa smo z (XIn − A)(1) označili
prvi stolpec, z (XIn −A)(2) drugi stolpec,..., ter z (XIn −A)(n) n-ti stolpec matrike (XIn −A).

Sedaj izračunajmo odvod polinoma pA (X) po X-u in sicer tako, da odvajamo vsak stolpec
posebej.
2.2 Perron-Frobeniusov izrek 30

Torej je

p0A (X) = det(e1 , a2 , ..., an ) + det(a1 , e2 , ..., an ) + · · · + det(a1 , ..., an−1 , en ),

kjer je aj j-ti stolpec matrike XIn − A in je {e1 , ..., en } kanonična baza množice Rn , saj
pri odvajanju posameznega stolpca matrike XIn − A po X-u dobimo enotske vektorje. Če
nato razširimo j-to determinanto skladno z j-tim stolpcem, dobimo
n
X
p0A (X) = pAj (X),
j=1

kjer Aj ∈ Mn−1 (R) dobimo iz matrike A tako, da izbrišemo j-ti stolpec in j-to vrstico.

Definirajmo matriko Bj ∈ Mn (R) tako, da v matriki A elemente j-tega stolpca in j-te


vrstice nadomestimo z ničlami. Ta matrika je bločno diagonalna, diagonalna bloka pa sta
Aj ∈ Mn−1 (R) in 0 ∈ M1 (R). Torej so neničelne lastne vrednosti matrike Bj enake kot pri
matriki Aj , vključno z ničlo in zato je

ρ(Bj ) = ρ(Aj ).

Tako je |Bj | ≤ A, vendar je |Bj | 6= A saj je A nerazcepna in Bj bločno diagonalna ma-


trika ter zato razcepna. Po lemi 2.8 sledi, da je ρ(Bj ) < ρ(A). Ker je vrednost pAj (ρ(A))
neničelna, z istim predznakom kot pAj v okolici točke +∞, je torej pozitivna in zato je
pozitivna tudi vrednost p0A (ρ(A)) in s tem je ρ(A) enostava lastna vrednost.

S tem smo zaključili dokaz izreka 2.9.

Zgled 12 Naj bo dana nenegativna nerazcepna matrika


 
3 2 4
 
A=
 2 0 2 .

4 2 3

Karakteristični polinom matrike A je enak



3−λ 2 4


= −λ3 + 6λ2 + 15λ + 8 = −(λ + 1)2 (λ − 8).

pA (λ) = det(A − λI) = 2 −λ 2
2 3−λ

4
2.2 Perron-Frobeniusov izrek 31

Največja lastna vrednost matrike A je ρ(A) = 8 in je enostavna. Pripadajoči lastni vektor,


ki reši enačbo (A − 8I)x = 0 pa je enak npr.
 
2
 
x=
 1 

2

in je pozitiven.

Zapišimo si še nekaj opomb v zvezi s Perron-Frobeniusovem izreku.

Opomba 2.10 Čeprav Perron-Frobeniusov izrek trdi, da je ρ(A) enostavna lastna vrednost,
ne pove ničesar o drugih največjih lastnih vrednostih po absolutni vrednosti. Naslednji pri-
mer nakazuje, da bi takšne lastne vrednosti lahko obstajale:
" #
0 1
.
1 0

Opomba 2.11 Še en dokaz šibke oblike Perron-Frobeniusovega izreka dobimo z uporabo
krepke oblike na izrazu A + αJ, kjer je J > 0 in α > 0, pri čemer α pošljemo proti 0.

Naj bo A nenegativna matrika. K matriki A nato prištejemo pozitivno matriko J. Potem


je A + αJ nenegativna nerazcepna matrika za vsak α > 0. Potem je po krepki obliki
Perron–Frobeniusovega izreka ρ(A + αJ) enostavna lastna vrednost matrike A + αJ, katere
pripadajoči lastni vektor je pozitiven in

ρ(A + αJ) > 0.

Naj bo
A0 = A + αJ.

Ker je α > 0 in J > 0, je A0 > 0. Zato ima matrika A0 največjo lastno vrednost ρ(A0 )
takšno, da je
ρ(A0 ) ≥ |λ0i |.

Torej obstaja takšen pozitivni lastni vektor x0 , da je

A0 x0 = ρ(A0 )x0 .
2.2 Perron-Frobeniusov izrek 32

Lastne vrednosti in lastni vektorji so zvezne funkcije elementov matrike, zato gre A0 → A in
ρ(A0 ) → ρ(A), ko gre α → 0. Prav tako gredo λ0i → λi , kjer so λi lastne vrednosti matrike
A in je
ρ(A) ≥ |λi | ≥ 0.

Od tod pa sledi, da je
Ax = ρ(A)x

in je x 6= 0 lastni vektor. Oziroma ρ(A) je lastna vrednost matrike A, katere pripadajoči


lastni vektor x je nenegativen.

Opomba 2.12 Če ne privzamemo, da je matrika nerazcepna, bi ρ(A) lahko bila večkratna
lastna vrednost in nenegativni vektor ne bi nujno bil pozitiven. To velja npr. za matrike
velikosti n = 2m, ki imajo bločni zapis
" #
B 0m
A= .
Im B

Tukaj je ρ(A) = ρ(B) in vsaka lastna vrednost ima sodo algebraično večkratnost. Še več,
če je ρ(B) enostavna lastna vrednost matrike B katere pripadajoči lastni vektor je z ≥ 0,
potem jedro A − ρ(A)In napenja vektor
" #
0m
,
z

ki ni pozitiven.
2.3 Stohastične matrike 33

2.3 Stohastične matrike


Namen tega razdelka je predstaviti stohastične matrike kot poseben primer nenegativnih
matrik. Dokazali bomo Birkhoffov izrek o bistohastičnih in permutacijskih matrikah, ki
spadajo med stohastične matrike. Nato bomo vpeljali še relacijo ≺ ter zapisali nekaj trdi-
tev, ki jo povezujejo z bistohastičnimi matrikami.

Definicija 2.13 Matrika M ∈ Mn (R) je stohastična, če je M ≥ 0 in za vsak i = 1, ..., n


velja
n
X
mij = 1.
j=1

Pravimo, da je matrika M bistohastična (ali dvojno stohastična), če sta M in M T obe


stohastični matriki.

Zgled 13 Primer bistohastične matrike:


 
0.5 0.3 0.2
 
A=
 0.2 0.4 0.4 .

0.3 0.3 0.4

Nenegativna matrika A je stohastična saj je vsota elementov vsake vrstice enaka 1, prav
tako pa je bistohastična, saj je tudi vsota elementov vsakega stolpca enaka 1.

Označimo z e ∈ Rn vektor, katerega vse koordinate so enake ena. Vidimo, da je ma-


trika M stohastična natanko takrat, ko je M ≥ 0 in M e = e. Podobno je matrika M
bistohastična, če je M ≥ 0, M e = e in eT M = eT .

Naj bo M stohastična matrika, potem so vsi njeni elementi manjši od ena in je vsota
elementov v vsaki vrstici enaka ena. Če matriko M pomnožimo z vektorjem x ∈ Cn ,
dobimo vektor, katerega absolutna vrednost koordinat je manjša ali pa enaka absolutni
vrednosti koordinat vektorja x. Torej je ||M x||∞ ≤ ||x||∞ za vsak x ∈ Cn , pri tem je ||x||∞
supremum norma vektorja in je enaka

||x||∞ = max{|x1 |, |x2 |, · · · , |xn |}.

Naj bo x lastni vektor in λ lastna vrednost matrike M . Potem je ||M x||∞ = ||λx||∞ =
|λ| · ||x||∞ . Prav tako velja ||M x||∞ ≤ ||x||∞ in zato sledi, da je |λ| ≤ 1. Torej je ρ(M ) ≤ 1.
Ker pa je M e = e, je pravzaprav ρ(M ) = 1.
2.3 Stohastične matrike 34

Stohastične matrike imajo pomembno vlogo pri študiju markovskih verig. Poseben primer
bistohastične matrike je permutacijska matrika P (σ) (σ ∈ Sn ), katere elementi so

j
pij = δσ(i) .

Zgled 14 Naj bo !
1 2 3
σ= ∈ S3 .
3 1 2
Potem je
1
p11 = δσ(1) = δ31 = 0, 1
p21 = δσ(2) = δ11 = 1, 1
p31 = δσ(3) = δ21 = 0,
2
p12 = δσ(1) = δ32 = 0, 2
p22 = δσ(2) = δ12 = 0, 2
p32 = δσ(3) = δ22 = 1,
3
p13 = δσ(1) = δ33 = 1, 3
p23 = δσ(2) = δ13 = 0, 3
p33 = δσ(3) = δ23 = 0.

Torej je pripadajoča permutacijska matrika oblike


 
0 1 0
 
P (σ) = 
 0 0 1 .

1 0 0

Vlogo permutacijskih matrik pojasnjuje Birkhoffov izrek. Pri dokazu Birkhoffovega izreka
si bomo pomagali s Krein-Milmanovim izrekom. Njegov dokaz pa najdemo v knjigi [8].

Izrek 2.14 (Krein-Milmanov izrek) Vsaka kompaktna konveksna množica v Rn je kon-


veksna ovojnica svojih ekstremnih točk.

Množica D ⊆ Rn je konveksna, če za vsaka x, y ∈ D ter za vsak λ ∈ [0, 1] velja

λx + (1 − λ)y ∈ D.

Konveksna ovojnica množice D je najmanjša konveksna množica, ki vsebuje D oziroma je


presek vseh konveksnih množic, ki vsebujejo D.

Konveksna kombinacija vektorjev v1 , v2 , ..., vn je linearna kombinacija

α1 v1 + α2 v2 + .. + αn vn ,

pri čemer so αi -ji nenegativna števila in je α1 + α2 + ... + αn = 1.


2.3 Stohastične matrike 35

Izrek 2.15 (Birkhoffov izrek) Matrika M ∈ Mn (R) je bistohastična natanko takrat, ko


je konveksna kombinacija permutacijskih matrik.

Označimo z ∆n množico bistohastičnih matrik. Ker je množica ∆n konveksna, je težišče


permutacijskih matrik bistohastična matrika. Bistvo izreka je torej naslednja izjava: če M ∈
∆n , potem obstajajo permutacijske matrike P1 , ..., Pr in pozitivna realna števila α1 , ..., αr ,
za katera velja
α1 + · · · + αr = 1

in
M = α1 P1 + · · · + αr Pr .

Privzemimo, da je točka a konveksne množice C ekstremna točka, če iz enačbe x =


θy + (1 − θ)z, pri čemer sta y, z ∈ C in θ ∈ (0, 1), sledi, da je y = z = x.

Ker je ∆n zaprta in omejena množica, torej kompaktna, lahko sedaj uporabimo Krein-
Milmanov izrek, ki torej pravi, da je konveksna kompaktna podmnožica množice Rn konve-
ksna ovojnica svojih ekstremnih točk, torej množica težišč njihovih ekstremov.

Dokaz. (izreka 2.15) Opazimo, da so permutacijske matrike ekstremne točke množice


∆n . Torej zadošča dokazati, da so permutacijske matrike edine ekstremne točke množica ∆n .

Naj bo dana matrika M ∈ ∆n . Privzemimo, da M ni permutacijska matrika. Potem obstaja


element mi1 j1 ∈ (0, 1). Ker pa je M stohastična matrika, obstaja takšen indeks j2 6= j1 , da
mi1 j2 ∈ (0, 1). Prav tako pa obstaja takšen indeks i2 6= i1 , da mi2 j2 ∈ (0, 1), saj je tudi M T
stohastična matrika. Na ta način dobimo takšno zaporedje indeksov

(j1 , i1 , j2 , i2 , ...),

da element mi` j` ∈ (0, 1) in mi`−1 j` ∈ (0, 1). Ker je množica indeksov končna, se bo torej
eden od indeksov (v vrstici ali v stolpcu) ponovil.

Naj ima zaporedje


(j1 , i1 , ..., jr , ir , jr+1 = j1 )

zgoraj opisano lastnost. Definirajmo matriko B ∈ Mn (R) tako, da je bi` j` = 1, bi` j`+1 = −1
in bij = 0 sicer. Za tako definirano matriko B velja, da je Be = 0 in eT B = 0.
2.3 Stohastične matrike 36

V primeru, da α ∈ R, potem je

(M ± αB)e = e in eT (M ± αB) = eT .

Če je α > 0 dovolj majhen, je M ± αB nenegativna matrika. Torej sta M + αB in M − αB


bistohastični matriki in velja

1 1
M = (M − αB) + (M + αB).
2 2

Ker pa je matrika M 6= M + αB 6= M − αB sledi, da M ni ekstremna točka množice ∆n .

Sledi netrivialna posledica.

Posledica 2.16 Naj bo || · || norma v Rn , invariantna ob permutaciji koordinat. Potem je


||M || = 1 za vsako bistohastično matriko (kjer smo v nasprotju z izjavo uporabili || · || za
normo izpeljano v Mn (R)).

Dokaz. Naj bo M bistohastična matrika. Po izreku 2.15 obstajajo takšne permutacijske


matrike P1 , ..., Pn in pozitivna realna števila α1 , ..., αn z lastnostjo α1 + · · · + αn = 1, da je

M = α1 P1 + · · · + αn Pn .

Po predpostavki je ||P || = 1 za vsako permutacijsko matriko. Ker je izpeljana norma


konveksna (velja za vsako normo), sledi, da je

||α1 P1 + · · · + αn Pn || ≤ 1

||M ||
oziroma je ||M || ≤ 1. Še več, če je M e = e, potem iz tega sledi, da je ||M || ≥ ||e|| = 1. Od
tod pa sledi, da je ||M || = 1.

Bistohastične matrike so tesno povezane z relacijo ≺, definirano med vektorji v Rn ali n-


tericami realnimi števili. Če je a = (a1 , a2 , ..., an ) vektor, katerega koordinate so realna
števila in je 1 ≤ k ≤ n, potem definirajmo
 
X 
sk (a) = min aj ; |J| = k .
 
j∈J

Definicija 2.17 Naj bosta a = (a1 , a2 , ..., an ) in b = (b1 , b2 , ..., bn ) vektorja z realnimi ko-
ordinatami. Potem je a ≺ b, če je sk (a) ≤ sk (b) za vsak 1 ≤ k ≤ n in sn (a) = sn (b).
2.3 Stohastične matrike 37

Kot bomo videli kasneje ja matrika A bistohastična natanko tedaj, ko je Ax  x za vsak


x ∈ Rn . Za dokaz tega izreka, potrebujemo naslednjo trditev:

Trditev 2.18 Naj bosta x, y ∈ Rn . Potem je x ≺ y natanko tedaj, ko za vsako realno


število t velja
n
X n
X
|xj − t| ≥ |yj − t|.
j=1 j=1

Dokaz. Predpostavimo, da sta x in y vektorja, katerih koordinate predstavljajo nepadajoči


zaporedji in naj velja
n
X n
X
|xj − t| ≥ |yj − t|.
j=1 j=1

Potem od tod, če si izberemo t zunaj intervala, ki vsebuje točke xj in yj , sledi sn (x) = sn (y).
V primeru, da si za t izberemo eno izmed koordinat vektorja x, torej t = xk in uporabimo
zvezo sn (x) = sn (y), dobimo

n
X k
X n
X
|xj − xk | = (xk − yj ) + (yj − xk ) + 2(sk (y) − sk (x))
j=1 j=1 j=k+1
n
X
≤ |yj − xk | + 2(sk (y) − sk (x)).
j=1

Glede na predpostavko to pomeni, da je sk (x) ≤ sk (y) oziroma x ≺ y.

Dokažimo trditev še v drugo smer. Naj bo x ≺ y in definirajmo


n
X n
X
φ(t) = |xj − t| − |yj − t|.
j=1 j=1

To je odsekoma linearna funkcija in ničelna zunaj intervala, ki vsebuje točki xj in yj . Njen


odvod je celoštevilska vrednost in je odsekoma konstanten. Narašča v točkah xj in pada
samo v točkah yj . Če je
min{φ(t); t ∈ R} < 0,

potem je ta minimum dosežen v neki točki xk in velja

φ0 (xk − 0) ≤ 0 ≤ φ0 (xk + 0).


2.3 Stohastične matrike 38

Od tod dobimo, da je yk−1 ≤ xk ≤ yk+1 . Glede na to ugotovitev ločimo dva primera,


odvisna od položaja yk glede na xk . Naprimer, če je yk ≤ xk , potem lahko vsoto
n
X
|xj − xk |
j=1

zapišemo kot
n
X n
X k
X
|xj − xk | = (xj − xk ) + (xk − xj ).
j=1 j=k+1 j=1

Iz predpostavke, da je yk ≤ xk nato sledi

n
X n
X k
X X
|xj − xk | ≥ (yj − xk ) + (xk − yj ) = |yj − xk |,
j=1 j=k+1 j=1 j6=k

kar pomeni, da je
n
X n
X
|xj − xk | − |yj − xk | ≥ 0
j=1 j=1

oziroma φ(xk ) ≥ 0, to pa je v nasprotju s predpostavko, da je min φ(t) < 0. Torej je φ


nenegativna funkcija.

Izrek 2.19 Matrika A je bistohastična natanko tedaj, ko je Ax  x za vsak x ∈ Rn .

Dokaz. Če je A bistohastična matrika, potem velja

||Ax||1 ≤ ||A||1 ||x||1 = ||x||1 .

Prav tako velja Ae = e, saj je matrika A stohastična. Če to neenakost uporabimo na izrazu
x − te, dobimo
||Ax − te||1 ≤ ||x − te||1 .

Kar po definiciji norme pomeni, da je


n
X n
X
max |(Ax − te)ij | ≤ max |(x − te)ij |.
1≤j≤n 1≤j≤n
i=1 i=1

Od tod po trditvi 2.18 sledi, da je x ≺ Ax.


2.3 Stohastične matrike 39

Dokažimo izrek še v drugo smer. Predpostavimo, da je x ≺ Ax za vsak x ∈ Rn . Izberimo


x kot j-ti vektor kanonične baze in ga označimo z ej . Potem po definiciji relacije ≺ velja,
da je s1 (ej ) ≤ s1 (Aej ). Ker je s1 (ej ) enaka nič ali ena, je s1 (Aej ) ≥ 0 in zato sledi, da
je A nenegativna matrika. Prav tako po definiciji velja enakost sn (ej ) = sn (Aej ), kar pa
pomeni, da je
n
X
aij = 1.
i=1

Nato izberemo x = e. Potem iz neenakost s1 (e) ≤ s1 (Ae) sledi, da je Ae ≥ e. Končno pa iz


sn (e) = sn (Ae) in Ae ≥ e sledi, da je Ae = e. Zato je A bistohastična matrika.

To trditev dopolnjuje naslednji izrek.

Izrek 2.20 Naj bosta x, y ∈ Rn . Potem je x ≺ y natanko tedaj, ko obstaja takšna bistoha-
stična matrika A, da je y = Ax.

V dokazu tega izreka pa si bomo pomagali z naslednjo trditvijo. Njen dokaz najdemo v
knjigi [9](str. 53).

Trditev 2.21 Naj bosta a in λ takšni zaporedji n realnih števil za kateri velja a  λ. Potem
obstaja realna simetrična matrika velikosti n × n z diagonalo a in spektrom λ.

Dokaz. (izreka 2.20) Zaradi izreka 2.19 je dovolj dokazati le naslednjo implikacijo. Če
je x ≺ y, potem obstaja takšna bistohastična matrika A, da velja y = Ax.

Uporabimo trditev 2.21 , ki pravi, da obstaja realna simetrična matrika H, katere diagonala
je y in spekter x. Ker je matrika H simetrična, jo lahko diagonaliziramo z ortogonalno
matriko: to pomeni, da obstaja takšna ortogonalna matrika U , da je

H = U T DU,

kjer je D = diag(x1 , ..., xn ) diagonalna matrika, sestavljena iz lastnih vrednosti matrike H.

Potem od tod sledi, da je y = Ax. Elementi matrike A pa so oblike aij = |uij |2 . Ker je
matrika U ortogonalna, torej je U T U = I, je A bistohastična matrika.
2.3 Stohastične matrike 40

Pomemben vidik stohastičnih matrik je njihov vpliv na simpleks


( )
X
Kn = x ∈ Rn ; x ≥ 0 in xi = 1 .
i

Razvidno je, da je matrika M T stohastična natanko tedaj, ko je M (Kn ) vsebovana v Kn .


Poleg tega pa je matrika M bistohastična, če velja še M e = e.

P
Če Kn vzamemo kot del afinega podprostora, podanega z enakostjo i xi = 1, potem je Kn
konveksna množica z neprazno notranjostjo. Njeno notranjost sestavljajo točke, ki ustrezajo
pogoju x > 0. Označimo z ∂Kn rob množice Kn . Če x ∈ Kn , potem definirajmo

O(x) = {i; xi = 0}

in
o(x) = |O(x)|

tako, da množica ∂Kn vsebuje natanko tiste točke, ki ustrezajo pogoju o(x) ≥ 1.

Za vsak par (i, j) ∈ O(M x) × O(x)c velja mij = 0, kjer I c označuje komplement množice I
v {1, ..., n}.

Trditev 2.22 Naj bosta dana x ∈ Kn in M ∈ ∆n . Potem velja

o(M x) ≤ o(x).

Še več, če je o(M x) = o(x), potem je mij = 0 za vsak (i, j) ∈ O(M x)c × O(x).

Dokaz. Izračunajmo izraz


n X
X n
X X X
o(x) − o(M x) = mij − mij = mij ≥ 0.
i=1 O(x) O(M x) i=1 O(M x)c ×O(x)

Torej dobimo, da je o(x) − o(M x) ≥ 0 oziroma o(x) ≥ o(M x).

Prvi del trditve bi lahko dobili tudi z uporabo naslednje posledice.

Posledica 2.23 Naj bosta I in J podmnožici množice {1, ..., n} in naj matrika M ∈ ∆n
zadošča pogoju mij = 0 za vsak (i, j) ∈ I × J c . Potem je |J| ≥ |I|. V primeru, da je
|I| = |J|, pa je mij prav tako enak 0 za vsak (i, j) ∈ I c × J.
2.3 Stohastične matrike 41

Dokaz. Zadostuje, če izberemo x ∈ K n in J c = O(x) = {i|xi = 0}, če je množica J


neprazna. V primeru, da je množica J prazna, je trditev očitna.

Označimo z S∆n (S kot strogo) množico bistohastičnih matrik M , za katero velja nasle-
dnja implikacija. Če je |I| = |J| in mij = 0 za vsak (i, j) ∈ I × J c , potem je I = ∅ ali
I = {1, ..., n}. Takšne so tudi matrike za katere za vsak x ∈ ∂Kn velja o(M x) < o(x). Ta
množica ne vsebuje permutacijskih matrik P , saj te zadoščajo pogoju o(P x) = o(x) za vsak
x ∈ Kn .

Naj bo dana matrika M ∈ ∆n . Razcep matrike M sestavljata takšni particiji I1 ∪ · · · ∪ Ir


in J1 ∪ · · · ∪ Jr množice {1, ..., n}, da velja

(i ∈ I` , j ∈ Jm , ` 6= m) =⇒ mij = 0.

Iz posledice 2.23 sledi, da je |I` | = |J` | za vsak `. Če po potrebi ne upoštevamo praznih
delov, lahko vedno predpostavimo, da nobena od množic I` in J` ni prazna. Po razcepu
matrike M dobimo bločno strukturo, kjer vsako vrstico bloka sestavlja en neničelni blok,
enako pa velja tudi za stolpce bloka. Bloki indeksov I` × J` so same stohastične matrike.
Matrika iz množice S∆n dopušča le trivialni razcep r = 1, I1 = J1 = {1, ..., n}.

Zgled 15 Naj bo M matrika reda 3 × 3, podana z naslednjima particijama:

I1 = {1, 3}, I2 = {2},

J1 = {2, 3}, J2 = {1}.

Potem za i ∈ I1 in j ∈ J2 ter za i ∈ I2 in j ∈ J1 velja, da je mij = 0. Torej so členi m11 ,


m31 , m22 in m23 vsi enaki nič. Dobljena matrika podana s tem razcepom je oblike:
 
0 ∗ ∗
 
M =
 ∗ 0 0 .

0 ∗ ∗

Pri tem ∗ označujejo ustrezna števila. Primer matrike s takšnim razcepom je matrika
 
0 0.4 0.6
 
.
 1 0 0 

0 0.6 0.4
2.3 Stohastične matrike 42

Ta matrika je vsebovana v ∆n saj je dvojno stohastična. Prav tako je |I1 | = |J1 | in |I2 | =
|J2 |. Matriki " #
0.4 0.6
I1 × J1 = in I2 × J2 = [1]
0.6 0.4
pa sta stohastični matriki.

Če matrika M dopušča dva razcepa, enega z množicami I` , J` , 1 ≤ ` ≤ r in drugega z


množicami I`0 , J`0 , 1 ≤ ` ≤ s, potem formuliramo particiji
[ [
00 00
I`m in J`m ,
`,m `,m

kjer je
00 0 00 0
I`m = I` ∩ Im in J`m = J` ∩ Jm .
00 in j ∈ J 00 za (`, m) 6= (p, q), potem je m = 0. Zaradi posledice 2.23, ki jo upora-
Če i ∈ I`m pq ij
00 | = |J 00 |. Če ne upoštevamo
bimo na matriki M in njeni tansponiranki, dobimo, da je |I`m `m
praznih delov, potem dobimo razcep matrike M , ki je boljši kot prva dva razcepa v smislu
vrstnega reda elementov: vsak I` (ali I`0 ) je unija nekaterih delov oblike Ip00 .

Ker je množica razcepov matrike M končna, zgornja opažanja dokazujejo, da obstaja naj-
bolši razcep. Imenujemo ga kanonični razcep matrike M . Ta je edini razcep, katerega
bloki indeksov I` × J` sami spadajo v razred S∆n .

Zgled 16 Naj bo dana bločna matrika A reda 9 × 9 oblike


 
0 M M
 
A=
 M 0 ,
0 
0 M M

kjer je matrika M ∈ ∆n enake oblike kot v prejšnjem primeru


 
0 ∗ ∗
 
 ∗ 0 0 .
M = 
0 ∗ ∗

Naj matrika A dopušča dva razcepa:

I1 = {1, 2, 3, 7, 8, 9}, I2 = {4, 5, 6},

J1 = {4, 5, 6, 7, 8, 9}, J2 = {1, 2, 3}


2.3 Stohastične matrike 43

in
0 0
I1 = {1, 3, 4, 6, 7, 9}, I2 = {2, 5, 8},
0 0
J1 = {2, 3, 5, 6, 8, 9}, J2 = {1, 4, 7}.

Potem formuliramo particiji, ki predstavljata novi razcep:

00 0
I11 = I1 ∩ I1 = {1, 3, 7, 9},
00 0
I12 = I1 ∩ I2 = {2, 8},
00 0
I21 = I2 ∩ I1 = {4, 6},
00 0
I22 = I2 ∩ I2 = {5}

in
00 0
J11 = J1 ∩ J1 = {5, 6, 8, 9},
00 0
J12 = J1 ∩ J2 = {4, 7},
00 0
J21 = J2 ∩ J1 = {2, 3},
00 0
J22 = J2 ∩ J2 = {1}.

00 00
Za vsak i ∈ I`m in j ∈ Jpq , kjer je (`, m) 6= (p, q), je mij = 0. Torej dobimo ničelne ravno
tiste elemente, ki so ničelni tudi pri začetnih dveh razcepih, le da se pri novem razcepu ti
ničelni elementi ne ponavljajo in zato je ta razcep boljši.

00 00 00 00 00 00 00 00
Opazimo lahko, da je |I11 | = |J11 |, |I12 | = |J12 |, |I21 | = |J21 | in |I22 | = |J22 |.
00
Vsako množico I` oziroma Jm lahko zapišemo kot unijo nekaterih delov oblike Ip oziroma
00 00 00 00 00 00 00 00 00
Jq . Torej je I1 = I11 ∪ I12 , I2 = I21 ∪ I22 , J1 = J11 ∪ J12 in J2 = J21 ∪ J22 .

" #
M M
Bloki matrik I1 × J1 = in I2 × J2 = [M ] pa predstavljajo bistohastične matrike.
M M
Poglavje 3

M -matrike

V tem poglavju bomo predstavili M -matrike. Čeprav te matrike niso nenegativne matrike,
so tesno povezane z njimi. Od vseh možnih definicij M -matrik se bomo osredotočili na tisto,
ki jih povezuje z nenegativnimi matrikami.

Dokazali bomo da imajo vse lastne vrednosti M -matrike nenegativen realni del in posledično
je tudi vsaka realna lastna vrednost M -matrike nenegativna. Nato si bomo na konkretnem
primeru pogledali glavne podmatrike M -matrike, za katere se izkaže, da so prav tako M -
matrike. Pri dokazu tega izreka bomo uporabili trditev o glavnih podmatrikah nenegativnih
matrik. Trditev pravi, da največja lastna vrednost glavne podmatrike nenegativne matrike
ne more biti večja od največje lastne vrednosti te matrike. S pomočjo izreka o glavnih
podmatrikah M -matrik bomo dokazali, da so vsi glavni minorji M -matrike nenegativni.

Sledi najpomembnejši izrek, ki se navezuje tako na M -matrike kot na nenegativne matrike


in pravi, da je inverz nesingularne M -matrike vedno nenegativna matrika. V dokazu tega
izreka uporabimo šibko obliko Perron-Frobeniusovega izreka.

44
45

Definicija 3.1 Realna n × n matrika A je M-matrika, če obstaja takšna nenegativna


matrika B z največjo lastno vrednostjo r, da je

A = cIn − B,

kjer je c ≥ r.

Pravzaprav M -matrike spadajo med Z-matrike. Matrika A je Z-matrika, če so vsi njeni
elementi, ki ne ležijo na diagonali, negativni ali pa so enaki nič. M -matrike se razlikujejo
od Z-matrik po tem, da imajo na glavni diagonali nenegativne elemente, medtem ko so
elementi na diagonali Z-matrik poljubnega predznaka.

Zgled 17 Primer M -matrike je matrika


 
2 −1 0
 
A=
 −2 3 ,
−1 
−1 0 1

saj obstaja nenegativna matrika


 
1 1 0
 
B=
 2 0 1 

1 0 2

z največjo lastno vrednostjo r = 3 in število c = 3, da je A = cIn − B in je c = r.

Označimo z Zn množico n × n realnih matrik, katerih elementi, ki ne ležijo na glavni dia-


gonali, so negativni ali enaki nič.

V nadaljevanju si bomo pogledali, kateri pogoji so potrebni in zadostni, da je matrika iz Zn


M -matrika.

Trditev 3.2 Matrika A ∈ Zn je M-matrika natanko tedaj, ko imajo vse lastne vrednosti
matrike A nenegativni realni del.

Dokaz. Naj bo A = (aij ) ∈ Zn . Predpostavimo, da ima vsaka lastna vrednost matrike A


nenegativni realni del in dokazujemo, da je A M -matrika. Naj bo

amm = max(aii )
i
46

in definirajmo matriko
B = amm In − A.

Element amm je največji diagonalni element matrike A. Če identični matriki pomnoženi s
številom amm prištejemo nasprotno matriko matrike A, so vsi členi nove matrike večji ali
enaki nič in zato je matrika B nenegativna. Naj bo r največja lastna vrednost matrike B.
Torej je A = amm In − B, amm − r pa je realna lastna vrednost matrike A. Po predpostavki
sledi, da je amm − r nenegativna vrednost, torej je amm ≥ r. Od tod pa po definiciji sledi,
da je
A = amm In − B

M -matrika.

Dokažimo izrek še v drugo smer. Sedaj naj bo A = cIn − B poljubna M -matrika in naj
bo r največja lastna vrednost matrike B ter c ≥ r. Naj bo λt lastna vrednost matrike A.
Predpostavimo, da je realni del lastne vrednosti λt , Re(λt ), negativen. Potem je

0 = det(λt In − A) = det(λt In − cIn + B) = det((c − λt )In − B)

in od tod sledi, da je c − λt lastna vrednost matrike B. Ker je r največja lastna vrednost


matrike B, torej je r ≥ 0 in je c ≥ r, je število c nenegativno. Število –Re(λt ) pa je pozitivno
in zato je
|c − λt | ≥ c − Re(λt ) > c ≥ r.

To pa je v nasprotju s tem, da je r največja lastna vrednost matrike B. Torej sledi, da je


Re(λt ) nenegativen oziroma vse lastne vrednosti M -matrike imajo nenegativni realni del.

Opomba 3.3 Vsaka realna lastna vrednost M-matrike je nenegativna.

Dokazali smo, da imajo vse lastne vrednosti M -matrike nenegativen realni del. Glede na
to trditev lahko sklepamo, da je vsaka realna lastna vrednost M -matrike tudi nenegativna,
saj je njen imaginarni del enak nič.

Izrek 3.4 Matrika A ∈ Zn je M-matrika natanko tedaj, ko je vsaka realna lastna vrednost
matrike A nenegativna.

Dokaz. Dokaz izreka od leve proti desni sledi neposredno iz prejšnjega izreka, zato bomo
izrek dokazali le v nasprotno smer. Predpostavimo, da so vse realne lastne vrednosti matrike
47

A ∈ Zn nenegativne in dokazujemo, da je A M -matrika. Naj bo

B = amm In − A,

kjer je
amm = max(aii ).
i

Tako definirana matrika B je nenegativna. Naj bo r njena največja lastna vrednost. Ker je
amm − r realna lastna vrednost matrike A = amm In − B, potem je po predpostavki amm − r
nenegativna oziroma amm ≥ r. Od tod pa po definiciji sledi, da je A M -matrika.

Naslednja opredelitev M -matrik vsebuje pojem glavne podmatrike. Naj bo A matrika reda
n × n. Podmatriko matrike A dobimo tako, da iz matrike A izberemo samo določene vr-
stice in stolpce. Glavna podmatrika matrike A pa je vsaka m × m matrika, ki jo dobimo
tako, da matriki A izbrišemo n − m vrstic in n − m istoležnih stolpcev. Poglejmo si glavne
podmatrike M -matrike v naslednjem primeru:

Zgled 18 Naj bo dana enaka M -matrika kot prej:


 
2 −1 0
 
A=
 −2 3 .
−1 
−1 0 1

Potem so njene glavne podmatrike enake:


" # " # " #
3 −1 2 0 2 −1
, , , [2], [3] in [1].
0 1 −1 1 −2 3

Prvo podmatriko smo dobili tako, da smo prečrtali prvo vrstico in prvi stolpec matrike A.
Pri drugi podmatriki smo prečrtali drugo vrstico in drugi stolpec ter pri tretji podmatriki
tretjo vrstico in tretji stolpec. Če v matriki izbrišemo drugo ter tretjo vrstico in stolpec
dobimo četrto podmatriko. Peto in šesto podmatriko pa dobimo tako, da izbrišemo prvo
ter tretjo vrstico in stolpec oziroma prvo ter drugo vrstico in stolpec.

Opazimo lahko, da so vse glavne podmatrike M -matrike A tudi M -matrike. To pa velja


celo za vse M -matrike. Pri dokazu te izjave pa si bomo pomagali z naslednjo trditvijo:
48

Trditev 3.5 Največja lastna vrednost glavne podmatrike nenegativne matrike A ne more
biti večja od največje lastne vrednosti matrike A.

Dokaz. Naj bo B glavna podmatrika matrike A. Potem lahko matriko A zapišemo kot
" #
B C
A= .
D E

Definirajmo novo matriko " #


B 0
B0 = .
0 0

Matrika B 0 naj bo istega reda kot matrika A, kjer so podmatrike C, D in E ničelne. Torej
je |B 0 | ≤ A. Naj bo ρ(B 0 ) največja lastna vrednost matrike B 0 in x normiran lastni vektor.
Potem je
ρ(B 0 )|x| ≤ |B 0 | · |x| ≤ A|x| = ρ(A)|x|.

Največja lastna vrednost matrike B 0 pa je enaka največji lastni vrednosti njene podmatrike
B. Torej sledi
ρ(B) ≤ ρ(A).

Izrek 3.6 Glavna podmatrika M-matrike je M-matrika.

Dokaz. Naj bo A M -matrika oblike

A = cIn − B,

kjer je B nenegativna matrika z največjo lastno vrednostjo r in c ≥ r. Naj bo Q množica


zaporedij, ki so definirana tako, da predstavljajo indekse tistih elementov v matriki, ki tvo-
rijo glavno podmatriko. Izberimo ω ∈ Q. Potem B[ω] predstavlja tisto glavno podmatriko,
ki jo tvorijo elementi z indeksi iz zaporedja ω. Naj bo µ največja lastna vrednost glavne
podmatrike B[ω]. Potem zaradi trditve 3.5 velja r ≥ µ. Od tod sledi, da je c ≥ µ in zato je

A[ω] = cIn − B[ω]

M -matrika.

Na podlagi zadnjega izreka lahko izpeljemo še eno lastnost, ki velja za M -matrike in se
navezuje na determinante glavnih podmatrik, ki jih imenujemo glavni minorji matrike.
49

Izrek 3.7 Matrika A ∈ Zn je M-matrika natanko tedaj, ko so vsi njeni glavni minorji
nenegativni.

Dokaz. Naj bo A M -matrika. Zaradi izreka 3.6 zadošča dokazati, da je determinanta


M -matrike nenegativna. Po izreku 3.4 so realne lastne vrednosti M -matrike nenegativne.
Še več, ker je matrika realna, se vse nerealne lastne vrednosti pojavijo v konjugiranih pa-
rih. Od tod sledi, da je determinanta M -matrike, ki je produkt njenih lastnih vrednosti,
nenegativna. Kar pomeni, da so nenegativni tudi vsi njeni glavni minorji.

Dokažimo izrek še v drugo smer. Sedaj predpostavimo, da A ∈ Zn in so vsi njeni glavni
minorji nenegativni ter dokazujemo, da je A M -matrika. Naj bo

amm = max(aii ) in B = amm In − A.


i

Potem je
A = amm In − B,

kjer je B nenegativna matrika z največjo lastno vrednostjo r. Ločimo dve možnosti.

Najprej naj bodo vsi glavni minorji matrike A enaki 0. Potem so vse lastne vrednosti
matrike A tudi 0 in je A = −B, saj je amm = 0. V tem primeru je torej r = 0 in zato
amm ≥ r = 0. Od tod pa sledi, da je A M -matrika.

Sedaj pa si poglejmo še primer, ko so vsi glavni minorji matrike A nenegativni in niso vsi
enaki 0. Označimo z Ei (A) i-to elementarno simetrično funkcijo lastnih vrednosti matrike
A, ki je vsota vseh glavnih minorjev matrike A reda i. Ker so vsi glavni minorji matrike A
nenegativni in niso vsi enaki 0, je Ei (A) ≥ 0 za vsak i ter je neenakost stroga za vsaj en i.
Če je p pozitivno število, potem je
n
X
det((p + amm )In − B) = det(pIn + (amm In − B)) = det(pIn + A) = pn−k En−k (A)
k=0

in je pozitivna. Zato p+amm ne more biti lastna vrednost matrike B za katerokoli pozitivno
število p. Torej je amm ≥ r in zato je

A = amm In − B

M -matrika.
50

Zgled 19 Naj bo dana M -matrika


 
4 −1 −3
 
A=
 −1 .
−2  6
−3 −1 4

Matrika A je M -matrika, saj obstaja nenegativna matrika


 
2 1 3
 
B=
 1 0 2 

3 1 2

5+ 37
z največjo lastno vrednostjo r = 2 in število c = 6, da je A = cIn − B in je c > r. Torej
je matrika A vsebovana v Zn in je nesingularna. Če izračunamo njeno inverzno matriko,
dobimo  
22 7 20
1 
A−1 =

 10 7 11  .
21  
19 7 23

Opazimo lahko, da je matrika A−1 nenegativna. Pravzaprav je inverz vsake nesingularne


M -matrike vedno nenegativna matrika.

Izrek 3.8 Nesingularna matrika A ∈ Zn je M-matrika natanko tedaj, ko je A−1 nenega-


tivna matrika.

Dokaz. Naj bo A = cIn − B nesingularna M -matrika, kjer je B nenegativna matrika z


največjo lastno vrednostjo r ≤ c. Pri tem pa r ne more biti enak c, saj je A nesingularna
matrika. Tako so lastne vrednosti matrike B/c manjše od 1. Od tod sledi, da je

lim (B/c)t = 0.
t→∞

Torej je
(In − B/c)(In + B/c + (B/c)2 + · · · + (B/c)p ) = In − (B/c)p+1 .

Tako je

X
(In − B/c) (B/c)t = In
t=0

in zato je

X
(In − B/c)−1 = (B/c)t ,
t=0
51

ki pa je nenegativna, saj je
p
X
(B/c)t
t=0

nenegativna za vsako pozitivno celo število p. Od tod torej sledi, da je

A−1 = c−1 (In − B/c)−1

nenegativna matrika, saj sta (In − B/c)−1 in c−1 nenegativna.

Dokažimo izrek še v drugo smer. Predpostavimo, da A ∈ Zn in A−1 ≥ 0. Naj bo

amm = max(aii ) in B = amm In − A.


i

Potem je B nenegativna matrika. Naj bo r njen največji koren in naj bo x takšen nenega-
tiven lastni vektor, da je Bx = rx. Potem velja, da je

Ax = (amm In − B)x = (amm − r)x

in zato je
x = (amm − r)A−1 x.

Toda x in A−1 x sta nenegativna in amm − r 6= 0, saj je A nesingularna matrika. Zato je


amm − r > 0 in je
A = amm In − B

M -matrika.

Izrek 3.9 Naj bo A ∈ Zn nesingularna matrika. Potem so naslednje trditve ekvivalentne:

(i) A je M-matrika,

(ii) obstaja nenegativen vektor x, da je Ax > 0.

Dokaz. Predpostavimo, da je nesingularna matrika A M -matrika. Želimo dokazati, da


obstaja takšen nenegativni vektor x, da je Ax > 0. Ker je A M -matrika, obstaja takšna
nenegativna matrika B z največjo lastno vrednostjo r, da je

A = cIn − B,
52

kjer je c ≥ r. Torej je
B = cIn − A

in obstaja takšen nenegativen lastni vektor x 6= 0, da je Bx = rx. Potem velja

Ax = (cIn − B)x = (c − r)x.

Matrika A je M -matrika, zato je c ≥ r oziroma c − r ≥ 0. Ker pa je A nesingularna, je


c 6= r. Torej je c − r > 0. Sledi, da je

Ax > 0.

Dokažimo izrek še v drugo smer. Predpostavimo, da je Ax > 0 za x ≥ 0. Matrika A ∈ Zn ,


zato so vsi elementi, ki ne ležijo na glavni diagonali, negativni ali pa so enaki nič. Torej se
lahko zgodi, da je Ax > 0 za nenegativen vektor x le v primeru, ko so elementi na diagonali
pozitivni. Od tod pa sledi, da je matrika A M -matrika.
Poglavje 4

Posplošene permutacijske matrike

V tem poglavju bomo definirali posplošene permutacijske matrike in pojasnili njihovo pove-
zavo z nenegativnimi matrikami. Posplošene permutacijske matrike so kvadratne matrike,
ki imajo natanko en neničelni element v vsaki vrstici in v vsakem stolpcu. Dokazali bomo,
da je inverzna matrika nenegativne matrike nenegativna natanko tedaj, ko je ta matrika
posplošena permutacijska matrika.

Nato bomo ponovili pojem grupe, ki ga bomo potrebovali pri definicji semidirektnega pro-
dukta, saj bomo predstavili posplošene permutacijske matrike kot semidirektni produkt
diagonalnih matrik s simetrično grupo.

V zadnjem razdelku tega poglavja bomo predstavili linearne transformacije na nenegativnih


matrikah, ki ohranjajo determinanto in sled matrike. Izkaže se, da takšne linearne transfor-
macije ohranjajo tudi spekter matrike. Na koncu pa si bomo še pogledali kakšno povezavo
imajo posplošene permutacijske matrike z linearnimi transformacijami, ki preslikajo nene-
gativne matrike v nenegativne matrike ter pri tem ohranjajo njihov spekter.

53
4.1 Definicija posplošene permutacijske matrike 54

4.1 Definicija posplošene permutacijske matrike

Definicija 4.1 Kvadratno matriko, ki ima natanko en neničelni element v vsaki vrstici in
v vsakem stolpcu, vse ostale elemente pa ima enake nič, imenujemo posplošena permu-
tacijska matrika.

Posplošena permutacijska matrika ima torej podobno obliko kot permutacijska matrika, le
da ima za razliko od nje lahko elemente, ki niso enaki 1.

Zgled 20 Primer posplošene permutacijske matrike je matrika


 
0 1 0 0
 
 0 0 −3 0 
A=
 4 0 0 0
.

 
0 0 0 1

V primeru, da so vsi neničelni elementi posplošene permutacijske matrike pozitivni, je ma-


trika nenegativna. Izkaže se, da je tudi inverz te matrike nenegativna matrika.

Lema 4.2 Naj bo A nenegativna matrika. Potem je njena inverzna matrika nenegativna
natanko tedaj, ko je A posplošena permutacijska matrika.

Dokaz. Naj bo A = (aij ) nenegativna matrika. Predpostavimo, da je tudi A−1 = (bij )


nenegativna matrika. Iz produkta matrik A in A−1 dobimo

n
(
X 1; i = j
ait btj = δij =
t=1 0; i 6= j,

za i, j = 1, 2, ..., n. V primeru, da ima i-ta vrstica matrike A natanko k pozitivnih elementov


na mestih (i, js ), za s = 1, 2, ..., k in je j 6= i, potem morajo biti vsi elementi btj , za t = js in
s = 1, 2, ..., k, enaki nič. To pomeni, da mora A−1 vsebovati k × (n − 1) ničelnih podmatrik.
Ampak, če bi bil k večji od 1, potem bi bila determinanta matrike A enaka nič. Torej k ne
more biti večji od 1. Od tod sledi, da ima A največ en pozitiven element v vsaki vrstici.
Ker je A nesingularna matrika so elementi razvrščeni tako, da je tudi v vsakem stolpcu en
pozitiven element, torej je A posplošena permutacijska matrika.
4.2 Semidirektni produkt 55

4.2 Semidirektni produkt


V prejšnjem razdelku smo zapisali, da ima posplošena permutacijska matrika podobno obliko
kot permutacijska matrika, kar nam pove že samo ime matrik. Permutacijska matrika
je torej tista posplošena permutacijska matrika, katere vsak neničelni element je enak 1.
Posebni primer posplošenih permutacijskih matrik predstavljajo diagonalne matrike, kjer
neničelni elementi ležijo na glavni diagonali. Vsako posplošeno permutacijsko matriko pa
lahko zapišemo kot produkt diagonalne in permutacijske matrike, kar bomo formulirali tudi
s pomočjo semidirektnega produkta.

Pri semidirektnemu produktu iz dveh grup tvorimo novo grupo, zato je smiselno ponoviti
pojem grupe. Neprazno množico G z binarno operacijo ∗ : G × G → G, ki vsakemu
urejenemu paru (A, B) ∈ G priredi natanko en element A ∗ B ∈ G, imenujemo grupa G, če
operacija ∗ zadošča naslednji pogojem:

• asociativnost: (A ∗ B) ∗ C = A ∗ (B ∗ C), za vsak A, B, C ∈ G,

• obstoj nevtralnega elementa: obstaja takšen element E ∈ G, za katerega velja E ∗A =


A ∗ E = A za vsak A ∈ G,

• obstoj inverznega elementa: za vsak A ∈ G obstaja takšen element A−1 ∈ G, za


katerega velja A ∗ A−1 = A−1 ∗ A = E.

Podmnožico H grupe G, ki je za operacijo ∗ tudi sama grupa (veljajo vse zgoraj naštete
lastnosti) in velja A ∗ B −1 ∈ H za vse A, B ∈ H, imenujemo podgrupa grupe G. Podgrupo
K grupe G imenujemo podgrupa edinka, če velja g −1 Kg = K za vsak element g ∈ G.

Definicija 4.3 Grupa G je semidirektni produkt podgrup A in B, G = A o B, če velja:

(i) vsak element iz G lahko na enoličen način zapišemo kot produkt elementa iz A in
elementa iz B.

(ii) A je podgrupa edinka grupe G,

Z GLn (F) označimo splošno grupo reda n nad poljem F, ki je grupa obrnljivih matrik reda
n × n z operacijo množenja matrik. Torej je GLn (F) = {A ∈ Mn (F); det A 6= 0}. Simetrična
grupa Sn je grupa vseh permutacij dolžine n. Diagonalne matrike v množici posplošenih
permutacijskih matrik reda n × n nad poljem F tvorijo grupo diagonalnih matrik D(n, F). S
P (n, F) pa označimo grupo vseh n × n posplošenih permutacijskih matrik. Velja naslednja
trditev:
4.2 Semidirektni produkt 56

Trditev 4.4 Posplošene permutacijske matrike so semidirektni produkt diagonalnih matrik


s simetrično grupo:
P (n, F) = D(n, F) o Sn .

Dokaz. Najprej dokažimo, da lahko vsako posplošeno permutacijsko matriko zapišemo kot
produkt diagonalne matrike s simetrično grupo. Naj D ∈ D(n, F) in naj bo P permutacijska
matrika pripadajoča ustrezni permutaciji σ ∈ Sn . Potem je
n
X n
X
D · P = (DP )ij = dik pkj = dkj = (A)ij ,
k=1 k=1

za ustrezni A ∈ P (n, F). Produkt matrik D in P je torej posplošena permutacijska matrika


A, katere elementi so enaki elementom diagonalne matrike in ležijo na istih mestih kot ele-
menti matrike P .

Prav tako lahko vsako matriko A ∈ P (n, F) zapišemo kot produkt diagonalne in permutacij-
ske matrike. Torej A = DP , pri tem neničelni elementi matrike P ležijo na istih mestih kot
elementi matrike A, diagonalna matrika pa ima na diagonali ustrezno razvrščene neničelne
elemente matrike A.

Zapis vsake matrike iz P (n, F) kot produkt diagonalne matrike s simetrično grupo je enolično
določen. Naj bo A ∈ P (n, F). Potem lahko matriko A zapišemo kot

A = D1 P1 .

Recimo, da lahko matriko A zapišemo tudi kot produkt drugih dveh matrik, torej

A = D2 P2 ,

kjer je D1 6= D2 in P1 6= P2 . Sedaj pomnožimo matriko A z ustrezno inverzno matriko


permutacijske matrike. Dobimo

AP1−1 = D1 in AP2−1 = D2 .

V prvem delu dokaza smo ugotovili, da je matrika A enaka produktu diagonalne in per-
mutacijske matrike, pri tem pa ima permutacijska matrika svoje elemente ravno na istih
mestih kot matrika A in ker je P1 = P1−1 ter P2 = P2−1 sledi, da je P1 = P2 . Posledično je
tudi D1 = D2 , to pa je v nasprotju s predpostavko. Torej lahko vsako posplošeno permuta-
cijsko matriko na enoličen način zapišemo kot produkt diagonalne in permutacijske matrike.
4.2 Semidirektni produkt 57

Dokazati moramo še, da je D(n, F) podgrupa edinka grupe P (n, F). Grupa D(n, F) je
podgrupa edinka grupe P (n, F), če velja

A−1 D(n, F)A = D(n, F)

za vsako matriko A ∈ P (n, F). Če enačbo iz leve strani pomnožimo z matriko A dobimo,
da je
D(n, F)A = AD(n, F).

Produkt diagonalne matrike D1 s posplošeno permutacijsko matriko A je posplošena permu-


tacijska matrika, ki ima elemente na istih mestih kot matrika A, le da so ustrezno pomnoženi
z elementi diagonalne matrike. Če pa posplošeno permutacijsko matriko A pomnožimo z
diagonalno matriko D2 , potem prav tako dobimo posplošeno permutacijsko matriko, ki ima
elemente na istih mestih kot matrika A in so ustrezno pomnoženi z elementi diagonalne
matrike. V primeru, da ima diagonalna matrika D2 na diagonali ustrezno razvrščene iste
elemente kot matrika D1 , velja D1 A = AD2 . Kar pomeni, da je D(n, F)A = AD(n, F).
Torej je
A−1 D(n, F)A = D(n, F)

za vsako matriko A ∈ P (n, F) in je D(n, F) podgrupa edinka grupe P (n, F).

Zgled 21 Posplošeno permutacijsko matriko


 
0 1 0 0
 
 0 0 −3 0 
A=
 
 4 0 0 0 

0 0 0 1
 
1 0 0 0
 
 0 −3 0 0 
lahko zapišemo kot produkt diagonalne matrike D = 
 0 0 4 0
 s permutacijsko

 
0 0 0 1
 
0 1 0 0
 
 0 0 1 0 
matriko P =   .
 1 0 0 0 

0 0 0 1
4.3 Linearne transformacije na nenegativnih matrikah 58

4.3 Linearne transformacije na nenegativnih ma-


trikah

V tem razdelku bomo predstavili linearne transformacije na množici matrik Mn (C), ki ohra-
njajo determinanto in sled matrike. Zanimalo pa nas bo tudi, kakšna linearna transformacija
preslika nenegativne matrike v nenegativne matrike in ohranja njihov spekter.

Najprej bomo povedali kaj sploh je linearna transformacija. Naj bosta V in V 0 vektorska
prostora nad poljem F. Potem preslikavo T : V → V 0 imenujemo linearna transformacija,
če ohranja aditivnost in množenje s skalarjem.

Naslednji izrek se nanaša na linearno transformacijo T , ki ohranja determinanto matrike.


To pomeni, da je det(T (A)) = det(A). Tega izreka ne bomo dokazovali, njegov dokaz naj-
demo v članku [4]. Uporabili pa ga bomo v izreku, ki mu sledi.

Izrek 4.5 Naj bo T takšna linearna transformacija na množici Mn (C), ki ohranja deter-
minanto matrike. Potem obstajata takšni matriki U in V , da je det(U V ) = 1 in je

T (A) = U AV

za vse matrike A ∈ Mn (C) ali pa je

T (A) = U AT V

za vse matrike A ∈ Mn (C).

Preden formuliramo naslednji izrek, predstavimo še pojem sledi matrike. Sled kvadratne
matrike reda n × n je vsota vseh elementov na diagonali matrike in jo označimo s sled(A).
Torej je
n
X
sled(A) = aii .
i=1

Zapišimo si še nekatere lastnosti sledi matrike:

• sled(A + B) = sled(A) + sled(B),

• sled(AB) = sled(BA).
4.3 Linearne transformacije na nenegativnih matrikah 59

V naslednjem izreku linearna transformacija poleg determinante ohranja tudi sled matrike,
torej velja sled(T (A)) = sled(A).

Izrek 4.6 Naj bo T takšna linearna transformacija na množici Mn (C), ki ohranja deter-
minanto in sled vsake matrike A ∈ Mn (C). Potem obstaja takšna matrika V ∈ Mn (C), da
je
T (A) = V −1 AV

za vsako matriko A ∈ Mn (C) ali pa je

T (A) = V −1 AT V

za vsako matriko A ∈ Mn (C).

Dokaz. Po predpostavki linearna transformacija T ohranja determinanto matrike, zato po


izreku 4.5 obstajata takšni matriki U = (uij ) in V = (vij ), da je det(U V ) = 1 in za vsako
matriko A ∈ Mn (C) velja ena izmed enačb

T (A) = U AV ali T (A) = U AT V.

Dokažimo izrek najprej za primer, ko velja T (A) = U AV za vsak A ∈ Mn (C). Naj bo Eij
matrika, pri kateri je (i, j)-ti element enak 1, vsi ostali elementi pa so enaki 0. Potem je

T (Eij ) = U Eij V = U (i) V(j) .

To pomeni, da je za tako definirano matriko Eij produkt U Eij V enak kar produktu i-tega
stolpca matrike U ter j-te vrstice matrike V . V primeru, da ima matrika Eij element, ki
je enak ena na diagonali, je sled matrike Eij enaka ena, sicer pa je enaka nič. Torej je sled
matrike Eij enaka sled(Eij ) = δij . Od tod sledi, da je

n
X
sled(T (Eij )) = sled(U Eij V ) = usi vjs = (V U )ji .
s=1

Torej je sled matrike U Eij V enaka kar (j, i)-temu elementu matrike V U . Po predpostavki
linearna transformacija ohranja sled matrike. To pomeni, da je sled(T (Eij )) = sled(Eij ) =
δij in zato je tudi (V U )ji = δij za vsak i in j. Od tod pa sledi, da je U V = In in U = V −1 .
Torej je
T (A) = V −1 AV.
4.3 Linearne transformacije na nenegativnih matrikah 60

Podobno izrek dokažemo, ko velja T (A) = U AT V za vsako matriko A ∈ Mn (C). V tem


primeru dobimo, da je
T
T (Eij ) = U Eij V = U (j) V(i) .
T V je enak kar produktu j-tega stolpca matrike U in i-te vrstice
Produkt matrike U Eij
matrike V . Sled matrike U Eij V pa je v tem primeru enaka (i, j)-temu elementu matrike
V U oziroma
n
X
T
sled(T (Eij )) = sled(U Eij V)= usj vis = (V U )ij
s=1

za vsak i in j. Kar pomeni, da je (V U )ij = δij za vsak i in j in je V U = In oziroma


U = V −1 . Od tod pa sledi, da za vsako matriko A ∈ Mn (C) velja

T (A) = V −1 AT V.

Posledica 4.7 Linearna transformacija v prostoru kvadratnih kompleksnih matrik ohranja


spekter matrik natanko tedaj, ko ohranja sled in determinanto matrik.

Dokaz. Predpostavimo, da linearna transformacija ohranja spekter matrike. Torej ohra-


nja lastne vrednosti in posledično tudi njihovo vsoto in produkt. To pa sta ravno sled in
determinanta matrike.

Sedaj predpostavimo obratno. Naj linearna transformacija ohranja sled in determinanto


vsake matrike A ∈ Mn (C). Potem po izreku 4.6 obstaja takšna matrika V ∈ Mn (C), da za
vsako matriko A ∈ Mn (C) velja ena izmed enačb

T (A) = V −1 AV ali T (A) = V −1 AT V.

Naj bo λ lastna vrednost matrike A in x pripadajoči lastni vektor, potem je Ax = λx. To


pa lahko zapišemo kot AV V −1 x = λx, saj je V V −1 = I. Če nato pomnožimo enačbo na
levi strani z V −1 dobimo, da je

V −1 AV (V −1 x) = V −1 λx = λ(V −1 x).

To pomeni, da je
V −1 AV y = λy,

za y = V −1 x oziroma linearna preslikava T ohranja spekter matrik. To velja tudi v primeru,


ko je T (A) = V −1 AT V , saj je σ(A) = σ(AT ).
4.3 Linearne transformacije na nenegativnih matrikah 61

Linearna transformacija v zadnjem izreku 4.8 preslika nenegativne matrike v nenegativne


matrike in ohranja njihov spekter. Opazimo pa lahko tudi povezanost nenegativnih in po-
splošenih permutacijskih matrik.

Izrek 4.8 Naj bo T linearna transformacija na množici Mn (C), ki preslika nenegativne


matrike v nenegativne matrike in ohranja spekter nenegativnih matrik. Potem obstaja takšna
nenegativna posplošena permutacijska matrika P , da je

T (A) = P −1 AP

za vsako matriko A ∈ Mn (C) ali pa je

T (A) = P −1 AT P

za vsako matriko A ∈ Mn (C).

Dokaz. Ker T ohranja spekter nenegativnih matrik, po posledici 4.7 ohranja tudi njihovo
sled in determinanto. V splošnem linearna transformacija, ki ohranja sled nenegativne ma-
trike reda n × n in zlasti matrik oblike Eij , ohranja sled vseh matrik iz Mn (C). Dokazati
moramo še, da T ohranja tudi determinanto vsake kompleksne matrike.

Naj bo X = (xij ) matrika reda n × n, kjer so xij neodvisni in nedoločeni elementi iz


C. Elementi transformacije T (X) so fiksne linearne kombinacije elementov iz X, zato je
det(T (X))−det(X) polinom z nedoločenimi elementi xij . Ta polinom je enak nič, če matriko
X nadomestimo z nenegativno matriko reda n×n. Torej je polinom det(T (X))−det(X) = 0
oziroma je
det(T (X)) = det(X).

Kar pomeni, da je
det(T (A)) = det(A)

za vsako matriko A ∈ Mn (C).

Linearna transformacija torej ohranja sled in determinanto vsake kompleksne matrike reda
n × n. Po izreku 4.5 zato obstaja takšna matrika S, da za vsako matriko A ∈ Mn (C) velja
ena izmed enačb
T (A) = S −1 AS ali T (A) = S −1 AT S.
4.3 Linearne transformacije na nenegativnih matrikah 62

Naj velja T (A) = S −1 AS, potem je

T (Eij ) = S −1 Eij S = (S −1 )(i) S(j) .

Ker linearna transformacija preslika nenegativne matrike v nenegativne matrike, je T (Eij )


nenegativna matrika za vsaak i in j in je zato tudi

(S −1 )(i) S(j) ≥ 0

za vsak i-ti stolpec matrike S −1 in j-to vrstico matrike S. Vsi elementi matrike S −1 ne
morejo biti enaki nič. Torej obstaja takšno kompleksno število α in nenegativna matrika
P , da je
S = αP

oziroma matriko S lahko zapišemo kot produkt nenegativne matrike P s sklarjem α in zato
je
S −1 AS = P −1 AP

za vse matrike A ∈ Mn (C). Torej lahko matriko S nadomestimo z matriko P in velja

T (Eij ) = P −1 Eij P = (P −1 )(i) P(j) ,

pri tem pa mora biti T (Eij ) nenegativna za vsak i in j. Sledi enako kot prej, da je

(P −1 )(i) P(j) ≥ 0,

za vsak i-ti stolpec matrike P −1 in j-to vrstico matrike P . Matrika P je nenegativna in ker
morajo biti nekateri njeni elementi pozitivni, morajo biti vsi elementi matrike P −1 nenega-
tivni oziroma P −1 mora biti nenegativna matrika. Po lemi 4.2 pa sledi, da je P posplošena
permutacijska matrika.

Podobno dokažemo izrek, ko velja T (A) = S −1 AT S. V tem primeru je

T (Eij ) = S −1 Eij
T
S = (S −1 )(j) S(i) .

Ker je po predpostavki T (Eij ) ≥ 0, je tudi

(S −1 )(j) S(i) ≥ 0,

za vsak j-ti stolpec matrike S −1 in vsako i-to vrstico matrike S. Vsi elementi matrike S −1
ne morejo biti enaki nič. Torej obstaja takšno kompleksno število α in nenegativna matrika
4.3 Linearne transformacije na nenegativnih matrikah 63

P , da je
S = αP.

Matrika S je torej produkt nenegativne matrike P s skalarjem α in zato lahko zapišemo, da


je
S −1 AT S = P −1 AT P

za vse matrike A ∈ Mn (C). Matriko S nadomestimo z matriko P in dobimo

T (Eij ) = P −1 Eij
T
P = (P −1 )(j) P(i) .

Ker je po predpostavki T (Eij ) ≥ 0, je tudi

(P −1 )(j) P(i) ≥ 0

za vsak j-ti stolpec matrike P −1 in i-to vrstico matrike P . Ker pa morajo biti nekateri
elementi matrike P pozitivni, morajo biti vsi elementi matrike P −1 nenegativni. To pomeni,
da mora biti matrika P −1 nenegativna in po lemi 3.4 sledi, da je matrika P posplošena
permutacijska matrika.
Zaključek

V prvem poglavju so predstavljeni osnovni pojmi in definicije, ki jih potrebujemo pri razu-
mevanju diplomskega dela. Kot vir so uporabljene knjige [5], [10] in [11].

Osnovni vir poglavja o nenegativnih matrikah je knjiga [9]. Definicija nenegativnih matrik
je povzeta po viru [1]. V podpoglavjih o Perron-Frobeniusovem izreku in o stohastičnih
matrikah pa je kot vir uporabljena tudi knjiga [6].

Tretje poglavje je povzeto po viru [7]. Pri dokazovanju lastnosti M-matrik pa je uporabljena
tudi knjiga [3].

Uvodno poglavje četrtega poglavja je povzeto po viru [12], medtem ko sem podpoglavje o
semidirektnemu produktu zapisala sama. Kot osnovni vir podpoglavja o linearnih transfor-
macijah na nenegativnih matrikah pa je uporabljena knjiga [7].

V knjigah [2] in [8] ter članku [4] pa najdemo dokaze izrekov, ki so brez dokazov nave-
deni v diplomskem delu.

64
Literatura

[1] R. B. Bapat, T. E. S. Raghavan, Nonnegative matrices and applications, Cambridge


University Press, United Kingdom, 1997.

[2] M. Berger, B. Gostiaux, Differential geometry: manifold, curves and surfaces, volume
115 of Graduate test in Mathematics, Springer-Verlag, New York, 1988.

[3] A. Breman, R. J. Plemmons, Nonnegative Matrices in the Mathematical sciences, Aca-


demic Press, New York, 1979.

[4] G. Frobenius, Über die Darstellung der endlichen Gruppen durch lineare Substitutionen,
S.-B. K. Preuss. Akad. Wiss., Berlin, 1897, 994-1015.

[5] S. Indihar, M. Mastinšek, L. Arih, Matematika za ekonomiste, Ekonomsko-poslovna


fakulteta, Maribor, 1999.

[6] C. D. Meyer, Matrix Analysis and Applied Linear Algebra, University City Science
center, Philadelphia, 2000.

[7] H. Minc, Nonnegative Matrices, University of California, California, 1988.

[8] W. Rudin, Functional analysis, McGraw-Hill Book Co. NY, second edition, 1991.

[9] D. Serre, Matrices: Theory and Applications, Springer-Verlag, New York, 2002.

[10] G. Tomšič, N. Mramor Kosta, B. Orel, Matematika II, Fakulteta za elektroniko in


računalništvo, Ljubljana, 1995.

[11] I. Vidav, Višja matematika I, Društvo matematikov, fizikov in astronomov SRS, Lju-
bljana, 1987.

[12] Wikipedija. (online). (citirano 15. 04. 2011). Dostopno na naslovu:


http://en.wikipedia.org/wiki/Generalized permutation matrix.

65

You might also like