Professional Documents
Culture Documents
Uvs (Jako Dobro)
Uvs (Jako Dobro)
UVOD
Zvonko Glumac
Osijek, 2006.
v
vi
Sadrzaj
I Teorija vjerojatnosti 3
1 Kombinatorika 5
1.1 Permutacije . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Kombinacije i varijacije . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Binomni poucak . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2 Vjerojatnost 15
2.1 Denicija osnovnih pojmova . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Racunske operacije s vjerojatnostima . . . . . . . . . . . . . . . . . . . . . 21
2.2.1 Zbrajanje vjerojatnosti . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2.2 Mnozenje vjerojatnosti . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2.3 Uvjetna (relativna) vjerojatnost . . . . . . . . . . . . . . . . . . . . 30
2.2.4 Adicijski i multiplikacijski teorem . . . . . . . . . . . . . . . . . . . 32
2.2.5 Bayesov teorem, 1764 . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3 Matematicka teorija vjerojatnosti 43
3.1 Matematicko ocekivanje . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2 Vjerojatnost i Bernoullijevi pokusi . . . . . . . . . . . . . . . . . . . . . . 45
3.3 Prosjecna vrijednost . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4
Cebisevljev teorem i Bernoullijev teorem (zakon velikih brojeva) . . . . . . 58
3.5 Diskretne i kontinuirane vjerojatnosti . . . . . . . . . . . . . . . . . . . . . 61
3.6 Geometrijske vjerojatnosti . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.7 Teoremi o slucajnim varijablama . . . . . . . . . . . . . . . . . . . . . . . 68
3.8 Preobrazba varijable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4 Korelacijske funkcije 75
4.1 Uvod . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
5 Najmanji kvadrati 77
6 Teorija gresaka 81
6.1 Izravnanje direktnih opazanja jednake tocnosti . . . . . . . . . . . . . . . . 81
6.1.1 Greska funkcije . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
6.1.2 Standardna devijacija aritmeticke sredine . . . . . . . . . . . . . . . 86
6.2 Izravnanje direktnih opazanja razlicite tocnosti . . . . . . . . . . . . . . . . 89
6.3 Izravnanje posrednih opazanja . . . . . . . . . . . . . . . . . . . . . . . . . 91
6.4 Izravnanje vezanih opazanja . . . . . . . . . . . . . . . . . . . . . . . . . . 98
vii
viii SADR
ZAJ
II Matematicka statistika 99
7 Osnovni pojmovi statistike 101
7.1 Prosjecne vrijednosti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
7.1.1 Aritmeticka sredina . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
7.1.2 Geometrijska sredina . . . . . . . . . . . . . . . . . . . . . . . . . . 103
7.1.3 Harmonijska sredina . . . . . . . . . . . . . . . . . . . . . . . . . . 104
7.2 Momenti raspodjele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
8 Raspodjele 109
8.1 Binomna raspodjela . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
8.1.1 Polinomna raspodjela kao poopcenje binomne . . . . . . . . . . . . 115
8.2 Poissonova raspodjela . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
8.3 Hipergeometrijska raspodjela . . . . . . . . . . . . . . . . . . . . . . . . . . 120
8.4 Gaussova ili normalna raspodjela . . . . . . . . . . . . . . . . . . . . . . . 125
8.5 Gama raspodjela . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
8.6 t raspodjela . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
8.7 Eksponencijalna raspodjela . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
8.8 Geometrijska raspodjela . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
8.9 Logaritamsko - Gaussova raspodjela . . . . . . . . . . . . . . . . . . . . . . 133
8.10 Jednolika raspodjela . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
8.11 Opca krivulja raspodjele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
9 Funkcija izvodnica 137
9.1 Karakteristicne funkcije . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
9.1.1 Kumulativne funkcije . . . . . . . . . . . . . . . . . . . . . . . . . . 150
10 Sredisnji granicni teorem 151
11 Informacija i entropija 155
11.1 Informacija . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
11.2 Entropija izvora informacije . . . . . . . . . . . . . . . . . . . . . . . . . . 156
12 Teorija korelacije 159
12.1 Pojam korelacije . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
12.2 Linearna korelacija . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
12.3 Nelinearna korelacija . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
12.4 Omjer korelacije . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
12.5 Visestruka i djelomicna korelacija . . . . . . . . . . . . . . . . . . . . . . . 180
12.5.1 Visestruka korelacija . . . . . . . . . . . . . . . . . . . . . . . . . . 181
13 Teorija uzoraka 183
13.1 Osnovni pojmovi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
13.2 Primjena sredisnjeg granicnog teorema u teoriji uzoraka . . . . . . . . . . . 190
13.3 Testovi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
13.3.1
2
test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
13.3.2 Studentova t-raspodjela i t-test . . . . . . . . . . . . . . . . . . . . 195
SADR
ZAJ ix
14 Procjene 201
14.1 Nepristrane procjene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
14.1.1 Najbolja nepristrana procjena . . . . . . . . . . . . . . . . . . . . . 202
14.1.2 Intervalne procjene . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
14.2 Procjene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
14.2.1 Nepristrane procjene . . . . . . . . . . . . . . . . . . . . . . . . . . 205
14.2.2 Najbolja nepristrana procjena . . . . . . . . . . . . . . . . . . . . . 207
14.2.3 Intervalne procjene . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
15 Stohasticki procesi 211
15.1 Nasumicni hod . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
15.2 Markovljevi lanci . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
15.3 Poissonov proces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
15.3.1 Poissonov proces . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
15.3.2 Kolmogorovljeve jednadzbe . . . . . . . . . . . . . . . . . . . . . . 246
15.3.3 Procesi radanja i umiranja . . . . . . . . . . . . . . . . . . . . . . . 259
x SADR
ZAJ
Ovo su biljeske s autorovih predavanja iz kolegija Osnove zickih mjerenja i statisticke
analize, koja se odrzavaju u trecem semestru studija zike na sveucilistu u Osijeku. Bi-
ljeske nisu strucno recenzirane i daju se na uvid studentima kao orjentacija za pripremanje
ispita.
xi
xii SADR
ZAJ
Predgovor
Ove biljeske obuhvacaju predavanja iz kolegija Osnove zickih mjerenja i statisticke ana-
lize, koja je autor drzao studentima treceg semestra studija zike na Sveucilistu J. J.
Strossmayer u Osijeku. Ona sadrze osnove teorije vjerojatnosti i statistike, zbog cega
mogu biti korisna i studentima drugih fakulteta koji se susrecu s problemima iz tog po-
drucja.
Predavanja su najvecim dijelom bazirana na knjigama prof. Vranica Vjerojatnost i sta-
tistika i prof. Pavlica Statisticka teorija i primjena.
itd .... itd .....
Osijek, rujna 2006. Autor
xiii
xiv SADR
ZAJ
Kazalo kratica i simbola
N ukupan broj elementarnih dogadaja
P(A) vjerojatnost realizacije dogadaja A
gustoca vjerojatnosti, = d P/d x
X slucajna (nasumicna) varijabla
x vrijednost slucajne (nasumicne) varijable
skup svih elementarnih dogadaja
elementarni dogadaj
Grcko slovo ispred odredenog simbola oznacava promjenu oznacene velicine za
konacan iznos. Npr.
A = A
kon
A
po c
.
Slovo d ispred odredenog simbola oznacava innitezimalnu promjenu oznacene velicine.
Npr.
d
V (q) =
V (q + d q)
V (q).
Diferencijali volumena te se oznacavati s d V ili s d
3
r, a diferencijali povrsine s d S ili
s d
2
r.
xv
[
Uvod] Uvod
... napisati ga ...
1
2 SADR
ZAJ
Dio I
Teorija vjerojatnosti
3
Poglavlje 1
Kombinatorika
Teorija vjerojatnosti i statistike cesto i obilno koristi pojmove i rezultate jednog dijela
matematike koji se zove kombinatorika. Stoga cemo se upoznati s kombinatorikom u onoj
mjeri i na onaj nacin koji ce nam biti potreban za pracenje daljeg izlaganja.
1.1 Permutacije
Jedan od osnovnih kombinatorickih pojmova jeste pojam permutacije.
Permutirati skup od N razli
ci poslagati te elemente
na sve mogu
ce razli
cite na
cine.
Permutacije bez ponavljanja: P
N
Zapocnimo s jednim jednostavnim primjerom. Zadan je skup od cetiri razlicita simbola
(, , , ), cetiri slova (s, i, a, y) ili naprosto cetiri broja (12, 8.03, 3/2, 459). Elemente
tih skupova je moguce poslagati na 4 ! = 1 2 3 4 = 24 razlicita nacina kao sto je to
pokazano u tablici 1.1. Gornji je poredak dobiven tako sto smo uzeli da zadani poredak
denira redoslijed; zatim smo uvijek mijenjali po dva clana, iduci od pocetka prema kraju.
Pokazimo da niz od N razlicitih elemenata ima
P
N
= N ! = 1 2 . . . (N 1) N (1.1)
razlicitih permutacija. Jasno je da je broj permutacija jednog elementa, oznacimo ga s
A, jednak jedan
P
N=1
= 1 = 1 !.
Broj permutacija skupa od dva elementa cemo dobiti tako sto cemo ovaj drugi element,
oznacen s B, kombinirati na sve moguce nacine s permutacijama jednog elementa: u ovom
jednostavnom slucaju to znaci da B moze doci samo ispred i iza A, tj. postoje samo dvije
mogucnosti
A A B, B A,
pa je zato
P
N=2
= P
N=1
2 = 1 2 = 2 !.
5
6 POGLAVLJE 1. KOMBINATORIKA
Tablica 1.1: Dva primjera permutacija cetiri simbola (, , , ) i cetiri broja (1, 2, 3, 4).
1. 1 2 3 4
2. 1 2 4 3
3. 1 3 2 4
4. 1 3 4 2
5. 1 4 2 3
6. 1 4 3 2
7. 2 1 3 4
8. 2 1 4 3
9. 2 3 1 4
10. 2 3 4 1
11. 2 4 1 3
12. 2 4 3 1
13. 3 1 2 4
14. 3 1 4 2
15. 3 2 1 4
16. 3 2 4 1
17. 3 4 1 2
18. 3 4 2 1
19. 4 1 2 3
20. 4 1 3 2
21. 4 2 1 3
22. 4 2 3 1
23. 4 3 1 2
24. 4 3 2 1
Sada dodajemo i treci element C. Njega postavljamo na sva moguca mjesta u odnosu na
gornje permutacije dva elementa. Ovih mjesta sada ima tri: ipred, izmedu i iza:
A B A B C, A C B, C A B
B A B A C, B C A, C B A.
Svaka od permutacija iz P
N=2
je generirala tri nove permutacije, pa je zato
P
N=3
= P
N=2
3 = 1 2 3 = 3 ! = 6.
Iz gornjeg postupka se vidi da za svaki zadani poredak N elemenata, postoji N+1 mjesto
na koje se moze postaviti N + 1-vi element (ta mjesta su prikazana crticama)
a
1
a
2
a
3
a
N
.
Dakle, svaka pojedina permutacija od N elemenata. ce generirati novih N+1 permutacija
N plus jednog elementa. Zato ce ukupni broj permutacija N + 1-og elementa, P
N+1
, biti
jednak
P
N+1
= P
N
(N + 1) = P
N1
N (N + 1) = P
N2
(N 1) N (N + 1) = = (N + 1) !,
cime je dokazana relacija (1.1). Ista se relacija moze dokazati i ovako: ako je na raspola-
ganju N elemenata, tada za prvi mozemo odabrati bilo koji od njih N; kada smo odabrali
prvi, za drugi mozemo odabrati bilo koji od preostalih N 1 elemenata, tako da prva dva
elementa mogu biti odabrana na N (N 1) nacina; treci element moze biti bilo koji od
1.1. PERMUTACIJE 7
preostalih N 2 elemenata, pa se prva tri elementa mogu izabrati na N (N 1) (N 2)
nacina; ovaj postupak nastavljamo sve dok ne dodemo do posljednjeg elementa kojeg
mozemo odabrati na samo jedan nacin, cime smo opet dosli do izraza (1.1).
Permutacije s ponavljanjem: P
M
N
Pogledajmo sada koliki je broj permutacija skupa od N elemenata od kojih su njih
M medusobno jednaki. Zapocnimo opet s jednim primjerom: zadan je skup od cetiri
elementa od kojih su dva ista
A, A, B, C.
Treba naci sve permutacije. Zamjena istih elemenata ne daje novu permutaciju. Dva su
elementa ista, pa permutacija tih istih elemenat ima 2 ! = 2, ove permuatcije ne daju
novu permuatciju cijelog skupa.
A A B C, B A A C, C A A B,
A A C B, B A C A, C A B A,
A B A C, B C A A, C B A A,
A B C A,
A C A B,
A C B A,
Tako ce sada umjesto 4 ! = 24 permutacija, preostati samo 4 !/2 ! = 12 permutacija.
Da smo umjesto A A imali A A
, B C A
A
i mi bismo od gornjih 12 permutacija dobili 24 permutacije 4 razlicita elementa. Slicnim
razmisljanjem dolazimo do zakljucka da je broj permutacija A A A B C za 3 ! manji
od broja permutacija pet razlicitih elemenata, jer ce se svaka permuatcija oblika
A A A
razbiti u 6 = 3 ! novih permutacija oblika
A A
A
,
ako se A-ovi medusobno razlikuju. Sada je lako vidjeti da je opcenito
P
M
N
=
N !
M !
.
Moze se dogoditi da unutar N elemenata postoje dvije ili vise skupina istih elemenata,
npr.
A, A, A, A, B, B, C D .
Slicnim razmisljanjem kao gore, dolazi se do opcenitog rezultata za broj permutacija N
elemenata s grupama od M
1
, M
2
, istih elemenata
P
M
1
,M
2
,
N
=
N !
M
1
! M
2
! . . .
. (1.2)
8 POGLAVLJE 1. KOMBINATORIKA
1.2 Kombinacije i varijacije
Kombinacije bez ponavljanja: K
M
N
Sastavljanjem kombinacija bez ponavljanja nazivamo slijedeci postupak: N razlicitih
elemenata treba rasporediti u grupe od po M < N elemenata. Redoslijed eleme-
nata unutar grupe nije va
_
N M
N x
_
=
M!
x ! (Mx) !
(N M) !
(N x) ! (N MN + x) !
razlicitih mogucnosti.
1.3 Binomni poucak
Zadani su proizvoljni brojevi A i B i prirodan broj N. Zadatak je naci razvoj N-te
potencije binoma
(A + B)
N
u red potencija po A i B. Ovaj se zadatak moze rijesiti na vise nacina, a jedan je nacin i
primjenom kombinatorike: gornja je potencija jednaka umnosku N binoma
(A + B) (A + B) (A + B) . . . (A + B).
Pomnozimo gornje zagrade i zapitajmo se koliko ce se puta pojaviti potencija A
N
? Da
bi se dobila N-ta potencija elementa A, potrebno je iz svakog od N binoma izdvojiti A i
pomnoziti ih. Ocito postoji samo jedan nacin da se iz svakog binoma izdvoji A i zato ce
se u razvoju gornjeg umnoska, A
N
pojaviti u obliku
1 A
N
.
S kojim mnoziteljem ce se pojaviti A
N1
? Ako iz N 1 zagrada (binoma) uzmemo A a
iz one preostale uzmemo B, dobit cemo A
N1
B. Ta jedna zagrada iz koje uzimamo B
se moze odabrati medu N zagrada na N razlicitih nacina (ona moze biti prva, druga, ...,
N-ta) i zato clan s A
N1
glasi
N A
N1
B.
1.3. BINOMNI POU
CAK 13
Sada trazimo clan s A
N2
. Iz N 2 zagrada uzimamo A, a iz preostale dvije zagrade
uzimamo B. No, od N zagrada, dvije se mogu odabrati na K
2
N
=
_
N
2
_
nacina (kombinacije
bez ponavljanja: svejedno je jesmo li B uzeli iz 6. i 43. zagrade ili iz 43. i 6. zagrade),
pa je zato clan s potencijom A
N2
jednak
_
N
2
_
A
N2
B
2
.
Iz ovoga je vec jasno kako treba nastaviti: clan s potencijom A
Nn
je
_
N
n
_
A
Nn
B
n
.
S gornjim opcenitim izrazom smo u mogucnosti napisati i potpuni razvoj N-te potencije
binoma
(A + B)
N
=
_
N
0
_
A
N
+
_
N
1
_
A
N1
B +
_
N
2
_
A
N2
B
2
+ +
_
N
n
_
A
Nn
B
n
+
+ +
_
N
N 1
_
AB
N1
+
_
N
N
_
B
N
=
N
n=0
_
N
n
_
A
Nn
B
n
. (1.8)
Jednostavni posebni slucajevi:
- ako se postavi da je A = B = 1, gornji izraz daje
2
N
=
N
n=0
_
N
n
_
;
- ako se odabere da je A = B = 1, (1.8) vodi na
0 =
N
n=0
(1)
n
_
N
n
_
.
Gornje se razmatranje moze poopciti na raspis N potencije visih polinoma
(A + B + C)
N
, (A + B + C + D)
N
,
Primjenom rezultata za razvoj binoma, dolazi se do
(A + B + C)
N
= [(A + B) + C]
N
=
N
n=0
_
N
n
_
(A + B)
Nn
C
n
=
N
n=0
Nn
m=0
_
N
n
__
N n
m
_
A
Nnm
B
m
C
n
=
N
n=0
Nn
m=0
N !
n! m! (N n m) !
A
Nnm
B
m
C
n
,
14 POGLAVLJE 1. KOMBINATORIKA
Primjenom rezultata za razvoj binoma i trinoma, dolazi se do
(A + B + C + D)
N
= [(A + B + C) + D]
N
=
N
n=0
_
N
n
_
(A + B + C)
Nn
D
n
=
N
n=0
Nn
m=0
Nnm
l=0
_
N
n
__
N n
m
__
N n m
l
_
A
Nnml
B
l
C
m
D
n
=
N
n=0
Nn
m=0
Nnm
l=0
N !
n! m! l ! (N n ml) !
A
Nnml
B
l
C
m
D
n
.
Sada je vec posve ocito kako se gornji postupak moze i dalje poopcavati.
Poglavlje 2
Osnovni pojmovi vjerojatnosti
2.1 Denicija osnovnih pojmova
Teorija vjerojatnosti svoj pocetak duguje zanimanju prema igrama na srecu dvojice
Francuza vicnih racunu, a to su bili: Blaise Pascal i Pierre Fermat
1
. Zamoljeni od
Slika 2.1: Blaise Pascal (lijevo) i Pierre Fermat (desno).
svojih prijatelja da im pomognu u igrama na srecu, oni su razvili jedan matematicki
aparat koji se danas naziva teorija vjerojatnosti i statisticka analiza. Ovakav pristup
rjesavanju matematickih problema se pokazao kao jako prikladan (a negdje i jedini moguc)
u mnogim znanstvenim disciplinama (kao sto su npr. kineticka teorija plinova, statisticka
mehanika, kvantna mehanika, itd.) i u gospodarstvu (u novije vrijeme sve vise u podrucju
nancijskog poslovanja).
Prije nego sto pocnemo govoriti o vjerojatnosti, pokusat cemo preciznije denirati neke
pojmove koje cemo cesto koristiti.
1
Blaise Pascal, 1623 - 1662, i Pierre de Fermat , 1601 - 1665, francuski zicari i matematicari.
15
16 POGLAVLJE 2. VJEROJATNOST
Deterministicki i slucajni pokusi
Kada proucavamo vjerojatnost, svaki proces promatranja nekog dogadaja se naziva po-
kusom, a rezultat promatranja se naziva ishodom pokusa. Pokus se naziva slucajnim
pokusom, ako se njegov ishod ne mo
cajno hoce
li se okrenuti jedna ili druga strana. Primjetimo ono bitno, a to da mi sada govorimo o
slucajnosti samo zato jer nemamo dovoljno informacija: kada bismo znali sve one
gornje ako i uz dovoljno jako racunalo (nasa vjestina racunanja se podrazumjeva), ishod
pokusa vise ne bi bio slucajan nego izvjestan. Ukratko, slucajnim pokusom cemo nazivati
pokus ciji se ishod prakticki ne moze predvidjeti.
Potpun skup
Skup svih mogucih ishoda slucajnog pokusa se naziva potpun ili osnovni skup. Oznacavat
cemo ga s . Pokus ne moze zavrsiti ishodom koji nije element potpunog skupa.
Elementaran dogadaj
Svakom ishodu slucajnog pokusa odgovara jedan element u . Svaki od tih ishoda
nazivamo elementarnim dogadajem. Elementarne cemo dogadaje oznacavati s .
Primjer: 2.1 Napisite potpuni skup za pokus koji se sastoji u:
(a) bacanju kovanice jednom,
(b) bacanju kovanice dva puta i
(c) bacamo kovanicu i brojimo koliko je bacanja potrebno da bi se pojavilo pi-
smo.
R: (a) Postoje samo dva moguca ishoda: glava (G) i pismo (P)
= {G, P}.
(b) Sada postoje cetiri moguca ishoda, pa je
= {GG, GP, PG, PP}.
2
Kvantnomehanicka nemogucnost preciznog odredenja polozaja i brzine svakog djelica bacene kovanice, ovom primjeru
nije bitna (ne inzistiramo na tolikoj preciznosti).
2.1. DEFINICIJA OSNOVNIH POJMOVA 17
(c) Pismo se moze pojaviti nakon prvog, drugog, itd. bacanja, pa je zato
= {1, 2, 3, }.
Primjer: 2.2 Napisite osnovni skup za slucajni pokus koji se sastoji od mjerenja (u sa-
tima) vremena zivota jednog tranzistora.
R: Vrijeme zivota tranzistora moze biti bilo koji realni pozitivni broj, pa
je zato
= {t : 0 t },
gdje je t vrijeme zivota.
Osnovni skup se naziva diskretnim ako se sastoji od konacnog (kao (a) i (b) iz prvog
primjera) ili prebrojivo beskonacnog broja elemenata (kao u (c) prvog primjera). Ako
se izmedu elemenata osnovnog skupa i prirodnih brojeva moze uspostaviti jedan-jedan
preslikavanja, skup se naziva prebrojivim (cijeli prvi primjer). Osnovni skup se naziva
kontinuiranim, ako njegovi elementi cine kontinuum (kao u drugom primjeru).
Slozen dogadaj
Slozenim dogadajem, A (ili, krace, dogadajem), oznacavamo podskup osnovnog skupa.
Primjer: 2.3 Pokus se sastoji u bacanju dvije kocke.
(a) Napisite osnovni skup.
(b) Denirajte (slozeni) dogadaj A koji se sastoji u tome da je zbroj tockica
na kockama jednak 7.
(c) Denirajte (slozeni) dogadaj B koji se sastoji u tome da je zbroj tockica
na kockama veci od 10.
(d) Denirajte (slozeni) dogadaj C koji se sastoji u tome da je zbroj tockica
na kockama veci od 12.
R: (a) Potpuni skup se moze napisati kao skup uredenih parova brojeva
(i, j), gdje svaki od brojeva i i j poprima sve vrijednosti prirodnih brojeva od
1 do 6 (ukljucivo). Broj i pokazuje broj tockica na prvoj, a j na drugoj kocki.
To se, krace, pise kao
= {(i, j) : i, j = 1, 2, 3, 4, 5, 6}.
(b) Dogadaj A je podskup od , koji se sastoji od slijedecih sest elemenata
A = {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)}.
(c) Dogadaj B je podskup od , koji se sastoji od tri elemenata
B = {(5, 6), (6, 6), (6, 5)}.
18 POGLAVLJE 2. VJEROJATNOST
(d) Zbroj tockica na dvije kocke ne moze biti veci od 12, i zato je nemoguc
dogadaj, predstavljen praznim skupom
C = .
Vjerojatnost
Promatrajmo neki odredeni proces koji ima N jednako mogu
+ P
+ + P
= 1. (2.2)
Ta se cinjenica naziva i normiranje vjerojatnosti.
Ovakva denicija vjerojatnosti ima jednu manjkavost: ona vrijedi samo onda ako su
svi dogadaji jednako moguci, pa je zato dovoljno voditi racuna samo o tome koliko ih ima
(tj. prebrojati ih). No, sto se krije iza rijeci jednako mogu
cka de-
nicija vjerojatnosti. Sustina ove denicije je u slijedecem: izvodi se neki pokus, mjerenje
ili nesto slicno sto cemo opcenito nazivati procesom, kojim se utvrduje je li se dogadaj A
ostvario ili nije. Ako je, pod istim uvjetima, izvedeno N pokusa, pri cemu se dogadaj A
ostvario N
A
puta, deniramo relativnu frekvenciju (A) dogadaja A kao omjer
(A) =
N
A
N
. (2.3)
Ova relativna frekvencija jos uvijek nije isto sto i vjerojatnost a posteriori. Tek u
granici kada broj promatranih procesa (pokusa), N, postane vrlo velik (tj. kada tezi
prema beskonacnosti), ova frekvencija postaje a posteriorna vjerojatnost
P(A) = lim
N
N
A
N
. (2.4)
Precizniju deniciju vjerojatnosti a posteriori je dao Mises 1919:
(1) O vjerojatnosti se moze govoriti samo ako postoji tocno ograniceni skup dogadaja (to
moze biti i proces koji se ponavlja u vremenu).
(2) Spomenuti skup dogadaja (tj. ponavljani proces), mora zadovoljavati dva uvjeta:
(a) relativne frekvencije pojedinih obiljezja moraju imati tocno odredene granicne vrijed-
nosti u granici kada broj elemenata skupa neizmjerno raste;
(b) te granicne vrijednosti se ne smiju promijeniti, ako se ukloni jedan dio elemenata iz
skupa.
(3) Ovaj uvjet iz (b) se naziva nacelo nereda ili nacelom iskljucenog sistema igre.
(4) Granicna vrijednost iz (a) naziva se vjerojatnost obiljezja unutar promatranog skupa.
Povezimo ovo s gornjim primjerom izvlacenja crvene kuglice iz kutije. Apriorna vjero-
jatnost je 2/5 = 0.4. Ako radimo pokuse izvlacenja kuglice, dobit ce se npr. ovakvi
20 POGLAVLJE 2. VJEROJATNOST
rezultati: nakon 1 000 izvlacenja, crvena se kuglica pojavila 385 puta, pa je relativna
frevencija 385/1 000 = 0.385; nakon 10 000 izvlacenja, crvena se kuglica pojavila 3 922
puta, pa je sada relativna frevencija 3 922/1 000 = 0.3922, itd. Vidimo da sto je veci
broj izvlacenja N, to relativna frekvencija tezi jednoj granicnoj vrijednosti koju zovemo
vjerojatnost a posteriori ili statisticka vjerojatnost, a koja je po svojoj vrijednosti, jako
bliska apriornoj vjerojatnosti istog procesa. Zasto (samo) bliska, a ne i jednaka? Zato
jer se apriorna vjerojatnost odnosi na idealne kuglice koje se nalaze u idealnoj kutiji
i sva izvlacenja dogadaju pod idealno jednakim uvjetima. U stvarnosti, nista nije ide-
alno (razlike uvijek postoje i one se nastoje uciniti sto manjima u pokusima - to je velika
vjestina eksperimentalnih zicara) i zato ne smijemo ocekivati a priornu vjerojatnost kao
rezultat granicnog procesa.
Primjer: 2.4 Evo jednog lijepog primjera koji dugujemo strpljenju jednog z uriskog astro-
noma po imenu R. Wolf. On je, 1850. godine bacao dvije kocke i brojao je
koliko ce se puta okrenuti razliciti brojevi. Evo njegovih rezultata.
R: Kada bacate dvije kocke, moguce je 36 ishoda prikaznih tablicom 2.1.
Sest kombinacija rezultira s istim brojem na obje kocke, a 30 kombinacija
Tablica 2.1: Moguci ishodi bacanja dvije kocke.
1 1 1 2 1 3 1 4 1 5 1 6
2 1 2 2 2 3 2 4 2 5 2 6
3 1 3 2 3 3 3 4 3 5 3 6
4 1 4 2 4 3 4 4 4 5 4 6
5 1 5 2 5 3 5 4 5 5 5 6
6 1 6 2 6 3 6 4 6 5 6 6
rezultira razlicitim brojevima. Prema tome je apriorna vjerojatnost da se u
danom bacanju pojave dva razicita broja, jednaka
P =
30
36
= 0.8
3.
Evo Wolfovih eksperimentalnih rezultata, tablica 2.2, za relativnu frekvenciju
, prikazanih u ovisnosti o broju bacanja N. Vidi se da ovi rezultati lijepo
potvrduju apriornu vjerojatnost 0.8
Cesto se slucajni dogadaji mogu zamisliti kao kombinacija (kompozicija) vise elementarnih
ili nekih drugih (manje) slozenih dogadaja. U ovom cemo odjeljku pokazati kako se
vjerojatnost takvih slozenih dogadaja, moze povezati s vjerojatnostima jednostavnijih
dogadaja
22 POGLAVLJE 2. VJEROJATNOST
2.2.1 Zbrajanje vjerojatnosti
Denirajmo najprije pojam isklju
i=1
A
i
_
=
k
i=1
P(A
i
).
Algebarskim jezikom receno, zbrajanje vjerojatnosti je linearni operator
6
.
Vjerojatnost neostvarenja dogadaja
Neka je zadan dogadaj A. U promatranom procesu, taj se dogadaj moze ili ostvariti
ili ne ostvariti, trece mogucnosti nema. Neostvarenje dogadaja A je opet jedan dogadaj
koji cemo oznaciti s A. Sa sigurnoscu mozemo reci da ce se dogadaj A ili ostvariti ili ne
ostvariti. Siguran dogadaj ima vjerojatnost jednaku jedan, pa zato pisemo
P(A) + P(A) = 1.
Do istog rezultata dolazimo i pomocu gornjeg pravila o zbrajanju vjerojatnosti iskljucivih
dogadaja: ako je N
A
broj elementarnih dogadaja koji ostvaruje A, tada je N N
A
broj
elementarnih dogadaja koji ostvaruje A, pa je prema (2.5)
P(A + A) = P(A) + P(A) =
N
A
N
+
N N
A
N
= 1.
Vjerojatnost da se dogadaj A ne ostvari, oznacavamo i s
Q(A) P(A) P(A) + Q(A) = 1.
Primjer: 2.5 U prostoriji se nalazi N osoba.
(a) Kolika je vjerojatnost da bar dvije osobe imaju isti rodendan?
(b) Izracunajte tu vjerojatnost za N = 50.
(c) Koliko veliki treba biti N, pa da trazena vjerojatnost bude veca od 0.5?
R: Radi jednostavnosti, zaboravit cemo na prijestupne godine, i reci cemo
da godina ima 365 dana. Svaka osoba moze biti rodena bilo kojeg od tih
365 dana, pa se zato osnovni skup sastoji od 365
N
n-torki brojeva oblika
(n
1
, n
2
, , n
N
), gdje svaki n
j
oznacava dan rodenja j-te osobe u prostoriji
= {(n
1
, n
2
, , n
N
) : n
j
= 1, 2, 3, , 365} .
Oznacimo s A dogadaj da u prostoriji nema dvije osobe s istim rodendanom.
Koliki je broj N
A
takvih elemenata u ? Krenimo redom: rodendan prve
6
Primjetimo da znak + na lijevoj strani stoji medu dogadajima, a na desnoj medu brojevima (vjerojatnostima tih
dogadaja).
24 POGLAVLJE 2. VJEROJATNOST
osobe moze biti bilo koji od 365 dana u godini; da bi se rodendan druge
osobe razlikovao od rodendana prve osobe, on mora pasti u jedan (bilo koji)
od preostalih 364 dana. To znaci da je broj elemenata iz u kojima dvije
osobe nemaju isti rodendan jednak 365 364. Sada zelimo iskljuciti i trecu
osobu. Njezin rodendan mora pasti u jedan od preostala 363 dana, sto vodi
na 365 364 363 elemenata. Ovaj se postupak jednostavno nastavlja sve do
iskljucenja i N te osobe, a broj N-torki koje zadovoljavaju postavljeni uvjet
je
N
A
= 365 364 363 . . . (365 N + 1).
Prema deniciji vjerojatnosti (2.1) je
P(A) =
N
A
N
=
365 364 363 . . . (365 N + 1)
365
N
.
To je vjerojatnost da nema dvije osobe s istim rodendanom. Suprotan je
dogadaj A, da bar dvije osobe imaju isti rodendan, pa je
P(A) = 1 P(A) = 1
365 364 363 . . . (365 N + 1)
365
N
.
(b) Uvrstavanjem N = 50 u gornju formulu, dobivamo P(A) 0.97.
(c) Uvrstavanjem N = 23 u gornju formulu, dobivamo P(A) 0.507. To
znaci da ako se u prostoriji nalaze najmanje 23 osobe, vjerojatnost da bar
dvije imaju isti rodendan, je veca od 0.5.
2.2.2 Mnozenje vjerojatnosti
Pretpostavimo sada da postoje dva dogadaja A i B cija se ostvarenja medusobno ne is-
klju
N
B
N
2
= P(A) P(B).
Primjer: 2.6 Neka je ukupan broj svih mogucih elementarnih dogadaja jednak N; slozeni
dogadaj A se ostvaruje kroz cetiri elementarna dogadaja (
A,1
,
A,2
,
A,3
,
A,4
),
a B kroz tri elementarna dogadaja (
B,1
,
B,2
,
B,3
). Dogadaj koji nazivamo
i A i B se moze ostvariti na bilo koji od slijedecih 12 nacina:
2.2. RA
A,1
,
B,1
A,1
,
B,2
A,1
,
B,3
A,2
,
B,1
A,2
,
B,2
A,2
,
B,3
A,3
,
B,1
A,3
,
B,2
A,3
,
B,3
A,4
,
B,1
A,4
,
B,2
A,4
,
B,3
Dakle, postoji 12 povoljnih od N
2
mogucih dogadaja.
Opcenito cemo dogadaj koji se sastoji u istovremenom ostvarivanju i A
1
i A
2
i A
3
i itd.,
oznaciti s
A
1
A
2
. . . A
k
Primjetimo da sada znak kada stoji medu dogadajima, ne znaci isto sto i znak kada
stoji medu brojevima. Neka N
i
elementarnih dogadaja ostvaruje dogadaj A
i
, tada izmedu
N
k
mogucih dogadaja, postoji njih N
1
N
2
. . . N
k
razlicitih dogadaja koji ostvaruju
A
1
A
2
. . . A
k
. Prema deniciji vjerojatnosti
P(A
1
A
2
. . . A
k
) =
N
1
N
2
. . . N
k
N
k
=
N
1
N
N
2
N
. . .
N
k
N
= P(A
1
) P(A
2
) . . . P(A
k
).
Vjerojatnost ostvarenja dogadaja A
1
A
2
. . . A
k
je
P(A
1
A
2
. . . A
k
) = P(A
1
) P(A
2
) . . . P(A
k
). (2.6)
Gornja se relacija moze napisati i krace kao
P
_
k
i=1
A
i
_
=
k
i=1
P(A
i
).
26 POGLAVLJE 2. VJEROJATNOST
Kao posebni slucaj gornjeg pravila, promatrajmo slijedeci niz od N pokusa. Pokusima
zelimo utvrditi samo to je li se u svakom pojedinom pokusu dogadaj A ostvario ili ne.
Dakle postoje samo dva moguca ishoda svakog pokusa. Elementarni dogadaji su A i
A. Vjerojatnost ostvarenja dogadaja je p, a neostvarenja q = 1 p. Prema gornjem
razmatranju, (2.6), vjerojatnost da se dogadaj ostvari svih N puta je jednaka
7
P
N
= p
N
.
Vjerojatnost da se taj dogadaj ne ostvari svih N puta je
P
0
= q
N
.
Jasno je, da zbog normiranja vjerojatnosti, (2.2), mora biti
P
0
+ P
1
+ P
2
+ + P
N
= 1.
Kolika je vjerojatnost da se A ostvari bar jednom; dakle ili jednom ili dva puta ili tri
puta ili ili N puta? To je
P
bar jednom
= P
1
+ P
2
+ + P
N
.
Ocito su tu sadrzane sve mogucnosti osim mogucnosti da se A ne ostvari nijednom (tj. da
se ostvari nula puta). Buduci da smo upravo zakljucili da je vjerojatnost N neostvarenja
A jednaka q
N
, to vjerojatnost bar jednog ostvarenja A mora biti jednaka
P
bar jednom
= 1 P
0
= 1 q
N
.
Do istog se zakljucka moze doci i drugim putem (slicnim razmisljanjem kao kod izvoda
binomnog teorema na strani 12). Prema pravilu o zbrajanju vjerojatnosti, trazena je
vjerojatnost jednaka slijedecem zbroju: vjerojatnost da se A dogodi jednom plus vjero-
jatnost da se A dogodi dva puta plus itd plus vjerojatnost da se A dogodi N puta.
U N pokusa, dogadaj se moze ostvariti jednom na N nacina (ili prvi puta ili drugi puta
ili ... N-ti puta) i zato je
P
1
=
_
N
1
_
p
1
q
N1
.
Dva ostvarenja u N pokusa se mogu dogoditi na
_
N
2
_
nacina (prvi i drugi puta, prvi i treci
puta, prvi i cetvrti puta, , drugi i treci puta, drugi i cetvrti puta, itd.), a svaki ima
istu vjerojatnost p
2
q
N2
P
2
=
_
N
2
_
p
2
q
N2
.
I opcenito, vjerojatnost P(n) da se u N pokusa A ostvari n puta je
P
n
=
_
N
n
_
p
n
q
Nn
.
Zbroj gornjih vjerojatnosti daje trazenu vjerojatnost
P = P
1
+ P
2
+ + P
N
=
_
N
1
_
p
1
q
N1
+
_
N
2
_
p
2
q
N2
+ +
_
N
n
_
p
n
q
Nn
+ +
_
N
N
_
p
N
q
0
= (p + q)
N
q
N
= 1 q
N
,
7
To je sada vjerojatnost slozenog dogadaja koji se sastoji od N ostvarenja istog elementarnog dogadaja A: P(A
1
=
A) = P(A
2
= A) = = P(A
N
= A) = p.
2.2. RA
7. Donja tablica
daje vrijednosti P za nekoliko k-ova
3 0.7778
4 0.6875
6 0.6389
10 0.6300
20 0.6375
40 0.6119
44 0.6234
Vidimo da se, s porastom k, vrijednost P priblizava teorijski predvidenoj vri-
jednosti.
Primjer: 2.10 U statistickoj zici se pojavljuje problem raspodjele cestica po raspolozivim
(energijskim ili kojim drugim) stanjima. Taj se problem moze formulirati i na
slijedeci nacin: zadan je skup od n cestica i N stanja, pri cemu je N > n.
Treba naci vjerojatnost da se pri slucajnom rasporedu cestica
(a) u n odredenih stanja nade po jedna cestica;
(b) u n proizvoljnih stanja nade po jedna cestica.
Ovaj zadatak treba rijesiti u okviru (1) Boltzmannove, (2) Bose-Einsteinove i
(3) Fermi-Diracove statistike.
Boltzmannova statistika tretira cestice kao klasicne objekte koji se mogu medusobno
razlikovati, tako da premjestanje dvaju cestica koje se nalaze u razlicitim sta-
njima daje novi razmjestaj; takoder se u jednom stanju moze nalaziti proizvo-
ljan broj cestica. To su svojstva koja imaju cestice klasicnog idealnog plina.
U Bose-Einsteinovoj statistici, nemoguce je razlikovati pojedine cestice, tako
da premjestanje dvaju cestica koje se nalaze u razlicitim stanjima ne daje novi
30 POGLAVLJE 2. VJEROJATNOST
razmjestaj; takoder se u jednom stanju moze nalaziti proizvoljan broj cestica
(npr. to su svojstva fotona - kvanata elektromagnetskog polja).
I u Fermi-Diracovoj statistici takoder nema razlike medu pojedinim cesticama,
ali se u svakom stanju moze nalaziti najvise jedna cestica (to je statistika koja
vrijedi za cestice polucjelobrojnog spina kao sto je npr. elektron).
Boltzmanova statistika se odnosi na klasicno ponasanje cestica, dok preostale
dvije racunaju s kvantnim ucincima i u odgovarajucoj granici prijelaze u Bol-
tzmannovu.
R: (1) Pogledajmo najprije slucaj Boltzmannove (klasicne) statistike. ...
dovrsiti
2.2.3 Uvjetna (relativna) vjerojatnost
Postoje slucajevi kada se jednom dogadaju, cija se vjerojatnost racuna, postavljaju odredeni
uvjeti, tj. ostvarenje jednog dogadaja ovisi o ostvarenjima nekih drugih dogadaja.
Vjerojatnost takvog dogadaja cemo zvati uvjetna ili relativna vjerojatnost. U tom smislu
su vjerojatnosti koje smo do sada promatrali bile apsolutne, jer nisu ovisile o drugim
dogadajima. Ilustrirajmo to jednim primjerom:
Imamo kutiju u kojoj se nalaze bijele i crne kuglice. Osim boje, svaka kuglica je oznacena
i brojevima 1 ili 2 (dakle svaka je kuglica karakterizirana s dva obiljezja: bojom i bro-
jem). Broj bijelih kuglica cemo oznaciti s N
b
, a broj bijelih kuglica s brojem j = 1, 2
cemo oznaciti s N
b,j
i slicno za crne kuglice: N
b,1
, N
b,2
, N
c,1
, N
c,2
N
b
= N
b,1
+ N
b,2
, N
1
= N
b,1
+ N
c,1
,
N
c
= N
c,1
+ N
c,2
, N
2
= N
b,2
+ N
c,2
, .
N = N
b
+ N
c
, N = N
1
+ N
2
.
Prvi tip pitanja koje si postavljamo jeste:
kolika je vjerojatnost da iz kutije izvu
cena
bijela kuglica?
Ovo je vec primjer uvjetne ili relativne vjerojatnosti. Polazimo od toga da vec jeste
izvucena bijela kuglica i pitamo se je li ona oznacena s jedinicom. Bijelih kuglica ima
N
b,1
+ N
b,2
, pa je zato ova uvjetna vjerojatnost jednaka
P(1/b) =
N
b,1
N
b,1
+ N
b,2
.
Slicno pitanje je ovo: izvucena je kuglica oznacena jedinicom; kolika je vjerojatnost da
je ona bijele boje? I ovo je primjer uvjetne vjerojatnosti: uvjet je da je izvucena kuglica
oznacena jedinicom (bez obzira na boju i sve ostale karakteristike, ako ih ima). Takvih
kuglica ima N
b,1
+ N
c,1
, a bijelih kuglica oznacenih jedinicom ima N
b,1
. Prema tome je
trazena vjerojatnost jednaka
P(b/1) =
N
b,1
N
b,1
+ N
c,1
.
Povezimo sada apsolutne i uvjetne (relativne) vjerojatnosti. Lako je vidjeti da je
P(1/b) =
P(b1)
P(b)
, P(b/1) =
P(b1)
P(1)
.
Na ovom primjeru vidimo kako se relativna (uvjetna) vjerojatnost mo
ze ra
cunati
iz apsolutnih vjerojatnosti: vjerojatnost da se izvuce kuglica s brojem jedan, ako
je izvucena bijela kuglica, jednaka je omjeru apsolutne vjerojatnosti da se izvuce bijela
kuglica s brojem jedan i apsolutne vjerojatnosti da se uopce izvuce bijela kuglica.
Opcenitije se moze reci ovako: ako u procesu izvlacenja kuglice pratimo dva dogadaja
(ili, kako se to jos ponekad kaze, dva obiljezja): A (pojavu boje) i B (broj), tada je
vjerojatnost da se dogodi B, ako se vec dogodio A, jednaka
P(B/A) =
P(AB)
P(A)
. (2.7)
32 POGLAVLJE 2. VJEROJATNOST
To je lako razumjeti pomocu pravila o mnozenju vjerojatnosti (2.6): ako je P(A) vjero-
jatnost dogadaja A, a P(B/A) vjerojatnost da se dogodio B ako se vec dogodio A, tada
je vjerojatnost da su se ostvarila oba dogadaja (i vjerojatnost) naprosto jednaka
P(AB) = P(B/A) P(A). (2.8)
Slicno, ako je P(B) vjerojatnost da se dogodi B, a P(A/B) vjerojatnost da se dogodi A
ako se vec dogodio B, tada je vjerojatnost da se ostvare oba dogadaja jednaka
P(AB) = P(A/B) P(B). (2.9)
Primjer: 2.11 Promatra se skup od 20 000 osoba. Muskaraca je 10 000 i zena je 10 000. U
skupu je slijepo na boje 500 muskaraca i 25 zena. Promataju se dva dogadaja:
dogadaj A je biti slijep na boje, a dogadaj B je biti muskarac. Apsolutna
vjerojatnost dogadaja A je omjer osoba slijepih na boje i ukupnog broja osoba
P(A) =
500 + 25
20 000
=
525
20 000
.
Apsolutna vjerojatnost da je osoba muskarac slijep na boje je jednaka omjeru
muskaraca slijepih na boje i ukupnog broja osoba
P(AB) =
500
20 000
.
Relativna vjerojatnost da je netko muskarac, ako je slijep na boje je
P(B/A) =
500
525
.
Iz ovog primjera vidimo da vrijedi (2.8)
P(AB) = P(B/A) P(A) =
500
525
525
20 000
=
500
20 000
.
2.2.4 Adicijski i multiplikacijski teorem
Izvodi se N pokusa i promatra se (ne)ostvarenje dva dogadaja, A i B, unutar tih pokusa.
Dogadaju A i B nisu
8
medusobno iskljucivi. Postoje cetiri moguca ishoda svakog od N
pokusa:
(A, B): u N
1
pokusa se A dogodio, a B nije ,
(A, B): u N
2
pokusa se A nije dogodio, a B jeste,
(A, B): u N
3
pokusa su se dogodili i A i B,
(A, B): u N
4
pokusa se nisu
9
dogodili ni A ni B.
Naravno da pri tome vrijedi
N
1
+ N
2
+ N
3
+ N
4
= N.
8
To su npr. boja i broj na kuglicama it prethodonog odjeljka.
9
U vezi s primjerom iz prethodnog odjeljka, sada postoje i kuglice drugih boja i drugih brojeva, pa je dogadaj (A, B)
moguc.
2.2. RA
N
1
+ N
3
N
= (B/A) (A),
=
N
3
N
=
N
3
N
2
+ N
3
N
2
+ N
3
N
= (A/B) (B).
S obzirom da, s porastom N , relativne frekvencije teze vjerojatnostima, gornje
relacije prelaze u
P(A + B) = P(A) + P(B) P(AB),
P(AB) = P(B/A) P(A) = P(A/B) P(B).
(2.10)
Prva od gornjih jednadzba se zove adicijski teorem, a druga multiplikacijski te-
orem.
Adicijski teorem se moze iskazati na slijedeci nacin: vjerojatnost da se dogodi bar jedan
od dva dogadaja (tj. ili jedan ili oba) P(A + B), jednaka je zbroju vjerojatnosti svakog
pojedinog dogadaja, umanjenom za vjerojatnost da se dogode oba. Ovo je lako razu-
mjeti pomocu slike 2.4: vjerojatnost P(A+B) je srazmjerna svim tockama (dogadajima)
sadrzanim u podrucjima i ; no ako bih zbrojio tocke u ta dva podrucja, onda bih tocke
iz presjeka brojao dva puta, pa da bih eliminirao to dvostruko zbrajanje, moram
jednom oduzeti tocke iz presjeka, a to je upravo P(AB).
Ovaj je teorem poopcenje pravila o zbrajanju vjerojatnosti (2.5), gdje smo pretpostavili
da je istodobno ostvarenje oba dogadaja iskljuceno. Zaista, ako je nemoguce da se A i B
dogode istovremeno, tada je P(AB) = 0 i P(A + B) je jednako (2.5).
34 POGLAVLJE 2. VJEROJATNOST
Slika 2.4: Uz deniciju mnozenja vjerojatnosti. A i B nisu iskljucivi dogadaji.
Ovaj se teorem moze prosiriti i na vise od dva dogadaja. Npr. ako se promatraju tri
dogadaja A, B i C i pitamo se kolika je vjerojatnost da se dogodi bar jedan od njih (tj.
ili da se dogodi jedan ili bilo koja dva ili da se dogode sva tri). Na slici 2.5 to znaci da
moramo zbrojiti sve dogadaje sadrzane u podrucju A, B i C (oznaceno zelenim), pazeci
pri tome da nijedan dogadaj ne racunamo dva ili vise puta. Koristeci relaciju (2.10),
dolazi se do
P(A + B + C) = P((A + B) + C) = (2.10) = P(A + B) + P(C) P((A + B)C)
= P(A + B) + P(C) P(AC + BC)
= (2.10) = P(A) + P(B) P(AB) + P(C) P(AC) P(BC) + P(ABC)
= P(A) + P(B) + P(C) P(AB) P(AC) P(BC) + P(ABC). (2.11)
I dalje, ako se analiziraju cetiri dogadaja, A, B, C i D, a koristeci (2.10) i (2.11), dolazi
do
P(A + B + C + D) = P((A + B + C) + D) = (2.10) = P(A + B + C) + P(D) P((A + B + C)D)
= (2.11) = P(A) + P(B) + P(C) P(AB) P(AC) P(BC) + P(ABC)
+ P(D) P(AD + BD + CD)
= (2.11) = P(A) + P(B) + P(C) + P(D)
P(AB) P(AC) P(AD) P(BC) P(BD) P(CD)
+ P(ABC) + P(ABD) + P(ACD) + P(BCD)
P(ABCD).
Ako za neki opci i proizvoljni broj dogadaja s:
S
1
oznacimo zbroj apsolutnih vjerojatnosti svih pojedinih dogadaja: P(A) +P(B) + ;
S
2
oznacimo zbroj apsolutnih vjerojatnosti svih parova dogadaja: P(AB) +P(AC) + ;
S
3
oznacimo zbroj apsolutnih vjerojatnosti svih trostrukih dogadaja: P(ABC)+P(ABD)+
;
itd.
2.2. RA
n=1
p
n
a
n
. (3.2)
naravno da, kao i uvijek, zbroj svih vjerojatnosti mora dati jedinicu
N
n=1
p
n
= 1.
Evo ilustracije na primjeru ruleta. Rulet se sastoji od 37 polja od kojih je 18 crvenih, 18
crnih i jedno je bijelo. Ako igrac igra na jednu boju i kuglica se zaustavi na toj boji, igrac
dobiva dvostruko od ulozenog, ako se kuglica zaustavi na bijelom polju, ulog ostaje za
slijedecu igru, a ako se kuglica zaustavi na polju s onom drugom bojom, igrac gubi ulog.
U terminima gornjih formula to znaci da postoje tri moguca dobitka: prvi je dobitak
jednak dvostrukom ulogu, a
1
= 2E, a vjerojatnost ovog dobitka je p
1
= 18/37; drugi je
dobitak jednak ulogu a
2
= 1 E, a vjerojatnost je p
2
= 1/37; treci dobitak je a
3
= 0 E
(pa je to zapravo gubitak uloga) s vjerojatnoscu p
3
= 18/37. Iz (3.2) vidimo da se za
matematicko ocekivanje dobije
3
n=1
p
n
a
n
=
18
37
2 E +
1
37
1 E +
18
37
0 E = E,
iz cega slijedi da je igra pravedna.
43
44 POGLAVLJE 3. MATEMATI
15
= {(6, 6, 3), (6, 3, 6), (3, 6, 6), (6, 5, 4), (6, 4, 5),
(5, 6, 4), (4, 6, 5), (5, 4, 6), (4, 5, 6), (5, 5, 5)}
Zato je vjerojatnost da Mirko dobije okladu, tj.da se pokaze zbroj 15 jednaka
p
A
=
10
216
.
Uvjet za pravednu igru je da je matematicko ocekivanje jednako ulogu, E =
p a, pa je Mirkov ulog E = 10 kn, a Slavkov ulog je a (u ovom primjeru Slavkov
ulog je dobitak sa Mirkovog stanovista)
10 =
10
216
a a = 216.
Ako Mirko zaista s tri kocke u jednom bacanju okrene zbroj 15, Slavko mu
mora isplatiti 216 kuna. S druge strane, ako se to ne dogodi, Slavko dobiva
Mirkovih 10 kuna.
Primjer: 3.2 Evo jednog primjera igranja tombole. U jednoj kutiji se nalazi 90 plocica
oznacenih brojevima od 1 do 90. Prije pocetka igre, igrac oznaci tri broja
na koja igra. Zatim se iz kutije nasumicno izvuce 5 brojeva. Ukoliko se tri
igraceva broja nalaze medu tih 5 izvucenih brojeva, on dobiva 20 000 kuna.
Koliki mora biti njegov ulog, da bi igra bila pravedna?
R: Da bi igra bila pravedna, igracev ulog mora biti jednak matematickom
ocekivanju E, gdje je E = pa. U tom je izrazu p vjerojatnost da se izvuku nje-
gova tri broja, a a je dobitak od 20 000 kn. Izracunajmo p kao omjer povoljnih
i svih mogucih kombinacija. Od 90 brojava, njih 5 se moze odabrati na
_
90
5
_
nacina. Koliko ima povoljnih kombinacija? Ako sam od 90 brojeva izdvojio
tri koja dobivaju, ostalo ih je jos 87. Od tih 87 mogu izabrati jos bilo koja 2
broja (jer se ukupno izvlaci 5 brojeva) na
_
87
2
_
nacina. Zato je
p =
_
3
3
__
87
2
_
_
90
5
_ =
1
6 22 89
=
1
11 748
,
E = pa =
1
11 748
20 000 = 1.7 .
Igrac treba uloziti 1.7 kuna.
3.2. VJEROJATNOST I BERNOULLIJEVI POKUSI 45
3.2 Vjerojatnost i Bernoullijevi pokusi
Pretpostavimo da izvodimo neki pokus koji moze okoncati samo na dva nacina: ili se
dogadaj A ostvario ili nije. Neka je vjerojatnost ostvarenja dogadaja A konstantna
tijekom cijelog izvodenja pokusa, i neka je jednaka p. Vjerojatnost da se dogadaj A ne
ostvari je jednaka P
A
= q = 1 p. Takav se pokus naziva Bernoullijev pokus, a
uoceni se dogadaj naziva Bernoullijev dogadaj.
Neka je izveden niz od N pokusa kojima zelimo utvrditi samo to je li se u svakom po-
jedinom pokusu dogadaj A ostvario ili ne.
Zelimo naci odgovor na pitanje kolika je
vjerojatnost da se u nizu od N pokusa, dogadaj A ostvari x = 0, 1, 2, , N puta? Pri
tome nam nije vazan redoslijed ostvarivanja ovih dogadaja. Opet razmisljamo kao kod
izvoda binomnog teorema na strani 26.
U N pokusa, dogadaj A se moze ostvariti nijednom na samo jedan nacin, a to je da se
svih N puta dogodi A. Vjerojatnost takvog niza dogadaja je
_
N
0
_
p
0
q
N
.
U N pokusa, dogadaj se moze ostvariti jednom na N nacina (ili prvi puta ili drugi puta
ili ... N-ti puta). Prema pravilu o mnozenju vjerojatnosti, (2.6), svaki ima vjerojatnost
p
1
q
N1
(jednom se ostvario i N 1 puta se nije ostvario), sto prema pravilu za zbrajane
vjerojatnosti (2.5) daje ukupnu vjerojatnost jednaku
_
N
1
_
p
1
q
N1
.
Dva ostvarenja u N pokusa se mogu dogoditi na
_
N
2
_
nacina, a svaki ima istu vjerojatnost
p
2
q
N2
_
N
2
_
p
2
q
N2
.
I opcenito, vjerojatnost P(x) da se u N pokusa A ostvari x puta je (slika 3.1)
P(x) =
_
N
x
_
p
x
q
Nx
. (3.3)
Ako se x shvati kao diskretna slu
ca?
Ako pretpostavimo da je P najveci za neki ksni x, tada vjerojatnosti susjednih x 1
moraju biti manje (jer inace najveca vrijednost ne bi bila u x)
P(x 1) P(x)
_
N
x 1
_
p
x1
q
Nx+1
_
N
x
_
p
x
q
Nx
,
P(x + 1) P(x)
_
N
x + 1
_
p
x+1
q
Nx1
_
N
x
_
p
x
q
Nx
46 POGLAVLJE 3. MATEMATI
x=Np
=
_
N
Np
_
p
Np
q
NNp
=
N!
(Np)! (N Np)!
p
Np
q
Nq
=
N!
(Np)! (Nq)!
p
Np
q
Nq
Buduci da N smatramo velikim brojem, za izracunavanje faktorijela u kojima se pojavljuje
N, mozemo koristiti Stirlingovu
1
formulu
n! =
2n
_
n
e
_
n
_
1 +
1
(2
1
)(6n)
1
+
1
(2
3
)(6n)
2
139
(2
3
)(2 3 5)(6n)
3
571
(2
6
)(2 3 5)(6n)
4
+
_
.
(3.4)
prema kojoj je i
N! e
N
N
N
2N,
(Np)! e
Np
(Np)
Np
2Np,
(Nq)! e
Nq
(Nq)
Nq
2Nq.
Uvrstavanjem ovih vrijednosti u izraz za P(Np), dobiva se
P(Np) =
e
N
N
N
2N
e
Np
(Np)
Np
2Np e
Nq
(Nq)
Nq
2Nq
p
Np
q
Nq
=
1
2 N p q
.
To je vjerojatnost da ce se dogadaj, cija je vjerojatnost p, u N pokusa ostvariti x = N p
puta (tj. da se nece ostvariti N x = N q puta). Iz gornjeg izraza vidimo da je ova
1
James Stirling, Methodus dierentialis, 1730.
48 POGLAVLJE 3. MATEMATI
2(Np + h) e
Nq+h
(Nq h)
Nqh
2(Nq h)
=
e
N+Np+h+Nqh
N N
N
p
Np+h
q
Nqh
Np
1 +
h
Np
(Np)
Np+h
_
1 +
h
Np
_
Np+h
2Nq
1
h
Nq
(Nq)
Nqh
_
1
h
Nq
_
Nqh
=
N
NNphNq+h
p
Np+hNph
q
NqhNq+h
1 +
h
Np
_
1 +
h
Np
_
Np+h
2Nq
1
h
Nq
_
1
h
Nq
_
Nqh
=
1
2 N p q
1
_
1 +
h
Np
_
Np+h+
1
2
_
1
h
Nq
_
Nqh+
1
2
=
1
2 N p q
A,
gdje je, radi kratkoce, uvedena oznaka
A
1
=
_
1 +
h
Np
_
Np+h+
1
2
_
1
h
Nq
_
Nqh+
1
2
Izracunajmo A imajuci u vidu da smo pretpostavili da je N vrlo velik
ln A =
_
Np + h +
1
2
_
ln
_
1 +
h
Np
_
+
_
Nq h +
1
2
_
ln
_
1
h
Nq
_
.
Za N koji je velik u odnosu na h, logaritme na desnoj strani mozemo razviti u Taylorov
red:
ln(1 + x) = x
x
2
2
+
x
3
3
x
4
4
+ , 1 < x 1, (3.5)
ln(1 x) =
_
x +
x
2
2
+
x
3
3
+
x
4
4
+
_
, 1 x < 1,
cime dobivamo
ln
_
1 +
h
Np
_
=
h
Np
h
2
2N
2
p
2
+
h
3
3N
3
p
3
+ ,
ln
_
1
h
Nq
_
=
h
Nq
h
2
2N
2
q
2
h
3
3N
3
q
3
.
3.2. VJEROJATNOST I BERNOULLIJEVI POKUSI 49
Ovi razvoji daju za ln A
ln A =
_
Np + h +
1
2
__
h
Np
h
2
2N
2
p
2
+
h
3
3N
3
p
3
+
_
_
Nq h +
1
2
__
h
Nq
+
h
2
2N
2
q
2
+
h
3
3N
3
q
3
+
_
= h
h
2
2Np
+
h
3
3N
2
p
2
+ +
h
2
Np
h
3
2N
2
p
2
+
h
4
3N
3
p
3
+ +
h
2Np
h
2
4N
2
p
2
+
h
3
6N
3
p
3
+
h
h
2
2Nq
h
3
3N
2
q
2
h
2
Nq
+
h
3
2N
2
q
2
+
h
4
3N
3
q
3
+
h
2Nq
h
2
4N
2
q
2
h
3
6N
3
q
3
+
=
h
2
2N
1
pq
+
h
2N
q p
pq
+O
_
h
2
N
2
_
.
S O(h
2
/N
2
) su oznaceni zanemareni clanovi reda h
2
/N
2
, h
3
/N
3
, . . . koji su, za veliki N,
puno manji od clanova reda 1/N koje smo sve zadrzali. Odstupanje h mora ovisiti
2
o
N, a da bi nasi Taylorovi razvoji (3.5) bili opravdani, mora h rasti sporije od N. Stoga
pretpostavljamo da je
h
N,
tada je prvi clan gornjeg izraza reda jedinice, dok svi ostali opadaju kao neka potencija
N i zato ih, za veliki N, mozemo zanemariti
ln A =
h
2
2Npq
+ A = e
h
2
/(2Npq)
+ ,
iz cega slijedi (priblizno)
P(Np + h)
1
2Npq
e
h
2
2Npq
= P(Np) e
h
2
2Npq
. (3.6)
Vidimo da sve vjerojatnosti s h = 0 eksponencijalno opadaju u odnosu na h = 0
vjerojatnost. Prema svim pretpostavkama koje smo koristili u izvodu, ova je tvrdnja
utoliko tocnija ukoliko je N veci. Uvedimo nove oznake
t =
h
Npq
,
G
(t) =
1
2
e
t
2
2
. (3.7)
Novouvedena funkcija
G
(t) se zove funkcija Gaussove ili normalne raspodjele i pred-
stavlja jednu od najvaznijih funkcija raspodjele u cijeloj teoriji vjerojatnosti i statistici
(slika 3.3). Pomocu
G
(t) je
P(Np + h) =
1
Npq
G
_
h/
Npq
_
.
2
Sjetimo se da se h denira sa x = Np + h. Vjerojatnost p je velicina reda jedinice, pa je Np velicina reda N. Da bi
zbrajanje Np +h imalo smisla mora i h po redu velicine biti slican redu velicine N.
50 POGLAVLJE 3. MATEMATI
G
(
t
)
- H
+ H
Pitanje koje se najcesce postavlja u praksi i nije ono koje smo mi postavili (koja je vjero-
jatnost odstupanja h u odnosu na Np), nego
kolika je vjerojatnost da se dano odstupanje
nalazi unutar ili izvan, odredenih granica?
Konkretno, kolika je vjerojatnost da odstupanje bude, po iznosu, manje ili jednako nekoj
zadanoj vrijednosti H
|h| H.
Vjerojatnost P(|h| H) je jednaka vjerojatnosti da je
3
x = Np H ili vjerojatnosti da
je x = Np H + 1 ili ili vjerojatnosti da je x = Np + H, pa je prema pravilu za
zbrajanje vjerojatnosti (2.5), trazena vjerojatnost dana zbrojem vjerojatnosti svih x-eva
iz intervala (N p H, N p + H)
P(|h| H) = P(Np H) + P(Np H + 1) +P(Np H + 2) + P(Np 1) + P(Np)
+ P(Np + 1) +P(Np + 2) + + P(Np + H 1) + P(Np + H)
=
Np+H
x=NpH
P(x).
Spojimo li ordinate svih navedenih P(Np H + n), dobivamo poligon ciji je jedan dio
prikazan na slici 3.4. Pogledajmo cemu je jednaka plostina, S, povrsine ispod tog poligona
jednaka je zbroju povrsina trapeza prikazanih na toj istoj slici. Plostina povrsine jednog
3
Broj x je cijeli broj, dok Np H ne mora nuzno biti cijeli broj, tako da izraz x = Np H treba citati kao cijeli broj
najblizi broju Np H. Ova se primjedba odnosi i na ostatak teksta.
3.2. VJEROJATNOST I BERNOULLIJEVI POKUSI 51
Slika 3.4: Zbroj vjerojatnosti koje daju P(|h| H).
trapeza jednaka je zbroju povrsine pravokutnika i povrsine trokuta
S
n
= P(n)
_
(n + 1) n
_
+
1
2
_
(n + 1) n
__
P(n + 1) P(n)
_
=
1
2
_
P(n) + P(n + 1)
_
,
pa je ukupna plostina povrsine ispod poligona jednaka
S =
P(Np H) + P(Np H + 1)
2
+
P(Np H + 1) + P(Np H + 2)
2
+
+
P(Np + H 1) + P(Np + H)
2
.
Pomocu gornjih izraza povezujemo plostinu S i trazenu ukupnu vjerojatnost P(|h| H)
S +
P(Np H)
2
+
P(Np + H)
2
= P(Np H) + P(Np H + 1) + + P(Np + H)
= P(|h| H).
Za sve vece i vece vrijednosti N, poligon sa slike 3.4 postaje glatka funkcija, trapezi
postaju sve uzi i zbroj njihovih plostina, S, postaje jednak integralu ispod te krivulje. Iz
toga slijedi
P(|h| H) =
1
2Npq
+H
H
e
h
2
2Npq
dh +
1
2
1
2Npq
e
(H)
2
2Npq
+
1
2
1
2Npq
e
(+H)
2
2Npq
=
2
2Npq
+H
0
e
h
2
2Npq
dh +
1
2Npq
e
H
2
2Npq
. (3.8)
52 POGLAVLJE 3. MATEMATI
t
0
0
G
(t) dt. (3.9)
Pomocu , vjerojatnost P(|h| H) je
P(|h| H) = 2
_
H
Npq
_
. (3.10)
Gornji izraz, pomocu funkcije , daje vjerojatnost da odstu-
panje varijable x od najvjerojatnije vrijednosti, nije iznosa
veceg od H. Funkcija se naziva Gaussov integral i
njegove vrijednosti za konacni argument se nalaze u tabli-
cama (npr. [18] str 349). Stavimo li za gornju granicu u
integralu (3.9) H , dobivamo
P(|h| ) = 2
1
0
e
t
2
2
dt = 1,
sto je potpuno u skladu s normiranjem vjerojatnosti.
Zapitajmo se nadalje,
u kojim se granicama (H, +H) smije nalaziti odstupanje h,
pa da vjerojatnost odstupanja od najvjerojatnije vrijednosti bude
1
2
?
Ili, pomocu simbola
P(|h| H) =
1
2
H = ?
Pomocu (3.10), gornji uvjet pisemo kao
_
H
Npq
_
= 0.25 .
Prema tablici I iz [18], str. 349., citamo
(0.67) = 0.24857, (0.68) = 0.25175,
0.66 0.67 0.68
t
0.245
0.246
0.247
0.248
0.249
0.250
0.251
0.252
0.253
0.254
0.255
(
t
)
sto znaci da se vrijednost = 0.25 nalazi negdje izmedu vrijed-
nosti argumenata 0.67 i 0.68. Linearnom interpolacijom (kao
na slici) izmedu ove dvije vrijednosti
(t) = a t + b = 0.318 t + 0.03551,
dobivamo da je = 0.25, kada je
0.25 = 0.318 t + 0.03551
t = 0.67449685 . . . =
H
Npq
,
3.3. PROSJE
CNA VRIJEDNOST 53
odakle je trazeni h jednak
H = 0.6745
Npq (3.11)
Primjer: 3.3 dovrsiti
R: hhhhh
3.3 Prosjecna vrijednost
U prethodnim izlaganjima smo pokazali da ako je vjerojatnost ostvarenja dogadaja A u
nekom pokusu jednaka p, tada je najvjerojatnije da ce se u nizu od N pokusa A pojaviti
x = Np
puta. Ujedno smo i s
h = x Np
oznacili odstupanje x-a od ove najvjerojatnije vrijednosti. Od sada cemo broj ostvarenja
dogadaja A shvacati kao diskretnu slucajnu varijablu koju cemo oznaciti s X umjesto kao
do sada s N
A
. Vrijednosti koje X moze poprimiti, oznacavat cemo s x = 0, 1, 2, , N.
Sada cemo odgovoriti na slijedece pitanje:
kolika je vrijednost prosje
cnog odstupanja?
Prosjecno odstupanje se racuna pomocu izraza za matematicko ocekivanje (3.2), uz prik-
ladnu promjenu oznaka: indeks zbrajanja je x umjesto n, vjerojatnosti p
n
postaje P(x),
a umjesto dobitka a
n
dolazi vrijednost odstupanja h(x)
E =
N
n=1
a
n
p
n
E(h) =
N
x=0
h(x) P(x).
Vec smo vidjeli da, za veliki N, mozemo vjerojatnosti zamjeniti relativnim frekvencijama.
Mnoziti svako odstupanje h s vjerojatnoscu tog odstupanja je priblizno isto kao i mnoziti h
s njegovom relativnom frekvencijom, sto nas vodi na prosjecne vrijednosti. Tako dolazimo
do analogije (koja ce postati jos jasnija u drugom dijelu u kojemu se govori o statistici)
izmedu matemati
ckog o
cekivanja i prosje
cne vrijednosti
E(h) = E(X Np) =
N
x=0
(x Np)P(x) =
N
x=0
x P(x)
N
x=0
Np P(x)
= E(X) E(Np). (3.12)
Izracunajmo odvojeno E(x) i E(Np) uz eksplicitno uvrstavanje P(x) iz relacije (3.3).
E(X) =
N
x=0
x
_
N
x
_
p
x
q
Nx
=
N
x=1
x
N!
x!(N x)!
p
x
q
Nx
= Np
N
x=1
(N 1)!
(x 1)!(N x)!
p
x1
q
Nx
.
54 POGLAVLJE 3. MATEMATI
y=0
(N 1)!
y!(N 1 y)!
p
y
q
N1y
= Np(p + q)
N1
= Np. (3.13)
Dakle, Np ne samo da je najvjerojatnija vrijednost X, nego je to ujedno i njegova
prosje
cna vrijednost.
E(Np) =
N
x=0
Np P(x) = Np
N
x=0
P(x) = Np 1 = Np. (3.14)
Iz ovoga zakljucujemo da je prosjecno odstupanje E(h) = E(X) E(Np) = 0.
Prosjecne vrijednosti bilo koje funkcije od X, s oznakom f(X) cemo jos oznacavati i s
E(f(X)) f(X) =
x
f(X) P(x).
Ako je prosjecno odstupanje jednako nuli, to znaci da u zbroju (3.12) ima i pozitivnih i
negativnih clanova, koji se na kraju svi zbroje u nulu. Kako bismo ipak dobili informaciju
o nekakvom prosjecnom odstupanju x od Np, bez obzira na predznak, moramo naci nacin
da eliminiramo predznak odstupanja i da promatramo samo iznos odstupanja. Buduci da
funkcija kvadriranja eliminira predznak, to je najjednostavnije odstupanje mjeriti pomocu
prosjecne vrijednosti od h
2
E(h
2
) =
N
x=0
(x Np)
2
P(x) =
N
x=0
x
2
P(x) 2 Np
N
x=0
x P(x) +
N
x=0
(Np)
2
P(x)
= E(X
2
) 2NpE(X) + E((Np)
2
)
= (3.13), (3.14) = E(X
2
) 2NpNp + (Np)
2
= E(X
2
) (Np)
2
= E(X
2
) E(X)
2
= X
2
X
2
.
S obzirom da iz (3.13) znamo da je E(X) = Np, treba jos samo izracunati E(x
2
)
E(X
2
) =
N
x=0
x
2
P(x) =
N
x=0
[x(x 1) + x] P(x)
=
N
x=2
x(x 1)
N!
x!(N x)!
p
x
q
Nx
+
N
x=1
x. P(x)
= N(N 1)p
2
N
x=2
(N 2)!
(x 2) !(N x)!
p
x2
q
Nx
+ E(X)
= N(N 1)p
2
(p + q)
N2
+ Np = N
2
p
2
+ Npq.
Uvrstimo to u izraz za E(h
2
)
E(h
2
) = N
2
p
2
+ Npq (Np)
2
= Npq. (3.15)
3.3. PROSJE
CNA VRIJEDNOST 55
Srednje kvadratno odstupanje se naziva i varijanca
V ar (X) = E( (X X )
2
) = E(X
2
) E(X)
2
= X
2
X
2
(3.16)
Varijanca ima dimenziju kvadrata X, pa se zato denira standardna devijacija ili
standardno odstupanje, s oznakom , kao kvadratni korjen iz varijance
=
V ar (X). (3.17)
U ovom slucaju je
=
Npq
Relativno standardno odstupanje je omjer standardnog odstupanja i broja N
Npq
N
=
pq
N
.
Koeficijentom varijacije se naziva omjer standardne devijacije i prosjecne (srednje)
vrijednosti (naravno, uz pretpostavku da je X = 0)
X
.
Ako je X = 0, tada se koecijent varijacije odreduje u odnosu na red velicine
4
ulaznih
x-eva. U gornjem primjeru je
X
=
Npq
Np
=
q
Np
.
Sada se moze postaviti pitanje
kolika je vjerojatnost da odstupanje bude u granicama (, +)?
Za H iz (3.10) uvrstavamo H = i dobivamo
P(|h| ) = 2
_
Npq
_
= 2
_
_
= 2(1) = (tablica I iz [18]) = 0.68268 = 68.3%.
(3.18)
Slicno racunamo i vjerojatnost da je odstupanje u granicama (H, +H) = (2 , +2 ):
P(|h| 2 ) = 2
_
2
_
= 2(2) = (tablica I iz [18]) = 0.9545 = 95.5%.
Vjerojatnost odstupanja unutar granica 2 je vrlo blizu jedinici, tj. skoro sva ce se
odstupanja nalaziti unutar ovih granica. Ukoliko bismo promatrali odstupanja za 3,
dobili bismo vjerojatnost jednaku
P(|h| 3 ) = 2 0.49865 = 0.9973 = 99.73%. (3.19)
56 POGLAVLJE 3. MATEMATI
Npq =
3232
1
2
1
2
=
808 = 28.425,
pa je trazena vjerojatnost, prema (3.10),
P(|h| 89) = 2
_
89
28.425
_
= 2(3.13) = 0.99826. (3.20)
Dakle uz pretpostavku da je p =
1
2
, vjerojatnost odstupanja manjeg ili jed-
nakog 89 je 99.826%. Buduci da je ta vrijednost vrlo blizu granicne vrijed-
nosti od 99.7% koja se primjenjuje u ovakvim analizama (sjetimo se da je
P(|h| 3 ) = 99.73%), smatramo da je gornji rezultat malo vjerojatan, tj.
4
Tri matematicara idu u lov. Ubrzo opaze zeca. Prvi puca i pogodi metar desno od zeca. Drgi puca i pogodi metar
lijevo od zeca. Na to treci uzvikne: Odlicno, pogodili smo ga! To je zakljucak matematicara. No, mi zicari znamo da je
zec prezivio tu matematiku. Kako biste to objasnili u terminima x, X, , ?
3.3. PROSJE
CNA VRIJEDNOST 57
da je odstupanje preveliko. Tj. mozemo samo zakljuciti da se vjerojatnost
poroda djecaka nalazi blizu vrijednosti
1
2
ili da su podaci bili netocni.
Primjer: 3.5 U razlicita vremena, botanicari Mendel (1865), Correns (1900), Tscher-
mak (1900), Hurst (1904), Bateson (1905), Darbshire (1909) i Tavcar (1924)
su krizali zuti hibridni grasak sa zelenim graskom i dobili sve skupa 138 685
zutih i 46 042 zelene sjemenke. Pitanje je: slaze li se ovaj rezultat s Mendelo-
vom pretpostavkom da je vjerojatnost pojave sjemenke zelenog graska
1
4
?
R: Ukupan broj sjemenaka je 138 685 + 46 042 = 184 727. Jedna cetvrtina
od toga je 46 181.75 46 182. Razlika u odnosu na dobiveni broj sjeme-
naka zelenog graska je 46 182 46 042 = 140. Prema (3.10), vjerojatnost da
odstupanja od najvjerojatnije vrijednosti bude manje ili jednako 140 je
P(|h| 140) = 2
_
_
140
184 727
1
4
3
4
_
_
= 2(0.75) = 2 0.27337 = 0.54674.
Ova je vrijednost vrlo blizu
1
2
, sto znaci da je pretpostavka vjerojatno tocna.
Postavimo jos i ovo pitanje: koliko smije biti odstupanje, pa da mu vjerojatnost
bude 95%?
P = 2(t) = 0.95 (t) = 0.475.
Prema tablici na str. 350 u [18] je t = 1.96, tj.
1.96 =
H
Npq
H =
1.96
4
5 159 dobitaka.
58 POGLAVLJE 3. MATEMATI
Npq = 0.6745
2 854
1
18
17
18
= 8.2539 . . . 8 . (3.21)
Dakle, s vjerojatnoscu
1
2
mozemo ocekivati da ce se broj izvucenih dobitaka
nalaziti izmedu 151 i 167.
3.4
Cebisevljev teorem i Bernoullijev teorem (zakon velikih bro-
jeva)
Promatrajmo diskretnu slucajnu varijablu X koja poprima niz vrijednosti x = 1, 2, , N.
Neka su ocekivanje i varijanca redom jednaki X i
2
. Treba dokazati teorem P. L.
Cebiseva
5
:
Teorem: Vjerojatnost da slucajna varijabla X poprimi vrijednost izvan intervala ( X
, X + ), za proizvoljni > 0, je manja ili jednaka
2
/
2
,
P(|X X | )
2
2
. (3.22)
Napisana preko vjerojatnosti (x), vjerojatnost P(|X X | ) je
P(|X X | ) =
x
|X X |
(x).
Na slici lijevo to znaci da je vje-
rojatnost da X poprimi vrijed-
nost u osjencenom dijelu, manja
od
2
/
2
. U dokazu teorema, kre-
nimo od denicije varijance (3.16)
2
=
x
_
x X
_
2
(x),
gdje je (x) neka opcenita gustoca vjerojatnosti
6
. U gornjem se zbroju zbraja
po svim mogucim vrijednostima x. Ako se ogranicimo samo na one x iz
osjencenog dijela ove slike, sigurno cemo dobiti zbroj koji je manji ili jednak
sa
2
(zato jer smo ispustili pozitivne doprinose zbroju iz podrucja x [ X
, X + ])
2
=
x
_
x X
_
2
(x)
x
|X X |
_
x X
_
2
(x).
5
Pafnutij Ljvovic
Cebisev, 16. V 1821. - 9. XII 1894., ruski matematicar.
6
do sada smo se npr. na strani 45 susreli s gustocom vjerojatnosti da se dogadaj A ostvari u x od N mogucih pokusa i
tamo smo gustocu vjerojatnosti oznacili s P(x)
3.4.
CEBI
x
|X X |
_
x X
_
2
(x)
2
x
|X X |
(x).
Zbroj na desnoj strani gornjeg izraza je upravo vjerojatnost da X ima vrijed-
nost izvan intervala ( X , X + ):
x
|X X |
(x) = P(|X X | ),
Pa kombinacija dva gornja izraza upravo dokazuje
Cebisevljev teorem
2
2
P(|X X | ) P(|X X | )
2
2
.
Buduci da je zbroj svih vjerojatnosti jednak jedinici, to je vjerojatnost P(|X
X | < ) da X bude unutar intervala ( X , X + ) jednaka
1 = P(|X X | ) + P(|X X | < )
P(|X X | < ) 1
2
2
. (3.23)
Primjer: 3.7 Promatrajmo slucajnu varijablu X sa srednjom vrijednoscu X i stan-
dardnom devijacijom . Treba odrediti kolika je gornja granica na vjerojatnost
da ce odstupanje X od X biti vece ili jednako 3 ?
R: Prema
Cebisevljevu teoremu (3.22) uz identikaciju 3
P(|X X | 3)
2
(3)
2
=
1
9
0.
1.
Dakle, za bilo koju raspodjelu (x), je vjerojatnost odstupanja X od X 3
manja ili jednaka 0.1111 . . .. Ovo mozemo provjeriti na primjeru Gaussove
(normalne) raspodjele. Ako je X raspodjeljen po Gaussovoj raspodjeli, tada
iz (3.19) znamo da je vjerojatnost odstupanja X od X 3 jednaka
P(|X X | 3 ) = 2 0.49865 = 0.9973
P(|X X | 3 ) = 1 0.9973 = 0.0027,
sto je u potpunom skladu s
Cebisevljevim teoremom, jer je P = 0.
1 gornja
granica na vjerojatnost, tj. prava vjerojatnost, 0.0027, mora biti manja od ove
gornje granice, kao sto i jeste:
0.0027 < 0.1111 .
60 POGLAVLJE 3. MATEMATI
N
A
N
p
N
A
N
p
_
= 0. (3.24)
S porastom N, vjerojatnost da se relativna frekvencija N
A
/N razlikuje od
apriorne vjerojatnosti p, opada prema nuli
7
. Bernoullijev teorem se moze
napisati i ovako
lim
N
P
_
N
A
N
p
<
_
= 1. (3.25)
Ili rijecima: u granici N , skoro je sigurno da ce razlika N
A
/N i p
biti proizvoljno mala. Za velike N, je N
A
/N jako dobra aproksimacija prave
(apriorne) vjerojatnosti p.
Ovaj se teorem moze dokazati i pomocu
Cebisevljeva teorema. Radi jednostavnosti,
zadrzimo se na primjeru Bernoullijevih dogadaja s konstantnom vjerojatnoscu p: broj
ostvarenja dogadaja A smo oznacavali s X N
A
, za prosjecnu vrijednost smo dobili
X = Np, a za varijancu
2
= Npq. Uvrstimo to u
Cebisevljev teorem
P(|X X | )
2
2
P(|X Np| )
Npq
2
.
Promatrajmo umnozak pq na desnoj strani kao funkciju od p
f(p) = pq = p(1 p) = p p
2
,
f
(p) = 1 2p = 0 p =
1
2
,
f
(p) = 2.
Iz gornjih rezultata zakljucujemo da f(p) ima maksimum u p = q =
1
2
, drugim rijecima,
umnozak pq je uvijek manji ili jednak
1
4
. Uvrstimo to u
Cebisevljev teorem
P(|X Np| )
Npq
2
N
4
2
,
P
_
X
N
p
N
_
N
4
2
.
Nazovemo li /N , gornja nejednakost postaje
P
_
X
N
p
_
1
4N
2
.
7
Primjetimo da relacija (3.24) nije standardni limes kakav se uci u matematickoj analizi. Matematicko znacenje konver-
gencije
N
A
N
p je slijedece: za svaki proizvoljni > 0 postoji N
0
(), sa svojstvom da za svaki N > N
0
() vrijedi da je
N
A
N
p
< . Tu se ne govori ni o kakvim vjerojatnostima, dok je Bernoullijev teorem jedna tvrdnja o vjerojatnostima.
3.5. DISKRETNE I KONTINUIRANE VJEROJATNOSTI 61
Za ksni i u granici kada N neograniceno raste
lim
N
P
_
X
N
p
_
lim
N
1
4N
2
= 0
ili, ako uzmemo u obzir (3.23),
lim
N
P
_
X
N
p
<
_
= 1,
a to je upravo (slabi) zakon velikih brojeva.
3.5 Diskretne i kontinuirane vjerojatnosti
Rezimirajmo ono sto smo do sada naucili o ishodima slucajnih pokusa ili, kako cemo ih
od sada nazivati, o slucajnim varijablama.
Kao sto sam naziv kaze, slucajna je varijabla X ona cija vrijednost x ovisi o slucaju,
tj. ne moze se tocno unaprijed
8
predvidjeti. Vjerojatnost ostvarenja razlicitih vrijednosti
varijable, ne mora biti konstantna, nego se moze mijenjati s x (kao sto je to npr. dano iz-
razom (3.3)). Ove promjene opisuje gustoca vjerojatnosti koju smo do sada (za diskretne
varijable) oznacavali s P(x), a od sada cemo oznacavati s (x) (ova ce oznaka obuhvacati
i diskretne i kontinuirane varijable).
Xx
(x).
Sredina ili matematicko ocekivanje slucajne varijable X je
E(X) X =
x
x (x),
gdje zbroj ide po svim mogucim vrijednostima varijable X. Opcenito, matematicko
ocekivanje bilo koje funkcije f(X), se racuna kao
E(f(X)) f(X) =
x
f(x) (x).
Moguce je promatrati i dvije ili vise slucajnih varijabla. Radi jednostavnosti prikaza,
umjesto opcenite visedimenzijske varijable, govorit cemo o dvodimenzijskoj slucajnoj
varijabli (X, Y ). Varijabla X moze poprimiti bilo koju od N diskretnih vrijednosti, a
varijabla Y bilo koju od M vrijednosti. Vjerojatnost da je varijabla X poprimila jednu
8
tj. prije izvedbe pokusa
62 POGLAVLJE 3. MATEMATI
y
(x, y) = 1.
i nazivamo normiranjem vjerojatnosti. Dvodimenzijska gustoca vjerojatnosti se moze
prikazati (opcenito nekvadratnom) matricom
(x, y) =
_
_
(x
1
, y
1
) (x
1
, y
2
) (x
1
, y
m
) (x
1
, y
M
)
(x
2
, y
1
) (x
2
, y
2
) (x
2
, y
m
) (x
2
, y
M
)
.
.
.
.
.
.
(x
n
, y
1
) (x
n
, y
2
) (x
n
, y
m
) (x
n
, y
M
)
.
.
.
.
.
.
(x
N
, y
1
) (x
N
, y
2
) (x
N
, y
m
) (x
N
, y
M
)
_
_
.
Primjer: 3.8 Diskretna slucajna varijabla X moze poprimiti vrijednosti 1, 2, , N, s
vjerojatnoscu srazmjernom vrijednosti varijable. Treba naci raspodjelu gustoce
vjerojatnosti (x).
R: Ako je gustoca vjerojatnosti srazmjerna vrijednosti varijable, tada je
(x) = a + b x,
gdje su a i b konstante. Konstanta a se odreduje na slijedeci nacin: X moze
poprimati samo vrijednosti 1, 2, , N, tj. vjerojatnost da X ima neku drugu
vrijednost je jednaka nuli; posebno je vjerojatnost da je X = 0 jednaka nuli
iz cega slijedi zakljucak da je a = 0. Konstanta b se odreduje iz uvjeta nor-
miranja: zbroj vjerojatnosti svih dogadaja mora biti jednak jedinici (nesto se
mora dogoditi)
N
x=1
(x) = (1) + (2) + + (N) = 1
b 1 + b 2 + b 3 + + b N = b (1 + 2 + + N) = 1
2
N(N + 1)
= b.
Iz cega slijedi gustoca
(x) =
2 x
N(N + 1)
.
3.5. DISKRETNE I KONTINUIRANE VJEROJATNOSTI 63
Slicne su i denicije za slucajnu varijablu X koja poprima kontinuirane vrijednosti x iz
intervala [, +]. Buduci da ovih varijabli ima neprebrojivo mnogo, to je vjerojatnost
svake od njih jednaka nuli
P(X = x) = 0. (3.26)
Ono sto je razli
(x) dx = 1,
(3) (x) je po dijelovima kontinuirana,
(4)
x
2
x
1
(x) dx = P(x
1
< X x
2
) x
1
< x
2
.
Prvo od gornjih svojstava samo kaze da je vjerojatnost pozitivna velicina, tj da (x)
lezi iznad osi x. Ako x ne prima vrijednosti iz intervala [, +], nego iz [a, b], tada
nomiranje (2) glasi
b
a
(x) dx = 1.
To znaci da je povrsina ispod krivulje na slici 3.6.A, jednak jedinici. Svojstvo (3) osigu-
rava da imamo posla sa lijepim funkcijama, a (4) nam pruza geometrijsku interpretaciju
vjerojatnosti da X poprimi bio koju vrijednost iz intervala (x
1
, x
2
): ona koja je numericki
jednaka povrsini ispod krivulje tj. integralu gustoce vjerojatnosti (s odgovarajucim gra-
nicama), kao na slici 3.6.A. Ovo svojstvo (4) ima za posljedicu (3.26). Diferencijal vjero-
Slika 3.6: (A) Vjerojatnost P(x
1
< x < x
2
) da x poprimi vrijednost iz intervala (x
1
, x
2
) je jednaka
osjencenom dijelu. (B) F(x
0
) je vjerojatnost da x poprimi bilo koju vrijednost manju od x
0
.
jatnosti
dP(x) = (x) dx
predstavlja vjerojatnost da se vrijednosti slucajne varijable X nalaze u intervalu (x, x +
dx). Takoder je koristan i pojam funkcije raspodjele F(x), koja prestavlja vjerojat-
64 POGLAVLJE 3. MATEMATI
x
0
(x) dx = F(x
0
).
Prema gornjoj deniciji je
x
2
x
1
(x) dx = P(x
1
< x x
2
) = F(x
2
) F(x
1
).
Ovaj izraz ujedno i denira funkciju F kao primitivnu funkciju gustoce vjerojatnosti, tj.
d F(x)
d x
= (x). (3.27)
Primjer: 3.9 Zadatak je nasumice povuci pravac kroz tocku (0, 1) i naci vjerojatnost da
pravac sjece apscisu u nekoj tocki x.
R: Promatrajmo kut
(/2, +/2) koji pravac zatvara s
ordinatom. Vjerojatnost da on poprimi
vrijednost u intervalu (, + d) je
dP =
d
.
Sa slike se vidi da je tan = x/1, pa je
= arctan x d =
dx
1 + x
2
.
Pravac odreden kutom iz intervala (, + d), presjeca apscisu u intervalu
(x, x + dx) s trazenom vjerojatnoscu
dP =
d
=
1
(1 +x
2
)
dx (x) dx.
Iz gornjeg izraza vidimo da nemaju sve tocke apscise jednaku vjerojatnost
da ih presjece pravac: sto su tocke dalje od ishodista (veci x) vjerojatnost
je manja. Primjetimo da kutu iz intervala (/2, +/2), odgovara x iz
intervala (, +). Provjerimo na kraju i normiranje vjerojatnosti
P =
dP(x) =
dx
(1 + x
2
)
=
1
arctan x
= 1.
Slicno kao i kod diskretnih varijabli (uz zamjenu zbrajanja integriranjem), matematicko
ocekivanje se racuna kao
E(X) X =
x (x) dx,
E(f(X)) f(X) =
b
a
dx
d
c
dy (x, y) = 1,
(3)
x
2
x
1
dx
y
2
y
1
dy (x, y) = P(x
1
X x
2
, y
1
Y y
2
),
gdje je s P(x
1
X x
2
, y
1
Y y
2
) oznacena vjerojatnost da vrijednosti varijabli X i
Y budu unutar oznacenog podrucja. U skladu s gornjom denicijom, dP = (x, y) dx dy
je vjerojatnost da varijabla X poprimi vrijednost iz intervala (x, x + dx), a varijabla Y
iz intervala (y, y + dy). U nastavku izlaganja cemo, radi jednostavnosti, smatrati da je
(a, b) = (, +), kao i da je (c, d) = (, +).
3.6 Geometrijske vjerojatnosti
U dosadasnjem izlaganju smo promatrali pokuse ciji su se ishodi opisivali diskretnim
vrijednostima: bacanje kocke ili kovanice, Mendelovi pokusi s graskom i slicno.
Osim navedenih primjera, postoji citav niz problema cija vjerojatnost ovisi o parametrima
koji se kontinuirano mijenjaju, bilo u vremenu bilo u prostoru. Vjerojatnosti koje
kontinuirano ovise o prostornim varijablama, nazivat ce se geometrijske vjerojat-
nosti. I ovdje se vjerojatnost racuna po opcem receptu koji smo usvojili na pocetku:
povoljno kroz moguce. To cemo najlakse razumijeti kroz nekoliko primjera.
Primjer: 3.10 Kolika je vjerojatnost da se slucajno odabrana tocka na liniji AD, nalazi
unutar linije BC (slika 3.7.A)?
R: Ako napravimo posve razumnu pretpostavku da je odabir svake tocke
unutar linije AD jednako vjerojatan, tada je trazena vjerojatnost ocito jednaka
omjeru duljina zadanih linija (povoljno kroz moguce)
P =
BC
AD
=
C
B
dx
D
A
dx
.
Primjer: 3.11 Slicno se moze formulirati i dvodimenzijski problem (slika 3.7.B): kolika
je vjerojatnost da se slucajno odabrana tocka iz podrucja A nalazi u podrucju
B?
R: Iz pretpostavke da je odabir svake tocke iz A jednako vjerojatan, sli-
jedi da je trazena vjerojatnost jednaka omjeru plostina povrsina B i A (opet
66 POGLAVLJE 3. MATEMATI
B
dx dy
A
dx dy
.
Primjer: 3.12 U krugu polumjera R sa sredistem u tocki O, odaberu se proizvoljno dvije
tocke T
1
i T
2
. Kolika je vjerojatnost da ce kruznica sa sredistem u T
1
i polu-
mjera T
1
T
2
lezati unutar zadanog kruga (slika 3.8.A).
R: Vjerojatnost da se T
1
nalazi negdje unutar kruznog vijenca unutar-
Slika 3.8: (A) Uz primjer sa dva kruga. (B) Uz primjer dvije duzine.
njeg polumjera r i vanjskog r +dr, je jednaka omjeru povrsina vijenca i cijelog
3.6. GEOMETRIJSKE VJEROJATNOSTI 67
kruga
dP
1
=
(r + dr)
2
r
2
R
2
=
1
R
2
(2rdr + (dr)
2
)
2
R
2
rdr.
Da bi se kruznica sa sredistem u T
1
lezala unutar zadanog kruga, njezin polu-
mjer mora biti najvise jednak R r. Vjerojatnost P
2
da ce T
2
lezati unutar
kruznice sa sredistem u T
1
i polumjera R r je jednaka omjeru povrsina ova
dva kruga
P
2
=
(R r)
2
R
2
=
R
2
2Rr + r
2
R
2
.
Trazena vjerojatnost je i vjerojatnost: T
1
se mora nalaziti izmedu r i r + dr
(ta je vjerojatnost dana sa dP
1
) i T
2
se mora nalaziti unutar kruga polumjera
R r (ta je vjerojatnost dana sa P
2
)
dP = dP
1
P
2
=
2
R
4
(R
2
r 2Rr
2
+ r
3
)dr.
Buduci da r moze biti bilo koji broj izmedu 0 i R, to je ukupna vjerojatnost
jednaka
P =
R
0
dP =
2
R
4
R
0
(R
2
r 2Rr
2
+ r
3
) dr =
1
6
.
Primjer: 3.13 Na duzini duljine a se oznace dvije tocke x i y kao na slici 3.8.B. Kolika
je vjerojatnost da je udaljenost izmedu x i y veca od zadane duljine b?
R: Vjerojatnost da x lezi unutar intervala (x, x+dx) je jednaka dx/a. Vje-
rojatnost da y lezi unutar intervala (y, y + dy) je jednaka dy/a. Vjerojatnost
da x lezi unutar intervala (x, x +dx) i da y lezi unutar intervala (y, y +dy) je
jednaka
dP =
dx
a
dy
a
=
dx dy
a
2
.
Ukupnu vjerojatnost odredujemo integriranjem dP uz uvjete na granice in-
tegracije tako da budu zadovoljeni zahtjevi iz zadatka: x moze biti bilo koja
tocka izmedu 0 i a b (kada bi x bio izvan ovih granica, tada udaljenost od x
do y ne bi mogla biti veca od b); iz istog razloga, y mora lezati desno od x+b,
a lijevo od a
P =
2
a
2
ab
0
dx
a
x+b
dy =
2
a
2
ab
0
(a x b) dx
=
2
a
2
_
ax
1
2
x
2
bx
_
ab
0
=
2
a
2
1
2
(a b)
2
=
_
a b
a
_
2
(mnozitelj 2 dolazi od one druge mogucnosti u kojoj je y lijevo od x).
68 POGLAVLJE 3. MATEMATI
x (x) dx,
E(X
2
) X
2
=
x
2
(x) dx,
V ar(X) E[(X X )
2
] =
(x X )
2
(x) dx
Pogledajmo cemu je jednako matematicko ocekivanje linearne kombinacije varijabla X i
Y
a
1
X + a
2
Y,
gdje su a
1
i a
2
konstante:
E(a
1
X + a
2
Y ) =
dx
dy (a
1
x + a
2
y) (x, y)
= a
1
x dx
(x, y) dy + a
2
(x, y) dx
y dy.
Gornje cemo ocekivanje izracunati u dva slucaja: kada su X i Y medusobno nezavisne i
kada su medusobno zavisne varijable.
Ako su medusobno nezavisne, tada je, prema pravilu o mnozenju vjerojatnosti, ukupna
vjerojatnost da X poprimi vrijednost iz intervala (x, x +dx) i da Y poprimi vrijednost iz
intervala (y, y + dy) jednaka umnosku vjerojatnosti pojedinih varijabla
d P(x, y) = d P(x) d P(y),
(x, y) dx dy =
X
(x) dx
Y
(y) dy, (3.28)
gdje je
X
(x) gustoca vjerojatnosti varijable X, a
Y
(y) gustoca vjerojatnosti varijable
Y . Zbog normiranja vjerojatnosti (x, y) i pozitivne deniranosti gustoca, slijedi
1 =
(x, y) dx dy
X
(x) dx = 1,
Y
(y) dy = 1.
Vratimo se izrazu za E(a
1
X + a
2
Y )
E(a
1
X + a
2
Y ) = a
1
x
X
(x) dx
Y
(y) dy + a
2
X
(x) dx
y
Y
(y) dy
= a
1
E(X) + a
2
E(Y ).
3.7. TEOREMI O SLU
CAJNIM VARIJABLAMA 69
Pogledajmo sada drugu mogucnost: X i Y nisu nezavisne i ne vrijedi (3.28), tj. (x, y)
se ne moze napisati kao umnozak dvije funkcije od po jedne varijale
X
(x)
Y
(y)
E(a
1
X + a
2
Y ) =
(a
1
x + a
2
y) (x, y) dx dy
= a
1
x (x, y) dx dy + a
2
y (x, y) dx dy
= a
1
x dx
(x, y) dy + a
2
y dy
(x, y) dx.
No, sto dobijemo kada prointegriramo gustocu vjerojatnosti (x, y) po svim mogucim vri-
jednostima y? Dobijemo gustocu vjerojatnosti koja ovisi samo o varijabli x, tj. dobijemo
X
(x)
(x, y) dy =
X
(x).
Slicno, nakon integracije (x, y) po x dobijemo
Y
(y)
(x, y) dx =
Y
(y).
Funkcije
X
(x) i
Y
(y) se zovu marginalne gusto
ce raspodjele. Primjetimo da se
ove funkcije
X
(x) i
Y
(y), odnose na medusobno zavisne varijable X i Y i zato nisu iste
iste kao i funkcije (3.28), iako su, iz razumljivih razloga, jednako oznacene. Ponovo, iz
normiranja (x, y) slijede da su i funkcije
X
(x) i
Y
(y) normirane
X
(x) dx = 1,
Y
(y) dy = 1
Vratimo se izrazu za E(a
1
X + a
2
Y )
E(a
1
X + a
2
Y ) = a
1
x
X
(x) dx + a
2
y
Y
(y) dy = a
1
E(X) + a
2
E(Y ).
Ovime smo dokazali da
E(a
1
X + a
2
Y ) = a
1
E(X) + a
2
E(Y )
vrijedi bez obzira jesu li X i Y medusobno zavisne ili nezavisne slucajne varijable. Iz
izvoda je ocito da vrijedi i poopcenje na proizvoljan broj od N slucajnih varijabla, tj. da
vrijedi
E(a
1
X + a
2
Y + + a
N
Z) = a
1
E(X) + a
2
E(Y ) + + a
N
E(Z), (3.29)
neovisno o tome jesu li X, Y, . . . , Z, medusobno zavisne ili nezavisne varijable.
Vratimo se opet nezavisnim varijablama X i Y , prema (3.28) njihova je gustoca vjero-
jatnosti dana sa
(x, y) dx dy =
X
(x) dx
Y
(y) dy.
70 POGLAVLJE 3. MATEMATI
x y (x, y) dx dy
=
x
X
(x) dx
y
Y
(y) dy
= E(X) E(Y ).
Iz izvoda je ocito da vrijedi i popcenje na proizvoljan broj medusobno nezavisnih varijabla
X, Y, . . . , Z,
pri cemu je
E(XY Z) = E(X) E(Y ) E(Z). (3.30)
Gornja tvrdnja nije tocna ako su varijable medusobno zavisne.
Ostanimo i dalje kod nezavisnih varijabla X i Y . Oznacimo s i odstupanja varijabli
od ocekivanih vrijednosti
= X X , = Y Y .
Primjetimo odmah da je
E() = E(X X ) = (3.29) = E(X) E( X ) = X X = 0, (3.31)
E() = E(Y Y ) = (3.29) = E(Y ) E( Y ) = Y Y = 0.
Izracunajmo varijancu linearne kombinacije a + b
V ar(a X + b Y ) = (3.16) = E[(a (X X) + b (Y Y ))
2
] = E[(a + b )
2
]
= E(a
2
2
+ 2 a b + b
2
2
).
Gornji izraz je ocekivanje od linearne kombinacije tri slucajne varijable: prva je X
1
=
2
,
druga je X
2
= i treca je X
3
=
2
. Primjenom (3.29), dobivamo
V ar(a X + b Y ) = a
2
E(
2
) + 2 a b E( ) + b
2
E(
2
).
U (3.30) smo pokazali da je za nezavisne varijable
E( ) = (3.30) = E()E() = (3.31) = 0,
pa preostaje
V ar(a X + b Y ) = a
2
E(
2
) + b
2
E(
2
) = a
2
V ar(X) + b
2
V ar(Y ).
Iz izvoda je ocito da vrijedi i poopcenje na N medusobno nezavisnih varijabli X
j
V ar(a
1
X
1
+ a
2
X
2
+ + a
N
X
N
) = a
2
1
V ar(X
1
) + a
2
2
V ar(X
2
) + + a
2
N
V ar(X
N
).
(3.32)
9
Izrazi ovog oblika se mogu povezati s razlicitim vrstanma korelacijskih funkcija.
3.8. PREOBRAZBA VARIJABLE 71
3.8 Preobrazba varijable
U ovom cemo odjeljku rijesiti problem cije su pretpostavke slijedece: zadana je kon-
tinuirana slucajna varijabla X koja prima vrijednosti iz intervala (a, b) s poznatom
raspodjelom gustoce vjerojatnosti (X); isto tako je zadana i funkcija (preslikavanje)
X Y = f(X). Zadatak
10
je
na
ci gusto
b
a
(x) dx = 1 ,
d
c
(y) dy = 1,
x
0
a
(x) dx = F(x
0
) ,
y
0
c
(y) dy = G(y
0
),
(x) =
d F(x)
d x
, (x) =
d G(y)
d y
.
(1) Pretpostavimo, za pocetak, da je f monotono rastu
d x
d y
(3.34)
i opet je (y) ima samo pozitivne vrijednosti. Usporedbom s (3.33), vidimo da gornji
izraz vrijedi i za monotono opadajuce, kao i za monotono rastuce funkcije Y = f(X).
Ukoliko f nije monotona funkcija, onda je ona monotona po svojim dijelovima, a na svaki
taj dio se primjenjuju gornja razmatranja, takao da veza (3.34) izmedu i vrijedi za
svaku f(X) (a ne samo za monotonu).
U dosadasnjim racunima smo se susretali s velicinama kao sto su X i X
2
. Opcenito
se
X
k
=
x
k
(x) dx
naziva k-ti moment raspodjele varijable X.
Sada, kada znamo vezu izmedu gustoca vjerojatnosti (x) i (y), zanima nas kako izracunati
momenate slucajne varijable Y , preko gustoce raspodjele varijable X. Krenimo od de-
nicije k-tog momenta varijable y, uz pretpostavku da je f monotono rastuca funkcija
Y
k
=
d
c
y
k
(y) dy,
koja, posredstvom veza,
y|
d
c
= f(x|
b
a
), (y) = (x)
d x
d y
,
prelazi u
Y
k
=
b
a
f(x)
k
(x)
d x
d y
dy,
=
b
a
f(x)
k
(x) dx.
74 POGLAVLJE 3. MATEMATI
b
a
f(x) (x) dx.
Slican je postupak i kada je f monotono opadajuca funkcija.
Primjer: 3.14 Promatramo kontinuiranu varijablu X koja poprima vrijednosti iz inter-
vala x (0, 4) i cija je raspodjela gustoce vjerojatnosti dana sa (x) = x/8.
Nova varijabla Y je povezana sa X relacijom Y = f(X) = 3X + 2. Treba
izracunati funkciju raspodjele gustoce vjerojatnosti varijable Y .
R: Ako je podrucje vrijednosti varijable X interval (0, 4), tada varijabla
Y poprima vrijednosti u intervalu (2, 14). Funkcija f je monotona, pa je zato
(y) = (x)
d x
d y
=
x
8
1
3
=
1
24
y 2
3
=
y 2
72
.
Provjerim oda je (y) normirana na jedinicu
14
2
(y) dy =
1
72
14
2
(y 2) dy =
1
72
_
y
2
2
2y
_
14
2
=
1
72
_
14
2
2
2
2
2(14 2)
_
= 1.
Poglavlje 4
Korelacijske funkcije
4.1 Uvod
75
76 POGLAVLJE 4. KORELACIJSKE FUNKCIJE
Poglavlje 5
Metoda najmanjih kvadrata
Pretpostavimo da je postavljen pokus kojim se zeli mjeriti neka zikalna velicina koju
cemo oznaciti s X. Izvodi se N pokusa koji daju niz eksperimentalnih vrijednosti
x
1
, x
2
, , x
N
.
Uslijed gresaka pri mjerenju (koje mogu biti grube, sustavne i slucajne), rezultati mjere-
nja se razlikuju medusobno i razlikuju se od prave, ali nepoznate vrijednosti X. Pret-
postavimo da smo pazljivim postavljanjem i izvedbom pokusa, eliminirali grube greske.
Sustavne su greske dio samog pokusa i one se mogu eliminirati (ili bar smanjiti) tako da se
ista velicina mjeri kroz vise razlicitih pokusa kod kojih ocekujemo da ce te sustavne greske
biti razlicitih predznaka. Ako konacnu vrijednost za X racunamo kao srednju vrijednost
rezultata dobivenih ovim raznim pokusima, ocekujemo da ce sustavna greska biti manja
nego da smo izveli samo jednu vrstu pokusa. Nakon ovoga nam ostaju samo slucajne
greske i njihovom analizom cemo se baviti u ostatku ovog poglavlja.
Glavno pitanje na koje cemo odgovoriti u ovom odjeljku jeste:
kako odrediti X vode
ci ra
cuna o slu
cajnim gre
skama?
Citatelj ce zacijelo pomisliti kako je odgovor na ovo pitanje vrlo jednostavan: X cemo
odrediti tako sto cemo pomocu x
n
izracunati obicnu aritmeticku sredinu i ta aritmeticka
sredina je nas X. To je, naravno, i tocan odgovor, ali u ovom odjeljku zelimo objasniti
i nesto vise: zelimo objasniti za
za pravoj vri-
jednosti X. Kljucno je da se ovdje radi o vjerojatnosti. Velicina X nam je nepoznata i
najvise sto nam pokus moze dati jeste da ocjenimo kolika je njezina najvjerojatnija vri-
jednost.
77
78 POGLAVLJE 5. NAJMANJI KVADRATI
Ovaj je problem rijesio Carl Friedrich Gauss (1777 - 1855) godine 1809.
Osnovna pretpostavka od koje je krenuo (i koja ce se na kraju pokazati
opravdanom) jeste da je aritmeti
n
= X x
n
, n = 1, 2, 3, , N, (5.2)
koje su nam nepoznate, jer nam je nepoznat X, pa ne mozemo izvrijedniti desne strane, i
prividne greske v
n
v
n
= X x
n
, n = 1, 2, 3, , N,
koje su nam poznate, jer znamo X , pa mozemo izvrijedniti desne strane. Zbrajanjem
gornjih jednadzba vidimo da je zbroj svih prividnih gresaka jednak nuli
v
1
+ v
2
+ + v
N
= NX (x
1
+ x
2
+ + x
N
) = (5.1) = 0. (5.3)
Rezultati svih N ponovljenih pokusa su medusobno neovisni, pa se zato x
n
mogu smatrati
kontinuiranim nezavisnim slucajnim varijablama. U tom se slucaju postavlja pitanje: ko-
lika je vjerojatnost da se pojavi prividna greska v
n
ili, malo preciznije,
kolika je vjerojatnost da v
n
poprimi vrijednost iz intervala (v
n
, v
n
+ dx
n
)?
Uvede li se raspodjela gustoce vjerojatnosti
n
, ta se vjerojatnost moze napisati kao
dP
n
=
n
(v
n
)dx
n
. (5.4)
Nadalje, pitamo se kolika je vjerojatnost da u prvom pokusu prividna greska bude v
1
,
u drugom v
2
itd. sve do N-tog mjerenja s greskom v
N
. Prema pravilu o mnozenju
vjerojatnosti koje vrijedi za medusobno neovisne dogadaje, ta je vjerojatnost dP
uk
jednaka
umnosku pojedinih vjerojatnosti
dP
uk
uk
dx
1
dx
2
. . . dx
N
dP
1
dP
2
. . . dP
N
=
1
(v
1
)dx
1
2
(v
2
)dx
2
. . .
N
(v
N
)dx
N
.
Buduci da su svi x
n
dobiveni istim pokusom i njihove ce gustoce vjerojatnosti biti iste
1
=
2
= . . . =
N
.
Usporedbom gornjih izraza zakljucujemo da je ukupna gustoca vjerojatnosti
uk
(X ) = (v
1
) (v
2
) . . . (v
N
) = (X x
1
) (X x
2
) . . . (X x
N
). (5.5)
Gornji izraz mozemo shvatiti kao vrijednost funkcije
uk
(x) (x x
1
) (x x
2
) . . . (x x
N
)
79
u tocki x = X . Tada, prema polaznoj pretpostavci da je X najvjerojatnija vrijednost
X, mora
uk
(x) imati maksimum u toj istoj tocki, tj. mora biti
d
uk
(x)
d x
x=X
= 0.
Da bismo si pojednostavili racun i umjesto derivacije gornjeg umnoska, dobili derivaciju
zbroja, umjesto
uk
promatrat cemo ln
uk
. To smijemo napraviti jer, zbog monotonosti
logaritamske funkcije i
uk
i ln
uk
imaju ekstreme na istim mjestima
ln
uk
(x) = ln (x x
1
) + ln (x x
2
) + + ln (x x
N
),
uk
(x)
uk
(x)
x=X
=
(X x
1
)
(X x
1
)
+
(X x
2
)
(X x
2
)
+ +
(X x
N
)
(X x
N
)
= 0.
Vratimo li se zapisu preko prividnih pogresaka, uvjet maksimuma je
(v
1
)
(v
1
)
+
(v
2
)
(v
2
)
+ +
(v
N
)
(v
N
)
= 0
Cijeli gornji izraz je izgraden od clanova istog oblika koji cemo oznaciti s f
f(v)
(v)
(v)
,
pa je uvjet ekstrema
f(v
1
) + f(v
2
) + + f(v
N
) = 0.
Da bismo nasli f treba krenuti od najjednostavnijeg slucaja N = 2. Tada gornji uvjet,
zajedno sa (5.3) glasi
f(v
1
) + f(v
2
) = 0, v
1
+ v
2
= 0.
Ako pomocu druge od gornjih jednadzba eliminiramo v
2
, dobivamo
f(v
1
) + f(v
1
) = 0 f(v
1
) = f(v
1
),
tj. f je neparna funkcija. Za opci N je
f(v
1
) + f(v
2
) + + f(v
N
) = 0,
v
1
+ v
2
+ + v
N
= 0.
Iz ove dvije jednadzbe slijedi
f(v
N
) = f(v
1
) f(v
2
) f(v
N1
),
f(v
1
v
2
v
N1
) = f(v
1
) f(v
2
) f(v
N1
)
Primjenom svojstva neparnosti f na lijevu stranu gornje jednadzbe
f(v
1
+ v
2
+ + v
N1
) = f(v
1
) f(v
2
) f(v
N1
),
f(v
1
+ v
2
+ + v
N1
) = f(v
1
) + f(v
2
) + + f(v
N1
).
Ovo gore je jedna funkcionalna jednad
(v
n
)
(v
n
)
= c v
n
.
Izravnom integracijom gornje diferencijalne jednadzbe slijedi
ln (v
n
) = c
v
2
n
2
+ const.,
(v
n
) = C e
1
2
cv
2
n
, c, C = const.
Buduci da vjerojatnost velikih gresaka mora biti manja od vjerojatnosti malih gresaka,
to konstanta c/2 mora biti negativna. Nazovimo ju a
2
(za realni a)
(v
n
) = C e
a
2
v
2
n
.
Preostalu konstantu C odredujemo iz uvjeta normiranja gustoce vjerojatnosti
(v
N
) dv
n
= 1 = C
e
a
2
v
2
n
dv
n
= C
a
,
iz cega zakljucujemo da je C = a/
i
(v
n
) =
a
e
a
2
v
2
n
. (5.6)
Velicina a ovisi o tocnosti mjerenja i naziva se mjera preciznosti. Vjerojatnost da se
u N mjerenja naprave greske v
1
, v
2
, , v
N
je, prema (5.5) i (5.6), jednaka
uk
= (v
1
) (v
2
) . . . (v
N
) =
_
a
_
N
e
a
2
(v
2
1
+v
2
2
++v
2
N
)
.
Iz gornjeg izraza vidimo da najvecu vjerojatnost imaju one pogreske za koje je
v
2
1
+ v
2
2
+ + v
2
N
najmanji, To je cinjenica od koje i potjece naziv ove metode. Pokazimo da je gornji izraz
najmanji upravo onda kada je x = X . Nazovimo
= (x x
1
)
2
+ (x x
2
)
2
+ + (x x
N
)
2
i potrazimo njegov minimum
x
= 0 = 2(x x
1
) + 2(x x
2
) + + 2(x x
N
)
0 = Nx (x
1
+ x
2
+ + x
N
)
x =
x
1
+ x
2
+ + x
N
N
= X ,
a to je upravo ono sto je pretpostavljeno na pocetku. Time je pokazano da je obicna
aritmeti
n=1
v
2
n
= min.
Relacijom (5.2) smo uveli prave greske kao razliku prave (ali nepoznate) velicine X i
izmjerenih vrijednosti x
n
n
= X x
n
, n = 1, 2, , N. (6.1)
Buduci da ne znamo pravu vrijednost X, nepoznate su nam i vrijednosti za
n
. Znamo
jedino to da
n
mogu biti i pozitivne i negativne realne vrijednosti. Buduci da nas ne
zanima je li greska pozitivna ili negativna, nego nas zanima samo njezin iznos, zelimo
eliminirati predznak greske. To je najjednostavnije napraviti tako da da se promatra
kvadrat greske
N
n=1
2
n
.
Gornji izraz mjeri ukupnu gresku svih N mjerenja. Da bismo dobili velicinu koja se odnosi
na pojedino mjerenje, gornji cemo izraz podijeliti s ukupnim brojem mjerenja N.
m
2
=
1
N
N
n=1
2
n
. (6.2)
81
82 POGLAVLJE 6. TEORIJA GRE
SAKA
Tako smo dobili velicinu (koju takoder ne znamo izracunati) koja se naziva srednja
gre
ska pojedinog mjerenja. Ovu je velicinu uveo Gauss kao osnovnu velicinu za ocjenu
greske jednog niza mjerenja. Ona karakterizira tocnost kojom je izvrseno svako pojedino
od N mjerenja. Gornjom je jednadzbom srednja greska denirana kroz svoj kvadrat, kako
bi bila iste dimenzije kao i sama mjerena velicina X. Primjetimo jos i da pomocu gornjeg
izraza ne mozemo racunati m jer nam je nepoznata desna strana, ali cemo od ovog izraza
imati koristi kasnije kod racuna (6.12).
6.1.1 Greska funkcije
Sada je pred nama slijedeci zadatak: neka se, radi opcenitosti, izravno mjeri nekoliko
velicina X, Y, Z, , koje cak i ne moraju biti mjerene u istom pokusu, tako da se
njihov ukupan broj N, M, L, , moze razlikovati, kao sto se mogu razlikovati i njihove
tocnosti m
x
, m
y
, m
z
,
X x
n
m
x
n = 1, 2, , N
Y y
m
m
y
m = 1, 2, , M
Z z
l
m
z
l = 1, 2, , L
.
.
.
Ako od ovih velicina napravimo funkciju, vrijednosti te funkcije ce sadrzavati gresku koja
potjece od gresaka x
n
, y
m
, z
l
, .
f(X, Y, Z, ) f(x
n
, y
m
, z
l
, )
Sada se postavlja pitanje:
kako izra
cunati gre
sku od f
ako pretpostavimo da znamo greske od x
n
, y
m
, z
l
, i funkcijsku ovisnost f? Odgovor
cemo naci postupno, razmatrajuci dvije jednostavne funkcije sa jednom ili dvije varijable:
(a) f(X) = a X + b, a, b = const.,
(b) f(X, Y ) = a
0
+ a
x
X + a
y
Y, a
0
, a
x
, a
y
= const.
Sve konstante smatramo poznatim (zadanim)
1
.
(a) Neka se X mjeri N puta i time se dobije niz x
n
za n = 1, 2, 3, , N. Prava vrijednost
funkcije je
f(X) = a X + b,
a umjesto toga, mi mjerenjem dobijemo niz pogresnih vrijednosti
f(x
n
) = a x
n
+ b.
1
Primjetimo takoder i da a
y
moze biti negativno, pa primjer (b) opisuje i zbroj i razliku svoja dva clana.
6.1. IZRAVNANJE DIREKTNIH OPA
ZANJA JEDNAKE TO
CNOSTI 83
U skladu s denicijom (6.1), prava greska funkcije, f
n
, je
f
n
= f(X) f(x
n
) = a (X x
n
) = a
n
.
Oznacimo s M
2
f
varijancu funkcije. Prema deniciji varijance (3.17), ona je jednaka zbroju
kvadrata pravih gresaka podijeljena s brojem mjerenja
M
2
f
=
1
N
N
n=1
( f
n
)
2
=
1
N
N
n=1
(a
n
)
2
= a
2
1
N
N
n=1
2
n
= a
2
m
2
M
f
= a m.
To je trazena veza izmedu greske funkcije M
f
i greske same mjerene velicine m.
(b) Sada promatramo funkciju dvije varijable f(X, Y ). Neka je X izmjeren N puta, a Y
neka je izmjeren M puta. Treba izracunati varijancu funkcije
f(X, Y ) = a
0
+ a
x
X + a
y
Y. (6.3)
Za izracun funkcije f mozemo koristiti bilo koji par mjerenih vrijednosti x
n
i y
m
(za
n = 1, 2, 3, , N i m = 1, 2, 3, , M) i tako dobiti za gresku funkcije
f
n,m
= f(X, Y )f(x
n
, y
m
) = a
0
+a
x
X+a
y
Y (a
0
+a
x
x
n
+a
y
y
m
) = a
x
x,n
+a
y
y,m
.
(6.4)
za sve moguce kombinacije n i m. Takvih kombinacija ima sve skupa N M i prikazane
su donjom tablicom
x,1
;
y,1
x,1
;
y,2
x,1
;
y,M
x,2
;
y,1
x,2
;
y,2
x,2
;
y,M
.
.
.
.
.
.
.
.
.
.
.
.
x,N
;
y,1
x,N
;
y,2
x,N
;
y,M
Oznacimo opet s M
2
f
varijancu funkcije
M
2
f
=
N
n=1
M
m=1
( f
n,m
)
2
N M
=
N
n=1
M
m=1
(a
x
x,n
+ a
y
y,m
)
2
N M
=
M a
2
x
N
n=1
2
x,n
+ N a
2
y
M
m=1
2
y,m
+ 2 a
x
a
y
_
N
n=1
x,n
__
M
m=1
y,m
_
N M
Zbrojevi
N
n=1
2
x,n
,
M
m=1
2
y,m
sadrze samo pozitivne pribrojnike, pa su zato puno veci od zbrojeva
N
n=1
x,n
,
M
m=1
y,m
84 POGLAVLJE 6. TEORIJA GRE
SAKA
koji sadrze i pozitivne i negativne pribrojnike. Zato cemo ova posljednja dva zbroja
zanemariti u daljem racunu
M
2
f
M a
2
x
N
n=1
2
x,n
+ N a
2
y
M
m=1
2
y,m
N M
= a
2
x
N
n=1
2
x,n
N
+ a
2
y
M
m=1
2
y,m
M
= a
2
x
m
2
X
+ a
2
y
m
2
Y
. (6.5)
Poopcenjem gornjeg postupka na funkciju vise varijabli je ocito
f(X
1
, X
2
, , X
k
) = a
0
+ a
1
X
1
+ a
2
X
2
+ + a
k
X
k
,
M
2
f
= a
2
1
m
2
X
1
+ a
2
2
m
2
X
2
+ + a
2
k
m
2
X
k
. (6.6)
Nakon analize jednostavnih funkcija iz (a) i (b), mozemo prijeci i na analizu gresaka bilo
koje op
ce funkcije
f = f(X, Y, ) = f(x
n
+
x,n
, y
m
+
y,m
, ). (6.7)
Ocekujemo da su pogreske male, pa zato gornju funkciju mozemo razviti u Taylorov red
2
po malim velicinama i zadrzati se na linearnim clanovima razvoja
f(X, Y, ) = f(x
n
, y
m
, ) +
x,n
f
X
X=X
+
y,m
f
Y
Y =Y
+O(
2
).
S O(
2
) su oznaceni svi oni clanovi Taylorovog razvoja koji su srazmjerni drugoj i ostalim
visim potencijama
x
i/ili
y
. Ovi su epsiloni po pretpostavci male velicine pa su njihovi
kvadrati i ostale vise potencije jos manje velicine od samih epsilona i zato ih zanemarujemo
u daljem racunu. No, gornji je izraz istog oblika kao i (6.4), uz a
0
= 0, pri cemu su
konstante a
x
, a
y
, dane odgovarajucim parcijalnim derivacijama
a
x
=
f
X
X=X
, a
y
=
f
Y
Y =Y
, .
Prema (6.6), standardna devijacija funkcije je jednaka
M
f
=
_
f
X
X=X
m
X
_
2
+
_
f
Y
Y =Y
m
Y
_
2
+ .
(6.8)
Gornji izraz se zove zakon rasprostiranja gre
f
X
m
X
f
Y
m
Y
=
2
vrijednosti derivacija racunamo ili u X , y , ili u nekoj drugoj karakteristicnoj vrijednosti - ovaj izbor ne utjece puno
na konacni rezultat
6.1. IZRAVNANJE DIREKTNIH OPA
ZANJA JEDNAKE TO
CNOSTI 85
Iz gornjeg izraza slijedi zakljucak da je mjerenje potrebno izvesti tako da se greske mjerenja
pojedinih velicina odnose jedna prema drugoj na isti nacin kako se odnose i reciprocne
vrijednosti derivacija funkcija po tim istim velicinama
m
X
: m
Y
: =
f
X
1
:
f
Y
1
: (6.9)
Pojasnimo to na jednom primjeru:
Primjer: 6.1 Valna duljina svjetlosti, , se moze izracunati i pomocu Fresnelovih pruga
interferencije, formulom
=
a d
D
,
gdje su: a je razmak medu koherentnim izvorima svjetlosti, d razmak medu
susjednim interferentnim prugama, D je razmak od izvora do zaslona na kome
se promatraju pruge. Razmak d se mjeri s tocnoscu od 10
3
cm. Odredite s
kojom najmanjom tocnoscu treba mjeriti a i D, ako je pocetnim mjerenjem
a, d i D dobiven njihov red velicina
a = 0.5 cm, d = 0.02 cm, D = 160 cm.
R: Izracunajmo odgovarajuce derivacije
a
=
d
D
= 1 200 10
7
,
d
=
a
D
= 32 000 10
7
,
=
a d
D
2
= 4 10
7
.
Prema (6.9) zakljucujemo da se omjeri gresaka pojedinih mjernih velicina tre-
baju odnositi kao
m
a
: m
d
: m
D
=
1
1 200
:
1
32 000
:
1
4
= 27 : 1 : 8 000.
Postavljenom aparaturom, d se moze mjeriti s greskom reda velicine m
d
0.001 cm. Pomocu ovoga i gornjeg omjera, slijedi
m
d
10
3
cm 1,
m
a
= 27 10
3
cm = 0.027 cm,
m
D
= 8 000 10
3
cm = 8 cm.
Dakle, razmak izmedu izvora i zaslona je dovoljno mjeriti s tocnoscu od desetak
centimetara, a razmak medu izvorima s tocnoscu od trecine milimetra.
86 POGLAVLJE 6. TEORIJA GRE
SAKA
6.1.2 Standardna devijacija aritmeticke sredine
U proslom smo odijeljku pokazali da je aritmeticka sredina najvjerojatnije najbliza nepoz-
natoj pravoj vrijednosti mjerene velicine X. Sada si mozemo postaviti pitanje o tocnosti
te procjene:
Kako ocijeniti to
cnost aritmeti
cke sredine X ?
Uvedimo gresku aritmeticke sredine M
X
kao razliku izmedu (pravog ali nepoznatog) X i
aritmeticke sredine X koja je dobivena iz niza od N mjerenja x
n
X = X + M
X
,
X x
n
= X x
n
+ M
X
,
n
= v
n
+ M
X
.
Kvadriranjem gornjeg izraza, a zatim zbrajanjem po n = 1, 2, , N, slijedi
N
n=1
2
n
=
N
n=1
v
2
n
+ 2M
X
N
n=1
v
n
. .
= 0
+N M
2
X
,
1
N
N
n=1
2
n
=
1
N
N
n=1
v
2
n
+ M
2
X
,
m
2
=
1
N
N
n=1
v
2
n
+ M
2
X
. (6.10)
Pogledajmo sada sto mozemo reci o drugom clanu desne strane. Aritmeticka sredina X
je denirana kao
X =
x
1
+ x
2
+ + x
N
N
,
sto znaci da greska od X , ovisi o greskama mjerenih vrijednosti x
n
. Relacijom (6.2)
smo uveli m kao prosjecnu srednju gresku svakoga x
n
. Shvatimo li X kao funkciju
f(X
1
, X
2
, , X
N
)
X f(X
1
, X
2
, , X
N
) =
X
1
+ X
2
+ + X
N
N
,
tada je varijanca funkcije f X dana zakonom o rasprostiranju gresaka (6.8),
M
2
X
=
_
X
x
1
x
1
=X
m
_
2
+
_
X
x
2
x
2
=X
m
_
2
+ +
_
X
x
N
x
N
=X
m
_
2
= N
_
1
N
m
_
2
=
m
2
N
. (6.11)
6.1. IZRAVNANJE DIREKTNIH OPA
ZANJA JEDNAKE TO
CNOSTI 87
Uvrsti li se gornji izraz u (6.10), slijedi jednadzba za odredivanje m
2
m
2
=
1
N
N
n=1
v
2
n
+ M
2
X
=
1
N
N
n=1
v
2
n
+
m
2
N
=
1
N 1
N
n=1
v
2
n
. (6.12)
Za razliku od (6.2), desnu stranu gornjeg izraza mozemo izracunati i tako dobiti ocjenu
srednje greske pojedinog mjerenja. Pomocu gornjeg izraza i (6.11) dobivamo M
2
X
= m
2
/N
M
2
X
=
1
N(N 1)
N
n=1
v
2
n
. (6.13)
Gornji izraz nam daje granice unutar kojih se nalazi prava vrijednost velicine X u obliku
X M
X
< X < X + M
X
ili
X
N
n=1
v
2
n
N(N 1)
< X < X +
N
n=1
v
2
n
N(N 1)
.
Kako je M
X
zadano preko kvadrata gresaka, ono je po svom znacenju slicno standardnoj
devijaciji, pa prema (3.18), mozemo reci da je vjerojatnost da se X zaista i nalazi unutar
gornjih granica, jednaka oko 68% i slicno za granice dane sa 2 M
X
i 3 M
X
X M
X
< X < X + M
X
68 %,
X 2 M
X
< X < X + 2 M
X
95 %,
X 3 M
X
< X < X + 3 M
X
99 %.
Buduci da izvod nije egzaktan, gornji rezultati su samo priblizni. Velicina M
2
se moze
povezati i s analizom iz prethodnog odjeljka, gdje smo dobili da je vjerojatnost pogreske
srazmjerna Gaussovoj funkciji (5.6). Prema tome slijedi
M
2
=
v
2
e
a
2
v
2
dv = =
1
2 a
2
.
Ovime je konstanta a iz Gaussove raspodjele, povezana sa srednjom greskom.
Primjer: 6.2 Kut je mjeren sest puta i dobivene su slijedece vrijednosti:
1
= 34
0
45
52
2
= 34
0
45
47
3
= 34
0
45
23
4
= 34
0
45
39
5
= 34
0
45
41
6
= 34
0
45
53
.
88 POGLAVLJE 6. TEORIJA GRE
SAKA
Treba naci najvjerojatniju vrijednost kuta i pridruzenu ocjenu greske.
R: Aritmeticka sredina je
=
1
+
2
+
3
+
4
+
5
+
6
6
= = 34
0
45
42.5
.
Prividne greske su
v
1
=
1
= 9.5
,
v
2
=
2
= 4.5
,
v
3
=
3
= +19.5
,
v
4
=
4
= + 3.5
,
v
5
=
5
= + 1.5
,
v
6
=
6
= 10.5
.
Odatle je
6
n=1
v
2
n
= 615.5
,
m =
N
n=1
v
2
n
N 1
=
615.5
5
= 11.1
,
M
N
n=1
v
2
n
N(N 1)
=
615.5
30
= 4.5
.
Dakle, s vjerojatnoscu od 68%, mozemo tvrditi da se prava vrijednost kuta
nalazi u slijedecim granicama
= M
,
= 34
0
45
42.5
4.5
.
Pogreska svakog pojedinog mjerenja je 11.1
.
Vratimo se izrazu (6.11)
M
X
=
m
N
iz kojega se vidi da standardna devijacija aritmeticke sredine ovisi o broju mjerenja tako
da se ona smanjuje (tj. rezultat postaje to
ZANJA RAZLI
CITE TO
CNOSTI 89
Slika 6.1: Koliko mjerenja treba obaviti, pa da dobitak u tocnosti bude srazmjeran ulozenom trudu za
izvodenje mjerenja?.
10 20 30 40 50 60 70 80
N
0
0.2
0.4
0.6
0.8
1
M
x
/
m
6.2 Izravnanje direktnih opazanja razlicite tocnosti
U prethodnom smo odjeljku presutno pretpostavili da su sve vrijednosti x
n
mjerene jed-
nakom tocnoscu. To ne mora biti tocno, jedno mjerenje moze biti izvrseno s vecom ili
manjom greskom neko neko drugo mjerenje (npr. istu velicinu mjere razlicite osobe ili ista
osoba izvodi mjerenja u razlicito doba dana ili godine i slicno). Da bismo to uzeli u obzir
pri racunu greske, svakoj se mjerenoj vrijednosti pridruzuje njezina tezina t
n
. Npr. ako
smo istu vrijednost mjerili t
n
puta, tada je to tezina toga mjerenja. S X
n
oznacavamo
aritmeticku sredinu svih t
n
mjerenja,
X
n
=
x
n,1
+ x
n,2
+ + x
n,t
n
t
n
=
t
n
j=1
x
n,j
t
n
.
Velicine x
n,j
se nazivaju elementarna mjeranja. Pretpostavlja se da su sva elementarna
mjerenja, za neki ksni n, obavljana s istom tocnoscu, pa se na njih moze primjeniti
analiza iz prethodnog odjeljka. Ukupan broj svih izvrsenih elementarnih mjerenja je
t
1
+ t
2
+ + t
N
, pa je ukupna artimeticka sredina X jednaka
X =
(x
1,1
+ x
1,2
+ + x
1,t
1
) + (x
2,1
+ x
2,2
+ + x
2,t
2
) + + (x
N,1
+ x
N,2
+ + x
N,t
N
)
t
1
+ t
2
+ + t
N
=
t
1
X
1
+ t
2
X
2
+ + t
N
X
N
t
1
+ t
2
+ + t
N
Pogledajmo sada sto je s greskama. Neka je srednja greska svakog elementarnog mjerenja
(opazanja). Pitanje je: kolika je srednja greska m
n
pridruzena X
n
? Prema (??) iz
prethodnog odjeljka, znamo da je
m
2
n
=
2
t
n
.
90 POGLAVLJE 6. TEORIJA GRE
SAKA
Gresku od X racunamo tako da X napisemo u obliku
X =
x
1,1
t
1
+ t
2
+ + t
N
+
x
1,2
t
1
+ t
2
+ + t
N
+ +
x
N,t
N
t
1
+ t
2
+ + t
N
Greska svakog pojedinog cana u gornjem zbroju je jednaka /
N
n=1
t
n
, pa je prema (6.8),
greska od X
m
2
X
=
_
N
n=1
t
n
__
N
n=1
t
n
_
2
=
2
N
n=1
t
n
. (6.14)
U gornjem izlaganju smo pretpostavili da razlicite tocnosti pridruzene pojedinim mjere-
njima dolaze od razlicitog broja izvrsenih elementarnih mjerenja. Uz tu pretpostavku smo
dosli do izraza za m
n
i m
X
. Postavimo sada problem malo opcenitije: neka osim greske
koja dolazi od ponovljenih mjerenja elementarnih dogadaja, postoje i greske od drugih
uzroka (npr. ista je velicina mjerena u razlicito doba godine ili je mjerena razlicitim ins-
trumentima ili razlicitim postupcima ili sto slicno). Dano je N mjerenja X
1
, X
2
, , X
N
i svakome je pridruzena srednja greska m
1
, m
2
, , m
N
. Pomocu m
2
n
=
2
/t
n
, mogu se
tezine napisati kao t
n
=
2
/m
2
n
i pomocu toga racunati aritmeticku sredinu
X =
t
1
X
1
+ t
2
X
2
+ + t
N
X
N
t
1
+ t
2
+ + t
N
=
X
1
2
/m
2
1
+ X
2
2
/m
2
2
+ + X
N
2
/m
2
N
2
/m
2
1
+
2
/m
2
2
+ +
2
/m
2
N
=
X
1
/m
2
1
+ X
2
/m
2
2
+ + X
N
/m
2
N
1/m
2
1
+ 1/m
2
2
+ + 1/m
2
N
.
Vidimo da je (nepoznata) tocnost elementarnog mjerenja iscezla iz racuna.
Vratimo se relaciji
= m
n
t
n
(6.15)
u kojoj je m
n
srednja greska opazanja izmjerenog s tezinom t
n
, a je srednja greska
opazanja izmjerenog tezinom 1. Oznacimo s
v
n
= X X
n
razliku izmedu aritmeticke sredine i mjerenja izvrsenog s tezinom t
n
. Razliku izmedu
aritmeticke sredine i elementarnog mjerenja x
n,j
izvrsenog s tezinom 1, cemo oznaciti s
v
n,j
= X x
n,j
n = 1, 2, , N
j = 1, 2, , t
n
Pretpostavimo sada da medu pojedina
t
n
(6.16)
(neovisno o j). Uz tu pretpostavku, za racun gresaka s razlicitom tocnoscu mozemo
koristiti izraze za greske mjerenja s jednakom tocnoscu i vezu (preslikavanje) dano sa
6.3. IZRAVNANJE POSREDNIH OPA
ZANJA 91
(6.16). Tako npr. iz (6.12) slijedi
m
2
=
1
N 1
N
n=1
v
2
n
2
=
1
N 1
N
n=1
v
2
n,j
zato jer se sada v
n,j
odnose na pojedinacna mjerenja (mjerenje tezine 1) bas kao sto
se na pojedinacna mjerenja odnose i v
n
u (6.12). Sada relacijom (6.16) prelazimo s
(pojedinacnih) mjerenja tezinom jedan, na mjerenja tezinom t
n
2
=
1
N 1
N
n=1
v
2
n,j
=
1
N 1
N
n=1
v
2
n
t
n
.
Kada znamo , pomocu (6.14) mozemo izracunati i m
X
m
2
X
=
2
N
n=1
t
n
=
N
n=1
v
2
n
t
n
(N 1)
N
n=1
t
n
m
X
=
N
n=1
v
2
n
t
n
(N 1)
N
n=1
t
n
.
(6.17)
Primjer: 6.3 navesti primjer, Vranic str 147 (dovrsiti)
R:
6.3 Izravnanje posrednih opazanja
Problem koji cemo rjesavati u ovom odjeljku se moze formulirati na slijedeci nacin: poz-
nato je da su cetiri zicke velicine, X, Y, A i B, medusobno povezane relacijom oblika
3
Y = AX + B,
tj. jednadzbom pravca. Nizom od N pokusa se mjere X i Y cije su vrijednosti dane
parovima
(x
1
, y
1
), (x
2
, y
2
), , (x
N
, y
N
).
kao sto je to prikazano slikom 6.2. Nas je zadatak
izra
cunati veli
cine A i B
i ocjene njihovih gre
saka, M
A
i M
B
.
3
Npr. u vjezbi s polarizacijom svjetlosti treba provjeriti tocnost Malusova zakona I = I
0
cos
2
. Mjerenjem se dobiju
vrijednosti I i , pa uz identikaciju Y = I i X = cos
2
, Malusov zakon ima oblik (6.18), gdje su parametri A I
0
, i
B = 0.
92 POGLAVLJE 6. TEORIJA GRE
SAKA
Slika 6.2: Uz primjer linearne korelacije.
-0.1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 1.1
x
0
10
20
30
40
50
60
70
80
90
100
110
120
y
?
?
?
?
?
Uslijed gresaka pri mjerenju, nece biti A x
n
+ B = y
n
, tj. tocke (x
n
, y
n
) nece lezati na
pravcu, nego ce biti
A x
n
+ B = y
n
+ w
n
, (6.18)
gdje je w
n
greska n-tog mjerenja. Drugim rijecima, ako se u x
n
uvrsti u gornju jednadzbu
pravca, bez obzira na vrijednosti A i B, ne
ce se za sve n dobiti y
n
, vec ce se dobiti
y
n
+ w
n
, gdje je w
n
greska. Buduci da smo mi svjesni postojanja greske, a iz teorije
znamo da tocke moraju lezati na pravcu, pokusat cemo naci jednadzbu pravca tako da ta
greska u odnosu na mjerene vrijednosti bude sto manja. Koecijenti A i B su slobodni
parametri (varijable) koje cemo mijenjati sve dok ne dobijemo one vrijednosti A i B za
koje je zbroj kvadrata
4
svih gresaka
N
n=1
w
2
n
minimalan. Opisani postupak mozemo simbolicki zapisati ovako
F(A, B)
N
n=1
(y
n
Ax
n
B)
2
= min.
Na taj nacin ce se dobiti pravac koji prolazi najbli
n=1
x
n
(y
n
A x
n
B) = 0,
F
B
= 0
N
n=1
(y
n
A x
n
B) = 0.
4
Opet radimo s kvadratima gresaka, kako bismo eliminirali utjecaj predznaka greske.
6.3. IZRAVNANJE POSREDNIH OPA
ZANJA 93
To je 2 2 linearni algebarski sustav za nepoznanice A i B
N
n=1
x
n
y
n
A
N
n=1
x
2
n
B
N
n=1
x
n
= 0,
N
n=1
y
n
A
N
n=1
x
n
BN = 0. (6.19)
cijim se rjesavanjem dobiju A i B
A =
N
N
n=1
x
n
y
n
N
n=1
x
n
_ _
N
n=1
y
n
_
N
N
n=1
x
2
n
N
n=1
x
n
_
2
,
B =
_
N
n=1
x
2
n
_ _
N
n=1
y
n
_
N
n=1
x
n
_ _
N
n=1
x
n
y
n
_
N
N
n=1
x
2
n
N
n=1
x
n
_
2
.
(6.20)
Nakon sto smo izracunali A i B, treba izracunati i procjene njihovih gresaka M
A
i M
B
.
Da bismo to izveli, provest cemo nekoliko pripremnih racuna.
Pomocu jednadzbe ekstrema (6.19)
N
n=1
y
n
= A
N
n=1
x
n
+ BN
i denicije pogreske w
n
sa pocetka ovog odjeljka, vrijedi da je
y
n
+ w
n
= A x
n
+ B
_
N
n=1
n=1
(y
n
+ w
n
) = A
N
n=1
x
n
+ BN.
Kombiniranjem gornjih izraza se dolazi do
N
n=1
y
n
=
N
n=1
(y
n
+ w
n
)
N
n=1
w
n
= 0.
To znaci da nisu sve greske medusobno nezavisne, vec da se jedna od njih moze izraziti
preko N 1 preostalih. Prema (6.12), srednju gresku od N 1 nezavisnih mjerenja
racunamo kao
m =
N
n=1
w
2
n
N 2
. (6.21)
Napisimo gornji izraz u malo drukcijem obliku. Da bismo to napravili, uvedimo najprije
94 POGLAVLJE 6. TEORIJA GRE
SAKA
nekoliko oznaka
X =
1
N
N
n=1
x
n
,
2
X
=
1
N
N
n=1
(x
n
X )
2
=
1
N
N
n=1
x
2
n
X
2
, (6.22)
Y =
1
N
N
n=1
y
n
,
2
Y
=
1
N
N
n=1
(y
n
Y )
2
=
1
N
N
n=1
y
2
n
Y
2
.
Osim toga, uvest cemo i mijesovitu varijancu
2
XY
=
1
N
N
n=1
(x
n
X )(y
n
Y )
=
1
N
N
n=1
(x
n
X )y
n
Y
N
N
n=1
(x
n
X )
=
1
N
N
n=1
(x
n
X )y
n
Y
N
_
N
n=1
x
n
NX
_
. .
= 0
=
1
N
N
n=1
(x
n
X )y
n
(6.23)
=
1
N
N
n=1
x
n
y
n
X
N
N
n=1
y
n
=
1
N
N
n=1
x
n
y
n
X Y
Primjetimo da se pomocu ovih oznaka, koecijenti A i B iz (6.20) mogu napisati kao
A =
2
XY
2
X
, B = Y AX . (6.24)
(usporediti s (12.7)). Krene li se od denicije (6.18) za gresku w
n
w
n
= (A x
n
+ B) y
n
,
nakon kvadriranja i kraceg racuna, dolazi se do
w
2
n
= (A x
n
+ B)
2
2 (A x
n
+ B) y
n
+ y
2
n
,
_
N
n=1
N
n=1
w
2
n
= = N(A
2
2
X
2A
2
XY
+
2
Y
)
N
n=1
w
2
n
= (6.24) = N
_
2
Y
A
2
2
X
_
,
m
2
= (6.21) =
N (
2
Y
A
2
2
X
)
N 2
. (6.25)
Sada imamo sve sto nam je potrebno za ra
cun M
A
. Vratimo se izrazu (6.20) za koecijent
A. Napisemo li A u obliku
A = (6.24), (6.23) =
1
N
2
X
N
n=1
(x
n
X ) y
n
,
6.3. IZRAVNANJE POSREDNIH OPA
ZANJA 95
tada koecijent A mozemo shvatiti kao funkciju N slucajnih varijabli Y
n
A f(Y
1
, Y
2
, , Y
N
) =
x
1
X
N
2
X
Y
1
+
x
2
X
N
2
X
Y
2
+ +
x
N
X
N
2
X
Y
N
i gresku od f A racunati
5
pomocu (6.8)
M
2
A
=
_
x
1
X
N
2
X
_
2
m
2
Y
1
+
_
x
2
X
N
2
X
_
2
m
2
Y
2
+ +
_
x
N
X
N
2
X
_
2
m
2
Y
N
.
No, sve su greske od Y
n
medusobno jednake m
2
Y
1
= m
2
Y
2
= = m
2
Y
N
= m
2
M
2
A
= m
2
N
n=1
(x
n
X )
2
N
2
4
X
= (6.22) = m
2
N
2
X
N
2
4
X
= m
2
1
N
2
X
. (6.26)
Ako sada za m uvrstimo (6.25), dobit cemo konacan izraz za ocjenu greske koecijenta A
M
2
A
=
1
N 2
_
2
Y
2
X
A
2
_
. (6.27)
Na slican cemo nacin izracunati i procjenu gre
n=1
x
2
n
.
Tako smo dobili i konacan izraz za ocjenu pogreske koecijenta B
M
2
B
= M
2
A
1
N
N
n=1
x
2
n
.
5
Koecijent A smo mogli shvatiti i kao funkciju slucajne varijable X, ali tada funkcijska ovisnost ne bi bila jednostavnog
oblika (6.6), nego znatno slozenija.
96 POGLAVLJE 6. TEORIJA GRE
SAKA
Sumarno mozemo napisati:
Y = AX + B,
A =
2
XY
2
X
, B = Y AX ,
M
A
=
1
N 2
_
2
Y
2
X
A
2
_
, M
B
= M
A
_
1
N
N
n=1
x
2
n
.
(6.28)
Primjer: 6.4 Zadane su tri tocke: (1, 1), (2, 2), (3, 4). Zadatak je povuci pravac koji pro-
lazi najblize (u smislu najmanjih kvadrata) ovim tockama.
R: U ovom je primjeru N = 3, a za gornje parove vrijednosti (x
n
, y
n
),
sustav (6.19) glasi
7 6A 3B = 0, 17 14A 6B = 0.
Rjesavanjem gornjeg sustava, dobije se
A =
3
2
, B =
2
3
.
Pogreske w
n
se racunaju kao
w
1
= y
1
3
2
x
1
+
2
3
=
1
6
,
w
2
= y
2
3
2
x
2
+
2
3
=
1
3
,
w
3
= y
3
3
2
x
3
+
2
3
=
1
6
.
Srednju gresku svakog mjerenja (tj. svake pojedine tocke) racunamo kao
m =
N
n=1
w
2
n
N 2
=
1
6
.
Izracunajmo jos i pogreske A i B
M
A
= ...dovr siti...
M
B
= ...dovr siti...
Primjer: 6.5 Zadane su tocke: (0, 0), (1, 10), (2, 25), (3, 20), (4, 30), (5, 15), (6, 40), (7, 30).
Nadite polinom drugog reda koji ide najblize danim tockama.
R: Zadane tocke (x, y(x)) su prikazane plavim tockama na slici 6.3. Za-
6.3. IZRAVNANJE POSREDNIH OPA
ZANJA 97
Slika 6.3: Aproksimacija polinomom drugog reda.
-1 0 1 2 3 4 5 6 7 8
x
-10
0
10
20
30
40
50
y
datak je izracunati koecijente a, b i c iz donjeg izraza
f(x) = a + b x + c x
2
,
uz uvjet
F(a, b, c)
N
x=1
[y(x) f(x)]
2
= min.,
Ovaj cemo zadatak rijesiti opcenito, a zatim dobiveno rjesenje primjeniti na
ovaj poseban slucaj gdje je N = 7. Cijeli gornji zbroj shvacamo kao funkciju
F koecijenata a, b i c, pa zato uvjet minimuma pisemo kao
F
a
= 0,
F
b
= 0,
F
c
= 0.
Ova tri uvjeta vode na sustav od tri jednadzbe za tri nepoznanice: a, b i c
N
x=1
y(x) a N b
N
x=1
x c
N
x=1
x
2
= 0,
N
x=1
x y(x) a
N
x=1
x b
N
x=1
x
2
c
N
x=1
x
3
= 0,
N
x=1
x
2
y(x) a
N
x=1
x
2
b
N
x=1
x
3
c
N
x=1
x
4
= 0.
98 POGLAVLJE 6. TEORIJA GRE
SAKA
Pomocu oznaka
S
y
=
N
x=1
y(x), S
xy
=
N
x=1
x y(x), S
xxy
=
N
x=1
x
2
y(x),
S
x
=
N
x=1
x, S
xx
=
N
x=1
x
2
, S
xxx
=
N
x=1
x
3
,
S
xxxx
=
N
x=1
x
4
,
gornji se sustav moze napisati u obliku matricne jednadzbe
_
_
S
y
S
xy
S
xxy
_
_
=
_
_
N S
x
S
xx
S
x
S
xx
S
xxx
S
xx
S
xxx
S
xxxx
_
_
_
_
a
b
c
_
_
.
Ovu jednadzbu rijesimo po a, b i c
_
_
a
b
c
_
_
=
_
_
N S
x
S
xx
S
x
S
xx
S
xxx
S
xx
S
xxx
S
xxxx
_
_
1
_
_
S
y
S
xy
S
xxy
_
_
i dobijemo
a =
(S
xx
S
xxxx
S
2
xxx
) S
y
+ (S
xx
S
xxx
S
x
S
xxxx
) S
xy
+ (S
x
S
xxx
S
2
xx
) S
xxy
NS
xx
S
xxxx
+ 2S
x
S
xx
S
xxx
S
3
xx
NS
2
xxx
S
2
x
S
xxxx
,
b =
(S
xx
S
xxx
S
x
S
xxxx
) S
y
+ (NS
xxxx
S
2
xx
) S
xy
+ (S
x
S
xx
NS
xxx
) S
xxy
NS
xx
S
xxxx
+ 2S
x
S
xx
S
xxx
S
3
xx
NS
2
xxx
S
2
x
S
xxxx
,
c =
(S
x
S
xxx
S
2
xx
) S
y
+ (S
x
S
xx
NS
xxx
) S
xy
+ (NS
xx
S
2
x
) S
xxy
NS
xx
S
xxxx
+ 2S
x
S
xx
S
xxx
S
3
xx
NS
2
xxx
S
2
x
S
xxxx
.
Uvrstavanjem koordinata zadanih tocaka, konacno se dobiva (crvena linija na
slici 6.3)
f(x) = 2.5 + 8.631 x 0.65476 x
2
.
6.4 Izravnanje vezanih opazanja
kroz primjer
Primjer: 6.6 dovrsiti
R:
Dio II
Matematicka statistika
99
Poglavlje 7
Osnovni pojmovi statistike
I ovaj cemo dio zapoceti s nekom vrstom malog rjecnika koji nas treba upoznati s osnov-
nim statistickim pojmovima koje cemo koristiti u nastavku izlaganja.
Statisti
cka masa je naziv za skup predmeta, osoba ili pojava koje istodobno postoje
ili se pojavljuju u vremenu, a nad kojim se provode statisticka ispitivanja. To moze biti
pucanstvo jedne drzave, proizvodi odredene industrijske grane, odredene vrste zickih
pojava ili sto drugo. Unutar statisticke mase se razlikuju pojedine skupine elemenata
koje nazivamo osnovnim skupovima (npr. sve stanovnice jedne drzave, svi europski
proizvodaci automobila i sl.). Za provedbu statisticke analize, potrebno je znati broj
elemenata osnovnog skupa i odredena svojstva ili obilje
x
t(x) = N.
Ako tezinu podjelimo s ukupnim brojem elemenata osnovnog skupa, N, dobit ce se re-
lativna frekvencija
(x) =
t(x)
N
.
Prema deniciji tezine, zbroj svih relativnih frekvencija je jednak jedinici
x
(x) = 1.
Raspodjela pojedinog obiljezja unutar osnovnog skupa se zgodno prikazuje pomocu kri-
vulje frekvencije. Ona se dobije tako da se na apscisu nanosi vrijednost promatranog
obiljezja, a na ordinatu apsolutna ili relativna frekvencija (slika 7.1)
1
To mogu biti npr. brzine, mase ili energije cestica idealnog plina
101
102 POGLAVLJE 7. OSNOVNI POJMOVI STATISTIKE
Slika 7.1: Uz krivulju frekvencije za primjer 7.1.
1 2 3 4 5
x
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
(
x
)
7.1 Prosjecne vrijednosti
Promatra se jedno obiljezje X na osnovnom skupu. Svaki pojedini element skupa moze
imati razlicite vrijednosti tog obiljezja. Osnovna informacija vezana za skup i obiljezje X
je prosje
+ x
+
N
,
pri cemu neki od x
, x
, mogu biti i medusobno jednaki Aritmeticka sredina se krace
moze izracunati pomocu tezina ili relativnih frekvencija. Neka obiljezje X moze poprimiti
M razlicitih vrijednosti x
m
s pripadnim tezinama t
m
za m = 1, 2, , M. Tada je
x =
1
N
M
m=1
t
m
x
m
,
M
m=1
t
m
= N. (7.1)
Aritmeticka sredina se moze racunati i preko relativnih frekvencija
x =
M
m=1
m
x
m
,
M
m=1
m
= 1. (7.2)
7.1. PROSJE
x=1
x (x) =
1
47
(6 1 + 5 2 + 13 3 + 16 4 + 7 5) = 3.28 .
Krivulja frekvencija je prikazana na slici 7.1.
7.1.2 Geometrijska sredina
Geometrijsku sredinu g nekog obiljezja na osnovnom skupu od N elemenata racunamo
kao N-ti korjen iz umnoska vrijednosti obiljezja svih N elemenata
g = (x
x
. . .)
1/N
.
Gornji je postupak kraci, ako racunamo s tezinama
g = (x
t
1
1
x
t
2
2
. . . x
t
M
M
)
1/N
.
Geometrijska sredina se koristi npr. u analizi skupova koji rastu (u vremenu) s geome-
trijskom progresijom (kao sto je to npr. porast stanovnika neke drzave, kretanje cijena ili
sto slicno).
Primjer: 7.2 Geometrijska sredina skupa iz prethodnog primjera je
g = (1
6
2
5
3
13
4
16
5
7
)
1/47
= 2.97 .
Zbog visokih potencija koje se pojavljuju u racunu, geometrijski je sredinu nesto teze
racunati nego aritmeticku. Veza aritmeticke i geometrijske sredine se uspostavlja logarit-
miranjem
ln g =
1
N
(t
1
ln x
1
+ t
2
ln x
2
+ + t
M
ln x
M
).
Logaritam geometrijske sredine je aritmeticka sredina logaritama pojedinih obiljezja.
104 POGLAVLJE 7. OSNOVNI POJMOVI STATISTIKE
7.1.3 Harmonijska sredina
Harmonijska sredina, h, nekog obiljezja se racuna po recepturi za aritmeticki sredinu, ali
se primjenjuje na reciprocne vrijednosti
1
h
=
1
N
_
1
x
+
1
x
+
_
=
1
N
_
t
1
x
1
+
t
2
x
2
+ +
t
M
x
M
_
.
Harmonijska sredina se pojavljuje kod racuna srednjeg vremena u odredenim procesima,
kod opisa gibanja dva tijela (reducirana masa) i slicno.
Primjer: 7.3 Harmonijska sredina skupa iz prethodnog primjera je
1
h
=
1
47
_
6
1
+
5
2
+
13
3
+
16
4
+
7
5
_
h = 2.58
Na ovim primjerima primjecujemo i opcenito svojstvo ovih sredina
h < g < x.
7.2 Momenti raspodjele
Promatrajmo jednodimenzijsku diskretnu slucajnu varijablu X cije vrijednosti x = x
, x
,
imaju relativne frekvencije (x), pri cemu je
x
(x) = 1.
Funkcija (x) opisuje kako su raspodijeljene vrijednosti varijable X (kojih vrijednosti ima
vise, kojih manje, a kojih nema uopce), pa cemo ju zato zvati i funkcija raspodjele.
Vec spomenutu aritmeticku sredinu, nazivamo prvim momentom raspodjele
X x = x
(x
) + x
(x
) + =
x
x (x). (7.3)
Opcenito, k-ti moment, X
k
, raspodjele (x) se racuna kao
X
k
=
x
x
k
(x). (7.4)
Primjetimo da je, po samoj deniciji srednje vrijednosti, srednje odstupanje varijable X
od X jednako nuli
X X =
x
(x X) (x) =
x
x (x) X
x
(x) = X X = 0, (7.5)
to je i razlog zasto se X naziva srednja vrijednost: u gornjem smislu, X prestavlja
sredinu skupa {x}.
Statisticka prosjecna vrijednost je po svojoj deniciji analogna matematickom ocekivanju
u teoriji vjerojatnosti, jer je ona jednaka zbroju umnozaka vrijednosti pojedinog obiljezja
s njegovom relativnom frekvencijom.
7.2. MOMENTI RASPODJELE 105
Opcenito su elementi skupa razliciti od njegove srednje vrijednosti X, pa je od interesa
naci nekakvu velicinu koja ce mjeriti odstupanje svakog pojedinog elementa od srednje
vrijednosti cijelog skupa. Gore smo pokazali da za takvu mjeru ne mozemo uzeti velicinu
XX, jer je njezina srednja vrijednost jednaka nuli: jednostavno receno X je odabran
upravo tako da se zbroj pozitivnih odstupanja i zbroj negativnih odstupanja egzaktno
ponisti. Ocito je da treba naci velicinu kod koje ova igra izmedu pozitivnog i negativnog
predznaka nece biti vazna. Najjednostavnija funkcija s ovim svojstvom je kvadratna
funkcija. Racunamo li umjesto srednje vrijednosti X X, srednju vrijednost njegovog
kvadrata, (XX)
2
, svi ce clanovi uvijek biti pozitivni i mi cemo dobiti jednu pozitivno
denitnu konacnu velicinu, s oznakom
2
, koja nam kaze koliko se, u srednjem, dani
element skupa razlikuje od srednje vrijednosti
2
= (X X)
2
=
x
(x X)
2
(x).
Ova se velicina naziva srednje kvadratno odstupanje ili varijanca, dok se sama naziva
standardna devijacija. Primjetimo da je gornjim izrazom, zbog dimenzija, deniran
kvadrat (ako je X velicina koja se mjeri u paskalima, onda se i srednje odstupanje te
velicine mora mjeriti tim istim jedinicama, a ne njihovim kvadratom). Cesto se kaze i da
je mjera fluktuacije varijable X: vrijednosti X uktuiraju oko srednje vrijednosti
X, a mjeri iznos tih uktuacija.
Primjetimo da se
2
moze napisati i preko momenata raspodjele
2
=
x
(x X)
2
(x) =
x
(x
2
2xX +X
2
) (x)
=
x
x
2
(x) 2 X
x
x (x) +X
2
x
(x) = X
2
2 X
2
+X
2
= X
2
X
2
.
Kvadratni korjen iz varijance, , se naziva standardna devijacija ili standardno odstupa-
nje
2
i ono opisuje velicinu (sirinu) pojasa oko X u kojemu se nalazi vecina vrijednosti
X.
Primjer: 7.4 U primjeru 7.1, standardna devijacija je jednaka
=
7 1.7234
2
+ 16 0.7234
2
+ 13 0.2766
2
+ 5 1.2766
2
+ 6 2.2766
2
47
=
1.4767 = 1.215 .
Prosjecno odstupanje od aritmeticke sredine, 3.2766, na jednu i drugu stranu
iznosi 1.215.
Ono sto je vazno zapravo i nije sama velicina rasipanja vrijednosti X oko X, nego
relativna veli
X
2
Standardnu devijaciju smo upoznali relacijom (3.17) u odjeljku 3.
106 POGLAVLJE 7. OSNOVNI POJMOVI STATISTIKE
(ako su x
n
i X, veliki po iznosu, i moze biti velik po apsolutnom iznosu, ali mali u
odnosu na X). Ovaj omjer se naziva kvocjent varijacije i u nasem primjeru iznosi
1.215
3.2766
= 0.3708 . . .
sto je uistinu desetak puta manje od same vrijednosti X.
Osim samih momenata, deniraju se i centralni momenti s oznakom M
k
M
k
=
x
(x X)
k
(x). (7.6)
Prema gornjoj deniciji je M
0
= 1 i M
1
= 0, pa su ova dva momenta ista za svaku funkciju
raspodjele (x) i prema tome ne daju nikakvu informaciju o skupu na koji se odnose. Drugi
centralni moment je, gore spomenuta varijanca M
2
2
, koja mjeri srednje kvadratno
odstupanje od srednje vrijednosti.
Pomocu slijedecih po redu momenata, M
3
i M
4
, se deniraju koecijenti asimetrije
3
(engl. skewness) i koecijent spljo
stenosti
4
3
=
M
3
3
,
4
=
M
4
4
. (7.7)
Primjetimo da ukoliko varijable X i nose neku zicku dimenziju, koecijenti
3
i
4
su bezdimenzijski brojevi. U nastavku izlaganja ce se pokazati (navesti gdje) da je za
simetri
zno 0
3
0.1 (ali postoje i asimetricne raspodjele
za koje je takoder
3
= 0). Ako je 0.1
3
0.25, raspodjela je malo asimetricna, ako
je 0.25
3
0.5 tada je srednje asimetricna i ako je 0.5
3
, raspodjela se smatra
jako asimetricnom. O spljostenosti recimo, za sada, samo toliko da se normalnom
spljo
j=0
_
k
j
_
(1)
kj
X
j
X
kj
.
Prvih nekoliko centralnih momenta je:
M
2
= X
2
X
2
,
M
3
= X
3
3X
2
X + 2 X
3
,
M
4
= X
4
4X
3
X + 6 X
2
X
2
3X
4
.
Osim centralnih momenata, deniraju se i pomo
cni momenti M
k
M
k
=
x
(x a)
k
(x),
za konstantni a = X i a = 0.
7.2. MOMENTI RASPODJELE 107
Za kontinuiranu slucajnu varijablu X cije su vrijednosti x (, +), svi se mo-
menti, centralni momenti, ocekivanje i varijanca deniraju na isti nacin kao i kod dis-
kretnih raspodjela, s tom razlikom da se sada umjesto zbrajanja po diskretnoj varijabli
x, izvodi integracija po kontinuiranoj varijabli x. Tako se npr. prosjecna vrijednost
(ocekivanje) denira kao
E(X) X =
x (x) dx,
(usporediti s (7.3) kod diskretnih varijabli). Varijanca se denira kao
2
V ar(X) =
(x X)
2
(x) dx,
(usporediti s (7.6) kod diskretnih varijabli), a momenti X
k
i centralni momenti M
k
kao
X
k
=
x
k
(x) dx,
M
k
=
(x X)
k
(x) dx.
M
2
= X
2
X
2
,
M
3
= X
3
3X
2
X + 2 X
3
, (7.8)
M
4
= X
4
4X
3
X + 6 X
2
X
2
3X
4
,
Koecijenti asimetrije i spljostenosti se deniraju jednako kao i kod diskretnih varijabli,
relacijama (7.7)
3
=
M
3
3
,
4
=
M
4
4
. (7.9)
Osim navedenih prosjecnih vrijednosti, cesto se koriste i slijedece velicine: medijan, mod
i kvartil.
Za diskretne varijable, medijan predstavlja onu vrijednost obiljezja koja ima svojstvo da
je broj elemenata sa vrijednosci manjom ili jednakom medijanu, jednak broju elemenata s
vrijednoscu vecom ili jednakom medijanu (tocka G na slici 7.2). Za kontinuirane varijable,
okomiti pravac kroz G dijeli povrsinu ispod krivulje raspodjele na dva jednaka dijela.
Primjer: 7.5 U gornjem primjeru to znaci da 23 ucenika treba imati ocjenu vecu ili
jednaku medijanu i isto toliko ih mora imati ocjenu manju ili jednaku od me-
dijana: dakle 7 odlicnih i 16 vrlo dobrih su iznad medijana, a 12 dobrih, 5
dovoljnih i 6 nedovoljnih su ispod medijana, dok je sam medijan ocjena dobar.
Mod je ona vrijednost statistickog obiljezja X koja je u skupu zastupljena najvecim brojem
clanova. U nasem primjeru to je ocjena 4, jer nju ima najveci broj elemenata skupa. Na
slici 7.2, to je tocka N (najveca vrijednost ordinate).
108 POGLAVLJE 7. OSNOVNI POJMOVI STATISTIKE
Slika 7.2: Ilustracija moda N, aritmeticke sredine M i medijana G.
x
(
x
)
N
M G
Postoje dva kvartila: donji i gornji. Donji se nalazi ispred medijana, a gornji iza njega.
Donji kvartil je apscisa one tocke za koju je zbroj frekvencija ispred nje, jednak zbroju
frekvencija iza nje do medijana. Gornji se kvartil denira simetricno: to je apscisa one
tocke za koju je zbroj frekvencija ispred nje (do medijana) jednak zbroju frekvencija iza
nje.
Kod nekih raspodjela se moze dogoditi da neke od ovih karakteristicnih vrijednosti budu
medusobno jednake.
Poglavlje 8
Raspodjele
8.1 Binomna raspodjela
Prisjetimo se Bernoullijevih
1
dogadaja i pokusa iz odjeljka 3.2: izvodi se niz pokusa koji
mogu okoncati na dva nacina - ili se dogadaj A ostvario ili nije, tj. postoje samo dva
moguca ishoda svakog pokusa. Vjerojatnost ostvarenja dogadaja, p, je konstantna tijekom
izvodenja pokusa. Broj ostvarenja dogadaja A u N pokusa je diskretna slucajna varijabla
koju cemo oznaciti s X, a njezine moguce vrijednosti cemo oznaciti s x = 0, 1, 2, , N.
x
P(x) =
dP(x) = 1.
109
110 POGLAVLJE 8. RASPODJELE
To je ujedno i vjerojatnost da se A ostvari Nx puta. Ovakva je raspodjela jednoznacno
odredena s tri broja: N, p i x i naziva se binomna raspodjela (naziv dolazi od toga
sto su moguca samo dva ishoda pokusa) s oznakom
B(N, p, x) =
_
N
x
_
p
x
q
Nx
.
Pomocu binomnog poucka (1.8), lako se vidi da je gornja raspodjela normirana na jedinicu
N
x=0
P(x) =
N
x=0
_
N
x
_
p
x
q
Nx
= (p + q)
N
= 1.
Ponekad, u numerickim racunima, izracunavanje faktorijela moze biti dugotrajan proces i
u tim je slucajevima zgodno vise faktorijele racunati pomocu nizih, koristeci jednostavnu
rekurzijsku relaciju koja povezuje P(x) sa P(x 1)
P(x) =
N!
x!(N x)!
p
x
q
Nx
,
P(x 1) =
N!
(x 1)!(N x + 1)!
p
x1
q
Nx+1
,
P(x)
P(x 1)
=
(x 1)!(N x + 1)!
x!(N x)!
p
x
q
Nx
p
x1
q
Nx+1
=
N x + 1
x
p
q
P(x) =
N x + 1
x
p
q
P(x 1). (8.2)
Svojstva binomne raspodjele:
Pogledajmo detaljnije neka svojstva binomne raspodjele, kao sto su njezini momenti,
koecijenti spljostenosti i asimetrije i sl.
Uvedimo pomocnu funkciju g(t), sa svojstvom da je g(1) = 1
g(t) = (tp + q)
N
. (8.3)
Izracunavanjem desne strane po binomnom poucku, dobivamo g(t) u obliku polinoma u t
g(t) =
_
N
0
_
q
N
+
_
N
1
_
pq
N1
t +
_
N
2
_
p
2
q
N2
t
2
+ +
_
N
N
_
p
N
t
N
=
N
x=0
_
N
x
_
p
x
q
Nx
t
x
.
Koecijente gornjeg polinoma prepoznajemo kao vjerojatnosti (8.1), pa mozemo pisati
g(t) = (q + tp)
N
=
N
x=0
P(x) t
x
. (8.4)
Izracunajmo sada prvi moment tj. ocekivanje E(X) za binomnu raspodjelu
E(X) X =
N
x=0
x P(x).
8.1. BINOMNA RASPODJELA 111
Gornji cemo zbroj izracunati pomocu funkcije g(t): derivirajmo (8.4) po t
d g
d t
= N(q + tp)
N1
p =
N
x=0
P(x) xt
x1
(8.5)
i zatim stavimo t = 1
pN =
N
x=0
x P(x), X = Np. (8.6)
To je rezultat koji smo vec ranije, relacijom (3.13), dobili na drukciji nacin.
Na slican cemo nacin izracunati i varijancu (7.6)
2
= X
2
X
2
=
N
x=0
x
2
P(x) (Np)
2
.
Pomnozimo (8.5) s t
Npt(q + tp)
N1
=
N
x=0
P(x) xt
x
i derivirajmo po t
Np(q + tp)
N1
+ Np
2
t(N 1)(q + tp)
N2
=
N
x=0
P(x) x
2
t
x1
. (8.7)
Za t = 1 gornja relacija postaje
X
2
=
N
x=0
x
2
P(x) = Np + N(N 1)p
2
. (8.8)
Sada mozemo izracunati varijancu
2
= X
2
X
2
= Np + Np
2
(N 1) N
2
p
2
= Npq. (8.9)
I ovo je rezultat koji smo vec ranije dobili u (3.15).
Za izracunavanje koecijenata
3
i
4
, trebat ce nam i X
3
i X
4
. Pomnozimo (8.7) s t
N
x=0
P(x) x
2
t
x
= Npt(q + tp)
N1
+ Np
2
t
2
(N 1)(q + tp)
N2
(8.10)
i derivirajmo po t
N
x=0
P(x) x
3
t
x1
= Np(q+tp)
N1
+3N(N1)p
2
t(q+tp)
N2
+N(N1)(N2)p
3
t
2
(q+tp)
N3
.
(8.11)
Za t = 1, gornja relacija daje treci moment
X
3
=
N
x=0
x
3
P(x) = Np + 3N(N 1)p
2
+ N(N 1)(N 2)p
3
.
112 POGLAVLJE 8. RASPODJELE
Za racun X
4
, treba najprije pomnoziti (8.11) s t
N
x=0
P(x) x
3
t
x
= Npt(q + tp)
N1
+ 3N(N 1)p
2
t
2
(q + tp)
N2
+ N(N 1)(N 2)p
3
t
3
(q + tp)
N3
,
a zatim derivirati po t
N
x=0
P(x) x
4
t
x1
= Np(q + tp)
N1
+ 7N(N 1)p
2
t(q + tp)
N2
+ 6N(N 1)(N 2)p
3
t
2
(q + tp)
N3
+ N(N 1)(N 2)(N 3)p
4
t
3
(q + tp)
N4
.
x=0
x
4
P(x) = Np + 7N(N 1)p
2
+ 6N(N 1)(N 2)p
3
+ N(N 1)(N 2)(N 3)p
4
.
Izravnim uvrstavanjem gornjih izraza za X
3
i X
4
, dobivamo koecijente
3
i
4
asimetrija
3
=
M
3
3
=
X
3
3X
2
X + 2 X
3
3
=
Npq(q p)
Npq
Npq
=
q p
Npq
,
spljo stenost
4
=
M
4
4
=
X
4
4X
3
X + 6 X
2
X
2
3X
4
4
=
Npq[1 + 3qp(N 2)]
NpqNpq
= 3 +
1 6qp
Npq
.
Vidimo da je koecijent asimetrije jednak nuli ako je q = p = 0.5 (slika 8.1), pozitivan
ako je q > p, tj. q > 0.5, a raspodjela je negativno asimetricna ako je q < p tj. q < 0.5.
Pogledajmo sada, postoje li uvjeti pod kojima binomna raspodjela cini monotono opa-
dajuci niz
P(0) P(1) P(2) P(x).
Ako u rekurziju (8.2), uvrstimo gornji zahtjev P(x) P(x 1), slijedi
P(x)
P(x 1)
=
N x + 1
x
p
q
1 x = 1, 2, , N
p
x
N + 1
.
Dakle, P(x) tvori opadajuci niz ako je, za svaki x, zadovoljena gornja nejednakost. Najjaci
uvjet dolazi od najmanjeg x, a to je x = 1 (jer rekurzija vrijedi za 1 x N),
p
1
N + 1
.
8.1. BINOMNA RASPODJELA 113
Slika 8.1: Binomna raspodjela (8.1) za N = 20 i nekoliko vrijednosti p.
0 5 10 15 20
x
0
0.05
0.1
0.15
0.2
0.25
P
(
x
)
p = 0.1
p = 0.5
p = 0.9
Uz gornji uvjet, binomna raspodjela monotono opada. Potrazimo sada, uvjet pod kojima
binomna raspodjela cini monotono rastuci niz
P(0) P(1) P(2) P(x).
Ako u rekurziju (8.2), uvrstimo gornji zahtjev P(x) P(x 1), slijedi
P(x)
P(x 1)
=
N x + 1
x
p
q
1 x = 1, 2, , N
p
x
N + 1
.
Vidimo da P(x) monotono raste,ako je, za svaki x, zadovoljena gornja nejednakost.
Najjaci uvjet dolazi od najveceg x = N,
p
N
N + 1
.
Tako smo dobili granice na p da bi binomna raspodjela bila ili monotono opadajuca ili
monotono rastuca funkcija od x.
1
N + 1
< p <
N
N + 1
.
Izvan tih granica, raspodjela nije monotona, vec postize najvecu vrijednost, za neki
odredeni x
P(x 1) P(x) P(x + 1).
Izracunajmo taj x, koristeci se rekurzijom (8.2)
P(x)
P(x 1)
=
N x + 1
x
p
q
1 Np + p x
P(x)
P(x + 1)
=
x + 1
N x
q
p
1 Np q x.
114 POGLAVLJE 8. RASPODJELE
Oba gornja uvjeta zajedno odreduju trazeni x
Np q x Np + p. (8.12)
x=0
x P(x), p =
1
N
.
N
x=0
x P(x). (8.13)
Ako u gornjoj relaciji ostavimo P(x), dobit cemo teorijsku vrijednost p =
1/3 za idealne kocke. Ono sto mi hocemo jeste da pomocu gornje relacije
izracunamo vjerojatnost za stvarne kocke kojima je izvoden pokus. Da bismo
to postigli, umjesto P(x) cemo uvrstiti relativne frekvencije t(x)/N i dobiti
p =
1
N N
.
N
x=0
x t(x) = = 0.3377 .
Ova vrijednost p se jasno razlikuje od teorijske 1/3 = 0.333333 . Ako sada
u izraz za raspodjelu vjerojatnosti binomne raspodjele uvrstimo p = 0.3377 i
q = 0.6623
N P
k
(x) = N
_
N
x
_
p
x
q
Nx
= 26 306
_
12
x
_
(0.3377)
x
(0.6623)
12x
,
dobit cemo vrijednosti oznacene u cetvrtom stupcu i koje su puno blize eksperi-
mentalno dobivenim vrijednostima (ovime se ujedno i potvrduje zakon velikih
brojeva).
8.1.1 Polinomna raspodjela kao poopcenje binomne
Promatra se pokus (proces) koji moze rezultirati ne na dva nacina kao u prethodnom
odjeljku, nego na Q razlicitih nacina koje cemo oznaciti s A
1
, A
2
, . . . , A
Q
, a koji se
medusobno iskljucuju (ako nastupi jedan, ne moze nijedan drugi). Vjerojatnost da pro-
ces rezultira s A
q
, cemo oznaciti s p
q
. Buduci da se kao rezultat procesa, sigurno mora
pojaviti jedan i samo jedan od A
q
-ova, to za vjerojatnosti p
q
mora vrijediti
Q
q=1
p
q
= 1.
116 POGLAVLJE 8. RASPODJELE
Sad se postavlja slijedece pitanje: ako se spomenuti pokus (proces) dogodi N puta, kolika
je vjerojatnost da ce se rezultat A
1
pojaviti N
1
puta, da ce se A
2
pojaviti N
2
puta itd.
Naravno da pri tome brojevi N
q
moraju zadovoljavati jednakost
Q
q=1
N
q
= N.
Jedan ishod niza od N pokusa se moze prikazati ovako
A
1
, . . . , A
1
,
. .
N
1
A
2
, . . . , A
2
,
. .
N
2
, A
Q
, . . . , A
Q
.
. .
N
Q
Buduci da je ishod svakog procesa neovisan o ishodu bilo kojeg drugog procesa (i vjero-
jatnost), to je gornjem nizu pridruzena vjerojatnost jednaka p
N
1
1
p
N
2
2
. . . p
N
Q
Q
. Buduci da
nas ne zanima redoslijed kojim se pojedini od N dogadaja ostvaruje, ista ce vjerojatnost
biti pridruzena i svakom nizu dobivenom svim mogucim razlicitim poretcima gornjeg niza.
Broj ovih razlicitih poredaka se dobije na slijedeci nacin: N elemenata se moze poslagati
na N! razlicitih nacina. No, ako je od tih N elemenata njih N
1
istih, onda medusobne
permutacije tih istih elemenata (a kojih ima N
1
!) nece dati novi poredak. Ove permu-
tacije istih elemenata treba odracunati, pa ce sada ukupni broj razlicitih poredak biti
jednak N!/N
1
!. Ako osim grupe od N
1
istih elemenata postoje jos i grupe od N
2
, N
3
, itd.
istih elemenata, ni njihove permutacije nece dati razlicit poredak, pa je zato zakljucak da
postoji
N!
N
1
! N
1
! N
Q
!
razlicitih nacina na koji moze rezultirati N procesa sa istom vjerojatnoscu p
N
1
1
p
N
2
2
. . .p
N
Q
Q
.
Prema pravilu o zbrajanju vjerojatnosti, vjerojatnost da se dogodi bilo koji od njih je dana
sa
P(N
1
, N
2
, . . . , N
Q
) =
N!
N
1
! N
1
! N
Q
!
p
N
1
1
p
N
2
2
. . . p
N
Q
Q
.
Gornji je izraz upravo koecijent u razvoju N-te potencije polinoma
(p
1
+ p
2
+ + p
Q
)
N
,
odakle i potjece naziv raspodjele. Ocito, za Q = 2, gornja se raspodjela svodi na binomnu.
8.2 Poissonova raspodjela
Krenimo od binomne raspodjele
P(x) =
_
N
x
_
p
x
q
Nx
u kojoj cemo pretpostaviti da se radi o vrlo rijetkim dogadajima, tako da je vjerojat-
nost p vrlo mala. Istovremeno cemo promatrati vrlo velik broj pokusa, N, uz
uvjet da je umnozak male velicine p i velike N, konstantan
N , p 0, N p = const. (8.14)
8.2. POISSONOVA RASPODJELA 117
Sada se binomna raspodjela dobiva u obliku
P(x) =
_
N
x
_ _
N
_
x
_
1
N
_
Nx
.
Prema pretpostavci je << N (rijetki dogadaji). Pogledajmo cemu je jednak gornji izraz
u toj granici.
P(x) =
N!
x!(N x)!
_
N
_
x
_
1
N
_
Nx
=
x
x!
_
1
N
_
N
N!
(N x)!N
x
_
1
N
_
x
.
Uvrstavanjem Stirlingove formule (3.4): M!
2MM
M
e
M
, za N! i (Nx)!, dobivamo
P(x) =
x
x!
_
1
N
_
N
2NN
N
e
N
2(N x)(N x)
Nx
e
N+x
N
x
_
1
N
_
x
=
x
x!
_
1
N
_
N
1
_
1
x
N
_
Nx+
1
2
_
1
N
_
x
e
x
.
Prema deniciji eksponencijalne funkcije, je
lim
N
_
1
N
_
N
= e
. (8.15)
Imajuci to u vidu, mozemo izvesti granicni prijelaz N u gornjem razlomku
lim
N
_
1
N
_
x
= 1,
lim
N
_
1
x
N
_
N
= e
x
,
lim
N
_
1
x
N
_
x+
1
2
= 1.
Uvrstavanjem u izraz za P(x), dobivamo
P(x) =
x
x!
e
e
x
e
x
.
Tako smo konacno dosli do Poissonove raspodjele
3
(slika 8.2)
P(x) = e
x
x!
.
(8.16)
Lako je vidjeti da je raspodjela normirana
x=0
P(x) = e
x=0
x
x!
= e
= 1.
Kada ocekujemo da cemo naci takvu raspodjelu? Gornji uvjet iscezavanja p-a znaci da
3
Otkrio ju je Poisson 1837. Neovisno o njemu, do istog je otkrica 1898. dosao i njemacki matematicar poljskog podrijetla
Bortkiewicz (njem. Bortkewitsch).
118 POGLAVLJE 8. RASPODJELE
Slika 8.2: Poissonova raspodjela za N = 20 i nekoliko vrijednosti .
0 5 10 15 20
n
0
0.2
0.4
0.6
0.8
P
(
n
)
= 0.3
= 1.0
= 3.0
= 5.0
= 7.0
se radi o jako rijetkim dogadajima (u svakom slucaju, broj dogadaja od intersa je puno
manji od ukupnog broja dogadaja) kao sto su samoubojstva, visestruki porodi, itd., pa
se ponekad naziva i zakon malih brojeva.
Izracunajmo ocekivanje i varijancu Poissonove raspodjele.
E(X) = X = e
x=0
x
x
x!
= e
x=1
x
x
x!
= e
x=1
x
(x 1)!
,
zato jer je clan s x = 0, jednak nuli. Uvodimo novu varijablu
m
0
= x
1
1
u kojoj je
X = e
m=0
m+1
m!
= e
x=0
x
x!
= e
= , (8.17)
kao sto se to i vidi sa slike 8.2. Slicno racunamo i drugi moment
X
2
= e
x=0
x
2
x
x!
= e
x=1
x
x
(x 1)!
.
Ponovo uvodimo varijablu m = x 1
X
2
= e
m=0
(m + 1)
m+1
m!
= e
x=0
x
x
x!
+ e
x=0
x
x!
= X + =
2
+ ,
V ar(X) = X
2
X
2
= .
Primjecujemo da su i varijanca i ocekivanje jednaki . Ove vrijednosti za ocekivanje i
varijancu Poissonove raspodjele se mogu dobiti i kao granicni prijelaz (8.14) odgovarjucih
8.2. POISSONOVA RASPODJELA 119
vrijednosti binomne raspodjele (8.6) i (8.9)
E
P
(X) = lim
N,p0
Np
E
B
(X) = lim
N,p0
Np
Np = ,
V ar
P
(X) = lim
N,p0
Np
V ar
B
(X) = lim
N,p0
Np
Npq = Np(1 p) = .
Izracunajmo jos i X
3
i X
4
, a zatim i koecijenete asimetrije i spljostenosti.
X
3
= e
x=0
x
3
x
x!
= e
x=1
x
2
x
(x 1)!
= e
m=0
(m+ 1)
2
m+1
m!
= e
x=0
(x
2
+ 2x + 1)
x
x!
= (X
2
+ 2X + 1) = (
2
+ 3 + 1),
X
4
= e
x=0
x
4
x
x!
= e
x=1
x
3
x
(x 1)!
= e
m=0
(m+ 1)
3
m+1
m!
= e
x=0
(x
3
+ 3x
2
+ 3x + 1)
x
x!
= (X
3
+ 3X
2
+ 3X + 1) = (
3
+ 6
2
+ 7 + 1).
asimetrija
3
=
M
3
3
=
X
3
3X
2
X + 2X
3
3
=
3
+ 3
2
+ 3
3
3
2
+ 2
3
=
1
,
spljo stenost
4
=
M
4
4
=
X
4
4X
3
X + 6X
2
X
2
3X
4
4
=
4
+ 6
3
+ 7
2
+ 4
4
12
3
4
2
+ 6
4
+ 6
3
3
4
2
= 3 +
1
.
Asimetrija je uvijek pozitivna, a spljostenost tezi normalnoj spljostenosti, kada raste.
primjeri i prilagodba empirijskim podacima
Primjer: 8.2 Navedimo primjer koji potjece od Bortkiewicza (njem. Bortkewitscha), a
koji se odnosi na statistiku o vojnicima koji su poginuli uslijed udarca konja, u
razdoblju od 1875. do 1894. godine. Ovo je razdoblje podijeljeno na 200 inter-
vala, pri cemu je u 109 intervala uoceno 0 smrtnih slucajeva, u 65 intervala
je uocen 1 slucaj, u 22 intervala su uocena 2 slucaja, u 3 intervala su uocena
3 slucaja i u 1 intervalu su uocena 4 smrtna slucaja. Treba provjeriti radi li
se tu o Poissonovoj raspodjeli?
R: Slucajna varijabla X je broj smrtnih slucajeva, a njezine vrijednosti su
x = 0, 1, 2, 3, 4. Tezine pojedinih vrijednosti su t
0
= 109, t
1
= 65, t
2
= 22, t
3
=
120 POGLAVLJE 8. RASPODJELE
3, t
4
= 1. Zbroj tezina daje ukupan broj dogadaja N = 200. Poissonova
je raspodjela odredena konstantom , pa cemo zato najprije, pomocu (8.17),
izracunati
= X =
0 109 + 1 65 + 2 22 + 3 3 + 4 1
200
=
122
200
= 0.61 .
Pomocu gornjega i (8.16 ) mozemo izracunati teorijsku tezinu N P(x)
N P(x) = 200 e
0.61
0.61
x
x!
i usporediti ju s empirijski dobivenim tezinama t
x
(donja tablica):
x t
x
N P(x)
0 109 108.7 109
1 65 66, 2 66
2 22 20.2 20
3 3 4.1 4
4 1 0.6 1
5 0 0.1 0
Opaza se vrlo dobro slaganja eksperimentalnih i teorijskih rezultata, sto potvrduje
pretpostavku da se radi o Poissonovoj raspodjeli.
8.3 Hipergeometrijska raspodjela
Ovo je raspodjela koju cemo vise koristiti kasnije u teoriji uzoraka.
Promatra se skup od N elemenata (npr. atoma ili molekula nekog plina), od kojih njih
M ima odredeno svojstvo (npr. spin ili brzinu odredenog iznosa), dok ostalih N M
elemenata nema to svojstvo. Oznacimo s p = M/N vjerojatnost da odabrani element
ima to svojstvo. Ako iz ovog skupa nasumice odaberemo N elemenata, zanima nas kolika
je vjerojatnost P(x) da se medu njima nade x elemenata sa navedenim svojstvom
4
?
Kao sto znamo, postoji
_
N
N
_
razlicitih nacina da se od N elemenata odabere uzorak od
N elemenata. Ukupan broj elemenata koji ima navedeno svojstvo je pN. Odabrati x od
pN elemenata je moguce izvesti na
_
pN
x
_
nacina. Preostalih Nx elemenata uzorka, treba
odabrati iz onog dijela N pN, pocetnog skupa koji nema navedeno svojstvo. Taj je
odabir moguce izvesti na
_
NpN
Nx
_
nacina. Svaki odabir elemenata sa navedenim svojstvom
se moze kombinirati sa svakim odabirom elemenata bez navedenog svojstva, sto vodi na
4
Usporediti ovo pitanje s primjerom sa strane 11.
8.3. HIPERGEOMETRIJSKA RASPODJELA 121
traznu vjerojatnost u obliku
P(x) =
broj uzoraka s x elemenata koji imaju navedeno svojstvo
ukupan broj uzoraka od N elemenata
=
_
M
x
_ _
NM
Nx
_
_
N
N
_ =
_
pN
x
_ _
NpN
Nx
_
_
N
N
_
=
(pN)!(N pN)!N!(N N)!
x!(pN x)!(N x)!(N pN N + x)!N!
=
(pN)!(qN)!N!(N N)!
x!(pN x)!(N x)!(qN N + x)!N!
,
pri cemu varijabla x poprima jednu od vrijednosti iz niza
x = 0, 1, 2, , min{N, pN}.
Izraz
P(x) =
(pN)!(qN)!N!(N N)!
x!(pN x)!(N x)!(qN N + x)!N!
(8.18)
se naziva hipergeometrijska raspodjela. Ona je jednoznacno odredena brojevima
N, p i x, pa se zato oznacava s H(N, p, N).
rekurzija:
Slicno kao i kod binomne raspodjele, koja je zadana faktorijelima, i ovdje mozemo lako
naci rekurziju izmedu P(x) i P(x 1)
P(x)
P(x 1)
=
(x 1)!(pN x + 1)!(N x + 1)!(qN N + x 1)!
x!(pN x)!(N x)!(qN N + x)!
=
(pN x + 1)(N x + 1)
x (qN N + x)
P(x) =
(pN x + 1)(N x + 1)
x(qN N + x)
P(x 1).
veza s hipergeometrijskom funkcijom:
Oznacimo s
A =
(qN)!(N N)!
(qN N)!N!
.
Tada je
P(x) = A
N!(pN)!(qN N)!
x!(N x)!(pN x)!(qN N + x)!
.
U gornjem obliku P(x) se moze usporediti s hipergeometrijskom funkcijom pozna-
tom iz vise analize ([13], str. 557), koja je denirana beskonacnim redom
F(, , ; u) = 1 +
1
u +
( + 1) ( + 1)
1 2 ( + 1)
u
2
+
( + 1)( + 2) ( + 1)( + 2)
1 2 3 ( + 1)( + 2)
u
3
+ .
122 POGLAVLJE 8. RASPODJELE
Uz slijedece preslikavanje,
= N,
= pN,
= qN N + 1,
omjer P(x)/A daje koecijente razvoja F(, ; u)
F(, ; u) =
x=0
P(x)
A
u
x
.
Evo nekoliko prvih clanova:
P(x = 0)
A
=
N!(pN)!(qN N)!
0!N!(pN)!(qN N)!
= 1,
P(x = 1)
A
=
N!(pN)!(qN N)!
1!(N 1)!(pN 1)!(qN N + 1)!
=
N(pN)
qN N + 1
()
,
P(x = 2)
A
=
N!(pN)!(qN N)!
2!(N 2)!(pN 2)!(qN N + 2)!
=
N(N 1)(pN)(pN 1)
2(qN N + 1)(qN N + 2)
( 1) ()( 1)
2( + 1)
=
( + 1) ( + 1)
2( + 1)
,
itd.
normiranje i momenti:
Da bismo pokazali normiranost hipergeometrijske raspodjele i izracunali njezine momente,
trebat ce nam Eulerova formula
min{D,s}
d=0
_
D
d
_ _
S D
s d
_
=
_
S
s
_
. (8.19)
Pomocu gornjeg izraza vidimo da je
min{N, pN}
x=0
P(x) =
1
_
N
N
_
min{N, pN}
x=0
_
pN
x
_ _
N pN
N x
_
=
1
_
N
N
_
_
N
N
_
= 1,
i raspodjela je nomirana. Izracunajmo jos i ocekivanje i varijancu:
X =
min{N, pN}
x=0
x P(x) =
1
_
N
N
_
min{N, pN}
x=0
x
_
pN
x
_ _
N pN
N x
_
=
1
_
N
N
_
min{N, pN}
x=1
x
(pN)!
x!(pN x)!
_
N pN
N x
_
=
1
_
N
N
_
min{N, pN}
x=1
pN (pN 1)!
(x 1)!(pN x)!
_
N pN
N x
_
.
8.3. HIPERGEOMETRIJSKA RASPODJELA 123
Sada se uvodi nova varijabla zbrajanja m = x 1
X =
pN
_
N
N
_
min{N1,pN1}
m=0
_
pN 1
m
_ _
N pN
N (m + 1)
_
=
pN
_
N
N
_
min{N1,pN1}
m=0
_
pN 1
m
_ _
N 1 (pN 1)
N 1 m
_
= (8.19) =
pN
_
N
N
_
_
N 1
N 1
_
= pN
Za racun varijance, pocnimo sa
X(X 1) =
min{N, pN}
x=0
x (x 1) P(x) =
1
_
N
N
_
min{N, pN}
x=2
x (x 1)
_
pN
x
_ _
N pN
N x
_
=
1
_
N
N
_
min{N, pN}
x=2
x (x 1)
(pN)!
x!(pN x)!
_
N pN
N x
_
=
1
_
N
N
_
min{N, pN}
x=2
pN (pN 1) (pN 2)!
(x 2)!(pN x)!
_
N pN
N x
_
=
pN (pN 1)
_
N
N
_
min{N2, pN2}
m=0
_
pN 2
m
_ _
N pN
N m2
_
=
pN (pN 1)
_
N
N
_
min{N2, pN2}
m=0
_
pN 2
m
_ _
N 2 (pN 2)
N 2 m
_
= (8.19) =
pN (pN 1)
_
N
N
_
_
N 2
N 2
_
X
2
X =
pN (pN 1) (N 1)
N 1
.
Iz prethodnog racuna znamo da je X = pN, pa sada mozemo lako izracunati
2
= X
2
X
2
= pqN
N N
N 1
.
Kao sto je pokazano u nastavku teksta, iz hipergeometrijske se raspodjele dobije binomna
u granici N ; i zaista, ako u gornjem izrazu za varijancu izvedemo taj limes, dobit
cemo varijancu binomne raspodjele:
2
= pqN.
Slicno se racunaju i visi momenti potrebni za dobivanje koecijenata asimetrije i sp-
ljostenosti.
veza s binomnom raspodjelom:
Pokazimo da u granici kada N , hipergeometrijska raspodjela prelazi u binomnu.
124 POGLAVLJE 8. RASPODJELE
Primjenom Stirlingove formule N!
2NN
N
e
N
, na P(x) dobivamo
lim
N
P(x) = lim
N
(pN)!(qN)!N!(N N)!
x!(pN x)!(N x)!(qN N + x)!N!
=
N!
x!(N x)!
lim
N
(pN)!(qN)!(N N)!
(pN x)!(qN N + x)!N!
=
_
N
x
_
lim
N
2pN(pN)
pN
e
pN
2(pN x)(pN x)
pNx
e
pN+x
2qN(qN)
qN
e
qN
2(qN N + x)(qN N + x)
qNN+x
e
qN+Nx
2(N N)(N N)
NN
e
N+N
2NN
N
e
N
.
Nakon skracivanja, dobije se
lim
N
P(x) =
_
N
x
_
p
x
q
Nx
lim
N
_
1
N
N
_
N
_
1
N
N
_
N+
1
2
_
1
x
pN
_
pN
_
1
x
pN
_
x+
1
2
_
1
Nx
qN
_
qN
_
1
Nx
qN
_
N+x+
1
2
.
Gornji su limesi redom jednaki
lim
N
_
1
N
N
_
N
= e
N
,
lim
N
_
1
N
N
_
N+
1
2
= 1,
lim
N
_
1
x
pN
_
pN
= e
x
,
lim
N
_
1
x
pN
_
x+
1
2
= 1,
lim
N
_
1
N x
qN
_
qN
= e
N+x
,
lim
N
_
1
N x
qN
_
N+x+
1
2
= 1.
Uvrstavanje gornjih limesa, vodi na
lim
N
P(x) =
_
N
x
_
p
x
q
Nx
.
Dakle, binomnu raspodjelu smo dobili kao granicni slucaj N , hipergeometrijske
raspodjele.
8.4. GAUSSOVA ILI NORMALNA RASPODJELA 125
Primjer: 8.3 Osnovni se skup sastoji od tri bijele i pet crnih kuglica. Treba naci hiper-
geometrijsku raspodjelu bijelih kuglica za uzorak od cetiri clana.
R: Osnovni skup ima N = 8 elemenata (kuglica). Uoceno obiljezje (bi-
jelu boju) imaju M = 3 elementa. Vjerojatnost p = M/N = 3/8. Velicina
uzorka je N = 4. Hipergeometrijska raspodjela je dana sa (8.18)
P(x) =
(pN)!(qN)!N!(N N)!
x!(pN x)!(N x)!(qN N + x)!N!
=
3! 5! 4! 4!
x! (3 x)! (4 x)! (1 +x)! 8!
za x = 0, 1, 2, 3 = M.
P(x = 0) =
3! 5! 4! 4!
3! 4! 8!
=
1
14
P(x = 1) =
3! 5! 4! 4!
2! 3! 2! 8!
=
6
14
P(x = 2) =
3! 5! 4! 4!
2! 2! 3! 8!
=
6
14
P(x = 3) =
3! 5! 4! 4!
3! 4! 8!
=
1
14
Ocito je vjerojatnost normirana
3
x=0
P(x) = 1.
Srednja vrijednost i varijanca su
X =
3
x=0
x P(x) =
0 1 + 1 6 + 2 6 + 3 1
14
=
21
14
= 1.5 = pN
2
= X
2
X
2
=
3
x=0
x
2
P(x)
_
3
x=0
x P(x)
_
2
=
39
14
_
3
2
_
2
=
15
28
= pqN
N N
N 1
.
8.4 Gaussova ili normalna raspodjela
S Gaussovom smo se raspodjelom vec upoznali na str. 49 , gdje smo ju dobili kao granicnu
vrijednost binomne raspodjele, kada N , relacija (3.6)
lim
N
_
N
x
_
p
x
q
Nx
=
1
2Npq
e
(xNp)
2
2Npq
.
Kako smo za binomnu raspodjelu, relacijama (8.6) i (8.9) vec dobili
X = Np,
2
= Npq,
126 POGLAVLJE 8. RASPODJELE
to gornji limes mozemo napisati i kao
lim
N
_
N
x
_
p
x
q
Nx
=
1
2
e
(xX)
2
2
2
.
Shvatimo li X kao kontinuiranu varijablu s vrijednostima x, koje se mijenjaju od do
+, tada je
dP(x) =
1
2
e
(xX)
2
2
2
dx
vjerojatnost da slucajna varijabla X poprimi vrijednost iz intervala (x, x +dx). Gustoca
vjerojatnosti
(x) =
dP(x)
dx
=
1
2
e
(xX)
2
2
2
(8.20)
se zove Gaussova ili normalna raspodjela gusto
(
x
)
u slijedece relacije
1 =
(x) d x,
X =
x (x) d x,
2
=
(x X)
2
(x) d x.
5
Otkrili su ju Moivre, Laplace i Gauss, neovisno jedan o drugome, na prijelazu iz XV III XIX stoljece.
8.4. GAUSSOVA ILI NORMALNA RASPODJELA 127
Zbog parnosti gustoce vjerojatnosti u odnosu na tocku x = X,
(x = X + h) = (x = X h),
svi su neparni centralni momenti jednaki nuli: M
1
= M
3
= M
5
= = 0, a
parni
M
2k
=
1
(x X)
2k
e
(xX)
2
2
2
d x
su povezani slijedecom rekurzijom: uvedimo novu varijablu t = (x X)/
M
2k
=
2k
t
2k
e
t
2
2
d t.
Parcijalnom integracijom
d
d t
_
t
2k1
e
t
2
2
_
= (2k 1)t
2k2
e
t
2
2
+ t
2k1
(t) e
t
2
2
t
2k
e
t
2
2
= (2k 1)t
2k2
e
t
2
2
d
d t
_
t
2k1
e
t
2
2
_
dolazi se do
M
2k
=
2k
_
d
_
t
2k1
e
t
2
2
_
+ (2k 1)t
2k2
e
t
2
2
_
dt
=
2k
2
_
t
2k1
e
t
2
2
_
+
. .
= 0
+(2k 1)
2
2k2
t
2k2
e
t
2
2
dt
. .
= M
2(k1)
.
Prvi clan desne strane je jednak nuli, a drugi je srazmjeran s M
2k2
, sto daje rekurziju
M
2k
= (2k 1)
2
M
2(k1)
= (2k 1) (2k 3)
4
M
2(k2)
= (2k 1) (2k 3) (2k 5)
6
M
2(k3)
.
.
.
=
(2k)!
2
k
k!
2k
.
s ocitom pocetnom vrijednoscu (normiranjem) M
0
= 1
k = 1 M
2
=
2
M
0
=
2
,
k = 2 M
4
= 3
2
M
2
= 3
4
,
itd.
Uvrstavanjem u (7.8) i (7.9), za koecijent asimetrije se dobije
3
= 0, tj. raspodjela
nije asimetricna, nego je uvijek simetricna. Za koecijent spljostenosti se dobije
4
= 3
(buduci da se Gaussova raspodjela naziva i normalna, to se njoj pridruzena spljostenost
naziva normalna spljostenost).
Primjer: 8.4 navesti primjere Vranic str 182 i dalje
R:
128 POGLAVLJE 8. RASPODJELE
8.5 Gama raspodjela
Da bi se uvela gama raspodjela, potrebno je najprije se upoznati s gama funkcijom
6
(n),
koja je denirana
7
integralom
(n) =
+
0
x
n1
e
x
d x. (8.21)
Primjetimo odmah da je, prema gornjoj deniciji, (1) = 1. Parcijalnom integracijom
(8.21), dolazi se do rekurzije
d
d x
_
x
n1
e
x
_
= (n 1)x
n2
e
x
x
n1
e
x
,
(n) = (n 1)
+
0
x
n2
e
x
d x
+
0
d
d x
_
x
n1
e
x
_
d x
= (n 1) (n 1)
_
x
n1
e
x
_
+
0
= (n 1) (n 1). (8.22)
Za prirodni broj n, uz (1) = 1, i uzastopnu primjenu (8.22), dolazi se do veze izmedu
gama funkcije i funkcije faktorijela
(n) = (n 1) (n 2) 3 2 1 = (n 1)!.
Gama funkcija predstavlja poopcenje pojma faktorijela sa prirodnih na realne brojeve.
Prijelazom na varijablu t, dobiva se gama funkcija u ekvivalentnom obliku
x = t
2
, dx = 2tdt,
sto vodi na
(n) = 2
+
0
t
2n1
e
t
2
d t. (8.23)
(1/2) = 2
+
0
e
x
2
dx =
.
Gornji rezultat i rekurzija (8.22), daju
(3/2) =
1
2
, (5/2) =
3
4
, (7/2) =
15
8
, .
Pored gama funkcije denirane izrazom (8.21) (koja se zove jos i potpuna gama funkcija),
denira se i nepotpuna gama funkcija, slijedecim integralom
I(x, n) =
1
(n)
x
0
y
n1
e
y
d y. (8.24)
6
Gama funkcija se naziva i Eulerov integral druge vrste.
7
Vidjeti npr. [7]
8.5. GAMA RASPODJELA 129
Osim u predintegralnom mnozitelju, razlika u odnosu na (8.21) je u gornjoj granici inte-
gracije: ovdje je ona konacna. Takoder je ocito
lim
x
I(x, n) = 1.
Sada smo spremni denirati i gama raspodjelu. Ako se promatra kontinuirana slucajna
varijabla X cije se vrijednosti x nalaze u intervalu (0, +) i cija je gustoca vjerojatnosti
dana sa
(x) =
1
(n)
x
n1
e
x
, (8.25)
za sve vrijednosti slucajne varijable iz intervala (0, +), kaze se da je X opisana gama
raspodjelom. Prirodni broj n u gornjoj raspodjeli se zove stupanj slobode raspo-
djele. Na slici 8.4 je prikazana gama raspodjela za nekoliko vrijednosti n.
Slika 8.4: Gama raspodjela za nekoliko vrijednosti n. Za male vrijednosti argumenta, dominira potencija,
dok za vece vrijednosti prevladava eksponencijalno prigusenje.
0 2 4 6 8 10
x
0
0.1
0.2
0.3
0.4
(
x
)
n = 2
n = 4
n = 6
normiranje i momenti:
Nulti moment je normiranje
X
0
=
0
(x) dx =
1
(n)
0
x
n1
e
x
dx = 1.
Ovime je pokazano da je gustoca vjerojatnosti normirana. Izracunajmo prva dva momenta
130 POGLAVLJE 8. RASPODJELE
koji daju ocekivanje i varijancu:
X =
0
x (x) dx =
1
(n)
0
x x
n1
e
x
dx =
(n + 1)
(n)
=
n (n)
(n)
= n.
Racun drugog momenta se odvija na slican nacin:
X
2
=
0
x
2
(x) dx =
1
(n)
0
x
n+1
e
x
dx
=
(n + 2)
(n)
=
(n + 1) (n + 1)
(n)
=
(n + 1) n (n)
(n)
= n(n + 1).
Sada vidimo da je varijanca
V ar(X)
2
= X
2
X
2
= n
jednaka ocekivanju.
Momenti X
3
i X
4
daju koecijente asimetrije i spljostenosti, a jednostavno ih je
izracunati gornjim postupkom
X
3
=
0
x
3
(x) dx =
1
(n)
0
x
n+2
e
x
dx
=
(n + 3)
(n)
= n(n + 1) (n + 2)
X
4
=
0
x
4
(x) dx =
1
(n)
0
x
n+3
e
x
dx
=
(n + 4)
(n)
= n(n + 1) (n + 2) (n + 3).
ili funkcijom izvodnicom iz slijedeceg odjeljka (relacija (9.13))
X
3
=
d
3
d t
3
g
X
(t)
t=0
= n(n + 1)(n + 2),
X
4
=
d
4
d t
4
g
X
(t)
t=0
= n(n + 1)(n + 2)(n + 3)
ili, opcenito, X
k
= n(n + 1)(n + 2) . . . (n + (k 1)). Sada su, prema (7.7), koecijenti
asimetrije
3
i spljostenosti
4
jednaki
3
=
M
3
3
=
X
3
3X
2
X + 2 X
3
3
= =
2
4
=
M
4
4
=
X
4
4X
3
X + 6 X
2
X
2
3X
4
4
= = 3 +
6
n
.
Za velike vrijednosti n, asimetrija iscezava, a spljostenost tezi normalnoj vrijednosti.
veza s Poissonovom raspodjelom:
Pokazimo vezu izmedu gama i Poissonove raspodjele. Krenimo od gama raspodjele (8.25)
(x, n) =
1
(n)
x
n1
e
x
8.5. GAMA RASPODJELA 131
i zamjenimo x sa
(x, n) (, n) =
1
(n)
n1
e
.
Zamjenimo sada jos i n sa x + 1
(, n) (, x + 1) =
1
(x + 1)
x
e
=
1
x!
x
e
,
a to je upravo Poissonova raspodjela (8.16) (za prirodan broj x).
veza s Gaussovom raspodjelom:
Pokazimo sada vezu izmedu Gaussove (normalne) i gama raspodjele. Ako je varijabla x
raspodjeljena prema Gaussovoj razdiobi, tada je, prema (8.20),
dP
G
(x) =
1
2
e
1
2
(
xX
)
2
dx, x (, +)
vjerojatnost da varijabla x poprimi vrijednost iz intervala (x, x + dx) za bilo koji x iz
intervala (, +). Isto tako je i vjerojatnost da varijabla y koja se ravna po gama
raspodjeli (8.25) poprimi vrijednost iz intervala (y, y+dy) za bilo koji y iz (0, ), jednaka
dP
(n, y) =
1
(n)
y
n1
e
y
dy y (0, +).
Povezimo sada sa x i y relacijom
y =
1
2
_
x X
_
2
.
Kada se x mijenja od do +, y dva puta prode intervalom od 0 do +. Za x > X
je
x = X +
2y, dx =
dy
2y
.
Uvrsti li se gornja zamjena u dP
G
(x), dobiva se
1
2
y
1/2
e
y
dy.
No, isti ovakav doprinos dolazi i od x-eva manjih od X, pa je sve skupa
dP
G
(x) = 2
1
2
y
1/2
e
y
dy.
Prepoznamo li (1/2) =
_
n =
1
2
,
1
2
[(x X)/]
2
_
.
132 POGLAVLJE 8. RASPODJELE
Ovime je dokazan slijedeci
Teorem: Ako je x slucajna varijabla raspodjeljena po Gaussovoj raspodjeli sa sred-
njom vrijednoscu X i standardnom devijacijom , tada je varijabla
1
2
(x
X)
2
/
2
raspodjeljeno po gama raspodjeli sa stupnjem slobode n =
1
2
.
Neka je zadano N nezavisnih slucajnih varijabli X
n
raspodjeljenih po Gaussovoj ras-
podjeli s X
n
= 0 za sve n = 1, 2, , N i standardnim devijacijama jednakim
2
n
. Prema
gornjem teoremu, vrijednosti slucajne varijable x
2
n
/(2
2
n
) raspodjeljene su po gama raspo-
djeli
(1/2, x
2
n
/(2
2
n
)). U odjeljku o funkciji izvodnici se dokazuje, relacijom (9.15), da
je
(n, X)
(m, Y ) . . .
(l, Z) =
(n + m + + l, X + Y + + Z).
Identiciramo li redom varijable X, Y, , Z kao
X
x
2
1
2
2
1
, Y
x
2
2
2
2
2
, Z
x
2
N
2
2
N
,
uz n = m = = l = 1/2, tada je, prema gore recenom, slucajna varijabla
8
2
/2,
denirana sa
2
2
=
1
2
N
n=1
x
2
n
2
n
raspodjeljena po gama raspodjeli s parametrom N/2. Vjerojatnost da
1
2
2
poprimi
vrijednost iz intervala (
1
2
2
,
1
2
2
+ d
1
2
2
) je jednaka
dP(N/2,
2
/2) =
1
(N/2)
_
2
/2
_
N/21
e
1
2
2
d(
2
/2). (8.26)
To je rezultat koji cemo koristiti u odjeljku o testovima (13.3.1).
8.6 t raspodjela
t raspodjela:
Slucajna varijabla t (, +) je raspodjeljena po t-raspodjeli, kada je njezina
gustoca vjerojatnosti dana sa
(t) = C
0
(k)
_
1 +
t
2
k
_
(1+k)/2
, k = 1, 2, 3, . (8.27)
8
Da smo zapoceli s Gaussovim raspodjelama kojima je X
n
= 0, tada bi se
2
sada denirao kao
2
=
N
n=1
(x X
n
)
2
2
n
.
8.7. EKSPONENCIJALNA RASPODJELA 133
gdje je parametar k prirodan broj (koji se naziva i stupanj slobode), a
C
0
(k) =
_
1+k
2
_
_
k
2
_
k
.
Iz gornjeg izraza za gustocu vjerojatnosti se vidi da je ona simetricna u odnosu na pravac
t = 0
(t) = (t).
Na slici 8.5 je prikazana t-raspodjela usporedena s Gaussovom raspodjelom (t = 0,
2
=
1). Buduci da je (t) parna funkcija od t, to je t (t), neparna funkcija i zato su svi
Slika 8.5: Usporedba t-raspodjele za k = 3 i Gaussove raspodjele za t = 0,
2
t
= 1.
-4 -2 0 2 4
t
0
0.1
0.2
0.3
0.4
0.5
(
t
)
t - raspodjela
Gaussova raspodjela
neparni momenti jednak nuli
t
2n+1
=
t
2n+1
(
t) d t = 0.
Za racun parnih momenata raspodjele, koristit cemo relaciju (3.241.4) iz [8]
0
x
1
dx
(p + qx
)
n+1
=
1
p
n+1
_
p
q
_
/
(/) (n + 1 /)/(n + 1), 0 < / < n + 1.
sto vodi na izraz za parne momente
t
2n
= k
n
1 3 5 . . . (2n 1)
(k 2)(k 4) . . . (k 2n)
, k > 2n.
8.7 Eksponencijalna raspodjela
8.8 Geometrijska raspodjela
8.9 Logaritamsko - Gaussova raspodjela
dovrsiti
134 POGLAVLJE 8. RASPODJELE
8.10 Jednolika raspodjela
Posebno jednostvan oblik raspodjele (slika ) jeste jednolika raspodjela koja ima istu vrijed-
Slika 8.6: Jednolika raspodjela.
nost u cijelom podrucju vrijednosti kontinuirane slucajne varijable X. Neka X poprima
vrijednosti u intervalu x (a, a). Iz uvjeta normiranja vjerojatnosti, tada se lako dobiva
jednolika raspodjela
(x) =
1
2a
. (8.28)
Izracunajmo momente: zbog parnosti funkcije raspodjele (8.28), svi neparni momenti su
jednaki nuli
X
2k+1
=
+a
a
x
2k+1
1
2a
dx =
1
2a
x
2k+2
2k + 2
+a
a
= 0, k = 0, 1, 2, .
Parni su momenti jednaki
X
2k
=
+a
a
x
2k
1
2a
dx =
1
2a
x
2k+1
2k + 1
+a
a
=
a
2k
2k + 1
, k = 0, 1, 2, .
Tako su npr. X
2
= a
2
/3 i X
4
= a
4
/5. Koecijenti asimetrije i spljostenosti su
3
=
M
3
3
=
X
3
3X
2
X + 2X
3
3
= 0,
4
=
M
4
4
=
X
4
4X
3
X + 6X
2
X
2
3X
4
4
=
X
4
X
2
2
= 3
6
5
.
8.11. OP
=
(mx)d x
a + bx + cx
2
, (8.29)
koja ovisi o cetiri parametra (m, a, b i c), a cija rjesenja, ovisno o vrijednostima para-
metara, daju razlicite raspodjele gustoca vjerojatnosti. Raspodjele vjerojatnosti koje se
pojavljuju u prirodi, najcesce imaju po jedan maksimum. Prema gornjoj diferencijalnoj
jednadzbi, polozaj maksimuma je odreden sa
d
d x
=
(mx)
a + bx + cx
2
= 0.
Dakle maksimum je ili u tocki x = m ili u = 0.
Za primjer navodimo Gaussovu raspodjelu kao posebni slucaj rjesenja jednadzbe (8.29):
stavimo li a = 1, b = c = 0, dobivamo
d
= (mx)d x,
_
ln =
1
2
(mx)
2
+ const.,
= c
0
e
1
2
(mx)
2
,
a to je upravo gustoca vjerojatnosti (8.20) Gaussove raspodjele (konstanta c
0
se odreduje
iz uvjeta normiranja).
136 POGLAVLJE 8. RASPODJELE
Poglavlje 9
Funkcija izvodnica
Neka je slucajna varijabla X opisana gustocom vjerojatnosti (x), gdje su x vrijednosti
od X. Za lakse studiranje svojstava slucajne varijable, uvodi se funkcija izvodnica g
X
(t)
denirana sa
g
X
(t) =
x
k
x
p
e
x t
(x) dx.
(9.1)
Granice integracije, x
p
i x
k
, idu po podrucju vrijednosti varijable X. Ako je varijabla
diskretna, umjesto integrala dolazi znak zbrajanja, a umjesto (x) dx dolazi vjerojatnost
P(x)
g
x
(t) =
x
k
x=x
p
e
x t
P(x). (9.2)
Moguce je da za neke gustoce vjerojatnosti , gornji integral, tj. zbroj, divergira. Tada
se kaze da te gustoce nemaju funkciju izvodnicu. Iz gornje denicije se takoder vidi da
se funkcija izvodnica moze shvatiti kao o
cekivanje varijable e
x t
g
X
(t) = E(e
x t
) = e
x t
.
Razvojem e
x t
u Taylorov red, dobiva se
g
X
(t) =
x
k
x
p
(x) dx +
t
1!
x
k
x
p
x (x) dx +
t
2
2!
x
k
x
p
x
2
(x) dx + +
t
n
n!
x
k
x
p
x
n
(x) dx +
= 1 +
X
1!
t +
X
2
2!
t
2
+ =
n=0
X
n
n!
t
n
.
Iz gornjeg se izraza lako zakljucuje da je vrijednost n-te derivacije funkcije izvodnice u
tocki t = 0, upravo jednaka n-tom momentu raspodjele
d
n
d t
n
g
X
(t)
t=0
= X
n
. (9.3)
To je razmjerno jednostavan nacin da se iz funkcije izvodnice dobiju momenti (odatle i
potjece naziv - izvodnica
1
).
1
engl. moment generating function
137
138 POGLAVLJE 9. FUNKCIJA IZVODNICA
svojstva funkcije izvodnice:
(1) Neka je g
X
(t) funkcija izvodnica varijable X. Izracunajmo g
aX+b
(t), za proizvoljne
konstante a i b. Prema deniciji (9.1) je
g
aX+b
(t) =
x
k
x
p
e
(ax+b)t
(x) dx
= e
bt
x
k
x
p
e
axt
(x) dx
= e
bt
g
X
(at). (9.4)
(2) Neka su sada X
1
i X
2
, dvije nezavisne slucajne varijable, a a
1
X
1
+ a
2
X
2
, njihova
linearna kombinacija (za konstantne a
1
i a
2
). Izracunajmo umnozak njihovih funkcija
izvodnica
g
a
1
X
1
(t) g
a
2
X
2
(t) =
x
k,1
x
p,1
dx
1
x
k,2
x
p,2
dx
2
e
(a
1
x
1
+a
2
x
2
)t
(x
1
) (x
2
).
No, umnozak dvije gustoce vjerojatnosti (x
1
) (x
2
) je opet nekakava gustoca vjerojat-
nosti, pa prema deniciji (9.1), zakljucujemo da to mora biti gustoca vjerojatnosti za
varijablu a
1
X
1
+ a
2
X
2
, tj. da mora vrijediti
(a
1
x
1
+ a
2
x
2
) = (a
1
x
1
) (a
2
x
2
),
g
a
1
X
1
+a
2
X
2
(t) = g
a
1
X
1
(t) g
a
2
X
2
(t) (9.5)
= (9.4) = g
X
1
(a
1
t) g
X
2
(a
2
t).
Slicno se dokazuje i za proizvoljan zbroj od k nezavisnih slucajnih varijabli
(a
1
x
1
+ a
2
x
2
+ + a
k
x
k
) = (a
1
x
1
) (a
2
x
2
) (a
k
x
k
)
g
a
1
X
1
+a
2
X
2
+ +a
k
X
k
(t) = g
a
1
X
1
(t) g
a
2
X
2
(t) g
a
k
X
k
(t) (9.6)
= (9.4) = g
X
1
(a
1
t) g
X
2
(a
2
t) g
X
k
(a
k
t).
funkcija izvodnica binomne raspodjele:
Binomna raspodjela se odnosi na diskretnu slucajnu varijablu, pa zato (x) dx iz (9.1)
treba zamijeniti s P(x) iz (8.1)
P(x) =
_
N
x
_
p
x
q
Nx
, x = 0, 1, 2, , N,
a znak integracije znakom zbrajanja. Time denicija (9.1) prelazi u (9.2)
g
X
(t) =
x
e
x t
P(x) =
x
e
x t
_
N
x
_
p
x
q
Nx
=
x
_
N
x
_
(pe
t
)
x
q
Nx
= (q + p e
t
)
N
.
139
g
X
(t) = (q + p e
t
)
N
, (9.7)
a to je funkcija s kojom smo se upoznali
2
jos relacijom (8.3). Pokazimo kako se funkcijom
izvodnicom racunaju ocekivanje i varijanaca binomne raspodjele. Prema (9.3) je
X
k
=
d
k
d t
k
g
X
(t)
t=0
,
X = N p e
t
(q + p e
t
)
N1
t=0
= N p,
X
2
= N p e
t
(q + p e
t
)
N2
_
(N 1) p e
t
+ (q + p e
t
)
t=0
= (N
2
N) p + N p,
2
= X
2
X
2
= N p q.
funkcija izvodnica Poissonove raspodjele:
Sjetimo se da se Poissonova raspodjela dobije kao granicna vrijednost binomne, kada
p 0 i N uz pN = const. Dakle, i funkciju izvodnicu Poissonove raspodjele
cemo dobiti kao opisanu granicnu vrijednost iz funkcije izvodnice binomne raspodjele
g
X
(t) = (q + e
t
p)
N
=
_
1
N
+ e
t
N
_
N
=
_
1 +
(e
t
1)
N
_
N
.
Prema deniciji eksponencijalne funkcije (8.15), u granici N uz konstantni , gornji
je izraz daje funkciju izvodnicu Poissonove raspodjele
g
X
(t) = e
(e
t
1)
. (9.8)
Prema (9.3) racunamo momente
g
X
(t)|
t=0
= 1,
X =
d
d t
g
X
(t)
t=0
= e
e
t
e
e
t
t=0
= ,
X
2
=
d
2
d t
2
g
X
(t)
t=0
= e
(1 + e
t
)e
t+e
t
t=0
= +
2
,
X
3
=
d
3
d t
3
g
X
(t)
t=0
= .
funkcija izvodnica Gaussove (normalne) raspodjele:
2
Uz zamjenu t e
t
.
140 POGLAVLJE 9. FUNKCIJA IZVODNICA
U deniciju funkcije izvodnice (9.1), za gustocu vjerojatnosti treba uvrstiti Gaussovu
gustocu (8.20)
g
X
(t) =
1
e
x t
e
1
2
(
xX
)
2
dx
=
1
2
e
(
2
t
2
+2tX)/2
e
[x(
2
t+X)]
2
/(2
2
)
dx.
Uvodenjem nove varijable u = [x (
2
t +X)]/(
e
(
2
t
2
+2tX)/2
e
u
2
du = e
2
t
2
/2+tX
.
g
X
(t) = e
X t +
1
2
2
t
2
. (9.9)
Ako ovu funkciju razvijemo u red dobit cemo
g
X
(t) = 1 +
_
2
t
2
2
+ tX
_
+
1
2!
_
2
t
2
2
+ tX
_
2
+
1
3!
_
2
t
2
2
+ tX
_
3
+
1
4!
_
2
t
2
2
+ tX
_
4
+
= 1 +X t +
1
2!
X
2
t
2
+
1
3!
X
_
3X
2
2X
2
_
t
3
+
1
4!
_
3X
2
2
2X
4
_
t
4
+
iz cega je lako procitati pojedine momente raspodjele
X
3
= X
_
3X
2
2X
2
_
,
X
4
= 3X
2
2
2X
4
,
.
.
.
Uocimo jos jedno svojstvo Gaussove raspodjele. Ako je gustoca vjerojatnosti varijable
X, karakterizirana s (X,
2
), pitanje je koliki su ocekivanje i varijanca varijable a X?
Prema (9.4), za b 0, je
g
aX
(t) = g
X
(at) = e
2
a
2
t
2
/2+atX
, (9.10)
a to je upravo funkcija izvodnica Gaussove raspodjele opisane ocekivanjem aX i vari-
jancom a
2
2
.
Adicijski teorem za Gaussove raspodjele:
Zadane su dvije slucajne varijable, X
1
i X
2
, opisane Gaussovim raspodjelama (8.20) ka-
rakteriziranim s (X
1
,
2
1
) i (X
2
,
2
2
). Pitanje je:
kojom je raspodjelom opisana slu
cajna varijabla a
1
X
1
+ a
2
X
2
za konstantne a
1
i a
2
? Krenimo od funkcija izvodnica za obje varijable
g
a
1
X
1
(t) = e
a
2
1
2
1
t
2
/2+a
1
tX
1
, g
a
2
X
2
(t) = e
a
2
2
2
2
t
2
/2+a
2
tX
2
.
141
Prema (9.4) i (9.5) je funkcija izvodnica varijable a
1
X
1
+ a
2
X
2
jednaka
g
a
1
X
1
+a
2
X
2
(t) = (9.5) = g
a
1
X
1
(t) g
a
2
X
2
(t)
= (9.4) = g
X
1
(a
1
t) g
X
2
(a
2
t)
= e
2
1
a
2
1
t
2
/2+a
1
tX
1
2
2
a
2
2
t
2
/2+a
2
tX
2
= e
1
2
(
2
1
a
2
1
+
2
2
a
2
2
)t
2
+t(a
1
X
1
+a
2
X
2
)
,
a to je upravo funkcija izvodnica Gaussove raspodjele karakterizirane ocekivanjema
1
X
1
+
a
2
X
2
i varijancom
2
1
a
2
1
+
2
2
a
2
2
. Dakle, Gaussova raspodjela varijable a
1
X
1
+a
2
X
2
, karak-
terizirana ocekivanjem a
1
X
1
+a
2
X
2
i varijancom a
2
1
2
1
+a
2
2
2
2
. Gornja se razmatranja
lako mogu protegnuti i na proizvoljnu linearnu kombinaciju od N slucajnih Gaussovih
varijabli. Linearna kombinacija N slucajnih varijabli X
n
je opet jedna nova slucajna
varijabla, koju cemo nazvati
= a
1
X
1
+ a
2
X
2
+ + a
N
X
N
.
Prema gore izlozenom, gustoca vjerojatnosti je dana Gaussovom raspodjelom s ocekivanjem
i varijancom
2
= a
1
X
1
+ a
2
X
2
+ + a
N
X
N
,
= a
2
1
2
1
+ a
2
2
2
2
+ + a
2
N
2
N
. (9.11)
funkcija izvodnica gama raspodjele:
Gama raspodjela je opisana gustocom vjerojatnosti (8.25), pa je njezina funkcija izvodnica
jednaka
g
X
(t) =
1
(n)
+
0
e
x t
x
n1
e
x
dx
=
1
(n)
+
0
x
n1
e
x(1t)
dx.
Prijelazom na novu varijablu u = x(1 t) (uz ogranicenje |t| 1), dobiva se
g
X
(t) =
1
(n)
_
1
1 t
_
n
+
0
u
n1
e
u
du = (8.21) = (1 t)
n
.
g
X
(t) = (1 t)
n
. (9.12)
142 POGLAVLJE 9. FUNKCIJA IZVODNICA
Sada je lako izracunati momente:
X
0
= g
X
(t)
t=0
= 1,
X
1
=
d
d t
g
X
(t)
t=0
= n, (9.13)
X
2
=
d
2
d t
2
g
X
(t)
t=0
= n(n + 1),
X
3
=
d
3
d t
3
g
X
(t)
t=0
= n(n + 1)(n + 2),
X
4
=
d
4
d t
4
g
X
(t)
t=0
= n(n + 1)(n + 2)(n + 3)
i opcenito,
X
k
= n(n + 1)(n + 2) . . .
_
n + (k 1)
_
=
(n + k 1) !
(n 1) !
.
Adicijski teorem za gama raspodjele:
Funkcija izvodnica gama raspodjele stupnja slobode n slucajne varijable X, je dana sa
(9.12). Prema (9.5) je funkcija izvodnica zbroja od dvije nezavisne slucajne varijable
X
1
+ X
2
, od kojih je prva stupnja n
1
, a druga stupnja n
2
, dana sa
g
X
1
(t) g
X
2
(t) = (1 t)
n
1
(1 t)
n
2
= (1 t)
(n
1
+n
2
)
= g
X
1
+X
2
(t), (9.14)
a to je opet gama raspodjela stupnja slobode n
1
+ n
2
. Time je dokazan slijedeci
Teorem: Zbroj dvije nezavisne slucajne varijable X
1
i X
2
raspodjeljene po gama raspo-
djelama sa stupnjevima slobode n
1
i n
2
, je nova slucajna varijabla X
1
+ X
2
raspodjeljena po gama raspodjeli sa stupnjem slobode n
1
+ n
2
.
Gornja se argumentacija lagano proteze i na zbroj od k slucajnih varijabla X+Y + +
Z sa stupnjevima slobode n, m, , l, koje ce biti raspodjeljene po gama raspodjeli sa
stupnjem slobode jednakim n + m+ + l
g
X+Y + +Z
(t) = g
X
(t) g
Y
(t) g
Z
(t),
(n + m+ + l, X + Y + + Z) =
(n, X)
(m, Y )
(l, Z) (9.15)
Gornji se izrazi mogu sazeti u
Teorem: Zbroj od k nezavisnih slucajnih varijabli X, Y, , Z raspodjeljenih po gama
raspodjelama sa stupnjevima slobode n, m, , l, je nova slucajna varijabla
raspodjeljena po gama raspodjeli sa stupnjem slobode n + m + + l.
9.1 Karakteristicne funkcije
Osim funkcija izvodnica, u statistici se koriste i karakteristicne funkcije C
X
(k), deni-
rane slicno kao i funkcije izvodnice (9.1), s tom razlikom da sada u eksponent dolazi
9.1. KARAKTERISTI
x
k
x
p
e
k x
(x) dx.
(9.16)
Ponovo je (x) funkcija gustoce vjerojatnosti
3
. Ako je varijabla diskretna, umjesto inte-
grala dolazi znak zbrajanja, a umjesto (x) dx dolazi vjerojatnost P(x)
C
x
(k) =
x
k
x=x
p
e
k x
P(x). (9.17)
Iz gornje denicije se takoder vidi da se karakteristicna funkcija moze shvatiti kao o
cekivanje
varijable e
k x
C
X
(k) = E(e
k x
) = e
k x
.
Razvojem podintegralne eksponencijalne funkcije u red
e
k x
= 1 +
k x
1!
+
2
k
2
x
2
2!
+ +
n
k
n
x
n
n!
+ ,
karakteristicna funkcija postaje
C
X
(k) =
x
k
x
p
_
1 +
k x
1!
+
2
k
2
x
2
2!
+ +
n
k
n
x
n
n!
+
_
(x) dx
= 1 +
k
1!
X +
2
k
2
2!
X
2
+
3
k
3
3!
X
3
+
4
k
4
4!
X
4
+ .
Kao sto vidimo i karakteristicna funkcija je funkcija izvodnica, jer je zadana momentima
raspodjele. Buduci da se karakteristicna funkcija moze razviti u Taylorov red oko k = 0
C
X
(k) = C
X
(0) +
k
1!
d
d k
C
X
(k)
k=0
+
k
2
2!
d
2
d k
2
C
X
(k)
k=0
+
k
3
3!
d
3
d k
3
C
X
(k)
k=0
+ ,
to usporedbom gornja dva reda, ocitavamo
C
X
(k)
k=0
= 1,
d
d k
C
X
(k)
k=0
= X,
d
2
d k
2
C
X
(k)
k=0
=
2
X
2
= X
2
,
d
3
d k
3
C
X
(k)
k=0
=
3
X
3
= X
3
, (9.18)
d
4
d k
4
C
X
(k)
k=0
= X
4
,
.
.
.
d
n
d k
n
C
X
(k)
k=0
=
n
X
n
3
Uz pogodno odabrane granice integracije, C
X
(k) je Fourierova preobrazba od (x).
144 POGLAVLJE 9. FUNKCIJA IZVODNICA
Prednost karakteristicne pred funkcijom izvodnicom je u tome sto je integral kojim je
zadana karakteristicna funkcija, uvijek konvergentan
4
. Buduci da je
e
k x
= 1
to je i
C
X
(k)
x
k
x
p
e
k x
(x) dx
x
k
x
p
e
k x
(x) dx
x
k
x
p
(x) dx = 1,
C
X
(k)
1.
Za funkciju izvodnicu gornji izraz ne vrijedi, jer integral kojim je zadana funkcija izvodnica
(9.1),
x
k
x
p
e
k x
(x) dx
ne mora uvijek biti konvergentan. To je i razlog zasto se u praksi funkcije izvodnice
zamjenjuju karakteristicnim funkcijama.
Ilustrirajmo to na primjeru Cauchyeve raspodjele
C
C
(x) =
1
(1 +x
2
)
.
Funkcija izvodnica je
g
C
(k) =
1
e
k x
1 + x
2
dx.
Razvojem eksponencijalne funkcije u red, dobivamo
g
C
(k) =
1
1
1 + x
2
dx +
k
x
1 + x
2
dx +
k
2
2!
x
2
1 + x
2
dx +
k
3
3!
x
3
1 + x
2
dx +
= 1 + kX +
k
2
2!
X
2
+
k
3
3!
X
3
+ .
Buduci da su integrali
x
2
1 + x
2
dx,
x
4
1 + x
2
dx,
divergentni
5
, to je i cijela funkcija izvodnica takoder divergentna. Zakljucak je da Cauc-
hyjeva raspodjela nema momenata.
Drukcije je za karakteristicnu funkciju.
C
X
(k) =
1
e
k x
1 + x
2
dx =
1
cos(k x)
1 + x
2
dx +
sin(k x)
1 + x
2
dx.
4
Na primjeru funkcije izvodnice gama raspodjele se vidi da ona nije denirana za sve vrijednosti t, nego tek za |t| < 1.
5
Za veliki x je podintegralna funkcija prvog integrala jednaka 1, a drugog x
2
. Za navedene granice integracije, obje ove
funkcije imaju divergentan integral.
9.1. KARAKTERISTI
cos(k x)
1 + x
2
dx.
Integracijom u kompleksnom podrucju se pokazuje da je
C
X
(k) = e
|k|
.
Razvoj u red daje
C
X
(k) = 1
|k|
1!
+
k
2
2!
|k|
3
3!
+
k
4
4!
.
Usporedbom gornjeg izraza sa (9.18), zakljucujemo da je
X = 1, X
2
= 1, X
3
= 1, . . .
Buduci da momenti ne mogu biti imaginarni, a parni momenti ne mogu biti ni negativni, to
opet zakljucujemo da Cauchyjeva raspodjela nema momente (ali karakteristicna funkcija
nije divergentna).
Za karakteristicnu funkciju vrijede slicni teoremi kao i za funkciju izvodnicu.
Neka je C
X
(k) karakteristicna funkcija varijable X. Izracunajmo karakteristicnu funkciju
varijable aX + b, gdje su a i b konstante. Prema deniciji karakteristicne funkcije (9.16)
C
aX+b
(k) =
x
k
x
p
e
k(ax+b)
(x) dx
= e
kb
x
k
x
p
e
kax
(x) dx
= e
kb
C
X
(ak) = e
kb
C
aX
(k).
Karakteristicna funkcija zbroja dvije nezavisne slucajne varijable X i Y , jednaka je
umnosku njihovih karakteristicnih funkcija.
C
X
(k) =
x
k
x
p
e
k x
X
(x) dx, C
Y
(k) =
y
k
y
p
e
k y
Y
(y) dy
C
X+Y
(k) = C
X
(k) C
Y
(k).
Isto vrijedi i za proizvoljan zbroj nezavisnih slucajnih varijabli
C
X
1
+X
2
++X
N
(k) = C
X
1
(k) C
X
2
(k) . . . C
X
N
(k). (9.19)
Posebno, ako su sve varijable X
n
raspodjeljene po istoj raspodjeli, biti ce i
C
X
1
+X
2
++X
N
(k) = [C
X
1
(k)]
N
.
Dokazimo i slijedecu tvrdnju poznatu kao :
146 POGLAVLJE 9. FUNKCIJA IZVODNICA
Teorem inverzije: Svaka raspodjela ima svoju karakteristicnu funkciju, a tu istu ka-
rakteristicnu funkciju ne moze imati nijedna druga raspodjela.
Neka kontinuirana slucajna varijabla X poprima vrijednosti u intervalu (, +). Nje-
zinoj raspodjeli gustoce vjerojatnosti (x), je relacijom
C
X
(k) =
e
k x
(x) dx
pridruzena karakteristicna funkcija C
X
(k).
Izracunajmo slijedeci integral
+A
A
e
k y
C
X
(k) dk =
+A
A
e
k y
dk
e
k x
(x) dx
=
dx (x)
+A
A
e
k (xy)
dk =
dx (x)
_
e
k (xy)
(x y)
_
+A
A
= 2
sin A(x y)
x y
(x) dx.
Umjesto varijable integracije x uvodimo novu varijablu z = A(x y), u kojoj je
+A
A
e
k y
C
X
(k) dk = 2
sin z
z
(z/A + y) dz
lim
A
+A
A
e
k y
C
X
(k) dk = 2
sin z
z
(y) dz = (y) 2
sin z
z
dz.
No, ovaj posljednji integral je tablicni integral s vrijednoscu
sin z
z
dz = ,
pa smo tako dobili da je
e
k y
C
X
(k) dk = 2(y),
tj.
(x) =
1
2
e
k x
C
X
(k) dk (9.20)
Gornjim se izrazom iz dane karakteristicne funkcije, jednoznacno dobiva gustoca vjero-
jatnosti.
Primjer: 9.1 Cauchyjeva raspodjela ima karakteristicnu funkciju C(k) = e
|k|
. Izracunajte
funkciju raspodjele gustoce vjerojatnosti.
9.1. KARAKTERISTI
e
k x
e
|k|
dk =
1
2
e
k x+k
dk +
1
2
+
0
e
k xk
dk
=
1
2
+
0
_
e
k xk
+ e
k xk
_
dk
=
1
+
0
e
k
cos(k x) dk =
1
1
1 + x
2
.
Karakteristi
x=0
e
kx
P(x) =
N
x=0
e
kx
_
N
x
_
p
x
q
Nx
=
N
x=0
_
N
x
_
(pe
k
)
x
q
Nx
= (q + pe
k
)
N
.
C
X
(k) = (q + p e
k
)
N
. (9.21)
Pokazimo jos kako se karakteristicnom funkcijom racunaju ocekivanje i varijanaca bi-
nomne raspodjele. Prema (9.18) je
X = N p e
k
(q + p e
k
)
N1
k=0
= N p,
X
2
= N p e
k
(q + pe
k
)
N2
_
(N 1) p e
k
+ (q + pe
k
)
k=0
= (pN)
2
Npq
V ar(X) = X
2
X
2
= N p q.
Karakteristi
k=0
= e
k
e
(e
k
1)
k=0
= = X,
d
2
C
X
(k)
d k
2
k=0
= e
k
e
(e
k
1)
(1 +e
k
)
k=0
=
2
= X
2
,
2
= X
2
X
2
= .
Karakteristi
e
k x
e
1
2
(
xX
)
2
dx =
=
1
2
e
1
2
(
2
k
2
2 k X)
e
[x( k
2
+X)]
2
/(2
2
)
dx.
Uvodenjem nove varijable u = [x ( k
2
+X)]/(
1
2
(
2
k
2
2 k X)
e
u
2
du = e
1
2
(
2
k
2
2 k X)
.
C
X
(k) = e
k X
1
2
k
2
2
. (9.23)
Ako ovu funkciju razvijemo u Mac Laurinov red dobit cemo
C
X
(k) = 1 +
_
k X
1
2
k
2
2
_
+
1
2!
_
k X
1
2
k
2
2
_
2
+
1
3!
_
k X
1
2
k
2
2
_
3
+
1
4!
_
k X
1
2
k
2
2
_
4
+
= 1 +
1
1!
X k
1
2!
X
2
k
2
1
3!
X
_
3X
2
2X
2
_
k
3
+
1
4!
_
3X
2
2
2X
4
_
k
4
+
iz cega je, usporedbom sa (9.18), lako procitati pojedine momente raspodjele
X
3
= X
_
3X
2
2X
2
_
,
X
4
= 3X
2
2
2X
4
,
.
.
.
Karakteristi
+
0
e
k x
x
n1
e
x
dx.
Uvodenjem nove varijable u = (1 k)x, dobiva se
C
X
(k) =
1
(n)
1
1 k
+
0
_
u
1 k
_
n1
e
u
du =
1
(n)
(1 k)
n
+
0
u
n1
e
u
du
C
X
(k) = (1 k)
n
. (9.24)
Pretpostavimo da imamo dvije slucajne varijable, X i Y , raspodjeljene po gama raspo-
djelama
X
(x) =
1
(n)
x
n1
e
x
,
Y
(y) =
1
(m)
y
m1
e
y
,
s pripadnim karakteristicnim funkcijama
C
X
(k) = (1 k)
n
, C
Y
(k) = (1 k)
m
Prema teoremu (9.19), karakteristicna funkcija slucajne varijable X + Y je
C
X+Y
(k) = C
X
(k) C
Y
(k) = (1 k)
(n+m)
.
No, gornja funkcija je upravo karakteristicna funkcija gama raspodjele
X
(x) =
1
(n + m)
x
n+m1
e
x
,
cime smo pokazali da je zbroj dvije nezavisne slucajne varijable X i Y raspodjeljene
po gama raspodjelama, nova slucajna varijabla X + Y raspodjeljena takoder po gama
raspodjeli (kao sto smo to pokazali i kod funkcije izvodnice).
Karakteristi
+a
a
e
k x
1
2a
dx =
1
2a
e
k a
e
k a
k
C
X
(k) =
sin k a
k a
.
(9.25)
150 POGLAVLJE 9. FUNKCIJA IZVODNICA
9.1.1 Kumulativne funkcije
Kumulativna funkcija, K
X
(k), se denira kao logaritam karakteristicne funkcije
K
X
(k) = ln C
X
(k). (9.26)
Derivacije kumulativne funkcije su
d
d k
K
X
(k) =
1
C
X
(k)
C
X
(k),
d
2
d k
2
K
X
(k) =
1
C
2
X
(k)
_
C
X
(k) C
X
(k) (C
X
(k))
2
_
,
d
3
d k
3
K
X
(k) =
1
C
4
X
(k)
_
C
3
X
(k) C
X
(k) 3C
2
X
(k)C
X
(k)C
X
(k) + 2C
X
(k)(C
X
(k))
3
_
.
Uvrstavanjem (9.18) u gornje izraze, slijedi
d
d k
K
X
(k)
k=0
= X,
d
2
d k
2
K
X
(k)
k=0
= X
2
+X
2
d
3
d k
3
K
X
(k)
k=0
= X
3
+ 3XX
2
2X
3
.
Razvojem K
X
(k) u red i uvrstavanjem gornjih derivacija, dobiva se
K
X
(k) = K
X
(0) +
k
1!
d
d k
K
X
(k)
k=0
+
k
2
2!
d
2
d k
2
K
X
(k)
k=0
+
k
3
3!
d
3
d k
3
K
X
(k)
k=0
+
=
k
1!
X
1
+
(k)
2
2!
X
2
+
(k)
3
3!
X
3
+ ,
gdje su su s X
j
oznacene velicine koje se nazivaju kumulanti
X
1
= X,
X
2
= X
2
X
2
= M
2
,
X
3
= X
3
3X
2
X + 2X
3
= M
3
,
.
.
.
Relacijom (9.19) smo pokazali da za karakteristicne funkcije N nezavisnih slucajnih vari-
jabli X
n
vrijedi
C
X
1
+X
2
++X
N
(k) = C
X
1
(k) C
X
2
(k) . . . C
X
N
(k).
Logaritmiranjem gornjeg izraza dobiva se ekvivalentna relacija za karakteristicne funkcije
K
X
1
+X
2
++X
N
(k) = K
X
1
(k) + K
X
2
(k) + + K
X
N
(k).
Poglavlje 10
Sredisnji granicni teorem
Neka su
X
1
, X
2
, , X
N
medusobno nezavisne kontinuirane slucajne varijable, raspodjeljene po Gaussovoj ras-
podjeli s prosjecnim vrijednostima
X
1
, X
2
, , X
N
i standardnim devijacijama
1
,
2
, ,
N
.
Zbroj svih X
n
je jedna nova slucajna varijabla koju cemo oznaciti s
= X
1
+ X
2
+ + X
N
, (10.1)
S i
=
2
1
+
2
2
+ +
2
N
.
Pitanje koje si sada postavljamo je:
Kojom je raspodjelom opisana slu
cajna varijabla ?
Do odgovora na to pitanje cemo doci pomocu karakteristicne funkcije. Neka je C
(k)
karakteristicna funkcija od , a C
X
n
(k) karakteristicna funkcija od X
n
. Prema (9.19),
vrijedi
C
(k) = C
X
1
(k) C
X
2
(k) C
X
N
(k).
Za Gaussovu raspodjelu smo u (9.23) dobili da je
C
X
n
(k) = e
kX
n
1
2
2
n
k
2
,
pa je
C
(k) = e
k(X
1
+X
2
++X
N
)
1
2
(
2
1
+
2
2
++
2
N
)k
2
= e
k
1
2
2
k
2
.
151
152 POGLAVLJE 10. SREDI
SNJI GRANI
CNI TEOREM
Time je C
cajnih varijabli X
n
nisu raspodjeljene
po Gaussovoj raspodjeli? Kako
ce tada biti raspodjeljen njihov zbroj?
Oznacimo opet medusobno zadane nezavisne slucajne varijable
X
1
, X
2
, , X
N
,
ali su one sada raspodjeljene prema medusobno razlicitim raspodjelama (ne nuzno Ga-
ussovim), ciji su momenti jednaki
X
n
, X
2
n
, X
3
n
, .
Oznacimo sa X aritmeticku sredinu svih X
n
X =
1
N
_
X
1
+ X
2
+ + X
N
_
. (10.2)
Buduci da su X
n
medusobno nezavisne varijable to, prema (9.11), vrijedi
X =
1
N
_
X
1
+X
2
+ +X
N
_
,
2
X
=
1
N
2
_
2
1
+
2
2
+ +
2
N
_
.
Nadalje cemo pretpostaviti da je N vrlo velik broj
N 1.
Prema deniciji (9.16), karakteristicna funkcija varijable X (tj. Fourierova preobrazba
njezine gustoce vjerojatnosti) je dana sa
1
C
X
(k) =
e
k x
(x) dx.
No, X
n
su medusobno nezavisne varijable, pa je zato
(x ) dx = (x
1
) (x
2
) (x
N
) dx
1
dx
2
dx
N
.
Vratimo li se izrazu za karakteristicnu funkciju, dobivamo
C
X
(k) =
e
k
1
N
(x
1
+x
2
++x
N
)
(x
1
) (x
2
) (x
N
) dx
1
dx
2
dx
N
=
k x
1
N
(x
1
) dx
1
k x
2
N
(x
2
) dx
2
k x
N
N
(x
N
) dx
N
=
N
n=1
k x
n
N
(x
n
) dx
n
.
1
Ako je npr. varijabla X
n
denirana na intervalu (0, ), tada je njoj pridruzena gustoca vjerojatnosti jednaka nuli za
(, 0) i slicno za neke druge varijable. Uzevsi granice integracije od do +, obuhvatili smo sve moguce vrijednosti
slucajnih varijabli.
153
Uz pretpostavku da je N vrlo velik broj, argumenti eksponencijalnih funkcija su jako
mali brojevi, i zato mozemo u razvoju u red eksponencijalnih funkcija zadrzati samo
vodece clanove
C
X
(k) =
N
n=1
_
1 +
k x
n
N
+
1
2
_
k x
n
N
_
2
+O
_
N
3
_
_
(x
n
) dx
n
=
N
n=1
_
1 +
k
N
X
n
1
2
k
2
N
2
X
2
n
+O
_
N
3
_
_
=
N
n=1
e
ln
[
1+
k
N
X
n
1
2
k
2
N
2
X
2
n
+O
(
N
3
)
]
.
U gornjim smo izrazima s O(N
3
) oznacili clanove koji opadaju s N kao N
3
ili brze.
Za veliki N ti su clanovi manji od clanova koje smo eksplicite ispisali. Logaritam u
eksponentu mozemo razviti u red
ln(1 + ) =
1
2
2
+
1
3
3
,
po maloj velicini , koja u nasem slucaju iznosi
k
N
X
n
1
2
k
2
N
2
X
2
n
+O
_
N
3
_
,
2
=
k
2
N
2
X
n
2
+O
_
N
3
_
,
3
= O
_
N
3
_
.
Vratimo se izrazu za karakteristicnu funkciju
C
X
(k) =
N
n=1
e
k
N
X
n
1
2
k
2
N
2
(X
2
n
X
n
2
)+O
(
N
3
)
n=1
e
k
N
X
n
1
2
k
2
N
2
2
n
e
N
n=1
[
k
N
X
n
1
2
k
2
N
2
2
n
]
.
Dakle, uz zanemarivanje clanova reda O(N
3
) u eksponentu, za karakteristicnu funkciju
smo dobili
C
X
(k) = e
k
N
(X
1
+X
2
++X
N
)
1
2
k
2
N
2
(
2
1
+
2
2
++
2
N
)
= e
k X
1
2
k
2
2
X
,
sto prepoznajemo kao (9.23), karakteristicnu funkciju Gaussove raspodjele za varijablu
X . Kada znamo karakteristicnu funkciju, tada funkciju raspodjele gustoce vjerojatnosti
racunamo teoremom inverzije (9.20)
(X ) =
1
2
e
k x
C
X
(k) dk
=
1
2
e
k (Xx)
1
2
k
2
2
X
dk.
154 POGLAVLJE 10. SREDI
SNJI GRANI
CNI TEOREM
Ovo gore je tablicni integral ([1], p. 302, eq. 7.4.6)
e
a kb k
2
dk = e
a
2
4b
b
.
Uvrstavanje ovog rjesenja, izravno daje
(X ) =
1
2
e
1
2
(x X )
2
2
X
,
sto prepoznajemo kao Gaussovu raspodjelu. Zakljucujemo da je u granici velikog N,
gustoca vjerojatnosti slucajne varijable X (tj. obicne aritmeticke sredine) dana Gausso-
vom raspodjelom bez obzira kojom su raspodjelom opisane pojedine varijable X
n
. Gornja
razmatranja mozemo sazeti u slijedeci
Teorem: Zadano je N medusobno nezavisnih slucajnih varijabli, opisanih proizvolj-
nim gustocama vjerojatnosti. Ako od tih varijabli napravimo novu slucajnu
varijablu oblika zbroja (10.2), tada je raspodjela gustoce vjerojatnosti te nove
varijable dana Gaussovom raspodjelom. Ova je tvrdnja utoliko tocnija uko-
liko je N veci.
Ovaj se teorem naziva Sredi
snji grani
j
log
2
M
j
! bita.
Da bi se dobila informacija o ucinkovitosti izvora informacija, tj, koja kolicina podataka
(simbola) daje koju kolicinu informacija, denira se entropija izvora informacija,
H, kao jednostavni omjer kolicine informacije I i broja podataka (simbola) N koji su
proizveli tu kolicini informacija
H =
I
N
.
(11.2)
1
Vidjeti npr. odjeljak 1.1 ove knjige.
11.2. ENTROPIJA IZVORA INFORMACIJE 157
Primjer: 11.2 Kolika je entropija izvora informacija koji se sastoji od cetiri razlicita
slova?
R: Od cetiri razlicita slova se mogu napraviti 4 ! = 24 razne permutacije,
pa je zato vjerojatnost svake te permutacije jednaka 1/24. Prema deniciji
(11.2), entropija je
H =
I
N
=
log
2
24
4
=
4.58496
4
= 1.14624 bita.
158 POGLAVLJE 11. INFORMACIJA I ENTROPIJA
Poglavlje 12
Teorija korelacije
12.1 Pojam korelacije
Objasnimo pojam korelacije dvaju varijabli X i Y u usporedbi sa strogom funkcijskom
ovisnoscu X i Y i s primjerom gdje izmedu X i Y ne postoji nikakva veza.
Ako za svaki zadani X postoji algoritam kojim se izracunava pripadni Y , tada se kaze
da su X i Y povezani funkcijskom vezom. Jedan primjer funkcijske veze je relacija
y = 22.09 x
3
e
3x
, prikazana na slici 12.1.A. Naprotiv, ako za neki ksni X, varijabla Y
Slika 12.1: A: izmedu X i Y postoji funkcijska veza; B: izmedu X i Y ne postoji nikakva veza.
-0.5 0 0.5 1 1.5 2
x
-1
0
1
y
( A )
x
1
x
2
y
1
y
2
moze poprimiti bilo koju vrijednost, potpuno neovisno o X, tada se kaze da Y ne ovisi o
X, tj. za zadani X, varijabla Y moze imati bilo koju vrijednost. Isto tako, za svaki ksni
Y , varijabla X moze poprimiti bilo koju vrijednost. Ova vrsta (ne)ovisnosti je prikazana
na slici 12.1.B: tocke su priblizno homogeno raspodjeljene po dijelu (X, Y ) ravnine.
Izmedu ova dva ekstremna primjera se nalazi siroko podrucje pojava koje se nazivaju
korelacije. To su sve one pojave koje nisu vezane strogom funkcijskom vezom, ali koje
nisu niti potpuno nepovezane. Jedan tipican primjer ovakve vrste veze jeste veza izmedu
tjelesne visine i tjelesne mase odabrane skupine ljudi. Primjer takve veze je prikazan na
159
160 POGLAVLJE 12. TEORIJA KORELACIJE
slici 12.2, a odnosi se na primjer 12.1. Ljudi se medusobno razlikuju i ne postoji mate-
Slika 12.2: Veza visine X (u cm) i mase Y (u kg) jedne skupine ljudi.
150 160 170 180 190
x
50
60
70
80
90
y
4
40
72
42
10
1
maticka formula koja bi nam omogucila da na temelju visine izracunamo masu osobe ili
obratno, da na temelju mase izracunamo visinu. Za danu visnu, moguce su razlicite mase,
ali ne i previse razlicite. Primjetimo dvije vazne karakteristike slike 12.2:
(1) kao sto smo vec spomenuli, za danu visinu, moguce su razlicite mase, ali te mase
ne mogu biti proizvoljne - ne postoje osobe visoke 54 cm s tjelesnom masom 300 kg, kao
ni osobe visoke 185.5 cm s tjelesnom masom 40 kg; dakle, za danu visinu, masa se moze
mijenjati, ali ne bas posve proizvoljno,
(2) druga vazna osobina korelacijskih pojava se vidi iz brojeva sa slike 12.2 - ti brojevi
kazu koliki broj osoba iz promatrane skupine ima dane vrijednosti visine i mase
1
, pri-
mjecujemo da je najveci broj osoba koncentriran oko sredine intervala, dok su jako male
i jako velike mase, zastupljene manjim brojem individua, ili drugim rjecima, ako bismo iz
promatrane skupine nasumice birali jednu osobu visine 169.5 cm veca je vjerojatnost da
bi to bila osoba mase 64 kg, nego osoba mase 79 kg.
Ukoliko se broj osoba dane visine i tjelesne mase prikaze na osi z, dobije se slika 12.4. S
te slike zakljucujemo da za svaku ksnu visinu (ili ksnu masu) postoji masa (ili visina)
koja je najzastupljenija i time najvjerojatnija, a sve se druge mase (ili visine) javljaju u
manjem broju, i to utoliko manjem, ukoliko su dalje od ove najvece vrijednosti.
Nas zadatak u slijedecem odjeljku jeste kvantitativno izraziti kvalitativna opazanja iz
ovog odjeljka.
12.2 Linearna korelacija
Promatramo jedan skup dogadaja (osnovni skup). Na svakom dogadaju uocavamo neko-
liko obiljezja (npr. kod svih stanovnika jedne drzave uocimo njihovu tjelesnu masu X i
visinu Y ; kod neke skupine industrijskih proizvoda uocimo njihovu cijenu, zemlju podrije-
1
Slicni se brojevi mogu pridruziti svakoj tocki sa slike, ali su radi preglednosti slike izostavljeni.
12.2. LINEARNA KORELACIJA 161
tla i godinu proizvodnje; kod odredene zitarice uocimo broj zrna u klasu i visinu stabljike
ili sto slicno). Radi jednostavnosti, zadrzati cemo se na primjerima s dva obiljezja. Vri-
jednosti obiljezja X oznacimo s x, a broj razlicitih vrijednosti x-a neka je N. Vrijednosti
obiljezja Y za ksnu vrijednost X-a cemo oznaciti s y
x
. Ukupan broj razlicitih vrijednosti
Y za ksni X cemo oznaciti s M(x) (to su npr. ljudi iste tjelesne mase, tj. istog x , ali
razlicitih visina). Tezinama (apsolutnim frekvencijama)
t
x,y
nazivamo broj elemenata skupa koji imaju istu vrijednost i obiljezja X i obiljezja Y (u
primjeru iz tablice 12.1 to je broj biljaka s brojem cvjetnih stapki oznacenim s x i s brojem
latica oznacenim s y). Zbroj tezina po vrijednostima oba obiljezja
y
t
x,y
= N,
daje N, ukupan broj elemenata promatranog osnovnog skupa. Jednostruki zbroj
x
t
x,y
= t
y
,
je broj elemenata s ksnim obiljezjem Y za sve moguce vrijednosti X, a
y
t
x,y
= t
x
je broj elemenata s ksnim obiljezjem X za sve moguce vrijednosti Y , pri cemu je
y
t
y
= N,
x
t
x
= N.
Nanesemo li u pravokutnom koordinatnom sustavu obiljezje X na os x, obiljezje Y na
os y i tezine t
x,y
na os z, dobit cemo skup tocaka u trodimenzijskom prostoru koji
nam predocava raspodjelu ta dva obiljezja skupa (kao npr. slika 12.4). Da bismo umjesto
trodimenzijskog, dobili pregledniji, dvodimenzijski prikaz oba obiljezja skupa, postu-
pamo ovako: buduci da je svakom pojedinom x-u opcenito pridruzeno nekoliko y
x
-ova, mi
cemo za ksni x izracunati prosjecnu vrijednost (tj. obicnu aritmeticku sredinu) svih y
x
i oznaciti ju s y
x
y
x
=
1
t
x
y
x
y
x
t
x,y
x
. (12.1)
Provedemo li ovaj postupak za sve x-ove, dobit cemo skup tocaka
(x, y
x
),
cijim povezivanjem dobivamo dvodimenzijsku krivulju koja se zove krivulja regresije
oznacena crvenim na slici 12.3. Proucavanje krivulje regresije, glavni je zadatak teorije
korelacije. Za ilustraciju, ovog postupka navodimo primjer koji potjece od botanicara
Charliera koji je 1913. godine promatrao biljku Trientalis europea, na kojoj je uocio dva
obiljezja: broj cvjetnih stapki X i broj latica Y . Brojeci navedena obiljezja na 321. biljci,
dosao je do rezultata prikazanih u tablici 12.1 (to su tezine t
x,y
) i na slici 12.3:
162 POGLAVLJE 12. TEORIJA KORELACIJE
Tablica 12.1: Primjer racunanja krivulje regresije: x je broj cvjetnih stapki, a y je broj latica. Sredisnji
dio tablice predstavlja tezine t
x,y
.
x = 1 x = 2 x = 3 t
y
y = 5 119 6 0 125
y = 6 103 51 1 155
y = 7 10 16 2 28
y = 8 1 5 5 11
y = 9 0 0 2 2
t
x
233 78 10 321
Slika 12.3: Primjer racunanja krivulje regresije: crveno je (x, y
x
), ljubicasto je ( x
y
, y), plavo je pravac
(12.9), zeleno je pravac (12.11).
0 1 2 3 4
x
4
5
6
7
8
9
10
y
x
1
10
103
119
5
16
51
6
2
5
2
1
( < x >, < y > )
y
x=1
=
5 119 + 6 103 + 7 10 + 8 1
233
= 5.54077,
y
x=2
=
5 6 + 6 51 + 7 16 + 8 5
78
= 6.25641,
y
x=3
=
6 1 + 7 2 + 8 5 + 9 2
10
= 7.8,
x
y=5
=
1 119 + 2 6
125
= 1.048,
x
y=6
=
1 103 + 2 51 + 3 1
155
= 1.34194,
x
y=7
=
1 10 + 2 16 + 3 2
28
= 1.71429,
x
y=8
=
1 1 + 2 5 + 3 5
11
= 2.36364,
x
y=9
=
3 2
2
= 3 .
12.2. LINEARNA KORELACIJA 163
Na slici 12.3 su tocke (x, y
x
) prikazane crvenim kvadraticima, a krivulja regresije je
prikazana isprekidanom crvenom linijom. Varijable X i Y su potpuno ravnopravne, pa
se slicnim postupkom dobiva i druga krivulja regresije (x
y
, y), prikazana ljubicastim na
istoj slici.
Proucavanje krivulja regresije se izvodi momentima. Momenti se deniraju na isti nacin
kao i kod statistickih raspodjela (7.4) i (7.6), s tom razlikom da sada umjesto jedne, imamo
dvije varijable i umjesto teorijskih gustoca vjerojatnosti, dolaze empirijske frekvencije
P(x, y)
t
x,y
N
.
Navodimo denicije momenata X
k
Y
l
i centralnih momenata M
k,l
koje cemo kasnije
koristiti:
X
k
Y
l
=
1
N
y
x
k
y
l
t
x,y
,
M
k,l
=
1
N
y
_
x X
_
k
_
y Y
_
l
t
x,y
,
pri cemu su
X =
1
N
y
x t
x,y
=
1
N
x
x t
x
,
Y =
1
N
y
y t
x,y
=
1
N
y
y t
y
.
Uocimo i varijance
M
2,0
2
X
=
1
N
y
_
x X
_
2
t
x,y
=
1
N
y
_
x
2
2xX +X
2
_
t
x,y
= X
2
X
2
, (12.2)
M
0,2
2
Y
= Y
2
Y
2
.
Centralni moment
M
1,1
2
XY
=
1
N
y
_
x X
_ _
y Y
_
t
x,y
= XY XY , (12.3)
naziva se kovarijanca. U primjeru iz tablice 12.1 je
X = 1.3053, X
2
= 1.97819,
x
= 0.523815,
Y = 5.78505, Y
2
= 34.0903,
Y
= 0.789669,
XY = 7.79128,
x,y
= 0.489953.
164 POGLAVLJE 12. TEORIJA KORELACIJE
Pokusajmo naci neku jednostavnu funkciju koja bi opisivala statisticka svojstva proma-
tranog skupa. Poslije konstante, najjednostavnija analiticka krivulja je svakako pravac s
koecijentom smjera razlicitim od nule. Mi cemo, dakle, pokusati svakoj vrijednosti x
pridruziti jednu vrijednost y = f(x), tako da x i f(x) budu povezane jednadzbom pravca
f(x) = a
0
+ a
1
x (12.4)
(primjetimo da je konstanta poseban slucaj pravca paralelnog s osi x, tj. a
1
= 0). Pravac
zelimo povuci tako da
razlika iznosa odstupanja ordinata pravca
od niza vrijednosti y
x
bude
sto manja.
Iznose cemo promatrati kroz kvadrate odstupanja, jer se kvadriranjem eliminira predz-
nak odstupanja, a derivacija kvadatne funkcije je jednostavnija od derivacije apsolutne
vrijednosti. Taj uvjet matematicki pisemo tako sto trazimo da zbroj
S
2
y
1
N
y
x
_
y
x
f(x)
_
2
t
x,y
x
= min.
bude minimalan. Ako za f(x) uvrstimo jednadzbu pravca, uvjet minimuma glasi
S
2
y
=
1
N
y
x
_
y
x
a
0
a
1
x
_
2
t
x,y
x
= min. (12.5)
U gornjem su uvjetu koecijenti a
0
i a
1
slobodni parametri cije cemo vrijednosti odabrati
upravo tako da zadovoljimo gornji uvjet. Iz matematicke analize je poznato da se ekstrem
funkcije vise varijabli nalazi tako da se prve derivacije funkcije izjednace s nulom. Ali, prve
derivacije po cemu?
Citatelji su vjerojatno navikli da se funkcija zove f i da su njezine
varijable x i y i da se onda po njima derivira. Sada je situacija malo drukcija. Funkcija
ciji ekstrem trazimo se zove S
2
y
i ona ne ovisi niti o x niti o y
x
(to su nijeme varijable,
po njima se zbraja i zato nakon izvedenog zbrajanja, S
2
y
ne moze ovisiti o njima). Jedino
o cemu ovisi S
2
y
jesu koecijenti a
0
i a
1
koji odreduju pravac. Dakle, uvjeti ekstrema se
pisu kao
S
2
y
= S
2
y
(a
0
, a
1
)
S
2
y
a
0
= 0,
S
2
y
a
1
= 0.
To su jednadzbe koje odreduju ekstrem. U nasem slucaju, iz nacina kako je postavljen
problem, znamo da to mora biti minimum (maksimum je nemoguc).
S
2
y
a
0
= 0
1
N
y
x
(y
x
a
0
a
1
x) t
x,y
x
= 0,
S
2
y
a
1
= 0
1
N
y
x
x (y
x
a
0
a
1
x) t
x,y
x
= 0.
U gore uvedenim oznakama, to je 2 2 algebarski sustav za nepoznanice a
0
i a
1
XY a
0
X a
1
X
2
= 0, Y a
0
a
1
X = 0. (12.6)
12.2. LINEARNA KORELACIJA 165
Rjesenja gornjeg sustava su
a
1
=
2
XY
2
X
, a
0
= Y X
2
XY
2
X
(12.7)
(usporediti s (6.24), gdje je svakom x-u bio pridruzen samo po jedan y). Time trazena
jednadzba pravca glasi
y Y =
2
XY
2
X
_
x X
_
. (12.8)
To je pravac koji je najblizi tockama y
x
. Primjetimo jos i da on prolazi tockom
(X, Y ).
U primjeru iz tablice 12.1, ova jednadzba pravca glasi
y = 4.64306 + 0.87489 x (12.9)
(isprekidana plava crta na slici 12.3).
Pokazimo da je to ujedno i pravac najblizi krivulji regresije, tj. pokazimo da je
S
2
=
1
N
x
_
y
x
a
0
a
1
x
_
2
t
x
= min.
Parcijalnim derivacijama po a
0
i a
1
slijedi,
S
2
a
0
= 0
1
x
t
x
x
_
y
x
a
0
a
1
x
_
t
x
= Y a
0
a
1
X = 0,
S
2
a
1
= 0
1
x
t
x
x
x
_
y
x
a
0
a
1
x
_
t
x
= XY a
0
X a
1
X
2
= 0,
a to je opet 2 2 sustav kao i (12.6), pa smo time pokazali da je pravac (12.8) najblizi i
krivulji regresije.
Gore opisanim postupkom, krenuli smo od ksnih x i njima pridruzenih y
x
, da bismo na
kraju dobili pravac (12.8). Naravno da u x-evima i y-ima nema niceg posebnog, tj. da
smo mogli krenuti i od nekog ksnog y i potraziti njemu pridruzene x
y
s odgovarajucim
tezinama t
x,y
. Potpuno istim postupkom kao gore (uz zamjenu x y), dolazi se do pravca
pridruzenog krivulji regresije
x = g(y) = b
0
+ b
1
y,
x X =
2
XY
2
Y
_
y Y
_
,
166 POGLAVLJE 12. TEORIJA KORELACIJE
tj.
y Y =
2
Y
2
XY
_
x X
_
. (12.10)
Primjetimo da i ovaj pravac prolazi tockom
(X, Y ),
tj. to je tocka u kojoj se pravci (12.8) i (12.10) presjecaju. U primjeru iz tablice 12.1, taj
pravac glasi
y = 2.39433 + 2.59765 x,
(isprekidana zelena crta na slici 12.3).
Stupanj koreliranosti.
Ako su zadana dva ili vise osnovnih skupova, moze se postaviti pitanje usporedbe stup-
nja koreliranosti u tim skupovima:
koji je skup vi
X
Y
(12.11)
(u nasem je primjeru r = 0.580345). Zna
= x X,
y
= y Y .
U tim novim koordinatama, jednadzba pravca (12.8) prolazi ishodistem ravnine (x
, y
) i
glasi
y
=
2
XY
2
X
x
.
12.2. LINEARNA KORELACIJA 167
Pogledajmo cemu je jednak zbroj (12.5) u crtkanim koordinatama
S
2
y
=
1
N
y
x
_
y
x
Ax B
_
2
t
x,y
x
=
1
N
y
x
_
y
x
+Y A
_
x
+X
_
B
_
2
t
x,y
x
=
1
N
y
x
_
y
x
Ax
+
_
Y AX B
_
. .
= (12.7) = 0
_
2
t
x,y
x
=
1
N
y
x
_
y
2
XY
2
X
x
_
2
t
x,y
x
=
1
N
y
x
_
y
2
x
2
2
XY
2
X
y
x
x
4
x,y
4
x
x
2
_
t
x,y
x
=
1
N
y
x
y
2
x
t
x,y
x
2
2
XY
2
X
1
N
y
x
y
x
x
t
x,y
x
+
4
x,y
4
x
1
N
y
x
x
2
t
x,y
x
= (12.2, 12.3) =
2
Y
2
2
XY
2
X
2
XY
+
4
X,Y
4
X
2
X
=
2
Y
4
XY
2
X
=
2
Y
_
1
4
XY
2
X
2
Y
_
=
2
Y
(1 r
2
), r =
2
XY
X
Y
.
Buduci da je S
2
y
zbroj pozitivnih brojeva, to je i on sam pozitivan broj, pa mora biti
(1 r
2
) 0 1 r +1.
Ako je r = 1, tada je S
2
y
= 0 i nema odstupanja pravca regresije od pravca: svakome x
odgovara jedan y
x
, tj. postoji stroga funkcionalna veza izmedu x i y
y = y(x).
U praksi to nikada nije slucaj, nego je uvijek
1 < r < +1
Iz gornjeg razmatranja zakljucujemo da
sto je r bli
zi grani
cnim vrijednostima +1
ili 1, to je korelacija bolja.
Sto je r po svojem iznosu blizi nuli, korelacija je
losija. Ako je r = 0, tada je S
2
y
=
2
Y
neovisno o x, tj. nema nikakve korelacije
izmedu x i y. Obicno se dobrom korelacijom smatra ona za koju je |r| 0.5, a losa je
korelacija za koju je |r| < 0.5.
Kutevi:
Proanalizirajmo jos i zna
2
X
_
x X
_
,
y Y =
2
Y
2
XY
_
x X
_
.
168 POGLAVLJE 12. TEORIJA KORELACIJE
Kao sto znamo, koecijenti smjera pravca su jednaki tangensima kutova koje pravci za-
tvaraju s osi x. Neka prvi pravac zatvara kut , a drugi
tan =
2
XY
2
X
, tan =
2
Y
2
XY
. (12.12)
Izracunajmo tangens kuta = koji medusobno zatvaraju ta dva pravca
tan = tan( ) =
tan tan
1 + tan tan
= (12.12) =
1 r
2
r
X
2
X
+
2
Y
.
Ako je r = 1 (sto znaci egzaktnu funkcionalnu ovisnost), tada je kut = = 0,
tj. oba pravca se poklapaju, identi
X
Y
,
iz r = 0 i slijedi da je i
2
XY
= 0, sto opet prema (12.12) povlaci da je i
tan = 0, tan = = 0, =
2
.
Jedan je pravac paralelan s osi x, a drugi s osi y.
Primjetimo na kraju jos i da sam kut ne mora biti mjera za korelaciju, jer on osim o
r ovisi i o
X
i
Y
. Jedino ako su x i y iste dimenzije (ili su bezdimenzijski), kut moze
posluziti kao mjera korelacije.
Primjer: 12.1 U donjoj tablicu su dane visine, X u cm i mase Y u kg, jedne dobne sku-
pine ljudi. Zadatak je prosuditi postoji li korelacija izmedu ove dvije varijable.
Y \X 157.5 161.5 165.5 169.5 173.5 177.5 181.5 185.5 t
y
X
y
54 9 23 13 4 1 - - - 50 162.70
59 10 31 51 40 7 1 - - 140 165.67
64 3 12 51 72 44 9 3 - 194 169.23
69 - 3 17 42 55 37 11 1 168 173.10
74 - 2 4 10 21 18 12 1 68 174.74
79 - - - 1 8 5 3 2 19 176.87
84 - - - - 3 1 2 2 8 179.00
89 - - - - - - 1 - 1 181.50
t
x
22 71 136 169 139 71 32 8 648
Y
x
57.64 59.07 62.09 64.50 68.46 70.41 72.91 75.88
R: Vrijednosti X
y
i Y
x
u gornjoj tablici su dobivene npr. ovako
X
y=54
=
1
50
(9 157.5 + 23 161.5 + 13 165.5 + 4 169.5 + 1 173.5) = 162.7,
12.2. LINEARNA KORELACIJA 169
Slika 12.4: Korelacija visina - masa iz primjera 12.1.
pom.dat
60
40
20
155
160
165
170
175
180
185
190
visina 50
55
60
65
70
75
80
85
90 masa
0
10
20
30
40
50
60
70
80
90
i slicno za istale vrijednosti iz tablice. Na slici 12.5 su plavom bojom oznaceni
parovi vrijednosti (x, Y
x
), a crvenom su bojom oznaceni parovi (X
y
, y).
Izracunajmo i ostale karakteristicne vrijednosti
X =
1
648
x
x t
x
= 169.901, X
2
=
1
648
x
x
2
t
x
= 28 902.2,
X
= 5.9875,
Y =
1
648
y
y t
y
= 65.2191, Y
2
=
1
648
y
y
2
t
y
= 4 294.64,
Y
= 6.41163,
XY =
1
648
y
x y t
xy
= 11 106.00
XY
= 5.02093.
Iz gornjih izraza racunamo i koecijent korelacije
r =
2
XY
X
Y
= 0.656681.
Koecijent korelacije je veci od 0.5, sto predstavlja dosta dobru korelaciju.
Izracunajmo tangense kutova i koji pravci zatvaraju s osi x, kao i tangens
kuta koji pravci zatvaraju medusobno
tan =
2
XY
2
X
= 0.703197, tan =
2
Y
2
XY
= 1.63068,
tan =
1 r
2
r
x
2
X
+
2
Y
= 0.432052 = 23.3668
0
.
170 POGLAVLJE 12. TEORIJA KORELACIJE
Slika 12.5: Plave tocke oznacavaju parove (x, Y
x
), a crvene oznacavaju parove (X
y
, y), a crtkanim
linijama su oznaceni odgovarajuci pravci.
150 160 170 180 190
x
50
60
70
80
90
y
Pomocu gornjih vrijednosti mozemo povuci i korelacijske pravce
y Y =
2
XY
2
X
(x X), y 65.2191 = 0.703197 (x 169.901),
y Y =
2
Y
2
XY
(x X), y 65.2191 = 1.63068 (x 169.901).
Ovi su pravci prikazani na slici 12.5: prvi u plavoj, a drugi u crvenoj boji.
12.3 Nelinearna korelacija
Ako se, prema (12.1), nacrta krivulja regresije (x, y
x
) i ako ona ne li
ci na pravac (kao
npr. na slici 12.6), potrebno je potraziti korelacijsku krivulju u obliku opcenitijem od
pravca. U pravilu se to radi pomocu polinoma reda K 2
f(x) = b
0
+ b
1
x + b
2
x
2
+ + b
K
x
K
, (12.13)
ali se mogu koristiti i drukcije funkcijske ovisnosti, ako zicka pozadina problema to
sugerira. Postupak je isti kao i kod linearne korelacije: koecijenti b
j
u gornjem izrazu
su slobodni parametri i oni se odreduju iz zahtjeva da S
2
y
, zbroj kvadrata odstupanja
ordinata korelacijskog polinoma f(x) od y
x
, bude minimalan
S
2
y
=
1
N
y
x
_
y
x
f(x)
_
2
t
x,y
x
= min., (12.14)
=
1
N
y
x
(y
x
b
0
b
1
x b
2
x
2
b
K
x
K
)
2
t
x,y
x
= min.
12.3. NELINEARNA KORELACIJA 171
Slika 12.6: Uz krivulju nelinearne regresije (12.13) za K = 2.
Nuzan uvjet minimuma jeste iscezavanje parcijalnih derivacija S
2
y
po b
j
:
S
2
y
b
0
= 0,
1
N
y
x
(y
x
b
0
b
1
x b
2
x
2
b
K
x
K
) t
x,y
x
= 0,
S
2
y
b
1
= 0,
1
N
y
x
(y
x
b
0
b
1
x b
2
x
2
b
K
x
K
) x t
x,y
x
= 0,
.
.
. (12.15)
S
2
y
b
K
= 0,
1
N
y
x
(y
x
b
0
b
1
x b
2
x
2
b
K
x
K
) x
K
t
x,y
x
= 0.
Gornje jednadzbe mozemo preglednije napisati i kao
Y b
0
b
1
X b
2
X
2
b
K
x
K
= 0,
XY b
0
X b
1
X
2
b
2
X
3
b
K
X
K+1
= 0,
.
.
. (12.16)
X
K
Y b
0
X
K
b
1
X
K+1
b
2
X
K+2
b
K
X
K+K
= 0.
To je sustav linearnih algebarskih jednadzba, reda (K+1) (K+1), cijim se rjesavanjem
dobivaju konstante b
0
, b
1
, , b
K
, a time i korelacijski polinom f(x) najblizi tockama y
x
.
Do rjesenja se moze doci i tako da se gornji sustav napise u matricnom obliku,
_
_
1 X X
2
X
K
X X
2
X
3
X
K+1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
X
K
X
K+1
X
K+2
X
2 K
_
_
_
b
0
b
1
.
.
.
b
K
_
_
=
_
_
Y
X Y
.
.
.
X
K
Y
_
_
,
172 POGLAVLJE 12. TEORIJA KORELACIJE
a zatim ga se pomnozi s lijeva inverznom matricom
_
_
b
0
b
1
.
.
.
b
K
_
_
=
_
_
1 X X
2
X
K
X X
2
X
3
X
K+1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
X
K
X
K+1
X
K+2
X
2 K
_
1 _
_
Y
X Y
.
.
.
X
K
Y
_
_
.
Gornji racun omogucava racun svih koecijenata b
0
, b
1
, , b
K
koji minimiziraju zbroj
(12.14).
Pokazimo da je ova krivulja ujedno i najbliza krivulji regresije y
x
. To cemo napraviti
tako sto cemo potraziti uvjet da je ukupno kvadratno odstupanje f(x) od y
x
minimalno
1
N
x
_
y
x
b
0
b
1
x b
2
x
2
b
K
x
K
_
2
t
x
= min.
Isto kao i ranije, gornji izraz parcijalno deriviramo po b
j
i te derivacije izjednacimo s
nulom
1
N
x
_
y
x
b
0
b
1
x b
2
x
2
b
K
x
K
_
t
x
= 0,
1
N
x
_
y
x
b
0
b
1
x b
2
x
2
b
K
x
K
_
x t
x
= 0,
.
.
.
1
N
x
_
y
x
b
0
b
1
x b
2
x
2
b
K
x
K
_
x
K
t
x
= 0.
Nakon zbrajanja, dobijemo isti sustav (12.16) kao i kada smo racunali odstupanja f(x)
od y
x
,
Y b
0
b
1
X b
2
X
2
b
K
x
K
= 0,
XY b
0
X b
1
X
2
b
2
X
3
b
K
X
K+1
= 0,
.
.
. (12.17)
X
K
Y b
0
X
K
b
1
X
K+1
b
2
X
K+2
b
K
X
K+K
= 0.
Time je pokazano da je korelacijska krivulja f(x) = b
0
+b
1
x+b
2
x
2
+ +b
K
x
K
ujedno
i najbliza regresijskoj krivulji y
x
.
Indeks korelacije:
Potrazimo sada velicinu koja ce nam opisivati stupanj koreliranosti izmedu X i Y . Ta se
velicina treba svesti na koecijent korelacije r (koji smo upoznali kod linearne korelacije),
kada su b
2
= b
3
= = b
K
= 0. Pomnozimo jednadzbe (12.15), koje daju uvjete
minimuma, redom sa b
0
, b
1
, , b
K
i zbrojimo ih. Dobit cemo
1
N
y
x
(b
0
+ b
1
x + b
2
x
2
+ + b
K
x
K
. .
= f(x)
)(y
x
b
0
b
1
x b
2
x
2
b
K
x
K
. .
= f(x)
) t
x,y
x
= 0,
12.3. NELINEARNA KORELACIJA 173
a to nije nista drugo nego
1
N
y
x
f(x)
_
y
x
f(x)
_
t
x,y
x
= 0,
1
N
y
x
f(x) y
x
t
x,y
x
=
1
N
y
x
f
2
(x) t
x,y
x
Y f = f
2
. (12.18)
Iz prve od jednadzba minimuma, (12.15), slijedi da je
1
N
y
x
[y
x
f(x)] t
x,y
x
= 0
1
N
y
x
y
x
t
x,y
x
=
1
N
y
x
f(x) t
x,y
x
Y = f. (12.19)
Vidimo da Y i f imaju istu prosjecnu vrijednost jednaku Y , koju mozemo uzeti za
ishodiste koordinatnog sustava, tj. mozemo prijeci u nove koordinate
y
= y Y .
f
= f f = f Y .
U tim novim koordinatama je
1
N
y
x
y
2
x
t
x,y
x
=
1
N
y
x
_
y
x
Y
_
2
t
x,y
x
=
2
Y
,
1
N
y
x
f(x)
2
t
x,y
x
=
1
N
y
x
_
f(x) Y
_
2
t
x,y
x
=
2
f
.
Oznacimo sa
2
Y,f
=
1
N
y
x
y
x
f(x)
t
x,y
x
=
1
N
y
x
_
y
x
Y
__
f(x) Y
_
t
x,y
x
=
1
N
y
x
_
y
x
f(x) y
x
Y f(x)Y +Y
2
_
t
x,y
x
= Y f Y Y fY +Y
2
= Y f fY
= (12.18), (12.19) = f
2
f
2
=
2
f
. (12.20)
Slicno kao i kod (12.11), zelimo kvantitativno izraziti stupanj koreliranosti osnovnog
skupa. Zato uvodimo indeks korelacije R
Y,X
,
R
Y,X
=
2
Y,f
f
= (12.20) =
2
f
f
R
Y,X
=
f
Y
.
(12.21)
174 POGLAVLJE 12. TEORIJA KORELACIJE
Da bismo vidjeli znacenje indeksa korelacije, vratimo se zbroju S
2
y
napisanom u crtkanim
koordinatama
S
2
y
=
1
N
y
x
_
y
x
f(x)
_
2
t
x,y
x
=
1
N
y
x
_
y
x
+Y f
(x) f
_
2
t
x,y
x
= (12.19) =
1
N
y
x
_
y
x
f
(x)
_
2
t
x,y
x
=
1
N
y
x
_
y
2
x
2y
x
f
(x) + f
2
(x)
_
t
x,y
x
=
1
N
y
x
y
2
x
t
x,y
x
2
1
N
y
x
y
x
f
(x) t
x,y
x
+
1
N
y
x
f
2
(x) t
x,y
x
=
2
Y
2
2
Y,f
+
2
f
= (12.20) =
2
Y
2
f
=
2
Y
_
1
2
f
2
Y
_
=
2
Y
_
1 R
2
Y,X
_
.
Iz gornjeg izraza vidimo da je zbroj kvadrata odstupanja y
x
f(x) utoliko manji ukoliko
je R
2
Y,X
blizi jedinici, tj. R
2
Y,X
mjeri koliko je polinom (12.13) blizu tockama y
x
. Ako je
R
2
Y,X
= 1, tada je S
2
y
= 0 i sve tocke y
x
leze na polinomu f(x) i on predstavlja egzaktnu
funkcijsku vezu X i Y . Ako je R
Y,X
= 0, zbroj S
2
y
ovisi samo o varijabli y, tj. izmedu x i
y nema nikakve korelacije. Sve ostale vrijednosti 1 < R
Y,X
< +1 opisuju veci ili manji
stupanj koreliranosti osnovnog skupa.
Umjesto (12.13), na potpuno isti nacin mogli smo krenuti i od polinoma
g(y) = a
0
+ a
1
y + a
2
y
2
+ + a
K
y
K
i zbroja
S
2
x
=
1
N
x
y
_
x
y
g(y)
_
2
t
x
y
,y
za koji bismo, analognim postupkom kao gore, dobili da je jednak
S
2
x
=
2
X
_
1 R
2
X,Y
_
.
Sada je
R
X,Y
=
g
/
X
,
indeks korelacije koji opisuje povezanost x prema y. Opcenito je R
X,Y
= R
Y,X
. Primje-
timo da za razliku od dva indeksa korelacije, postoji samo jedan koecijent korelacije i da
je on invarijantan na zamjenu X i Y .
Pokazimo da ako je polinom (12.13), pravac, da je tada R
Y,X
= r. Krenimo od izraza za
R
2
Y,X
R
2
Y,X
=
2
f
2
Y
=
1
2
Y
1
N
y
x
_
f(x) f
_
2
t
x,y
x
12.3. NELINEARNA KORELACIJA 175
u koji cemo uvrstiti (12.13) ogranicen na linearnu vezu
f = b
0
+ b
1
x
f = b
0
+ b
1
x = b
0
+ b
1
X
i dobiti
R
2
Y,X
=
1
2
Y
1
N
y
x
_
b
0
+ b
1
x b
0
b
1
X
_
2
t
x,y
x
=
b
2
1
2
Y
1
N
y
x
_
x
2
2xX +X
2
_
t
x,y
x
=
b
2
1
2
Y
_
X
2
2X
2
+X
2
_
=
b
2
1
2
Y
_
X
2
X
2
_
= b
2
1
2
X
2
Y
= (12.7) =
4
X,Y
4
X
2
X
2
Y
=
4
X,Y
2
X
2
Y
= r
2
.
Primjer: 12.2 Za ilustraciju nelinearne korelacije, navodimo jedan jednostavan primjer
ovisnosti izmedu X i Y . Donja tablica sadrzi tezine t
x,y
. Zadatak je izvesti
linearnu i kvadratnu korelaciju i izracunati koecijente i indekse korelacije.
Zakljucite koja je korelacijska funkcija najbolja.
Y \X 0 1 2 3
2 0 0 0 2
1 0 1 1 2
0 1 1 0 0
R: Izracunajmo najprije
y
t
x,y
= N = 8,
x
t
x,y
= t
y
,
y
t
x,y
= t
x
,
1
t
x
y
x
y
x
t
x,y
x
= y
x
,
1
t
y
x
y
x
y
t
x
y
,y
= x
y
.
Npr.
t
y=1
= 1 + 1 + 2 = 4
y
x=3
=
1
4
(2 2 + 1 2) = 1.5
x
y=1
=
1
4
(0 0 + 1 1 + 2 1 + 3 2) = 2.25.
176 POGLAVLJE 12. TEORIJA KORELACIJE
Unesimo gornje vrijednosti u tablicu.
Y \X 0 1 2 3 t
y
x
y
2 0 0 0 2 2 3
1 0 1 1 2 4 2.25
0 1 1 0 0 2 0.5
t
x
1 2 1 4 8
y
x
0 0.5 1 1.5
Sada se racunaju srednje vrijednosti:
X =
1
N
y
x t
x,y
=
1
N
x
x t
x
=
1
8
(0 1 + 1 2 + 2 1 + 3 4) = 2,
X
2
=
1
N
y
x
2
t
x,y
=
1
N
x
x
2
t
x
=
1
8
(0
2
1 + 1
2
2 + 2
2
1 + 3
2
4) = 5.25,
Y =
1
N
y
y t
x,y
=
1
N
y
y t
y
=
1
8
(0 2 + 1 4 + 2 2) = 1,
Y
2
=
1
N
y
y
2
t
x,y
=
1
N
y
y
2
t
y
=
1
8
(0
2
2 + 1
2
4 + 2
2
2) = 1.5,
X Y =
1
N
y
x y t
x,y
=
1
8
(0 0 1 + 0 1 0 + 0 2 0
1 0 1 + 1 1 1 + 1 2 0
2 0 0 + 2 1 1 + 2 2 0
3 0 0 + 3 1 2 + 3 2 2) =
1
8
(1 + 2 + 6 + 12) = 2.625
Pomocu gornjih srednjih vrijednosti se racunaju standardne devijacije:
2
X
= X
2
X
2
= 5.25 4 = 1.25,
2
Y
= Y
2
Y
2
= 1.5 1 = 0.5,
2
XY
= X Y X Y = 2.625 2 = 0.625.
Prema (12.8) i (12.10), korelacijski pravci su
y Y =
2
XY
2
X
_
x X
_
y = 0.5 x,
y Y =
2
Y
2
XY
_
x X
_
y = 0.8 x 0.6.
a prema (12.11), koecijent korelacije je
r =
2
XY
X
Y
= 0.790569.
12.3. NELINEARNA KORELACIJA 177
Za racun kvadratne korelacije oblika
y = f(x) = b
0
+ b
1
x + b
2
x
2
,
potrebno je izracunati i slijedece srednje vrijednosti
X
3
=
1
N
y
x
3
t
x,y
=
1
N
x
x
3
t
x
= 14.75,
X
4
=
1
N
y
x
4
t
x,y
=
1
N
x
x
4
t
x
= 42.75,
X
2
Y =
1
N
y
x
2
y t
x,y
= 7.375.
Ove srednje vrijednosti vode na slijedece vrijednosti koecijenata b
j
b
0
= 0,
b
0
= 0.5,
b
0
= 0,
tako da se kvadratna korelacija svodi na linearnu
y = 0.5 x.
Za racun indeksa korelacije, potrebno je izracunati i
f
2
=
1
N
y
f
2
(x) t
x,y
=
0.25
N
y
x
2
t
x,y
=
X
2
4
= 1.3125,
2
f
= f
2
Y
2
= 1.3125 1 = 0.3125,
sto zatim omogucava i racun indeksa korelacije (12.21) koji je u ovom slucaju
jednak koecijentu korelacije
R
Y X
=
f
Y
=
0.3125
0.5
= r = 0.790569.
Za racun one druge korelacijske parabole
x = g(y) = a
0
+ a
1
y + a
2
y
2
,
potrebno je izracunati i slijedece srednje vrijednosti
Y
3
=
1
N
y
y
3
t
x,y
=
1
N
y
y
3
t
y
= 2.5,
Y
4
=
1
N
y
y
4
t
x,y
=
1
N
y
y
4
t
y
= 4.5,
X Y
2
=
1
N
y
x y
2
t
x,y
= 4.125.
Ove srednje vrijednosti vode na slijedece vrijednosti koecijenata a
j
a
0
= 0.5,
a
0
= 2.25,
a
0
= 0.5,
178 POGLAVLJE 12. TEORIJA KORELACIJE
tako da kvadratna korelacija glasi
x = 0.5 + 2.25 y 0.5 y
2
.
Za racun indeksa korelacije, potrebno je izracunati i
g
2
=
1
N
y
g
2
(x) t
x,y
= dovr siti,
2
g
= f
2
X
2
= 4 = dovr siti,
sto zatim omogucava i racun indeksa korelacije
R
X,Y
=
g
/
X
= 0.82.
Buduci da je ovaj indeks korelacije blize jedinici nego sto su to R
Y X
i r,
zakljucak je da je ova kvadratna korelacija bolja od one prve kvadratane i
obje linearne korelacije. dovrsiti dodati crtez(e)
12.4 Omjer korelacije
Do sada smo se upoznali s dvije velicine koje mjere stupanj koreliranosti (ili stohasticnosti)
nekog skupa: to su koecijent korelacije r i indeks korelaciej R
,
. U ovom ce odjeljku
biti rijeci i o trecoj takvoj velicini - omjeru korelacije. Omjer korelacije je naziv za jednu
velicinu koja nam omogucava ocjenu stupnja koreliranosti (ili stohasticnosti) medu
velicinama X i Y , samo pomocu krivulje regresije,
(x, y
x
),
a bez uvodenja korelacijskog pravca ili koje druge korelacijske krivulje.
Ideja je u tome da se naprosto racuna zbroj kvadrata odstupanja y
x
od krivulje
regresije y
x
, a ne od polinoma kao u prethodonom odjeljku. Oznacimo taj zbroj sa
S
2
y
,
S
2
y
=
1
N
y
x
_
y
x
y
x
_
2
t
x,y
x
. (12.22)
sto je ovaj zbroj manji, to su tocke y
x
blize krivulji regresije y
x
i korelacija je veca.
Uvedimo jednu pomocnu velicinu
2
m,y
=
1
N
x
_
y
x
Y
_
2
t
x
,
koja mjeri odstupanja pojedinih y
x
od srednje vrijednosti cijelog skupa Y . Od ranije
nam je poznata varijanca y
2
Y
=
1
N
y
x
_
y
x
Y
_
2
t
x,y
x
.
12.4. OMJER KORELACIJE 179
Sada mozemo kombinirati ove izraze
2
Y
=
1
N
y
x
__
y
x
y
x
_
+
_
y
x
Y
__
2
t
x,y
x
=
1
N
y
x
_
y
x
y
x
_
2
t
x,y
x
. .
= S
2
y
+
1
N
y
x
_
y
x
Y
_
2
t
x,y
x
. .
=
2
m,y
+ 2
1
N
y
x
_
y
x
y
x
__
y
x
Y
_
t
x,y
x
.
Pokazimo da je ovaj posljednji, mjesoviti clan, jednak nuli
1
N
y
x
_
y
x
y
x
__
y
x
Y
_
t
x,y
x
=
1
N
y
x
_
y
x
y
x
y
x
Y y
x
2
+y
x
Y
_
t
x,y
x
=
1
N
y
x
y
x
y
x
t
x,y
x
Y
2
1
N
y
x
y
x
2
t
x,y
x
+
Y
2
=
1
N
x
y
x
y
x
_
y
x
y
x
_
t
x,y
x
=
1
N
x
y
x
_
y
x
y
x
_
t
x
= 0.
Vratimo se sada izrazu za
2
Y
koji postaje
2
Y
= S
2
y
+
2
m,y
.
Rijesimo li gornju jednakost po S
2
y
S
2
y
=
2
Y
_
1
2
m,y
2
Y
_
=
2
Y
_
1
2
Y,X
_
,
gdje smo oznacili
Y,X
=
m,y
Y
.
(12.23)
Buduci da je S
2
y
zbroj kvadrata, ono je pozitivna velicina, pa mora biti
1
Y,X
+1.
Velicina
Y,X
se naziva omjer korelacije i, slicno kao i koecijent i indeks korelacije,
mjeri korelaciju izmedu y
x
i x. Korelacija je bolja ako je S
2
y
manje, tj. ako je
Y,X
po
iznosu blizi jedinici. Ako je
2
Y,X
= 1, tada je S
2
y
= 0 i postoji egzaktna funkcijska veza
izmedu X i Y .
Pokazimo da je
S
2
y
S
2
y
.
180 POGLAVLJE 12. TEORIJA KORELACIJE
Prema denicijama (12.14) i (12.22) je
S
2
y
=
1
N
y
x
_
y
x
y
x
_
2
t
x,y
x
, S
2
y
=
1
N
y
x
_
y
x
f(x)
_
2
t
x,y
x
.
Oba gornja izraza su oblika
1
N
y
x
_
y
x
a
x
_
2
t
x,y
x
F(a
x
),
sto shvacamo kao neku funkciju od a
x
, koju smo nazvali F(a
x
). Pitamo se: kada je F(a
x
)
najmanje (po deniciji, najvece je za a
x
)? Iz matematicke analize je poznato da se
uvjet ekstrema funkcije odreduje iz
d F(a
x
)
d a
x
= 0 = (2)
1
N
y
x
(y
x
a
x
) t
x,y
x
y
x
= a
x
i/ili Y = a.
Dakle, zbroj je najmanji kada je a
x
= y
x
. U zbroju S
2
y
je a
x
= f(x) = y
x
, pa je zato
S
2
y
S
2
y
. Iz ove nejednakosti i relacija
R
2
y,x
= 1
S
2
y
2
Y
,
2
Y,X
= 1
S
2
y
2
Y
zakljucujemo da je
2
Y,X
R
2
y,x
.
To znaci da omjer korelacije ne moze biti manji od indeksa korelacija (pa time i koecijenta
korelacije). Ako je krivulja regresije pravac, tada je y
x
= f(x) i oba zbroja su isti:
S
2
y
= S
2
y
, pa je i
2
Y
(1
2
Y,X
) =
2
Y
(1 r
2
),
Y,X
= r.
Spomenimo jos na kraju, da razlika
2
Y,X
r
2
mjeri koliko korelacijska krivulja odstupa
od pravca.
Primjer: 12.3 dovrsiti
12.5 Visestruka i djelomicna korelacija
U prethodnim smo odjeljcima pokazali kako se moze traziti korelacija jedne slucajne va-
rijable o drugoj. Sada cemo to prosiriti na mogucnost da je jedna slucajna varijabla
korelirana sa dvije ili vise drugih slucajnih varijabli. Ovakav tip korelacije se naziva
vi
sestruka korelacija. Npr. moze se traziti korelacija izmedu visine jedne osobe i
visine njezinih roditelja (dvostruka korelacija) ili korelacija izmedu prinosa neke poljo-
privredne kulture i koristenja gnojiva, sredstava za zastitu od korova i kukaca, kolicine
padalina itd. (visestruka korelacija).
Ako znamo da je jedna varijabla korelirana sa vise drugih varijabli, ali nas iz nekog razloga
zanima ovisnost o samo jednoj od tih nekoliko varijabli (uz eliminaciju utjecaja ostalih),
tada se takva korelacija naziva djelomi
cna korelacija.
12.5. VI
SESTRUKA I DJELOMI
ci statisti
cku analizu.
Ovo se poglavlje razlikuje od prethodnih po tome sto sada ne
cajnog odabira, sto znaci da svaki element osnovnog skupa ima istu vje-
rojatnost da bude odabran. Uvedimo nekoliko oznaka:
N je ukupan broj elemenata osnovnog skupa,
N je broj elemenata u pojedinom uzorku
(pretpostavljamo da svi uzorci imaju isti broj elemenata),
N
uz
je broj uzoraka
Krenimo od osnovnog skupa (koji ima N elemenata)
x
1
, x
2
, , x
N
(13.1)
i cija je aritmeticka sredina jednaka
x =
x
1
+ x
2
+ + x
N
N
. (13.2)
To je velicina koju je vrlo tesko ili nemoguce izracunati. Iz tog skupa izdvajamo uzorke
od po N clanova. Ukupan broj uzoraka koje je moguce napraviti na opisani nacin
2
je
N
uz
=
_
N
N
_
. Te cemo uzorke oznaciti kao
(1) x
1,1
, x
1,2
, , x
1,N
,
(2) x
2,1
, x
2,2
, , x
2,N
,
(3) x
3,1
, x
3,2
, , x
3,N
,
.
.
.
(k) x
k,1
, x
k,2
, , x
k,N
,
.
.
.
Svaki od gornjih x
k,j
je neki od elementa (13.1). Aritmeticka sredina k-tog uzorka, x
k
, je
jednaka
x
k
=
x
k,1
+ x
k,2
+ + x
k,N
N
. (13.3)
Kao sto smo spomenuli, od N elemenata osnovnog skupa (13.1), moguce je napraviti
_
N
N
_
uzoraka s N clanova. Stoga i gornjih aritmetickih sredina ima
_
N
N
_
. Njihova aritmeticka
sredina (oznacimo ju s m) jednaka je
m =
x
1
+ x
2
+ x
3
+
_
N
N
_ .
(13.4)
2
Najcesce se ne radi sa svim mogucim uzorcima, nego je N
uz
<<
(
N
N
)
13.1. OSNOVNI POJMOVI 185
Prema (13.3), je m jednako
m =
(x
1,1
+ x
1,2
+ + x
1,N
) + (x
2,1
+ x
2,2
+ + x
2,N
) +
N
_
N
N
_
Pogledajmo sada brojnik gornjeg izraza. Koliko se puta svaki element osnovnog skupa
x
i
, pojavljuje u brojniku? Ako ksiramo jedan x
i
, onda se preostalih N 1 clanova
uzorka (koji se nalaze u istoj okrugloj zagradi kao i x
i
, u brojniku gornjeg izraza) izmedu
N 1 preostalih elemenata osnovnog skupa, moze odabrati na
_
N1
N1
_
nacina. Ovakvo
razmisljanje vrijedi za svaki x
i
iz osnovnog skupa i zato je brojnik jednak
_
N 1
N 1
_
(x
1
+ x
2
+ + x
N
).
Uvrstimo to u izraz za aritmeticku sredinu m
m =
_
N1
N1
_
(x
1
+ x
2
+ + x
N
)
N
_
N
N
_
=
(N 1)! N!(N N)! (x
1
+ x
2
+ + x
N
)
N (N 1)! (N N)!N!
=
x
1
+ x
2
+ + x
N
N
x.
To je vrlo vazan rezultat
m = x. (13.5)
Aritmeticka sredina m od aritmetickih sredina svih mogucih uzoraka s N clanova upravo
je jednaka aritmetickoj sredini x, cijelog (velikog) osnovnog skupa. Naravno da u praksi
nikada nece biti moguce napraviti sve moguce uzorke od jednog ogromnog skupa, ali
o
cekujemo da
ce i za srazmjerno mali broj uzoraka, takoder aritmeti
cka
sredina m od aritmeti
ckoj sredini i da
ce to biti utoliko to
ci.
Varijanca - vi
se uzoraka:
Ako za svaki od
_
N
N
_
mogucih uzoraka izracunamo njegovu aritmeticku sredinu, moguce
je da ce neke od tih sredina biti medusobno jednake. Poredamo li aritmeticke sredine
uzoraka po velicini i svakoj od njih pridruzimo kao tezinu, broj koliko se puta pojavila
u svim uzorcima, dobit cemo raspodjelu aritmeti
2
m
=
1
_
N
N
_
(
N
N
)
k=1
(x
k
x)
2
186 POGLAVLJE 13. TEORIJA UZORAKA
2
m
=
1
_
N
N
_
(
N
N
)
k=1
_
x
k,1
+ x
k,2
+ + x
k,N
N
x
_
2
=
1
_
N
N
_
1
N
2
(
N
N
)
k=1
_
(x
k,1
x) + (x
k,2
x ) + + (x
k,N
x )
_
2
. (13.6)
Pogledajmo izraz u uglatoj zagradi. Primjetimo opet da su x
k,n
elementi osnovnog skupa
x
i
, tako ce se kvadriranjem uglate zagrade dobiti dvije vrste clanova: nazovimo ih cisti i
mijesani
(x
i
x)
2
, 2 (x
i
x)(x
j
x ), i = j.
Izracunajmo koliko ima cistih clanova: u uglatoj zagradi u (13.6), ksiramo okruglu
zagradu s x
i
i pitamo se na koliko nacina iz N 1 preostalih elemenata osnovnog skupa
mozemo odabrati N1 clanova u preostalim okruglim zagradama; to je moguce na
_
N1
N1
_
nacina. Koliko ima mjesanih (x
i
x)(x
j
x) clanova? Sada ksiramo dva razlicita x
i
i
x
j
iz osnovnog skupa i pitamo se na koliko nacina iz preostalih N 2 elemenata osnovnog
skupa, mozemo odabrati N 2 clana u preostalim okruglim zagradama; to je moguce na
_
N2
N2
_
nacina. Ovim razmatranjem smo zakljucili da je
(
N
N
)
k=1
_
(x
k,1
x) + (x
k,2
x) + + (x
k,N
x)
_
2
=
N
i=1
_
_
N1
N1
_
(x
i
x )
2
+ 2
_
N2
N2
_
(x
i
x)
N
j=i+1
(x
j
x)
_
.
Time varijanca
2
m
raspodjele aritmetickih sredina uzoraka postaje jednaka
2
m
=
1
N
2
_
N
N
_
_
_
N 1
N 1
_
N
i=1
(x
i
x)
2
+ 2
_
N 2
N 2
_
N1
i=1
N
j=i+1
(x
i
x ) (x
j
x)
_
.
Sada dalje analiziramo mjesoviti clan gornjeg izraza: prema samoj deniciji (13.2), arit-
meticke sredine cijelog osnovnog skupa, je
(x
1
x) + (x
2
x) + + (x
N
x) = 0.
Kvadriranjem gornje relacije slijedi
(x
1
x )
2
+ (x
2
x )
2
+ + (x
N
x )
2
+ 2
_
(x
1
x)(x
2
x ) + (x
1
x)(x
3
x ) + + (x
2
x )(x
3
x) +
_
= 0
ili, krace napisano,
N
i=1
(x
i
x )
2
+ 2
N1
i=1
N
j=i+1
(x
i
x)(x
j
x ) = 0.
13.1. OSNOVNI POJMOVI 187
Ako mjesoviti clan iz gornje jednadzbe uvrstimo u izraz za
2
m
, dobit cemo
2
m
=
1
N
2
_
N
N
_
_
N 1
N 1
_
N
i=1
(x
i
x )
2
1
N
2
_
N
N
_
_
N 2
N 2
_
N
i=1
(x
i
x)
2
=
1
N
2
_
N
N
_
_
N 2
N 2
_
N N
N 1
N
i=1
(x
i
x)
2
=
1
N
1
N
N N
N 1
N
i=1
(x
i
x)
2
.
Oznacimo pravu standardnu devijaciju cijelog osnovnog skupa sa
2
=
1
N
N
i=1
(x
i
x)
2
, (13.7)
tada je varijanca (kvadrat standardne devijacije) raspodjele aritmetickih sredina svih
mogucih uzoraka od N clanova, jednaka
2
m
=
N N
N 1
2
N
.
Ako pretpostavimo da je broj elemenata osnovnog skupa N, vrlo velik (svakako puno veci
od N), tada je (N N)/(N 1) 1 i
2
m
2
N
,
N
(13.8)
Vaznost gornje relacije je u tome sto povezuje standardnu devijaciju raspodjele arit-
metickih sredina uzoraka sa pravom standardnom devijacijom cijelog velikog osnov-
nog skupa. Vidimo da je standardna devijacija dobivena iz uzoraka manja od prave
standardne devijacije, i to smanjene je srazmjerno korjenu iz velicine uzorka. Kasnije, u
odjeljku 13.2, cemo vidjeti da su aritmeticke sredine uzoraka raspodjeljene po Gaussovoj
raspodjeli. Prema nasim ranijim analizama sa str. 55, to znaci da sa 95.5% sigurnosti
mozemo reci da vrijedi
3
x
k
2
m
< x < x
k
+ 2
m
,
x
k
2
N
< x < x
k
+ 2
N
. (13.9)
Varijanca -jedan uzorak:
Gornji je izraz ipak nedovoljan za prakticnu primjenu, jer zbog nepoznavanja osnovnog
3
Ukoliko imamo vise uzoraka, tada u (13.9) umjesto x
k
dolazi m.
188 POGLAVLJE 13. TEORIJA UZORAKA
skupa, mi ne znamo ni koliki je (deniran kroz (13.7)). Zato se postupa na slijedeci
nacin: uvodi se varijanca k-tog uzorka
2
k
=
1
N
N
n=1
(x
k,n
x
k
)
2
. (13.10)
Primjetimo razliku prema
m
: gornji se izraz odnosi na jedan odredeni uzorak, dok se
(13.6) odnosi na sve moguce uzorke. Desnu stranu gornjeg izraza znamo izracunati, a
desnu stranu (13.6) ne znamo izracunati buduci da ne znamo koliki je x . Osim toga se
uvodi jedna slicna velicina s
2
k
koja se takoder odnosi na jedan odredeni uzorak, s tom
razlikom u odnosu na
2
k
, sto se sada promatra odstupanje elemenata uzorka u odnosu na
(nepoznatu) aritmeticku sredinu cijelog osnovnog skupa x (a ne u odnosu na aritmeticku
sredinu uzorka, x
k
, kao kod
2
k
)
s
2
k
=
1
N
N
n=1
(x
k,n
x)
2
.
Ova velicina s
k
je denirana tako da u odredenom smislu daje procjenu varijance os-
novnog skupa . Povezimo sada s
k
i
k
s
2
k
=
1
N
N
n=1
_
(x
k,n
x
k
) + (x
k
x )
_
2
=
1
N
N
n=1
(x
k,n
x
k
)
2
+
2
N
(x
k
x)
N
n=1
(x
k,n
x
k
) +
1
N
N
n=1
(x
k
x )
2
=
2
k
+ 2 (x
k
x)
_
1
N
N
n=1
x
k,n
1
N
N x
k
_
+
1
N
N (x
k
x)
2
=
2
k
+ 2 (x
k
x) (x
k
x
k
)
. .
= 0
+(x
k
x )
2
=
2
k
+ (x
k
x)
2
.
Sada se gornji izraz povezuje sa
m
. Prema deniciji (13.6) za
m
,
2
m
=
1
_
N
N
_
(
N
N
)
k=1
(x
k
x )
2
(x
k
x )
2
,
mozemo reci da je (x
k
x)
2
u prosjeku jednako
2
m
, pa zato gornja relacija postaje
s
2
k
=
2
k
+
2
m
= (13.8) =
2
k
+
2
N
.
Prema polaznoj zamisli, s
k
je deniran preko x, aritmeticke sredine cijelog skupa, pa bi
zato trebao biti nesto poput imitacije prave (one koja se odnosi na cijeli veliki skup).
Zato se izjednacava
s
k
i iz gornje relacije nalazimo
s
2
k
=
2
k
+
s
2
k
N
s
2
k
=
N
N 1
2
k
=
1
N 1
N
n=1
(x
k,n
x
k
)
2
,
13.1. OSNOVNI POJMOVI 189
tj.
s
k
=
N
N 1
_
x
2
k
x
2
k
_
(13.11)
(usporedite gornji izraz sa (6.12)). Ovaj s
k
je procjena standardne devijacije osnovnog
skupa i naziva se jos i standardna gre
N
< x < x
k
+ 2
s
k
N
. (13.12)
Primjer: 13.1 Evo jednog primjera u kojemu poznajemo egzaktno vrijednosti koje se
odnose na beskonacni skup, tako da cemo moci usporediti rezultate dobivene
pomocu uzorka sa pravim rezultatima.
Ako se prigodom bacanja jedne kocke okrene ili broj 4 ili broj 5 ili broj 6, onda
to nazivamo dogadajem A. Izvodi se slijedeci pokus: baci se odjednom 12 ko-
caka i broji se koliko se puta dogodio A. Taj broj oznacimo s x. Ocito je da x
moze biti bilo koji prirodni broj 0 x 12. Ovaj pokus se izvede 4 096 puta i
svaki se puta utvrdi koliki je x. Rezultat ovakvog prebrojavanja je dan donjom
tablicom
x 0 1 2 3 4 5 6 7 8 9 10 11 12
t
x
0 7 60 198 430 731 948 847 536 257 71 11 0.
Tako npr. iz gornje tablice ocitavamo da se A ostvario 6 puta u 948 od 4 096
bacanja. Zadatak je pomocu ovih podataka naci ocjenu za x.
R: Povezimo zadane velicine s oznakama uvedenim u prethodnom izlaganju:
broj elemenata osnovnog skupa je beskonacan, pa je N = ; velicina uzorka
je N = 4 096; varijabla X je diskretna i ima vrijednosti 0 x 12. Zbog
relativno jednostavne formulacije problema, x mozemo izracunati egzaktno
(bez potrebe posezanja za uzorcima). Kolika je vjerojatnost da se na jednoj
kocki ostvari dogadaj A?
p
A
=
1
6
+
1
6
+
1
6
=
1
2
q
A
= 1 p
A
=
1
2
.
Iz binomne raspodjele, (8.9), znamo da je standardna devijacija =
12 p
A
q
A
=
x=0
x p
x
=
12
x=1
x p
x
=
1
2
12
12
x=1
x
_
12
x
_
=
1
2
12
12
x=1
x
12 !
x ! (12 x) !
=
1
2
12
12
x=1
12 11 !
(x 1) ! (11 (x 1)) !
=
12
2
12
11
n=0
11 !
n! (11 n) !
=
12
2
12
2
11
= 6.
Dakle, egzaktna srednja vrijednost x je 6. Pogledajmo sto dobijemo iz uzorka.
Prema (13.3) je
x
k
=
1
N
x
x t
x
=
0 0 + 1 7 + 2 60 + . . . + 11 11 + 12 0
4 096
= 6.138916015625000.
Slicno racunamo i
x
2
k
=
1
N
x
x
2
t
x
=
0
2
0 + 1
2
7 + 2
2
60 + . . . + 11
2
11 + 12
2
0
4 096
= 40.61694335937500,
iz cega slijedi
2
k
= x
2
k
x
2
k
= 40.61694335937500 6.138916015625000
2
= 2.93065.
Pomocu gornjih rezultata i (13.12), zakljucujemo da se pravi x nalazi u inter-
valu
6.139 2 0.0267487 < x < 6.139 2 0.0267487,
6.08542 < x < 6.19241.
Vidimo da nam rezultat dobiven pomocu uzorka daje broj razlicit od egzaktnog
rezultata, x = 6. To je, naravno, posljedica neidealnosti kocaka kojima je
izveden pokus. Uzorak nije uzet iz skupa idealnih kocaka (koji i ne postoji) i
zato ne moze reproducirati rezultat koji vrijedi za idealne kocke.
13.2 Primjena sredisnjeg granicnog teorema u teoriji uzoraka
Kao sto smo spomenuli u prethodnom odjeljku, ako za svaki od
_
N
N
_
mogucih uzo-
raka izracunamo njegovu aritmeticku sredinu, moguce je da ce neke od tih sredina biti
medusobno jednake. Poredamo li aritmeticke sredine uzoraka po velicini i svakoj od njih
pridruzimo kao tezinu, broj koliko se puta pojavila u svim uzorcima, dobit cemo ras-
podjelu aritmeti
m
, nazivamo empirijskom te
m
clanova
(kao sto je ustanovljeno empirijski)? Od N clanova cijelog uzorka, njih t
m
se moze odabrati
na
_
N
t
m
_
razlicitih nacina. Vjerojatnost da ih se pojavi t
m
je p
t
m
, a da ih se istovremeno
ne pojavi N t
m
je q
Nt
m
; sve zajedno to vodi na trazenu vjerojatnost oblika binomne
raspodjele
P
m
=
_
N
t
m
_ _
t
m
N
_
t
m
_
1
t
m
N
_
Nt
m
.
Iz odjeljka 3.2 znamo da ce, za veliki N, binomna raspodjela prijeci u Gaussovu raspo-
djelu oblika (3.7), sa prosjecnom vrijednoscu (8.6)
x = Np
m
= t
m
.
To ce biti i prosjecna vrijednost granicne Gaussove raspodjele.
Razlika t
m
t
m
, za svaki m = 1, 2, , M, se moze shvatiti kao jedna slucajna varijabla
raspodjeljena po Gaussovoj raspodjeli. Neka je standardna devijacija svakog pojedinog
m-tog razreda jednaka
m
5
. Tada zbroj
M
m=1
(t
m
t
m
)
2
2
m
,
mjeri razliku izmedu teorijske i empirijske raspodjele, izrazenu u standardnoj devijaciji
pojedinog razreda kao jedinici mjere. Tu smo velicinu vec upoznali kod gama raspodjele
na strani 132 gdje smo ju oznacili s
2
. Uz vrlo malu pogresku
6
, moze se umjesto
2
m
pisati t
m
, pa je tako
m=1
(t
m
t
m
)
2
t
m
. (13.13)
Moze se pokazati (K. Pearson) da broj stupnjeva slobode k pridruzene gama raspodjele
ovisi o broju razreda M i vrsti raspodjele koja se prilagodava:
5
Primjetimo da, iako je ista oznaka,
m
nema znacenje (13.6)
6
Fisher, Contributions to Mathematical Statistics, New York, 1950.
13.3. TESTOVI 193
Gaussova raspodjela k = M 3,
binomna raspodjela k = M 2,
Poissonova raspodjela k = M 2.
S obzirom na vezu izmedu
2
i gama raspodjele, relacijom (8.26) smo pokazali da
je vjerojatnost varijable
2
dana sa
dP(M/2,
2
/2) =
1
(M/2)
_
2
/2
_
M/21
e
1
2
2
d(
2
/2).
Pomocu gornje formule, mozemo odgovoriti na slijedece pitanje:
kolika je vjerojatnost da
ce
2
biti ve
2
(
2
/2)
1
2
(M2)
e
1
2
2
d
2
.
Prakticki to znaci slijedece: iz pretpostavke da neka teorijska raspodjela dobro opisuje
empirijsku, pomocu (13.13) izracunamo
2
i pitamo se kolika je vjerojatnost da ce razlika
izmedu empirijske i teorijske raspodjele biti veca od toga
2
? Odgovor daje gornji inte-
gral. Ako se teorijska i empirijska raspodjela dobro slazu,
2
ce biti malo i donja granica
u integralu ce biti mala i cijeli ce integral biti velik. Naprotiv, ako je slaganje izmedu
teorijske i empirijske raspodjele lose,
2
ce biti velik i donja granica u integralu ce biti
velika i cijeli ce integral biti mali. Dakle
velike vrijednosti integrala zna
ce dobro slaganje, a
male vrijednosti integrala zna
ce lo
se slaganje.
Na str 55 smo pokazali da u slucaju Gaussove raspodjele, s 95.5 % pouzdanosti mozemo
smatrati da se
2
nalazi unutar intervala oko nule polusirine 2 . Stoga je i ovdje
uobicajeno 5% uzeti za granicu. Ako je iz integrala dobivena vjerojatnost veca ili jednaka
5% rezultat se smatra zadovoljavajucim, tj. hipoteza je potvrdena: teorijska raspodjela
dobro opisuje empirijsku. Ako je vrijednost integrala manja od 5% hipoteza se odba-
cuje. Ovo podrucje vrijednosti
2
se naziva podru
n
njihove
194 POGLAVLJE 13. TEORIJA UZORAKA
Slika 13.1: Uz
2
test.
0 2 4 6 8 10
2
0
0.05
0.1
0.15
0.2
0.25
2
)
0.95
0.05
signifikantnosti
podrucje
empirijske tezine
C
n
19.60 19.65 19.70 19.75 19.80 19.85 19.90
t
n
3 5 5 20 35 74 92
C
n
19.95 20.00 20.05 20.10 20.15 20.20 20.25
t
n
83 70 54 27 12 2 3
Koristeci
2
test treba provjeriti pretpostavku da su elementi uzorka raspodje-
ljeni po Gaussovoj raspodjeli.
R: Za testiranje ce nam trebati teorijske Gaussove tezine t
G,n
pojedinih
mjerenja. Njih racunamo pomocu
t
G,n
N
=
G
(C
n
) d C,
gdje je
G
(C
n
) Gaussova raspodjela
G
(C
n
) =
1
2
e
1
2
[(C
n
C
n
)/]
2
,
a d C = 0.05 je sirina pojedinog razreda. Sama teorijska tezina je tada jednaka
t
G,n
= N d C
1
2
e
1
2
[(C
n
C
n
)/]
2
.
U gornjem izrazu je C
n
= 19.9329 aritmeticka sredina uzorka, = 0.108817
je standardna devijacija uzorka, oboje izracunato iz empirijskih podataka
C
k
n
=
1
N
N
n=1
C
k
n
t
n
,
2
= C
2
n
C
n
2
.
13.3. TESTOVI 195
Gornjom formulom se dobiju rezultati iz treceg stupca donje tablice
C
n
t
n
t
G,n
19.60 3 0.82534
19.65 5 3.02878 12.8535
19.70 5 8.99938
19.75 20 21.6504 21.6504
19.80 35 42.1723 42.1723
19.85 74 66.5115 66.5115
19.90 92 84.9328 84.9328
19.95 83 87.8138 87.8138
20.00 70 73.5121 73.5121
20.05 54 49.8268 49.8268
20.10 27 27.3449 27.3449
20.15 12 12.1506 12.1506
20.20 2 4.37147 5.64488
20.25 3 1.27341
485 484.414
Za nekoliko najmanjih i najvecih vrijednosti C
n
su pripadne tezine malene
(losa statistika, tj. mali broj dogadaja), pa cemo ih zato sazeti u jednu, kao
sto je to napravljeno cetvrtom stupcu gornje tablice: prve tri i posljednje dvije
vrijednosti smo zbrojili u jednu
t
n
: 3 + 5 + 5 = 13, t
G,n
: 0.82534 + 3.02878 + 8.99938 = 12.8535,
t
n
: 2 + 3 = 5, t
G,n
: 4.37147 + 1.27341 = 5.64488.
Time smo dobili M = 11 razreda iz kojih mozemo, prema (13.13) izracunati
2
=
M
m=1
(t
G,m
t
m
)
2
t
G,m
= 5.33193.
Broj stupnjeva slobode pridruzene gama raspodjele je k = M 3 = 8, pa iz
tablice IV na strani 358 - 9, reference [18], ocitavamo: P(
2
> 4.594) = 0.8 i
P(
2
> 5.527) = 0.7 iz cega zakljucujemo da je
0.7 < P(
2
> 5.33193) < 0.8.
Vjerojatnost je dakle veca od 5% sto znaci da je opravdano prihvatiti pretpos-
tavku da je raspodjela Gaussova.
13.3.2 Studentova t-raspodjela i t-test
Do ovoga je testa dosao 1908. godine William Sealy Gosset u radu kojega je objavio
pod pseudonimom Student. Po tome je i test dobio naziv Studentov test. Kao sto je
2
196 POGLAVLJE 13. TEORIJA UZORAKA
test baziran na gama raspodjeli, tako je i t-test baziran na t-raspodjeli, s kojom smo se
upoznali u odjeljku 8.6.
Krenimo od (velikog) osnovnog skupa ciji su elementi raspodjeljeni po Gaussovoj raspo-
djeli sa aritmetickom sredinom x i standardnom devijacijom i iz tog osnovnog skupa
izvadimo sve moguce uzorke od N clanova, s aritmetickim sredinama x
n
. Kao sto smo
pokazali u odjeljku 13.2, x
n
je raspodjeljeno po Gaussovoj raspodjeli oko prosjecne vri-
jednosti x. Iz toga zakljucujemo da je i varijabla x
n
x raspodjeljeno po Gaussovoj
raspodjeli sa prosjecnom vrijednoscu nula i standardnom devijacijom jednakom /
N.
Stoga, ako se napravi varijabla
x
n
x
/
N
,
ona ce biti raspodjeljena po Gaussovoj raspodjeli sa prosjecnom vrijednoscu nula i je-
dinicnom standardnom devijacijom. U gornjoj relaciji se x i odnose na cijeli skup, i
stoga su nam nepoznati. Ako umjesto te varijable, napravimo novu varijablu t koja ce
oponasati gornju varijablu
t =
N
x
n
x
s
n
, s
2
n
=
1
N 1
k
(x
n,k
x
n
)
2
, (13.14)
gdje se s
n
iz (13.11) u cjelosti racuna pomocu velicina iz uzorka, tada ce varijabla t biti
raspodjeljena po t-raspodjeli (8.27). Dokazimo slijedeci
Teorem: Ako je varijabla z opisana Gausovom raspodjelom (z = 0,
2
z
= 1), a varijabla
v gama raspodjelom sa stupnjem slobode k, tada je varijabla
t =
z
v/k
(13.15)
raspodjeljena po Studentovoj t-raspodjeli sa stupnjem slobode k.
Od ranije su nam poznate Gaussova i gama raspodjele
G
(z) =
1
2
e
1
2
z
2
,
(v) =
1
2
k
2
_
k
2
_ v
k2
2
e
1
2
v
,
pa je prema tome
(z, v) =
G
(z)
(v) =
1
22
k
2
_
k
2
_ v
k2
2
e
1
2
(v+z
2
)
.
Radi kraceg pisanja uvedimo pokratu
c =
1
22
k
2
_
k
2
_,
13.3. TESTOVI 197
i prijedimo s varijable z na varijablu t, drzeci pri tome v = const.
t =
z
v/k
.
Prema (3.34) mozemo pisati
(t, v) = (z, v)
dz
dt
k
v
k1
2
e
v
2k
(k+t
2
)
.
Samu raspodjelu po t dobijemo tako sto cemo (t, v) prointegrirati po svim dozvoljenim
vrijednostima v
t
(t) =
0
(t, v) dv =
c
0
v
k1
2
e
v
2k
(k+t
2
)
dv.
Integral racunamo u novoj varijabli
x =
v
2k
(k + t
2
)
u kojoj je
(t) =
c
k
_
2k
k + t
2
_k+1
2
0
x
k1
2
e
x
dv
=
c
k
_
2k
k + t
2
_k+1
2
_
k + 1
2
_
=
_
k+1
2
_
k
_
k
2
_
_
1 +
t
2
k
_
k+1
2
,
sto na koncu prepoznajemo kao t-raspodjelu, cime je teorem i dokazan.
Pomocu funkcije (t) racuna se vjerojatnost P da t bude veci od neke zadane vrijednosti
P =
t
(t) dt.
Primjer: 13.4 Standardom je propisano da svrdlo ima tvrdocu 60 R
C
(60 jedinica na
Rockwelovoj skali C). Na uzorku od osam svrdala, dobivena je srednja vrijed-
nost 59.2 R
C
i standardna devijacija 0.5 R
C
. Ima li serija svrdala iz koje je
uzet ovaj uzorak prosjecnu tvrdocu 60 R
C
? Pretpostavite da tvrdoca svrdala
slijedi Gaussovu raspodjelu.
198 POGLAVLJE 13. TEORIJA UZORAKA
R: Oznacimo tvrdocu svrdla s X. Uzorak se sastoji od N = 8 eleme-
nata, a srednja vrijednost X u uzorku je x
k
= 59.2 R
C
i standardna devijacija
k
= 0.5 R
C
. Prema (13.10) i (13.11) je
2
k
=
1
N
N
n=1
(x
k,n
x
k
)
2
=
1
8
8
n=1
(x
k,n
59.2 R
C
)
2
= 0.25 R
2
C
,
s
2
k
=
1
N 1
N
n=1
(x
k,n
x
k
)
2
=
N
N 1
2
k
= 0.28571 R
2
C
.
Prema pretpostavci zadatka, srednja vrijednost cijelog skupa je x = 60, pa
varijabla t iz (13.14) ima vrijednost
|t| =
N
x
k
x
s
k
= 4.233202 .
Za uzorak od N elemenata, stupanj slobode t raspodjele je N 1, pa zato
iz tablice 6 na str 383. u [14], citamo da je P(t = 3.499) = 0.01,a da je
P(t = 5.405) = 0.001. Iz toga zakljucujemo da je
0.001 < P(t = 4.23 ) < 0.01,
sto je manje od granice od 5 % i zato zakljucujemo da prosjecna tvrdoca svrdala
nije 60 R
C
.
Primjer: 13.5 Mjerenjem mase 20 cokoladnih tabli, dobiveni su slijedeci rezultati (u gra-
mima)
97 99 98 96 98 101 98 95 97 99
98 96 97 98 98 100 99 97 101 98
Pretpostavimo da su mase raspodjeljene po Gaussovoj raspodjeli. Smije li se na
temelju gornjeg uzorka tvrditi da je prosjecna masa cokoladnih tabli osnovnog
skupa iz kojeg je uzet uzorak, manja od 100 g?
R: Procjenu cemo izvesti t testom. Izracunajmo potrebne velicine: broj
elementa uzorka je N = 20, pretpostavljena vrijednost aritmeticke sredine ci-
jelog skupa je x = 100 (sve racunamo u gramima, pa cemo zato tu oznaku
dalje izostavljati), aritmeticka sredina uzorka je
x =
1
20
(97 + 99 + 98 + + 98) = 98,
s
2
k
=
1
N 1
N
n=1
(x
k,n
x
k
)
2
=
1
19
[(1)
2
+ 1
2
+ 0
2
+ ] = 2.421.
Pomocu ovih velicina racunamo t
|t| =
N
x
k
x
s
k
20
2
1.55
= 5.770.
13.3. TESTOVI 199
Za uzorak od N = 20 elemenata, stupanj slobode t raspodjele je N1 = 19, pa
zato iz tablice 6 na str 383. u [14], citamo da je P(t = 5.770) < 0.001. Iz toga
zakljucujemo da je pretpostavka x = 100 pogresna. Dakle, x nije 100. Kada
znamo koliki x nije, pokusajmo procijeniti koliki jeste. Da bi vjerojatnost P
imala granicnu vrijednost od 5 %, prema tablici 6 na str 383. u [14], mora biti
t = 2.093, sto vodi na x = 99.
200 POGLAVLJE 13. TEORIJA UZORAKA
Poglavlje 14
Procjene
14.1 Nepristrane procjene
Neka je vjerojatnost pojave kontinuirane slucajne varijable X s vrijednostima x dana
gustotom vjerojatnosti (x). U izrazu za gustotu vjerojatnosti se, osim same varijable
x, pojavlju i parametri, koje temo optenito oznaciti s
j
. Tako npr. u Poissonovoj
raspodjeli (8.16) postoji samo jedna parametar jednak ocekivanju; u Gaussovoj
raspodjeli postoje dva parametra: ocekivanje
1
X i standardna devijacija
2
,
itd. U praksi najceste nisu poznate tocne vrijednosti parametra koji opisuju raspo-
djelu i zato je potrebno nati zgodan nacin da se procijeni vrijednost tih parametara.
Ovu procjenu parametra
j
temo izvoditi jednom slucajnom varijablom koju temo
oznaciti s
j
, a koja je denirana na uzorku duljine N
j
=
j
(x
1
, x
2
, . . . , x
N
)
Za se kaze da nepristrano procjenjuje pravi parametar , ako je ocekivanje od
upravo jednako pravom parametru
E() = . (14.1)
Evo jednog jednostavnog primjera: ranije je, relacijom (), pokazano da je E(x) = X;
ova jednakost je upravo primjer (14.4) u kojemu je X taj pravi parametar ciju vrijed-
nost hotemo odrediti, X, a slucajna varijabla kojom radimo procjenu je naprosto
aritmeticka sredina
x =
1
N
N
n=1
x
n
.
Potrazimo varijablu koja nepristrano procjenjuje varijancu
2
. Svakom uzorku duljine
N pridruzuje se varijanca izrazom
2
=
2
(x
1
, x
2
, . . . , x
N
) =
1
N
N
n=1
(x
n
x)
2
,
koja je takoder jedna slucajna varijabla denira na uzorku duljine N. Pogledajmo je
li
2
nepristrana procjena prave varijance
2
, tj. vrijedi li (14.4) uz
2
2
i
2
2
.
201
202 POGLAVLJE 14. PROCJENE
Raspisimo
2
na slijedeti nacin
2
=
1
N
N
n=1
(x
n
x +X X)
2
=
1
N
N
n=1
[(x
n
X) (x X)]
2
=
1
N
_
N
n=1
(x
n
X)
2
2(x X)
N
n=1
(x
n
X) + N (x X)
2
_
=
1
N
N
n=1
(x
n
X)
2
(x X)
2
.
Izracunajmo ocekivanje gornje jednadzbe, tako sto temo koristiti svojstvo linearnosti
operatora ocekivanja ()
E(
2
) =
1
N
N
n=1
E[(x
n
X)
2
] E[(x X)
2
].
Prema () je E[(x
n
X)
2
] =
2
, a E[(x X)
2
] =
2
/N, pa je zato
E(
2
) =
1
N
N
n=1
2
/N =
N 1
N
2
=
2
.
Dakle, zakljucujemo da
2
nije nepristrana procjena za varijancu. No, gornji racun
ipak nije posve uzaludan. Uvedemo novu slucajnu varijablu relacijom
N
N 1
2
.
Opet zbog linearnosti operatora ocekivanja (), vrijedi
E(
2
) = E
_
N
N 1
2
_
=
N
N 1
E(
2
) =
N
N 1
N 1
N
2
=
2
.
Dakle
2
jeste nepristrana procjena varijance cijelog skupa (a ne samo uzorka!). Napisimo
jos i
2
pomotu x
n
-ova iz uzorka
2
=
1
N 1
N
n=1
(x
n
x)
2
.
14.1.1 Najbolja nepristrana procjena
Mogute je zamisliti situaciju u kojoj postoji vise slucajnih varijabli , koje sve nepris-
trano procjenjuju parametar . U tom slucaju je vazno nati onu nepristranu procjenu
koja najbolje procjenjuje . U ovom slucaju rijec najbolje znaci da je odstupanje
od najmanje. Kako bismo eliminirali utjecaj predznaka (buduti da su negativni bro-
jevi manji od pozitivnih, to bi i negativna odstupanja uvijek bila manja od pozitivnih),
racunat temo kvadrate odstupanja. No, kvadratno odstupanje je upravo ono sto smo
vet ranije, (), denirali kao varijancu. Prema tome, da bi bila nepristrana procjena
od , mora biti E() = , a da bi bila jos i najbolja nepristrana procjena, mora biti
zadovoljen i dodatni uvjet minimalne varijance
E[()
2
] = minimum.
14.1. NEPRISTRANE PROCJENE 203
Pokazimo sada da od svih linearnih funkcija varijabli x
1
, x
2
, . . . , x
N
, upravo aritmeticka
sredina x ima svojstvo da najbolje procjenjuje ocekivanje X cijelog osnovnog skupa
dogadaja (a ne samo uzorka). Neka je, dakle, najoptenitija linearna kombinacija
slucajnih varijabli x
1
, x
2
, . . . , x
N
= c
1
x
1
+ c
2
x
2
+ + c
N
x
N
, (14.2)
gdje su c
n
konstante. Kako su sve varijable x
n
opisane istom funkcijom raspodjele
gustote vjerojatnosti, to te biti i
E(x
1
) = E(x
2
) = = E(x
N
) = X,
V (x
1
) = V (x
2
) = = V (x
N
) =
2
.
Nas je zadatak nati vrijednosti konstanata c
n
, tako da budu zadovoljeni uvjeti ne-
pristranosti E() = X i najbolje nepristranosti E[( X)
2
] = minimum. Prema
linearnosti operatora ocekivanja, (), prvi uvjet vodi na
E() = E(c
1
x
1
+ c
2
x
2
+ + c
N
x
N
) = c
1
E(x
1
) + c
2
E(x
2
) + + c
N
E(x
N
)
= c
1
X + c
2
X + + c
N
X = (c
1
+ c
2
+ + c
N
) X.
No, prema deniciji () nepristrane procjene, gornji izraz treba biti jednak X, a to je
mogute samo ako je
c
1
+ c
2
+ + c
N
= 1.
Gornji te uvjet ocito biti zadovoljen ako umjesto koecijenata c
n
iz (14.5), koristimo
normirane koecijente
c
n
c
n
N
n=1
c
n
,
cime postaje
=
c
1
x
1
+ c
2
x
2
+ + c
N
x
N
N
n=1
c
n
. (14.3)
Ovako deniran zadovoljava uvjet nepristranosti. Pogledajmo sada sto donosi uvjet
najbolje nepristrane procjene. Iz matematicke analize je poznato da se ekstremi (mi-
nimumi ili maksimumi) funkcije u odnosu na neku varijablu, odreduju zahtjevom da je
derivacija funkcije po toj varijabli jednaka nuli. Mi sada zelimo da varijanca bude eks-
tremna (minimalna) u odnosu na . No, je odredena vrijednostima N konstanata c
n
i zato postoji ne jedan, nego N uvjeta minimuma koje pisemo kao
V ()
c
n
= 0, n = 1, 2, , N.
Da bismo mogli provesti gornju derivaciju, moramo znati kako V ovisi o c
n
-ovima. Po
204 POGLAVLJE 14. PROCJENE
uzoru na (), sada racunamo
V () = V
_
c
1
N
n=1
c
n
x
1
+
c
2
N
n=1
c
n
x
2
+ +
c
N
N
n=1
c
N
x
N
_
= E
_
_
_
c
1
N
n=1
c
n
(x
1
X) +
c
2
N
n=1
c
n
(x
2
X) +
c
N
N
n=1
c
N
(x
N
X)
_
2
_
_
= E
_
c
2
1
(
N
n=1
c
n
)
2
(x
1
X)
2
+
c
2
2
(
N
n=1
c
n
)
2
(x
2
X)
2
+
c
2
N
(
N
n=1
c
n
)
2
(x
N
X)
2
+ 2
c
1
N
n=1
c
n
c
2
N
n=1
c
n
(x
1
X)(x
2
X)
2
+
_
= (lin E)
=
c
2
1
(
N
n=1
c
n
)
2
E[(x
1
X)
2
] +
c
2
2
(
N
n=1
c
n
)
2
E[(x
2
X)
2
] + +
c
2
N
(
N
n=1
c
n
)
2
E[(x
n
X)
2
]
+ 2
c
1
N
n=1
c
n
c
2
N
n=1
c
n
E[(x
1
X)(x
2
X)] +
Buduti da su x
n
medusobno neovisne varijable, to je prema (), ocekivanje mjesovitih
clanova jednako nuli E[(x
n
X)(x
m
X)] = 0, pa preostaje
V () =
c
2
1
(
N
n=1
c
n
)
2
E[(x
1
X)
2
] +
c
2
2
(
N
n=1
c
n
)
2
E[(x
2
X)
2
] +
c
2
N
(
N
n=1
c
n
)
2
E[(x
n
X)
2
]
=
c
2
1
(
N
n=1
c
n
)
2
V (x
1
) +
c
2
2
(
N
n=1
c
n
)
2
V (x
2
) +
c
2
N
(
N
n=1
c
n
)
2
, V (x
N
)
=
c
2
1
(
N
n=1
c
n
)
2
2
+
c
2
2
(
N
n=1
c
n
)
2
2
+
c
2
N
(
N
n=1
c
n
)
2
2
=
c
2
1
+ c
2
2
+ + c
2
N
_
N
n=1
c
n
_
2
2
.
Sada, kada vidimo eksplicitnu ovisnost varijance o c
n
-ovima, mozemo provesti derivaciju
i izjednaciti ju s nulom
V () =
c
2
1
+ c
2
2
+ + c
2
N
_
N
n=1
c
n
_
2
2
,
0 =
V ()
c
m
=
2c
m
(
N
n=1
c
n
)
2
(c
2
1
+ c
2
2
+ + c
2
N
)2(
N
n=1
c
n
)
(
N
n=1
c
n
)
4
.
Ocito je gornji uvjet ispunjen, ako je
c
m
=
N
n=1
c
2
n
N
n=1
c
n
.
Primjetujemo da desna strana gornjeg izraza ne ovisi o m, sto znaci da su svi c
m
-ovi
14.2. PROCJENE 205
medusobno jednaki i oznacit temo ih s C
C
N
n=1
c
2
n
N
n=1
c
n
= c
1
= c
2
= = c
N
.
Uvrstimo ove vrijednosti za c
n
, natrag u izraz za
=
c
1
x
1
+ c
2
x
2
+ + c
N
x
N
N
n=1
c
n
=
C(x
1
+ x
2
+ + x
N
)
NC
=
x
1
+ x
2
+ + x
N
N
= x.
Opet smo dobili aritmeticku sredinu. Time je pokazano da je aritmeticka sredina ne-
pristrana i najbolja nepristrana procjena ocekivanja.
14.1.2 Intervalne procjene
14.2 Procjene
14.2.1 Nepristrane procjene
Neka je vjerojatnost pojave slucajne varijable X dana gustotom vjerojatnosti (x).
U izrazu za gustotu vjerojatnosti se, osim same varijable x, pojavlju i parametri, koje
temo optenito oznaciti s
j
. Tako npr. u Poissonovoj raspodjeli (odjeljak 8.2) postoji
samo jedna parametar jednak srednjoj vrijednosti; u Gaussovoj raspodjeli (odjeljak 8.4)
postoje dva parametra: srednja vrijednost
1
X i standardna devijacija
2
, itd. U
praksi najceste nisu poznate tocne vrijednosti parametra koji opisuju raspodjelu i zato
je potrebno nati zgodan nacin da se procijeni vrijednost tih parametara. Ovu procjenu
(pravih, ali nepoznatih) parametra
j
temo izvoditi jednom slucajnom varijablom koju
temo oznaciti s
j
j
=
j
(x
1
, x
2
, . . . , x
N
), j = 1, 2,
deniranom na uzorku x
n
duljine N. Za se kaze da nepristrano procjenjuje pravi
parametar , ako je ocekivanje od upravo jednako pravom parametru
= . (14.4)
Ako je nepristrani procjenjitelj, tada je i
=
2
2
.
Evo jednog jednostavnog primjera: promatra se osnovni skup sa (nepoznatom) srednjom
vrijednostu X; treba pokazati da je srednja vrijednost k-tog uzorka (x
1
, x
2
, , x
N
)
k
nepristarni procjenitelj X
x
k
=
1
N
N
n=1
x
n,k
,
x
k
=
1
N
N
n=1
x
n,k
=
1
N
N
n=1
x
n,k
=
1
N
N
n=1
X = X.
206 POGLAVLJE 14. PROCJENE
Time je pokazano da je aritmeticka sredina uzorka, nepristrani procjenitelj od X.
Potrazimo varijablu koja nepristrano procjenjuje varijancu
2
. k-tom uzorku duljine
N pridruzuje se varijanca izrazom
2
k
=
1
N
N
n=1
(x
n,k
x
k
)
2
,
koja je takoder jedna slucajna varijabla denira na uzorku duljine N. Pogledajmo je
li
2
k
nepristrana procjena prave varijance
2
, tj. vrijedi li (14.4) uz
2
2
i
2
2
k
.
Raspisimo
2
k
na slijedeti nacin
2
=
1
N
N
n=1
(x
n
x + )
2
=
1
N
N
n=1
[(x
n
) (x )]
2
=
1
N
_
N
n=1
(x
n
)
2
2(x )
N
n=1
(x
n
) + N (x )
2
_
=
1
N
N
n=1
(x
n
)
2
(x )
2
.
Izracunajmo ocekivanje gornje jednadzbe, tako sto temo koristiti svojstvo linearnosti
operatora ocekivanja ()
E(
2
) =
1
N
N
n=1
E[(x
n
)
2
] E[(x )
2
].
Prema () je E[(x
n
)
2
] =
2
, a E[(x )
2
] =
2
/N, pa je zato
E(
2
) =
1
N
N
n=1
2
/N =
N 1
N
2
=
2
.
Dakle, zakljucujemo da
2
nije nepristrana procjena za varijancu. No, gornji racun
ipak nije posve uzaludan. Uvedemo novu slucajnu varijablu relacijom
N
N 1
2
.
Opet zbog linearnosti operatora ocekivanja (), vrijedi
E(
2
) = E
_
N
N 1
2
_
=
N
N 1
E(
2
) =
N
N 1
N 1
N
2
=
2
.
Dakle
2
jeste nepristrana procjena varijance cijelog skupa (a ne samo uzorka!). Napisimo
jos i
2
pomotu x
n
-ova iz uzorka
2
=
1
N 1
N
n=1
(x
n
x)
2
.
14.2. PROCJENE 207
14.2.2 Najbolja nepristrana procjena
Mogute je zamisliti situaciju u kojoj postoji vise slucajnih varijabli , koje sve nepris-
trano procjenjuju parametar . U tom slucaju je vazno nati onu nepristranu procjenu
koja najbolje procjenjuje . U ovom slucaju rijec najbolje znaci da je odstupanje
od najmanje. Kako bismo eliminirali utjecaj predznaka (buduti da su negativni bro-
jevi manji od pozitivnih, to bi i negativna odstupanja uvijek bila manja od pozitivnih),
racunat temo kvadrate odstupanja. No, kvadratno odstupanje je upravo ono sto smo
vet ranije, (), denirali kao varijancu. Prema tome, da bi bila nepristrana procjena
od , mora biti E() = , a da bi bila jos i najbolja nepristrana procjena, mora biti
zadovoljen i dodatni uvjet minimalne varijance
E[()
2
] = minimum.
Pokazimo sada da od svih linearnih funkcija varijabli x
1
, x
2
, . . . , x
N
, upravo aritmeticka
sredina x ima svojstvo da najbolje procjenjuje ocekivanje cijelog osnovnog skupa
dogadaja (a ne samo uzorka). Neka je, dakle, najoptenitija linearna kombinacija
slucajnih varijabli x
1
, x
2
, . . . , x
N
= c
1
x
1
+ c
2
x
2
+ + c
N
x
N
, (14.5)
gdje su c
n
konstante. Kako su sve varijable x
n
opisane istom funkcijom raspodjele
gustote vjerojatnosti, to te biti i
E(x
1
) = E(x
2
) = = E(x
N
) = ,
V (x
1
) = V (x
2
) = = V (x
N
) =
2
.
Na je zadatak nati vrijednosti konstanata c
n
, tako da budu zadovoljeni uvjeti nepris-
tranosti E() = i najbolje nepristranosti E[()
2
] = minimum. Prema linearnosti
operatora ocekivanja, (), prvi uvjet vodi na
E() = E(c
1
x
1
+ c
2
x
2
+ + c
N
x
N
) = c
1
E(x
1
) + c
2
E(x
2
) + + c
N
E(x
N
)
= c
1
+ c
2
+ + c
N
= (c
1
+ c
2
+ + c
N
) .
No, prema deniciji () nepristrane procjene, gornji izraz treba biti jednak , a to je
mogute samo ako je
c
1
+ c
2
+ + c
N
= 1.
Gornji te uvjet ocito biti zadovoljen ako umjesto koecijenata c
n
iz (14.5), koristimo
normirane koecijente
c
n
c
n
N
n=1
c
n
,
cime postaje
=
c
1
x
1
+ c
2
x
2
+ + c
N
x
N
N
n=1
c
n
. (14.6)
Ovako deniran zadovoljava uvjet nepristranosti. Pogledajmo sada sto donosi uvjet
najbolje nepristrane procjene. Iz matematicke analize je poznato da se ekstremi (mi-
nimumi ili maksimumi) funkcije u odnosu na neku varijablu, odreduju zahtjevom da je
208 POGLAVLJE 14. PROCJENE
derivacija funkcije po toj varijabli jednaka nuli. Mi sada zelimo da varijanca bude eks-
tremna (minimalna) u odnosu na . No, je odredena vrijednostima N konstanata c
n
i zato postoji ne jedan, nego N uvjeta minimuma koje pisemo kao
V ()
c
n
= 0, n = 1, 2, , N.
Da bismo mogli provesti gornju derivaciju, moramo znati kako V ovisi o c
n
-ovima. Po
uzoru na (), sada racunamo
V () = V
_
c
1
N
n=1
c
n
x
1
+
c
2
N
n=1
c
n
x
2
+ +
c
N
N
n=1
c
N
x
N
_
= E
_
_
_
c
1
N
n=1
c
n
(x
1
) +
c
2
N
n=1
c
n
(x
2
) +
c
N
N
n=1
c
N
(x
N
)
_
2
_
_
= E
_
c
2
1
(
N
n=1
c
n
)
2
(x
1
)
2
+
c
2
2
(
N
n=1
c
n
)
2
(x
2
)
2
+
c
2
N
(
N
n=1
c
n
)
2
(x
N
)
2
+ 2
c
1
N
n=1
c
n
c
2
N
n=1
c
n
(x
1
)(x
2
)
2
+
_
= (lin E)
=
c
2
1
(
N
n=1
c
n
)
2
E[(x
1
)
2
] +
c
2
2
(
N
n=1
c
n
)
2
E[(x
2
)
2
] + +
c
2
N
(
N
n=1
c
n
)
2
E[(x
n
)
2
]
+ 2
c
1
N
n=1
c
n
c
2
N
n=1
c
n
E[(x
1
)(x
2
)] +
Buduti da su x
n
medusobno neovisne varijable, to je prema (), ocekivanje mjesovitih
clanova jednako nuli E[(x
n
)(x
m
)] = 0, pa preostaje
V () =
c
2
1
(
N
n=1
c
n
)
2
E[(x
1
)
2
] +
c
2
2
(
N
n=1
c
n
)
2
E[(x
2
)
2
] +
c
2
N
(
N
n=1
c
n
)
2
E[(x
n
)
2
]
=
c
2
1
(
N
n=1
c
n
)
2
V (x
1
) +
c
2
2
(
N
n=1
c
n
)
2
V (x
2
) +
c
2
N
(
N
n=1
c
n
)
2
, V (x
N
)
=
c
2
1
(
N
n=1
c
n
)
2
2
+
c
2
2
(
N
n=1
c
n
)
2
2
+
c
2
N
(
N
n=1
c
n
)
2
2
=
c
2
1
+ c
2
2
+ + c
2
N
_
N
n=1
c
n
_
2
2
.
Sada, kada vidimo eksplicitnu ovisnost varijance o c
n
-ovima, mozemo provesti derivaciju
i izjednaciti ju s nulom
V () =
c
2
1
+ c
2
2
+ + c
2
N
_
N
n=1
c
n
_
2
2
,
0 =
V ()
c
m
=
2c
m
(
N
n=1
c
n
)
2
(c
2
1
+ c
2
2
+ + c
2
N
)2(
N
n=1
c
n
)
(
N
n=1
c
n
)
4
.
14.2. PROCJENE 209
Ocito je gornji uvjet ispunjen, ako je
c
m
=
N
n=1
c
2
n
N
n=1
c
n
.
Primjetujemo da desna strana gornjeg izraza ne ovisi o m, sto znaci da su svi c
m
-ovi
medusobno jednaki i oznacit temo ih s C
C
N
n=1
c
2
n
N
n=1
c
n
= c
1
= c
2
= = c
N
.
Uvrstimo ove vrijednosti za c
n
, natrag u izraz za
=
c
1
x
1
+ c
2
x
2
+ + c
N
x
N
N
n=1
c
n
=
C(x
1
+ x
2
+ + x
N
)
NC
=
x
1
+ x
2
+ + x
N
N
= x.
Opet smo dobili aritmeticku sredinu. Time je pokazano da je aritmeticka sredina ne-
pristrana i najbolja nepristrana procjena ocekivanja.
14.2.3 Intervalne procjene
210 POGLAVLJE 14. PROCJENE
Poglavlje 15
Stohasticki procesi
Ako se izvodi niz pokusa, pri cemu rezultat svakog pojedinog pokusa ovisi o slucaju, tada
se takav niz pokusa naziva stohasticki proces.
Jedan tipican primjer stohastickog procesa je proucavanje gibanja cestica uida (plina
ili tekucine). Broj cestica koje sudjeluju u tom gibanju je toliko velik da je prakticki
nemoguce pratiti gibanje svake pojedine cestice na temelju njezine jednadzbe gibanja.
Stoga se ovom problemu pristupa statisticki, tako sto se sudari promatrane cestice s
ostalim cesticama smatraju potpuno slucajnima. Npr. u slucaju difuzije, promatra se
proces mijesanja dva uida: u pocetnom su trenutku oni bili razdvojeni pregradom, zatim
se pregrada uklanja i uidi se pocinju mijesati. Karakteristicna pitanja koja se pri tome
postavljaju su: koliko vremena treba da se odreden broj cestica pomakne za odredenu
duzinu, kolika je brzina odvijanja, difuzije, koliko vremena treba da se uspostavi ravnoteza
i slicna pitanja.
Jedan drugi primjer stohastickog procesa je radioaktivni raspad, gdje je potrebno
odrediti vjerojatnost da se u odredenom vremenskom intervalu odredeni broj cestica ra-
dioaktivno raspadne.
Osim toga, stohasticki su i procesi kao Brownovo gibanje, umno
zavanje kulture
bakterija, broj elektrona i fotona u kozmi
CKI PROCESI
menskim trenicima t < t
0
, onda se takvi procesi nazivaju Markovljevi
3
procesi.
U nastavku ovog odjeljka ce se izloziti dva razmjerno jednostavna primjera Markovljevih
procesa, a to su nasumicni hod i Markovljevi lanci.
15.1 Nasumicni hod
Nasumicni hod
4
je proces koji se pojavljuje u razlicitim podrucjima ljudske djelatnosti
5
.
Jedna jednostavna denicija ovog problema je slijedeca: cestica se giba u jednoj dimenziji
(npr. po segmentu osi x) tako da tijekom vremena izvodi skokove lijevo ili desno za jednu
jedinicu; vjerojatnost skoka na lijevu stranu je q, a na desnu p = 1 q; treba odrediti ili
polozaj cestice nakon n skokova ili vjerojatnost da cestica dode do ruba segmenta ili sto
slicno. Ekvivalentan ovome je i problem koji se pojavljuje u teoriji igara, a denira se na
slijedeci nacin: dva igraca. A i B, igraju igru kod koje je vjerojatnost dobitka za igraca
A jednaka p, a vjerojatnost gubitka je q (za B je, naravno, obratno); na pocetku igre,
igrac A ima x novaca, a B ima X x novaca. Igra se igra tako dugo dok ili A ne dobije
sav novac (iznosa X) ili ne izgubi sav novac (i komplementarno za igraca B). Postavlja
se pitanje: kolika je vjerojatnost da A izgubi sav svoj novac.
U nastavku ce se koristiti slika gibanja cestice, a ne primjer iz teorije igara. Promatrat
ce se, dakle, jednodimenzijsko gibanje po osi x u intervalu [0, X]. Vjerojatnost pomaka u
desno oznacava se s p, a vjerojatnost pomaka u lijevo s q = 1 p. Neka se u pocetnom
trenutku cestica nalazi u tocki s koordinatom 0 x X. U vremenskim trenucima
t = 1, 2, 3, cestica se nasumicno pomice lijevo ili desno za jednu jedinicu duljine.
Smjer pomaka se odreduje nekim pokusom ciji je ishod slucajan. Npr. ako zelimo da
vjerojatnost pomaka lijevo i desno bude jednaka, smjer pomaka se moze odrediti bacanje
kovanice: pismo - lijevo, a glava - desno ili bacanjem kocke: parni broj - lijevo, neparni
broj - desno ili nesto slicno. No, nije nuzno promatrati ovako simetricne procese. Od
interesa mogu biti i procesi u kojima je npr. vjerojatnost pomaka lijevo i desno nije ista
6
(npr. brojevi 1 i 2 na kocki znace pomak lijevo, a svi ostali desno)
Polozaj cestice nakon n pomaka, odgovara kolicini novca u posjedu igraca A nakon n
odigranih igara. Nasumicni hod zavrsava kada cestica ili stigne u ishodiste x = 0 ili u
x = X. Oznacimo s
p
x
vjerojatnost da cestica stigne u tocku x = X, ako se u pocetku nalazila u tocki x,
q
x
vjerojatnost da cestica stigne u tocku x = 0, ako se u pocetku nalazila u tocki x.
Ocito je iz denicija, da je
p
x
+ q
x
= 1.
3
Andrej Andrejevic Markov, ruski matematicar. Roden je 14. VI 1856. u Carskoj Rusiji, a umro je 20. VII 1922. u
SSSRu.
4
engl. random walk.
5
Ponekad se naziva i pijancev hod, sto sugerira jednu mogucu primjenu teme izlozene u ovom odjeljku. Taj se problem
moze postaviti i u dvije i tri dimenzije, sto je tada slozenije od onoga o cemu ce biti rijeci u ovom odjeljku.
6
Npr. sustav Isingovih spinova iznosa /2 u vanjskom magnetsko polju: vjerojatnost prijelaza u stanje paralelno vanjskom
polju ce biti veca nego vjerojatnost prijelaza u stanje antiparalelno polju. Drugi primjer je pijanac koji se nalazi na strmoj
ulici: vjerojatnije je da ce napraviti korak niz nego uz strminu.
15.1. NASUMI
CKI PROCESI
za nepoznati R, koji treba odrediti. Uvrstavanjem gornjeg pretpostavljenog oblika rjesenja
u jednadzbu (15.1), dolazi se do
R
x1
_
R q p R
2
_
= 0.
Uz pretpostavku da je R = 0 (sto je trivijalno rjesenje), gornja je jednadzba zadovoljena
ako je
R
2
1
p
R +
p
q
= 0.
Dva rjesenja gornje jednadzbe su
R
=
1
2p
_
1 (1 2q)
_
=
_
_
R
+
= 1 ,
R
=
q
p
.
Tako su se dobila dva rjesenja
q
(+)
x
= 1,
q
()
x
=
_
q
p
_
x
.
Buduci da je polazna jednadzba linearna i homogena, to je i linearna kombinacija ova dva
rjesenja, takoder rjesenje. Zato je opci oblik rjesenja dan sa
q
x
= A q
(+)
x
+ B q
()
x
= A 1 + B
_
q
p
_
x
, (15.4)
gdje se konstante A i B odreduju iz rubnih uvjeta (15.2) i (15.2):
x = 0, q
0
= 1 = A + B,
x = X, q
X
= 0 = A + B
_
q
p
_
X
.
Rjesavanjem gornjeg 2 2 linearnog sustava, dobiju se konstante A i B
A =
_
q
p
_
X
_
q
p
_
X
1
, B =
1
_
q
p
_
X
1
,
i konacno rjesenje za q
x
q
x
=
_
q
p
_
X
_
q
p
_
x
_
q
p
_
X
1
, q = p. (15.5)
To je vjerojatnost da ce cestica koja se u danom trenutku nalazi u tocki x, okoncati svoj
nasumicni hod u tocki x = 0.
15.1. NASUMI
_
p
q
_
Xx
_
p
q
_
X
1
, q = p.
U slucaju kada je p = q =
1
2
, izrazi za p
x
i q
x
se svode na neodredeni oblik
0
0
,
i rjesavaju se ili razvojem u red ili primjenom LHospitalovog pravila (sto je u biti isti
postupak). Uvede li se varijabla
u =
q
p
,
tada je, primjenom LHospitalovog pravila,
lim
u 1
q
x
= lim
u 1
Xu
X1
xu
x1
Xu
X1
0
= 1
x
X
, q = p =
1
2
.
q
x
= 1
x
X
q = p =
1
2
. (15.6)
Primjetimo da gornje rjesenje zadovoljava rubne uvjete (15.2) i (15.2). Vjerojatnost da
cestica okonca hod u x = X je
p
x
= 1 q
x
=
x
X
, q = p =
1
2
.
Primjer: 15.1 Zadan je interval na x osi [0, 1000].
Cestica se nalazi u tocki x = 999.
Izracunajte vjerojatnost da cestica okonca svoj hod u tocki x = 0, ako je
(a) p = q = 1/2,
(b) p = 2/5, q = 3/5 .
R:
(a) Kada je q = p = 1/2, vjerojatnost q
x
se racuna iz (15.6)
q
x
= 1
x
X
= 1
999
1000
= 1 0.999 = 0.001 = 0.1 %.
216 POGLAVLJE 15. STOHASTI
CKI PROCESI
(b) Kada je q = p, vjerojatnost q
x
se racuna iz (15.24)
q
x
=
_
q
p
_
X
_
q
p
_
x
_
q
p
_
X
1
=
_
3
2
_
1000
_
3
2
_
999
_
3
2
_
1000
1
=
_
3
2
_
999
_
3
2
1
_
_
3
2
_
1000
1
=
3
999
3
1 000
2
1 000
=
1
3
1
1 (2/3)
1 000
1
3
.
Primjer: 15.2
Cestica se nalazi u tocki x, a interval po kojemu se moze gibati je 0
x < . Kolika je vjerojatnost da cestica dode u ishodiste ako je q > p, q = p
i q < p?
R:
Kada je q = p, vjerojatnost dolaska u ishodiste se racuna iz (15.24)
q
x
=
_
q
p
_
X
_
q
p
_
x
_
q
p
_
X
1
.
Kada je q > p, tada je
lim
X
q
x
=
_
q
p
_
X
_
q
p
_
X
= 1,
tj. cestica ce sigurno okoncati svoj hod u ishodistu.
Ako je q = p, tada se q
x
racuna pomocu (15.6),
q
x
= lim
X
_
1
x
X
_
= 1,
i opet ce cestica sa sigurnoscu okoncati svoj hod u ishodistu.
Ako je q < p, tada je
lim
X
_
q
p
_
X
= 0,
pa je, prema (15.24), vjerojatnost dolaska u ishodiste dana sa
q
x
=
_
q
p
_
x
.
Vrijeme do dolaska u rubnu to
cku:
Promotrimo opet cesticu koja zapocinje svoj hod iz tocke x, ali sada treba izracunati
prosjecan broj koraka
N
x
15.1. NASUMI
CKI PROCESI
Rjesavanjem gornjeg sustava po A i B, dobiva se
A =
X
qp
_
q
p
_
X
1
, B =
X
qp
_
q
p
_
X
1
.
Konacno rjesenje je
N
x
=
x
q p
X
q p
_
q
p
_
x
1
_
q
p
_
X
1
, q = p.
(15.9)
Sto ako je q = p =
1
2
? Uvrstavanjem q = p =
1
2
u gornji izraz, opet ce se dobiti
neodredenost. Zato treba pazljivo izvesti granicni prijelaz q
1
2
i p
1
2
. Uvedimo
ponovo varijablu
u
q
p
,
i promatrajmo gornji izraz u granici kada je
u = 1 , 0.
Binomnim razvojem je
u
x
= (1 )
x
= 1 x +
x(x 1)
2
2
+ ,
u
X
= (1 )
X
= 1 X +
X(X 1)
2
2
+ .
Uvrstavanjem gornjih razvoja u (15.9), dolazi se do
N
x
= lim
0
_
2x
+
2x
1
x1
2
+
1
X1
2
+
_
= lim
0
_
2x
+
2x
_
1
x 1
2
+
_
_
1 +
X 1
2
+
_
_
= lim
0
_
2x
+
2x
_
1 +
X 1
2
x 1
2
+O(
2
)
_
_
= lim
0
[x (X x) +O() ] .
U granici kada u 1 je = 0 i konacno je
N
x
= x (X x), q = p =
1
2
. (15.10)
15.1. NASUMI
CKI PROCESI
Ako je q < p, tada je opet N
x
dan sa (15.9), ali je sada
lim
X
_
q
p
_
X
= 0,
pa je opet
N
x
= .
Ovaj beskonacan broj koraka koji se dobiva za q p je posve razumljiv: cestica
se giba po beskonacno velikom intervalu, a vjerojatnost skokova ne preferira
smjer prema ishodistu.
Srednja udaljenost od po
cetne to
cke:
Rijesimo sada ovaj zadatak: cestica se nalazi u ishodistu, x = 0, jednodimenzijskog
koordinatnog sustava i pomice se za jedno mjesto na desnu stranu s vjerojatnoscu p, a s
vjerojatnoscu q = 1 p se pomice za jedno mjesto na lijevo. Zadatak je naci vjerojatnost
da se nakon N koraka, cestica nade na udaljenosti x od ishodista? Ocito ce x biti cijeli
broj s vrijednostima iz intervala
N x +N.
Buduci da kod odabira smjera pomaka, postoje samo dvije mogucnosti, vjerojatnost da
je u N pomaka cestica napravila n pomaka na desnu i N n koraka na lijevu stranu je
dana binomnom raspodjelom
P(n) =
_
N
n
_
P
n
q
Nn
.
Pomak na desno povecava koordinatu cestice za jedan, a pomak na lijevo smanjuje koor-
dinatu za jedan. Zato je nakon N koraka polozaj cestice dan sa
x = n (+1) + (N n) (1) = 2n N.
Iz gornjeg izraza je
n =
x + N
2
,
pa je sada moguce sa P(n) prijeci na P(s)
P(n) P(x) =
_
N
x+N
2
_
p
(x+N)/2
q
NN/2x/2
= (p q)
N/2
_
N
x+N
2
_ _
p
q
_
x/2
.
To je vjerojatnost da se cestica nakon N slucajnih koraka nade u tocki s koordinatom x.
Srednja vrijednost koordinate x je
x = 2 n N = 2Np N = N(2p 1) = N(p q),
gdje je uvrstena poznata relacija za binomnu raspodjelu n = Np. Iz gornje se rela-
cije vidi da ako je p = q =
1
2
, tada je x = 0, sto je u skladu sa zdravorazumskim
15.2. MARKOVLJEVI LANCI 221
ocekivanjem. Ako je p >
1
2
biti ce i x > 0, tj. srednji pomak je na desnu stranu i
simetricno, ako je p <
1
2
. Slicno se moze izracunati i x
2
i dobiti
x
2
= 4n
2
4nN + N
2
,
x
2
= 4 n
2
4 nN + N
2
.
Iz binomne raspodjele je poznato , (8.8),
n
2
= Np + N(N 1)p
2
,
sto vodi na
x
2
= 4
_
Np + N(N 1)p
2
_
4NpN + N
2
i konacno se za standardnu devijaciju dobije
x
=
x
2
x
2
= 2
Npq.
Gornji se model (i njegova poopcenja na vise dimenzija) moze primjeniti u:
Teoriji magnetizma, gdje se umjesto N koraka jedne cestice, promatra skup od N ne-
pomicnih cestica, a umjesto pomaka lijevo ili desno, svaka od N cestica moze imati dvije
razlicite vrijednosti atomskog magnetskog momenta: +1 ili 1 (u prikladnim jedinicama).
U tom slucaju srednji polozaj cestice, odgovara srednjoj magnetizaciji sustava.
Racunu intenziteta N nekoherentnih svjetlosnih izvora. Amplituda svakog izvora se moze
prikazati dvodimenzijskim vektorom nasumicnog smjera. Ukupni intenzitet svjetlosti svih
N izvora je rezultat zbrajanja ovih nasumicnih vektora.
15.2 Markovljevi lanci
Na pocetku izlaganja, denirajmo pojmove koji ce se koristiti. Izvodi se niz od n pokusa
u kojima se uocavaju slucajni dogadaji
A
1
, A
2
, , A
n
,
s vjerojatnostima
P(A
1
), P(A
2
), , P(A
n
).
Ako su svi slucajni dogadaji medusobno nezavisni, tada je
P(A
1
A
2
A
n
) = P(A
1
) P(A
2
) P(A
n
). (15.11)
Pokusi koji mogu okoncati samo na dva
8
nacina (npr.: uspjeh ili neuspjeh, ima struje ili
nema struje, 1 ili 0, spin gore ili spin dolje, itd.) zovu se Bernoullijevi pokusi. Ukoliko
jednadzba (15.11) ne vrijedi, pokusi su zavisni Bernoullijevi pokusi. Za njih je
9
P(A
1
A
2
A
n
) = P(A
n
/A
n1
A
2
A
1
) P(A
3
/A
2
A
1
) P(A
2
/A
1
) P(A
1
)
8
Kao Isingov model s dva stanja.
9
Sjetiti se uvjetnih vjerojatnosti iz odjeljka 2.2.3.
222 POGLAVLJE 15. STOHASTI
CKI PROCESI
Za nezavisne dogadaje je uvjetna vjerojatnost jednaka apsolutnoj vjerojatnosti
P(A
k
/A
k1
A
2
A
1
) = P(A
k
).
Markovljevi zavisni Bernoullijevi pokusi se deniraju ovako
P(A
k+1
/A
k
A
k1
A
2
A
1
) = P(A
k+1
/A
k
). (15.12)
Vjerojatnost ishoda (k + 1)-og pokusa ovisi samo o ishodu k-tog pokusa,
ali ne i o ishodima svih ranijih pokusa.
To je ucinak memorije, ali kratkotrajne memorije. Pamti se samo prethodni dogadaj i
nista drugo prije toga
10
. Buduci da je vjerojatnost svakog novog dogadaja vezana za vje-
rojatnost prethodnog dogadaja, ovakvi se nizovi pokusa nazivaju Markovljevi lanci
11
i po svojoj deniciji su diskontinuirani. Markovljevi lanci se ne pojavljuju zickim pro-
blemima, nego i u problemima drustvenih znanosti, biologije, genetike itd. Nasumicni
hod je jedan primjer Markovljevog lanca: polozaj cestice u slijedecem koraku ovisi samo
o tome gdje se cestica sada nalazi, ali ne i o nacinu kako je cestica dospjela u sadasnji
polozaj. Stohasticki procesi kod kojih svako novo stanje ovisi o prethodnom, ali se sam
proces odvija kontinuirano, nazivaju se Markovljevi procesi.
Sada cemo malo promijeniti oznake - do sada smo uvjetnu vjerojatnost da se dogodi B,
ako se vec dogodio A, oznacavali s P(B/A), a sada cemo tu istu uvjetnu vjerojatnost
oznacavati s
P(A, B) P(B/A).
Buduci da svaki od promatranih pokusa moze okoncati na dva nacina, jedan cemo nacin
nazvati uspjeh i oznacavati
12
sa s, a drugi cemo nazvati neuspjeh i oznacavati
13
s f. Na
taj nacin vezana (uvjetna) vjerojatnost ili vjerojatnost prijelaza ili prijelazna vjerojatnost,
izmedu dva susjedna pokusa (stanja)
P(A
k
, A
k+1
)
moze poprimiti cetiri moguce vrijednosti:
P(s, s) vjerojatnost uspjeha u (k + 1)-vom pokusu, ako je i u k-tom pokusu bio uspjeh;
P(s, f) vjerojatnost neuspjeha u (k + 1)-vom pokusu, ako je u k-tom pokusu bio uspjeh;
P(f, s) vjerojatnost uspjeha u (k + 1)-vom pokusu, ako je u k-tom pokusu bio neuspjeh;
P(f, f) vjerojatnost neuspjeha u (k + 1)-vom pokusu, ako je i u k-tom pokusu bio neuspjeh;
10
Gledano u prostornim varijablama, to je slicno medudjelovanju ogranicenom samo na prve susjede.
11
A. A. Markov, 1856 - 1922, ruski matematicar.
12
od engl. success
13
od engl. failure
15.2. MARKOVLJEVI LANCI 223
Ako ove vjerojatnosti ne ovise o k, lanac se naziva homogen. Ove se cetiri vjerojatnosti
mogu napisati i u obliku matrice vjerojatnosti prijelaza
P =
_
_
P(s, s) P(s, f)
P(f, s) P(f, f)
_
_
.
S obzirom da postoje samo dva ishoda pokusa, mora biti
P(s, s) + P(s, f) = 1, P(f, s) + P(f, f) = 1,
(15.13)
P(s, s) + P(f, s) = 1, P(s, f) + P(f, f) = 1,
tj. zbroj svakog reda i svakog stupca matrice P je jednak jedinici. Buduci da se radi o
vjerojatnostima, svaki je element matrice P pozitivan realan broj ili nula. Matrice s ova
dva svojstva se zovu stohasti
_
a
1,1
a
1,2
a
1,R
a
2,1
a
2,2
a
2,R
.
.
.
a
R,1
a
R,2
a
R,R
_
_
,
naziva stohasti
cna, ako je a
i,j
0 i ako je zbroj elemenata svakog reda jednak jedan.
Matrica je dvostruko stohasticna, ako je zbroj elemenata svakog reda i svakog stupca
jednak jedan. Moze se pokazati da je svaka matrica prijelaza, stohasticna matrica.
Uvedimo i oznake apsolutnih vjerojatnosti:
p
k
(s) je apsolutna (bezuvjetna) vjerojatnost uspjeha u k-tom pokusu;
p
k
(f) je apsolutna (bezuvjetna) vjerojatnost neuspjeha u k-tom pokusu.
Za apsolutne vjerojatnosti ocito vrijedi
p
k
(s) + p
k
(f) = 1. (15.14)
Pomocu uvedenih oznaka, moze se postaviti ova ocita jednadzba koja povezuje apsolutnu
vjerojatnost ishoda k-tog pokusa s apsolutnom vjerojatnoscu ishoda k 1-vog pokusa
p
k
(s) = p
k1
(s) P(s, s) + p
k1
(f) P(f, s).
Ona izrazava jednostavnu cinjenicu da se uspjeh u k-tom pokusu moze dobiti samo na
dva nacina:
224 POGLAVLJE 15. STOHASTI
CKI PROCESI
prvi clan desne strane je uvjetna vjerojatnost da u k-tom pokusu bude uspjeh, ako je u
k 1 je pokusu bio uspjeh,
a drugi clan desne strane je uvjetna vjerojatnost da u k-tom pokusu bude uspjeh, ako je
u k 1 je pokusu bio neuspjeh.
Uvrstimo u gornju jednadzbu
P(f, s) = 1 P(f, f)
iz (15.13) i
p
k1
(f) = 1 p
k1
(s),
cime se dolazi do rekurzije
p
k
(s) = p
k1
(s)
_
P(s, s) + P(f, f) 1
_
+
_
1 P(f, f)
_
za apsolutnu vjerojatnost da se u k-tom pokusu pojavi uspjeh. Iteracijom ove rekurzije,
a uz uvjet
14
P(s, s) + P(f, f) 1
< 1,
dobiva se
p
k
(s) =
_
p
0
(s) +
1 P(f, f)
P(s, s) + P(f, f) 2
_
_
P(s, s) + P(f, f) 1
_
k
1 P(f, f)
P(s, s) + P(f, f) 2
.
(15.15)
Buducu da k-ti pokus moze rezultirati samo uspjehom ili neuspjehom, to je
p
k
(s) + p
k
(f) = 1,
pa se apsolutna vjerojatnost neuspjeha, moze dobiti kombiniranjem gornja dva izraza
p
k
(f) =
_
p
0
(f) +
1 P(s, s)
P(s, s) + P(f, f) 2
_
_
P(s, s) + P(f, f) 1
_
k
1 P(s, s)
P(s, s) + P(f, f) 2
ili jednostavnom zamjenom
s f
u (15.15).
- - - - - - - - - - -
14
Taj je uvjet potreban zbog konvergencije jednog geometrijskog reda koji se pojavljuje u izvodu:
N
j=0
r
j
=
r
N+1
1
r 1
.
15.2. MARKOVLJEVI LANCI 225
Postavimo sada jednadzbu za jednu novu uvjetnu vjerojatnost, koju cemo oznaciti s
P
k
(s, s),
a koja predstavlja uvjetnu vjerojatnost da (k + 1)-vi pokus bude uspjesan, ako je i k-ti
pokus bio uspjesan. To je uvjetna vjerojatnost upravo za k-ti pokus, dok vjerojatnosti
P(i, j) opisuju samo vjerojatnost prijelaza iznedu bilo koja dva susjedna pokusa.
P
k
(s, s) = P
k1
(s, s)P(s, s) + P
k1
(s, f)P(f, s)
= P
k1
(s, s)P(s, s) +
_
1 P
k1
(s, s)
_ _
1 P(f, f)
_
= P
k1
(s, s)
_
P(s, s) + P(f, f) 1
_
+
_
1 P(f, f)
_
.
Rjesavanjem gornje rekurzije (slicno kao i nekoliko puta ranije), dobiva se
P
k
(s, s) =
P(s, s) 1
P(s, s) + P(f, f) 2
_
P(s, s) + P(f, f) 1
_
k
+
P(f, f) 1
P(s, s) + P(f, f) 2
.
Slicnim se postupkom dobivaju i slijedeci izrazi
P
k
(s, f) =
P(s, s) 1
P(s, s) + P(f, f) 2
_
P(s, s) + P(f, f) 1
_
k
+
P(s, s) 1
P(s, s) + P(f, f) 2
,
P
k
(f, s) =
P(f, f) 1
P(s, s) + P(f, f) 2
_
P(s, s) + P(f, f) 1
_
k
+
P(f, f) 1
P(s, s) + P(f, f) 2
,
P
k
(f, f) =
P(f, f) 1
P(s, s) + P(f, f) 2
_
P(s, s) + P(f, f) 1
_
k
+
P(s, s) 1
P(s, s) + P(f, f) 2
.
Primjer: 15.5 Izvode se Markovljevi zavisni Bernoullijevi pokusi, u kojima su
P(s, s) =
1
3
, P(f, f) =
1
2
.
Izracunajte P
3
(s, f) i P
3
(f, f) .
R:
dovrsiti
- - - - - - - - - - -
Sada cemo malo promijeniti rjecnik: umjesto da govorimo o nizu od n pokusa, promatrat
cemo stanja jednog sustava, ali u n razlicitih vremenskih trenutaka. Tih mogucih stanja
nece biti samo dva (1 s i 2 f) kao do sada, nego cemo broj mogucih stanja sustava
poopciti
15
na R. Oznakom
A
t
(r), t = 0, 1, 2, , n, r = 1, 2, , R,
ce se oznacavati slijedeci dogadaj: u trenutku t sustav se nalazi u stanju r. Ovako postav-
ljen problem je Markovljev lanac sa R mogucih stanja. Denirajmo slijedece vjerojatnosti:
15
Kao poopcenje s Isingovog na Pottsov model.
226 POGLAVLJE 15. STOHASTI
CKI PROCESI
P(i, j) je uvjetna vjerojatnost da se Markovljev lanac u trenutku t nade u stanju j,
ako je u prethodnom trenutku, t 1, bio u stanju i. Ta je vjerojatnost
neovisna o vremenskom trenutku t (homogenost).
P
m
(i, j) je uvjetna vjerojatnost da se sustav u trenutku t + m nalazi u stanju j
uz uvjet da se u trenutku t nalazio u stanju i. I ova je vjerojatnost neovisna o t,
a ovisi samo o m, tj. o razlici pocetnog i konacnog vremena.
Primjetimo da je P(i, j) P
1
(i, j).
Gore denirane vjerojatnosti se nazivaju vjerojatnosti prijelaza ili prijelazne vjero-
jatnosti.
Postavimo sada jednadzbu za P
m
(i, j) tako sto cemo matematickim simbolima izraziti
slijedecu trivijalnu cinjenicu: da bi se sustav koji u trenutku t bio u stanju i, u trenutku
t +m nasao u stanju j, on mora u prethodnom trenutku t +m1 biti u bilo kojem od r
mogucih stanja
P
m
(i, j) = P
m1
(i, 1) P(1, j) + P
m1
(i, 2) P(2, j) + + P
m1
(i, R) P(R, j)
=
R
r=1
P
m1
(i, r) P(r, j). (15.16)
Razmisljajuci na isti nacin, moze se postaviti i jednadzba za apsolutnu vjerojatnost da
se sustav u trenutku n nalazi u stanju j, polazeci od apsolutne vjerojatnosti u trenutku
t = 0 i vjerojatnosti prijelaza iz t = 0 u t = n
p
n
(j) = p
0
(1) P
n
(1, j) + p
0
(2) P
n
(2, j) + + p
0
(R) P
n
(R, j)
=
R
r=1
p
0
(r) P
n
(r, j), (15.17)
ili preko apsolutne vjerojatnosti u trenutku t = n1 i vjerojatnosti prijelaza iz t = n1
u t = (n 1) + 1
p
n
(j) = p
n1
(1) P(1, j) + p
n1
(2) P(2, j) + + p
n1
(R) P(R, j)
=
R
r=1
p
n1
(r) P(r, j). (15.18)
Buduci da ovise o dva indeksa, vjerojatnosti prijelaza P(i, j) se mogu napisati u obliku
matrice
P =
_
_
P(1, 1) P(1, 2) P(1, R)
P(2, 1) P(2, 2) P(2, R)
.
.
.
P(R, 1) P(R, 2) P(R, R)
_
_
,
15.2. MARKOVLJEVI LANCI 227
i slicno za matricu koja opisuje vjerojatnost prijelaza s vremenskim razmakom t = m
P
m
=
_
_
P
m
(1, 1) P
m
(1, 2) P
m
(1, R)
P
m
(2, 1) P
m
(2, 2) P
m
(2, R)
.
.
.
P
m
(R, 1) P
m
(R, 2) P
m
(R, R)
_
_
,
U skladu s pravilom za mnozenje matrica, jednadzba (15.16) se moze napisati i kao ma-
tricna jednadzba
P
m
= P
m1
P, (15.19)
ili, po komponentama
_
_
P
m1
(1, 1) P
m1
(1, 2) P
m1
(1, R)
P
m1
(2, 1) P
m1
(2, 2) P
m1
(2, R)
.
.
.
P
m1
(R, 1) P
m1
(R, 2) P
m1
(R, R)
_
_
P(1, 1) P(1, 2) P(1, R)
P(2, 1) P(2, 2) P(2, R)
.
.
.
P(R, 1) P(R, 2) P(R, R)
_
_
=
_
R
r=1
P
m1
(1, r) P(r, 1)
R
r=1
P
m1
(1, r) P(r, 2)
R
r=1
P
m1
(1, r) P(r, R)
R
r=1
P
m1
(2, r) P(r, 1)
R
r=1
P
m1
(2, r) P(r, 2)
R
r=1
P
m1
(2, r) P(r, R)
.
.
.
R
r=1
P
m1
(R, r) P(r, 1)
R
r=1
P
m1
(R, r) P(r, 2)
R
r=1
P
m1
(R, r) P(r, R)
_
_
Primjetimo jos i da se jednadzba (15.19) moze rekurzivno dovesti do
P
m
= P
m1
P = P
m2
P
2
= P
1
P
m1
.
No, kako je prema deniciji P
1
(i, j) P(i, j), to je konacno
P
m
= P
m
. (15.20)
Matrica P opisuje vjerojatnost promjene stanja sustava uslijed vremenskog pomaka za
jednu jedinicu. Gornji izraz kaze da se vjerojatnost stanja u trenutku t + m dobiva kao
rezultat m uzastopnih vremenskih pomaka jedinicnog iznosa u odnosu na vjerojatnost
stanja u trenutku t (slika 15.2).
Koristeci upravo uvedenu matricnu notaciju, i jednadzba (15.18) se moze napisati pre-
glednije kao
p
n
= p
n1
P, (15.21)
gdje vektor p
n
predstavlja vjerojatnost svakog pojedinog od R stanja sustava u n-tom
vremenskom trenutku
p
n
=
_
p
n
(1), p
n
(2), , p
n
(R)
_
.
228 POGLAVLJE 15. STOHASTI
CKI PROCESI
Slika 15.2: Ilustracija jednadzbe (15.20).
Iteracijom (15.21), dobiva se stanje sustava u n-tom trenutku, izrazeno preko stanja u
pocetnom, 0-tom trenutku i matrice vjerojatnosti prijelaza
p
n
= p
0
P
n
. (15.22)
Primjer: 15.6 Za sustav s tri stanja, matricom
P =
_
_
0
1
3
2
3
2
3
0
1
3
1
3
2
3
0
_
_
,
je zadan jedan Markovljev lanac. Iz pocetnih vrijednosti
p
0
(1) =
1
2
, p
0
(2) =
1
4
, p
0
(3) =
1
4
,
izracunajte apsolutne vjerojatnost da se u trenutku t = 3 sustav nade
(a) u stanju 1, (b) u stanju 2, (c) u stanju 3.
R:
U skladu s (15.22), vjerojatnosti pojedinih stanja u trenutku t = 3 se racunaju
kao
p
3
= p
0
P
3
,
15.2. MARKOVLJEVI LANCI 229
gdje vektor pocetnog stanja
p
0
=
1
4
_
2, 1, 1
_
.
Uzastopnim mnozenjem matrice P se dobiva
P
3
=
1
9
_
_
3 2 4
4 3 2
2 4 3
_
_
,
pa je
p
3
=
1
4
_
2, 1, 1
_
1
9
_
_
3 2 4
4 3 2
2 4 3
_
_
=
1
36
_
12, 11, 13
_
.
Do istog se rezultata moze doci i drukcije:
p
1
= p
0
P =
1
4
_
2, 1, 1
_
1
3
_
_
0 1 2
2 0 1
1 2 0
_
_
=
1
12
_
3, 4, 5
_
p
2
= p
1
P =
1
12
_
3, 4, 5
_
1
3
_
_
0 1 2
2 0 1
1 2 0
_
_
=
1
36
_
13, 13, 10
_
p
3
= p
2
P =
1
36
_
13, 13, 10
_
1
3
_
_
0 1 2
2 0 1
1 2 0
_
_
=
1
108
_
36, 33, 39
_
.
Gornji vektor p
3
sadrzi odgovore i na (a) i na (b) i na (c)
p
3
(1) =
36
108
=
12
36
, p
3
(2) =
33
108
=
11
36
, p
3
(3) =
39
108
=
13
36
.
Ergodi
cnost
Markovljev se lanac naziva ergodicnim, ako postoji niz brojeva
1
,
2
, ,
R
sa svojstvom da za svaki par stanja i i j vrijedi
lim
m
P
m
(i, j) =
j
,
230 POGLAVLJE 15. STOHASTI
CKI PROCESI
ili, prema (15.20), u matricnom obliku
lim
m
P
m
= lim
m
P
m
= . (15.23)
Rijecima: u granici kada su pocetno i konacno stanje jako (beskonacno) udaljeni u vre-
menu, prijelazna vjerojatnost da se sustav nade u nekom konacnom stanju j, ovisi samo
o tom konacnom stanju, a ne i o pocetnom stanju i.
Pogledajmo sada sto se moze reci o apsolutnoj vjerojatnosti p
n
(j) ergodicnog sustava, u
granici n , tj. u vremenskom trenutku dugo nakon pocetka promatranja procesa.
Na temelju relacije (15.17), slijedi, u granici velikog n
lim
n
p
n
(j) = lim
n
R
r=1
p
0
(r)P
n
(r, j) =
R
r=1
p
0
(r) lim
n
P
n
(r, j) =
R
r=1
p
0
(r)
j
.
No, u svakom, pa tako i pocetnom trenutku se sustav mora nalaziti u jednom od R
mogucih stanja. Stoga je
R
r=1
p
0
(r) = 1,
sto konacno vodi na
lim
n
p
n
(j) p
(j) =
j
.
(15.24)
Dugo nakon pocetka promatranja vremenskog razvoja ergodicnog sustava, apsolutna vje-
rojatnost nalaska sustava u odredenom stanju ima konacnu vrijednost
1
,
2
, ,
R
. Ove
se vrijednosti nazivaju stacionarne vjerojatnosti Markovljevih lanaca, tj. Markovljev
lanac je postigao statisti
cku ravnote
zu.
Primjetimo jos i da relacija (15.21), u granici n , prelazi u
p
n
= p
n1
P
_
lim
n
,
p
= p
P,
sto je relacija kojom se takoder mogu racunati stacionarne vjerojatnosti
j
.
Primjer: 15.7 Je li Markovljev lanac iz primjera 15.6, ergodican?
R:
15.2. MARKOVLJEVI LANCI 231
Iz primjera 15.6, slijedi
P =
1
3
_
_
0 1 2
2 0 1
1 2 0
_
_
,
P
2
=
1
9
_
_
4 4 1
1 4 4
4 1 4
_
_
,
P
3
=
1
9
_
_
3 2 4
4 3 2
2 4 3
_
_
,
.
.
.
Iz gornjeg zapisa nekoliko prvih potencija P
n
se vidi da je P
n
oblika
P
n
=
_
_
a b 1 a b
1 a b a b
b 1 a b a
_
_
,
za svaki n, pa ce i u granici n biti isto takvog oblika. No, buduci da je
lim
n
P
n+1
= lim
n
P
n
,
to mora biti za veliki n
P
n+1
= P
n
P
_
_
a b 1 a b
1 a b a b
b 1 a b a
_
_
=
_
_
a b 1 a b
1 a b a b
b 1 a b a
_
1
3
_
_
0 1 2
2 0 1
1 2 0
_
_
.
Izjednacavanjem istih elemenata na lijevoj i desnoj strani gornje matricne
232 POGLAVLJE 15. STOHASTI
CKI PROCESI
jednadzbe, dobiva se
1
3
_
1 a + b
_
= a,
1
3
_
2 a 2b
_
= b,
1
3
_
2a + b
_
= 1 a b,
cija su rjesenja a = b = 1/3, tako da je
lim
n
P
n
=
1
3
_
_
1 1 1
1 1 1
1 1 1,
_
_
iz cega se ocitava
1
=
2
=
3
=
1
3
.
To znaci da Markovljev lanac iz primjera 15.6, jeste ergodican.
Primjer: 15.8 Pretpostavlja se da u nekom gradu svake godine 4 % stanovnika seli u
predgrade, dok istovremeno 1 % stanovnika predgrada seli u grad. Uz pretpos-
tavku da ukupan broj stanovnika grada i predgrada ostaje konstantan, odredite
kakva ce biti konacna (stacionarna) raspodjela stanovnika grada i predgrada.
R:
Ovo je primjer sustava s dva stanja koja se mogu nazvati grad s oznakom g i
predgrade s oznakom p. Moguci su slijedeci prijelazi:
P(g, g) = 0.96 vjerojatnost da osoba koja je bila u gradu i ostane u gradu;
P(g, p) = 0.04 vjerojatnost da osoba koja je bila u gradu, preseli u predgrade;
P(p, g) = 0.01 vjerojatnost da osoba koja je bila u predgradu, preseli u grad;
P(p, p) = 0.99 vjerojatnost da osoba koja je bila u predgradu i ostane u
predgradu.
Ove se vjerojatnosti mogu napisati u obliku matrice
P =
_
_
0.96 0.04
0.01 0.99
_
_
.
U skladu s denicijom ergodicnosti (15.23), stacionarno stanje gore opisanog
prijelaza postoji, ako postoji
lim
n
P
n
.
15.2. MARKOVLJEVI LANCI 233
Svaka potencija matrice P
n
, opisuje vjerojatnosti prijelaza izmedu grada i
predgrada nakon n godina i zato zbroj elemenata svakog reda mora biti jednak
jedinici
P
n
=
_
_
a 1 a
b 1 b
_
_
.
Kao i u prethodnom zadatku, za veliki n je
lim
n
P
n+1
= lim
n
P
n
,
pa je i
P
n+1
= P
n
P
_
_
a 1 a
b 1 b
_
_
=
_
_
a 1 a
b 1 b
_
_
_
_
0.96 0.04
0.01 0.99
_
_
=
_
_
0.96 0.04
0.01 0.99
_
_
Gornja matricna jednadzba vodi na jednadzbe za a i b
a 0.05 = 0.01, b 0.05 = 0.01,
s istim rjesenjem
a = b = 0.20,
ili matricno
lim
n
P
n
=
_
_
0.20 0.80
0.20 0.80
_
_
,
ili rijecima
lim
n
P
n
(g, g) = 0.20 vjerojatnost da nakon dugo godina osoba koja je
bila u gradu i ostane u gradu;
lim
n
P
n
(g, p) = 0.80 vjerojatnost da nakon dugo godina osoba osoba
koja je bila u gradu, preseli u predgrade;
lim
n
P
n
(p, g) = 0.20 vjerojatnost da nakon dugo godina osoba osoba
koja je bila u predgradu, preseli u grad;
lim
n
P
n
(p, p) = 0.80 vjerojatnost da nakon dugo godina osoba osoba
koja je bila u predgradu i ostane u predgradu.
Buduci da promatrani limes postoji, promatrani Markovljev lanac je er-
godican.
Uzmimo sada primjer s konkretnim brojevima - neka je u pocetku i u gradu
i u predgradu zivjelo po 500 000 stanovnika. Kao rezultat opisanih prijelaza
(slika 15.3) uspostavilo se stacionarno stanje s 200 000 stanovnika u gradu i
800 000 stanovnika u predgradu.
234 POGLAVLJE 15. STOHASTI
CKI PROCESI
Slika 15.3: Migracija grad - predgrade.
Primjer: 15.9 Matrica vjerojatnosti prijelaza P Markovljevog lanca s dva stanja (1, 2)
je
P =
_
_
3
4
1
4
1
4
3
4
_
_
.
(a) Ako se u pocetnom trenutku t
0
= 0 sustav nlazio u stanju 1, odredite vje-
rojatnosti stanja sustava u nekoliko slijedecih vremenskih trenutaka.
(b) Odredite matricu vjerojatnosti prijelaza nakon nekoliko slijedecih vremen-
skih trenutaka.
(c) Postoji li
lim
n
P
n
?
Kolike su stacionarne vjerojatnosti
j
?
R:
Pocetno stanje zapisujemo kao
p
0
(1) = 1, p
0
(2) = 0,
ili pomocu vektora
p
0
= (1, 0).
(a) U skladu s relacijom (15.21) , stanja sustava u slijedecim vremenskim
15.3. POISSONOV PROCES 235
trenucima, se dobivaju mnozenjem vektora stanja p
n
s matricom prijelaza
p
1
= p
0
P =
1
4
(1, 0)
_
_
3 1
1 3
_
_
=
1
4
(3, 1)
p
2
= p
1
P =
1
4
2
(3, 1)
_
_
3 1
1 3
_
_
=
1
8
(5, 3),
p
3
= p
2
P =
1
4
3
(5, 3)
_
_
3 1
1 3
_
_
=
1
16
(9, 7),
.
.
.
(b)
P =
1
4
_
_
3 1
1 3
_
_
=
1
2
2
_
_
2
1
+ 1 2
1
1
2
1
1 2
1
+ 1
_
_
,
P
2
=
1
8
_
_
5 3
3 5
_
_
=
1
2
3
_
_
2
2
+ 1 2
2
1
2
2
1 2
2
+ 1
_
_
,
P
3
=
1
16
_
_
9 7
7 9
_
_
=
1
2
4
_
_
2
3
+ 1 2
3
1
2
3
1 2
3
+ 1
_
_
,
.
.
.
Iz gornjih izraza nije tesko pokazati (npr. indukcijom) da je opcenito
P
n
=
1
2
n+1
_
_
2
n
+ 1 2
n
1
2
n
1 2
n
+ 1
_
_
.
(c) U granici n , tj. u vremenskim trenucima dugo nakon pocetka
procesa je, prema (15.23),
j
= lim
n
P
n
= lim
n
_
_
2
n
+1
2
n+1
2
n
1
2
n+1
2
n
1
2
n+1
2
n
+1
2
n+1
_
_
=
_
_
1
2
1
2
1
2
1
2
_
_
.
Iako se u pocetnom trenutku sustav naalzio u stanju 1, dugo nakon pocetka
procesa, vjerojatnosti zauzeca oba stanja su medusobno jednake
1
=
1
2
,
2
=
1
2
.
15.3 Poissonov proces
15.3.1 Poissonov proces
Definicija:
Promatra se jedan zicki proces tijekom kojega se dogadaj A moze realizirati vise puta.
236 POGLAVLJE 15. STOHASTI
CKI PROCESI
] i dogadaja iz intervala [t
, t], uz t
< t
N(0, t) = N(0, t
) + N(t
, t), t
< t.
16
Simeon-Denis Poisson (17811840), francuski matematicar
15.3. POISSONOV PROCES 237
Sada je razlika
N(t) N(t
) = N(0, t) N(0, t
) = N(0, t
) + N(t
, t) N(0, t
) = N(t
, t).
Trajektorije:
Skicirajmo trajektoriju jednog tipicnog Poissonovog procesa (slika 15.4): varijabla N(t)
Slika 15.4: Tipicna trajektorija Poissonovog procesa.
ima vrijednost nula, sve dok se dogadaj A ne dogodi prvi puta (u trenutku t
1
); tada N(t)
skokovito mijenja svoju vrijednost od 0 na 1 i tu vrijednost ima sve do trenutka t
2
kada
se po drugi puta realizira A; sada N(t) opet skokovito mijenja svoju vrijednost sa 1 na 2
itd. Primjetimo da vremenski intervali t
n
t
n1
ne moraju biti iste duljine, ali da je skok
uvijek za isti (jedinicni) iznos.
Oznacimo s p
n
(t) vjerojatnost da se od trenutka 0, pa do trenutka t, dogadaj A ostvario
tocno n puta
p
n
(t) = P(N(t) = n),
gdje je P(N(t) = n) vjerojatost da slucajna varijabla N(t) ima vrijednost n. Dokazimo
da je
p
n
(t) = e
t
(t)
n
n!
.
Prema trecem svojstvu (regularnost) je
p
1
(d t) = d t +O
_
d t
2
_
, (15.25)
sto znaci da je vjerojatnost dva ili vise dogadaja jednaka O
_
d t
2
_
j=2
p
j
(d t) = O
_
d t
2
_
. (15.26)
238 POGLAVLJE 15. STOHASTI
CKI PROCESI
Zbog normiranja vjerojatnosti, mora biti
j=0
p
j
(d t) = 1.
Iz gornja tri izraza se zakljucuje da je
p
0
(d t) = 1 d t +O
_
d t
2
_
. (15.27)
Pogledajmo sada vjerojatnost p
n>0
(t + d t) - to je vjerojatnost da se u vremenskom in-
tervalu [0, t + d t] dogadaj A ostvario n puta. To se moze dogoditi na tri medusobno
iskljuciva nacina:
(a
0
) svih n dogadaja se dogodilo u intervalu [0, t];
(a
1
) n 1 dogadaj se dogodio u intervalu [0, t],
a jedan dogadaj se dogodio u intervalu [t, t + d t];
(a
k
) n k dogadaja (za k 2) se dogodilo u intervalu [0, t],
a k dogadaja se dogodilo u intervalu [t, t + d t].
Gornje tri tocke se mogu izraziti na slijedec nacin
p
n
(t + d t) = P(a
0
) + P(a
1
) +
k=2
P(a
k
).
Pogledajmo odvojeno pribrojnike desne strane gornjeg izraza:
P(a
0
) je vjerojatnost da se A ostvari n puta u intervalu [0, t] i nijednom u intervalu
[t, t + d t]
P(a
0
) = P(N(t) = n) P(N(t + d t) N(t) = 0) = P(N(t) = n) P(N(d t) = 0)
= p
n
(t) p
0
(d t) = p
n
(t)
_
1 d t
_
+O
_
d t
2
_
.
Slicno je i P(a
1
) vjerojatnost da se A ostvari n 1 puta u intervalu [0, t] i jednom u
intervalu [t, t + d t]
P(a
1
) = P(N(t) = n 1) P(N(t + d t) N(t) = 1) = P(N(t) = n 1) P(N(d t) = 1)
= p
n1
(t) p
1
(d t) = p
n1
(t) d t +O
_
d t
2
_
,
kao i
P(a
k
) = P(N(t) = n k) P(N(t + d t) N(t) = k) = P(N(t) = n k) P(N(d t) = k)
= p
nk
(t) p
k
(d t) = p
nk
(t) O
_
d t
2
_
= O
_
d t
2
_
.
15.3. POISSONOV PROCES 239
Kombiniranjem gornjih izraza, dobiva se
p
n
(t + d t) = p
n
(t)
_
1 d t
_
+ p
n1
(t) d t +O
_
d t
2
_
, n 1
= p
n
(t)
_
p
n
(t) p
n1
(t)
_
d t +O
_
d t
2
_
p
n
(t + d t) p
n
(t)
d t
=
_
p
n
(t) p
n1
(t)
_
+
O
_
d t
2
_
d t
.
U granici kada d t iscezava, lijeva strana gornje jednadzbe je jednaka derivaciji, a drugi
clan desne strane je nula
p
n
(t) =
_
p
n
(t) p
n1
(t)
_
, n 1. (15.28)
Ako je n = 0, tada je p
0
(t + d t) vjerojatnost da se u intervalu [0, t + d t] dogadaj A nije
nijednom dogodio: dakle, nije se dogodio niti u intervalu [0, t] niti u intervalu [t, t + d t]
p
0
(t + d t) = p
0
(t) p
0
(d t) = p
0
(t)
_
1 d t
_
+O
_
d t
2
_
p
0
(t + d t) p
0
(t)
d t
= p
0
(t) +
O
_
d t
2
_
d t
.
U granici kada d t iscezava,
p
0
(t) = p
0
(t). (15.29)
Rjesenja jednadzba (15.28) i (15.29) su jednoznacna tek uz zadavanje pocetnih uvjeta: u
trenutku t = 0 je sigurno da se dogadaj A ostvario nula puta, ili jezikom matematickih
simbola
p
0
(0) = 1, p
n
(0) = 0, n 1. (15.30)
jedan od nacina rjesavanja navedenih diferencijalnih jednadzba je i primjena Laplaceove
preobrazbe
17
, jer je Laplaceova preobrazba derivacije funkcije srazmjerna samoj nederivi-
ranoj funkciji. Npr. ako se s
P
n
(s) = L
_
p
n
(t)
_
oznaci Laplaceova preobrazba funkcije p
n
(t), tada je opcenito, preobrazba prve derivacije
te iste funkcije jednaka
L
_
p
n
(t)
_
= sP
n
(s) p
n
(0)
Primjenimo gornji rezultat na rjesavanje (15.28) uz pocetni uvjet (15.30)
sP
n
(s) =
_
P
n
(s) P
n1
(s)
_
, n 1
P
n
(s) =
+ s
P
n1
(s) =
_
+ s
_
2
P
n2
(s) =
P
n
(s) =
_
+ s
_
n
P
0
(s).
17
Vidjeti npr. poglavlje o integralnim preobrazbama u [7].
240 POGLAVLJE 15. STOHASTI
CKI PROCESI
No, P
0
(s) se odreduje Laplaceovom preobrazbom jednadzbe (15.29). Zajedno s pocetnim
uvjetom (15.30), dobiva se
sP
0
(s) 1 = P
0
(s)
P
0
(s) =
1
+ s
,
pa je i
P
n
(s) =
n
( + s)
n+1
.
Inverzna Laplaceova preobrazba gornjeg izraza daje
p
n
(t) =
n
t
n
n!
e
t
.
sto je i trebalo dokazati.
Sada smo u mogucnosti dati jednu malo formalniju deniciju Poissonovog procesa (pri-
mjetimo i promjenu oznake N(t) N
t
):
Poissonov proces [N
t
, t 0] je zadan slijedecim uvjetima:
(1) N
0
= 0
(2) N ima nezavisne priraste;
(3) slucajna varijabla N
t
N
t
za 0 t
), tj.
P(N
t
N
t
= n) =
_
(t t
)
_
n
n!
e
(tt
)
.
Iz posljednjeg od gornjih uvjeta slijedi da slucajna varijabla N
t
N
t
i slucajna varijabla
N
tt
imaju istu (gornju) raspodjelu.
Pokazimo da za Poissonov proces, uz t
< t, vrijedi
P(N
t
= j/N
t
= i) =
_
(t t
)
_
(ji)
(j i) !
e
(tt
)
. (15.31)
Zbog drugog od gornjih svojstava je
P(N
t
= j/N
t
= i) = P(N
t
N
t
= j i/N
t
N
t
= i i) = P(N
t
N
t
= j i)
=
_
(t t
)
_
(ji)
(j i) !
e
(tt
)
,
15.3. POISSONOV PROCES 241
cime je tvrdnja dokazana.
Poopcimo gornje razmatranje tako sto cemo uvesti raspodjelu vise varijabli (konacnodimenzijska
raspodjela): neka su
t
1
< t
2
< < t
k
,
n
1
n
2
n
k
.
Tada je
P(N
t
1
= n
1
, N
t
2
= n
2
, , N
t
k
= n
k
) = P(N
t
1
= n
1
, N
t
2
N
t
1
= n
2
n
1
, , N
t
k
N
t
k1
= n
k
n
k1
)
= zbog nezavisnosti varijabli
= P(N
t
1
= n
1
) P(N
t
2
N
t
1
= n
2
n
1
) . . . P(N
t
k
N
t
k1
= n
k
n
k1
)
=
_
t
1
_
n
1
n
1
!
e
t
1
_
(t
2
t
1
)
_
(n
2
n
1
)
(n
2
n
1
) !
e
(t
2
t
1
)
_
(t
k
t
k1
)
_
(n
k
n
k1
)
(n
k
n
k1
) !
e
(t
k
t
k1
)
=
n
k
t
n
1
1
(t
2
t
1
)
(n
2
n
1
)
(t
k
t
k1
)
(n
k
n
k1
)
n
1
! (n
2
n
1
) ! (n
k
n
k1
) !
e
t
k
. (15.32)
Primjer: 15.10 Broj poziva u telefonskoj centrali se modelira Poissonovim procesom.
Ako je ocekivani broj poziva u jednoj minuti jednak 1.2, kolika je vjerojatnost
dogadaja (N
2
= 2, N
4
= 3)?
R:
Prema relaciji (8.17)
N
t
= t,
i uvjetu zadatka je
1.2 = N
t
= 1 min = 1.2 min
1
.
Za poznati , trazenu vjerojatnost racunamo kao pomocu (15.32) ogranicenu
na dvije varijable
P(N
t
1
= n
1
, N
t
2
= n
2
) =
n
2
t
n
1
1
(t
2
t
1
)
(n
2
n
1
)
n
1
! (n
2
n
1
) !
e
t
2
,
s t
1
= 2, t
2
= 4 i n
1
= 2, n
2
= 3, sto vodi na
P(N
2
= 2, N
4
= 3) =
3
2
2
(4 2)
(32)
2 ! (3 2) !
e
4
= 4
3
e
4
= 0.056884.
242 POGLAVLJE 15. STOHASTI
CKI PROCESI
Konstrukcija Poissonovog procesa:
Ukazimo na vezu izmedu Poissonovog procesa i eksponencijalne raspodjele. Naime, po-
kazat ce se da je vremenski interval izmedu dva skoka kod Poissonove raspodjele (slika
15.5) opisan eksponencijalnom raspodjelom.
Neka je A dogadaj cija je vjerojatnost ostvarenja tijekom vremena opisana eksponenci-
Slika 15.5: Vremenski interval izmedu dva skoka kod Poissonovog procesa.
jalnom raspodjelom s parametrom . Denirajmo slucajnu varijablu koja mjeri vrijeme
do pojave dogadaja A. Njezina je funkcija raspodjele
P( t) = 1 e
t
,
s ocekivanjem
=
1
.
Tvrdnja koju treba dokazati je da je proces koji mjeri broj ostvarenja ovako zadanih
dogadaja A, upravo Poissonov proces. U skladu s gornjim izlaganjem, za N(t) mora
vrijediti
_
N(t) = k
_
=
_
1
+
k
< t,
1
+
k
+
k+1
t
_
_
N(t) k
_
=
_
1
+
k
+
k+1
t
_
.
Dokazimo slijedecu tvrdnju: ako je niz slucajnih nezavisnih varijabli
n
, koje opisuju
vrijeme izmedu ostvarivanja dogadaja A, opisan eksponencijalnom raspodjelom s para-
metrom , tada je varijabla N(t) koja broji ostvarenja dogadaja A do vremena t, dana
Poissonovom raspodjelom s istim parametrom .
Neka je
t
k
=
1
+
2
+ +
k
15.3. POISSONOV PROCES 243
vrijeme koje protekne do k-te pojave dogadaja A. Buduci da je ta varijabla zbroj vari-
jabli koje se ravnaju po eksponencijalnoj raspodjeli, on je sama raspodjeljena po gama
raspodjeli (odjeljak 8.5) s parametrima i k. Gustoca vjerojatnosti gama raspodjele je,
prema (8.25), jednaka
(x) =
1
(k)
k
x
k1
e
x
x > 0.
Ako se do trenutka t dogadaj A dogodio manje od k puta, to znaci da je i t t
k
(u skladu
s gornjom denicijom t
k
). Ova se tvrdnja moze zapisati i kao
P(N(t) < k) = P(t t
k
).
Koristeci gornju jednakost, slijedi
P(t > t
k
) = 1 P(t t
k
) = 1 P(N(t) < k).
Iz gornje se jednakosti dalje racuna
P(N(t) < k) = 1 P(t > t
k
)
= 1
k
(k)
t
0
x
k1
e
x
d x
= e
t
k1
j=0
(t)
j
j !
.
To je vjerojatnost da se do trenutka t dogadaj A ostvari manje od k puta. Sukladno tome,
vjerojatnost da se on ostvari tocno k puta je
p
k
(t) = P(N(t) = k) = P(N(t) < (k + 1)) P(N(t) < k)
= e
t
k
j=0
(t)
j
j !
e
t
k1
j=0
(t)
j
j !
= e
t
(t)
k
k !
, k = 0, 1, 2, , (15.33)
a to je upravo Poissonova raspodjela, kao sto je i trebalo dokazati.
Svojstva:
(1) Zbroj dvaju nezavisnih Poissonovih procesa N
1
i N
2
s parametrima
1
i
2
je opet
Poissonov proces s parametrom
1
+
2
. Dokazimo ovu tvrdnju (radi jednostavnosti) samo
za jednodimenzijsku Poissonovu raspodjelu. Neka je N = N
1
+ N
2
. Vjerojatnost da se u
oba procesa zajedno, A dogodi n puta je moguca tako da se u jednom procesu A dogodi
244 POGLAVLJE 15. STOHASTI
CKI PROCESI
r puta, a u onom drugom n r puta, pa je zato
P(N(t) = n) =
n
r=0
P(N
1
(t) = r, N
2
(t) = n r)
=
n
r=0
P(N
1
(t) = r) P(N
2
(t) = n r)
=
n
r=0
e
1
t
(
1
t)
r
r !
e
2
t
(
2
t)
nr
(n r) !
= e
(
1
+
2
) t
t
n
n!
n
r=0
n!
r ! (n r) !
r
1
nr
2
= e
(
1
+
2
) t
t
n
n!
(
1
+
2
)
n
,
a to je opet Poissonov proces s parametrom
1
+
2
.
(2) Veza s binomnom raspodjelom: poznata je vrijednost Poissonovog procesa u trenutku
t, a pitanje je kolika je bila njegova vrijednost u jednom ranijem trenutku t
< t? Potrebno
je dakle izracunati uvjetnu vjerojatnost
P(N(t
) = k/N(t) = n).
Prema (2.7), gornja je uvjetna vjerojatnost jednaka
P(N(t
) = k/N(t) = n) =
P(N(t
) = k, N(t) = n)
P(N(t) = n)
Razlomak na desnoj strani se moze dalje raspisivati kao
P(N(t
) = k, N(t) = n)
P(N(t) = n)
=
P(N(t
) = k, N(t t
) = n k)
P(N(t) = n)
=
P(N(t
) = k) P(N(t t
) = n k)
P(N(t) = n)
= e
t
(t
)
k
k !
e
(tt
)
[(t t
)]
nk
(n k) !
_
e
t
(t)
n
n!
_
1
= e
t
(tt
)+t
n!
k ! (n k) !
k+nkn
t
k
(t t
)
nk
t
n
=
_
n
k
_ _
t
t
_
k
_
1
t
t
_
nk
.
Nazove li se
p
t
t
< 1,
tada je gornja uvjetna vjerojatnost dana binomnom raspodjelom
P(N(t
) = k/N(t) = n) =
_
n
k
_
p
k
(1 p)
nk
.
15.3. POISSONOV PROCES 245
(3) Jedan praktican problem: telefonska centrala ima dva ulazna broja. Do trenutka t, na
oba je broja primljeno ukupno n poziva. Kolika je vjerojatnost da je na prvi broj upuceno
k poziva?
Pozive na oba broja shvacamo kao nezavisne Poissonove procese N
1
i N
2
s parametrima
1
i
2
, a potrebno je izracunati uvjetnu vjerojatnost
P(N
1
(t) = k/N
1
(t) + N
2
(t) = n).
Ponovo, kao i u tocki (2), krecemo od (2.7) i pisemo
P(N
1
(t) = k/N
1
(t) + N
2
(t) = n) =
P(N
1
(t) = k, N
1
(t) + N
2
(t) = n)
P(N
1
(t) + N
2
(t) = n)
=
P(N
1
(t) = k, N
2
(t) = n k)
P(N
1
(t) + N
2
(t) = n)
.
Zbog nezavisnosti oba procesa, brojnik se moze napisati kao umnozak
P(N
1
(t) = k, N
2
(t) = n k) = P(N
1
(t) = k) P(N
2
(t) = n k),
a prema tocki (1) je zbroj dva Poissonova procesa u nazivniku opet Poissonov proces s
parametrom
1
+
2
.
P(N
1
(t) = k/N
1
(t) + N
2
(t) = n) = e
1
t
(
1
t)
k
k !
e
2
t
(
2
t)
nk
(n k) !
_
e
(
1
+
2
) t
(
1
+
2
)
n
t
n
n!
_
1
=
n!
k ! (n k) !
k
1
nk
2
(
1
+
2
)
n
=
_
n
k
_ _
1
1
+
2
_
k
_
2
1
+
2
_
nk
.
Nazove li se
p
1
1
+
2
< 1,
tada je trazena uvjetna vjerojatnost opet dana binomnom raspodjelom
P(N
1
(t) = k/N
1
(t) + N
2
(t) = n) =
_
n
k
_
p
k
(1 p)
nk
.
(4) Veza s geometrijskom raspodjelom: nastavimo s gornjim primjerom telefonske centrale
s dva ulazna broja i zapitajmo se koliko je poziva stiglo na prvi broj u vremenskom
intervalu izmedu dva poziva na drugi broj?
Gornji problem, formuliran u terminima Poissonovih procesa, glasi ovako: promatraju se
dva nezavisna dogadaja A
1
i A
2
opisana Poissonovim procesima s parametrima
1
i
2
.
Neka se A
1
dogodio N puta u vremenskom intervalu izmedu dva uzastopna ostvarenja
dogadaja A
2
. Zadatak je odrediti kolika je vjerojatna vrijednost N.
Vrijeme izmedu dva uzastopna istvarenja A
2
je opisano eksponencijalnom raspodjelom
s gustocom vjerojatnosti
() =
2
e
2
.
246 POGLAVLJE 15. STOHASTI
CKI PROCESI
Buduci da je realizacija dogadaja A
1
Poissonov proces, to je vjerojatnost da se on realizira
N = k puta u vremenskom intervalu [0, ] dana sa
N(k) = e
1
(
1
)
k
k !
.
Trazena vjerojatnost da varijabla N ima vrijednost k je upravo srednja vrijednost (ocekivanje)
od N(k), gdje se usrednjavanje izvodi s gustocom vjerojatnosti za sirinu vremenskog in-
tervala (), kada sam vremenski interval moze imati bilo koju pozitivnu vrijednost
N =
0
N(k) () d
=
0
e
1
(
1
)
k
k !
2
e
2
d
=
k
1
2
k !
k
e
(
1
+
2
)
d .
Jednostavnim uvodenjem nove varijable, gornji se integral svodi na gama funkciju, (8.21),
tako da je rjesenje
N =
k
1
2
(
1
+
2
)
k+1
, k = 0, 1, 2,
dano u obliku geometrijske raspodjele.
15.3.2 Kolmogorovljeve jednadzbe
U ovom se odjeljku studiraju Markovljevi procesi ciji su rezultati opisani diskretnim vri-
jednostima iz skupa S. Tocnije, u vremenskim trenucima t
0
< t
1
< < t
n
, promatra
se slucajni proces X sa vrijednostima iz diskretnog skupa S, koji zadovoljava uvjet Mar-
kovljevog procesa (da rezultat n + 1-og pokusa ovisi samo o rezultatu prethodnog, n-tog
pokusa)
P(X
t
n+1
= x
n+1
/X
t
n
= x
n
, X
t
n1
= x
n1
, , X
t
0
= x
0
) = P(X
t
n+1
= x
n+1
/X
t
n
= x
n
).
Dokazimo slijedecu tvrdnju: ako proces X ima nezavisne priraste, tda j eon Markovljev
proces
P(X
t
n+1
= x
n+1
/ X
t
n
= x
n
, X
t
n1
= x
n1
, , X
t
0
= x
0
)
= P(X
t
n+1
X
t
n
= x
n+1
x
n
/X
t
n
X
t
n1
= x
n
x
n1
, , X
t
1
X
t
0
= x
1
x
0
, X
t
0
= x
0
)
= P(X
t
n+1
X
t
n
= x
n+1
x
n
)
= P(X
t
n+1
X
t
n
= x
n+1
x
n
/ X
t
n
= x
n
)
= P(X
t
n+1
= x
n+1
/ X
t
n
= x
n
).
15.3. POISSONOV PROCES 247
Ranije, kod Markovljevih lanaca, je uveden pojam vjerojatnosti prijelaza. Sada ce se
vjerojatnost prijelaza denirati za Markovljeve procese. Ako u trenutku t
p
, proces ima
vrijednost x
p
, potrebno je odrediti vjerojatnost da ce taj isti proces u kasnijem trenutku
t
k
> t
p
imati vrijednost x
k
. Primjetimo da ova vjerojatnost prijelaza ovisi o cetiri
18
varijable (slika 15.6)
P(X
t
k
= x
k
/ X
t
p
= x
p
) p(t
p
, x
p
, t
k
, x
k
) p
[t
p
,t
k
]
pk
.
Matrica
Slika 15.6: Vjerojatnost prijelaza iz stanja x
p
u trenutku t
p
u stanje x
k
u kasnijem trenutku t
k
.
P
[t
p
,t
k
]
_
p
[t
p
,t
k
]
pk
_
se naziva matrica prijelaznih vjerojatnosti ili matrica prijelaza.
Cinjenica da su danom trenutku t promatrani proces moze nalaziti samo u jednom stanju,
izrazava se u terminima matricnih elemenata matrice prijelaza kao
p
[t,t]
i,j
=
i,j
. (15.34)
Takoder, cinjenica da se u svakom vremenskom trenutku proces mora nalaziti u jednom
(bilo kojem) od svih svojih mogucih stanja se iskazuje kao
j=1
p
[t,t]
i,j
= 1, i = 1, 2, .
Ova se osobina procesa naziva konzervativnost.
Chapman - Kolmogorovljeva jednad
zba:
18
Sjetimo se da vjerojatnost prijelaza Markovljevog lanaca ovisila samo o (pocetnom i konacnom ) stanju, a ne i o vremenu
kada se proces dogada.
248 POGLAVLJE 15. STOHASTI
CKI PROCESI
Izvedimo sada sredisnju jednadzbu koja opisuje Markovljeve procese. Uocimo tri vremen-
ska trenutka
t
p
t t
k
i njima pridruzena tri dogadaja
A = {X
t
k
= x
k
}
B
k
= {X
t
= x
k
}, k
C = {X
t
p
= x
p
}
vrlo nejasan izvod
Time je pokazana Chapman - Kolmogorovljeva jednad
zba
P
[t
p
,t
k
]
= P
[t
p
,t]
P
[t,t
k
]
t
p
t t
k
. (15.35)
Primjer: 15.11 Za ilustraciju gornjeg izlaganja, napisimo matricu prijelaza za Poisso-
nov proces.
R:
Kao rezultat Poissonovog procesa se moze pojaviti bilo koji broj iz skupa
S = {0, 1, 2, } (dakle, samo diskretne vrijednosti). Prema (15.31) je
P(N
t
= j/N
t
= i) =
_
(t t
)
_
(ji)
(j i) !
e
(tt
)
.
Elementi matrica p
[t
,t]
i,j
se racunaju tako da se za vrijednosti i i j uzimaju
redom vrijednosti iz skupa S. Npr. prvi red matrice sadrzi elemente
p
[t
,t]
00
= e
(tt
)
,
p
[t
,t]
01
= (t t
) e
(tt
)
,
p
[t
,t]
02
=
1
2
_
(t t
)
_
2
e
(tt
)
,
.
.
.
i slicno za ostale elemente prvog reda. Racunajuci elemente drugog reda, treba
15.3. POISSONOV PROCES 249
se prisjetiti da je (1)! = (2)! = (3)! = = , tako da je
p
[t
,t]
10
= 0,
p
[t
,t]
11
= e
(tt
)
,
p
[t
,t]
12
= (t t
) e
(tt
)
,
.
.
.
U konacnici se dobiva gornja trokutasta matrica s istim elementima na glavnoj
i sporednim dijagonalama
P
[t
,t]
= e
(tt
)
_
_
1 (t t
)
1
2
_
(t t
)
_
2
0 1 (t t
)
0 0 1
.
.
.
.
.
.
.
.
.
.
.
.
_
_
.
Iz primjera 15.11 se vidi da matrica prijelaza ovisi samo o razlici konacnog i pocetnog
vremena. Opcenito se procesi s tim svojstvom nazivaju homogeni procesi i oznacavaju
se kao
P
[t
,t]
P(t t
).
Slicno se oznacavaju i matricni elementi
p
[0,t]
i,j
= p
i,j
(t).
Koristeci gornje oznake, a u skladu s Chapman - Kolmogorovljevom jednadzbom (15.35)
P
[0,t+t
]
= P
[0,t]
P
[t,t+t
]
P(t + t
) = P(t) P(t
). (15.36)
Gornje se svojstvo naziva svojstvo polugrupe, tj. skup matrica prijelaza P zajedno s
binarnom relacijom mnozenja matrica cini algebarsku strukturu koja se zove polugrupa.
Primjetimo da iz svojstva (15.34), u slucaju homogenih procesa, slijedi
p
[t,t]
i,j
= p
i,j
(t t) = p
i,j
(0) =
i,j
, (15.37)
ili, u matricnom zapisu
P(0) = 1. (15.38)
Kolmogorovljeve jednad
zbe:
U ovom dijelu se pokazuje kako se cijela polugrupa matrica prijelaza P(t) moze konstru-
irati iz jedne matrice.
250 POGLAVLJE 15. STOHASTI
CKI PROCESI
Zapocinje se s Chapman - Kolmogorovljevom jednadzbom homogenog Markovljevog pro-
cesa X, zapisanom u obliku (15.36)
P(t + t
) = P(t) P(t
),
ili, raspisano po matricnim elementima
p
i,j
(t + t
) =
k
p
ik
(t) p
kj
(t
). (15.39)
Uvedimo sada matricu A ciji su matricni elementi jednaki
a
i,j
p
i,j
(0).
Uz pretpostavku
19
da se u relaciji (15.39) redoslijed operacija deriviranja i zbrajanja moze
zamjeniti, iz iste se relacije dobiva
p
i,j
(t + t
) =
k
p
ik
(t)
d
d t
p
kj
(t
).
U trenutku t
i,j
(t) =
k
p
ik
(t) p
kj
(0) =
k
p
ik
(t) a
kj
, (15.40)
ili, matricno
P
zba unaprijed.
Na slican nacin, derivacijom po t, dobiva se i
t
p
i,j
(t + t
t=0
=
k
d
d t
p
ik
(t)
t=0
p
kj
(t
)
p
i,j
(t
) =
k
p
ik
(0) p
kj
(t
) =
k
a
ik
p
kj
(t
).
No, t
zba unazad.
Matrica gusto
ce prijelaza A
Matrica A koja se pojavljuje u gornjim jednadzbama, se naziva matrica gustoce prije-
laza
20
. Pogledajmo neka njezina svojstva. Prisjetimo se da je, prema (15.37)
p
i,j
(0) =
i,j
,
19
Koja je najcesce zadovoljena u slucajevima od zickog interesa.
20
ili innitezimalni generator polugrupe P
15.3. POISSONOV PROCES 251
ili, u matricnom zapisu, prema (15.38)
P(0) = 1.
(1) Prema deniciji a
i,j
je, za i = j,
a
i,j
p
i,j
(0) = lim
d t 0
p
i,j
(d t) p
i,j
(0)
d t
= lim
d t 0
p
i,j
(d t)
d t
,
pa je
p
i,j
(d t) = a
i,j
d t +O
_
d t
_
, i = j.
Buduci da su vjerojatnosti p
i,j
uvijek pozitivne ili jednake nuli, to se iz gornje relacije
zakljucuje i da je a
i,j
0 za i = j.
(2) Kada je i = j, racun kao gore vodi na
a
ii
p
ii
(0) = lim
d t 0
p
i1
(d t) p
ii
(0)
d t
= lim
d t 0
p
ii
(d t) 1
d t
,
pa je
p
ii
(d t) = 1 + a
ii
d t +O
_
d t
_
.
Buduci da vjerojatnosti p
ii
ne mogu biti vece od 1, to se iz gornje relacije zakljucuje da
je a
ii
< 0.
Takoder, iz cinjenice da se u svakom trenutku, proces mora nalaziti u jednom od konacnih
stanja j, slijedi da je
j
p
i,j
(t) = 1
_
d
d t
t=0
j
p
i,j
(0) = 0
j
a
i,j
= 0. (15.43)
Primjer: 15.12 Zadatak je izracunati matricu gustoce prijelaza za Poissonov proces.
R:
Prema (15.33), za Poissonov proces je
p
i,j
(t) =
(t)
ji
(j i) !
e
t
q
i,j
= p
i,j
(0) = e
t
_
ji
t
ji1
(j i 1) !
(t)
ji
(j i) !
_
t=0
.
252 POGLAVLJE 15. STOHASTI
CKI PROCESI
Desna strana gornjeg izraza je razlicita od nule samo u dva slucaja:
j = i a
i,i
=
t
1
(1) !
t=0
= ,
j = i + 1 a
i,i+1
=
1
t
1 !
t=0
= ,
j = i & j = i + 1 a
i,j
= 0.
A =
_
_
0
0
0 0
.
.
.
.
.
.
.
.
.
.
.
.
_
_
.
Na temelju ponasanja zickog sustava unutar vrlo kratkog vremenskog intervala, mogu
se odrediti matricni elementi a
i,j
. Zatim se iz poznavanja matrice gustoce prijelaza A,
koristeci Kolmogorovljeve jednadzbe, moze odrediti matrice matrica prijelaznih vjerojat-
nosti P(t) u proizvoljnom trenutku, tj moguce je predvidjeti vjerojatnosti prijelaza sustava
u proizvoljnom t.
Prisjetimo se relacija (15.25) - (15.27) za Poissonov proces
p
0
(d t) = 1 d t +O
_
d t
2
_
,
p
1
(d t) = d t +O
_
d t
2
_
,
p
j
(d t) = O
_
d t
2
_
, j 2.
15.3. POISSONOV PROCES 253
Gornje se vjerojatnosti mogu povezati s prijelaznim vjerojatnostima, na slijedeci nacin
p
i,i
(d t) = P
_
N(t + d t) = i / N(t) = i
_
= P
_
N(d t) = 0
_
= p
0
(d t)
= 1 d t +O
_
d t
2
_
p
i,j
(d t) = P
_
N(t + d t) = j / N(t) = i
_
i = j
= P
_
N(d t) = 1
_
= p
1
(d t)
= d t +O
_
d t
2
_
Zamislimo atom kao jedan mali magnet koji moze biti usmjeren u samo dva
21
smjera:
jedan zovemo gore, s oznakom , a drugi zovemo dolje, s oznakom . Vrijeme koje
sustav provede u stanju je opisano eksponencijalnom raspodjelom s parametrom
,
a vrijeme provedeno u stanju je takoder opisano eksponencijalnom raspodjelom, ali s
jednim drugim parametrom
.
Izracunajmo sve cetiri prijelazne vjerojatnosti
p
,
(d t) = P
_
X(d t) = /X(0) =
_
= p
0
(d t) = 1
d t +O
_
d t
2
_
p
,
(d t) = P
_
X(d t) = /X(0) =
_
= p
1
(d t) =
d t +O
_
d t
2
_
p
,
(d t) = P
_
X(d t) = /X(0) =
_
= p
1
(d t) =
d t +O
_
d t
2
_
p
,
(d t) = P
_
X(d t) = /X(0) =
_
= p
0
(d t) = 1
d t +O
_
d t
2
_
Iz gornjih prijelaznih vjerojatnosti se elementi matrice gustoce racunaju kao
a
i,j
= lim
d t 0
p
i,j
(d t) p
i,j
(0)
d t
,
iz cega slijedi
a
,
=
a
,
=
a
,
=
a
,
=
,
21
Ovakav se model obicno naziva Isingov model.
254 POGLAVLJE 15. STOHASTI
CKI PROCESI
tj. matrica A je
A =
_
_
_
_
.
Primjetiomo da je relacija (15.43) zadovoljena
a
,
+ a
,
= 0,
a
,
+ a
,
= 0.
Pokazimo sada i slijedeci korak - kako se iz poznavanja A (koja se odreduje iz ponasanja
sustava u innitezimalnom vremenu), moze izracunati matrica prijelaza P(t), koja opisuje
vjerojatnost prijelaza u proizvoljnom trenutku.
Za i =, , Kolmogorovljeve jednadzbe (15.40), glase
p
i,
(t) = p
i
(t) a
+ p
i
(t) a
= p
i
(t)
+ p
i
(t)
,
p
,
(t) = p
(t)
+ p
(t)
, p
,
(t) = p
(t)
+ p
(t)
(15.44)
p
i,
(t) = p
i
(t) a
+ p
i
(t) a
= p
i
(t)
p
i
(t)
,
(t) = p
(t)
(t)
, p
,
(t) = p
(t)
(t)
(15.45)
Ako je u stanju , atom moze ili ostati u tom stanju ili prijeci u , pa je zato
p
,
+ p
,
= 1.
Slicno, ako je atom u stanju , on moze u tom stanju i dalje ostati ili moze prijeci u
stanje. Zato je
p
,
+ p
,
= 1.
Gornje dvije jednadzbe se mogu iskoristiti tako da se u Kolmogorovljevim jednadzbama
15.3. POISSONOV PROCES 255
(15.44) i (15.45), pojavlju samo vjerojatnosti s istim indeksima
p
,
(t) = p
(t)
+ p
(t)
= p
(t)
+
_
1 p
(t)
_
,
(t) + (
) p
(t) =
,
(t) = p
(t)
+ p
(t)
= p
(t)
+
_
1 p
,
_
,
(t) + (
) p
,
(t) =
,
(t) = p
(t)
(t)
=
_
1 p
,
_
(t)
,
(t) + (
) p
,
(t) =
,
(t) = p
(t)
(t)
=
_
1 p
,
_
(t)
,
(t) + (
) p
,
(t) =
,
(t) + (
) p
(t) =
,
p
,
(t) + (
) p
,
(t) =
,
p
,
(t) + (
) p
,
(t) =
,
p
,
(t) + (
) p
,
(t) =
,
koje su sve istog oblika
y
+ A y = B,
uz
A =
, B =
ili
.
To su nehomogene diferencijalne jednadzbe, cija su rjesenja oblika
y = y
H
+ y
P
,
gdje je y
H
rjesenje homogene jednadzbe (s nulom na desnoj strani), a y
P
je partikularno
rjesenje nehomogene jednadzbe. Potrazimo homogeno rjesenje u obliku
y
H
= e
t
,
256 POGLAVLJE 15. STOHASTI
CKI PROCESI
a partikularno u obliku konstante
y
P
= c
0
.
Uz ove pretpostavke, ukupno rjesenje je
y = e
At
+
B
A
,
gdje se nepoznata konstanta odreduje iz pocetnih uvjeta (15.37). Tako je
p
(t) =
e
(
) t
+
,
p
(t) =
e
(
) t
+
,
p
(t) =
e
(
) t
+
,
p
(t) =
e
(
) t
+
.
Gornje prijelazne vjerojatnosti su elementi matrice prijelaza
P(t) =
_
_
p
(t) p
(t)
p
(t) p
(t)
_
_
. (15.46)
pomocu ovih prijelaznih vjerojatnosti se moze odrediti p
j
(t), vjerojatnost da se u trenutku
t sustav nalazi u stanju j = ili . Ova je vjerojatnost odredena stanjem sustava u
pocetnom trenutku t = 0. To pocetno stanje moze biti odredeno ili deterministi
cki,
p
j
(0) = 1, ili p
j
(0) = 0,
ili probabilisti
cki
p
(0) = p, p
(0) = q = 1 p,
tj. u pocetnom trenutku se sustav nalazi u stanju s vjerojatnoscu p, a u stanju s
vjerojatnoscu 1 p. Kao primjer, izracunajmo vjerojatnost da se u trenutku t sustav
nalazi u stanju uz probabilisticke pocetne uvjete:
p
(t) = P
_
X(t) =
_
= P
_
X(t) = / X(0) =
_
P
_
X(0) =
_
+ P
_
X(t) = / X(0) =
_
P
_
X(0) =
_
= p p
(t) + (1 p) p
(t)
= p
_
e
(
) t
+
_
+ (1 p)
_
e
(
) t
+
_
=
+
p
+ q
e
(
) t
15.3. POISSONOV PROCES 257
Dugo nakon pocetka procesa, stanje sustava ne ovisi o pocetnim uvjetima (u gornjem
izrazu su pocetni uvjeti sadrzani u p i q)
lim
t
p
(t) =
.
Slicnim se postupkom dobiva i
lim
t
p
(t) =
.
Dugo nakon pocetka procesa je omjer vjerojatnosti da sustav bude u stanju i stanju
jednak
lim
t
p
(t)
p
(t)
=
.
No, prema samom svom znacenu (odredenom eksponencijalnom raspodjelom), inverzna
vrijednost je ocekivano vrijeme koje sustav provodi u stanju ili
=
1
=
1
,
tako da j egornji omjer vjerojatnosti jednak
lim
t
p
(t)
p
(t)
=
.
Rekonstrukcija prijelaznih vjerojatnosti
Pokazimo sada kako se iz poznavanja matrice A (generatora) mogu konstruirati matrice
prijelaza P.
Matricna diferencijalna jednadzba (15.42)
P
CKI PROCESI
S druge strane, jednadzba (15.47) ima ocito rjesenje u obliku eksponencijalne funkcije
P(t) = e
At
.
Eksponencijalna funkcija s matricom u argumentu se racuna pomocu razvoja eksponen-
cijalne funkcije u red
e
At
=
n=0
t
n
A
n
n!
.
Problem s rjesenjem gornjeg oblika je u tome sto treba znati sve potencije matrice A. Taj
se problem rjesava (kvazi)dijagonalizacijom matrice.
(1) Jednostavnija varijanta: matrica se u cjelosti dijagonalizira u bazi svojstvenih vektora,
tj. postoji matrica S reda k, sa svojstvom da je
A = S D S
1
(gornja veza medu matricama A i D se zove preobrazba slicnosti), gdje je D dijagonalna
matrica sa svojstvenim vrijednostima matrice A na dijagonali
D =
_
_
a
1
0 0
0 a
2
0
.
.
.
.
.
.
0 0 a
k
_
_
. (15.48)
Iteracijom gornjeg izraza, dolazi se do
A
2
= S D S
1
S D S
1
= S D
2
S
1
.
.
.
A
n
= S D
n
S
1
.
No, za razliku od n-te potencija matrice A, n-tu potenciju dijagonalne matrice D je lako
izracunati
D
n
=
_
_
a
n
1
0 0
0 a
n
2
0
.
.
.
.
.
.
0 0 a
n
k
_
_
.
Uvodenjem matrice D, rjesenje za P je
P(t) = e
At
= S
n=0
t
n
D
n
n!
S
1
= S
_
_
e
t a
1
0 0
0 e
t a
2
0
.
.
.
.
.
.
0 0 e
t a
k
_
_
S
1
.
15.3. POISSONOV PROCES 259
(2) Kao sto je poznato iz linearne algebre, ne moze se svaka matrica dovesti u dijagonalni
oblik (15.48), ali se zato svaka matrica moze dovesti u Jordanov
22
kvazidijagonalni
oblik
A =
_
_
D
1
0 0
0 D
2
0
.
.
.
.
.
.
0 0 D
l
_
_
,
gdje su podmatrice D
j
oblika
D
j
=
_
_
d
j
1 0 0
0 d
j
1 0
.
.
.
.
.
.
.
.
.
0 0 d
j
1
0 0 0 d
j
_
_
.
U posebnom slucaju ako su se podmatrice D
j
reda jedan, tada se Jordanov oblik svodi
na potpunu dijagonalizaciju (15.48).
Primjer: 15.13 Nadite svojstvene vrijednosti i svojstvene vektore matrice A iz gornjeg
modela s dva stanja. Pomocu svojstvenih vektora konstruirajte matrice S i S
1
i matricu P(t). Rezultat usporedite s (15.46).
R:
dovrsiti
15.3.3 Procesi radanja i umiranja
U odjeljku ... je pokazano da je Poissonov proces opisan slijedecom vjerojatnoscu
p
n,n+k
(d t) = P
_
N(t + d t) = n + k / N(t) = n
_
)
_
_
1 d t +O(d t
2
) , k = 0 ,
d t +O(d t
2
) , k = 1 ,
O(d t
2
), k 2 .
22
Marie Ennemond Camille Jordan, francuski matematicar (5. I 1838. La Croix-Rousse, Lyon - 22. I 1922. Paris)
260 POGLAVLJE 15. STOHASTI
CKI PROCESI
Primjetimo da vjerojatnost p
n,n+k
(d t) ne ovisi niti o n niti o t. U cijelom dosadasnjem
izlaganju se parametar tretirao kao konstantan. No, moze biti i funkcija jedne ili vise
varijabla, a da opisani proces i dalje bude Markovljev proces.
Proces radanja
Sada zelimo Poissonovim procesom opisati proces radanja. Opceniti dogadaj A o ko-
jemu smo do sada govorili, sada ce postati dogadaj radanja jedne jedinke u promatranoj
populaciji. Neka je
=
n
,
tj. neka bude funkcija od n, broja jedinki promatrane populacije u trenutku t. Uz taj
uvjet, Poissonova je vjerojatnost zadana sa
p
n,n+k
(d t) = P
_
N(t + d t) = n + k / N(t) = n
_
=
_
_
1
n
d t +O(d t
2
) , k = 0 ,
n
d t +O(d t
2
) , k = 1 ,
O(d t
2
), k 2 .
(15.49)
Prema deniciji matricnih elemenata a
i,j
= p
i,j
(0), iz gornjeg se izraza ocitava matrica
gustoce prijelaza
A =
_
0
0
0 0
0
1
1
0 0
.
.
.
0
n
n
0
.
.
.
_
_
. (15.50)
Pomocu izraza (15.49) se moze napisati veza medu vjerojatnim brojem jedinki u trenucima
t i t +d t: ako je u trenutku t vec bilo n jedinki i nijedna se jedinaka nije rodila u intervalu
d t, tada ce i u trenutku t +d t biti n jedinki; druga je mogucnost da je u trenutku t bilo
n 1 jedinki i da se u intervalu d t rodila jedna jedinka, tako da u trenutku t + d t opet
postoji n jedinki. Dakle, oba opisana procesa vode na n jedinki u trenutku t + d t i zato
je
p
n
(t + d t) = p
n
(t) (1
n
d t) + p
n1
(t)
n1
d t +O(d t
2
), n 1.
Gornja se jednadzba moze napisati i u obliku
p
n
(t + d t) p
n
(t)
d t
=
n
p
n
(t) +
n1
p
n1
(t) +O(d t), n 1.
U granici d t 0 je
lim
d t 0
p
n
(t + d t) p
n
(t)
d t
= p
n
(t) =
n
p
n
(t) +
n1
p
n1
(t), n 1. (15.51)
15.3. POISSONOV PROCES 261
Za n = 0 je i p
n1
0, pa gornja jednadzba prelazi u
p
0
(t) =
0
p
(
t). (15.52)
Opisani proces radanja se moze egzaktno rijesiti u jednostavnom slucaju kada
n
linearno
ovisi o n
n
= n .
Ovakav proces radanja se naziva Yule-Furryev
23
proces. U skladu s (15.50), matrica
gustoce Yule-Furryevog procesa je
A =
_
_
0 0 0 0
0 0 0
.
.
.
0 n n 0
.
.
.
_
_
,
a iz Kolmogorovljevih jednadzba prema naprijed, (15.41),
P
(t) = P(t) A,
dobivaju se diferencijalne jednadzbe (15.51) i (15.52), koje u Yule-Furryevu obliku glase
p
n
(t) = n p
n
(t) + (n 1) p
n1
(t), n 1
p
0
(t) = 0.
Neka u pocetnom trenutku t = 0, postoji samo jedna jedinka
24
p
1
(0) = 1, p
j
(0) = 0, j = 1.
Zadatak je izracunati p
n
(t), vjerojatnost da u trenutku t postoji tocno n jedinki. Iz
jednadzbe
p
0
(t) = 0
slijedi zakljucak da je
p
0
(t) = const,
a zbog pocetnog uvjeta, ta konstanta mora biti jednaka nula, tj.
p
0
(t) = 0, t.
23
George Udny Yule, skotski matematicar, (18. II 1871. Morham (near Haddington), Scotland - 26. VI 1951. Cambridge,
Cambridgeshire, England); Furry ???
24
Ako su za razmnozavanje potrebne dvije jedinke, tada pocetni uvjet treba glasiti
p
2
(0) = 1, p
j
(0) = 0, j = 2.
262 POGLAVLJE 15. STOHASTI
CKI PROCESI
Ovaj je rezultat posve razumljiv s obzirom da se promatra proces koji sadrzi samo radanje
(a ne i umiranje), pa ako je u pocetnom trenutku postojala jedna jedinka, u kasnijim
trenucima ih moze biti samo vise.
Diferencijalna jednadzba za p
n=1
glasi
p
1
(t) = p
1
(t).
Ocito rjesenje gornje jednadzbe koje zadovoljava i pocetni uvjet je
p
1
(t) = e
t
.
Pogledajmo sada diferencijalnu jednadzbu za n = 2
p
2
(t) = 2 p
2
(t) + p
1
(t)
p
2
(t) = 2 p
2
(t) + e
t
.
Lako je vidjeti da je gornja jednadzba ekvivalentna jednadzbi
d
d t
_
e
2 t
p
2
(t)
= e
t
.
Izravnom intergracijom gornje jednadzbe i uvrstavanjem pocetnog uvjeta, dobiva se rjesenje
p
2
(t) = e
t
_
1 e
t
_
.
Pretpostavimo da je opcenito
p
n
(t) = e
t
_
1 e
t
_
n1
i dokazimo tu pretpostavku indukcijom. Diferencijalna jednadzba za p
n+1
je
p
n+1
(t) = (n + 1) p
n+1
(t) + n p
n
(t)
p
n+1
(t) + (n + 1) p
n+1
(t) = n e
t
_
1 e
t
_
n1
d
d t
_
e
(n+1) t
p
n+1
(t)
= n e
nt
_
1 e
t
_
n1
= n
n1
m=0
_
n 1
m
_
(1)
m
e
(nm) t
_
t
0
d t
Integracijom gornjeg izraza, uz uvrstavanje pocetnih uvjeta, dobiva se
p
n+1
(t) = e
t
_
1 e
t
_
n
cime je dokazana polazna pretpostavka.
Pomocu poznate vjerojatnosti p
n
(t) se mogu dalje racunati razlicite srednje vrijednosti.
Tako je npr. srednji broj jedinki u trenutku t jednak
n(t) =
n=1
n p
n
(t) = e
t
n=1
n
_
1 e
t
_
n1
= e
t
_
e
x
d
d x
n=1
(1 e
x
)
n
_
x=t
= e
t
.
15.3. POISSONOV PROCES 263
Broj jedinki eksponencijalno raste s vremenom.
Procesi radanja i umiranja
Promatrajmo sada populaciju u kojoj osim procesa radanja postoji i proces umiranja,
opisan parametrom . Unutar vremenskog intervala d t, broj jedinki se radanjem moze
povecati za jedan, umiranjem smanjiti za jedan, a ako se u intervala d t ne dogodi niti
jedan porod niti smrtni slucaj, broj jedinki ce ostati nepromjenjen. Matricni elementi
matrice prijelaza izmedu stanja s i jedinki u trenutku t i j jedinki u trenutku t + d t, su
p
i,j
(d t) = P
_
N(t+d t) = j / N(t) = i
_
=
_
i
d t +O(d t
2
) , j = i 1 ,
1 (
i
+
i
) d t +O(d t
2
) , j = i ,
i
d t +O(d t
2
) , j = i + 1 ,
O(d t
2
), j i + 2, j i 2 ,
(15.53)
S pocetnim uvjetom
0
= 0.
Primjetimo da u slucaju i = j nismo uzeli ubzir mogucnost da se u intervalu d t jedna
jedinka rodi i jedna jedinka umre, zato sto je to proces srazmjeran s O(d t
2
), a takvi se
procesi sustavno zanemaruju. Pomocu gornjih prijelaznih vjerojatnosti, lako je ocitati
matricu gustoce prijelaza s matricnim elementima a
i,j
= p
i,j
(0)
A =
_
0
0
0 0
1
1
1
1
0 0
.
.
.
n
n
n
n
0
.
.
.
_
_
.
Gornja je matrica ekvivalentna diferencijalnoj jednadzbi
p
n
(t + d t) = p
n1
(t)
n1
d t + p
n
(t)
_
1 (
n
+
n
) d t
_
+ p
n+1
(t)
n+1
d t +O(d t
2
).
ciji je zicki sadrzaj identican sadrzaju jednadzbe (15.53). Nakon nekoliko jednostavnih
manipulacija
p
n
(t + d t) p
n
(t)
d t
=
n1
p
n1
(t) (
n
+
n
) p
n
(t) +
n+1
p
n+1
(t) +
O(d t
2
)
d t
_
lim
d t 0
iz gornje se jednadzbe mogu ocitati Kolmogorovljeve jednadzbe
p
n
(t) =
n1
p
n1
(t) (
n
+
n
) p
n
(t) +
n+1
p
n+1
(t), n 1,
264 POGLAVLJE 15. STOHASTI
CKI PROCESI
a za n = 0, uz uvjet
0
= 0,
p
0
(t) =
0
p
0
(t) +
1
p
1
(t).
Pocetni uvjeti su takvi da je u trenutku t = 0, zivo m jedinki
p
m
(0) = 1, p
j
(0) = 0, j = m.
Bibliograja
[1] Milton Abramowitz and Irene A. Stegun, Handboook oh mathematical functi-
ons, (McGrow-Hill, New York, 1972)
[2] Dixon W. J. and Massey F. J., Introduction to Statistical Analysis, (McGrow-Hill,
New York, 1957)
[3] Elezovi
ci
c A., Vari
c
Z., Uvod u visu analizu, II dio, (