You are on page 1of 279

VJEROJATNOST I STATISTIKA

UVOD
Zvonko Glumac
Osijek, 2006.
v
vi
Sadrzaj
I Teorija vjerojatnosti 3
1 Kombinatorika 5
1.1 Permutacije . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Kombinacije i varijacije . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Binomni poucak . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2 Vjerojatnost 15
2.1 Denicija osnovnih pojmova . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Racunske operacije s vjerojatnostima . . . . . . . . . . . . . . . . . . . . . 21
2.2.1 Zbrajanje vjerojatnosti . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2.2 Mnozenje vjerojatnosti . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2.3 Uvjetna (relativna) vjerojatnost . . . . . . . . . . . . . . . . . . . . 30
2.2.4 Adicijski i multiplikacijski teorem . . . . . . . . . . . . . . . . . . . 32
2.2.5 Bayesov teorem, 1764 . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3 Matematicka teorija vjerojatnosti 43
3.1 Matematicko ocekivanje . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2 Vjerojatnost i Bernoullijevi pokusi . . . . . . . . . . . . . . . . . . . . . . 45
3.3 Prosjecna vrijednost . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4

Cebisevljev teorem i Bernoullijev teorem (zakon velikih brojeva) . . . . . . 58
3.5 Diskretne i kontinuirane vjerojatnosti . . . . . . . . . . . . . . . . . . . . . 61
3.6 Geometrijske vjerojatnosti . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.7 Teoremi o slucajnim varijablama . . . . . . . . . . . . . . . . . . . . . . . 68
3.8 Preobrazba varijable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4 Korelacijske funkcije 75
4.1 Uvod . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
5 Najmanji kvadrati 77
6 Teorija gresaka 81
6.1 Izravnanje direktnih opazanja jednake tocnosti . . . . . . . . . . . . . . . . 81
6.1.1 Greska funkcije . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
6.1.2 Standardna devijacija aritmeticke sredine . . . . . . . . . . . . . . . 86
6.2 Izravnanje direktnih opazanja razlicite tocnosti . . . . . . . . . . . . . . . . 89
6.3 Izravnanje posrednih opazanja . . . . . . . . . . . . . . . . . . . . . . . . . 91
6.4 Izravnanje vezanih opazanja . . . . . . . . . . . . . . . . . . . . . . . . . . 98
vii
viii SADR

ZAJ
II Matematicka statistika 99
7 Osnovni pojmovi statistike 101
7.1 Prosjecne vrijednosti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
7.1.1 Aritmeticka sredina . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
7.1.2 Geometrijska sredina . . . . . . . . . . . . . . . . . . . . . . . . . . 103
7.1.3 Harmonijska sredina . . . . . . . . . . . . . . . . . . . . . . . . . . 104
7.2 Momenti raspodjele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
8 Raspodjele 109
8.1 Binomna raspodjela . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
8.1.1 Polinomna raspodjela kao poopcenje binomne . . . . . . . . . . . . 115
8.2 Poissonova raspodjela . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
8.3 Hipergeometrijska raspodjela . . . . . . . . . . . . . . . . . . . . . . . . . . 120
8.4 Gaussova ili normalna raspodjela . . . . . . . . . . . . . . . . . . . . . . . 125
8.5 Gama raspodjela . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
8.6 t raspodjela . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
8.7 Eksponencijalna raspodjela . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
8.8 Geometrijska raspodjela . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
8.9 Logaritamsko - Gaussova raspodjela . . . . . . . . . . . . . . . . . . . . . . 133
8.10 Jednolika raspodjela . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
8.11 Opca krivulja raspodjele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
9 Funkcija izvodnica 137
9.1 Karakteristicne funkcije . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
9.1.1 Kumulativne funkcije . . . . . . . . . . . . . . . . . . . . . . . . . . 150
10 Sredisnji granicni teorem 151
11 Informacija i entropija 155
11.1 Informacija . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
11.2 Entropija izvora informacije . . . . . . . . . . . . . . . . . . . . . . . . . . 156
12 Teorija korelacije 159
12.1 Pojam korelacije . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
12.2 Linearna korelacija . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
12.3 Nelinearna korelacija . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
12.4 Omjer korelacije . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
12.5 Visestruka i djelomicna korelacija . . . . . . . . . . . . . . . . . . . . . . . 180
12.5.1 Visestruka korelacija . . . . . . . . . . . . . . . . . . . . . . . . . . 181
13 Teorija uzoraka 183
13.1 Osnovni pojmovi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
13.2 Primjena sredisnjeg granicnog teorema u teoriji uzoraka . . . . . . . . . . . 190
13.3 Testovi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
13.3.1
2
test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
13.3.2 Studentova t-raspodjela i t-test . . . . . . . . . . . . . . . . . . . . 195
SADR

ZAJ ix
14 Procjene 201
14.1 Nepristrane procjene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
14.1.1 Najbolja nepristrana procjena . . . . . . . . . . . . . . . . . . . . . 202
14.1.2 Intervalne procjene . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
14.2 Procjene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
14.2.1 Nepristrane procjene . . . . . . . . . . . . . . . . . . . . . . . . . . 205
14.2.2 Najbolja nepristrana procjena . . . . . . . . . . . . . . . . . . . . . 207
14.2.3 Intervalne procjene . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
15 Stohasticki procesi 211
15.1 Nasumicni hod . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
15.2 Markovljevi lanci . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
15.3 Poissonov proces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
15.3.1 Poissonov proces . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
15.3.2 Kolmogorovljeve jednadzbe . . . . . . . . . . . . . . . . . . . . . . 246
15.3.3 Procesi radanja i umiranja . . . . . . . . . . . . . . . . . . . . . . . 259
x SADR

ZAJ
Ovo su biljeske s autorovih predavanja iz kolegija Osnove zickih mjerenja i statisticke
analize, koja se odrzavaju u trecem semestru studija zike na sveucilistu u Osijeku. Bi-
ljeske nisu strucno recenzirane i daju se na uvid studentima kao orjentacija za pripremanje
ispita.
xi
xii SADR

ZAJ
Predgovor
Ove biljeske obuhvacaju predavanja iz kolegija Osnove zickih mjerenja i statisticke ana-
lize, koja je autor drzao studentima treceg semestra studija zike na Sveucilistu J. J.
Strossmayer u Osijeku. Ona sadrze osnove teorije vjerojatnosti i statistike, zbog cega
mogu biti korisna i studentima drugih fakulteta koji se susrecu s problemima iz tog po-
drucja.
Predavanja su najvecim dijelom bazirana na knjigama prof. Vranica Vjerojatnost i sta-
tistika i prof. Pavlica Statisticka teorija i primjena.
itd .... itd .....
Osijek, rujna 2006. Autor
xiii
xiv SADR

ZAJ
Kazalo kratica i simbola
N ukupan broj elementarnih dogadaja
P(A) vjerojatnost realizacije dogadaja A
gustoca vjerojatnosti, = d P/d x
X slucajna (nasumicna) varijabla
x vrijednost slucajne (nasumicne) varijable
skup svih elementarnih dogadaja
elementarni dogadaj
Grcko slovo ispred odredenog simbola oznacava promjenu oznacene velicine za
konacan iznos. Npr.
A = A
kon
A
po c
.
Slovo d ispred odredenog simbola oznacava innitezimalnu promjenu oznacene velicine.
Npr.
d

V (q) =

V (q + d q)

V (q).
Diferencijali volumena te se oznacavati s d V ili s d
3
r, a diferencijali povrsine s d S ili
s d
2
r.
xv
[
Uvod] Uvod
... napisati ga ...
1
2 SADR

ZAJ
Dio I
Teorija vjerojatnosti
3
Poglavlje 1
Kombinatorika
Teorija vjerojatnosti i statistike cesto i obilno koristi pojmove i rezultate jednog dijela
matematike koji se zove kombinatorika. Stoga cemo se upoznati s kombinatorikom u onoj
mjeri i na onaj nacin koji ce nam biti potreban za pracenje daljeg izlaganja.
1.1 Permutacije
Jedan od osnovnih kombinatorickih pojmova jeste pojam permutacije.
Permutirati skup od N razli

citih elemenata zna

ci poslagati te elemente
na sve mogu

ce razli

cite na

cine.
Permutacije bez ponavljanja: P
N
Zapocnimo s jednim jednostavnim primjerom. Zadan je skup od cetiri razlicita simbola
(, , , ), cetiri slova (s, i, a, y) ili naprosto cetiri broja (12, 8.03, 3/2, 459). Elemente
tih skupova je moguce poslagati na 4 ! = 1 2 3 4 = 24 razlicita nacina kao sto je to
pokazano u tablici 1.1. Gornji je poredak dobiven tako sto smo uzeli da zadani poredak
denira redoslijed; zatim smo uvijek mijenjali po dva clana, iduci od pocetka prema kraju.
Pokazimo da niz od N razlicitih elemenata ima
P
N
= N ! = 1 2 . . . (N 1) N (1.1)
razlicitih permutacija. Jasno je da je broj permutacija jednog elementa, oznacimo ga s
A, jednak jedan
P
N=1
= 1 = 1 !.
Broj permutacija skupa od dva elementa cemo dobiti tako sto cemo ovaj drugi element,
oznacen s B, kombinirati na sve moguce nacine s permutacijama jednog elementa: u ovom
jednostavnom slucaju to znaci da B moze doci samo ispred i iza A, tj. postoje samo dvije
mogucnosti
A A B, B A,
pa je zato
P
N=2
= P
N=1
2 = 1 2 = 2 !.
5
6 POGLAVLJE 1. KOMBINATORIKA
Tablica 1.1: Dva primjera permutacija cetiri simbola (, , , ) i cetiri broja (1, 2, 3, 4).
1. 1 2 3 4
2. 1 2 4 3
3. 1 3 2 4
4. 1 3 4 2
5. 1 4 2 3
6. 1 4 3 2
7. 2 1 3 4
8. 2 1 4 3
9. 2 3 1 4
10. 2 3 4 1
11. 2 4 1 3
12. 2 4 3 1
13. 3 1 2 4
14. 3 1 4 2
15. 3 2 1 4
16. 3 2 4 1
17. 3 4 1 2
18. 3 4 2 1
19. 4 1 2 3
20. 4 1 3 2
21. 4 2 1 3
22. 4 2 3 1
23. 4 3 1 2
24. 4 3 2 1
Sada dodajemo i treci element C. Njega postavljamo na sva moguca mjesta u odnosu na
gornje permutacije dva elementa. Ovih mjesta sada ima tri: ipred, izmedu i iza:
A B A B C, A C B, C A B
B A B A C, B C A, C B A.
Svaka od permutacija iz P
N=2
je generirala tri nove permutacije, pa je zato
P
N=3
= P
N=2
3 = 1 2 3 = 3 ! = 6.
Iz gornjeg postupka se vidi da za svaki zadani poredak N elemenata, postoji N+1 mjesto
na koje se moze postaviti N + 1-vi element (ta mjesta su prikazana crticama)
a
1
a
2
a
3
a
N
.
Dakle, svaka pojedina permutacija od N elemenata. ce generirati novih N+1 permutacija
N plus jednog elementa. Zato ce ukupni broj permutacija N + 1-og elementa, P
N+1
, biti
jednak
P
N+1
= P
N
(N + 1) = P
N1
N (N + 1) = P
N2
(N 1) N (N + 1) = = (N + 1) !,
cime je dokazana relacija (1.1). Ista se relacija moze dokazati i ovako: ako je na raspola-
ganju N elemenata, tada za prvi mozemo odabrati bilo koji od njih N; kada smo odabrali
prvi, za drugi mozemo odabrati bilo koji od preostalih N 1 elemenata, tako da prva dva
elementa mogu biti odabrana na N (N 1) nacina; treci element moze biti bilo koji od
1.1. PERMUTACIJE 7
preostalih N 2 elemenata, pa se prva tri elementa mogu izabrati na N (N 1) (N 2)
nacina; ovaj postupak nastavljamo sve dok ne dodemo do posljednjeg elementa kojeg
mozemo odabrati na samo jedan nacin, cime smo opet dosli do izraza (1.1).
Permutacije s ponavljanjem: P
M
N
Pogledajmo sada koliki je broj permutacija skupa od N elemenata od kojih su njih
M medusobno jednaki. Zapocnimo opet s jednim primjerom: zadan je skup od cetiri
elementa od kojih su dva ista
A, A, B, C.
Treba naci sve permutacije. Zamjena istih elemenata ne daje novu permutaciju. Dva su
elementa ista, pa permutacija tih istih elemenat ima 2 ! = 2, ove permuatcije ne daju
novu permuatciju cijelog skupa.
A A B C, B A A C, C A A B,
A A C B, B A C A, C A B A,
A B A C, B C A A, C B A A,
A B C A,
A C A B,
A C B A,
Tako ce sada umjesto 4 ! = 24 permutacija, preostati samo 4 !/2 ! = 12 permutacija.
Da smo umjesto A A imali A A

, svaka od gornjih 12 permutacija bi dala dvije nove


permutacije; npr.
B C A A B C A A

, B C A

A
i mi bismo od gornjih 12 permutacija dobili 24 permutacije 4 razlicita elementa. Slicnim
razmisljanjem dolazimo do zakljucka da je broj permutacija A A A B C za 3 ! manji
od broja permutacija pet razlicitih elemenata, jer ce se svaka permuatcija oblika
A A A
razbiti u 6 = 3 ! novih permutacija oblika
A A

A

,
ako se A-ovi medusobno razlikuju. Sada je lako vidjeti da je opcenito
P
M
N
=
N !
M !
.
Moze se dogoditi da unutar N elemenata postoje dvije ili vise skupina istih elemenata,
npr.
A, A, A, A, B, B, C D .
Slicnim razmisljanjem kao gore, dolazi se do opcenitog rezultata za broj permutacija N
elemenata s grupama od M
1
, M
2
, istih elemenata
P
M
1
,M
2
,
N
=
N !
M
1
! M
2
! . . .
. (1.2)
8 POGLAVLJE 1. KOMBINATORIKA
1.2 Kombinacije i varijacije
Kombinacije bez ponavljanja: K
M
N
Sastavljanjem kombinacija bez ponavljanja nazivamo slijedeci postupak: N razlicitih
elemenata treba rasporediti u grupe od po M < N elemenata. Redoslijed eleme-
nata unutar grupe nije va

zan. Velicina grupe se naziva i razred, pa se tako broj


kombinacija bez ponavljanja M-tog razreda od N elemenata oznacava s
K
M
N
.
Zapocnimo i ovde s primjerom: N = 5 elemenata A, B, C, D, E treba rasporediti u grupe
od po M = 3 elementa
A B C, A B D, A B E,
A C D, A C E,
A D E,
B C D, B C E,
B D E,
C D E
Kada kazemo da raspored elemenata unutar grupe nije vazan, to znaci da je grupa C D E
ista kao i grupa E D C itd. Vidimo da je u ovom primjeru
K
3
5
=
_
5
3
_
=
5 4 3
1 2 3
= 10.
U nastavku cemo pokazati da je opcenito
K
M
N
=
_
N
M
_
=
N !
M ! (N M) !
. (1.3)
Varijacije bez ponavljanja; V
M
N
Varijacije bez ponavljanja se dobiju tako da se permutiraju elementi unutar svake
grupe, tj. ovdje je raspored elemenata unutar grupe vazan. U gornjem primjeru to znaci
da od svake pojedine od 10 gornjih grupa, dobijemo 3 ! = 6 clanova. Npr. grupa C D E
daje
C D E C D E,
C E D,
D C E,
D E C,
E C D,
E D C.
1.2. KOMBINACIJE I VARIJACIJE 9
Oznacimo broj varijacija N elemenata M-tog razreda s V
M
N
. Prema gore izlozenom je
V
M
N
= M ! K
M
N
. (1.4)
Izracunajmo najprije V
1
N
. Jasno je da N elemenata mozemo razvrstati u grupe velicine 1
na N raznih nacina, tj. da je
V
1
N
= N.
Npr. za N = 5 elemenata je
V
1
N
= A, B, C, D, E
Koristeci V
1
N
napravimo varijacije drugog razreda od N elemenata, V
2
N
: njih cemo kons-
truirati tako sto cemo svakoj varijaciji V
1
N
dodati jedan od preostalih (N 1) elemenata
V
2
N
= (N 1) V
1
N
= (N 1) N.
Npr. za N = 5 elemenata je
V
2
N
= A, B A, C A, D A, E
B, A B, C B, D B, E
C, A C, B C, D C, E
D, A D, B D, C D, E
E, A E, B E, C E, D
Slicno cemo dobiti i
V
3
N
= (N 2) V
2
N
= (N 2) (N 1) N
i opcenito
V
M
N
= (N M + 1) V
M1
N
= (N M + 1) (N 2) (N 1) N =
N !
(N M) !
.
V
M
N
=
N !
(N M) !
. (1.5)
Pomocu gornjih izraza dokazuje se (1.3):
K
M
N
= (1.4) =
V
M
N
M !
= (1.5) =
N !
M ! (N M) !
=
_
N
M
_
.
Kombinacije s ponavljanjem: K
M
N
Kombinacije s ponavljanjem se razlikuju od kombinacija bez ponavljanja po tome sto se
sada u grupi mogu ponavljati isti elementi. Ponovo, poredak elemenata unutar grupe nije
vazan. Npr. za grupu od cetiri elementa 1, 2, 3, 4 sve kombinacije s ponavljanjem treceg
10 POGLAVLJE 1. KOMBINATORIKA
razreda su:
1, 1, 1, 1, 1, 2, 1, 1, 3, 1, 1, 4,
1, 2, 2, 1, 2, 3, 1, 2, 4,
1, 3, 3, 1, 3, 4,
1, 4, 4,
2, 2, 2, 2, 2, 3, 2, 2, 4,
2, 3, 3, 2, 3, 4,
2, 4, 4,
3, 3, 3, 3, 3, 4,
3, 4, 4,
4, 4, 4.
Broj kombinacija N elemenata M-tog razreda s ponavljanjem, oznacit cemo s K
M
N
. Kako
odrediti taj broj? Jedan zgodan nacin da se prebroji gornja konguracija jest slijedeci:
prvom elementu svake grupe pribrojimo nulu, drugom elementu jedinicu, a trecem dvojku.
Ovime ne mijenjamo broj grupa, vec samo njihov sadrzaj, sto za samo brojanje grupa
i nije vazno. Tako se dolazi do
1, 2, 3, 1, 2, 4, 1, 2, 5, 1, 2, 6,
1, 3, 4, 1, 3, 5, 1, 3, 6,
1, 4, 5, 1, 4, 6,
1, 5, 6,
2, 3, 4, 2, 3, 5, 2, 3, 6,
2, 4, 5, 2, 4, 6,
2, 5, 6,
3, 4, 5, 3, 4, 6,
3, 5, 6,
4, 5, 6.
No, ovo sto smo dobili nije nista drugi nego kombinacije bez ponavljanja sest elemenata
treceg razreda
K
3
4
= K
3
6
.
Opisani se postupak lako poopci na kombinacije s ponavljanjem N elemenata M-tog
razreda: pojedinim elementima grupe velicine M pribrojimo brojeve 0, 1, 2, , (M 1)
i tako ih preslikamo u kombinacije bez ponavljanja M-tog razreda, ali od N + M 1
elemenata. Zato zakljucujemo da je opcenito
K
M
N
= K
M
N+M1
.
1.2. KOMBINACIJE I VARIJACIJE 11
K
M
N
=
_
N + M 1
M
_
. (1.6)
Varijacije s ponavljanjem: V
M
N
Varijacije s ponavljanjem od N elemenata M-tog razreda predstavljaju sve moguce ras-
porede N elemenata u grupe od po M elemenata s time da je vazan redoslijed elemenata
unutar grupe. Npr. sve varijacije pet elemenata (1, 2, 3, 4, 5) drugog razreda su
1, 1 1, 2 1, 3 1, 4 1, 5
2, 1 2, 2 2, 3 2, 4 2, 5
3, 1 3, 2 3, 3 3, 4 3, 5
4, 1 4, 2 4, 3 4, 4 4, 5
5, 1 5, 2 5, 3 5, 4 5, 5
Oznacimo broj varijacija s ponavljanjem od N elemenata M-tog razreda sa V
M
N
. Ocito
je
V
1
N
= N.
Varijacije s ponavljanjem drugog razreda, dobijemo pomocu varijacija s ponavljanjem
prvog razreda tako da svakoj od V
1
N
varijacija pridruzimo jedan od N elemenata, tako
da je
V
2
N
= N V
1
N
= N
2
.
Slicno se i varijacije s ponavljanjem treceg razreda, dobiju pomocu varijacija s ponavlja-
njem drugog razreda tako da svakoj od V
2
N
varijacija pridruzimo jedan od N elemenata,
tako da je
V
3
N
= N V
2
N
= N
3
.
Iz ovog nije tesko shvatiti da je opcenito broj varijacije s ponavljanjem od N elemenata
M-tog razreda, jednak
V
M
N
= N
M
. (1.7)
Zadatak: 1.1 U skupu od 50 proizvoda nalazi se 40 dobrih i 10 s greskom. Na koliko se
nacina moze formirati uzorak od 5 proizvoda, tako da u njemu budu 3 dobra i
2 proizvoda s greskom?
R: Tri dobra od ukupno 40, se moze odabrati na
K
3
40
=
_
40
3
_
=
40 39 38
1 2 3
= 9880.
12 POGLAVLJE 1. KOMBINATORIKA
Isto tako, 2 s greskom od 10 s greskom mozemo odabrati na
K
2
10
=
_
10
2
_
=
10 9
1 2
= 45
nacina. Svaki od ova dva odabira se moze medusobno kombinirati, tako da je
ukupan broj odabira jednak
K
3
40
K
2
10
= 9880 45 = 444 600.
Ovaj se problem moze denirati i opcenitije: od N proizvoda, njih M su
ispravni, a ostalih N M imaju gresku. Pitanje je nakoliko se nacina moze
formirati uzorak od N proizvoda, tako da u njemu bude x proizvoda bez
greske i N x sa greskom? Razmisljamo kao i na pocetku: od M ispravnih
proizvoda, njih x mozemo odabrati na K
x
M
nacina; od N M proizvoda
s greskom, njih N x mozemo odabrati na K
Nx
NM
nacina. Trazeni uzorak
nastaje kombiniranjem bilo kojih parova ispravnih i proizvoda s greskom, tj.
postoji
K
x
M
K
Nx
NM
=
_
M
x
_

_
N M
N x
_
=
M!
x ! (Mx) !

(N M) !
(N x) ! (N MN + x) !
razlicitih mogucnosti.
1.3 Binomni poucak
Zadani su proizvoljni brojevi A i B i prirodan broj N. Zadatak je naci razvoj N-te
potencije binoma
(A + B)
N
u red potencija po A i B. Ovaj se zadatak moze rijesiti na vise nacina, a jedan je nacin i
primjenom kombinatorike: gornja je potencija jednaka umnosku N binoma
(A + B) (A + B) (A + B) . . . (A + B).
Pomnozimo gornje zagrade i zapitajmo se koliko ce se puta pojaviti potencija A
N
? Da
bi se dobila N-ta potencija elementa A, potrebno je iz svakog od N binoma izdvojiti A i
pomnoziti ih. Ocito postoji samo jedan nacin da se iz svakog binoma izdvoji A i zato ce
se u razvoju gornjeg umnoska, A
N
pojaviti u obliku
1 A
N
.
S kojim mnoziteljem ce se pojaviti A
N1
? Ako iz N 1 zagrada (binoma) uzmemo A a
iz one preostale uzmemo B, dobit cemo A
N1
B. Ta jedna zagrada iz koje uzimamo B
se moze odabrati medu N zagrada na N razlicitih nacina (ona moze biti prva, druga, ...,
N-ta) i zato clan s A
N1
glasi
N A
N1
B.
1.3. BINOMNI POU

CAK 13
Sada trazimo clan s A
N2
. Iz N 2 zagrada uzimamo A, a iz preostale dvije zagrade
uzimamo B. No, od N zagrada, dvije se mogu odabrati na K
2
N
=
_
N
2
_
nacina (kombinacije
bez ponavljanja: svejedno je jesmo li B uzeli iz 6. i 43. zagrade ili iz 43. i 6. zagrade),
pa je zato clan s potencijom A
N2
jednak
_
N
2
_
A
N2
B
2
.
Iz ovoga je vec jasno kako treba nastaviti: clan s potencijom A
Nn
je
_
N
n
_
A
Nn
B
n
.
S gornjim opcenitim izrazom smo u mogucnosti napisati i potpuni razvoj N-te potencije
binoma
(A + B)
N
=
_
N
0
_
A
N
+
_
N
1
_
A
N1
B +
_
N
2
_
A
N2
B
2
+ +
_
N
n
_
A
Nn
B
n
+
+ +
_
N
N 1
_
AB
N1
+
_
N
N
_
B
N
=
N

n=0
_
N
n
_
A
Nn
B
n
. (1.8)
Jednostavni posebni slucajevi:
- ako se postavi da je A = B = 1, gornji izraz daje
2
N
=
N

n=0
_
N
n
_
;
- ako se odabere da je A = B = 1, (1.8) vodi na
0 =
N

n=0
(1)
n
_
N
n
_
.
Gornje se razmatranje moze poopciti na raspis N potencije visih polinoma
(A + B + C)
N
, (A + B + C + D)
N
,
Primjenom rezultata za razvoj binoma, dolazi se do
(A + B + C)
N
= [(A + B) + C]
N
=
N

n=0
_
N
n
_
(A + B)
Nn
C
n
=
N

n=0
Nn

m=0
_
N
n
__
N n
m
_
A
Nnm
B
m
C
n
=
N

n=0
Nn

m=0
N !
n! m! (N n m) !
A
Nnm
B
m
C
n
,
14 POGLAVLJE 1. KOMBINATORIKA
Primjenom rezultata za razvoj binoma i trinoma, dolazi se do
(A + B + C + D)
N
= [(A + B + C) + D]
N
=
N

n=0
_
N
n
_
(A + B + C)
Nn
D
n
=
N

n=0
Nn

m=0
Nnm

l=0
_
N
n
__
N n
m
__
N n m
l
_
A
Nnml
B
l
C
m
D
n
=
N

n=0
Nn

m=0
Nnm

l=0
N !
n! m! l ! (N n ml) !
A
Nnml
B
l
C
m
D
n
.
Sada je vec posve ocito kako se gornji postupak moze i dalje poopcavati.
Poglavlje 2
Osnovni pojmovi vjerojatnosti
2.1 Denicija osnovnih pojmova
Teorija vjerojatnosti svoj pocetak duguje zanimanju prema igrama na srecu dvojice
Francuza vicnih racunu, a to su bili: Blaise Pascal i Pierre Fermat
1
. Zamoljeni od
Slika 2.1: Blaise Pascal (lijevo) i Pierre Fermat (desno).
svojih prijatelja da im pomognu u igrama na srecu, oni su razvili jedan matematicki
aparat koji se danas naziva teorija vjerojatnosti i statisticka analiza. Ovakav pristup
rjesavanju matematickih problema se pokazao kao jako prikladan (a negdje i jedini moguc)
u mnogim znanstvenim disciplinama (kao sto su npr. kineticka teorija plinova, statisticka
mehanika, kvantna mehanika, itd.) i u gospodarstvu (u novije vrijeme sve vise u podrucju
nancijskog poslovanja).
Prije nego sto pocnemo govoriti o vjerojatnosti, pokusat cemo preciznije denirati neke
pojmove koje cemo cesto koristiti.
1
Blaise Pascal, 1623 - 1662, i Pierre de Fermat , 1601 - 1665, francuski zicari i matematicari.
15
16 POGLAVLJE 2. VJEROJATNOST
Deterministicki i slucajni pokusi
Kada proucavamo vjerojatnost, svaki proces promatranja nekog dogadaja se naziva po-
kusom, a rezultat promatranja se naziva ishodom pokusa. Pokus se naziva slucajnim
pokusom, ako se njegov ishod ne mo

ze predvidjeti. Ako se ishod pokusa moze pre-


dvidjeti, tada se pokus naziva deterministickim (npr. zagrijavanjem metalne cijevi, uvijek
ce se dobiti isti rezultat: duljina cijevi ce se povecati). Tipicni primjeri slucajnih pokusa
su: bacanje kovanice ili kocke, izvlacenje karte iz snopa i sl. Objasnimo pojam slucajnog
pokusa na najjednostavnijem mogucem primjeru, a to je bacanje kovanice u zrak i proma-
tranju koja ce strana biti okrenuta prema gore. Strogo gledano to nije slucajan pokus.
Zasto? Ako ja znam pod kojim je kutom i kojom pocetnom brzinom kovanica bacena u
zrak, ako znam na koji nacin na kovanicu djeluju sile otpora zraka i gravitacija, ako znam
svojstva podloge na koju ce kovanica pasti, onda ja mogu sve to uvrstiti u Newtnove jed-
nadzbe gibanja i izracunati u kojem ce se polozaju naci kovanica u trenutku pada na tlo.
U tom smislu ovaj pokus
2
nije slucajan. No, jasno je da svi oni ako, koji se gore spominju,
prakticki nikada nisu zadovoljeni i zato nitko i ne pokusava provesti ovakav racun. Mi
naprosto kazemo, da zato jer je kovanica manje-vise simetricna, posve je slu

cajno hoce
li se okrenuti jedna ili druga strana. Primjetimo ono bitno, a to da mi sada govorimo o
slucajnosti samo zato jer nemamo dovoljno informacija: kada bismo znali sve one
gornje ako i uz dovoljno jako racunalo (nasa vjestina racunanja se podrazumjeva), ishod
pokusa vise ne bi bio slucajan nego izvjestan. Ukratko, slucajnim pokusom cemo nazivati
pokus ciji se ishod prakticki ne moze predvidjeti.
Potpun skup
Skup svih mogucih ishoda slucajnog pokusa se naziva potpun ili osnovni skup. Oznacavat
cemo ga s . Pokus ne moze zavrsiti ishodom koji nije element potpunog skupa.
Elementaran dogadaj
Svakom ishodu slucajnog pokusa odgovara jedan element u . Svaki od tih ishoda
nazivamo elementarnim dogadajem. Elementarne cemo dogadaje oznacavati s .
Primjer: 2.1 Napisite potpuni skup za pokus koji se sastoji u:
(a) bacanju kovanice jednom,
(b) bacanju kovanice dva puta i
(c) bacamo kovanicu i brojimo koliko je bacanja potrebno da bi se pojavilo pi-
smo.
R: (a) Postoje samo dva moguca ishoda: glava (G) i pismo (P)
= {G, P}.
(b) Sada postoje cetiri moguca ishoda, pa je
= {GG, GP, PG, PP}.
2
Kvantnomehanicka nemogucnost preciznog odredenja polozaja i brzine svakog djelica bacene kovanice, ovom primjeru
nije bitna (ne inzistiramo na tolikoj preciznosti).
2.1. DEFINICIJA OSNOVNIH POJMOVA 17
(c) Pismo se moze pojaviti nakon prvog, drugog, itd. bacanja, pa je zato
= {1, 2, 3, }.
Primjer: 2.2 Napisite osnovni skup za slucajni pokus koji se sastoji od mjerenja (u sa-
tima) vremena zivota jednog tranzistora.
R: Vrijeme zivota tranzistora moze biti bilo koji realni pozitivni broj, pa
je zato
= {t : 0 t },
gdje je t vrijeme zivota.
Osnovni skup se naziva diskretnim ako se sastoji od konacnog (kao (a) i (b) iz prvog
primjera) ili prebrojivo beskonacnog broja elemenata (kao u (c) prvog primjera). Ako
se izmedu elemenata osnovnog skupa i prirodnih brojeva moze uspostaviti jedan-jedan
preslikavanja, skup se naziva prebrojivim (cijeli prvi primjer). Osnovni skup se naziva
kontinuiranim, ako njegovi elementi cine kontinuum (kao u drugom primjeru).
Slozen dogadaj
Slozenim dogadajem, A (ili, krace, dogadajem), oznacavamo podskup osnovnog skupa.
Primjer: 2.3 Pokus se sastoji u bacanju dvije kocke.
(a) Napisite osnovni skup.
(b) Denirajte (slozeni) dogadaj A koji se sastoji u tome da je zbroj tockica
na kockama jednak 7.
(c) Denirajte (slozeni) dogadaj B koji se sastoji u tome da je zbroj tockica
na kockama veci od 10.
(d) Denirajte (slozeni) dogadaj C koji se sastoji u tome da je zbroj tockica
na kockama veci od 12.
R: (a) Potpuni skup se moze napisati kao skup uredenih parova brojeva
(i, j), gdje svaki od brojeva i i j poprima sve vrijednosti prirodnih brojeva od
1 do 6 (ukljucivo). Broj i pokazuje broj tockica na prvoj, a j na drugoj kocki.
To se, krace, pise kao
= {(i, j) : i, j = 1, 2, 3, 4, 5, 6}.
(b) Dogadaj A je podskup od , koji se sastoji od slijedecih sest elemenata
A = {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)}.
(c) Dogadaj B je podskup od , koji se sastoji od tri elemenata
B = {(5, 6), (6, 6), (6, 5)}.
18 POGLAVLJE 2. VJEROJATNOST
(d) Zbroj tockica na dvije kocke ne moze biti veci od 12, i zato je nemoguc
dogadaj, predstavljen praznim skupom
C = .
Vjerojatnost
Promatrajmo neki odredeni proces koji ima N jednako mogu

cih ishoda, tj. N ele-


mentarnih dogadaja. Na tom procesu uocavamo jedan (slozeni) dogadaj, koji oznacimo s
A, i koji se ostvari kroz N
A
elementarnih dogadaja. Vjerojatnost, P(A), da se dogadaj A
ostvari, definira se kao
P(A) =
N
A
N
.
(2.1)
To je ono sto cemo kasnije nazivati vjerojatnost a priori. Dakle, vjerojatnost je omjer
broja elementarnih dogadja kojima se ostvaruje dogadaj A i ukupnog broja svih elemen-
tarnih dogadaja (ili, kako se to obicno kaze: povoljno kroz moguce)
3
. Posebno, ako je A
elementaran dogadaj, tada je N
A
= 1 i P(A) = 1/N. Buduci da je uvijek
0 N
A
N,
to ce uvijek biti
0 P(A) 1.
Ako promatramo vise dogadaja, onda je vjerojatniji onaj dogadaj koji se ostvaruje kroz
veci broj elementarnih dogadaja. Ako niti jedan od elementarnih dogadja ne vodi na
ostvarenje dogadaja A, tada je
N
A
= 0 P(A) = 0.
Vjerojatnost 0 se pridruzuje dogadaju koji se ne moze ostvariti. Naprotiv, ako svaki od
elementarnih dogadaja vodi na ostvarenje dogadaja A, tada je
N
A
= N P(A) = 1.
Vjerojatnost 1 se pridruzuje dogadaju koji se mora dogoditi
4
. Iz gornjeg izlaganja vidimo
da vjerojatnost u odredenom smislu mjeri slucaj, tj. slucajni dogadaj. Pomocu gornje
denicije mozemo odgovoriti na pitanja tipa: ako se u nekoj kutiji nalazi 100 kuglica, koje
su posve iste osim sto se razlikuju u boji: 50 ih je bijelih, 40 crvenih i 10 plavih; pitanje
je kolika je vjerojatnost da se nasumicnim izvlacenjem izvuce kuglica odredene boje? U
skladu s gornjom denicijom, odgovor je
P
b
=
50
100
=
1
2
, P
c
=
40
100
=
2
5
, P
p
=
10
100
=
1
10
.
3
Ova denicija potjece od Laplacea, Th eorie analytique des probabilit es, 1812.
4
Ako je dogadaj nemoguc, njegova je vjerojatnost jednaka nuli. No, obrat ne vrijedi: ako je vjerojatnost jednaka nuli,
to jos ne znaci da je dogadaj neostvariv. Slicno, ako je sigurno da ce se dogadaj ostvariti, njegova je vjerojatnost jednaka
jedinici. Ali, ako je vjerojatnost jednak jedan, to jos uvijek ne znaci da ce se dogadaj sigurno ostvariti. U vezi s ovime,
treba pogledati primjere navedene kod kontinuiranih vjerojatnosti.
2.1. DEFINICIJA OSNOVNIH POJMOVA 19
Primjetimo da je zbroj sve tri vjerojatnosti jednak jedinici (sigurno ce se izvuci kuglica
neke boje)
P
b
+ P
c
+ P
p
= 1.
Opcenito se moze reci da je zbroj vjerojatnosti koje opisuju siguran dogadaj (kao sto je
u gornjem primjeru sigurno da ce se izvuci kuglica neke boje) jednak jedinici
P

+ P

+ + P

= 1. (2.2)
Ta se cinjenica naziva i normiranje vjerojatnosti.
Ovakva denicija vjerojatnosti ima jednu manjkavost: ona vrijedi samo onda ako su
svi dogadaji jednako moguci, pa je zato dovoljno voditi racuna samo o tome koliko ih ima
(tj. prebrojati ih). No, sto se krije iza rijeci jednako mogu

ci? Ne znaci li to upravo:


jednako vjerojatni? Vjerojatnost deniramo pomocu vjerojatnosti. Vrtimo se u krugu i
nismo denirali vjerojatnost.
Npr. gornja denicija nam ne omogucava da proracunamo vjerojatnost da se kod bacanja
nesimetricne kocke, okrene broj 5. Ona nam ne omogucava niti da kazemo kolika je vjero-
jatnost da ce neki covjek iz promatrane skupine oboljeti od odredene bolesti ili sto slicno.
U ovim se slucajevima koristi a posteriori denicija vjerojatnosti ili statisti

cka de-
nicija vjerojatnosti. Sustina ove denicije je u slijedecem: izvodi se neki pokus, mjerenje
ili nesto slicno sto cemo opcenito nazivati procesom, kojim se utvrduje je li se dogadaj A
ostvario ili nije. Ako je, pod istim uvjetima, izvedeno N pokusa, pri cemu se dogadaj A
ostvario N
A
puta, deniramo relativnu frekvenciju (A) dogadaja A kao omjer
(A) =
N
A
N
. (2.3)
Ova relativna frekvencija jos uvijek nije isto sto i vjerojatnost a posteriori. Tek u
granici kada broj promatranih procesa (pokusa), N, postane vrlo velik (tj. kada tezi
prema beskonacnosti), ova frekvencija postaje a posteriorna vjerojatnost
P(A) = lim
N
N
A
N
. (2.4)
Precizniju deniciju vjerojatnosti a posteriori je dao Mises 1919:
(1) O vjerojatnosti se moze govoriti samo ako postoji tocno ograniceni skup dogadaja (to
moze biti i proces koji se ponavlja u vremenu).
(2) Spomenuti skup dogadaja (tj. ponavljani proces), mora zadovoljavati dva uvjeta:
(a) relativne frekvencije pojedinih obiljezja moraju imati tocno odredene granicne vrijed-
nosti u granici kada broj elemenata skupa neizmjerno raste;
(b) te granicne vrijednosti se ne smiju promijeniti, ako se ukloni jedan dio elemenata iz
skupa.
(3) Ovaj uvjet iz (b) se naziva nacelo nereda ili nacelom iskljucenog sistema igre.
(4) Granicna vrijednost iz (a) naziva se vjerojatnost obiljezja unutar promatranog skupa.
Povezimo ovo s gornjim primjerom izvlacenja crvene kuglice iz kutije. Apriorna vjero-
jatnost je 2/5 = 0.4. Ako radimo pokuse izvlacenja kuglice, dobit ce se npr. ovakvi
20 POGLAVLJE 2. VJEROJATNOST
rezultati: nakon 1 000 izvlacenja, crvena se kuglica pojavila 385 puta, pa je relativna
frevencija 385/1 000 = 0.385; nakon 10 000 izvlacenja, crvena se kuglica pojavila 3 922
puta, pa je sada relativna frevencija 3 922/1 000 = 0.3922, itd. Vidimo da sto je veci
broj izvlacenja N, to relativna frekvencija tezi jednoj granicnoj vrijednosti koju zovemo
vjerojatnost a posteriori ili statisticka vjerojatnost, a koja je po svojoj vrijednosti, jako
bliska apriornoj vjerojatnosti istog procesa. Zasto (samo) bliska, a ne i jednaka? Zato
jer se apriorna vjerojatnost odnosi na idealne kuglice koje se nalaze u idealnoj kutiji
i sva izvlacenja dogadaju pod idealno jednakim uvjetima. U stvarnosti, nista nije ide-
alno (razlike uvijek postoje i one se nastoje uciniti sto manjima u pokusima - to je velika
vjestina eksperimentalnih zicara) i zato ne smijemo ocekivati a priornu vjerojatnost kao
rezultat granicnog procesa.
Primjer: 2.4 Evo jednog lijepog primjera koji dugujemo strpljenju jednog z uriskog astro-
noma po imenu R. Wolf. On je, 1850. godine bacao dvije kocke i brojao je
koliko ce se puta okrenuti razliciti brojevi. Evo njegovih rezultata.
R: Kada bacate dvije kocke, moguce je 36 ishoda prikaznih tablicom 2.1.
Sest kombinacija rezultira s istim brojem na obje kocke, a 30 kombinacija
Tablica 2.1: Moguci ishodi bacanja dvije kocke.
1 1 1 2 1 3 1 4 1 5 1 6
2 1 2 2 2 3 2 4 2 5 2 6
3 1 3 2 3 3 3 4 3 5 3 6
4 1 4 2 4 3 4 4 4 5 4 6
5 1 5 2 5 3 5 4 5 5 5 6
6 1 6 2 6 3 6 4 6 5 6 6
rezultira razlicitim brojevima. Prema tome je apriorna vjerojatnost da se u
danom bacanju pojave dva razicita broja, jednaka
P =
30
36
= 0.8

3.
Evo Wolfovih eksperimentalnih rezultata, tablica 2.2, za relativnu frekvenciju
, prikazanih u ovisnosti o broju bacanja N. Vidi se da ovi rezultati lijepo
potvrduju apriornu vjerojatnost 0.8

3, iako se od nje jasno razlikuju. Od


kuda potjece ta razlika? Od neidelanosti kocaka koje je Wolf koristio. S nekim
drugim parom kocaka bi se dobili i drukciji rezultati, koji bi opet bili bliski,
ali ne i jednaki apriornoj vjerojatnosti. Gornja vjerojatnost (tj. relativna
frekvencija) se odnosi bas na onaj par kocaka koji je koristio Wolf, dok se
apriorna vjerojatnost odnosi na idealne kocke.
2.2. RA

CUNSKE OPERACIJE S VJEROJATNOSTIMA 21


Tablica 2.2: Wolfovi eksperimentalni ishodi za relativnu frekvenciju ovisno o broju N bacanja dvije
kocke.
N
100 0.88
1 000 0.836
10 000 0.8351
100 000 0.83533
Zakon velikih brojeva:
kada broj pokusa raste, apsolutna vrijednost razlike izmedu relativne frekvencije i apriorne
vjerojatnosti, opada. Ili, malo drukcije receno, ono

sto na jednom pojedinom pri-
mjeru izgleda kao slu

cajnost, pokazuje se kao zakonitost kada se gleda


veliki broj dogadaja. Smisao ove tvrdnje je manje-vise intuitivno posve prihvatljiv.
Evo dva primjera:
(1)

Covjek srednjih godina dozivi prometnu nezgodu; za ljude iz njegove okoline to je
posve izniman dogadaj, no ako se promatra cijeli narastaj kome je taj covjek pripadao i
ako se zna da u toj dobnoj skupini npr. 1% ljudi godisnje dozivi prometnu nezgodu, onda
prometna nezgoda toga covjeka prestaje biti iznenadujuci i izniman dogadaj i postaje
samo jos jedan primjer koji se lijepo uklapa u predvidanja temeljena na vjerojatnosti. Ne
zna se tocno koji ce covjek dozivjeti nezgodu, ali se zna da ce se to dogoditi otprilike 1%
te dobne skupine.
(2) Jedan manje morbidan primjer se odnosi na rulet: U ozujku 1953. na ruletu u Monte
Carlu je odigrano 4 894 igara, pri cemu je kuglica pala na crno polje 2 396 puta, na crveno
2 360 puta i na bijelo 138 puta. Ako uzmemo u obzir da su apriorne vjerojatnosti za crveno
i crno polje jednake medusobno i jednake 18/37, a za bijelo 1/37, vidimo da su odstupaja
relativnih frekvencija od apriornih vjerojatnosti manja od 1%. Slicno kao i u prethodnom
primjeru, mi nismo u stanju reci hoce li se u danom bacanju kuglica zaustaviti na crnom,
crvenom ili bijelom polju, ali smo u mogucnosti reci da ce se u nekoliko tisuca bacanja
kuglica zaustaviti otprilike toliko i toliko puta na pojedinom polju.
To je smisao zakona velikih brojeva: tvrdnje koje iznosimo odnose se na neki
veliki skup dogadaja, a ne na pojedini dogadaj.
2.2 Racunske operacije s vjerojatnostima

Cesto se slucajni dogadaji mogu zamisliti kao kombinacija (kompozicija) vise elementarnih
ili nekih drugih (manje) slozenih dogadaja. U ovom cemo odjeljku pokazati kako se
vjerojatnost takvih slozenih dogadaja, moze povezati s vjerojatnostima jednostavnijih
dogadaja
22 POGLAVLJE 2. VJEROJATNOST
2.2.1 Zbrajanje vjerojatnosti
Denirajmo najprije pojam isklju

civosti dogadaja. Za dva dogadaja A i B kazemo da


su iskljucivi, ako ne postoji elementarni dogadaj koji ostvaruje oba ova dogadaja. Vizualno
si to mozemo predociti na slijedeci nacin: neka su svi elementarni dogadaji
i
diskretni
5
i predstavljeni tockama u ravnini (slika 2.2), tada mozemo konstruirati podskupove (A)
i (B) elementarnih dogadaja koji sadrze elementarne dogadaje koji vode na ostvarenje
(redom) ili dogadaja A ili dogadaja B. Vidimo da je podskup elementarnih dogadaja
Slika 2.2: Uz deniciju zbrajanja vjerojatnosti. A i B su iskljucivi dogadaji.
koji vode na ostvarenje ili A ili B, dan unijom podskupova i . Neka od N elementarnih
dogadaja, njih N
A
vode na ostvarenje dogadaja A, a njih N
B
na ostvarenje dogadaja B.
Po deniciji vjerojatnosti kao omjera povoljnih i svih mogucih dogadaja zakljucujemo:
povoljni su svi oni dogadaji koji rezultiraju ostvarenjem A ili B, a takvih je N
A
+ N
B
;
svih mogucih dogadaja ima N. Prema tome je
P(A + B) =
N
A
+ N
B
N
=
N
A
N
+
N
B
N
= P(A) + P(B).
Gornje razmatranje mozemo poopciti na proizvoljan broj od k dogadaja A
1
, A
2
, , A
k
,
koji se medusobno potpuno iskljucuju. Oznakom
A
1
+ A
2
+ + A
k
cemo oznaciti dogadaj koji se sastoji u ostvarenju jednog (bilo kojeg) od dogadaja A
i
: ili
A
1
ili A
2
, ili itd. Primjetimo da znak + kada stoji medu dogadajima, ne znaci isto sto i
znak + kada stoji medu brojevima. Takoder rijec ili ovdje ima svoje iskljucivo znacenje:
ili jedno ili drugo, ali ne i oba zajedno. Neka N
i
elementarnih dogadaja ostvaruje
dogadaj A
i
, tada je
P(A
1
+ A
2
+ + A
M
) =
N
1
+ N
2
+ + N
k
N
=
N
1
N
+
N
2
N
+ +
N
k
N
= P(A
1
) + P(A
2
) + + P(A
k
).
5
Slicno se moze govoriti i o kontinuiranim dogadajima.
2.2. RA

CUNSKE OPERACIJE S VJEROJATNOSTIMA 23


Vjerojatnost ostvarenja dogadaja A
1
+ A
2
+ + A
k
jednaka
P(A
1
+ A
2
+ + A
k
) = P(A
1
) + P(A
2
) + + P(A
k
). (2.5)
Gornja se relacija moze napisati i krace kao
P
_
k

i=1
A
i
_
=
k

i=1
P(A
i
).
Algebarskim jezikom receno, zbrajanje vjerojatnosti je linearni operator
6
.
Vjerojatnost neostvarenja dogadaja
Neka je zadan dogadaj A. U promatranom procesu, taj se dogadaj moze ili ostvariti
ili ne ostvariti, trece mogucnosti nema. Neostvarenje dogadaja A je opet jedan dogadaj
koji cemo oznaciti s A. Sa sigurnoscu mozemo reci da ce se dogadaj A ili ostvariti ili ne
ostvariti. Siguran dogadaj ima vjerojatnost jednaku jedan, pa zato pisemo
P(A) + P(A) = 1.
Do istog rezultata dolazimo i pomocu gornjeg pravila o zbrajanju vjerojatnosti iskljucivih
dogadaja: ako je N
A
broj elementarnih dogadaja koji ostvaruje A, tada je N N
A
broj
elementarnih dogadaja koji ostvaruje A, pa je prema (2.5)
P(A + A) = P(A) + P(A) =
N
A
N
+
N N
A
N
= 1.
Vjerojatnost da se dogadaj A ne ostvari, oznacavamo i s
Q(A) P(A) P(A) + Q(A) = 1.
Primjer: 2.5 U prostoriji se nalazi N osoba.
(a) Kolika je vjerojatnost da bar dvije osobe imaju isti rodendan?
(b) Izracunajte tu vjerojatnost za N = 50.
(c) Koliko veliki treba biti N, pa da trazena vjerojatnost bude veca od 0.5?
R: Radi jednostavnosti, zaboravit cemo na prijestupne godine, i reci cemo
da godina ima 365 dana. Svaka osoba moze biti rodena bilo kojeg od tih
365 dana, pa se zato osnovni skup sastoji od 365
N
n-torki brojeva oblika
(n
1
, n
2
, , n
N
), gdje svaki n
j
oznacava dan rodenja j-te osobe u prostoriji
= {(n
1
, n
2
, , n
N
) : n
j
= 1, 2, 3, , 365} .
Oznacimo s A dogadaj da u prostoriji nema dvije osobe s istim rodendanom.
Koliki je broj N
A
takvih elemenata u ? Krenimo redom: rodendan prve
6
Primjetimo da znak + na lijevoj strani stoji medu dogadajima, a na desnoj medu brojevima (vjerojatnostima tih
dogadaja).
24 POGLAVLJE 2. VJEROJATNOST
osobe moze biti bilo koji od 365 dana u godini; da bi se rodendan druge
osobe razlikovao od rodendana prve osobe, on mora pasti u jedan (bilo koji)
od preostalih 364 dana. To znaci da je broj elemenata iz u kojima dvije
osobe nemaju isti rodendan jednak 365 364. Sada zelimo iskljuciti i trecu
osobu. Njezin rodendan mora pasti u jedan od preostala 363 dana, sto vodi
na 365 364 363 elemenata. Ovaj se postupak jednostavno nastavlja sve do
iskljucenja i N te osobe, a broj N-torki koje zadovoljavaju postavljeni uvjet
je
N
A
= 365 364 363 . . . (365 N + 1).
Prema deniciji vjerojatnosti (2.1) je
P(A) =
N
A
N

=
365 364 363 . . . (365 N + 1)
365
N
.
To je vjerojatnost da nema dvije osobe s istim rodendanom. Suprotan je
dogadaj A, da bar dvije osobe imaju isti rodendan, pa je
P(A) = 1 P(A) = 1
365 364 363 . . . (365 N + 1)
365
N
.
(b) Uvrstavanjem N = 50 u gornju formulu, dobivamo P(A) 0.97.
(c) Uvrstavanjem N = 23 u gornju formulu, dobivamo P(A) 0.507. To
znaci da ako se u prostoriji nalaze najmanje 23 osobe, vjerojatnost da bar
dvije imaju isti rodendan, je veca od 0.5.
2.2.2 Mnozenje vjerojatnosti
Pretpostavimo sada da postoje dva dogadaja A i B cija se ostvarenja medusobno ne is-
klju

cuju. Denirajmo dogadaj A B koji se sastoji u istovremenom ostvarenju i dogadaja


A i dogadaja B. Svaki povoljan dogadaj koji vodi na ostvarenje A mogu kombinirati sa
svakim povoljnim dogadajem koji vodi na ostvarenje B. (slika 2.3). Neka se dogadaj
A ostvaruje kroz N
A
od N
1
mogucih elementarnih dogadaja, a B kroz N
B
elementarnih
dogadaja od N
2
mogucih elementarnih dogadaja. Vjerojatnost dogadaja i A i B je opet
dana omjerom povoljnih i svih mogucih dogadaja. Koliko ima povoljnih? Svaki povoljni
dogadaj od A mozemo potpuno slobodno (bez ikakvih uvjeta) kombinirati sa svakim
povoljnim dogadajem od B, tako da imamo sve skupa N
A
N
B
povoljnih elementarnih
dogadaja koji vode na ishod i A i B. Slicno i svaki moguci dogadaj od A mozemo kombi-
nirati sa svakim mogucim dogadajem od B i tako dobivamo sveukupno N
1
N
2
mogucih
dogadaja, pa je vjerojatnost
P(AB) =
N
A
N
B
N
1
N
2
=
N
A
N
1

N
B
N
2
= P(A) P(B).
Primjer: 2.6 Neka je ukupan broj svih mogucih elementarnih dogadaja jednak N; slozeni
dogadaj A se ostvaruje kroz cetiri elementarna dogadaja (
A,1
,
A,2
,
A,3
,
A,4
),
a B kroz tri elementarna dogadaja (
B,1
,
B,2
,
B,3
). Dogadaj koji nazivamo
i A i B se moze ostvariti na bilo koji od slijedecih 12 nacina:
2.2. RA

CUNSKE OPERACIJE S VJEROJATNOSTIMA 25


Slika 2.3: Uz deniciju mnozenja vjerojatnosti.

A,1
,
B,1

A,1
,
B,2

A,1
,
B,3

A,2
,
B,1

A,2
,
B,2

A,2
,
B,3

A,3
,
B,1

A,3
,
B,2

A,3
,
B,3

A,4
,
B,1

A,4
,
B,2

A,4
,
B,3
Dakle, postoji 12 povoljnih od N
2
mogucih dogadaja.
Opcenito cemo dogadaj koji se sastoji u istovremenom ostvarivanju i A
1
i A
2
i A
3
i itd.,
oznaciti s
A
1
A
2
. . . A
k
Primjetimo da sada znak kada stoji medu dogadajima, ne znaci isto sto i znak kada
stoji medu brojevima. Neka N
i
elementarnih dogadaja ostvaruje dogadaj A
i
, tada izmedu
N
k
mogucih dogadaja, postoji njih N
1
N
2
. . . N
k
razlicitih dogadaja koji ostvaruju
A
1
A
2
. . . A
k
. Prema deniciji vjerojatnosti
P(A
1
A
2
. . . A
k
) =
N
1
N
2
. . . N
k
N
k
=
N
1
N

N
2
N
. . .
N
k
N
= P(A
1
) P(A
2
) . . . P(A
k
).
Vjerojatnost ostvarenja dogadaja A
1
A
2
. . . A
k
je
P(A
1
A
2
. . . A
k
) = P(A
1
) P(A
2
) . . . P(A
k
). (2.6)
Gornja se relacija moze napisati i krace kao
P
_
k

i=1
A
i
_
=
k

i=1
P(A
i
).
26 POGLAVLJE 2. VJEROJATNOST
Kao posebni slucaj gornjeg pravila, promatrajmo slijedeci niz od N pokusa. Pokusima
zelimo utvrditi samo to je li se u svakom pojedinom pokusu dogadaj A ostvario ili ne.
Dakle postoje samo dva moguca ishoda svakog pokusa. Elementarni dogadaji su A i
A. Vjerojatnost ostvarenja dogadaja je p, a neostvarenja q = 1 p. Prema gornjem
razmatranju, (2.6), vjerojatnost da se dogadaj ostvari svih N puta je jednaka
7
P
N
= p
N
.
Vjerojatnost da se taj dogadaj ne ostvari svih N puta je
P
0
= q
N
.
Jasno je, da zbog normiranja vjerojatnosti, (2.2), mora biti
P
0
+ P
1
+ P
2
+ + P
N
= 1.
Kolika je vjerojatnost da se A ostvari bar jednom; dakle ili jednom ili dva puta ili tri
puta ili ili N puta? To je
P
bar jednom
= P
1
+ P
2
+ + P
N
.
Ocito su tu sadrzane sve mogucnosti osim mogucnosti da se A ne ostvari nijednom (tj. da
se ostvari nula puta). Buduci da smo upravo zakljucili da je vjerojatnost N neostvarenja
A jednaka q
N
, to vjerojatnost bar jednog ostvarenja A mora biti jednaka
P
bar jednom
= 1 P
0
= 1 q
N
.
Do istog se zakljucka moze doci i drugim putem (slicnim razmisljanjem kao kod izvoda
binomnog teorema na strani 12). Prema pravilu o zbrajanju vjerojatnosti, trazena je
vjerojatnost jednaka slijedecem zbroju: vjerojatnost da se A dogodi jednom plus vjero-
jatnost da se A dogodi dva puta plus itd plus vjerojatnost da se A dogodi N puta.
U N pokusa, dogadaj se moze ostvariti jednom na N nacina (ili prvi puta ili drugi puta
ili ... N-ti puta) i zato je
P
1
=
_
N
1
_
p
1
q
N1
.
Dva ostvarenja u N pokusa se mogu dogoditi na
_
N
2
_
nacina (prvi i drugi puta, prvi i treci
puta, prvi i cetvrti puta, , drugi i treci puta, drugi i cetvrti puta, itd.), a svaki ima
istu vjerojatnost p
2
q
N2
P
2
=
_
N
2
_
p
2
q
N2
.
I opcenito, vjerojatnost P(n) da se u N pokusa A ostvari n puta je
P
n
=
_
N
n
_
p
n
q
Nn
.
Zbroj gornjih vjerojatnosti daje trazenu vjerojatnost
P = P
1
+ P
2
+ + P
N
=
_
N
1
_
p
1
q
N1
+
_
N
2
_
p
2
q
N2
+ +
_
N
n
_
p
n
q
Nn
+ +
_
N
N
_
p
N
q
0
= (p + q)
N
q
N
= 1 q
N
,
7
To je sada vjerojatnost slozenog dogadaja koji se sastoji od N ostvarenja istog elementarnog dogadaja A: P(A
1
=
A) = P(A
2
= A) = = P(A
N
= A) = p.
2.2. RA

CUNSKE OPERACIJE S VJEROJATNOSTIMA 27


pri cemu smo koristili binomni poucak (1.8). Buduci da je q pravi razlomak (manji od
jedinice), to se porastom N vjerojatnost P priblizava jedinici: sve je sigurnije da ce se u
N pokusa bar jednom dogoditi A.
Primjer: 2.7 Koliko puta treba izvrsiti pokus, pa da mozemo s vjerojatnoscu P ocekivati
da ce se dogadaj, koji ima vjerojatnost p, dogoditi bar jednom?
R: Vjerojatnost da se dogadaj ne dogodi niti jednom u n pokusa je q
n
,
gdje je q = 1 p. Prema tome je vjerojatnost da ce se dogoditi bar jednom
jednaka 1 q
n
. Prema uvjetu zadataka je
P = 1 q
n
= 1 (1 p)
n
,
(1 p)
n
= 1 P, / ln
nln(1 p) = ln(1 P),
n =
ln(1 P)
ln(1 p)
.
Npr., u igri bacanja kocke se pitamo koliko puta treba baciti kocku, pa da se
s vjerojatnoscu
1
2
moze ocekivati da se bar jednom pojavi broj dva. Prema
gornjem rezultatu, broj bacanja je
n =
ln(1 P)
ln(1 p)
=
ln(1
1
2
)
ln(1
1
6
)
= = 3.8 .
Znaci da su potrebna najmanje 4 bacanja da bi se s vjerojatnoscu
1
2
bar jednom
pojavila dvojka.
Primjer: 2.8 Koliko puta treba baciti dvije kocke, pa da s vjerojatnoscu P mozemo
ocekivati da se bar jednom pojave dvije dvojke?
R: Vjerojatnost da se na obje kocke okrene dvojka je
p =
1
6
1
6
=
1
36
.
Vjerojatnost da na obje kocke nece biti dvojka je
q = 1 p =
35
36
.
Vjerojatnost da se n puta nece okrenuti dvojka na obje kocke je q
n
. Vjerojat-
nost da se dvije dvojke okrenu bar jednom u n bacanja je
P = 1 q
n
.
Uzme li se za P =
1
2
, slijedi da je n = 24.6, tj. potrebno je najmanje 25
bacanja. O ovome su problemu kroz pisma diskutirali Pascal i Fermat godine
1654., sto se uzima za pocetak teorije vjerojatnosti.
28 POGLAVLJE 2. VJEROJATNOST
Primjer: 2.9 (

Cebisevljev problem) Kolika je vjerojatnost da se nasumice napisan razlo-


mak ne moze skratiti?
R: Dijeljenjem nekog prirodnog broja veceg od prirodnog broja n s bro-
jem n, moguce je dobiti n razlicitih ostataka: 0, 1, 2, , n 1. Broj je djeljiv
s n ako je ostatak nula, sto znaci da od navedenih n ostataka samo jedan
odgovara djeljivosti s n. Prema tome od n mogucih ostataka, samo je jedan
povoljan, pa je zato njegova vjerojatnost jednaka (povoljno kroz moguce)
p =
1
n
.
Promotrimo sada razlomak
b
c
. Vjerojatnost da je b djeljivo s n je
1
n
i vjero-
jatnost da je c djeljivo s n je
1
n
, pa je vjerojatnost da su i b i c djeljivi s n
jednaka
1
n
1
n
=
1
n
2
.
Vjerojatnost da b i c nisu istovremeno djeljivi s n je, prema gornjemu, jednaka
1
1
n
2
.
Sjetimo se naseg zadatka: naci vjerojatnost da se razlomak ne moze skratiti -
tj. da b i c nisu istovremeno djeljivi s nijednim prostim brojem; niti s 2 niti s 3
niti s 5 itd. To je primjer i vjerojatnosti i zato trazenu vjerojatnost dobijemo
uzastopnom primjenom gornjeg izraza za sve proste brojeve
P =
_
1
1
2
2
_ _
1
1
3
2
_ _
1
1
5
2
_

Iz ovog izraza je
1
P
=
1
1
1
2
2
1
1
1
3
2
1
1
1
5
2

Taylorovim razvojem
(1 x)
1
= 1 +x + x
2
+ x
3
+ ,
izraz za 1/P postaje
1
P
=
_
1 +
1
2
2
+
1
2
4
+
1
2
6
+
__
1 +
1
3
2
+
1
3
4
+
1
3
6
+
__
1 +
1
5
2
+
1
5
4
+
1
5
6
+
_

Da bismo razumjeli cemuje jednak gornji umnozak, treba se sjetiti osnovnog
teorema aritmetike: svaki prirodni broj se moze napisati kao umnozak poten-
cija prostih brojeva. Primjetimo da u gornjim izrazima mnozimo reciprocne
vrijednosti potencija kvadrata svih prostih brojeva, pa ce zato rezultat tih
mnozenja biti upravo jednak zbroju reciprocnih vrijednosti kvadrata svih pri-
rodnih brojeva
1
P
= 1 +
1
2
2
+
1
3
2
+
1
4
2
+
1
5
2
+ =

2
6
,
2.2. RA

CUNSKE OPERACIJE S VJEROJATNOSTIMA 29


tj. vjerojatnost da se slucajno odabrani razlomak ne moze kratiti je P =
6/
2
= 0.60792 . . . (veca je od
1
2
). Ovaj se rezultat moze i numericki provjeriti:
uzmimo prvih k prirodnih brojeva; od njih se moze napraviti k
2
razlomaka;
od tih k
2
razlomaka njih K(k) se ne moze skratiti; prema tome je vjerojatnost
da se razlomak ne moze kratiti jednaka (povoljno kroz moguce)
P =
K(k)
k
2
.
Npr. za k = 3 postoji devet razlomaka:
1
1
1
2
1
3
2
1
2
2
2
3
3
1
3
2
3
3
od cega se njih 7 ne moze skratiti, pa je zato P = 7/9 = 0.

7. Donja tablica
daje vrijednosti P za nekoliko k-ova
3 0.7778
4 0.6875
6 0.6389
10 0.6300
20 0.6375
40 0.6119
44 0.6234
Vidimo da se, s porastom k, vrijednost P priblizava teorijski predvidenoj vri-
jednosti.
Primjer: 2.10 U statistickoj zici se pojavljuje problem raspodjele cestica po raspolozivim
(energijskim ili kojim drugim) stanjima. Taj se problem moze formulirati i na
slijedeci nacin: zadan je skup od n cestica i N stanja, pri cemu je N > n.
Treba naci vjerojatnost da se pri slucajnom rasporedu cestica
(a) u n odredenih stanja nade po jedna cestica;
(b) u n proizvoljnih stanja nade po jedna cestica.
Ovaj zadatak treba rijesiti u okviru (1) Boltzmannove, (2) Bose-Einsteinove i
(3) Fermi-Diracove statistike.
Boltzmannova statistika tretira cestice kao klasicne objekte koji se mogu medusobno
razlikovati, tako da premjestanje dvaju cestica koje se nalaze u razlicitim sta-
njima daje novi razmjestaj; takoder se u jednom stanju moze nalaziti proizvo-
ljan broj cestica. To su svojstva koja imaju cestice klasicnog idealnog plina.
U Bose-Einsteinovoj statistici, nemoguce je razlikovati pojedine cestice, tako
da premjestanje dvaju cestica koje se nalaze u razlicitim stanjima ne daje novi
30 POGLAVLJE 2. VJEROJATNOST
razmjestaj; takoder se u jednom stanju moze nalaziti proizvoljan broj cestica
(npr. to su svojstva fotona - kvanata elektromagnetskog polja).
I u Fermi-Diracovoj statistici takoder nema razlike medu pojedinim cesticama,
ali se u svakom stanju moze nalaziti najvise jedna cestica (to je statistika koja
vrijedi za cestice polucjelobrojnog spina kao sto je npr. elektron).
Boltzmanova statistika se odnosi na klasicno ponasanje cestica, dok preostale
dvije racunaju s kvantnim ucincima i u odgovarajucoj granici prijelaze u Bol-
tzmannovu.
R: (1) Pogledajmo najprije slucaj Boltzmannove (klasicne) statistike. ...
dovrsiti
2.2.3 Uvjetna (relativna) vjerojatnost
Postoje slucajevi kada se jednom dogadaju, cija se vjerojatnost racuna, postavljaju odredeni
uvjeti, tj. ostvarenje jednog dogadaja ovisi o ostvarenjima nekih drugih dogadaja.
Vjerojatnost takvog dogadaja cemo zvati uvjetna ili relativna vjerojatnost. U tom smislu
su vjerojatnosti koje smo do sada promatrali bile apsolutne, jer nisu ovisile o drugim
dogadajima. Ilustrirajmo to jednim primjerom:
Imamo kutiju u kojoj se nalaze bijele i crne kuglice. Osim boje, svaka kuglica je oznacena
i brojevima 1 ili 2 (dakle svaka je kuglica karakterizirana s dva obiljezja: bojom i bro-
jem). Broj bijelih kuglica cemo oznaciti s N
b
, a broj bijelih kuglica s brojem j = 1, 2
cemo oznaciti s N
b,j
i slicno za crne kuglice: N
b,1
, N
b,2
, N
c,1
, N
c,2
N
b
= N
b,1
+ N
b,2
, N
1
= N
b,1
+ N
c,1
,
N
c
= N
c,1
+ N
c,2
, N
2
= N
b,2
+ N
c,2
, .
N = N
b
+ N
c
, N = N
1
+ N
2
.
Prvi tip pitanja koje si postavljamo jeste:
kolika je vjerojatnost da iz kutije izvu

cemo kuglicu s brojem jedan


(neovisno o njezinoj boji)?
Kuglica s brojem jedan ima N
b,1
+ N
c,1
, a ukupan broj kuglica u kutiji je N = N
b,1
+
N
b,2
+ N
c,1
+ N
c,2
, pa je zato trazena vjerojatnost, prema (2.1), jednaka
P(1) =
N
b,1
+ N
c,1
N
b,1
+ N
b,2
+ N
c,1
+ N
c,2
=
N
b,1
+ N
c,1
N
.
Slicnim zakljucivanjem racunamo i vjerojatnost da se izvuce bijela kuglica
P(b) =
N
b,1
+ N
b,2
N
b,1
+ N
b,2
+ N
c,1
+ N
c,2
=
N
b,1
+ N
b,2
N
,
ili da se izvuce bijela kuglica s brojem jedan
P(b1) =
N
b,1
N
b,1
+ N
b,2
+ N
c,1
+ N
c,2
=
N
b,1
N
,
2.2. RA

CUNSKE OPERACIJE S VJEROJATNOSTIMA 31


ili bijela kuglica s brojem dva
P(b2) =
N
b,2
N
b,1
+ N
b,2
+ N
c,1
+ N
c,2
=
N
b,2
N
.
To su primjeri apsolutnih vjerojatnosti, jer na proces (izvlacenje) nisu postavljni nikakvi
uvjeti.
Drugi tip pitanja koja postavljamo jeste:
kolika je vjerojatnost da izvu

cemo kuglicu s brojem jedan, ako je izvu

cena
bijela kuglica?
Ovo je vec primjer uvjetne ili relativne vjerojatnosti. Polazimo od toga da vec jeste
izvucena bijela kuglica i pitamo se je li ona oznacena s jedinicom. Bijelih kuglica ima
N
b,1
+ N
b,2
, pa je zato ova uvjetna vjerojatnost jednaka
P(1/b) =
N
b,1
N
b,1
+ N
b,2
.
Slicno pitanje je ovo: izvucena je kuglica oznacena jedinicom; kolika je vjerojatnost da
je ona bijele boje? I ovo je primjer uvjetne vjerojatnosti: uvjet je da je izvucena kuglica
oznacena jedinicom (bez obzira na boju i sve ostale karakteristike, ako ih ima). Takvih
kuglica ima N
b,1
+ N
c,1
, a bijelih kuglica oznacenih jedinicom ima N
b,1
. Prema tome je
trazena vjerojatnost jednaka
P(b/1) =
N
b,1
N
b,1
+ N
c,1
.
Povezimo sada apsolutne i uvjetne (relativne) vjerojatnosti. Lako je vidjeti da je
P(1/b) =
P(b1)
P(b)
, P(b/1) =
P(b1)
P(1)
.
Na ovom primjeru vidimo kako se relativna (uvjetna) vjerojatnost mo

ze ra

cunati
iz apsolutnih vjerojatnosti: vjerojatnost da se izvuce kuglica s brojem jedan, ako
je izvucena bijela kuglica, jednaka je omjeru apsolutne vjerojatnosti da se izvuce bijela
kuglica s brojem jedan i apsolutne vjerojatnosti da se uopce izvuce bijela kuglica.
Opcenitije se moze reci ovako: ako u procesu izvlacenja kuglice pratimo dva dogadaja
(ili, kako se to jos ponekad kaze, dva obiljezja): A (pojavu boje) i B (broj), tada je
vjerojatnost da se dogodi B, ako se vec dogodio A, jednaka
P(B/A) =
P(AB)
P(A)
. (2.7)
32 POGLAVLJE 2. VJEROJATNOST
To je lako razumjeti pomocu pravila o mnozenju vjerojatnosti (2.6): ako je P(A) vjero-
jatnost dogadaja A, a P(B/A) vjerojatnost da se dogodio B ako se vec dogodio A, tada
je vjerojatnost da su se ostvarila oba dogadaja (i vjerojatnost) naprosto jednaka
P(AB) = P(B/A) P(A). (2.8)
Slicno, ako je P(B) vjerojatnost da se dogodi B, a P(A/B) vjerojatnost da se dogodi A
ako se vec dogodio B, tada je vjerojatnost da se ostvare oba dogadaja jednaka
P(AB) = P(A/B) P(B). (2.9)
Primjer: 2.11 Promatra se skup od 20 000 osoba. Muskaraca je 10 000 i zena je 10 000. U
skupu je slijepo na boje 500 muskaraca i 25 zena. Promataju se dva dogadaja:
dogadaj A je biti slijep na boje, a dogadaj B je biti muskarac. Apsolutna
vjerojatnost dogadaja A je omjer osoba slijepih na boje i ukupnog broja osoba
P(A) =
500 + 25
20 000
=
525
20 000
.
Apsolutna vjerojatnost da je osoba muskarac slijep na boje je jednaka omjeru
muskaraca slijepih na boje i ukupnog broja osoba
P(AB) =
500
20 000
.
Relativna vjerojatnost da je netko muskarac, ako je slijep na boje je
P(B/A) =
500
525
.
Iz ovog primjera vidimo da vrijedi (2.8)
P(AB) = P(B/A) P(A) =
500
525

525
20 000
=
500
20 000
.
2.2.4 Adicijski i multiplikacijski teorem
Izvodi se N pokusa i promatra se (ne)ostvarenje dva dogadaja, A i B, unutar tih pokusa.
Dogadaju A i B nisu
8
medusobno iskljucivi. Postoje cetiri moguca ishoda svakog od N
pokusa:
(A, B): u N
1
pokusa se A dogodio, a B nije ,
(A, B): u N
2
pokusa se A nije dogodio, a B jeste,
(A, B): u N
3
pokusa su se dogodili i A i B,
(A, B): u N
4
pokusa se nisu
9
dogodili ni A ni B.
Naravno da pri tome vrijedi
N
1
+ N
2
+ N
3
+ N
4
= N.
8
To su npr. boja i broj na kuglicama it prethodonog odjeljka.
9
U vezi s primjerom iz prethodnog odjeljka, sada postoje i kuglice drugih boja i drugih brojeva, pa je dogadaj (A, B)
moguc.
2.2. RA

CUNSKE OPERACIJE S VJEROJATNOSTIMA 33


Relativne frekvencije da se dogode A i B su, redom,
(A) =
N
1
+ N
3
N
, (B) =
N
2
+ N
3
N
.
Relativna frekvencija da se dogodi ili A ili B ili oba, je
(A + B) =
N
1
+ N
2
+ N
3
N
.
Relativna frekvencija da se dogode i A i B je
(AB) =
N
3
N
.
Relativna frekvencija da se dogodi B, uz uvjet da se vec dogodio A je
(B/A) =
N
3
N
1
+ N
3
.
Relativna frekvencija da se dogodi A, uz uvjet da se vec dogodio B je
(A/B) =
N
3
N
2
+ N
3
.
Iz gornjih izraza izravno slijedi
(A + B) =
N
1
+ N
2
+ N
3
N
=
N
1
+ N
3
N
+
N
2
+ N
3
N

N
3
N
= (A) + (B) (AB),
(AB) =
N
3
N
=
N
3
N
1
+ N
3

N
1
+ N
3
N
= (B/A) (A),
=
N
3
N
=
N
3
N
2
+ N
3

N
2
+ N
3
N
= (A/B) (B).
S obzirom da, s porastom N , relativne frekvencije teze vjerojatnostima, gornje
relacije prelaze u
P(A + B) = P(A) + P(B) P(AB),
P(AB) = P(B/A) P(A) = P(A/B) P(B).
(2.10)
Prva od gornjih jednadzba se zove adicijski teorem, a druga multiplikacijski te-
orem.
Adicijski teorem se moze iskazati na slijedeci nacin: vjerojatnost da se dogodi bar jedan
od dva dogadaja (tj. ili jedan ili oba) P(A + B), jednaka je zbroju vjerojatnosti svakog
pojedinog dogadaja, umanjenom za vjerojatnost da se dogode oba. Ovo je lako razu-
mjeti pomocu slike 2.4: vjerojatnost P(A+B) je srazmjerna svim tockama (dogadajima)
sadrzanim u podrucjima i ; no ako bih zbrojio tocke u ta dva podrucja, onda bih tocke
iz presjeka brojao dva puta, pa da bih eliminirao to dvostruko zbrajanje, moram
jednom oduzeti tocke iz presjeka, a to je upravo P(AB).
Ovaj je teorem poopcenje pravila o zbrajanju vjerojatnosti (2.5), gdje smo pretpostavili
da je istodobno ostvarenje oba dogadaja iskljuceno. Zaista, ako je nemoguce da se A i B
dogode istovremeno, tada je P(AB) = 0 i P(A + B) je jednako (2.5).
34 POGLAVLJE 2. VJEROJATNOST
Slika 2.4: Uz deniciju mnozenja vjerojatnosti. A i B nisu iskljucivi dogadaji.
Ovaj se teorem moze prosiriti i na vise od dva dogadaja. Npr. ako se promatraju tri
dogadaja A, B i C i pitamo se kolika je vjerojatnost da se dogodi bar jedan od njih (tj.
ili da se dogodi jedan ili bilo koja dva ili da se dogode sva tri). Na slici 2.5 to znaci da
moramo zbrojiti sve dogadaje sadrzane u podrucju A, B i C (oznaceno zelenim), pazeci
pri tome da nijedan dogadaj ne racunamo dva ili vise puta. Koristeci relaciju (2.10),
dolazi se do
P(A + B + C) = P((A + B) + C) = (2.10) = P(A + B) + P(C) P((A + B)C)
= P(A + B) + P(C) P(AC + BC)
= (2.10) = P(A) + P(B) P(AB) + P(C) P(AC) P(BC) + P(ABC)
= P(A) + P(B) + P(C) P(AB) P(AC) P(BC) + P(ABC). (2.11)
I dalje, ako se analiziraju cetiri dogadaja, A, B, C i D, a koristeci (2.10) i (2.11), dolazi
do
P(A + B + C + D) = P((A + B + C) + D) = (2.10) = P(A + B + C) + P(D) P((A + B + C)D)
= (2.11) = P(A) + P(B) + P(C) P(AB) P(AC) P(BC) + P(ABC)
+ P(D) P(AD + BD + CD)
= (2.11) = P(A) + P(B) + P(C) + P(D)
P(AB) P(AC) P(AD) P(BC) P(BD) P(CD)
+ P(ABC) + P(ABD) + P(ACD) + P(BCD)
P(ABCD).
Ako za neki opci i proizvoljni broj dogadaja s:
S
1
oznacimo zbroj apsolutnih vjerojatnosti svih pojedinih dogadaja: P(A) +P(B) + ;
S
2
oznacimo zbroj apsolutnih vjerojatnosti svih parova dogadaja: P(AB) +P(AC) + ;
S
3
oznacimo zbroj apsolutnih vjerojatnosti svih trostrukih dogadaja: P(ABC)+P(ABD)+
;
itd.
2.2. RA

CUNSKE OPERACIJE S VJEROJATNOSTIMA 35


Slika 2.5: Uz deniciju adicijskog teorema.
tada se adicijski teorem moze napisati kao
P(A + B + ) = S
1
S
2
+ S
3
. (2.12)
Primjer: 2.12 Imamo dva snopa igracih karata od po 52 karte svaki. Iz svakog se snopa
izvlaci po jedna karta. Kolika je vjerojatnost da ce bar jedna karta biti pikova
dama?
R: Imamo dva dogadaja: A - izvuci pikovu damu iz prvog snopa i B -
izvuci pikovu damu iz drugog snopa. Ova su dva dogadaja medusobno neo-
visna (jedan ne iskljucuje drugi). Vjerojatnost da se iz prvog snopa karata
izvuce pikova dama je
P(A) =
1
52
.
Ista je i vjerojatnost da se pikova dama izvuce iz drugog snopa
P(B) =
1
52
.
Vjerojatnost da se pikova dama izvuce i iz prvog i iz drugog snopa je
P(AB) =
1
52
1
52
.
36 POGLAVLJE 2. VJEROJATNOST
Prema adicijskom teoremu (2.10), vjerojatnost da bar jedna karta (tj. ili jedna
ili obje) bude pikova dama je
P(A + B) = P(A) + P(B) P(AB) =
1
52
+
1
52

1
52
1
52
=
103
2704
.
Do istog se rezultata dolazi i drukcijim razmisljanjem: kolika je vjerojatnost
da se niti iz prvog niti iz drugog snopa ne izvuce pikova dama
Q =
51
52
51
52
=
_
51
52
_
2
.
Prema tome, vjerojatnost da se izvuce bar jedna pikova dama je
P = 1 Q = 1
_
51
52
_
2
=
52
2
51
2
52
2
=
2704 2601
2704
=
103
2704
.
Primjer: 2.13 Kutija sadrzi N kuglica oznacenih brojevima od 1 do N. Kuglice izvlacimo
iz kutije i ne vracamo ih. Ako izvucemo svih N kuglica, kolika je vjerojatnost
da nijedna kuglica nece biti izvucena u onom izvlacenju po redu koje je jednako
broju na kuglici (kuglica s brojem 1 nece biti izvucena u prvom izvlacenju, ku-
glica s brojem 2 nece biti izvucena u drugom izvlacenju itd.)?
R: Ako izracunamo vjerojatnost P da bar jedna kuglica bude izvucena u
izvlacenju koje je jednako broju na kuglici, tada je odgovor na postavljeno pi-
tanje jednak 1 P. Oznacimo s P(A) vjerojatnost da kuglica s brojem jedan
bude izvucena u prvom izvlacenju; s P(B) vjerojatnost da kuglica s brojem
2 bude izvucena u drugom izvlacenju itd. Prema adicijskom teoremu (2.12),
vjerojatnost P je jednaka
P P(A + B + ) = S
1
S
2
+ S
3

Vjerojatnost S
1
oznacava
S
1
= P(A) + P(B) + P(C) +
S P(A) je oznacena vjerojatnost da prva izvucena kuglica nosi broj jedan.
Ona je jednaka omjeru broja povoljnih i svih mogucih izvlacenja. Postoji sve
skupa N! nacina da se izvuce N kuglica. Ako je prva kuglica imala broj jedan,
preostalih N 1 kuglica se moze izvuci na (N 1)! nacina. Prema tome je
P(A) =
(N 1)!
N!
=
1
N
.
Ista je i vjerojatnost da druga po redu bude izvucena kuglica s brojem 2 itd.
S
1
=
1
N
+
1
N
+ . . . +
1
N
= N
1
N
= 1.
Slicno se racuna i S
2
: neka je P(AB) vjerojatnost da se prvim izvlacenjem
izvuce kuglica s brojem 1, a drugim izvlacenjem kuglica s brojem 2. Istim
razmisljanjem kao ranije, dobiva se
P(AB) =
(N 2)!
N!
.
2.2. RA

CUNSKE OPERACIJE S VJEROJATNOSTIMA 37


Ista je tolika i vjerojatnost da prvo bude izvucena kuglica 1, a treca kuglica
3, itd. ili da drugim izvlacenjem bude izvucena kuglica 2, a trecim kuglica 3
itd. Koliko ima ovih kombinacija? Kuglica 1 se moze kombinirati s (N 1)
preostalih kuglica, kuglica 2 se moze kombinirati s (N 2) preostalih kuglica
itd. Sve skupa postoji
(N 1) + (N 2) + . . . + 2 + 1 = N
N 1
2
=
_
N
2
_
,
sto daje za S
2
S
2
=
_
N
2
_
(N 2)!
N!
=
N!
(N 2)!2!
(N 2)!
N!
=
1
2!
.
Na slican se nacin dolazi i do
S
3
=
1
3!
, S
4
=
1
4!
, S
N
=
1
N!
.
Stoga je i trazena vjerojatnost P jednaka
P = 1
1
2!
+
1
3!

1
4!
+ + (1)
n1
1
n!
+ + (1)
N1
1
N!
.
To je vjerojatnost da bar jedna kuglica bude izvucena pod svojim rednim
brojem. Ono sto mi zelimo izracunati je
Q = 1 P =
1
2!

1
3!
+
1
4!
+ + (1)
N
1
N!
.
U granici kada N , gornji zbroj je jednak 1/e
Q =
1
e
= 0.36787944 . . . P = 1
1
e
= 0.63212055 . . .
Ovaj je problem postavljen i rijesen godine 1708. u vezi igre s 13 karata,
gdje dobiva igrac koji izvuce kartu oznacenu s brojem koji odgovara broju
izvlacenja. Time su se bavili Nikola Bernoulli (1687 - 1759) i Leonhard Euler
(1707 - 1783) koji je i nasao vezu s brojem e.
Drugi izraz iz (2.10) se naziva multiplikacijski teorem i rijecima se moze iskazati kao:
Vjerojatnost ostvarenja dva dogadaja jednaka je umnosku apsolutne vjerojatnosti da se
dogodi prvi i relativne vjerojatnosti drugog
P(AB) = P(A/B) P(B), (2.13)
pri cemu je pretpostavljeno da drugi dogadaj, B, ovisi o prvom, A. Ukoliko su
dogadaji medusobno neovisni, tada je relativna vjerojatnost P(A/B) jednaka apsolutnoj
P(A) i gornja relacija postaje P(AB) = P(A) P(B), sto je upravo izraz (2.6) za vjerojat-
nost nezavisnih dogadaja. Gornje pravilo za vjerojatnost ostvarenja dva dogadaja, lako
je poopciti i na vise dogadaja (primjetimo ulancanost dogadaja):
P(ABC) = (2.13) = P(A/BC) P(BC) = (2.13) = P(A/BC) P(B/C) P(C),
38 POGLAVLJE 2. VJEROJATNOST
itd.
P(ABC) = P(A/BC) P(B/C) P(C),
P(ABCD) = P(A/BCD) P(B/CD) P(C/D) P(D),
.
.
.
Primjer: 2.14 Kocka I ima 4 crne i 2 bijele plohe, a kocka II ima 2 crne i 4 bijele
plohe. Baca se kovanica. Ako se okrene pismo, tada se N puta baca kocka I,
a ako padne glava tada se N puta baca kocka II. Kocka je N puta za redom
pokazala crnu plohu. Kolika je vjerojatnost da je to kocka I?
R: Oznacimo pojavu crne plohe sa C. Apsolutna vjerojatnost da padne
pismo i da se N puta okrene crna ploha kocke I je
P(IC) =
1
2
_
4
6
_
N
.
Isto tako, apsolutna vjerojatnost da se to dogodi kocki II je
P(IIC) =
1
2
_
2
6
_
N
.
Vjerojatnost da se N puta okrene crna ploha (neovisno o kocki je)
P(C) = P(IC) + P(IIC).
Prema tome, ako znamo da se crna ploha okrenula N puta, vjerojatnost da se
to dogodilo kockom I je jednaka
P(I/C) =
P(IC)
P(C)
= =
1
1 +
_
1
2
_
N
.
2.2.5 Bayesov teorem, 1764
Krecemo od izraza za relativnu (uvjetnu) vjerojatnost (2.8) i (2.9)
P(AB) = P(B/A) P(A), P(AB) = P(A/B) P(B). (2.14)
Eliminacijom P(AB), iz gornjih formula moze se dobiti veza medu relativnim vjerojat-
nostima
P(B/A) =
P(B)
P(A)
P(A/B). (2.15)
Gornja formula nam kaze kolika je vjerojatnost da se dogodi B, ako se vec dogodio A.
Osnovno je da tu vjerojatnost racunamo pomocu P(A/B), dakle pomocu vjerojatnosti
da se dogodi A, ako se vec dogodio B. Razmisljamo o dogadajima B i A kao o uzroku i
posljedici: B je uzrok, a A je posljedica.
B uzrok,
2.2. RA

CUNSKE OPERACIJE S VJEROJATNOSTIMA 39


A posljedica.
Kako cemo sada interpretirati izraz P(B/A)? To je vjerojatnost da posljedica
A ima B za uzrok. Ovaj je izraz poznat kao Bayesov teorem
10
. Njegovo iz-
ravno poopcenje je od velike vaznosti, napose u prirodnim znanostima (ali isto tako i
u drustvenim i ostalim znanostima), jer omogucava ispitivanje nepoznatih veza: imamo
neku pojavu za koju nismo sigurni koji od mogucih N uzroka ju izaziva. U tom slucaju,
Bayesov teorem nam omogucava da izracunamo vjerojatnost da je pojedini dogadaj uz-
rok opazenoj pojavi. Pretpostavimo da postoji N dogadaja B
n
koji se uvijek po dva
medusobno iskljucuju: nikada ne mogu istodobno nastupiti bilo koja dva od njih
B
1
, B
2
, , B
N
.
Zamislimo sada jedan dogadaj oznacen s X (kao nepoznanica, umjesto do sada uobicajenog
A) koji nastupa nakon bilo kojeg od gornjih dogadaja B
n
. Oznacimo s P(B
n
X) vjero-
jatnost da su se dogodili B
n
i X (naravno, ne istovremeno). Tada je, prema adicijskom
teoremu, vjerojatnost da se dogodi X jednaka zbroju vjerojatnosti da se dogodi bilo koji
od dogadaja B
n
X
P(X) = P(XB
1
) + P(XB
2
) + P(XB
N
)
Primjenom Bayesova teroema (2.15), dobiva se
P(B
n
/X) =
P(B
n
)
P(X)
P(X/B
n
) =
P(B
n
)
P(XB
1
) + P(XB
2
) + P(XB
N
)
P(X/B
n
).
No, ako relaciju (2.9), koja sada glasi
P(XB
n
) = P(X/B
n
) P(B
n
)
uvrstimo u gornji izraz, dolazimo do Bayesova teorema u najopcenitijem obliku
P(B
n
/X) =
P(B
n
)
P(X/B
1
) P(B
1
) + P(X/B
2
) P(B
2
) + + P(X/B
N
) P(B
N
)
P(X/B
n
).
(2.16)
Za dogadaj X znamo da je posljedica jednog od dogadaja B
1
, B
2
, , B
N
(od kojih se ne
mogu dva dogoditi istodobno). Dogadaje B
n
zovemo hipotetickim uzrocima od X. Gornji
izraz kaze kolika je vjerojatnost dogadaja B
n
, nakon sto mi vec znamo da se dogodio X.
Primjer: 2.15 Imamo tri kutije oznacene s I, II i III. U kutijama su kuglice:
(I) , 1 bijela, 2 plave, 3 crvene;
(II) , 2 bijele, 1 plava, 1 crvena;
(III) , 4 bijele, 5 plavih, 3 crvene.
Slucajno je odabrana jedna kutija i iz nje su izvucene dvije kuglice: jedna je
bijela, a druga crvena. Kolika je vjerojatnost da su one izvucene iz kutije I,
iz kutije II i iz kutije III?
10
Cita se Bejzov teorem.
40 POGLAVLJE 2. VJEROJATNOST
R: Postavljajuci zadatak u terminima Bayesovog teorema (2.16), kazemo
da su dogadaji B
1
, B
2
i B
3
izvlacenja iz kutija I, II i III. Dogadaj X je iz-
vlacenje jedne bijele i jedne crvene kuglice. Trebamo izracunati P(B
n
/X) za
n = 1, 2, 3
P(B
1
/X) =
P(B
1
)
P(X/B
1
) P(B
1
) + P(X/B
2
) P(B
2
) + P(X/B
3
) P(B
3
)
P(X/B
1
),
P(B
2
/X) =
P(B
2
)
P(X/B
1
) P(B
1
) + P(X/B
2
) P(B
2
) + P(X/B
3
) P(B
3
)
P(X/B
2
),
P(B
3
/X) =
P(B
3
)
P(X/B
1
) P(B
1
) + P(X/B
2
) P(B
2
) + P(X/B
3
) P(B
3
)
P(X/B
3
).
Vjerojatnost odabira bilo koje od tri kutije je ista i iznosi
P(B
1
) = P(B
2
) = P(B
3
) =
1
3
.
S P(X/B
1
) je oznacena vjerojatnost izvlacenja jedne bijele i jedne crvene ku-
glice iz kutije I
povoljno: bijela je samo jedna, crvene su tri, sto sve skupa daje 1 3 = 3
mogucnosti da se izvuce jedna bijela i jedna crvena kuglica,
moguce: izmedu 6 kuglica, 2 kuglice se mogu izvuci na
_
6
2
_
razlicitih nacina
P(X/B
1
) =
_
1
1
__
3
1
_
_
6
2
_ =
1
5
.
Slicnim razmisljanjem dolazi se i do
P(X/B
2
) =
_
2
1
__
1
1
_
_
4
2
_ =
1
3
,
P(X/B
3
) =
_
4
1
__
3
1
_
_
12
2
_ =
2
11
.
Pomocu gornjih vjerojatnost i Bayesova teorema (2.16), slijedi
P(B
1
/X) =
P(B
1
)
P(X/B
1
) P(B
1
) + P(X/B
2
) P(B
2
) + P(X/B
3
) P(B
3
)
P(X/B
1
)
=
1
3
1
5
1
3
+
1
3
1
3
+
2
11
1
3
1
5
=
33
118
,
P(B
2
/X) =
P(B
2
)
P(X/B
1
) P(B
1
) + P(X/B
2
) P(B
2
) + P(X/B
3
) P(B
3
)
P(X/B
2
)
=
1
3
1
5
1
3
+
1
3
1
3
+
2
11
1
3
1
3
=
55
118
,
P(B
3
/X) =
P(B
3
)
P(X/B
1
) P(B
1
) + P(X/B
2
) P(B
2
) + P(X/B
3
) P(B
3
)
P(X/B
3
)
=
1
3
1
5
1
3
+
1
3
1
3
+
2
11
1
3
2
11
=
30
118
.
2.2. RA

CUNSKE OPERACIJE S VJEROJATNOSTIMA 41


Vjerojatnost da su jedna bijela i jedna crvena kuglica izvucene iz kutije I je
33/118, da su izvucene iz kutije II je 55/118, a da su izvucene iz kutije III
je 30/118. Buduci da kuglice moraju biti izvucene iz jedne od kutija, to zbroj
gornjih vjerojatnosti mora biti jednak jedinici
P(B
1
/X) + P(B
2
/X) + P(B
3
/X) =
33
118
+
55
118
+
30
118
= 1.
42 POGLAVLJE 2. VJEROJATNOST
Poglavlje 3
Matematicka teorija vjerojatnosti
3.1 Matematicko ocekivanje
Matematicko ocekivanje se denira u terminima igara na srecu na slijedeci nacin: u nekoj
igri na srecu, vjerojatnost da ce igrac osvojiti dobitak iznosa a, je p; matematicko
ocekivanje (vjerojatnost dobitka navedenog iznosa), E, je velicina denirana izrazom
E = p a. (3.1)
Ako je ulog igraca jednak E, igra se smatra pravednom. Ako u igri postoji N dobitaka,
iznosa a
n
, od kojih svaki ima vjerojatnost p
n
da ce ga igrac osvojiti, tada se matematicko
ocekivanje denira kao zbroj matematickih ocekivanja svakog pojedinog dobitka (ili ce se
s vjerojatnoscu p
1
ostvariti dobitak a
1
ili ce se s vjerojatnoscu p
2
ostvariti dobitak a
2
ili
... itd. ...)
E =
N

n=1
p
n
a
n
. (3.2)
naravno da, kao i uvijek, zbroj svih vjerojatnosti mora dati jedinicu
N

n=1
p
n
= 1.
Evo ilustracije na primjeru ruleta. Rulet se sastoji od 37 polja od kojih je 18 crvenih, 18
crnih i jedno je bijelo. Ako igrac igra na jednu boju i kuglica se zaustavi na toj boji, igrac
dobiva dvostruko od ulozenog, ako se kuglica zaustavi na bijelom polju, ulog ostaje za
slijedecu igru, a ako se kuglica zaustavi na polju s onom drugom bojom, igrac gubi ulog.
U terminima gornjih formula to znaci da postoje tri moguca dobitka: prvi je dobitak
jednak dvostrukom ulogu, a
1
= 2E, a vjerojatnost ovog dobitka je p
1
= 18/37; drugi je
dobitak jednak ulogu a
2
= 1 E, a vjerojatnost je p
2
= 1/37; treci dobitak je a
3
= 0 E
(pa je to zapravo gubitak uloga) s vjerojatnoscu p
3
= 18/37. Iz (3.2) vidimo da se za
matematicko ocekivanje dobije
3

n=1
p
n
a
n
=
18
37
2 E +
1
37
1 E +
18
37
0 E = E,
iz cega slijedi da je igra pravedna.
43
44 POGLAVLJE 3. MATEMATI

CKA TEORIJA VJEROJATNOSTI


Primjer: 3.1 Mirko se kladi sa Slavkom da ce sa tri kocke u jednom bacanju pogoditi zbroj
15. Ako Mirko ulaze iznos od 10 kuna, koliko mora Slavko isplatiti Mirku, pa
da igra bude pravedna?
R: Bacajuci tri kocke, postoji 6
3
raznih mogucih kombinacija zbrojeva, od
cega njih 10 vodi na zbroj 15

15
= {(6, 6, 3), (6, 3, 6), (3, 6, 6), (6, 5, 4), (6, 4, 5),
(5, 6, 4), (4, 6, 5), (5, 4, 6), (4, 5, 6), (5, 5, 5)}
Zato je vjerojatnost da Mirko dobije okladu, tj.da se pokaze zbroj 15 jednaka
p
A
=
10
216
.
Uvjet za pravednu igru je da je matematicko ocekivanje jednako ulogu, E =
p a, pa je Mirkov ulog E = 10 kn, a Slavkov ulog je a (u ovom primjeru Slavkov
ulog je dobitak sa Mirkovog stanovista)
10 =
10
216
a a = 216.
Ako Mirko zaista s tri kocke u jednom bacanju okrene zbroj 15, Slavko mu
mora isplatiti 216 kuna. S druge strane, ako se to ne dogodi, Slavko dobiva
Mirkovih 10 kuna.
Primjer: 3.2 Evo jednog primjera igranja tombole. U jednoj kutiji se nalazi 90 plocica
oznacenih brojevima od 1 do 90. Prije pocetka igre, igrac oznaci tri broja
na koja igra. Zatim se iz kutije nasumicno izvuce 5 brojeva. Ukoliko se tri
igraceva broja nalaze medu tih 5 izvucenih brojeva, on dobiva 20 000 kuna.
Koliki mora biti njegov ulog, da bi igra bila pravedna?
R: Da bi igra bila pravedna, igracev ulog mora biti jednak matematickom
ocekivanju E, gdje je E = pa. U tom je izrazu p vjerojatnost da se izvuku nje-
gova tri broja, a a je dobitak od 20 000 kn. Izracunajmo p kao omjer povoljnih
i svih mogucih kombinacija. Od 90 brojava, njih 5 se moze odabrati na
_
90
5
_
nacina. Koliko ima povoljnih kombinacija? Ako sam od 90 brojeva izdvojio
tri koja dobivaju, ostalo ih je jos 87. Od tih 87 mogu izabrati jos bilo koja 2
broja (jer se ukupno izvlaci 5 brojeva) na
_
87
2
_
nacina. Zato je
p =
_
3
3
__
87
2
_
_
90
5
_ =
1
6 22 89
=
1
11 748
,
E = pa =
1
11 748
20 000 = 1.7 .
Igrac treba uloziti 1.7 kuna.
3.2. VJEROJATNOST I BERNOULLIJEVI POKUSI 45
3.2 Vjerojatnost i Bernoullijevi pokusi
Pretpostavimo da izvodimo neki pokus koji moze okoncati samo na dva nacina: ili se
dogadaj A ostvario ili nije. Neka je vjerojatnost ostvarenja dogadaja A konstantna
tijekom cijelog izvodenja pokusa, i neka je jednaka p. Vjerojatnost da se dogadaj A ne
ostvari je jednaka P
A
= q = 1 p. Takav se pokus naziva Bernoullijev pokus, a
uoceni se dogadaj naziva Bernoullijev dogadaj.
Neka je izveden niz od N pokusa kojima zelimo utvrditi samo to je li se u svakom po-
jedinom pokusu dogadaj A ostvario ili ne.

Zelimo naci odgovor na pitanje kolika je
vjerojatnost da se u nizu od N pokusa, dogadaj A ostvari x = 0, 1, 2, , N puta? Pri
tome nam nije vazan redoslijed ostvarivanja ovih dogadaja. Opet razmisljamo kao kod
izvoda binomnog teorema na strani 26.
U N pokusa, dogadaj A se moze ostvariti nijednom na samo jedan nacin, a to je da se
svih N puta dogodi A. Vjerojatnost takvog niza dogadaja je
_
N
0
_
p
0
q
N
.
U N pokusa, dogadaj se moze ostvariti jednom na N nacina (ili prvi puta ili drugi puta
ili ... N-ti puta). Prema pravilu o mnozenju vjerojatnosti, (2.6), svaki ima vjerojatnost
p
1
q
N1
(jednom se ostvario i N 1 puta se nije ostvario), sto prema pravilu za zbrajane
vjerojatnosti (2.5) daje ukupnu vjerojatnost jednaku
_
N
1
_
p
1
q
N1
.
Dva ostvarenja u N pokusa se mogu dogoditi na
_
N
2
_
nacina, a svaki ima istu vjerojatnost
p
2
q
N2
_
N
2
_
p
2
q
N2
.
I opcenito, vjerojatnost P(x) da se u N pokusa A ostvari x puta je (slika 3.1)
P(x) =
_
N
x
_
p
x
q
Nx
. (3.3)
Ako se x shvati kao diskretna slu

cajna varijabla (ona koja nasumice poprima


vrijednosti izmedu 0 i N), ovako uvedeni P(x) daje raspodjelu vjerojatnosti slucajne va-
rijable x i opcenito se naziva gusto

ca vjerojatnosti s oznakom (x). Zanima nas


za koju je vrijednost x, gornja vjerojatnost najve

ca?
Ako pretpostavimo da je P najveci za neki ksni x, tada vjerojatnosti susjednih x 1
moraju biti manje (jer inace najveca vrijednost ne bi bila u x)
P(x 1) P(x)
_
N
x 1
_
p
x1
q
Nx+1

_
N
x
_
p
x
q
Nx
,
P(x + 1) P(x)
_
N
x + 1
_
p
x+1
q
Nx1

_
N
x
_
p
x
q
Nx
46 POGLAVLJE 3. MATEMATI

CKA TEORIJA VJEROJATNOSTI


Slika 3.1: Binomna raspodjela (3.3) za N = 20 i nekoliko vrijednosti p.
0 5 10 15 20
x
0
0.05
0.1
0.15
0.2
0.25
P
(
x
)
p = 0.1
p = 0.5
p = 0.9
Nakon kracenja, iz prve od gornjih relacija slijedi
x Np + p,
a iz druge
x Np q.
Najvecu vjerojatnost ima onaj x koji se nalazi u granicama
Np q x Np + p.
Primjetimo da je velicina dobivenog intervala upravo jednaka jedan (slika 3.2)
(Np + p) (Np q) = p + q = 1,
tj. u intervalu se moze nalaziti jedan x ili se na njegovim rubovima mogu nalaziti dva
x-a koji imaju iste maksimalne vjerojatnosti. U svakom slucaju, vidimo da je najvje-
rojatniji onaj x cija je vrijednost najbliza vrijednosti Np, a svi ostali x imaju manju
vjerojatnost.
Buduci da smo upravo uocili da je vrijednost x = Np istaknuta vrijednost x u odnosu na
sve ostale njegove vrijednosti, mozemo sada vrijednosti x-ove racunati u odnosu na Np.
Uvedimo velicinu h kao mjeru otklona x od njegove najvjerojatnije vrijednosti.
x = Np + h.
Tu je h neki pozitivan ili negativan (ne nuzno cijeli) broj. Pitanje koje postavljamo je:
kolika je vjerojatnost da se pojavi odstupanje h
od najvjerojatnije vrijednosti? Odgovor cemo potraziti u dva koraka: najprije cemo naci
vjerojatnost za odstupanje h = 0, a zatim za odstupanje h = 0.
3.2. VJEROJATNOST I BERNOULLIJEVI POKUSI 47
Slika 3.2: Polozaj najvjerojatnijeg x.
Ako je h = 0, tada x ima upravo svoju najvjerojatniju vrijednost x = Np. Vjerojatnost
za ovaj x je
P(x = Np) =
_
N
x
_
p
x
q
Nx

x=Np
=
_
N
Np
_
p
Np
q
NNp
=
N!
(Np)! (N Np)!
p
Np
q
Nq
=
N!
(Np)! (Nq)!
p
Np
q
Nq
Buduci da N smatramo velikim brojem, za izracunavanje faktorijela u kojima se pojavljuje
N, mozemo koristiti Stirlingovu
1
formulu
n! =

2n
_
n
e
_
n
_
1 +
1
(2
1
)(6n)
1
+
1
(2
3
)(6n)
2

139
(2
3
)(2 3 5)(6n)
3

571
(2
6
)(2 3 5)(6n)
4
+
_
.
(3.4)
prema kojoj je i
N! e
N
N
N

2N,
(Np)! e
Np
(Np)
Np

2Np,
(Nq)! e
Nq
(Nq)
Nq

2Nq.
Uvrstavanjem ovih vrijednosti u izraz za P(Np), dobiva se
P(Np) =
e
N
N
N

2N
e
Np
(Np)
Np

2Np e
Nq
(Nq)
Nq

2Nq
p
Np
q
Nq
=
1

2 N p q
.
To je vjerojatnost da ce se dogadaj, cija je vjerojatnost p, u N pokusa ostvariti x = N p
puta (tj. da se nece ostvariti N x = N q puta). Iz gornjeg izraza vidimo da je ova
1
James Stirling, Methodus dierentialis, 1730.
48 POGLAVLJE 3. MATEMATI

CKA TEORIJA VJEROJATNOSTI


vjerojatnost jako mala, ako je N jako velik (sto smo pretpostavili koristeci Stirlingovu
formulu).
Provedimo sada slican postupak uz h = 0.
P(x = Np + h) =
_
N
Np + h
_
p
Np+h
q
NNph
=
N! p
Np+h
q
Nqh
(Np + h)! (N Np h)!
=
N! p
Np+h
q
Nqh
(Np + h)! (Nq h)!
Izraze li se faktorijeli pomocu Stirlingove formule (3.4), dobiva se
P(Np + h) =
e
N
N
N

2N p
Np+h
q
Nqh
e
Nph
(Np + h)
Np+h

2(Np + h) e
Nq+h
(Nq h)
Nqh

2(Nq h)
=
e
N+Np+h+Nqh

N N
N
p
Np+h
q
Nqh

Np

1 +
h
Np
(Np)
Np+h
_
1 +
h
Np
_
Np+h

2Nq

1
h
Nq
(Nq)
Nqh
_
1
h
Nq
_
Nqh
=
N
NNphNq+h
p
Np+hNph
q
NqhNq+h

1 +
h
Np
_
1 +
h
Np
_
Np+h

2Nq

1
h
Nq
_
1
h
Nq
_
Nqh
=
1

2 N p q
1
_
1 +
h
Np
_
Np+h+
1
2
_
1
h
Nq
_
Nqh+
1
2
=
1

2 N p q
A,
gdje je, radi kratkoce, uvedena oznaka
A
1
=
_
1 +
h
Np
_
Np+h+
1
2
_
1
h
Nq
_
Nqh+
1
2
Izracunajmo A imajuci u vidu da smo pretpostavili da je N vrlo velik
ln A =
_
Np + h +
1
2
_
ln
_
1 +
h
Np
_
+
_
Nq h +
1
2
_
ln
_
1
h
Nq
_
.
Za N koji je velik u odnosu na h, logaritme na desnoj strani mozemo razviti u Taylorov
red:
ln(1 + x) = x
x
2
2
+
x
3
3

x
4
4
+ , 1 < x 1, (3.5)
ln(1 x) =
_
x +
x
2
2
+
x
3
3
+
x
4
4
+
_
, 1 x < 1,
cime dobivamo
ln
_
1 +
h
Np
_
=
h
Np

h
2
2N
2
p
2
+
h
3
3N
3
p
3
+ ,
ln
_
1
h
Nq
_
=
h
Nq

h
2
2N
2
q
2

h
3
3N
3
q
3
.
3.2. VJEROJATNOST I BERNOULLIJEVI POKUSI 49
Ovi razvoji daju za ln A
ln A =
_
Np + h +
1
2
__
h
Np

h
2
2N
2
p
2
+
h
3
3N
3
p
3
+
_

_
Nq h +
1
2
__
h
Nq
+
h
2
2N
2
q
2
+
h
3
3N
3
q
3
+
_
= h
h
2
2Np
+
h
3
3N
2
p
2
+ +
h
2
Np

h
3
2N
2
p
2
+
h
4
3N
3
p
3
+ +
h
2Np

h
2
4N
2
p
2
+
h
3
6N
3
p
3
+
h
h
2
2Nq

h
3
3N
2
q
2

h
2
Nq
+
h
3
2N
2
q
2
+
h
4
3N
3
q
3
+
h
2Nq

h
2
4N
2
q
2

h
3
6N
3
q
3
+
=
h
2
2N
1
pq
+
h
2N
q p
pq
+O
_
h
2
N
2
_
.
S O(h
2
/N
2
) su oznaceni zanemareni clanovi reda h
2
/N
2
, h
3
/N
3
, . . . koji su, za veliki N,
puno manji od clanova reda 1/N koje smo sve zadrzali. Odstupanje h mora ovisiti
2
o
N, a da bi nasi Taylorovi razvoji (3.5) bili opravdani, mora h rasti sporije od N. Stoga
pretpostavljamo da je
h

N,
tada je prvi clan gornjeg izraza reda jedinice, dok svi ostali opadaju kao neka potencija
N i zato ih, za veliki N, mozemo zanemariti
ln A =
h
2
2Npq
+ A = e
h
2
/(2Npq)
+ ,
iz cega slijedi (priblizno)
P(Np + h)
1

2Npq
e

h
2
2Npq
= P(Np) e

h
2
2Npq
. (3.6)
Vidimo da sve vjerojatnosti s h = 0 eksponencijalno opadaju u odnosu na h = 0
vjerojatnost. Prema svim pretpostavkama koje smo koristili u izvodu, ova je tvrdnja
utoliko tocnija ukoliko je N veci. Uvedimo nove oznake
t =
h

Npq
,

G
(t) =
1

2
e

t
2
2
. (3.7)
Novouvedena funkcija
G
(t) se zove funkcija Gaussove ili normalne raspodjele i pred-
stavlja jednu od najvaznijih funkcija raspodjele u cijeloj teoriji vjerojatnosti i statistici
(slika 3.3). Pomocu
G
(t) je
P(Np + h) =
1

Npq

G
_
h/

Npq
_
.
2
Sjetimo se da se h denira sa x = Np + h. Vjerojatnost p je velicina reda jedinice, pa je Np velicina reda N. Da bi
zbrajanje Np +h imalo smisla mora i h po redu velicine biti slican redu velicine N.
50 POGLAVLJE 3. MATEMATI

CKA TEORIJA VJEROJATNOSTI


Slika 3.3: Gaussova (normalna) raspodjela opisana izrazom (3.7).
t

G

(
t
)
- H
+ H
Pitanje koje se najcesce postavlja u praksi i nije ono koje smo mi postavili (koja je vjero-
jatnost odstupanja h u odnosu na Np), nego
kolika je vjerojatnost da se dano odstupanje
nalazi unutar ili izvan, odredenih granica?
Konkretno, kolika je vjerojatnost da odstupanje bude, po iznosu, manje ili jednako nekoj
zadanoj vrijednosti H
|h| H.
Vjerojatnost P(|h| H) je jednaka vjerojatnosti da je
3
x = Np H ili vjerojatnosti da
je x = Np H + 1 ili ili vjerojatnosti da je x = Np + H, pa je prema pravilu za
zbrajanje vjerojatnosti (2.5), trazena vjerojatnost dana zbrojem vjerojatnosti svih x-eva
iz intervala (N p H, N p + H)
P(|h| H) = P(Np H) + P(Np H + 1) +P(Np H + 2) + P(Np 1) + P(Np)
+ P(Np + 1) +P(Np + 2) + + P(Np + H 1) + P(Np + H)
=
Np+H

x=NpH
P(x).
Spojimo li ordinate svih navedenih P(Np H + n), dobivamo poligon ciji je jedan dio
prikazan na slici 3.4. Pogledajmo cemu je jednaka plostina, S, povrsine ispod tog poligona
jednaka je zbroju povrsina trapeza prikazanih na toj istoj slici. Plostina povrsine jednog
3
Broj x je cijeli broj, dok Np H ne mora nuzno biti cijeli broj, tako da izraz x = Np H treba citati kao cijeli broj
najblizi broju Np H. Ova se primjedba odnosi i na ostatak teksta.
3.2. VJEROJATNOST I BERNOULLIJEVI POKUSI 51
Slika 3.4: Zbroj vjerojatnosti koje daju P(|h| H).
trapeza jednaka je zbroju povrsine pravokutnika i povrsine trokuta
S
n
= P(n)
_
(n + 1) n
_
+
1
2
_
(n + 1) n
__
P(n + 1) P(n)
_
=
1
2
_
P(n) + P(n + 1)
_
,
pa je ukupna plostina povrsine ispod poligona jednaka
S =
P(Np H) + P(Np H + 1)
2
+
P(Np H + 1) + P(Np H + 2)
2
+
+
P(Np + H 1) + P(Np + H)
2
.
Pomocu gornjih izraza povezujemo plostinu S i trazenu ukupnu vjerojatnost P(|h| H)
S +
P(Np H)
2
+
P(Np + H)
2
= P(Np H) + P(Np H + 1) + + P(Np + H)
= P(|h| H).
Za sve vece i vece vrijednosti N, poligon sa slike 3.4 postaje glatka funkcija, trapezi
postaju sve uzi i zbroj njihovih plostina, S, postaje jednak integralu ispod te krivulje. Iz
toga slijedi
P(|h| H) =
1

2Npq

+H
H
e

h
2
2Npq
dh +
1
2
1

2Npq
e

(H)
2
2Npq
+
1
2
1

2Npq
e

(+H)
2
2Npq
=
2

2Npq

+H
0
e

h
2
2Npq
dh +
1

2Npq
e

H
2
2Npq
. (3.8)
52 POGLAVLJE 3. MATEMATI

CKA TEORIJA VJEROJATNOSTI


P. S. Laplace (1749-1827)
Do gornjeg rezultata je prvi dosao Pierre-Simon Laplace
(1749-1827) godine 1812. Za veliki N, drugi clan iz (3.8)
je puno manji od prvoga i moze se zanemariti. Pomocu
Gaussove raspodjele
G
iz (3.7), denira se integral (t
0
)
(t
0
) =

t
0
0

G
(t) dt. (3.9)
Pomocu , vjerojatnost P(|h| H) je
P(|h| H) = 2
_
H

Npq
_
. (3.10)
Gornji izraz, pomocu funkcije , daje vjerojatnost da odstu-
panje varijable x od najvjerojatnije vrijednosti, nije iznosa
veceg od H. Funkcija se naziva Gaussov integral i
njegove vrijednosti za konacni argument se nalaze u tabli-
cama (npr. [18] str 349). Stavimo li za gornju granicu u
integralu (3.9) H , dobivamo
P(|h| ) = 2
1


0
e

t
2
2
dt = 1,
sto je potpuno u skladu s normiranjem vjerojatnosti.
Zapitajmo se nadalje,
u kojim se granicama (H, +H) smije nalaziti odstupanje h,
pa da vjerojatnost odstupanja od najvjerojatnije vrijednosti bude
1
2
?
Ili, pomocu simbola
P(|h| H) =
1
2
H = ?
Pomocu (3.10), gornji uvjet pisemo kao

_
H

Npq
_
= 0.25 .
Prema tablici I iz [18], str. 349., citamo
(0.67) = 0.24857, (0.68) = 0.25175,
0.66 0.67 0.68
t
0.245
0.246
0.247
0.248
0.249
0.250
0.251
0.252
0.253
0.254
0.255


(
t
)
sto znaci da se vrijednost = 0.25 nalazi negdje izmedu vrijed-
nosti argumenata 0.67 i 0.68. Linearnom interpolacijom (kao
na slici) izmedu ove dvije vrijednosti
(t) = a t + b = 0.318 t + 0.03551,
dobivamo da je = 0.25, kada je
0.25 = 0.318 t + 0.03551
t = 0.67449685 . . . =
H

Npq
,
3.3. PROSJE

CNA VRIJEDNOST 53
odakle je trazeni h jednak
H = 0.6745

Npq (3.11)
Primjer: 3.3 dovrsiti
R: hhhhh
3.3 Prosjecna vrijednost
U prethodnim izlaganjima smo pokazali da ako je vjerojatnost ostvarenja dogadaja A u
nekom pokusu jednaka p, tada je najvjerojatnije da ce se u nizu od N pokusa A pojaviti
x = Np
puta. Ujedno smo i s
h = x Np
oznacili odstupanje x-a od ove najvjerojatnije vrijednosti. Od sada cemo broj ostvarenja
dogadaja A shvacati kao diskretnu slucajnu varijablu koju cemo oznaciti s X umjesto kao
do sada s N
A
. Vrijednosti koje X moze poprimiti, oznacavat cemo s x = 0, 1, 2, , N.
Sada cemo odgovoriti na slijedece pitanje:
kolika je vrijednost prosje

cnog odstupanja?
Prosjecno odstupanje se racuna pomocu izraza za matematicko ocekivanje (3.2), uz prik-
ladnu promjenu oznaka: indeks zbrajanja je x umjesto n, vjerojatnosti p
n
postaje P(x),
a umjesto dobitka a
n
dolazi vrijednost odstupanja h(x)
E =
N

n=1
a
n
p
n
E(h) =
N

x=0
h(x) P(x).
Vec smo vidjeli da, za veliki N, mozemo vjerojatnosti zamjeniti relativnim frekvencijama.
Mnoziti svako odstupanje h s vjerojatnoscu tog odstupanja je priblizno isto kao i mnoziti h
s njegovom relativnom frekvencijom, sto nas vodi na prosjecne vrijednosti. Tako dolazimo
do analogije (koja ce postati jos jasnija u drugom dijelu u kojemu se govori o statistici)
izmedu matemati

ckog o

cekivanja i prosje

cne vrijednosti
E(h) = E(X Np) =
N

x=0
(x Np)P(x) =
N

x=0
x P(x)
N

x=0
Np P(x)
= E(X) E(Np). (3.12)
Izracunajmo odvojeno E(x) i E(Np) uz eksplicitno uvrstavanje P(x) iz relacije (3.3).
E(X) =
N

x=0
x
_
N
x
_
p
x
q
Nx
=
N

x=1
x
N!
x!(N x)!
p
x
q
Nx
= Np
N

x=1
(N 1)!
(x 1)!(N x)!
p
x1
q
Nx
.
54 POGLAVLJE 3. MATEMATI

CKA TEORIJA VJEROJATNOSTI


Gornji se zbroj racuna tako sto se umjesto x uvodi nova varijabla y = x 1. Tada je
E(X) = Np
N1

y=0
(N 1)!
y!(N 1 y)!
p
y
q
N1y
= Np(p + q)
N1
= Np. (3.13)
Dakle, Np ne samo da je najvjerojatnija vrijednost X, nego je to ujedno i njegova
prosje

cna vrijednost.
E(Np) =
N

x=0
Np P(x) = Np
N

x=0
P(x) = Np 1 = Np. (3.14)
Iz ovoga zakljucujemo da je prosjecno odstupanje E(h) = E(X) E(Np) = 0.
Prosjecne vrijednosti bilo koje funkcije od X, s oznakom f(X) cemo jos oznacavati i s
E(f(X)) f(X) =

x
f(X) P(x).
Ako je prosjecno odstupanje jednako nuli, to znaci da u zbroju (3.12) ima i pozitivnih i
negativnih clanova, koji se na kraju svi zbroje u nulu. Kako bismo ipak dobili informaciju
o nekakvom prosjecnom odstupanju x od Np, bez obzira na predznak, moramo naci nacin
da eliminiramo predznak odstupanja i da promatramo samo iznos odstupanja. Buduci da
funkcija kvadriranja eliminira predznak, to je najjednostavnije odstupanje mjeriti pomocu
prosjecne vrijednosti od h
2
E(h
2
) =
N

x=0
(x Np)
2
P(x) =
N

x=0
x
2
P(x) 2 Np
N

x=0
x P(x) +
N

x=0
(Np)
2
P(x)
= E(X
2
) 2NpE(X) + E((Np)
2
)
= (3.13), (3.14) = E(X
2
) 2NpNp + (Np)
2
= E(X
2
) (Np)
2
= E(X
2
) E(X)
2
= X
2
X
2
.
S obzirom da iz (3.13) znamo da je E(X) = Np, treba jos samo izracunati E(x
2
)
E(X
2
) =
N

x=0
x
2
P(x) =
N

x=0
[x(x 1) + x] P(x)
=
N

x=2
x(x 1)
N!
x!(N x)!
p
x
q
Nx
+
N

x=1
x. P(x)
= N(N 1)p
2
N

x=2
(N 2)!
(x 2) !(N x)!
p
x2
q
Nx
+ E(X)
= N(N 1)p
2
(p + q)
N2
+ Np = N
2
p
2
+ Npq.
Uvrstimo to u izraz za E(h
2
)
E(h
2
) = N
2
p
2
+ Npq (Np)
2
= Npq. (3.15)
3.3. PROSJE

CNA VRIJEDNOST 55
Srednje kvadratno odstupanje se naziva i varijanca
V ar (X) = E( (X X )
2
) = E(X
2
) E(X)
2
= X
2
X
2
(3.16)
Varijanca ima dimenziju kvadrata X, pa se zato denira standardna devijacija ili
standardno odstupanje, s oznakom , kao kvadratni korjen iz varijance
=

V ar (X). (3.17)
U ovom slucaju je
=

Npq
Relativno standardno odstupanje je omjer standardnog odstupanja i broja N

Npq
N
=

pq
N
.
Koeficijentom varijacije se naziva omjer standardne devijacije i prosjecne (srednje)
vrijednosti (naravno, uz pretpostavku da je X = 0)

X
.
Ako je X = 0, tada se koecijent varijacije odreduje u odnosu na red velicine
4
ulaznih
x-eva. U gornjem primjeru je

X
=

Npq
Np
=

q
Np
.
Sada se moze postaviti pitanje
kolika je vjerojatnost da odstupanje bude u granicama (, +)?
Za H iz (3.10) uvrstavamo H = i dobivamo
P(|h| ) = 2
_

Npq
_
= 2
_

_
= 2(1) = (tablica I iz [18]) = 0.68268 = 68.3%.
(3.18)
Slicno racunamo i vjerojatnost da je odstupanje u granicama (H, +H) = (2 , +2 ):
P(|h| 2 ) = 2
_
2

_
= 2(2) = (tablica I iz [18]) = 0.9545 = 95.5%.
Vjerojatnost odstupanja unutar granica 2 je vrlo blizu jedinici, tj. skoro sva ce se
odstupanja nalaziti unutar ovih granica. Ukoliko bismo promatrali odstupanja za 3,
dobili bismo vjerojatnost jednaku
P(|h| 3 ) = 2 0.49865 = 0.9973 = 99.73%. (3.19)
56 POGLAVLJE 3. MATEMATI

CKA TEORIJA VJEROJATNOSTI


Slika 3.5: Vjerojatnost da se odstupanje nalazi unutar prikazanih granica.
Gornje tri vjerojatnosti su prikazane na slici 3.5.
Primjer: 3.4 Promatrajuci spol novorodencadi u nekoj zemlji, ustanovljeno je da je u
odredenom razdoblju od 3 232 novorodenceta, bilo 1 705 djecaka i 1 527 dje-
vojcica. Pitanje na koje treba odgovoriti jeste: jesu li ovi podaci u skladu s
pretpostavkom da je vjerojatnost da se rodi djecak ili djevojcica jednaka p =
1
2
?
R: Ako je vjerojatnost rodenja djecaka ili djevojcice jednaka
1
2
, tada bi-
smo ocekivali da se od 3 232 novorodencadi rodi 1 616 djecaka i isto toliko
djevojcica. Odstupanje broja rodenih djecaka je
H = 1705 1616 = 89.
Pitamo se kolika je vjerojatnost da se pojavi ovoliko odstupanje uz pretpos-
tavku p =
1
2
? Odgovor daje relacija (3.10). U nasem je slucaju

Npq =

3232
1
2
1
2
=

808 = 28.425,
pa je trazena vjerojatnost, prema (3.10),
P(|h| 89) = 2
_
89
28.425
_
= 2(3.13) = 0.99826. (3.20)
Dakle uz pretpostavku da je p =
1
2
, vjerojatnost odstupanja manjeg ili jed-
nakog 89 je 99.826%. Buduci da je ta vrijednost vrlo blizu granicne vrijed-
nosti od 99.7% koja se primjenjuje u ovakvim analizama (sjetimo se da je
P(|h| 3 ) = 99.73%), smatramo da je gornji rezultat malo vjerojatan, tj.
4
Tri matematicara idu u lov. Ubrzo opaze zeca. Prvi puca i pogodi metar desno od zeca. Drgi puca i pogodi metar
lijevo od zeca. Na to treci uzvikne: Odlicno, pogodili smo ga! To je zakljucak matematicara. No, mi zicari znamo da je
zec prezivio tu matematiku. Kako biste to objasnili u terminima x, X, , ?
3.3. PROSJE

CNA VRIJEDNOST 57
da je odstupanje preveliko. Tj. mozemo samo zakljuciti da se vjerojatnost
poroda djecaka nalazi blizu vrijednosti
1
2
ili da su podaci bili netocni.
Primjer: 3.5 U razlicita vremena, botanicari Mendel (1865), Correns (1900), Tscher-
mak (1900), Hurst (1904), Bateson (1905), Darbshire (1909) i Tavcar (1924)
su krizali zuti hibridni grasak sa zelenim graskom i dobili sve skupa 138 685
zutih i 46 042 zelene sjemenke. Pitanje je: slaze li se ovaj rezultat s Mendelo-
vom pretpostavkom da je vjerojatnost pojave sjemenke zelenog graska
1
4
?
R: Ukupan broj sjemenaka je 138 685 + 46 042 = 184 727. Jedna cetvrtina
od toga je 46 181.75 46 182. Razlika u odnosu na dobiveni broj sjeme-
naka zelenog graska je 46 182 46 042 = 140. Prema (3.10), vjerojatnost da
odstupanja od najvjerojatnije vrijednosti bude manje ili jednako 140 je
P(|h| 140) = 2
_
_
140

184 727
1
4
3
4
_
_
= 2(0.75) = 2 0.27337 = 0.54674.
Ova je vrijednost vrlo blizu
1
2
, sto znaci da je pretpostavka vjerojatno tocna.
Postavimo jos i ovo pitanje: koliko smije biti odstupanje, pa da mu vjerojatnost
bude 95%?
P = 2(t) = 0.95 (t) = 0.475.
Prema tablici na str. 350 u [18] je t = 1.96, tj.
1.96 =
H

Npq
H =
1.96
4

184 727 3 = 364.77233 . . . .


Ocito je odstupanje od 140 unutar dopustene granice, cime smatramo Mende-
lovu pretpostavku potvrdenom.
Primjer: 3.6 U igri lutrije se od 90 brojeva izvlaci pet brojeva. Igrac igra na jedan broj
i dobiva ako se njegov broj nalazi medu pet izvucenih.
(a) Izracunajte vjerojatnost dobitka u jednom izvlacenju.
(b) Ako se obavi 2 854 izvlacenja, koliko ce najvjerojatnije biti dobitaka?
(c) Kolika mogu biti odstupanja od ovog najvjerojatnijeg broja dobitaka, pa da
njihova vjerojatnost ne premasuje
1
2
?
R:
(a) Vjerojatnost da ce njegov broj biti izvucen jeste (povoljno kroz moguce)
p =
_
1
1
_ _
89
4
_
_
90
5
_ = =
1
18
.
(b) Ako se obavi 2 854 izvlacenja, prema (3.13), najvjerojatnije ce biti izvuceno
Np = 2 854/18 = 158.

5 159 dobitaka.
58 POGLAVLJE 3. MATEMATI

CKA TEORIJA VJEROJATNOSTI


(c) Prema (3.11), vjerojatnost je
1
2
da ce odstupanje od najvjerojatnije vri-
jednosti Np biti manje ili jednako H, kada je
H = 0.6745

Npq = 0.6745

2 854
1
18
17
18
= 8.2539 . . . 8 . (3.21)
Dakle, s vjerojatnoscu
1
2
mozemo ocekivati da ce se broj izvucenih dobitaka
nalaziti izmedu 151 i 167.
3.4

Cebisevljev teorem i Bernoullijev teorem (zakon velikih bro-
jeva)
Promatrajmo diskretnu slucajnu varijablu X koja poprima niz vrijednosti x = 1, 2, , N.
Neka su ocekivanje i varijanca redom jednaki X i
2
. Treba dokazati teorem P. L.

Cebiseva
5
:
Teorem: Vjerojatnost da slucajna varijabla X poprimi vrijednost izvan intervala ( X
, X + ), za proizvoljni > 0, je manja ili jednaka
2
/
2
,
P(|X X | )

2

2
. (3.22)
Napisana preko vjerojatnosti (x), vjerojatnost P(|X X | ) je
P(|X X | ) =

x
|X X |
(x).
Na slici lijevo to znaci da je vje-
rojatnost da X poprimi vrijed-
nost u osjencenom dijelu, manja
od
2
/
2
. U dokazu teorema, kre-
nimo od denicije varijance (3.16)

2
=

x
_
x X
_
2
(x),
gdje je (x) neka opcenita gustoca vjerojatnosti
6
. U gornjem se zbroju zbraja
po svim mogucim vrijednostima x. Ako se ogranicimo samo na one x iz
osjencenog dijela ove slike, sigurno cemo dobiti zbroj koji je manji ili jednak
sa
2
(zato jer smo ispustili pozitivne doprinose zbroju iz podrucja x [ X
, X + ])

2
=

x
_
x X
_
2
(x)

x
|X X |
_
x X
_
2
(x).
5
Pafnutij Ljvovic

Cebisev, 16. V 1821. - 9. XII 1894., ruski matematicar.
6
do sada smo se npr. na strani 45 susreli s gustocom vjerojatnosti da se dogadaj A ostvari u x od N mogucih pokusa i
tamo smo gustocu vjerojatnosti oznacili s P(x)
3.4.

CEBI

SEVLJEV TEOREM I BERNOULLIJEV TEOREM (ZAKON VELIKIH BROJEVA) 59


No, u posljednoj sumi je svaki |x X | veci ili jednak s , pa ce zamjena
|x X | s , rezultirati jos manjim zbrojem

x
|X X |
_
x X
_
2
(x)
2

x
|X X |
(x).
Zbroj na desnoj strani gornjeg izraza je upravo vjerojatnost da X ima vrijed-
nost izvan intervala ( X , X + ):

x
|X X |
(x) = P(|X X | ),
Pa kombinacija dva gornja izraza upravo dokazuje

Cebisevljev teorem

2

2
P(|X X | ) P(|X X | )

2

2
.
Buduci da je zbroj svih vjerojatnosti jednak jedinici, to je vjerojatnost P(|X
X | < ) da X bude unutar intervala ( X , X + ) jednaka
1 = P(|X X | ) + P(|X X | < )
P(|X X | < ) 1

2

2
. (3.23)
Primjer: 3.7 Promatrajmo slucajnu varijablu X sa srednjom vrijednoscu X i stan-
dardnom devijacijom . Treba odrediti kolika je gornja granica na vjerojatnost
da ce odstupanje X od X biti vece ili jednako 3 ?
R: Prema

Cebisevljevu teoremu (3.22) uz identikaciju 3
P(|X X | 3)

2
(3)
2
=
1
9
0.

1.
Dakle, za bilo koju raspodjelu (x), je vjerojatnost odstupanja X od X 3
manja ili jednaka 0.1111 . . .. Ovo mozemo provjeriti na primjeru Gaussove
(normalne) raspodjele. Ako je X raspodjeljen po Gaussovoj raspodjeli, tada
iz (3.19) znamo da je vjerojatnost odstupanja X od X 3 jednaka
P(|X X | 3 ) = 2 0.49865 = 0.9973
P(|X X | 3 ) = 1 0.9973 = 0.0027,
sto je u potpunom skladu s

Cebisevljevim teoremom, jer je P = 0.

1 gornja
granica na vjerojatnost, tj. prava vjerojatnost, 0.0027, mora biti manja od ove
gornje granice, kao sto i jeste:
0.0027 < 0.1111 .
60 POGLAVLJE 3. MATEMATI

CKA TEORIJA VJEROJATNOSTI


Dokazimo sada teorem Jacoba Bernoullija iz 1713. godine, koji se cesto naziva i zakon
velikih brojeva. Promatra se dogadaj A koji se u N pokusa ostvari N
A
puta. Teorem
povezuje relativnu frekvenciju (2.3) ostvarivanja dogadaja A s apriornom vjerojatnoscu
tog dogadaja, koju cemo oznaciti s p.
Teorem: Za vrlo veliki broj pokusa N i za proizvoljni > 0, vjerojatnost da razlika

N
A
N
p

bude veca od , je iscezavajuce mala:


lim
N
P
_

N
A
N
p


_
= 0. (3.24)
S porastom N, vjerojatnost da se relativna frekvencija N
A
/N razlikuje od
apriorne vjerojatnosti p, opada prema nuli
7
. Bernoullijev teorem se moze
napisati i ovako
lim
N
P
_

N
A
N
p

<
_
= 1. (3.25)
Ili rijecima: u granici N , skoro je sigurno da ce razlika N
A
/N i p
biti proizvoljno mala. Za velike N, je N
A
/N jako dobra aproksimacija prave
(apriorne) vjerojatnosti p.
Ovaj se teorem moze dokazati i pomocu

Cebisevljeva teorema. Radi jednostavnosti,
zadrzimo se na primjeru Bernoullijevih dogadaja s konstantnom vjerojatnoscu p: broj
ostvarenja dogadaja A smo oznacavali s X N
A
, za prosjecnu vrijednost smo dobili
X = Np, a za varijancu
2
= Npq. Uvrstimo to u

Cebisevljev teorem
P(|X X | )

2

2
P(|X Np| )
Npq

2
.
Promatrajmo umnozak pq na desnoj strani kao funkciju od p
f(p) = pq = p(1 p) = p p
2
,
f

(p) = 1 2p = 0 p =
1
2
,
f

(p) = 2.
Iz gornjih rezultata zakljucujemo da f(p) ima maksimum u p = q =
1
2
, drugim rijecima,
umnozak pq je uvijek manji ili jednak
1
4
. Uvrstimo to u

Cebisevljev teorem
P(|X Np| )
Npq

2

N
4
2
,
P
_

X
N
p


N
_

N
4
2
.
Nazovemo li /N , gornja nejednakost postaje
P
_

X
N
p


_

1
4N
2
.
7
Primjetimo da relacija (3.24) nije standardni limes kakav se uci u matematickoj analizi. Matematicko znacenje konver-
gencije
N
A
N
p je slijedece: za svaki proizvoljni > 0 postoji N
0
(), sa svojstvom da za svaki N > N
0
() vrijedi da je

N
A
N
p

< . Tu se ne govori ni o kakvim vjerojatnostima, dok je Bernoullijev teorem jedna tvrdnja o vjerojatnostima.
3.5. DISKRETNE I KONTINUIRANE VJEROJATNOSTI 61
Za ksni i u granici kada N neograniceno raste
lim
N
P
_

X
N
p


_
lim
N
1
4N
2
= 0
ili, ako uzmemo u obzir (3.23),
lim
N
P
_

X
N
p

<
_
= 1,
a to je upravo (slabi) zakon velikih brojeva.
3.5 Diskretne i kontinuirane vjerojatnosti
Rezimirajmo ono sto smo do sada naucili o ishodima slucajnih pokusa ili, kako cemo ih
od sada nazivati, o slucajnim varijablama.
Kao sto sam naziv kaze, slucajna je varijabla X ona cija vrijednost x ovisi o slucaju,
tj. ne moze se tocno unaprijed
8
predvidjeti. Vjerojatnost ostvarenja razlicitih vrijednosti
varijable, ne mora biti konstantna, nego se moze mijenjati s x (kao sto je to npr. dano iz-
razom (3.3)). Ove promjene opisuje gustoca vjerojatnosti koju smo do sada (za diskretne
varijable) oznacavali s P(x), a od sada cemo oznacavati s (x) (ova ce oznaka obuhvacati
i diskretne i kontinuirane varijable).

Sto znamo o diskretnim slucajnim varijablama?


Vrijednosti diskretne slucajne varijabla X smo oznacavali s x, pri cemu je x poprimao
samo diskretan niz vrijednosti. Vjerojatnost P da X poprimi vrijednost x je primjer
onoga sto opcenito nazivamo gustocom vjerojatnosti
P(X = x) (x).
Funkcijom raspodjele F varijable X, naziva se zbroj
F(X) = P(X x) =

Xx
(x).
Sredina ili matematicko ocekivanje slucajne varijable X je
E(X) X =

x
x (x),
gdje zbroj ide po svim mogucim vrijednostima varijable X. Opcenito, matematicko
ocekivanje bilo koje funkcije f(X), se racuna kao
E(f(X)) f(X) =

x
f(x) (x).
Moguce je promatrati i dvije ili vise slucajnih varijabla. Radi jednostavnosti prikaza,
umjesto opcenite visedimenzijske varijable, govorit cemo o dvodimenzijskoj slucajnoj
varijabli (X, Y ). Varijabla X moze poprimiti bilo koju od N diskretnih vrijednosti, a
varijabla Y bilo koju od M vrijednosti. Vjerojatnost da je varijabla X poprimila jednu
8
tj. prije izvedbe pokusa
62 POGLAVLJE 3. MATEMATI

CKA TEORIJA VJEROJATNOSTI


odredenu vrijednost x, i da je istovremeno varijabla Y poprimila jednu odredenu vrijednost
y, cemo oznaciti s
P(X = x, Y = y) (x, y).
Iskaz da je sigurno da ce X poprimiti neku od N vrijednosti x i da ce Y poprimiti neku
od M vrijednosti y, pisemo u obliku (zbrajanje ili vjerojatnosti)

y
(x, y) = 1.
i nazivamo normiranjem vjerojatnosti. Dvodimenzijska gustoca vjerojatnosti se moze
prikazati (opcenito nekvadratnom) matricom
(x, y) =
_

_
(x
1
, y
1
) (x
1
, y
2
) (x
1
, y
m
) (x
1
, y
M
)
(x
2
, y
1
) (x
2
, y
2
) (x
2
, y
m
) (x
2
, y
M
)
.
.
.
.
.
.
(x
n
, y
1
) (x
n
, y
2
) (x
n
, y
m
) (x
n
, y
M
)
.
.
.
.
.
.
(x
N
, y
1
) (x
N
, y
2
) (x
N
, y
m
) (x
N
, y
M
)
_

_
.
Primjer: 3.8 Diskretna slucajna varijabla X moze poprimiti vrijednosti 1, 2, , N, s
vjerojatnoscu srazmjernom vrijednosti varijable. Treba naci raspodjelu gustoce
vjerojatnosti (x).
R: Ako je gustoca vjerojatnosti srazmjerna vrijednosti varijable, tada je
(x) = a + b x,
gdje su a i b konstante. Konstanta a se odreduje na slijedeci nacin: X moze
poprimati samo vrijednosti 1, 2, , N, tj. vjerojatnost da X ima neku drugu
vrijednost je jednaka nuli; posebno je vjerojatnost da je X = 0 jednaka nuli
iz cega slijedi zakljucak da je a = 0. Konstanta b se odreduje iz uvjeta nor-
miranja: zbroj vjerojatnosti svih dogadaja mora biti jednak jedinici (nesto se
mora dogoditi)
N

x=1
(x) = (1) + (2) + + (N) = 1
b 1 + b 2 + b 3 + + b N = b (1 + 2 + + N) = 1
2
N(N + 1)
= b.
Iz cega slijedi gustoca
(x) =
2 x
N(N + 1)
.
3.5. DISKRETNE I KONTINUIRANE VJEROJATNOSTI 63
Slicne su i denicije za slucajnu varijablu X koja poprima kontinuirane vrijednosti x iz
intervala [, +]. Buduci da ovih varijabli ima neprebrojivo mnogo, to je vjerojatnost
svake od njih jednaka nuli
P(X = x) = 0. (3.26)
Ono sto je razli

cito od nule jeste vjerojatnost pridruzena jednomintervalu vrijednosti


x. Ovo pridruzivanje se izvodi uvodenjem funkcije gustoce vjerojatnosti (x) sa slijedecim
svojstvima:
(1) (x) 0, x,
(2)

(x) dx = 1,
(3) (x) je po dijelovima kontinuirana,
(4)

x
2
x
1
(x) dx = P(x
1
< X x
2
) x
1
< x
2
.
Prvo od gornjih svojstava samo kaze da je vjerojatnost pozitivna velicina, tj da (x)
lezi iznad osi x. Ako x ne prima vrijednosti iz intervala [, +], nego iz [a, b], tada
nomiranje (2) glasi

b
a
(x) dx = 1.
To znaci da je povrsina ispod krivulje na slici 3.6.A, jednak jedinici. Svojstvo (3) osigu-
rava da imamo posla sa lijepim funkcijama, a (4) nam pruza geometrijsku interpretaciju
vjerojatnosti da X poprimi bio koju vrijednost iz intervala (x
1
, x
2
): ona koja je numericki
jednaka povrsini ispod krivulje tj. integralu gustoce vjerojatnosti (s odgovarajucim gra-
nicama), kao na slici 3.6.A. Ovo svojstvo (4) ima za posljedicu (3.26). Diferencijal vjero-
Slika 3.6: (A) Vjerojatnost P(x
1
< x < x
2
) da x poprimi vrijednost iz intervala (x
1
, x
2
) je jednaka
osjencenom dijelu. (B) F(x
0
) je vjerojatnost da x poprimi bilo koju vrijednost manju od x
0
.
jatnosti
dP(x) = (x) dx
predstavlja vjerojatnost da se vrijednosti slucajne varijable X nalaze u intervalu (x, x +
dx). Takoder je koristan i pojam funkcije raspodjele F(x), koja prestavlja vjerojat-
64 POGLAVLJE 3. MATEMATI

CKA TEORIJA VJEROJATNOSTI


nost da slucajna varijabla x poprimi bilo koju vrijednost manju od x
0
(slika 3.6.B).

x
0

(x) dx = F(x
0
).
Prema gornjoj deniciji je

x
2
x
1
(x) dx = P(x
1
< x x
2
) = F(x
2
) F(x
1
).
Ovaj izraz ujedno i denira funkciju F kao primitivnu funkciju gustoce vjerojatnosti, tj.
d F(x)
d x
= (x). (3.27)
Primjer: 3.9 Zadatak je nasumice povuci pravac kroz tocku (0, 1) i naci vjerojatnost da
pravac sjece apscisu u nekoj tocki x.
R: Promatrajmo kut
(/2, +/2) koji pravac zatvara s
ordinatom. Vjerojatnost da on poprimi
vrijednost u intervalu (, + d) je
dP =
d

.
Sa slike se vidi da je tan = x/1, pa je
= arctan x d =
dx
1 + x
2
.
Pravac odreden kutom iz intervala (, + d), presjeca apscisu u intervalu
(x, x + dx) s trazenom vjerojatnoscu
dP =
d

=
1
(1 +x
2
)
dx (x) dx.
Iz gornjeg izraza vidimo da nemaju sve tocke apscise jednaku vjerojatnost
da ih presjece pravac: sto su tocke dalje od ishodista (veci x) vjerojatnost
je manja. Primjetimo da kutu iz intervala (/2, +/2), odgovara x iz
intervala (, +). Provjerimo na kraju i normiranje vjerojatnosti
P =

dP(x) =

dx
(1 + x
2
)
=
1

arctan x

= 1.
Slicno kao i kod diskretnih varijabli (uz zamjenu zbrajanja integriranjem), matematicko
ocekivanje se racuna kao
E(X) X =

x (x) dx,
E(f(X)) f(X) =

f(x) (x) dx.


3.6. GEOMETRIJSKE VJEROJATNOSTI 65
I ovdje mozemo promatrati raspodjele vise slucajnih varijabli. Radi jednostavnosti,
ogranicimo se opet na dvije: X i Y . One mogu poprimati vrijednosti iz intervala
x (a, b), y (c, d). Funkcija gustoce vjerojatnosti (x, y) je funkcija sa slijedecim
svojstvima:
(1) (x, y) 0, x, y,
(2)

b
a
dx

d
c
dy (x, y) = 1,
(3)

x
2
x
1
dx

y
2
y
1
dy (x, y) = P(x
1
X x
2
, y
1
Y y
2
),
gdje je s P(x
1
X x
2
, y
1
Y y
2
) oznacena vjerojatnost da vrijednosti varijabli X i
Y budu unutar oznacenog podrucja. U skladu s gornjom denicijom, dP = (x, y) dx dy
je vjerojatnost da varijabla X poprimi vrijednost iz intervala (x, x + dx), a varijabla Y
iz intervala (y, y + dy). U nastavku izlaganja cemo, radi jednostavnosti, smatrati da je
(a, b) = (, +), kao i da je (c, d) = (, +).
3.6 Geometrijske vjerojatnosti
U dosadasnjem izlaganju smo promatrali pokuse ciji su se ishodi opisivali diskretnim
vrijednostima: bacanje kocke ili kovanice, Mendelovi pokusi s graskom i slicno.
Osim navedenih primjera, postoji citav niz problema cija vjerojatnost ovisi o parametrima
koji se kontinuirano mijenjaju, bilo u vremenu bilo u prostoru. Vjerojatnosti koje
kontinuirano ovise o prostornim varijablama, nazivat ce se geometrijske vjerojat-
nosti. I ovdje se vjerojatnost racuna po opcem receptu koji smo usvojili na pocetku:
povoljno kroz moguce. To cemo najlakse razumijeti kroz nekoliko primjera.
Primjer: 3.10 Kolika je vjerojatnost da se slucajno odabrana tocka na liniji AD, nalazi
unutar linije BC (slika 3.7.A)?
R: Ako napravimo posve razumnu pretpostavku da je odabir svake tocke
unutar linije AD jednako vjerojatan, tada je trazena vjerojatnost ocito jednaka
omjeru duljina zadanih linija (povoljno kroz moguce)
P =
BC
AD
=

C
B
dx

D
A
dx
.
Primjer: 3.11 Slicno se moze formulirati i dvodimenzijski problem (slika 3.7.B): kolika
je vjerojatnost da se slucajno odabrana tocka iz podrucja A nalazi u podrucju
B?
R: Iz pretpostavke da je odabir svake tocke iz A jednako vjerojatan, sli-
jedi da je trazena vjerojatnost jednaka omjeru plostina povrsina B i A (opet
66 POGLAVLJE 3. MATEMATI

CKA TEORIJA VJEROJATNOSTI


Slika 3.7: (A) Ilustracija racuna vjerojatnosti da se slucajno odabrana tocka na liniji AD, nalazi unutar
dlinijee BC. (B) Ilustracija racuna vjerojatnosti da se slucajno odabrana tocka iz podrucja A, nalazi
unutar podrucja B.
povoljno kroz moguce)
P =

B
dx dy

A
dx dy
.
Primjer: 3.12 U krugu polumjera R sa sredistem u tocki O, odaberu se proizvoljno dvije
tocke T
1
i T
2
. Kolika je vjerojatnost da ce kruznica sa sredistem u T
1
i polu-
mjera T
1
T
2
lezati unutar zadanog kruga (slika 3.8.A).
R: Vjerojatnost da se T
1
nalazi negdje unutar kruznog vijenca unutar-
Slika 3.8: (A) Uz primjer sa dva kruga. (B) Uz primjer dvije duzine.
njeg polumjera r i vanjskog r +dr, je jednaka omjeru povrsina vijenca i cijelog
3.6. GEOMETRIJSKE VJEROJATNOSTI 67
kruga
dP
1
=
(r + dr)
2
r
2

R
2

=
1
R
2
(2rdr + (dr)
2
)
2
R
2
rdr.
Da bi se kruznica sa sredistem u T
1
lezala unutar zadanog kruga, njezin polu-
mjer mora biti najvise jednak R r. Vjerojatnost P
2
da ce T
2
lezati unutar
kruznice sa sredistem u T
1
i polumjera R r je jednaka omjeru povrsina ova
dva kruga
P
2
=
(R r)
2

R
2

=
R
2
2Rr + r
2
R
2
.
Trazena vjerojatnost je i vjerojatnost: T
1
se mora nalaziti izmedu r i r + dr
(ta je vjerojatnost dana sa dP
1
) i T
2
se mora nalaziti unutar kruga polumjera
R r (ta je vjerojatnost dana sa P
2
)
dP = dP
1
P
2
=
2
R
4
(R
2
r 2Rr
2
+ r
3
)dr.
Buduci da r moze biti bilo koji broj izmedu 0 i R, to je ukupna vjerojatnost
jednaka
P =

R
0
dP =
2
R
4

R
0
(R
2
r 2Rr
2
+ r
3
) dr =
1
6
.
Primjer: 3.13 Na duzini duljine a se oznace dvije tocke x i y kao na slici 3.8.B. Kolika
je vjerojatnost da je udaljenost izmedu x i y veca od zadane duljine b?
R: Vjerojatnost da x lezi unutar intervala (x, x+dx) je jednaka dx/a. Vje-
rojatnost da y lezi unutar intervala (y, y + dy) je jednaka dy/a. Vjerojatnost
da x lezi unutar intervala (x, x +dx) i da y lezi unutar intervala (y, y +dy) je
jednaka
dP =
dx
a

dy
a
=
dx dy
a
2
.
Ukupnu vjerojatnost odredujemo integriranjem dP uz uvjete na granice in-
tegracije tako da budu zadovoljeni zahtjevi iz zadatka: x moze biti bilo koja
tocka izmedu 0 i a b (kada bi x bio izvan ovih granica, tada udaljenost od x
do y ne bi mogla biti veca od b); iz istog razloga, y mora lezati desno od x+b,
a lijevo od a
P =
2
a
2

ab
0
dx

a
x+b
dy =
2
a
2

ab
0
(a x b) dx
=
2
a
2
_
ax
1
2
x
2
bx
_
ab
0
=
2
a
2
1
2
(a b)
2
=
_
a b
a
_
2
(mnozitelj 2 dolazi od one druge mogucnosti u kojoj je y lijevo od x).
68 POGLAVLJE 3. MATEMATI

CKA TEORIJA VJEROJATNOSTI


3.7 Teoremi o slucajnim varijablama
Radi jednostavnosti, u nastavku izlaganja cemo se ograniciti na kontinuirane varijable,
a svi rezultati se, pomocu zamjene integriranja zbrajanjem, mogu lako prevesti na jezik
diskretnih varijabli.
Izracunajmo varijancu V ar(X), tj. srednje kvadratno odstupanje X od X
E(X) X =

x (x) dx,
E(X
2
) X
2
=

x
2
(x) dx,
V ar(X) E[(X X )
2
] =

(x X )
2
(x) dx
Pogledajmo cemu je jednako matematicko ocekivanje linearne kombinacije varijabla X i
Y
a
1
X + a
2
Y,
gdje su a
1
i a
2
konstante:
E(a
1
X + a
2
Y ) =

dx

dy (a
1
x + a
2
y) (x, y)
= a
1

x dx

(x, y) dy + a
2

(x, y) dx

y dy.
Gornje cemo ocekivanje izracunati u dva slucaja: kada su X i Y medusobno nezavisne i
kada su medusobno zavisne varijable.
Ako su medusobno nezavisne, tada je, prema pravilu o mnozenju vjerojatnosti, ukupna
vjerojatnost da X poprimi vrijednost iz intervala (x, x +dx) i da Y poprimi vrijednost iz
intervala (y, y + dy) jednaka umnosku vjerojatnosti pojedinih varijabla
d P(x, y) = d P(x) d P(y),
(x, y) dx dy =
X
(x) dx
Y
(y) dy, (3.28)
gdje je
X
(x) gustoca vjerojatnosti varijable X, a
Y
(y) gustoca vjerojatnosti varijable
Y . Zbog normiranja vjerojatnosti (x, y) i pozitivne deniranosti gustoca, slijedi
1 =

(x, y) dx dy

X
(x) dx = 1,

Y
(y) dy = 1.
Vratimo se izrazu za E(a
1
X + a
2
Y )
E(a
1
X + a
2
Y ) = a
1

x
X
(x) dx

Y
(y) dy + a
2

X
(x) dx

y
Y
(y) dy
= a
1
E(X) + a
2
E(Y ).
3.7. TEOREMI O SLU

CAJNIM VARIJABLAMA 69
Pogledajmo sada drugu mogucnost: X i Y nisu nezavisne i ne vrijedi (3.28), tj. (x, y)
se ne moze napisati kao umnozak dvije funkcije od po jedne varijale
X
(x)
Y
(y)
E(a
1
X + a
2
Y ) =

(a
1
x + a
2
y) (x, y) dx dy
= a
1

x (x, y) dx dy + a
2

y (x, y) dx dy
= a
1

x dx

(x, y) dy + a
2

y dy

(x, y) dx.
No, sto dobijemo kada prointegriramo gustocu vjerojatnosti (x, y) po svim mogucim vri-
jednostima y? Dobijemo gustocu vjerojatnosti koja ovisi samo o varijabli x, tj. dobijemo

X
(x)

(x, y) dy =
X
(x).
Slicno, nakon integracije (x, y) po x dobijemo
Y
(y)

(x, y) dx =
Y
(y).
Funkcije
X
(x) i
Y
(y) se zovu marginalne gusto

ce raspodjele. Primjetimo da se
ove funkcije
X
(x) i
Y
(y), odnose na medusobno zavisne varijable X i Y i zato nisu iste
iste kao i funkcije (3.28), iako su, iz razumljivih razloga, jednako oznacene. Ponovo, iz
normiranja (x, y) slijede da su i funkcije
X
(x) i
Y
(y) normirane

X
(x) dx = 1,

Y
(y) dy = 1
Vratimo se izrazu za E(a
1
X + a
2
Y )
E(a
1
X + a
2
Y ) = a
1

x
X
(x) dx + a
2

y
Y
(y) dy = a
1
E(X) + a
2
E(Y ).
Ovime smo dokazali da
E(a
1
X + a
2
Y ) = a
1
E(X) + a
2
E(Y )
vrijedi bez obzira jesu li X i Y medusobno zavisne ili nezavisne slucajne varijable. Iz
izvoda je ocito da vrijedi i poopcenje na proizvoljan broj od N slucajnih varijabla, tj. da
vrijedi
E(a
1
X + a
2
Y + + a
N
Z) = a
1
E(X) + a
2
E(Y ) + + a
N
E(Z), (3.29)
neovisno o tome jesu li X, Y, . . . , Z, medusobno zavisne ili nezavisne varijable.
Vratimo se opet nezavisnim varijablama X i Y , prema (3.28) njihova je gustoca vjero-
jatnosti dana sa
(x, y) dx dy =
X
(x) dx
Y
(y) dy.
70 POGLAVLJE 3. MATEMATI

CKA TEORIJA VJEROJATNOSTI


Izracunajmo matematicko ocekivanje umnoska
9
XY
E(XY ) =

x y (x, y) dx dy
=

x
X
(x) dx

y
Y
(y) dy
= E(X) E(Y ).
Iz izvoda je ocito da vrijedi i popcenje na proizvoljan broj medusobno nezavisnih varijabla
X, Y, . . . , Z,
pri cemu je
E(XY Z) = E(X) E(Y ) E(Z). (3.30)
Gornja tvrdnja nije tocna ako su varijable medusobno zavisne.
Ostanimo i dalje kod nezavisnih varijabla X i Y . Oznacimo s i odstupanja varijabli
od ocekivanih vrijednosti
= X X , = Y Y .
Primjetimo odmah da je
E() = E(X X ) = (3.29) = E(X) E( X ) = X X = 0, (3.31)
E() = E(Y Y ) = (3.29) = E(Y ) E( Y ) = Y Y = 0.
Izracunajmo varijancu linearne kombinacije a + b
V ar(a X + b Y ) = (3.16) = E[(a (X X) + b (Y Y ))
2
] = E[(a + b )
2
]
= E(a
2

2
+ 2 a b + b
2

2
).
Gornji izraz je ocekivanje od linearne kombinacije tri slucajne varijable: prva je X
1
=
2
,
druga je X
2
= i treca je X
3
=
2
. Primjenom (3.29), dobivamo
V ar(a X + b Y ) = a
2
E(
2
) + 2 a b E( ) + b
2
E(
2
).
U (3.30) smo pokazali da je za nezavisne varijable
E( ) = (3.30) = E()E() = (3.31) = 0,
pa preostaje
V ar(a X + b Y ) = a
2
E(
2
) + b
2
E(
2
) = a
2
V ar(X) + b
2
V ar(Y ).
Iz izvoda je ocito da vrijedi i poopcenje na N medusobno nezavisnih varijabli X
j
V ar(a
1
X
1
+ a
2
X
2
+ + a
N
X
N
) = a
2
1
V ar(X
1
) + a
2
2
V ar(X
2
) + + a
2
N
V ar(X
N
).
(3.32)
9
Izrazi ovog oblika se mogu povezati s razlicitim vrstanma korelacijskih funkcija.
3.8. PREOBRAZBA VARIJABLE 71
3.8 Preobrazba varijable
U ovom cemo odjeljku rijesiti problem cije su pretpostavke slijedece: zadana je kon-
tinuirana slucajna varijabla X koja prima vrijednosti iz intervala (a, b) s poznatom
raspodjelom gustoce vjerojatnosti (X); isto tako je zadana i funkcija (preslikavanje)
X Y = f(X). Zadatak
10
je
na

ci gusto

cu vjerojatnosti = (Y ) za ovu novu varijablu Y


i njezinu funkciju raspodjele G = G(Y ).
Za Y = f(X) odabiremo realnu jednozna

cnu funkciju cija je domena ogranicena s


c = f(a) i d = f(b).

b
a
(x) dx = 1 ,

d
c
(y) dy = 1,

x
0
a
(x) dx = F(x
0
) ,

y
0
c
(y) dy = G(y
0
),
(x) =
d F(x)
d x
, (x) =
d G(y)
d y
.
(1) Pretpostavimo, za pocetak, da je f monotono rastu

ca funkcija, pri cemu je


f(a) = c < d = f(b) uz a < b.
U tom slucaju, iz a < x
0
slijedi f(a) = c < y
0
= f(x
0
). To znaci da ce se vjerojatnost
P(a < X < x
0
) da je X vece od a i manje od x
0
, preslikati u vjerojatnost P(c < Y < y
0
)
da je Y vece od c i manje od y
0
. Napisano preko funkcije raspodjele, to znaci da je (slika
3.9.A), F(x
0
) = G(y
0
). No, buduci da to vrijedi za bilo koji x
0
, tj. y
0
, mozemo napisati i
F(x) = G(y).
Prema (3.27) je i
(y) =
d G(y)
d y
=
d F(x)
d y
=
d F(x)
d x
d x
d y
= (x)
d x
d y
.
10
Jedan primjer ovog postupka iz statisticke zike je veza medu raspodjelama brzine v i energije E cestica idealnog plina:
X v, Y = E, F(X) = mX
2
/2.
72 POGLAVLJE 3. MATEMATI

CKA TEORIJA VJEROJATNOSTI


Slika 3.9: Funkcije raspodjela F(x) i G(y), u slucaju kada je f(x): (A) monotono rastuca i (B) monotono
opadajuca funkcija.
Time je dobivena trazena veza medu funkcijama raspodjela
(y) = (x)
d x
d y
. (3.33)
Za monotono rastucu funkciju y = f(x), gornja je derivacija uvijek pozitivna, (x) je
pozitivno po deniciji, pa zakljucujemo da je i (y) uvijek pozitivno kao sto i mora biti s
obzirom da predstavlja gustocu vjerojatnosti.
(2) Neka je sada Y = f(X) monotono opadajuca funkcija od x, kao na slici 3.9.B
f(a) = c > d = f(b) uz a < b.
U tom slucaju iz a < x
0
slijedi c = f(a) > y
0
= f(x
0
). To znaci da je vjerojatnost
3.8. PREOBRAZBA VARIJABLE 73
da varijabla X poprimi vrijednost izmedu a i x
0
, jednaka vjerojatnosti da varijabla Y
poprimi vrijednosti izmedu c i y
0
. Pomocu funkcija raspodjele, to mozemo napisati kao
F(x
0
) = 1 G(y
0
). Buduci da ova relacija vrijedi za sve x
0
i y
0
, moze se napisati i kao
G(y) = 1 F(x).
Iz ovoga neposredno slijedi
(y) =
d G(y)
d y
=
d F(x)
d y
=
d F(x)
d x
d x
d y
= (x)
d x
d y
.
No, ako je Y = f(X) monotono opadajuca funkcija, tada je i dx/dy < 0, pa gornja veza
zapravo glasi
(y) = (x)

d x
d y

(3.34)
i opet je (y) ima samo pozitivne vrijednosti. Usporedbom s (3.33), vidimo da gornji
izraz vrijedi i za monotono opadajuce, kao i za monotono rastuce funkcije Y = f(X).
Ukoliko f nije monotona funkcija, onda je ona monotona po svojim dijelovima, a na svaki
taj dio se primjenjuju gornja razmatranja, takao da veza (3.34) izmedu i vrijedi za
svaku f(X) (a ne samo za monotonu).
U dosadasnjim racunima smo se susretali s velicinama kao sto su X i X
2
. Opcenito
se
X
k
=

x
k
(x) dx
naziva k-ti moment raspodjele varijable X.
Sada, kada znamo vezu izmedu gustoca vjerojatnosti (x) i (y), zanima nas kako izracunati
momenate slucajne varijable Y , preko gustoce raspodjele varijable X. Krenimo od de-
nicije k-tog momenta varijable y, uz pretpostavku da je f monotono rastuca funkcija
Y
k
=

d
c
y
k
(y) dy,
koja, posredstvom veza,
y|
d
c
= f(x|
b
a
), (y) = (x)
d x
d y
,
prelazi u
Y
k
=

b
a
f(x)
k
(x)
d x
d y
dy,
=

b
a
f(x)
k
(x) dx.
74 POGLAVLJE 3. MATEMATI

CKA TEORIJA VJEROJATNOSTI


Posebno, za k = 1, dobiva se ocekivanje (prosjecna vrijednost) varijable Y
E(Y ) Y =

b
a
f(x) (x) dx.
Slican je postupak i kada je f monotono opadajuca funkcija.
Primjer: 3.14 Promatramo kontinuiranu varijablu X koja poprima vrijednosti iz inter-
vala x (0, 4) i cija je raspodjela gustoce vjerojatnosti dana sa (x) = x/8.
Nova varijabla Y je povezana sa X relacijom Y = f(X) = 3X + 2. Treba
izracunati funkciju raspodjele gustoce vjerojatnosti varijable Y .
R: Ako je podrucje vrijednosti varijable X interval (0, 4), tada varijabla
Y poprima vrijednosti u intervalu (2, 14). Funkcija f je monotona, pa je zato
(y) = (x)
d x
d y
=
x
8
1
3
=
1
24
y 2
3
=
y 2
72
.
Provjerim oda je (y) normirana na jedinicu

14
2
(y) dy =
1
72

14
2
(y 2) dy =
1
72
_
y
2
2
2y
_
14
2
=
1
72
_
14
2
2
2
2
2(14 2)
_
= 1.
Poglavlje 4
Korelacijske funkcije
4.1 Uvod
75
76 POGLAVLJE 4. KORELACIJSKE FUNKCIJE
Poglavlje 5
Metoda najmanjih kvadrata
Pretpostavimo da je postavljen pokus kojim se zeli mjeriti neka zikalna velicina koju
cemo oznaciti s X. Izvodi se N pokusa koji daju niz eksperimentalnih vrijednosti
x
1
, x
2
, , x
N
.
Uslijed gresaka pri mjerenju (koje mogu biti grube, sustavne i slucajne), rezultati mjere-
nja se razlikuju medusobno i razlikuju se od prave, ali nepoznate vrijednosti X. Pret-
postavimo da smo pazljivim postavljanjem i izvedbom pokusa, eliminirali grube greske.
Sustavne su greske dio samog pokusa i one se mogu eliminirati (ili bar smanjiti) tako da se
ista velicina mjeri kroz vise razlicitih pokusa kod kojih ocekujemo da ce te sustavne greske
biti razlicitih predznaka. Ako konacnu vrijednost za X racunamo kao srednju vrijednost
rezultata dobivenih ovim raznim pokusima, ocekujemo da ce sustavna greska biti manja
nego da smo izveli samo jednu vrstu pokusa. Nakon ovoga nam ostaju samo slucajne
greske i njihovom analizom cemo se baviti u ostatku ovog poglavlja.
Glavno pitanje na koje cemo odgovoriti u ovom odjeljku jeste:
kako odrediti X vode

ci ra

cuna o slu

cajnim gre

skama?

Citatelj ce zacijelo pomisliti kako je odgovor na ovo pitanje vrlo jednostavan: X cemo
odrediti tako sto cemo pomocu x
n
izracunati obicnu aritmeticku sredinu i ta aritmeticka
sredina je nas X. To je, naravno, i tocan odgovor, ali u ovom odjeljku zelimo objasniti
i nesto vise: zelimo objasniti za

sto je to tocan odgovor. Od x


n
smo mogli izracunati
harmonijsku ili geometrijsku srednju vrijednost ili neku trecu, manje-vise proizvoljnu,
vrijednost. Kako znamo da je bas aritmeticka sredina pravi odgovor? Kada bismo znali
pravu vrijednost X, mogli bismo izracunati sve navedene srednje vrijednosti i naprosto
pogledati koja je od njih najbliza X. Buduci da mi ne znamo pravu vrijednost X, nikada
necemo ni znati koliko je vrijednost koju dobijemo analizom eksperimenatlnih podataka
x
n
blizu toj pravoj nepoznatoj vrijednosti X. Zato moramo poci drugim putem. Kada
kazemo da nikada necemo znati je li vrijednost dobivena iz x
n
jednaka pravoj X, to znaci
da necemo znati sa sto postotnom sigurnoscu. Umjesto toga, najvise sto se moze postici
jeste da se, uz dane uvjete, nade vrijednost koja je vjerojatno najbli

za pravoj vri-
jednosti X. Kljucno je da se ovdje radi o vjerojatnosti. Velicina X nam je nepoznata i
najvise sto nam pokus moze dati jeste da ocjenimo kolika je njezina najvjerojatnija vri-
jednost.
77
78 POGLAVLJE 5. NAJMANJI KVADRATI
Ovaj je problem rijesio Carl Friedrich Gauss (1777 - 1855) godine 1809.
Osnovna pretpostavka od koje je krenuo (i koja ce se na kraju pokazati
opravdanom) jeste da je aritmeti

cka sredina X dobivena iz svih N


mjerenja
X =
x
1
+ x
2
+ + x
N
N
. (5.1)
najvjerojatnije najbliza pravoj vrijednosti X. Zapocnimo ovu analizu tako
sto cemo uociti dvije vrste gresaka:
prave greske
n

n
= X x
n
, n = 1, 2, 3, , N, (5.2)
koje su nam nepoznate, jer nam je nepoznat X, pa ne mozemo izvrijedniti desne strane, i
prividne greske v
n
v
n
= X x
n
, n = 1, 2, 3, , N,
koje su nam poznate, jer znamo X , pa mozemo izvrijedniti desne strane. Zbrajanjem
gornjih jednadzba vidimo da je zbroj svih prividnih gresaka jednak nuli
v
1
+ v
2
+ + v
N
= NX (x
1
+ x
2
+ + x
N
) = (5.1) = 0. (5.3)
Rezultati svih N ponovljenih pokusa su medusobno neovisni, pa se zato x
n
mogu smatrati
kontinuiranim nezavisnim slucajnim varijablama. U tom se slucaju postavlja pitanje: ko-
lika je vjerojatnost da se pojavi prividna greska v
n
ili, malo preciznije,
kolika je vjerojatnost da v
n
poprimi vrijednost iz intervala (v
n
, v
n
+ dx
n
)?
Uvede li se raspodjela gustoce vjerojatnosti
n
, ta se vjerojatnost moze napisati kao
dP
n
=
n
(v
n
)dx
n
. (5.4)
Nadalje, pitamo se kolika je vjerojatnost da u prvom pokusu prividna greska bude v
1
,
u drugom v
2
itd. sve do N-tog mjerenja s greskom v
N
. Prema pravilu o mnozenju
vjerojatnosti koje vrijedi za medusobno neovisne dogadaje, ta je vjerojatnost dP
uk
jednaka
umnosku pojedinih vjerojatnosti
dP
uk

uk
dx
1
dx
2
. . . dx
N
dP
1
dP
2
. . . dP
N
=
1
(v
1
)dx
1

2
(v
2
)dx
2
. . .
N
(v
N
)dx
N
.
Buduci da su svi x
n
dobiveni istim pokusom i njihove ce gustoce vjerojatnosti biti iste

1
=
2
= . . . =
N
.
Usporedbom gornjih izraza zakljucujemo da je ukupna gustoca vjerojatnosti

uk
(X ) = (v
1
) (v
2
) . . . (v
N
) = (X x
1
) (X x
2
) . . . (X x
N
). (5.5)
Gornji izraz mozemo shvatiti kao vrijednost funkcije

uk
(x) (x x
1
) (x x
2
) . . . (x x
N
)
79
u tocki x = X . Tada, prema polaznoj pretpostavci da je X najvjerojatnija vrijednost
X, mora
uk
(x) imati maksimum u toj istoj tocki, tj. mora biti
d
uk
(x)
d x

x=X
= 0.
Da bismo si pojednostavili racun i umjesto derivacije gornjeg umnoska, dobili derivaciju
zbroja, umjesto
uk
promatrat cemo ln
uk
. To smijemo napraviti jer, zbog monotonosti
logaritamske funkcije i
uk
i ln
uk
imaju ekstreme na istim mjestima
ln
uk
(x) = ln (x x
1
) + ln (x x
2
) + + ln (x x
N
),

uk
(x)

uk
(x)

x=X
=

(X x
1
)
(X x
1
)
+

(X x
2
)
(X x
2
)
+ +

(X x
N
)
(X x
N
)
= 0.
Vratimo li se zapisu preko prividnih pogresaka, uvjet maksimuma je

(v
1
)
(v
1
)
+

(v
2
)
(v
2
)
+ +

(v
N
)
(v
N
)
= 0
Cijeli gornji izraz je izgraden od clanova istog oblika koji cemo oznaciti s f
f(v)

(v)
(v)
,
pa je uvjet ekstrema
f(v
1
) + f(v
2
) + + f(v
N
) = 0.
Da bismo nasli f treba krenuti od najjednostavnijeg slucaja N = 2. Tada gornji uvjet,
zajedno sa (5.3) glasi
f(v
1
) + f(v
2
) = 0, v
1
+ v
2
= 0.
Ako pomocu druge od gornjih jednadzba eliminiramo v
2
, dobivamo
f(v
1
) + f(v
1
) = 0 f(v
1
) = f(v
1
),
tj. f je neparna funkcija. Za opci N je
f(v
1
) + f(v
2
) + + f(v
N
) = 0,
v
1
+ v
2
+ + v
N
= 0.
Iz ove dvije jednadzbe slijedi
f(v
N
) = f(v
1
) f(v
2
) f(v
N1
),
f(v
1
v
2
v
N1
) = f(v
1
) f(v
2
) f(v
N1
)
Primjenom svojstva neparnosti f na lijevu stranu gornje jednadzbe
f(v
1
+ v
2
+ + v
N1
) = f(v
1
) f(v
2
) f(v
N1
),
f(v
1
+ v
2
+ + v
N1
) = f(v
1
) + f(v
2
) + + f(v
N1
).
Ovo gore je jedna funkcionalna jednad

zba za nepoznatu funkciju f. Lako je uvjeriti


se da je njezino rjesenje
f(v
n
) = c v
n
, c = const.
80 POGLAVLJE 5. NAJMANJI KVADRATI
Sjetimo se sada sto f zapravo oznacava
f(v
n
)

(v
n
)
(v
n
)
= c v
n
.
Izravnom integracijom gornje diferencijalne jednadzbe slijedi
ln (v
n
) = c
v
2
n
2
+ const.,
(v
n
) = C e
1
2
cv
2
n
, c, C = const.
Buduci da vjerojatnost velikih gresaka mora biti manja od vjerojatnosti malih gresaka,
to konstanta c/2 mora biti negativna. Nazovimo ju a
2
(za realni a)
(v
n
) = C e
a
2
v
2
n
.
Preostalu konstantu C odredujemo iz uvjeta normiranja gustoce vjerojatnosti

(v
N
) dv
n
= 1 = C

e
a
2
v
2
n
dv
n
= C

a
,
iz cega zakljucujemo da je C = a/

i
(v
n
) =
a

e
a
2
v
2
n
. (5.6)
Velicina a ovisi o tocnosti mjerenja i naziva se mjera preciznosti. Vjerojatnost da se
u N mjerenja naprave greske v
1
, v
2
, , v
N
je, prema (5.5) i (5.6), jednaka

uk
= (v
1
) (v
2
) . . . (v
N
) =
_
a

_
N
e
a
2
(v
2
1
+v
2
2
++v
2
N
)
.
Iz gornjeg izraza vidimo da najvecu vjerojatnost imaju one pogreske za koje je
v
2
1
+ v
2
2
+ + v
2
N
najmanji, To je cinjenica od koje i potjece naziv ove metode. Pokazimo da je gornji izraz
najmanji upravo onda kada je x = X . Nazovimo
= (x x
1
)
2
+ (x x
2
)
2
+ + (x x
N
)
2
i potrazimo njegov minimum

x
= 0 = 2(x x
1
) + 2(x x
2
) + + 2(x x
N
)
0 = Nx (x
1
+ x
2
+ + x
N
)
x =
x
1
+ x
2
+ + x
N
N
= X ,
a to je upravo ono sto je pretpostavljeno na pocetku. Time je pokazano da je obicna
aritmeti

cka sredina najvjerojatnije (u smislu najmanjeg kvadratnog od-


stupanja) najbli

za pravoj i nepoznatoj vrijednosti X.


Poglavlje 6
Teorija gresaka
6.1 Izravnanje direktnih opazanja jednake tocnosti
U ovom odjeljku nastavljamo analizu rezultata mjerenja iz prethodnog odjeljka. Prisje-
timo se: izvodi se pokus kojim se mjeri velicina X, pokus se izvodi N puta i za vrijednost
velicine X se dobije niz brojeva
x
1
, x
2
, , x
N
.
U prethodnom je odjeljku pokazano da je
X =
x
1
+ x
2
+ + x
N
N
.
vrijednost koja je najvjerojatnije najbliza pravoj vrijednosti X. Ovo najvjerojatnije
znaci da je to vrijednost za koju je zbroj kvadrata odstupanja X od x
n
minimalan
v
n
= X x
n
,
N

n=1
v
2
n
= min.
Relacijom (5.2) smo uveli prave greske kao razliku prave (ali nepoznate) velicine X i
izmjerenih vrijednosti x
n

n
= X x
n
, n = 1, 2, , N. (6.1)
Buduci da ne znamo pravu vrijednost X, nepoznate su nam i vrijednosti za
n
. Znamo
jedino to da
n
mogu biti i pozitivne i negativne realne vrijednosti. Buduci da nas ne
zanima je li greska pozitivna ili negativna, nego nas zanima samo njezin iznos, zelimo
eliminirati predznak greske. To je najjednostavnije napraviti tako da da se promatra
kvadrat greske
N

n=1

2
n
.
Gornji izraz mjeri ukupnu gresku svih N mjerenja. Da bismo dobili velicinu koja se odnosi
na pojedino mjerenje, gornji cemo izraz podijeliti s ukupnim brojem mjerenja N.
m
2
=
1
N
N

n=1

2
n
. (6.2)
81
82 POGLAVLJE 6. TEORIJA GRE

SAKA
Tako smo dobili velicinu (koju takoder ne znamo izracunati) koja se naziva srednja
gre

ska pojedinog mjerenja. Ovu je velicinu uveo Gauss kao osnovnu velicinu za ocjenu
greske jednog niza mjerenja. Ona karakterizira tocnost kojom je izvrseno svako pojedino
od N mjerenja. Gornjom je jednadzbom srednja greska denirana kroz svoj kvadrat, kako
bi bila iste dimenzije kao i sama mjerena velicina X. Primjetimo jos i da pomocu gornjeg
izraza ne mozemo racunati m jer nam je nepoznata desna strana, ali cemo od ovog izraza
imati koristi kasnije kod racuna (6.12).
6.1.1 Greska funkcije
Sada je pred nama slijedeci zadatak: neka se, radi opcenitosti, izravno mjeri nekoliko
velicina X, Y, Z, , koje cak i ne moraju biti mjerene u istom pokusu, tako da se
njihov ukupan broj N, M, L, , moze razlikovati, kao sto se mogu razlikovati i njihove
tocnosti m
x
, m
y
, m
z
,
X x
n
m
x
n = 1, 2, , N
Y y
m
m
y
m = 1, 2, , M
Z z
l
m
z
l = 1, 2, , L
.
.
.
Ako od ovih velicina napravimo funkciju, vrijednosti te funkcije ce sadrzavati gresku koja
potjece od gresaka x
n
, y
m
, z
l
, .
f(X, Y, Z, ) f(x
n
, y
m
, z
l
, )
Sada se postavlja pitanje:
kako izra

cunati gre

sku od f
ako pretpostavimo da znamo greske od x
n
, y
m
, z
l
, i funkcijsku ovisnost f? Odgovor
cemo naci postupno, razmatrajuci dvije jednostavne funkcije sa jednom ili dvije varijable:
(a) f(X) = a X + b, a, b = const.,
(b) f(X, Y ) = a
0
+ a
x
X + a
y
Y, a
0
, a
x
, a
y
= const.
Sve konstante smatramo poznatim (zadanim)
1
.
(a) Neka se X mjeri N puta i time se dobije niz x
n
za n = 1, 2, 3, , N. Prava vrijednost
funkcije je
f(X) = a X + b,
a umjesto toga, mi mjerenjem dobijemo niz pogresnih vrijednosti
f(x
n
) = a x
n
+ b.
1
Primjetimo takoder i da a
y
moze biti negativno, pa primjer (b) opisuje i zbroj i razliku svoja dva clana.
6.1. IZRAVNANJE DIREKTNIH OPA

ZANJA JEDNAKE TO

CNOSTI 83
U skladu s denicijom (6.1), prava greska funkcije, f
n
, je
f
n
= f(X) f(x
n
) = a (X x
n
) = a
n
.
Oznacimo s M
2
f
varijancu funkcije. Prema deniciji varijance (3.17), ona je jednaka zbroju
kvadrata pravih gresaka podijeljena s brojem mjerenja
M
2
f
=
1
N
N

n=1
( f
n
)
2
=
1
N
N

n=1
(a
n
)
2
= a
2
1
N
N

n=1

2
n
= a
2
m
2
M
f
= a m.
To je trazena veza izmedu greske funkcije M
f
i greske same mjerene velicine m.
(b) Sada promatramo funkciju dvije varijable f(X, Y ). Neka je X izmjeren N puta, a Y
neka je izmjeren M puta. Treba izracunati varijancu funkcije
f(X, Y ) = a
0
+ a
x
X + a
y
Y. (6.3)
Za izracun funkcije f mozemo koristiti bilo koji par mjerenih vrijednosti x
n
i y
m
(za
n = 1, 2, 3, , N i m = 1, 2, 3, , M) i tako dobiti za gresku funkcije
f
n,m
= f(X, Y )f(x
n
, y
m
) = a
0
+a
x
X+a
y
Y (a
0
+a
x
x
n
+a
y
y
m
) = a
x

x,n
+a
y

y,m
.
(6.4)
za sve moguce kombinacije n i m. Takvih kombinacija ima sve skupa N M i prikazane
su donjom tablicom

x,1
;
y,1

x,1
;
y,2

x,1
;
y,M

x,2
;
y,1

x,2
;
y,2

x,2
;
y,M
.
.
.
.
.
.
.
.
.
.
.
.

x,N
;
y,1

x,N
;
y,2

x,N
;
y,M
Oznacimo opet s M
2
f
varijancu funkcije
M
2
f
=

N
n=1

M
m=1
( f
n,m
)
2
N M
=

N
n=1

M
m=1
(a
x

x,n
+ a
y

y,m
)
2
N M
=
M a
2
x

N
n=1

2
x,n
+ N a
2
y

M
m=1

2
y,m
+ 2 a
x
a
y
_

N
n=1

x,n
__

M
m=1

y,m
_
N M
Zbrojevi
N

n=1

2
x,n
,
M

m=1

2
y,m
sadrze samo pozitivne pribrojnike, pa su zato puno veci od zbrojeva
N

n=1

x,n
,
M

m=1

y,m
84 POGLAVLJE 6. TEORIJA GRE

SAKA
koji sadrze i pozitivne i negativne pribrojnike. Zato cemo ova posljednja dva zbroja
zanemariti u daljem racunu
M
2
f

M a
2
x

N
n=1

2
x,n
+ N a
2
y

M
m=1

2
y,m
N M
= a
2
x

N
n=1

2
x,n
N
+ a
2
y

M
m=1

2
y,m
M
= a
2
x
m
2
X
+ a
2
y
m
2
Y
. (6.5)
Poopcenjem gornjeg postupka na funkciju vise varijabli je ocito
f(X
1
, X
2
, , X
k
) = a
0
+ a
1
X
1
+ a
2
X
2
+ + a
k
X
k
,
M
2
f
= a
2
1
m
2
X
1
+ a
2
2
m
2
X
2
+ + a
2
k
m
2
X
k
. (6.6)
Nakon analize jednostavnih funkcija iz (a) i (b), mozemo prijeci i na analizu gresaka bilo
koje op

ce funkcije
f = f(X, Y, ) = f(x
n
+
x,n
, y
m
+
y,m
, ). (6.7)
Ocekujemo da su pogreske male, pa zato gornju funkciju mozemo razviti u Taylorov red
2
po malim velicinama i zadrzati se na linearnim clanovima razvoja
f(X, Y, ) = f(x
n
, y
m
, ) +
x,n
f
X

X=X
+
y,m
f
Y

Y =Y
+O(
2
).
S O(
2
) su oznaceni svi oni clanovi Taylorovog razvoja koji su srazmjerni drugoj i ostalim
visim potencijama
x
i/ili
y
. Ovi su epsiloni po pretpostavci male velicine pa su njihovi
kvadrati i ostale vise potencije jos manje velicine od samih epsilona i zato ih zanemarujemo
u daljem racunu. No, gornji je izraz istog oblika kao i (6.4), uz a
0
= 0, pri cemu su
konstante a
x
, a
y
, dane odgovarajucim parcijalnim derivacijama
a
x
=
f
X

X=X
, a
y
=
f
Y

Y =Y
, .
Prema (6.6), standardna devijacija funkcije je jednaka
M
f
=

_
f
X

X=X
m
X
_
2
+
_
f
Y

Y =Y
m
Y
_
2
+ .
(6.8)
Gornji izraz se zove zakon rasprostiranja gre

saka. Pomocu ovog izraza moze se


odrediti maksimalna dozvoljena velicina greske mjerenih velicina. Ovo je vazno kod plani-
ranja pokusa jer tako mozemo unaprijed zakljuciti kojom metodom treba vrsiti mjerenja.
Pretpostavit cemo da su greske svih mjerenih velicina jednake (nacelo jednakog djelovanja
gresaka)

f
X
m
X

f
Y
m
Y

=
2
vrijednosti derivacija racunamo ili u X , y , ili u nekoj drugoj karakteristicnoj vrijednosti - ovaj izbor ne utjece puno
na konacni rezultat
6.1. IZRAVNANJE DIREKTNIH OPA

ZANJA JEDNAKE TO

CNOSTI 85
Iz gornjeg izraza slijedi zakljucak da je mjerenje potrebno izvesti tako da se greske mjerenja
pojedinih velicina odnose jedna prema drugoj na isti nacin kako se odnose i reciprocne
vrijednosti derivacija funkcija po tim istim velicinama
m
X
: m
Y
: =

f
X

1
:

f
Y

1
: (6.9)
Pojasnimo to na jednom primjeru:
Primjer: 6.1 Valna duljina svjetlosti, , se moze izracunati i pomocu Fresnelovih pruga
interferencije, formulom
=
a d
D
,
gdje su: a je razmak medu koherentnim izvorima svjetlosti, d razmak medu
susjednim interferentnim prugama, D je razmak od izvora do zaslona na kome
se promatraju pruge. Razmak d se mjeri s tocnoscu od 10
3
cm. Odredite s
kojom najmanjom tocnoscu treba mjeriti a i D, ako je pocetnim mjerenjem
a, d i D dobiven njihov red velicina
a = 0.5 cm, d = 0.02 cm, D = 160 cm.
R: Izracunajmo odgovarajuce derivacije

a
=
d
D
= 1 200 10
7
,

d
=
a
D
= 32 000 10
7
,

=
a d
D
2
= 4 10
7
.
Prema (6.9) zakljucujemo da se omjeri gresaka pojedinih mjernih velicina tre-
baju odnositi kao
m
a
: m
d
: m
D
=
1
1 200
:
1
32 000
:
1
4
= 27 : 1 : 8 000.
Postavljenom aparaturom, d se moze mjeriti s greskom reda velicine m
d

0.001 cm. Pomocu ovoga i gornjeg omjera, slijedi
m
d
10
3
cm 1,
m
a
= 27 10
3
cm = 0.027 cm,
m
D
= 8 000 10
3
cm = 8 cm.
Dakle, razmak izmedu izvora i zaslona je dovoljno mjeriti s tocnoscu od desetak
centimetara, a razmak medu izvorima s tocnoscu od trecine milimetra.
86 POGLAVLJE 6. TEORIJA GRE

SAKA
6.1.2 Standardna devijacija aritmeticke sredine
U proslom smo odijeljku pokazali da je aritmeticka sredina najvjerojatnije najbliza nepoz-
natoj pravoj vrijednosti mjerene velicine X. Sada si mozemo postaviti pitanje o tocnosti
te procjene:
Kako ocijeniti to

cnost aritmeti

cke sredine X ?
Uvedimo gresku aritmeticke sredine M
X
kao razliku izmedu (pravog ali nepoznatog) X i
aritmeticke sredine X koja je dobivena iz niza od N mjerenja x
n
X = X + M
X
,
X x
n
= X x
n
+ M
X
,

n
= v
n
+ M
X
.
Kvadriranjem gornjeg izraza, a zatim zbrajanjem po n = 1, 2, , N, slijedi
N

n=1

2
n
=
N

n=1
v
2
n
+ 2M
X
N

n=1
v
n
. .
= 0
+N M
2
X
,
1
N
N

n=1

2
n
=
1
N
N

n=1
v
2
n
+ M
2
X
,
m
2
=
1
N
N

n=1
v
2
n
+ M
2
X
. (6.10)
Pogledajmo sada sto mozemo reci o drugom clanu desne strane. Aritmeticka sredina X
je denirana kao
X =
x
1
+ x
2
+ + x
N
N
,
sto znaci da greska od X , ovisi o greskama mjerenih vrijednosti x
n
. Relacijom (6.2)
smo uveli m kao prosjecnu srednju gresku svakoga x
n
. Shvatimo li X kao funkciju
f(X
1
, X
2
, , X
N
)
X f(X
1
, X
2
, , X
N
) =
X
1
+ X
2
+ + X
N
N
,
tada je varijanca funkcije f X dana zakonom o rasprostiranju gresaka (6.8),
M
2
X
=
_
X
x
1

x
1
=X
m
_
2
+
_
X
x
2

x
2
=X
m
_
2
+ +
_
X
x
N

x
N
=X
m
_
2
= N
_
1
N
m
_
2
=
m
2
N
. (6.11)
6.1. IZRAVNANJE DIREKTNIH OPA

ZANJA JEDNAKE TO

CNOSTI 87
Uvrsti li se gornji izraz u (6.10), slijedi jednadzba za odredivanje m
2
m
2
=
1
N
N

n=1
v
2
n
+ M
2
X
=
1
N
N

n=1
v
2
n
+
m
2
N
=
1
N 1
N

n=1
v
2
n
. (6.12)
Za razliku od (6.2), desnu stranu gornjeg izraza mozemo izracunati i tako dobiti ocjenu
srednje greske pojedinog mjerenja. Pomocu gornjeg izraza i (6.11) dobivamo M
2
X
= m
2
/N
M
2
X
=
1
N(N 1)
N

n=1
v
2
n
. (6.13)
Gornji izraz nam daje granice unutar kojih se nalazi prava vrijednost velicine X u obliku
X M
X
< X < X + M
X
ili
X


N
n=1
v
2
n
N(N 1)
< X < X +


N
n=1
v
2
n
N(N 1)
.
Kako je M
X
zadano preko kvadrata gresaka, ono je po svom znacenju slicno standardnoj
devijaciji, pa prema (3.18), mozemo reci da je vjerojatnost da se X zaista i nalazi unutar
gornjih granica, jednaka oko 68% i slicno za granice dane sa 2 M
X
i 3 M
X
X M
X
< X < X + M
X
68 %,
X 2 M
X
< X < X + 2 M
X
95 %,
X 3 M
X
< X < X + 3 M
X
99 %.
Buduci da izvod nije egzaktan, gornji rezultati su samo priblizni. Velicina M
2
se moze
povezati i s analizom iz prethodnog odjeljka, gdje smo dobili da je vjerojatnost pogreske
srazmjerna Gaussovoj funkciji (5.6). Prema tome slijedi
M
2
=

v
2
e
a
2
v
2
dv = =
1
2 a
2
.
Ovime je konstanta a iz Gaussove raspodjele, povezana sa srednjom greskom.
Primjer: 6.2 Kut je mjeren sest puta i dobivene su slijedece vrijednosti:

1
= 34
0
45

52

2
= 34
0
45

47

3
= 34
0
45

23

4
= 34
0
45

39

5
= 34
0
45

41

6
= 34
0
45

53

.
88 POGLAVLJE 6. TEORIJA GRE

SAKA
Treba naci najvjerojatniju vrijednost kuta i pridruzenu ocjenu greske.
R: Aritmeticka sredina je
=

1
+
2
+
3
+
4
+
5
+
6
6
= = 34
0
45

42.5

.
Prividne greske su
v
1
=
1
= 9.5

,
v
2
=
2
= 4.5

,
v
3
=
3
= +19.5

,
v
4
=
4
= + 3.5

,
v
5
=
5
= + 1.5

,
v
6
=
6
= 10.5

.
Odatle je
6

n=1
v
2
n
= 615.5

,
m =

N
n=1
v
2
n
N 1
=

615.5

5
= 11.1

,
M


N
n=1
v
2
n
N(N 1)
=

615.5

30
= 4.5

.
Dakle, s vjerojatnoscu od 68%, mozemo tvrditi da se prava vrijednost kuta
nalazi u slijedecim granicama
= M

,
= 34
0
45

42.5

4.5

.
Pogreska svakog pojedinog mjerenja je 11.1

.
Vratimo se izrazu (6.11)
M
X
=
m

N
iz kojega se vidi da standardna devijacija aritmeticke sredine ovisi o broju mjerenja tako
da se ona smanjuje (tj. rezultat postaje to

cniji) s porastom broja mjerenja


N.

Zelimo vidjeti koliko mjerenja treba obaviti, pa da dobitak u tocnosti bude srazmjeran
ulozenom trudu za izvodenje velikog broja mjerenja? Na slici 6.1 vidimo ovisnost M
X
o broju mjerenja N. Primjecujemo da je funkcija prilicno strma do nekih N = 10, dok
poslije toga srazmjerno sporo opada. To znaci da cemo s nekih desetak mjerenja znatno
utjecati na porast tocnosti rezultata, dok ce dalje povecanje broja mjerenja tek malo
povecati tocnost (za dalji porat tocnosti, treba smanjivati m, tj. povecati tocnost samog
postupka mjerenja - metode i opreme.).
6.2. IZRAVNANJE DIREKTNIH OPA

ZANJA RAZLI

CITE TO

CNOSTI 89
Slika 6.1: Koliko mjerenja treba obaviti, pa da dobitak u tocnosti bude srazmjeran ulozenom trudu za
izvodenje mjerenja?.
10 20 30 40 50 60 70 80
N
0
0.2
0.4
0.6
0.8
1
M


x



/

m


6.2 Izravnanje direktnih opazanja razlicite tocnosti
U prethodnom smo odjeljku presutno pretpostavili da su sve vrijednosti x
n
mjerene jed-
nakom tocnoscu. To ne mora biti tocno, jedno mjerenje moze biti izvrseno s vecom ili
manjom greskom neko neko drugo mjerenje (npr. istu velicinu mjere razlicite osobe ili ista
osoba izvodi mjerenja u razlicito doba dana ili godine i slicno). Da bismo to uzeli u obzir
pri racunu greske, svakoj se mjerenoj vrijednosti pridruzuje njezina tezina t
n
. Npr. ako
smo istu vrijednost mjerili t
n
puta, tada je to tezina toga mjerenja. S X
n
oznacavamo
aritmeticku sredinu svih t
n
mjerenja,
X
n
=
x
n,1
+ x
n,2
+ + x
n,t
n
t
n
=

t
n
j=1
x
n,j
t
n
.
Velicine x
n,j
se nazivaju elementarna mjeranja. Pretpostavlja se da su sva elementarna
mjerenja, za neki ksni n, obavljana s istom tocnoscu, pa se na njih moze primjeniti
analiza iz prethodnog odjeljka. Ukupan broj svih izvrsenih elementarnih mjerenja je
t
1
+ t
2
+ + t
N
, pa je ukupna artimeticka sredina X jednaka
X =
(x
1,1
+ x
1,2
+ + x
1,t
1
) + (x
2,1
+ x
2,2
+ + x
2,t
2
) + + (x
N,1
+ x
N,2
+ + x
N,t
N
)
t
1
+ t
2
+ + t
N
=
t
1
X
1
+ t
2
X
2
+ + t
N
X
N
t
1
+ t
2
+ + t
N
Pogledajmo sada sto je s greskama. Neka je srednja greska svakog elementarnog mjerenja
(opazanja). Pitanje je: kolika je srednja greska m
n
pridruzena X
n
? Prema (??) iz
prethodnog odjeljka, znamo da je
m
2
n
=

2
t
n
.
90 POGLAVLJE 6. TEORIJA GRE

SAKA
Gresku od X racunamo tako da X napisemo u obliku
X =
x
1,1
t
1
+ t
2
+ + t
N
+
x
1,2
t
1
+ t
2
+ + t
N
+ +
x
N,t
N
t
1
+ t
2
+ + t
N
Greska svakog pojedinog cana u gornjem zbroju je jednaka /

N
n=1
t
n
, pa je prema (6.8),
greska od X
m
2
X
=
_
N

n=1
t
n
__

N
n=1
t
n
_
2
=

2

N
n=1
t
n
. (6.14)
U gornjem izlaganju smo pretpostavili da razlicite tocnosti pridruzene pojedinim mjere-
njima dolaze od razlicitog broja izvrsenih elementarnih mjerenja. Uz tu pretpostavku smo
dosli do izraza za m
n
i m
X
. Postavimo sada problem malo opcenitije: neka osim greske
koja dolazi od ponovljenih mjerenja elementarnih dogadaja, postoje i greske od drugih
uzroka (npr. ista je velicina mjerena u razlicito doba godine ili je mjerena razlicitim ins-
trumentima ili razlicitim postupcima ili sto slicno). Dano je N mjerenja X
1
, X
2
, , X
N
i svakome je pridruzena srednja greska m
1
, m
2
, , m
N
. Pomocu m
2
n
=
2
/t
n
, mogu se
tezine napisati kao t
n
=
2
/m
2
n
i pomocu toga racunati aritmeticku sredinu
X =
t
1
X
1
+ t
2
X
2
+ + t
N
X
N
t
1
+ t
2
+ + t
N
=
X
1

2
/m
2
1
+ X
2

2
/m
2
2
+ + X
N

2
/m
2
N

2
/m
2
1
+
2
/m
2
2
+ +
2
/m
2
N
=
X
1
/m
2
1
+ X
2
/m
2
2
+ + X
N
/m
2
N
1/m
2
1
+ 1/m
2
2
+ + 1/m
2
N
.
Vidimo da je (nepoznata) tocnost elementarnog mjerenja iscezla iz racuna.
Vratimo se relaciji
= m
n

t
n
(6.15)
u kojoj je m
n
srednja greska opazanja izmjerenog s tezinom t
n
, a je srednja greska
opazanja izmjerenog tezinom 1. Oznacimo s
v
n
= X X
n
razliku izmedu aritmeticke sredine i mjerenja izvrsenog s tezinom t
n
. Razliku izmedu
aritmeticke sredine i elementarnog mjerenja x
n,j
izvrsenog s tezinom 1, cemo oznaciti s
v
n,j
= X x
n,j
n = 1, 2, , N
j = 1, 2, , t
n
Pretpostavimo sada da medu pojedina

cnim greskama koje se odnose na mjerenja tezine


t
n
i tezine 1, vrijedi isti odnos (6.15) kao i medu srednjim greskama mjerenja s tezinama
t
n
i 1
v
n,j
= v
n

t
n
(6.16)
(neovisno o j). Uz tu pretpostavku, za racun gresaka s razlicitom tocnoscu mozemo
koristiti izraze za greske mjerenja s jednakom tocnoscu i vezu (preslikavanje) dano sa
6.3. IZRAVNANJE POSREDNIH OPA

ZANJA 91
(6.16). Tako npr. iz (6.12) slijedi
m
2
=
1
N 1
N

n=1
v
2
n

2
=
1
N 1
N

n=1
v
2
n,j
zato jer se sada v
n,j
odnose na pojedinacna mjerenja (mjerenje tezine 1) bas kao sto
se na pojedinacna mjerenja odnose i v
n
u (6.12). Sada relacijom (6.16) prelazimo s
(pojedinacnih) mjerenja tezinom jedan, na mjerenja tezinom t
n

2
=
1
N 1
N

n=1
v
2
n,j
=
1
N 1
N

n=1
v
2
n
t
n
.
Kada znamo , pomocu (6.14) mozemo izracunati i m
X
m
2
X
=

2

N
n=1
t
n
=

N
n=1
v
2
n
t
n
(N 1)

N
n=1
t
n
m
X
=


N
n=1
v
2
n
t
n
(N 1)

N
n=1
t
n
.
(6.17)
Primjer: 6.3 navesti primjer, Vranic str 147 (dovrsiti)
R:
6.3 Izravnanje posrednih opazanja
Problem koji cemo rjesavati u ovom odjeljku se moze formulirati na slijedeci nacin: poz-
nato je da su cetiri zicke velicine, X, Y, A i B, medusobno povezane relacijom oblika
3
Y = AX + B,
tj. jednadzbom pravca. Nizom od N pokusa se mjere X i Y cije su vrijednosti dane
parovima
(x
1
, y
1
), (x
2
, y
2
), , (x
N
, y
N
).
kao sto je to prikazano slikom 6.2. Nas je zadatak
izra

cunati veli

cine A i B
i ocjene njihovih gre

saka, M
A
i M
B
.
3
Npr. u vjezbi s polarizacijom svjetlosti treba provjeriti tocnost Malusova zakona I = I
0
cos
2
. Mjerenjem se dobiju
vrijednosti I i , pa uz identikaciju Y = I i X = cos
2
, Malusov zakon ima oblik (6.18), gdje su parametri A I
0
, i
B = 0.
92 POGLAVLJE 6. TEORIJA GRE

SAKA
Slika 6.2: Uz primjer linearne korelacije.
-0.1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 1.1
x
0
10
20
30
40
50
60
70
80
90
100
110
120
y
?
?
?
?
?
Uslijed gresaka pri mjerenju, nece biti A x
n
+ B = y
n
, tj. tocke (x
n
, y
n
) nece lezati na
pravcu, nego ce biti
A x
n
+ B = y
n
+ w
n
, (6.18)
gdje je w
n
greska n-tog mjerenja. Drugim rijecima, ako se u x
n
uvrsti u gornju jednadzbu
pravca, bez obzira na vrijednosti A i B, ne

ce se za sve n dobiti y
n
, vec ce se dobiti
y
n
+ w
n
, gdje je w
n
greska. Buduci da smo mi svjesni postojanja greske, a iz teorije
znamo da tocke moraju lezati na pravcu, pokusat cemo naci jednadzbu pravca tako da ta
greska u odnosu na mjerene vrijednosti bude sto manja. Koecijenti A i B su slobodni
parametri (varijable) koje cemo mijenjati sve dok ne dobijemo one vrijednosti A i B za
koje je zbroj kvadrata
4
svih gresaka
N

n=1
w
2
n
minimalan. Opisani postupak mozemo simbolicki zapisati ovako
F(A, B)
N

n=1
(y
n
Ax
n
B)
2
= min.
Na taj nacin ce se dobiti pravac koji prolazi najbli

ze izmjerenim tockama. Zbroj


(oznacen s F) je funkcija koecijenata A i B. Kao sto je poznato iz matematicke ana-
lize, nuzan uvjet ekstrema funkcije vise varijabli je da su parcijalne derivacije funkcije po
varijablama A i B jednake nuli
F
A
= 0
N

n=1
x
n
(y
n
A x
n
B) = 0,
F
B
= 0
N

n=1
(y
n
A x
n
B) = 0.
4
Opet radimo s kvadratima gresaka, kako bismo eliminirali utjecaj predznaka greske.
6.3. IZRAVNANJE POSREDNIH OPA

ZANJA 93
To je 2 2 linearni algebarski sustav za nepoznanice A i B
N

n=1
x
n
y
n
A
N

n=1
x
2
n
B
N

n=1
x
n
= 0,
N

n=1
y
n
A
N

n=1
x
n
BN = 0. (6.19)
cijim se rjesavanjem dobiju A i B
A =
N

N
n=1
x
n
y
n

N
n=1
x
n
_ _

N
n=1
y
n
_
N

N
n=1
x
2
n

N
n=1
x
n
_
2
,
B =
_

N
n=1
x
2
n
_ _

N
n=1
y
n
_

N
n=1
x
n
_ _

N
n=1
x
n
y
n
_
N

N
n=1
x
2
n

N
n=1
x
n
_
2
.
(6.20)
Nakon sto smo izracunali A i B, treba izracunati i procjene njihovih gresaka M
A
i M
B
.
Da bismo to izveli, provest cemo nekoliko pripremnih racuna.
Pomocu jednadzbe ekstrema (6.19)
N

n=1
y
n
= A
N

n=1
x
n
+ BN
i denicije pogreske w
n
sa pocetka ovog odjeljka, vrijedi da je
y
n
+ w
n
= A x
n
+ B
_
N

n=1

n=1
(y
n
+ w
n
) = A
N

n=1
x
n
+ BN.
Kombiniranjem gornjih izraza se dolazi do
N

n=1
y
n
=
N

n=1
(y
n
+ w
n
)
N

n=1
w
n
= 0.
To znaci da nisu sve greske medusobno nezavisne, vec da se jedna od njih moze izraziti
preko N 1 preostalih. Prema (6.12), srednju gresku od N 1 nezavisnih mjerenja
racunamo kao
m =

N
n=1
w
2
n
N 2
. (6.21)
Napisimo gornji izraz u malo drukcijem obliku. Da bismo to napravili, uvedimo najprije
94 POGLAVLJE 6. TEORIJA GRE

SAKA
nekoliko oznaka
X =
1
N
N

n=1
x
n
,
2
X
=
1
N
N

n=1
(x
n
X )
2
=
1
N
N

n=1
x
2
n
X
2
, (6.22)
Y =
1
N
N

n=1
y
n
,
2
Y
=
1
N
N

n=1
(y
n
Y )
2
=
1
N
N

n=1
y
2
n
Y
2
.
Osim toga, uvest cemo i mijesovitu varijancu

2
XY
=
1
N
N

n=1
(x
n
X )(y
n
Y )
=
1
N
N

n=1
(x
n
X )y
n

Y
N
N

n=1
(x
n
X )
=
1
N
N

n=1
(x
n
X )y
n

Y
N
_
N

n=1
x
n
NX
_
. .
= 0
=
1
N
N

n=1
(x
n
X )y
n
(6.23)
=
1
N
N

n=1
x
n
y
n

X
N
N

n=1
y
n
=
1
N
N

n=1
x
n
y
n
X Y
Primjetimo da se pomocu ovih oznaka, koecijenti A i B iz (6.20) mogu napisati kao
A =

2
XY

2
X
, B = Y AX . (6.24)
(usporediti s (12.7)). Krene li se od denicije (6.18) za gresku w
n
w
n
= (A x
n
+ B) y
n
,
nakon kvadriranja i kraceg racuna, dolazi se do
w
2
n
= (A x
n
+ B)
2
2 (A x
n
+ B) y
n
+ y
2
n
,
_
N

n=1
N

n=1
w
2
n
= = N(A
2

2
X
2A
2
XY
+
2
Y
)
N

n=1
w
2
n
= (6.24) = N
_

2
Y
A
2

2
X
_
,
m
2
= (6.21) =
N (
2
Y
A
2

2
X
)
N 2
. (6.25)
Sada imamo sve sto nam je potrebno za ra

cun M
A
. Vratimo se izrazu (6.20) za koecijent
A. Napisemo li A u obliku
A = (6.24), (6.23) =
1
N
2
X
N

n=1
(x
n
X ) y
n
,
6.3. IZRAVNANJE POSREDNIH OPA

ZANJA 95
tada koecijent A mozemo shvatiti kao funkciju N slucajnih varijabli Y
n
A f(Y
1
, Y
2
, , Y
N
) =
x
1
X
N
2
X
Y
1
+
x
2
X
N
2
X
Y
2
+ +
x
N
X
N
2
X
Y
N
i gresku od f A racunati
5
pomocu (6.8)
M
2
A
=
_
x
1
X
N
2
X
_
2
m
2
Y
1
+
_
x
2
X
N
2
X
_
2
m
2
Y
2
+ +
_
x
N
X
N
2
X
_
2
m
2
Y
N
.
No, sve su greske od Y
n
medusobno jednake m
2
Y
1
= m
2
Y
2
= = m
2
Y
N
= m
2
M
2
A
= m
2

N
n=1
(x
n
X )
2
N
2

4
X
= (6.22) = m
2
N
2
X
N
2

4
X
= m
2
1
N
2
X
. (6.26)
Ako sada za m uvrstimo (6.25), dobit cemo konacan izraz za ocjenu greske koecijenta A
M
2
A
=
1
N 2
_

2
Y

2
X
A
2
_
. (6.27)
Na slican cemo nacin izracunati i procjenu gre

ske koeficijenta B. Prema (6.24),


koecijent B mozemo shvatiti kao funkciju N + 1 slucajne varijable: Y
1
, Y
2
, , Y
N
i A
B f(Y
1
, Y
2
, , Y
N
, A) =
1
N
(Y
1
+ Y
2
+ + Y
N
) X A.
i gresku od f B racunati pomocu (6.8)
M
2
B
=
1
N
2
(m
2
Y
1
+ m
2
Y
2
+ + m
2
Y
N
) + X
2
M
2
A
.
Svi su m
2
Y
n
= m
2
medusobno jednaki, pa je
M
2
B
=
1
N
2
N m
2
+ X
2
M
2
A
= (6.26) = M
2
A
(X
2
+
2
X
) = (6.22) = M
2
A
1
N
N

n=1
x
2
n
.
Tako smo dobili i konacan izraz za ocjenu pogreske koecijenta B
M
2
B
= M
2
A
1
N
N

n=1
x
2
n
.
5
Koecijent A smo mogli shvatiti i kao funkciju slucajne varijable X, ali tada funkcijska ovisnost ne bi bila jednostavnog
oblika (6.6), nego znatno slozenija.
96 POGLAVLJE 6. TEORIJA GRE

SAKA
Sumarno mozemo napisati:
Y = AX + B,
A =

2
XY

2
X
, B = Y AX ,
M
A
=

1
N 2
_

2
Y

2
X
A
2
_
, M
B
= M
A

_
1
N
N

n=1
x
2
n
.
(6.28)
Primjer: 6.4 Zadane su tri tocke: (1, 1), (2, 2), (3, 4). Zadatak je povuci pravac koji pro-
lazi najblize (u smislu najmanjih kvadrata) ovim tockama.
R: U ovom je primjeru N = 3, a za gornje parove vrijednosti (x
n
, y
n
),
sustav (6.19) glasi
7 6A 3B = 0, 17 14A 6B = 0.
Rjesavanjem gornjeg sustava, dobije se
A =
3
2
, B =
2
3
.
Pogreske w
n
se racunaju kao
w
1
= y
1

3
2
x
1
+
2
3
=
1
6
,
w
2
= y
2

3
2
x
2
+
2
3
=
1
3
,
w
3
= y
3

3
2
x
3
+
2
3
=
1
6
.
Srednju gresku svakog mjerenja (tj. svake pojedine tocke) racunamo kao
m =

N
n=1
w
2
n
N 2
=
1

6
.
Izracunajmo jos i pogreske A i B
M
A
= ...dovr siti...
M
B
= ...dovr siti...
Primjer: 6.5 Zadane su tocke: (0, 0), (1, 10), (2, 25), (3, 20), (4, 30), (5, 15), (6, 40), (7, 30).
Nadite polinom drugog reda koji ide najblize danim tockama.
R: Zadane tocke (x, y(x)) su prikazane plavim tockama na slici 6.3. Za-
6.3. IZRAVNANJE POSREDNIH OPA

ZANJA 97
Slika 6.3: Aproksimacija polinomom drugog reda.
-1 0 1 2 3 4 5 6 7 8
x
-10
0
10
20
30
40
50
y
datak je izracunati koecijente a, b i c iz donjeg izraza
f(x) = a + b x + c x
2
,
uz uvjet
F(a, b, c)
N

x=1
[y(x) f(x)]
2
= min.,
Ovaj cemo zadatak rijesiti opcenito, a zatim dobiveno rjesenje primjeniti na
ovaj poseban slucaj gdje je N = 7. Cijeli gornji zbroj shvacamo kao funkciju
F koecijenata a, b i c, pa zato uvjet minimuma pisemo kao
F
a
= 0,
F
b
= 0,
F
c
= 0.
Ova tri uvjeta vode na sustav od tri jednadzbe za tri nepoznanice: a, b i c
N

x=1
y(x) a N b
N

x=1
x c
N

x=1
x
2
= 0,
N

x=1
x y(x) a
N

x=1
x b
N

x=1
x
2
c
N

x=1
x
3
= 0,
N

x=1
x
2
y(x) a
N

x=1
x
2
b
N

x=1
x
3
c
N

x=1
x
4
= 0.
98 POGLAVLJE 6. TEORIJA GRE

SAKA
Pomocu oznaka
S
y
=
N

x=1
y(x), S
xy
=
N

x=1
x y(x), S
xxy
=
N

x=1
x
2
y(x),
S
x
=
N

x=1
x, S
xx
=
N

x=1
x
2
, S
xxx
=
N

x=1
x
3
,
S
xxxx
=
N

x=1
x
4
,
gornji se sustav moze napisati u obliku matricne jednadzbe
_
_
S
y
S
xy
S
xxy
_
_
=
_
_
N S
x
S
xx
S
x
S
xx
S
xxx
S
xx
S
xxx
S
xxxx
_
_

_
_
a
b
c
_
_
.
Ovu jednadzbu rijesimo po a, b i c
_
_
a
b
c
_
_
=
_
_
N S
x
S
xx
S
x
S
xx
S
xxx
S
xx
S
xxx
S
xxxx
_
_
1

_
_
S
y
S
xy
S
xxy
_
_
i dobijemo
a =
(S
xx
S
xxxx
S
2
xxx
) S
y
+ (S
xx
S
xxx
S
x
S
xxxx
) S
xy
+ (S
x
S
xxx
S
2
xx
) S
xxy
NS
xx
S
xxxx
+ 2S
x
S
xx
S
xxx
S
3
xx
NS
2
xxx
S
2
x
S
xxxx
,
b =
(S
xx
S
xxx
S
x
S
xxxx
) S
y
+ (NS
xxxx
S
2
xx
) S
xy
+ (S
x
S
xx
NS
xxx
) S
xxy
NS
xx
S
xxxx
+ 2S
x
S
xx
S
xxx
S
3
xx
NS
2
xxx
S
2
x
S
xxxx
,
c =
(S
x
S
xxx
S
2
xx
) S
y
+ (S
x
S
xx
NS
xxx
) S
xy
+ (NS
xx
S
2
x
) S
xxy
NS
xx
S
xxxx
+ 2S
x
S
xx
S
xxx
S
3
xx
NS
2
xxx
S
2
x
S
xxxx
.
Uvrstavanjem koordinata zadanih tocaka, konacno se dobiva (crvena linija na
slici 6.3)
f(x) = 2.5 + 8.631 x 0.65476 x
2
.
6.4 Izravnanje vezanih opazanja
kroz primjer
Primjer: 6.6 dovrsiti
R:
Dio II
Matematicka statistika
99
Poglavlje 7
Osnovni pojmovi statistike
I ovaj cemo dio zapoceti s nekom vrstom malog rjecnika koji nas treba upoznati s osnov-
nim statistickim pojmovima koje cemo koristiti u nastavku izlaganja.
Statisti

cka masa je naziv za skup predmeta, osoba ili pojava koje istodobno postoje
ili se pojavljuju u vremenu, a nad kojim se provode statisticka ispitivanja. To moze biti
pucanstvo jedne drzave, proizvodi odredene industrijske grane, odredene vrste zickih
pojava ili sto drugo. Unutar statisticke mase se razlikuju pojedine skupine elemenata
koje nazivamo osnovnim skupovima (npr. sve stanovnice jedne drzave, svi europski
proizvodaci automobila i sl.). Za provedbu statisticke analize, potrebno je znati broj
elemenata osnovnog skupa i odredena svojstva ili obilje

zja tih elemenata. Obi-


ljezja cemo oznacavati slovima X, Y, Z,
1
, a vrijednosti obiljezja s x, y, z, . Ukupan
broj elemenata osnovnog skupa s istom vrijednoscu obiljezja X se naziva apsolutna
frekvencija ili te

zina i oznacavat ce se s t(X). Prema deniciji, zbroj svih tezina


daje ukupan broj N elemenata osnovnog skupa

x
t(x) = N.
Ako tezinu podjelimo s ukupnim brojem elemenata osnovnog skupa, N, dobit ce se re-
lativna frekvencija
(x) =
t(x)
N
.
Prema deniciji tezine, zbroj svih relativnih frekvencija je jednak jedinici

x
(x) = 1.
Raspodjela pojedinog obiljezja unutar osnovnog skupa se zgodno prikazuje pomocu kri-
vulje frekvencije. Ona se dobije tako da se na apscisu nanosi vrijednost promatranog
obiljezja, a na ordinatu apsolutna ili relativna frekvencija (slika 7.1)
1
To mogu biti npr. brzine, mase ili energije cestica idealnog plina
101
102 POGLAVLJE 7. OSNOVNI POJMOVI STATISTIKE
Slika 7.1: Uz krivulju frekvencije za primjer 7.1.
1 2 3 4 5
x
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4



(
x
)
7.1 Prosjecne vrijednosti
Promatra se jedno obiljezje X na osnovnom skupu. Svaki pojedini element skupa moze
imati razlicite vrijednosti tog obiljezja. Osnovna informacija vezana za skup i obiljezje X
je prosje

cna vrijednost obiljezja. Na odredeni nacin ona opisuje vrijednost obiljezja


pridruzenu osnovnom skupu kao cjelini (a ne svakom pojedinom elementu). Najcesce
se koriste tri nacina racunanja prosjecnih vrijednosti:
(1) aritmeticka sredina,
(2) geometrijska sredina,
(3) harmonijska sredina.
7.1.1 Aritmeticka sredina
Kao i do sada, aritmeticka sredina obiljezja X ce se oznacavatio s x. Ona se dobije tako da
se zbroje vrijednosti obiljezja svih elemenata osnovnog skupa i podjele s ukupnim brojem
elemenata skupa
x =
x

+ x

+
N
,
pri cemu neki od x

, x

, mogu biti i medusobno jednaki Aritmeticka sredina se krace
moze izracunati pomocu tezina ili relativnih frekvencija. Neka obiljezje X moze poprimiti
M razlicitih vrijednosti x
m
s pripadnim tezinama t
m
za m = 1, 2, , M. Tada je
x =
1
N
M

m=1
t
m
x
m
,
M

m=1
t
m
= N. (7.1)
Aritmeticka sredina se moze racunati i preko relativnih frekvencija
x =
M

m=1

m
x
m
,
M

m=1

m
= 1. (7.2)
7.1. PROSJE

CNE VRIJEDNOSTI 103


Primjer: 7.1 Osnovno skup su svi polaznici kolegija Osnove zicih mjerenja i statisticke
analize, a promatrano obiljezje X je ocjena na prvom kolokviju. Od 47 po-
laznika njih 7 je ocjenjeno s odlicnim, 16 s vrlo dobrim, 13 sa dobrim, 5 s
dovoljnim, a 6 sa nedovoljnim. Treba izracunati aritmeticku sredinu ocjene za
sve polaznike.
R: Broj elemenata osnovnog skupa je N = 47. Promatrano obiljezeje
(ocjena) moze imati 5 razlicitih vrijednosti x = 1, 2, 3, 4, 5 s tezinama
t(x = 1) = 6, t(x = 2) = 5, t(x = 3) = 13, t(x = 4) = 16, t(x = 5) = 7,
tj. s relativnim frekvencijama
(x = 1) =
6
47
, (x = 2) =
5
47
, (x = 3) =
13
47
, (x = 4) =
16
47
, (x = 5) =
7
47
.
Aritmeticku sredinu racunamo pomocu (7.1) ili (7.2)
x =
M

x=1
x (x) =
1
47
(6 1 + 5 2 + 13 3 + 16 4 + 7 5) = 3.28 .
Krivulja frekvencija je prikazana na slici 7.1.
7.1.2 Geometrijska sredina
Geometrijsku sredinu g nekog obiljezja na osnovnom skupu od N elemenata racunamo
kao N-ti korjen iz umnoska vrijednosti obiljezja svih N elemenata
g = (x

x

. . .)
1/N
.
Gornji je postupak kraci, ako racunamo s tezinama
g = (x
t
1
1
x
t
2
2
. . . x
t
M
M
)
1/N
.
Geometrijska sredina se koristi npr. u analizi skupova koji rastu (u vremenu) s geome-
trijskom progresijom (kao sto je to npr. porast stanovnika neke drzave, kretanje cijena ili
sto slicno).
Primjer: 7.2 Geometrijska sredina skupa iz prethodnog primjera je
g = (1
6
2
5
3
13
4
16
5
7
)
1/47
= 2.97 .
Zbog visokih potencija koje se pojavljuju u racunu, geometrijski je sredinu nesto teze
racunati nego aritmeticku. Veza aritmeticke i geometrijske sredine se uspostavlja logarit-
miranjem
ln g =
1
N
(t
1
ln x
1
+ t
2
ln x
2
+ + t
M
ln x
M
).
Logaritam geometrijske sredine je aritmeticka sredina logaritama pojedinih obiljezja.
104 POGLAVLJE 7. OSNOVNI POJMOVI STATISTIKE
7.1.3 Harmonijska sredina
Harmonijska sredina, h, nekog obiljezja se racuna po recepturi za aritmeticki sredinu, ali
se primjenjuje na reciprocne vrijednosti
1
h
=
1
N
_
1
x

+
1
x

+
_
=
1
N
_
t
1
x
1
+
t
2
x
2
+ +
t
M
x
M
_
.
Harmonijska sredina se pojavljuje kod racuna srednjeg vremena u odredenim procesima,
kod opisa gibanja dva tijela (reducirana masa) i slicno.
Primjer: 7.3 Harmonijska sredina skupa iz prethodnog primjera je
1
h
=
1
47
_
6
1
+
5
2
+
13
3
+
16
4
+
7
5
_
h = 2.58
Na ovim primjerima primjecujemo i opcenito svojstvo ovih sredina
h < g < x.
7.2 Momenti raspodjele
Promatrajmo jednodimenzijsku diskretnu slucajnu varijablu X cije vrijednosti x = x

, x

,
imaju relativne frekvencije (x), pri cemu je

x
(x) = 1.
Funkcija (x) opisuje kako su raspodijeljene vrijednosti varijable X (kojih vrijednosti ima
vise, kojih manje, a kojih nema uopce), pa cemo ju zato zvati i funkcija raspodjele.
Vec spomenutu aritmeticku sredinu, nazivamo prvim momentom raspodjele
X x = x

(x

) + x

(x

) + =

x
x (x). (7.3)
Opcenito, k-ti moment, X
k
, raspodjele (x) se racuna kao
X
k
=

x
x
k
(x). (7.4)
Primjetimo da je, po samoj deniciji srednje vrijednosti, srednje odstupanje varijable X
od X jednako nuli
X X =

x
(x X) (x) =

x
x (x) X

x
(x) = X X = 0, (7.5)
to je i razlog zasto se X naziva srednja vrijednost: u gornjem smislu, X prestavlja
sredinu skupa {x}.
Statisticka prosjecna vrijednost je po svojoj deniciji analogna matematickom ocekivanju
u teoriji vjerojatnosti, jer je ona jednaka zbroju umnozaka vrijednosti pojedinog obiljezja
s njegovom relativnom frekvencijom.
7.2. MOMENTI RASPODJELE 105
Opcenito su elementi skupa razliciti od njegove srednje vrijednosti X, pa je od interesa
naci nekakvu velicinu koja ce mjeriti odstupanje svakog pojedinog elementa od srednje
vrijednosti cijelog skupa. Gore smo pokazali da za takvu mjeru ne mozemo uzeti velicinu
XX, jer je njezina srednja vrijednost jednaka nuli: jednostavno receno X je odabran
upravo tako da se zbroj pozitivnih odstupanja i zbroj negativnih odstupanja egzaktno
ponisti. Ocito je da treba naci velicinu kod koje ova igra izmedu pozitivnog i negativnog
predznaka nece biti vazna. Najjednostavnija funkcija s ovim svojstvom je kvadratna
funkcija. Racunamo li umjesto srednje vrijednosti X X, srednju vrijednost njegovog
kvadrata, (XX)
2
, svi ce clanovi uvijek biti pozitivni i mi cemo dobiti jednu pozitivno
denitnu konacnu velicinu, s oznakom
2
, koja nam kaze koliko se, u srednjem, dani
element skupa razlikuje od srednje vrijednosti

2
= (X X)
2
=

x
(x X)
2
(x).
Ova se velicina naziva srednje kvadratno odstupanje ili varijanca, dok se sama naziva
standardna devijacija. Primjetimo da je gornjim izrazom, zbog dimenzija, deniran
kvadrat (ako je X velicina koja se mjeri u paskalima, onda se i srednje odstupanje te
velicine mora mjeriti tim istim jedinicama, a ne njihovim kvadratom). Cesto se kaze i da
je mjera fluktuacije varijable X: vrijednosti X uktuiraju oko srednje vrijednosti
X, a mjeri iznos tih uktuacija.
Primjetimo da se
2
moze napisati i preko momenata raspodjele

2
=

x
(x X)
2
(x) =

x
(x
2
2xX +X
2
) (x)
=

x
x
2
(x) 2 X

x
x (x) +X
2

x
(x) = X
2
2 X
2
+X
2
= X
2
X
2
.
Kvadratni korjen iz varijance, , se naziva standardna devijacija ili standardno odstupa-
nje
2
i ono opisuje velicinu (sirinu) pojasa oko X u kojemu se nalazi vecina vrijednosti
X.
Primjer: 7.4 U primjeru 7.1, standardna devijacija je jednaka
=

7 1.7234
2
+ 16 0.7234
2
+ 13 0.2766
2
+ 5 1.2766
2
+ 6 2.2766
2
47
=

1.4767 = 1.215 .
Prosjecno odstupanje od aritmeticke sredine, 3.2766, na jednu i drugu stranu
iznosi 1.215.
Ono sto je vazno zapravo i nije sama velicina rasipanja vrijednosti X oko X, nego
relativna veli

cina tog rasipanja u odnosu na X,

X
2
Standardnu devijaciju smo upoznali relacijom (3.17) u odjeljku 3.
106 POGLAVLJE 7. OSNOVNI POJMOVI STATISTIKE
(ako su x
n
i X, veliki po iznosu, i moze biti velik po apsolutnom iznosu, ali mali u
odnosu na X). Ovaj omjer se naziva kvocjent varijacije i u nasem primjeru iznosi
1.215
3.2766
= 0.3708 . . .
sto je uistinu desetak puta manje od same vrijednosti X.
Osim samih momenata, deniraju se i centralni momenti s oznakom M
k
M
k
=

x
(x X)
k
(x). (7.6)
Prema gornjoj deniciji je M
0
= 1 i M
1
= 0, pa su ova dva momenta ista za svaku funkciju
raspodjele (x) i prema tome ne daju nikakvu informaciju o skupu na koji se odnose. Drugi
centralni moment je, gore spomenuta varijanca M
2

2
, koja mjeri srednje kvadratno
odstupanje od srednje vrijednosti.
Pomocu slijedecih po redu momenata, M
3
i M
4
, se deniraju koecijenti asimetrije
3
(engl. skewness) i koecijent spljo

stenosti
4

3
=
M
3

3
,
4
=
M
4

4
. (7.7)
Primjetimo da ukoliko varijable X i nose neku zicku dimenziju, koecijenti
3
i
4
su bezdimenzijski brojevi. U nastavku izlaganja ce se pokazati (navesti gdje) da je za
simetri

cne raspodjele pribli

zno 0
3
0.1 (ali postoje i asimetricne raspodjele
za koje je takoder
3
= 0). Ako je 0.1
3
0.25, raspodjela je malo asimetricna, ako
je 0.25
3
0.5 tada je srednje asimetricna i ako je 0.5
3
, raspodjela se smatra
jako asimetricnom. O spljostenosti recimo, za sada, samo toliko da se normalnom
spljo

stenosti smatra ona za koju je


4
= 3. Ako je
4
< 3, raspodjela je siroka
(engl. platycurtic), a ako je
4
> 3, raspodjela je uska (engl. leptocurtic)
Razvojem potencije binoma u (7.6), dolazi se do opceg izraza za k-ti centralni moment
izrazen preko (obicnih) momenata
M
k
=
k

j=0
_
k
j
_
(1)
kj
X
j
X
kj
.
Prvih nekoliko centralnih momenta je:
M
2
= X
2
X
2
,
M
3
= X
3
3X
2
X + 2 X
3
,
M
4
= X
4
4X
3
X + 6 X
2
X
2
3X
4
.
Osim centralnih momenata, deniraju se i pomo

cni momenti M

k
M

k
=

x
(x a)
k
(x),
za konstantni a = X i a = 0.
7.2. MOMENTI RASPODJELE 107
Za kontinuiranu slucajnu varijablu X cije su vrijednosti x (, +), svi se mo-
menti, centralni momenti, ocekivanje i varijanca deniraju na isti nacin kao i kod dis-
kretnih raspodjela, s tom razlikom da se sada umjesto zbrajanja po diskretnoj varijabli
x, izvodi integracija po kontinuiranoj varijabli x. Tako se npr. prosjecna vrijednost
(ocekivanje) denira kao
E(X) X =

x (x) dx,
(usporediti s (7.3) kod diskretnih varijabli). Varijanca se denira kao

2
V ar(X) =

(x X)
2
(x) dx,
(usporediti s (7.6) kod diskretnih varijabli), a momenti X
k
i centralni momenti M
k
kao
X
k
=

x
k
(x) dx,
M
k
=

(x X)
k
(x) dx.
M
2
= X
2
X
2
,
M
3
= X
3
3X
2
X + 2 X
3
, (7.8)
M
4
= X
4
4X
3
X + 6 X
2
X
2
3X
4
,
Koecijenti asimetrije i spljostenosti se deniraju jednako kao i kod diskretnih varijabli,
relacijama (7.7)

3
=
M
3

3
,
4
=
M
4

4
. (7.9)
Osim navedenih prosjecnih vrijednosti, cesto se koriste i slijedece velicine: medijan, mod
i kvartil.
Za diskretne varijable, medijan predstavlja onu vrijednost obiljezja koja ima svojstvo da
je broj elemenata sa vrijednosci manjom ili jednakom medijanu, jednak broju elemenata s
vrijednoscu vecom ili jednakom medijanu (tocka G na slici 7.2). Za kontinuirane varijable,
okomiti pravac kroz G dijeli povrsinu ispod krivulje raspodjele na dva jednaka dijela.
Primjer: 7.5 U gornjem primjeru to znaci da 23 ucenika treba imati ocjenu vecu ili
jednaku medijanu i isto toliko ih mora imati ocjenu manju ili jednaku od me-
dijana: dakle 7 odlicnih i 16 vrlo dobrih su iznad medijana, a 12 dobrih, 5
dovoljnih i 6 nedovoljnih su ispod medijana, dok je sam medijan ocjena dobar.
Mod je ona vrijednost statistickog obiljezja X koja je u skupu zastupljena najvecim brojem
clanova. U nasem primjeru to je ocjena 4, jer nju ima najveci broj elemenata skupa. Na
slici 7.2, to je tocka N (najveca vrijednost ordinate).
108 POGLAVLJE 7. OSNOVNI POJMOVI STATISTIKE
Slika 7.2: Ilustracija moda N, aritmeticke sredine M i medijana G.
x



(
x
)
N
M G
Postoje dva kvartila: donji i gornji. Donji se nalazi ispred medijana, a gornji iza njega.
Donji kvartil je apscisa one tocke za koju je zbroj frekvencija ispred nje, jednak zbroju
frekvencija iza nje do medijana. Gornji se kvartil denira simetricno: to je apscisa one
tocke za koju je zbroj frekvencija ispred nje (do medijana) jednak zbroju frekvencija iza
nje.
Kod nekih raspodjela se moze dogoditi da neke od ovih karakteristicnih vrijednosti budu
medusobno jednake.
Poglavlje 8
Raspodjele
8.1 Binomna raspodjela
Prisjetimo se Bernoullijevih
1
dogadaja i pokusa iz odjeljka 3.2: izvodi se niz pokusa koji
mogu okoncati na dva nacina - ili se dogadaj A ostvario ili nije, tj. postoje samo dva
moguca ishoda svakog pokusa. Vjerojatnost ostvarenja dogadaja, p, je konstantna tijekom
izvodenja pokusa. Broj ostvarenja dogadaja A u N pokusa je diskretna slucajna varijabla
koju cemo oznaciti s X, a njezine moguce vrijednosti cemo oznaciti s x = 0, 1, 2, , N.

Zelimo naci odgovor na pitanje


kolika je vjerojatnost da se u nizu od N pokusa, dogadaj A ostvari x puta,
tj. da varijabla X ima vrijednost x? Pri tome nam nije vazan redoslijed ostvarivanja ovih
dogadaja. U N pokusa, dogadaj se moze ostvariti niti jednom samo na jedan nacin: da
se N puta uzastopce ne dogodi A. Vjerojatnost ovakvog ishoda N pokusa je
1 q
N
, q = 1 p.
U N pokusa, dogadaj se moze ostvariti jednom na N nacina (ili prvi puta ili drugi puta
ili ... x-ti puta). Prema pravilu o mnozenju vjerojatnosti, (2.6), svaki ima vjerojatnost
p
1
q
N1
(jednom se ostvario i N 1 puta se nije ostvario). Prema pravilu o zbrajanju
vjerojatnosti (2.5), ukupna vjerojatnost da se dogadaj ostvari jednom u N pokusa je
_
N
1
_
p
1
q
N1
.
Dva ostvarenja u N pokusa se mogu dogoditi na
_
N
2
_
nacina, a svaki ima istu vjerojatnost
p
2
q
N2
, pa je ukupna vjerojatnost jednaka
_
N
2
_
p
2
q
N2
.
I opcenito, vjerojatnost P(x) da se u N pokusa A ostvari x puta je
2
P(x) =
_
N
x
_
p
x
q
Nx
. (8.1)
1
Jakov Bernoulli, 1700
2
Ovaj P(x) je ekvivalentan sa dP(x) = (x) dx kod raspodjela kontinuirane varijable:

x
P(x) =

dP(x) = 1.
109
110 POGLAVLJE 8. RASPODJELE
To je ujedno i vjerojatnost da se A ostvari Nx puta. Ovakva je raspodjela jednoznacno
odredena s tri broja: N, p i x i naziva se binomna raspodjela (naziv dolazi od toga
sto su moguca samo dva ishoda pokusa) s oznakom
B(N, p, x) =
_
N
x
_
p
x
q
Nx
.
Pomocu binomnog poucka (1.8), lako se vidi da je gornja raspodjela normirana na jedinicu
N

x=0
P(x) =
N

x=0
_
N
x
_
p
x
q
Nx
= (p + q)
N
= 1.
Ponekad, u numerickim racunima, izracunavanje faktorijela moze biti dugotrajan proces i
u tim je slucajevima zgodno vise faktorijele racunati pomocu nizih, koristeci jednostavnu
rekurzijsku relaciju koja povezuje P(x) sa P(x 1)
P(x) =
N!
x!(N x)!
p
x
q
Nx
,
P(x 1) =
N!
(x 1)!(N x + 1)!
p
x1
q
Nx+1
,
P(x)
P(x 1)
=
(x 1)!(N x + 1)!
x!(N x)!
p
x
q
Nx
p
x1
q
Nx+1
=
N x + 1
x
p
q
P(x) =
N x + 1
x
p
q
P(x 1). (8.2)
Svojstva binomne raspodjele:
Pogledajmo detaljnije neka svojstva binomne raspodjele, kao sto su njezini momenti,
koecijenti spljostenosti i asimetrije i sl.
Uvedimo pomocnu funkciju g(t), sa svojstvom da je g(1) = 1
g(t) = (tp + q)
N
. (8.3)
Izracunavanjem desne strane po binomnom poucku, dobivamo g(t) u obliku polinoma u t
g(t) =
_
N
0
_
q
N
+
_
N
1
_
pq
N1
t +
_
N
2
_
p
2
q
N2
t
2
+ +
_
N
N
_
p
N
t
N
=
N

x=0
_
N
x
_
p
x
q
Nx
t
x
.
Koecijente gornjeg polinoma prepoznajemo kao vjerojatnosti (8.1), pa mozemo pisati
g(t) = (q + tp)
N
=
N

x=0
P(x) t
x
. (8.4)
Izracunajmo sada prvi moment tj. ocekivanje E(X) za binomnu raspodjelu
E(X) X =
N

x=0
x P(x).
8.1. BINOMNA RASPODJELA 111
Gornji cemo zbroj izracunati pomocu funkcije g(t): derivirajmo (8.4) po t
d g
d t
= N(q + tp)
N1
p =
N

x=0
P(x) xt
x1
(8.5)
i zatim stavimo t = 1
pN =
N

x=0
x P(x), X = Np. (8.6)
To je rezultat koji smo vec ranije, relacijom (3.13), dobili na drukciji nacin.
Na slican cemo nacin izracunati i varijancu (7.6)

2
= X
2
X
2
=
N

x=0
x
2
P(x) (Np)
2
.
Pomnozimo (8.5) s t
Npt(q + tp)
N1
=
N

x=0
P(x) xt
x
i derivirajmo po t
Np(q + tp)
N1
+ Np
2
t(N 1)(q + tp)
N2
=
N

x=0
P(x) x
2
t
x1
. (8.7)
Za t = 1 gornja relacija postaje
X
2
=
N

x=0
x
2
P(x) = Np + N(N 1)p
2
. (8.8)
Sada mozemo izracunati varijancu

2
= X
2
X
2
= Np + Np
2
(N 1) N
2
p
2
= Npq. (8.9)
I ovo je rezultat koji smo vec ranije dobili u (3.15).
Za izracunavanje koecijenata
3
i
4
, trebat ce nam i X
3
i X
4
. Pomnozimo (8.7) s t
N

x=0
P(x) x
2
t
x
= Npt(q + tp)
N1
+ Np
2
t
2
(N 1)(q + tp)
N2
(8.10)
i derivirajmo po t
N

x=0
P(x) x
3
t
x1
= Np(q+tp)
N1
+3N(N1)p
2
t(q+tp)
N2
+N(N1)(N2)p
3
t
2
(q+tp)
N3
.
(8.11)
Za t = 1, gornja relacija daje treci moment
X
3
=
N

x=0
x
3
P(x) = Np + 3N(N 1)p
2
+ N(N 1)(N 2)p
3
.
112 POGLAVLJE 8. RASPODJELE
Za racun X
4
, treba najprije pomnoziti (8.11) s t
N

x=0
P(x) x
3
t
x
= Npt(q + tp)
N1
+ 3N(N 1)p
2
t
2
(q + tp)
N2
+ N(N 1)(N 2)p
3
t
3
(q + tp)
N3
,
a zatim derivirati po t
N

x=0
P(x) x
4
t
x1
= Np(q + tp)
N1
+ 7N(N 1)p
2
t(q + tp)
N2
+ 6N(N 1)(N 2)p
3
t
2
(q + tp)
N3
+ N(N 1)(N 2)(N 3)p
4
t
3
(q + tp)
N4
.

Cetvrti moment se dobije uvrstavanjem t = 1 u gornju relaciju


X
4
=
N

x=0
x
4
P(x) = Np + 7N(N 1)p
2
+ 6N(N 1)(N 2)p
3
+ N(N 1)(N 2)(N 3)p
4
.
Izravnim uvrstavanjem gornjih izraza za X
3
i X
4
, dobivamo koecijente
3
i
4
asimetrija
3
=
M
3

3
=
X
3
3X
2
X + 2 X
3

3
=
Npq(q p)
Npq

Npq
=
q p

Npq
,
spljo stenost
4
=
M
4

4
=
X
4
4X
3
X + 6 X
2
X
2
3X
4

4
=
Npq[1 + 3qp(N 2)]
NpqNpq
= 3 +
1 6qp
Npq
.
Vidimo da je koecijent asimetrije jednak nuli ako je q = p = 0.5 (slika 8.1), pozitivan
ako je q > p, tj. q > 0.5, a raspodjela je negativno asimetricna ako je q < p tj. q < 0.5.
Pogledajmo sada, postoje li uvjeti pod kojima binomna raspodjela cini monotono opa-
dajuci niz
P(0) P(1) P(2) P(x).
Ako u rekurziju (8.2), uvrstimo gornji zahtjev P(x) P(x 1), slijedi
P(x)
P(x 1)
=
N x + 1
x
p
q
1 x = 1, 2, , N
p
x
N + 1
.
Dakle, P(x) tvori opadajuci niz ako je, za svaki x, zadovoljena gornja nejednakost. Najjaci
uvjet dolazi od najmanjeg x, a to je x = 1 (jer rekurzija vrijedi za 1 x N),
p
1
N + 1
.
8.1. BINOMNA RASPODJELA 113
Slika 8.1: Binomna raspodjela (8.1) za N = 20 i nekoliko vrijednosti p.
0 5 10 15 20
x
0
0.05
0.1
0.15
0.2
0.25
P
(
x
)
p = 0.1
p = 0.5
p = 0.9
Uz gornji uvjet, binomna raspodjela monotono opada. Potrazimo sada, uvjet pod kojima
binomna raspodjela cini monotono rastuci niz
P(0) P(1) P(2) P(x).
Ako u rekurziju (8.2), uvrstimo gornji zahtjev P(x) P(x 1), slijedi
P(x)
P(x 1)
=
N x + 1
x
p
q
1 x = 1, 2, , N
p
x
N + 1
.
Vidimo da P(x) monotono raste,ako je, za svaki x, zadovoljena gornja nejednakost.
Najjaci uvjet dolazi od najveceg x = N,
p
N
N + 1
.
Tako smo dobili granice na p da bi binomna raspodjela bila ili monotono opadajuca ili
monotono rastuca funkcija od x.
1
N + 1
< p <
N
N + 1
.
Izvan tih granica, raspodjela nije monotona, vec postize najvecu vrijednost, za neki
odredeni x
P(x 1) P(x) P(x + 1).
Izracunajmo taj x, koristeci se rekurzijom (8.2)
P(x)
P(x 1)
=
N x + 1
x
p
q
1 Np + p x
P(x)
P(x + 1)
=
x + 1
N x
q
p
1 Np q x.
114 POGLAVLJE 8. RASPODJELE
Oba gornja uvjeta zajedno odreduju trazeni x
Np q x Np + p. (8.12)

Sirina intervala odredenog gornjom relacijom je ocito jednaka


(Np + p) (Np q) = p + q = 1.
Ovo je rezultat koji smo takoder vec dobili (drugim putem) na strani 46. Ako (Npq) nije
prirodan broj, tada samo jedna vrijednost x zadovoljava uvjet (8.12). Ako (Np q) jeste
prirodan broj, onda je i (Np q) + 1 = Np + p, takoder prirodan broj, pa postoje dvije
vrijednosti x koje zadovoljavaju (8.12). Nazovimo Np q = x
1
, tada je Np +p = x
1
+1.
Uvjerimo se da je P(x
1
) = P(x
1
+ 1), tj. da je njihov omjer jednak jedinici
P(x
1
)
P(x
1
+ 1)
=
_
N
x
1
_
p
x
1
q
Nx
1
_
N
x
1
+1
_
p
x
1
+1
q
Nx
1
1
=
x
1
+ 1
N x
1
q
p
=
Np q + 1
N Np + q
q
p
= 1.
Primjetimo da se x koji maksimizira P(x), nalazi u neposrednoj blizini (opcenito necje-
lobrojne) ocekivane vrijednosti E(X) = Np.
Prilagodba binomne raspodjele iskustvenim podacima
Primjer: 8.1 Izvodi se slijedeci pokus: baci se N = 12 kocaka i registrira se koji su se
brojevi pojavili. Pokus se izvodi N = 26 306 puta. Dogadaj koji se prati jeste
koliko se puta pojavio broj 5 ili broj 6. Taj se broj oznacava s x = 0, 1, , 12.
Treba izracunati vjerojatnost, p, pojavljivanja brojeva 5 ili 6.
R: Tablica 8.13 sadrzi eksperimentalno dobivenu tezinu x pojavljivanja,
oznacenu s t(x). Stupac oznacen s N P(x) sadrzi teorijsku vjerojatnost (8.1)
prema binomnoj raspodjeli, da se dogodi navedeni dogadaj (radi usporedbe s
tezinom, ovu smo vjerojatnost jos pomnozili s N).
x t(x) N P(x) N P
k
(x)
0 185 203 187
1 1 149 1 216 1 146
2 3 265 3 345 3 215
3 5 475 5 576 5 465
4 6 114 6 273 6 269
5 5 194 5 018 5 115
6 3 067 2 927 3 043
7 1 331 1 255 1 330
8 403 392 424
9 105 87 96
10 i vise 18 14 16
8.1. BINOMNA RASPODJELA 115
Drugi, treci i cetvrti stupac imaju isti zbroj jednak N = 26 306. Teorijske
vrijednosti u trecem stupcu su dobivene iz
N P(x) = N
_
N
x
_
p
x
q
Nx
= 26 306
_
12
x
_ _
1
3
_
x
_
2
3
_
12x
,
gdje smo pretpostavili da se bacaju idelane kocke, tako da je vjerojatnost p da
se okrene broj 5 ili broj 6 jednaka
p =
1
6
+
1
6
=
1
3
.
Broj bacanja N je vrlo velik, tako da bi prema zakonu velikih brojeva, drugi i
treci stupac trebali imati slicne vrijednosti (u tablici odstupanja dosezu i 10%).
Ovu razliku objasnjavamo neidealnoscu kocaka: one nisu savrsene i zato nas
teorijski p = 1/3 ne odgovara stvarnom p za kocke kojima je izvoden pokus.
Kako izracunati taj stvarni p? Jedan od mogucih nacina je slijedeci: iz (8.6)
znamo da je prvi moment jednak
pN =
N

x=0
x P(x), p =
1
N
.
N

x=0
x P(x). (8.13)
Ako u gornjoj relaciji ostavimo P(x), dobit cemo teorijsku vrijednost p =
1/3 za idealne kocke. Ono sto mi hocemo jeste da pomocu gornje relacije
izracunamo vjerojatnost za stvarne kocke kojima je izvoden pokus. Da bismo
to postigli, umjesto P(x) cemo uvrstiti relativne frekvencije t(x)/N i dobiti
p =
1
N N
.
N

x=0
x t(x) = = 0.3377 .
Ova vrijednost p se jasno razlikuje od teorijske 1/3 = 0.333333 . Ako sada
u izraz za raspodjelu vjerojatnosti binomne raspodjele uvrstimo p = 0.3377 i
q = 0.6623
N P
k
(x) = N
_
N
x
_
p
x
q
Nx
= 26 306
_
12
x
_
(0.3377)
x
(0.6623)
12x
,
dobit cemo vrijednosti oznacene u cetvrtom stupcu i koje su puno blize eksperi-
mentalno dobivenim vrijednostima (ovime se ujedno i potvrduje zakon velikih
brojeva).
8.1.1 Polinomna raspodjela kao poopcenje binomne
Promatra se pokus (proces) koji moze rezultirati ne na dva nacina kao u prethodnom
odjeljku, nego na Q razlicitih nacina koje cemo oznaciti s A
1
, A
2
, . . . , A
Q
, a koji se
medusobno iskljucuju (ako nastupi jedan, ne moze nijedan drugi). Vjerojatnost da pro-
ces rezultira s A
q
, cemo oznaciti s p
q
. Buduci da se kao rezultat procesa, sigurno mora
pojaviti jedan i samo jedan od A
q
-ova, to za vjerojatnosti p
q
mora vrijediti
Q

q=1
p
q
= 1.
116 POGLAVLJE 8. RASPODJELE
Sad se postavlja slijedece pitanje: ako se spomenuti pokus (proces) dogodi N puta, kolika
je vjerojatnost da ce se rezultat A
1
pojaviti N
1
puta, da ce se A
2
pojaviti N
2
puta itd.
Naravno da pri tome brojevi N
q
moraju zadovoljavati jednakost
Q

q=1
N
q
= N.
Jedan ishod niza od N pokusa se moze prikazati ovako
A
1
, . . . , A
1
,
. .
N
1
A
2
, . . . , A
2
,
. .
N
2
, A
Q
, . . . , A
Q
.
. .
N
Q
Buduci da je ishod svakog procesa neovisan o ishodu bilo kojeg drugog procesa (i vjero-
jatnost), to je gornjem nizu pridruzena vjerojatnost jednaka p
N
1
1
p
N
2
2
. . . p
N
Q
Q
. Buduci da
nas ne zanima redoslijed kojim se pojedini od N dogadaja ostvaruje, ista ce vjerojatnost
biti pridruzena i svakom nizu dobivenom svim mogucim razlicitim poretcima gornjeg niza.
Broj ovih razlicitih poredaka se dobije na slijedeci nacin: N elemenata se moze poslagati
na N! razlicitih nacina. No, ako je od tih N elemenata njih N
1
istih, onda medusobne
permutacije tih istih elemenata (a kojih ima N
1
!) nece dati novi poredak. Ove permu-
tacije istih elemenata treba odracunati, pa ce sada ukupni broj razlicitih poredak biti
jednak N!/N
1
!. Ako osim grupe od N
1
istih elemenata postoje jos i grupe od N
2
, N
3
, itd.
istih elemenata, ni njihove permutacije nece dati razlicit poredak, pa je zato zakljucak da
postoji
N!
N
1
! N
1
! N
Q
!
razlicitih nacina na koji moze rezultirati N procesa sa istom vjerojatnoscu p
N
1
1
p
N
2
2
. . .p
N
Q
Q
.
Prema pravilu o zbrajanju vjerojatnosti, vjerojatnost da se dogodi bilo koji od njih je dana
sa
P(N
1
, N
2
, . . . , N
Q
) =
N!
N
1
! N
1
! N
Q
!
p
N
1
1
p
N
2
2
. . . p
N
Q
Q
.
Gornji je izraz upravo koecijent u razvoju N-te potencije polinoma
(p
1
+ p
2
+ + p
Q
)
N
,
odakle i potjece naziv raspodjele. Ocito, za Q = 2, gornja se raspodjela svodi na binomnu.
8.2 Poissonova raspodjela
Krenimo od binomne raspodjele
P(x) =
_
N
x
_
p
x
q
Nx
u kojoj cemo pretpostaviti da se radi o vrlo rijetkim dogadajima, tako da je vjerojat-
nost p vrlo mala. Istovremeno cemo promatrati vrlo velik broj pokusa, N, uz
uvjet da je umnozak male velicine p i velike N, konstantan
N , p 0, N p = const. (8.14)
8.2. POISSONOVA RASPODJELA 117
Sada se binomna raspodjela dobiva u obliku
P(x) =
_
N
x
_ _

N
_
x
_
1

N
_
Nx
.
Prema pretpostavci je << N (rijetki dogadaji). Pogledajmo cemu je jednak gornji izraz
u toj granici.
P(x) =
N!
x!(N x)!
_

N
_
x
_
1

N
_
Nx
=

x
x!
_
1

N
_
N
N!
(N x)!N
x
_
1

N
_
x
.
Uvrstavanjem Stirlingove formule (3.4): M!

2MM
M
e
M
, za N! i (Nx)!, dobivamo
P(x) =

x
x!
_
1

N
_
N

2NN
N
e
N

2(N x)(N x)
Nx
e
N+x
N
x
_
1

N
_
x
=

x
x!
_
1

N
_
N
1
_
1
x
N
_
Nx+
1
2
_
1

N
_
x
e
x
.
Prema deniciji eksponencijalne funkcije, je
lim
N
_
1

N
_
N
= e

. (8.15)
Imajuci to u vidu, mozemo izvesti granicni prijelaz N u gornjem razlomku
lim
N
_
1

N
_
x
= 1,
lim
N
_
1
x
N
_
N
= e
x
,
lim
N
_
1
x
N
_
x+
1
2
= 1.
Uvrstavanjem u izraz za P(x), dobivamo
P(x) =

x
x!
e

e
x
e
x
.
Tako smo konacno dosli do Poissonove raspodjele
3
(slika 8.2)
P(x) = e


x
x!
.
(8.16)
Lako je vidjeti da je raspodjela normirana

x=0
P(x) = e

x=0

x
x!
= e

= 1.
Kada ocekujemo da cemo naci takvu raspodjelu? Gornji uvjet iscezavanja p-a znaci da
3
Otkrio ju je Poisson 1837. Neovisno o njemu, do istog je otkrica 1898. dosao i njemacki matematicar poljskog podrijetla
Bortkiewicz (njem. Bortkewitsch).
118 POGLAVLJE 8. RASPODJELE
Slika 8.2: Poissonova raspodjela za N = 20 i nekoliko vrijednosti .
0 5 10 15 20
n
0
0.2
0.4
0.6
0.8
P
(
n
)
= 0.3
= 1.0
= 3.0
= 5.0
= 7.0
se radi o jako rijetkim dogadajima (u svakom slucaju, broj dogadaja od intersa je puno
manji od ukupnog broja dogadaja) kao sto su samoubojstva, visestruki porodi, itd., pa
se ponekad naziva i zakon malih brojeva.
Izracunajmo ocekivanje i varijancu Poissonove raspodjele.
E(X) = X = e

x=0
x

x
x!
= e

x=1
x

x
x!
= e

x=1

x
(x 1)!
,
zato jer je clan s x = 0, jednak nuli. Uvodimo novu varijablu
m

0
= x

1
1
u kojoj je
X = e

m=0

m+1
m!
= e

x=0

x
x!
= e

= , (8.17)
kao sto se to i vidi sa slike 8.2. Slicno racunamo i drugi moment
X
2
= e

x=0
x
2

x
x!
= e

x=1
x

x
(x 1)!
.
Ponovo uvodimo varijablu m = x 1
X
2
= e

m=0
(m + 1)

m+1
m!
= e

x=0
x

x
x!
+ e

x=0

x
x!
= X + =
2
+ ,
V ar(X) = X
2
X
2
= .
Primjecujemo da su i varijanca i ocekivanje jednaki . Ove vrijednosti za ocekivanje i
varijancu Poissonove raspodjele se mogu dobiti i kao granicni prijelaz (8.14) odgovarjucih
8.2. POISSONOVA RASPODJELA 119
vrijednosti binomne raspodjele (8.6) i (8.9)
E
P
(X) = lim
N,p0
Np
E
B
(X) = lim
N,p0
Np
Np = ,
V ar
P
(X) = lim
N,p0
Np
V ar
B
(X) = lim
N,p0
Np
Npq = Np(1 p) = .
Izracunajmo jos i X
3
i X
4
, a zatim i koecijenete asimetrije i spljostenosti.
X
3
= e

x=0
x
3

x
x!
= e

x=1
x
2

x
(x 1)!
= e

m=0
(m+ 1)
2

m+1
m!
= e

x=0
(x
2
+ 2x + 1)

x
x!
= (X
2
+ 2X + 1) = (
2
+ 3 + 1),
X
4
= e

x=0
x
4

x
x!
= e

x=1
x
3

x
(x 1)!
= e

m=0
(m+ 1)
3

m+1
m!
= e

x=0
(x
3
+ 3x
2
+ 3x + 1)

x
x!
= (X
3
+ 3X
2
+ 3X + 1) = (
3
+ 6
2
+ 7 + 1).
asimetrija
3
=
M
3

3
=
X
3
3X
2
X + 2X
3

3
=

3
+ 3
2
+ 3
3
3
2
+ 2
3

=
1

,
spljo stenost
4
=
M
4

4
=
X
4
4X
3
X + 6X
2
X
2
3X
4

4
=

4
+ 6
3
+ 7
2
+ 4
4
12
3
4
2
+ 6
4
+ 6
3
3
4

2
= 3 +
1

.
Asimetrija je uvijek pozitivna, a spljostenost tezi normalnoj spljostenosti, kada raste.
primjeri i prilagodba empirijskim podacima
Primjer: 8.2 Navedimo primjer koji potjece od Bortkiewicza (njem. Bortkewitscha), a
koji se odnosi na statistiku o vojnicima koji su poginuli uslijed udarca konja, u
razdoblju od 1875. do 1894. godine. Ovo je razdoblje podijeljeno na 200 inter-
vala, pri cemu je u 109 intervala uoceno 0 smrtnih slucajeva, u 65 intervala
je uocen 1 slucaj, u 22 intervala su uocena 2 slucaja, u 3 intervala su uocena
3 slucaja i u 1 intervalu su uocena 4 smrtna slucaja. Treba provjeriti radi li
se tu o Poissonovoj raspodjeli?
R: Slucajna varijabla X je broj smrtnih slucajeva, a njezine vrijednosti su
x = 0, 1, 2, 3, 4. Tezine pojedinih vrijednosti su t
0
= 109, t
1
= 65, t
2
= 22, t
3
=
120 POGLAVLJE 8. RASPODJELE
3, t
4
= 1. Zbroj tezina daje ukupan broj dogadaja N = 200. Poissonova
je raspodjela odredena konstantom , pa cemo zato najprije, pomocu (8.17),
izracunati
= X =
0 109 + 1 65 + 2 22 + 3 3 + 4 1
200
=
122
200
= 0.61 .
Pomocu gornjega i (8.16 ) mozemo izracunati teorijsku tezinu N P(x)
N P(x) = 200 e
0.61
0.61
x
x!
i usporediti ju s empirijski dobivenim tezinama t
x
(donja tablica):
x t
x
N P(x)
0 109 108.7 109
1 65 66, 2 66
2 22 20.2 20
3 3 4.1 4
4 1 0.6 1
5 0 0.1 0
Opaza se vrlo dobro slaganja eksperimentalnih i teorijskih rezultata, sto potvrduje
pretpostavku da se radi o Poissonovoj raspodjeli.
8.3 Hipergeometrijska raspodjela
Ovo je raspodjela koju cemo vise koristiti kasnije u teoriji uzoraka.
Promatra se skup od N elemenata (npr. atoma ili molekula nekog plina), od kojih njih
M ima odredeno svojstvo (npr. spin ili brzinu odredenog iznosa), dok ostalih N M
elemenata nema to svojstvo. Oznacimo s p = M/N vjerojatnost da odabrani element
ima to svojstvo. Ako iz ovog skupa nasumice odaberemo N elemenata, zanima nas kolika
je vjerojatnost P(x) da se medu njima nade x elemenata sa navedenim svojstvom
4
?
Kao sto znamo, postoji
_
N
N
_
razlicitih nacina da se od N elemenata odabere uzorak od
N elemenata. Ukupan broj elemenata koji ima navedeno svojstvo je pN. Odabrati x od
pN elemenata je moguce izvesti na
_
pN
x
_
nacina. Preostalih Nx elemenata uzorka, treba
odabrati iz onog dijela N pN, pocetnog skupa koji nema navedeno svojstvo. Taj je
odabir moguce izvesti na
_
NpN
Nx
_
nacina. Svaki odabir elemenata sa navedenim svojstvom
se moze kombinirati sa svakim odabirom elemenata bez navedenog svojstva, sto vodi na
4
Usporediti ovo pitanje s primjerom sa strane 11.
8.3. HIPERGEOMETRIJSKA RASPODJELA 121
traznu vjerojatnost u obliku
P(x) =
broj uzoraka s x elemenata koji imaju navedeno svojstvo
ukupan broj uzoraka od N elemenata
=
_
M
x
_ _
NM
Nx
_
_
N
N
_ =
_
pN
x
_ _
NpN
Nx
_
_
N
N
_
=
(pN)!(N pN)!N!(N N)!
x!(pN x)!(N x)!(N pN N + x)!N!
=
(pN)!(qN)!N!(N N)!
x!(pN x)!(N x)!(qN N + x)!N!
,
pri cemu varijabla x poprima jednu od vrijednosti iz niza
x = 0, 1, 2, , min{N, pN}.
Izraz
P(x) =
(pN)!(qN)!N!(N N)!
x!(pN x)!(N x)!(qN N + x)!N!
(8.18)
se naziva hipergeometrijska raspodjela. Ona je jednoznacno odredena brojevima
N, p i x, pa se zato oznacava s H(N, p, N).
rekurzija:
Slicno kao i kod binomne raspodjele, koja je zadana faktorijelima, i ovdje mozemo lako
naci rekurziju izmedu P(x) i P(x 1)
P(x)
P(x 1)
=
(x 1)!(pN x + 1)!(N x + 1)!(qN N + x 1)!
x!(pN x)!(N x)!(qN N + x)!
=
(pN x + 1)(N x + 1)
x (qN N + x)
P(x) =
(pN x + 1)(N x + 1)
x(qN N + x)
P(x 1).
veza s hipergeometrijskom funkcijom:
Oznacimo s
A =
(qN)!(N N)!
(qN N)!N!
.
Tada je
P(x) = A
N!(pN)!(qN N)!
x!(N x)!(pN x)!(qN N + x)!
.
U gornjem obliku P(x) se moze usporediti s hipergeometrijskom funkcijom pozna-
tom iz vise analize ([13], str. 557), koja je denirana beskonacnim redom
F(, , ; u) = 1 +

1
u +
( + 1) ( + 1)
1 2 ( + 1)
u
2
+
( + 1)( + 2) ( + 1)( + 2)
1 2 3 ( + 1)( + 2)
u
3
+ .
122 POGLAVLJE 8. RASPODJELE
Uz slijedece preslikavanje,
= N,
= pN,
= qN N + 1,
omjer P(x)/A daje koecijente razvoja F(, ; u)
F(, ; u) =

x=0
P(x)
A
u
x
.
Evo nekoliko prvih clanova:
P(x = 0)
A
=
N!(pN)!(qN N)!
0!N!(pN)!(qN N)!
= 1,
P(x = 1)
A
=
N!(pN)!(qN N)!
1!(N 1)!(pN 1)!(qN N + 1)!
=
N(pN)
qN N + 1

()

,
P(x = 2)
A
=
N!(pN)!(qN N)!
2!(N 2)!(pN 2)!(qN N + 2)!
=
N(N 1)(pN)(pN 1)
2(qN N + 1)(qN N + 2)

( 1) ()( 1)
2( + 1)
=
( + 1) ( + 1)
2( + 1)
,
itd.
normiranje i momenti:
Da bismo pokazali normiranost hipergeometrijske raspodjele i izracunali njezine momente,
trebat ce nam Eulerova formula
min{D,s}

d=0
_
D
d
_ _
S D
s d
_
=
_
S
s
_
. (8.19)
Pomocu gornjeg izraza vidimo da je
min{N, pN}

x=0
P(x) =
1
_
N
N
_
min{N, pN}

x=0
_
pN
x
_ _
N pN
N x
_
=
1
_
N
N
_
_
N
N
_
= 1,
i raspodjela je nomirana. Izracunajmo jos i ocekivanje i varijancu:
X =
min{N, pN}

x=0
x P(x) =
1
_
N
N
_
min{N, pN}

x=0
x
_
pN
x
_ _
N pN
N x
_
=
1
_
N
N
_
min{N, pN}

x=1
x
(pN)!
x!(pN x)!
_
N pN
N x
_
=
1
_
N
N
_
min{N, pN}

x=1
pN (pN 1)!
(x 1)!(pN x)!
_
N pN
N x
_
.
8.3. HIPERGEOMETRIJSKA RASPODJELA 123
Sada se uvodi nova varijabla zbrajanja m = x 1
X =
pN
_
N
N
_
min{N1,pN1}

m=0
_
pN 1
m
_ _
N pN
N (m + 1)
_
=
pN
_
N
N
_
min{N1,pN1}

m=0
_
pN 1
m
_ _
N 1 (pN 1)
N 1 m
_
= (8.19) =
pN
_
N
N
_
_
N 1
N 1
_
= pN
Za racun varijance, pocnimo sa
X(X 1) =
min{N, pN}

x=0
x (x 1) P(x) =
1
_
N
N
_
min{N, pN}

x=2
x (x 1)
_
pN
x
_ _
N pN
N x
_
=
1
_
N
N
_
min{N, pN}

x=2
x (x 1)
(pN)!
x!(pN x)!
_
N pN
N x
_
=
1
_
N
N
_
min{N, pN}

x=2
pN (pN 1) (pN 2)!
(x 2)!(pN x)!
_
N pN
N x
_
=
pN (pN 1)
_
N
N
_
min{N2, pN2}

m=0
_
pN 2
m
_ _
N pN
N m2
_
=
pN (pN 1)
_
N
N
_
min{N2, pN2}

m=0
_
pN 2
m
_ _
N 2 (pN 2)
N 2 m
_
= (8.19) =
pN (pN 1)
_
N
N
_
_
N 2
N 2
_
X
2
X =
pN (pN 1) (N 1)
N 1
.
Iz prethodnog racuna znamo da je X = pN, pa sada mozemo lako izracunati

2
= X
2
X
2
= pqN
N N
N 1
.
Kao sto je pokazano u nastavku teksta, iz hipergeometrijske se raspodjele dobije binomna
u granici N ; i zaista, ako u gornjem izrazu za varijancu izvedemo taj limes, dobit
cemo varijancu binomne raspodjele:
2
= pqN.
Slicno se racunaju i visi momenti potrebni za dobivanje koecijenata asimetrije i sp-
ljostenosti.
veza s binomnom raspodjelom:
Pokazimo da u granici kada N , hipergeometrijska raspodjela prelazi u binomnu.
124 POGLAVLJE 8. RASPODJELE
Primjenom Stirlingove formule N!

2NN
N
e
N
, na P(x) dobivamo
lim
N
P(x) = lim
N
(pN)!(qN)!N!(N N)!
x!(pN x)!(N x)!(qN N + x)!N!
=
N!
x!(N x)!
lim
N
(pN)!(qN)!(N N)!
(pN x)!(qN N + x)!N!
=
_
N
x
_
lim
N

2pN(pN)
pN
e
pN

2(pN x)(pN x)
pNx
e
pN+x

2qN(qN)
qN
e
qN

2(qN N + x)(qN N + x)
qNN+x
e
qN+Nx

2(N N)(N N)
NN
e
N+N

2NN
N
e
N
.
Nakon skracivanja, dobije se
lim
N
P(x) =
_
N
x
_
p
x
q
Nx
lim
N
_
1
N
N
_
N
_
1
N
N
_
N+
1
2
_
1
x
pN
_
pN
_
1
x
pN
_
x+
1
2
_
1
Nx
qN
_
qN
_
1
Nx
qN
_
N+x+
1
2
.
Gornji su limesi redom jednaki
lim
N
_
1
N
N
_
N
= e
N
,
lim
N
_
1
N
N
_
N+
1
2
= 1,
lim
N
_
1
x
pN
_
pN
= e
x
,
lim
N
_
1
x
pN
_
x+
1
2
= 1,
lim
N
_
1
N x
qN
_
qN
= e
N+x
,
lim
N
_
1
N x
qN
_
N+x+
1
2
= 1.
Uvrstavanje gornjih limesa, vodi na
lim
N
P(x) =
_
N
x
_
p
x
q
Nx
.
Dakle, binomnu raspodjelu smo dobili kao granicni slucaj N , hipergeometrijske
raspodjele.
8.4. GAUSSOVA ILI NORMALNA RASPODJELA 125
Primjer: 8.3 Osnovni se skup sastoji od tri bijele i pet crnih kuglica. Treba naci hiper-
geometrijsku raspodjelu bijelih kuglica za uzorak od cetiri clana.
R: Osnovni skup ima N = 8 elemenata (kuglica). Uoceno obiljezje (bi-
jelu boju) imaju M = 3 elementa. Vjerojatnost p = M/N = 3/8. Velicina
uzorka je N = 4. Hipergeometrijska raspodjela je dana sa (8.18)
P(x) =
(pN)!(qN)!N!(N N)!
x!(pN x)!(N x)!(qN N + x)!N!
=
3! 5! 4! 4!
x! (3 x)! (4 x)! (1 +x)! 8!
za x = 0, 1, 2, 3 = M.
P(x = 0) =
3! 5! 4! 4!
3! 4! 8!
=
1
14
P(x = 1) =
3! 5! 4! 4!
2! 3! 2! 8!
=
6
14
P(x = 2) =
3! 5! 4! 4!
2! 2! 3! 8!
=
6
14
P(x = 3) =
3! 5! 4! 4!
3! 4! 8!
=
1
14
Ocito je vjerojatnost normirana
3

x=0
P(x) = 1.
Srednja vrijednost i varijanca su
X =
3

x=0
x P(x) =
0 1 + 1 6 + 2 6 + 3 1
14
=
21
14
= 1.5 = pN

2
= X
2
X
2
=
3

x=0
x
2
P(x)
_
3

x=0
x P(x)
_
2
=
39
14

_
3
2
_
2
=
15
28
= pqN
N N
N 1
.
8.4 Gaussova ili normalna raspodjela
S Gaussovom smo se raspodjelom vec upoznali na str. 49 , gdje smo ju dobili kao granicnu
vrijednost binomne raspodjele, kada N , relacija (3.6)
lim
N
_
N
x
_
p
x
q
Nx
=
1

2Npq
e

(xNp)
2
2Npq
.
Kako smo za binomnu raspodjelu, relacijama (8.6) i (8.9) vec dobili
X = Np,
2
= Npq,
126 POGLAVLJE 8. RASPODJELE
to gornji limes mozemo napisati i kao
lim
N
_
N
x
_
p
x
q
Nx
=
1

2
e

(xX)
2
2
2
.
Shvatimo li X kao kontinuiranu varijablu s vrijednostima x, koje se mijenjaju od do
+, tada je
dP(x) =
1

2
e

(xX)
2
2
2
dx
vjerojatnost da slucajna varijabla X poprimi vrijednost iz intervala (x, x +dx). Gustoca
vjerojatnosti
(x) =
dP(x)
dx
=
1

2
e

(xX)
2
2
2
(8.20)
se zove Gaussova ili normalna raspodjela gusto

ce vjerojatnosti (slika 8.3).


Ona je jedna od raspodjela koje se najcesce pojavlju u primjenama
5
. Lako je uvjeriti se
Slika 8.3: Gaussova raspodjela za X = 1 i = 0.5.
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5 3 3.5 4
x
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1



(
x
)
u slijedece relacije
1 =

(x) d x,
X =

x (x) d x,

2
=

(x X)
2
(x) d x.
5
Otkrili su ju Moivre, Laplace i Gauss, neovisno jedan o drugome, na prijelazu iz XV III XIX stoljece.
8.4. GAUSSOVA ILI NORMALNA RASPODJELA 127
Zbog parnosti gustoce vjerojatnosti u odnosu na tocku x = X,
(x = X + h) = (x = X h),
svi su neparni centralni momenti jednaki nuli: M
1
= M
3
= M
5
= = 0, a
parni
M
2k
=
1

(x X)
2k
e

(xX)
2
2
2
d x
su povezani slijedecom rekurzijom: uvedimo novu varijablu t = (x X)/
M
2k
=

2k

t
2k
e

t
2
2
d t.
Parcijalnom integracijom
d
d t
_
t
2k1
e

t
2
2
_
= (2k 1)t
2k2
e

t
2
2
+ t
2k1
(t) e

t
2
2
t
2k
e

t
2
2
= (2k 1)t
2k2
e

t
2
2

d
d t
_
t
2k1
e

t
2
2
_
dolazi se do
M
2k
=

2k

_
d
_
t
2k1
e

t
2
2
_
+ (2k 1)t
2k2
e

t
2
2
_
dt
=

2k

2
_
t
2k1
e

t
2
2
_
+

. .
= 0
+(2k 1)
2


2k2

t
2k2
e

t
2
2
dt
. .
= M
2(k1)
.
Prvi clan desne strane je jednak nuli, a drugi je srazmjeran s M
2k2
, sto daje rekurziju
M
2k
= (2k 1)
2
M
2(k1)
= (2k 1) (2k 3)
4
M
2(k2)
= (2k 1) (2k 3) (2k 5)
6
M
2(k3)
.
.
.
=
(2k)!
2
k
k!

2k
.
s ocitom pocetnom vrijednoscu (normiranjem) M
0
= 1
k = 1 M
2
=
2
M
0
=
2
,
k = 2 M
4
= 3
2
M
2
= 3
4
,
itd.
Uvrstavanjem u (7.8) i (7.9), za koecijent asimetrije se dobije
3
= 0, tj. raspodjela
nije asimetricna, nego je uvijek simetricna. Za koecijent spljostenosti se dobije
4
= 3
(buduci da se Gaussova raspodjela naziva i normalna, to se njoj pridruzena spljostenost
naziva normalna spljostenost).
Primjer: 8.4 navesti primjere Vranic str 182 i dalje
R:
128 POGLAVLJE 8. RASPODJELE
8.5 Gama raspodjela
Da bi se uvela gama raspodjela, potrebno je najprije se upoznati s gama funkcijom
6
(n),
koja je denirana
7
integralom
(n) =

+
0
x
n1
e
x
d x. (8.21)
Primjetimo odmah da je, prema gornjoj deniciji, (1) = 1. Parcijalnom integracijom
(8.21), dolazi se do rekurzije
d
d x
_
x
n1
e
x
_
= (n 1)x
n2
e
x
x
n1
e
x
,
(n) = (n 1)

+
0
x
n2
e
x
d x

+
0
d
d x
_
x
n1
e
x
_
d x
= (n 1) (n 1)
_
x
n1
e
x
_
+
0
= (n 1) (n 1). (8.22)
Za prirodni broj n, uz (1) = 1, i uzastopnu primjenu (8.22), dolazi se do veze izmedu
gama funkcije i funkcije faktorijela
(n) = (n 1) (n 2) 3 2 1 = (n 1)!.
Gama funkcija predstavlja poopcenje pojma faktorijela sa prirodnih na realne brojeve.
Prijelazom na varijablu t, dobiva se gama funkcija u ekvivalentnom obliku
x = t
2
, dx = 2tdt,
sto vodi na
(n) = 2

+
0
t
2n1
e
t
2
d t. (8.23)
(1/2) = 2

+
0
e
x
2
dx =

.
Gornji rezultat i rekurzija (8.22), daju
(3/2) =
1
2

, (5/2) =
3
4

, (7/2) =
15
8

, .
Pored gama funkcije denirane izrazom (8.21) (koja se zove jos i potpuna gama funkcija),
denira se i nepotpuna gama funkcija, slijedecim integralom
I(x, n) =
1
(n)

x
0
y
n1
e
y
d y. (8.24)
6
Gama funkcija se naziva i Eulerov integral druge vrste.
7
Vidjeti npr. [7]
8.5. GAMA RASPODJELA 129
Osim u predintegralnom mnozitelju, razlika u odnosu na (8.21) je u gornjoj granici inte-
gracije: ovdje je ona konacna. Takoder je ocito
lim
x
I(x, n) = 1.
Sada smo spremni denirati i gama raspodjelu. Ako se promatra kontinuirana slucajna
varijabla X cije se vrijednosti x nalaze u intervalu (0, +) i cija je gustoca vjerojatnosti
dana sa
(x) =
1
(n)
x
n1
e
x
, (8.25)
za sve vrijednosti slucajne varijable iz intervala (0, +), kaze se da je X opisana gama
raspodjelom. Prirodni broj n u gornjoj raspodjeli se zove stupanj slobode raspo-
djele. Na slici 8.4 je prikazana gama raspodjela za nekoliko vrijednosti n.
Slika 8.4: Gama raspodjela za nekoliko vrijednosti n. Za male vrijednosti argumenta, dominira potencija,
dok za vece vrijednosti prevladava eksponencijalno prigusenje.
0 2 4 6 8 10
x
0
0.1
0.2
0.3
0.4



(
x
)
n = 2
n = 4
n = 6
normiranje i momenti:
Nulti moment je normiranje
X
0
=


0
(x) dx =
1
(n)


0
x
n1
e
x
dx = 1.
Ovime je pokazano da je gustoca vjerojatnosti normirana. Izracunajmo prva dva momenta
130 POGLAVLJE 8. RASPODJELE
koji daju ocekivanje i varijancu:
X =


0
x (x) dx =
1
(n)


0
x x
n1
e
x
dx =
(n + 1)
(n)
=
n (n)
(n)
= n.
Racun drugog momenta se odvija na slican nacin:
X
2
=


0
x
2
(x) dx =
1
(n)


0
x
n+1
e
x
dx
=
(n + 2)
(n)
=
(n + 1) (n + 1)
(n)
=
(n + 1) n (n)
(n)
= n(n + 1).
Sada vidimo da je varijanca
V ar(X)
2
= X
2
X
2
= n
jednaka ocekivanju.
Momenti X
3
i X
4
daju koecijente asimetrije i spljostenosti, a jednostavno ih je
izracunati gornjim postupkom
X
3
=


0
x
3
(x) dx =
1
(n)


0
x
n+2
e
x
dx
=
(n + 3)
(n)
= n(n + 1) (n + 2)
X
4
=


0
x
4
(x) dx =
1
(n)


0
x
n+3
e
x
dx
=
(n + 4)
(n)
= n(n + 1) (n + 2) (n + 3).
ili funkcijom izvodnicom iz slijedeceg odjeljka (relacija (9.13))
X
3
=
d
3
d t
3
g
X
(t)

t=0
= n(n + 1)(n + 2),
X
4
=
d
4
d t
4
g
X
(t)

t=0
= n(n + 1)(n + 2)(n + 3)
ili, opcenito, X
k
= n(n + 1)(n + 2) . . . (n + (k 1)). Sada su, prema (7.7), koecijenti
asimetrije
3
i spljostenosti
4
jednaki

3
=
M
3

3
=
X
3
3X
2
X + 2 X
3

3
= =
2

4
=
M
4

4
=
X
4
4X
3
X + 6 X
2
X
2
3X
4

4
= = 3 +
6
n
.
Za velike vrijednosti n, asimetrija iscezava, a spljostenost tezi normalnoj vrijednosti.
veza s Poissonovom raspodjelom:
Pokazimo vezu izmedu gama i Poissonove raspodjele. Krenimo od gama raspodjele (8.25)
(x, n) =
1
(n)
x
n1
e
x
8.5. GAMA RASPODJELA 131
i zamjenimo x sa
(x, n) (, n) =
1
(n)

n1
e

.
Zamjenimo sada jos i n sa x + 1
(, n) (, x + 1) =
1
(x + 1)

x
e

=
1
x!

x
e

,
a to je upravo Poissonova raspodjela (8.16) (za prirodan broj x).
veza s Gaussovom raspodjelom:
Pokazimo sada vezu izmedu Gaussove (normalne) i gama raspodjele. Ako je varijabla x
raspodjeljena prema Gaussovoj razdiobi, tada je, prema (8.20),
dP
G
(x) =
1

2
e

1
2
(
xX

)
2
dx, x (, +)
vjerojatnost da varijabla x poprimi vrijednost iz intervala (x, x + dx) za bilo koji x iz
intervala (, +). Isto tako je i vjerojatnost da varijabla y koja se ravna po gama
raspodjeli (8.25) poprimi vrijednost iz intervala (y, y+dy) za bilo koji y iz (0, ), jednaka
dP

(n, y) =
1
(n)
y
n1
e
y
dy y (0, +).
Povezimo sada sa x i y relacijom
y =
1
2
_
x X

_
2
.
Kada se x mijenja od do +, y dva puta prode intervalom od 0 do +. Za x > X
je
x = X +

2y, dx =
dy

2y
.
Uvrsti li se gornja zamjena u dP
G
(x), dobiva se
1
2

y
1/2
e
y
dy.
No, isti ovakav doprinos dolazi i od x-eva manjih od X, pa je sve skupa
dP
G
(x) = 2
1
2

y
1/2
e
y
dy.
Prepoznamo li (1/2) =

, gornji izraz postaje


dP
G
(x) =
1
(1/2)
y
1
2
1
e
y
dy.
Desna strana gornjeg izraza nije nista drugo nego dP

(n = 1/2, y). Time smo pokazali da


vrijedi jednakost
dP
G
(x) = dP

_
n =
1
2
,
1
2
[(x X)/]
2
_
.
132 POGLAVLJE 8. RASPODJELE
Ovime je dokazan slijedeci
Teorem: Ako je x slucajna varijabla raspodjeljena po Gaussovoj raspodjeli sa sred-
njom vrijednoscu X i standardnom devijacijom , tada je varijabla
1
2
(x
X)
2
/
2
raspodjeljeno po gama raspodjeli sa stupnjem slobode n =
1
2
.
Neka je zadano N nezavisnih slucajnih varijabli X
n
raspodjeljenih po Gaussovoj ras-
podjeli s X
n
= 0 za sve n = 1, 2, , N i standardnim devijacijama jednakim
2
n
. Prema
gornjem teoremu, vrijednosti slucajne varijable x
2
n
/(2
2
n
) raspodjeljene su po gama raspo-
djeli

(1/2, x
2
n
/(2
2
n
)). U odjeljku o funkciji izvodnici se dokazuje, relacijom (9.15), da
je

(n, X)

(m, Y ) . . .

(l, Z) =

(n + m + + l, X + Y + + Z).
Identiciramo li redom varijable X, Y, , Z kao
X
x
2
1
2
2
1
, Y
x
2
2
2
2
2
, Z
x
2
N
2
2
N
,
uz n = m = = l = 1/2, tada je, prema gore recenom, slucajna varijabla
8

2
/2,
denirana sa

2
2
=
1
2
N

n=1
x
2
n

2
n
raspodjeljena po gama raspodjeli s parametrom N/2. Vjerojatnost da
1
2

2
poprimi
vrijednost iz intervala (
1
2

2
,
1
2

2
+ d
1
2

2
) je jednaka
dP(N/2,
2
/2) =
1
(N/2)
_

2
/2
_
N/21
e

1
2

2
d(
2
/2). (8.26)
To je rezultat koji cemo koristiti u odjeljku o testovima (13.3.1).
8.6 t raspodjela
t raspodjela:
Slucajna varijabla t (, +) je raspodjeljena po t-raspodjeli, kada je njezina
gustoca vjerojatnosti dana sa
(t) = C
0
(k)
_
1 +
t
2
k
_
(1+k)/2
, k = 1, 2, 3, . (8.27)
8
Da smo zapoceli s Gaussovim raspodjelama kojima je X
n
= 0, tada bi se
2
sada denirao kao

2
=
N

n=1
(x X
n
)
2

2
n
.
8.7. EKSPONENCIJALNA RASPODJELA 133
gdje je parametar k prirodan broj (koji se naziva i stupanj slobode), a
C
0
(k) =

_
1+k
2
_

_
k
2
_
k
.
Iz gornjeg izraza za gustocu vjerojatnosti se vidi da je ona simetricna u odnosu na pravac
t = 0
(t) = (t).
Na slici 8.5 je prikazana t-raspodjela usporedena s Gaussovom raspodjelom (t = 0,
2
=
1). Buduci da je (t) parna funkcija od t, to je t (t), neparna funkcija i zato su svi
Slika 8.5: Usporedba t-raspodjele za k = 3 i Gaussove raspodjele za t = 0,
2
t
= 1.
-4 -2 0 2 4
t
0
0.1
0.2
0.3
0.4
0.5


(
t
)
t - raspodjela
Gaussova raspodjela
neparni momenti jednak nuli
t
2n+1
=

t
2n+1

(
t) d t = 0.
Za racun parnih momenata raspodjele, koristit cemo relaciju (3.241.4) iz [8]


0
x
1
dx
(p + qx

)
n+1
=
1
p
n+1
_
p
q
_
/
(/) (n + 1 /)/(n + 1), 0 < / < n + 1.
sto vodi na izraz za parne momente
t
2n
= k
n
1 3 5 . . . (2n 1)
(k 2)(k 4) . . . (k 2n)
, k > 2n.
8.7 Eksponencijalna raspodjela
8.8 Geometrijska raspodjela
8.9 Logaritamsko - Gaussova raspodjela
dovrsiti
134 POGLAVLJE 8. RASPODJELE
8.10 Jednolika raspodjela
Posebno jednostvan oblik raspodjele (slika ) jeste jednolika raspodjela koja ima istu vrijed-
Slika 8.6: Jednolika raspodjela.
nost u cijelom podrucju vrijednosti kontinuirane slucajne varijable X. Neka X poprima
vrijednosti u intervalu x (a, a). Iz uvjeta normiranja vjerojatnosti, tada se lako dobiva
jednolika raspodjela
(x) =
1
2a
. (8.28)
Izracunajmo momente: zbog parnosti funkcije raspodjele (8.28), svi neparni momenti su
jednaki nuli
X
2k+1
=

+a
a
x
2k+1
1
2a
dx =
1
2a
x
2k+2
2k + 2

+a
a
= 0, k = 0, 1, 2, .
Parni su momenti jednaki
X
2k
=

+a
a
x
2k
1
2a
dx =
1
2a
x
2k+1
2k + 1

+a
a
=
a
2k
2k + 1
, k = 0, 1, 2, .
Tako su npr. X
2
= a
2
/3 i X
4
= a
4
/5. Koecijenti asimetrije i spljostenosti su

3
=
M
3

3
=
X
3
3X
2
X + 2X
3

3
= 0,

4
=
M
4

4
=
X
4
4X
3
X + 6X
2
X
2
3X
4

4
=
X
4

X
2

2
= 3
6
5
.
8.11. OP

CA KRIVULJA RASPODJELE 135


8.11 Opca krivulja raspodjele
Pitanjem opcih krivulja raspodjele bavio se osobito Karl Pearson sa suradnicima. U
svojim radovimo (poglavito u razdoblju od 1895. do 1916.godine), postavio je diferenci-
jalnu jednadzbu za gustocu vjerojatnosti
d

=
(mx)d x
a + bx + cx
2
, (8.29)
koja ovisi o cetiri parametra (m, a, b i c), a cija rjesenja, ovisno o vrijednostima para-
metara, daju razlicite raspodjele gustoca vjerojatnosti. Raspodjele vjerojatnosti koje se
pojavljuju u prirodi, najcesce imaju po jedan maksimum. Prema gornjoj diferencijalnoj
jednadzbi, polozaj maksimuma je odreden sa
d
d x
=
(mx)
a + bx + cx
2
= 0.
Dakle maksimum je ili u tocki x = m ili u = 0.
Za primjer navodimo Gaussovu raspodjelu kao posebni slucaj rjesenja jednadzbe (8.29):
stavimo li a = 1, b = c = 0, dobivamo
d

= (mx)d x,
_
ln =
1
2
(mx)
2
+ const.,
= c
0
e

1
2
(mx)
2
,
a to je upravo gustoca vjerojatnosti (8.20) Gaussove raspodjele (konstanta c
0
se odreduje
iz uvjeta normiranja).
136 POGLAVLJE 8. RASPODJELE
Poglavlje 9
Funkcija izvodnica
Neka je slucajna varijabla X opisana gustocom vjerojatnosti (x), gdje su x vrijednosti
od X. Za lakse studiranje svojstava slucajne varijable, uvodi se funkcija izvodnica g
X
(t)
denirana sa
g
X
(t) =

x
k
x
p
e
x t
(x) dx.
(9.1)
Granice integracije, x
p
i x
k
, idu po podrucju vrijednosti varijable X. Ako je varijabla
diskretna, umjesto integrala dolazi znak zbrajanja, a umjesto (x) dx dolazi vjerojatnost
P(x)
g
x
(t) =
x
k

x=x
p
e
x t
P(x). (9.2)
Moguce je da za neke gustoce vjerojatnosti , gornji integral, tj. zbroj, divergira. Tada
se kaze da te gustoce nemaju funkciju izvodnicu. Iz gornje denicije se takoder vidi da
se funkcija izvodnica moze shvatiti kao o

cekivanje varijable e
x t
g
X
(t) = E(e
x t
) = e
x t
.
Razvojem e
x t
u Taylorov red, dobiva se
g
X
(t) =

x
k
x
p
(x) dx +
t
1!

x
k
x
p
x (x) dx +
t
2
2!

x
k
x
p
x
2
(x) dx + +
t
n
n!

x
k
x
p
x
n
(x) dx +
= 1 +
X
1!
t +
X
2

2!
t
2
+ =

n=0
X
n

n!
t
n
.
Iz gornjeg se izraza lako zakljucuje da je vrijednost n-te derivacije funkcije izvodnice u
tocki t = 0, upravo jednaka n-tom momentu raspodjele
d
n
d t
n
g
X
(t)

t=0
= X
n
. (9.3)
To je razmjerno jednostavan nacin da se iz funkcije izvodnice dobiju momenti (odatle i
potjece naziv - izvodnica
1
).
1
engl. moment generating function
137
138 POGLAVLJE 9. FUNKCIJA IZVODNICA
svojstva funkcije izvodnice:
(1) Neka je g
X
(t) funkcija izvodnica varijable X. Izracunajmo g
aX+b
(t), za proizvoljne
konstante a i b. Prema deniciji (9.1) je
g
aX+b
(t) =

x
k
x
p
e
(ax+b)t
(x) dx
= e
bt

x
k
x
p
e
axt
(x) dx
= e
bt
g
X
(at). (9.4)
(2) Neka su sada X
1
i X
2
, dvije nezavisne slucajne varijable, a a
1
X
1
+ a
2
X
2
, njihova
linearna kombinacija (za konstantne a
1
i a
2
). Izracunajmo umnozak njihovih funkcija
izvodnica
g
a
1
X
1
(t) g
a
2
X
2
(t) =

x
k,1
x
p,1
dx
1

x
k,2
x
p,2
dx
2
e
(a
1
x
1
+a
2
x
2
)t
(x
1
) (x
2
).
No, umnozak dvije gustoce vjerojatnosti (x
1
) (x
2
) je opet nekakava gustoca vjerojat-
nosti, pa prema deniciji (9.1), zakljucujemo da to mora biti gustoca vjerojatnosti za
varijablu a
1
X
1
+ a
2
X
2
, tj. da mora vrijediti
(a
1
x
1
+ a
2
x
2
) = (a
1
x
1
) (a
2
x
2
),
g
a
1
X
1
+a
2
X
2
(t) = g
a
1
X
1
(t) g
a
2
X
2
(t) (9.5)
= (9.4) = g
X
1
(a
1
t) g
X
2
(a
2
t).
Slicno se dokazuje i za proizvoljan zbroj od k nezavisnih slucajnih varijabli
(a
1
x
1
+ a
2
x
2
+ + a
k
x
k
) = (a
1
x
1
) (a
2
x
2
) (a
k
x
k
)
g
a
1
X
1
+a
2
X
2
+ +a
k
X
k
(t) = g
a
1
X
1
(t) g
a
2
X
2
(t) g
a
k
X
k
(t) (9.6)
= (9.4) = g
X
1
(a
1
t) g
X
2
(a
2
t) g
X
k
(a
k
t).
funkcija izvodnica binomne raspodjele:
Binomna raspodjela se odnosi na diskretnu slucajnu varijablu, pa zato (x) dx iz (9.1)
treba zamijeniti s P(x) iz (8.1)
P(x) =
_
N
x
_
p
x
q
Nx
, x = 0, 1, 2, , N,
a znak integracije znakom zbrajanja. Time denicija (9.1) prelazi u (9.2)
g
X
(t) =

x
e
x t
P(x) =

x
e
x t
_
N
x
_
p
x
q
Nx
=

x
_
N
x
_
(pe
t
)
x
q
Nx
= (q + p e
t
)
N
.
139
g
X
(t) = (q + p e
t
)
N
, (9.7)
a to je funkcija s kojom smo se upoznali
2
jos relacijom (8.3). Pokazimo kako se funkcijom
izvodnicom racunaju ocekivanje i varijanaca binomne raspodjele. Prema (9.3) je
X
k
=
d
k
d t
k
g
X
(t)

t=0
,
X = N p e
t
(q + p e
t
)
N1

t=0
= N p,
X
2
= N p e
t
(q + p e
t
)
N2
_
(N 1) p e
t
+ (q + p e
t
)

t=0
= (N
2
N) p + N p,

2
= X
2
X
2
= N p q.
funkcija izvodnica Poissonove raspodjele:
Sjetimo se da se Poissonova raspodjela dobije kao granicna vrijednost binomne, kada
p 0 i N uz pN = const. Dakle, i funkciju izvodnicu Poissonove raspodjele
cemo dobiti kao opisanu granicnu vrijednost iz funkcije izvodnice binomne raspodjele
g
X
(t) = (q + e
t
p)
N
=
_
1

N
+ e
t

N
_
N
=
_
1 +
(e
t
1)
N
_
N
.
Prema deniciji eksponencijalne funkcije (8.15), u granici N uz konstantni , gornji
je izraz daje funkciju izvodnicu Poissonove raspodjele
g
X
(t) = e
(e
t
1)
. (9.8)
Prema (9.3) racunamo momente
g
X
(t)|
t=0
= 1,
X =
d
d t
g
X
(t)

t=0
= e

e
t
e
e
t

t=0
= ,
X
2
=
d
2
d t
2
g
X
(t)

t=0
= e

(1 + e
t
)e
t+e
t

t=0
= +
2
,
X
3
=
d
3
d t
3
g
X
(t)

t=0
= .
funkcija izvodnica Gaussove (normalne) raspodjele:
2
Uz zamjenu t e
t
.
140 POGLAVLJE 9. FUNKCIJA IZVODNICA
U deniciju funkcije izvodnice (9.1), za gustocu vjerojatnosti treba uvrstiti Gaussovu
gustocu (8.20)
g
X
(t) =
1

e
x t
e

1
2
(
xX

)
2
dx
=
1

2
e
(
2
t
2
+2tX)/2

e
[x(
2
t+X)]
2
/(2
2
)
dx.
Uvodenjem nove varijable u = [x (
2
t +X)]/(

2), konacno se dobiva


g
X
(t) =
1

e
(
2
t
2
+2tX)/2

e
u
2
du = e

2
t
2
/2+tX
.
g
X
(t) = e
X t +
1
2

2
t
2
. (9.9)
Ako ovu funkciju razvijemo u red dobit cemo
g
X
(t) = 1 +
_

2
t
2
2
+ tX
_
+
1
2!
_

2
t
2
2
+ tX
_
2
+
1
3!
_

2
t
2
2
+ tX
_
3
+
1
4!
_

2
t
2
2
+ tX
_
4
+
= 1 +X t +
1
2!
X
2
t
2
+
1
3!
X
_
3X
2
2X
2
_
t
3
+
1
4!
_
3X
2

2
2X
4
_
t
4
+
iz cega je lako procitati pojedine momente raspodjele
X
3
= X
_
3X
2
2X
2
_
,
X
4
= 3X
2

2
2X
4
,
.
.
.
Uocimo jos jedno svojstvo Gaussove raspodjele. Ako je gustoca vjerojatnosti varijable
X, karakterizirana s (X,
2
), pitanje je koliki su ocekivanje i varijanca varijable a X?
Prema (9.4), za b 0, je
g
aX
(t) = g
X
(at) = e

2
a
2
t
2
/2+atX
, (9.10)
a to je upravo funkcija izvodnica Gaussove raspodjele opisane ocekivanjem aX i vari-
jancom a
2

2
.
Adicijski teorem za Gaussove raspodjele:
Zadane su dvije slucajne varijable, X
1
i X
2
, opisane Gaussovim raspodjelama (8.20) ka-
rakteriziranim s (X
1
,
2
1
) i (X
2
,
2
2
). Pitanje je:
kojom je raspodjelom opisana slu

cajna varijabla a
1
X
1
+ a
2
X
2
za konstantne a
1
i a
2
? Krenimo od funkcija izvodnica za obje varijable
g
a
1
X
1
(t) = e
a
2
1

2
1
t
2
/2+a
1
tX
1

, g
a
2
X
2
(t) = e
a
2
2

2
2
t
2
/2+a
2
tX
2

.
141
Prema (9.4) i (9.5) je funkcija izvodnica varijable a
1
X
1
+ a
2
X
2
jednaka
g
a
1
X
1
+a
2
X
2
(t) = (9.5) = g
a
1
X
1
(t) g
a
2
X
2
(t)
= (9.4) = g
X
1
(a
1
t) g
X
2
(a
2
t)
= e

2
1
a
2
1
t
2
/2+a
1
tX
1

2
2
a
2
2
t
2
/2+a
2
tX
2

= e
1
2
(
2
1
a
2
1
+
2
2
a
2
2
)t
2
+t(a
1
X
1
+a
2
X
2
)
,
a to je upravo funkcija izvodnica Gaussove raspodjele karakterizirane ocekivanjema
1
X
1
+
a
2
X
2
i varijancom
2
1
a
2
1
+
2
2
a
2
2
. Dakle, Gaussova raspodjela varijable a
1
X
1
+a
2
X
2
, karak-
terizirana ocekivanjem a
1
X
1
+a
2
X
2
i varijancom a
2
1

2
1
+a
2
2

2
2
. Gornja se razmatranja
lako mogu protegnuti i na proizvoljnu linearnu kombinaciju od N slucajnih Gaussovih
varijabli. Linearna kombinacija N slucajnih varijabli X
n
je opet jedna nova slucajna
varijabla, koju cemo nazvati
= a
1
X
1
+ a
2
X
2
+ + a
N
X
N
.
Prema gore izlozenom, gustoca vjerojatnosti je dana Gaussovom raspodjelom s ocekivanjem
i varijancom
2

= a
1
X
1
+ a
2
X
2
+ + a
N
X
N
,

= a
2
1

2
1
+ a
2
2

2
2
+ + a
2
N

2
N
. (9.11)
funkcija izvodnica gama raspodjele:
Gama raspodjela je opisana gustocom vjerojatnosti (8.25), pa je njezina funkcija izvodnica
jednaka
g
X
(t) =
1
(n)

+
0
e
x t
x
n1
e
x
dx
=
1
(n)

+
0
x
n1
e
x(1t)
dx.
Prijelazom na novu varijablu u = x(1 t) (uz ogranicenje |t| 1), dobiva se
g
X
(t) =
1
(n)
_
1
1 t
_
n

+
0
u
n1
e
u
du = (8.21) = (1 t)
n
.
g
X
(t) = (1 t)
n
. (9.12)
142 POGLAVLJE 9. FUNKCIJA IZVODNICA
Sada je lako izracunati momente:
X
0
= g
X
(t)

t=0
= 1,
X
1
=
d
d t
g
X
(t)

t=0
= n, (9.13)
X
2
=
d
2
d t
2
g
X
(t)

t=0
= n(n + 1),
X
3
=
d
3
d t
3
g
X
(t)

t=0
= n(n + 1)(n + 2),
X
4
=
d
4
d t
4
g
X
(t)

t=0
= n(n + 1)(n + 2)(n + 3)
i opcenito,
X
k
= n(n + 1)(n + 2) . . .
_
n + (k 1)
_
=
(n + k 1) !
(n 1) !
.
Adicijski teorem za gama raspodjele:
Funkcija izvodnica gama raspodjele stupnja slobode n slucajne varijable X, je dana sa
(9.12). Prema (9.5) je funkcija izvodnica zbroja od dvije nezavisne slucajne varijable
X
1
+ X
2
, od kojih je prva stupnja n
1
, a druga stupnja n
2
, dana sa
g
X
1
(t) g
X
2
(t) = (1 t)
n
1
(1 t)
n
2
= (1 t)
(n
1
+n
2
)
= g
X
1
+X
2
(t), (9.14)
a to je opet gama raspodjela stupnja slobode n
1
+ n
2
. Time je dokazan slijedeci
Teorem: Zbroj dvije nezavisne slucajne varijable X
1
i X
2
raspodjeljene po gama raspo-
djelama sa stupnjevima slobode n
1
i n
2
, je nova slucajna varijabla X
1
+ X
2
raspodjeljena po gama raspodjeli sa stupnjem slobode n
1
+ n
2
.
Gornja se argumentacija lagano proteze i na zbroj od k slucajnih varijabla X+Y + +
Z sa stupnjevima slobode n, m, , l, koje ce biti raspodjeljene po gama raspodjeli sa
stupnjem slobode jednakim n + m+ + l
g
X+Y + +Z
(t) = g
X
(t) g
Y
(t) g
Z
(t),

(n + m+ + l, X + Y + + Z) =

(n, X)

(m, Y )

(l, Z) (9.15)
Gornji se izrazi mogu sazeti u
Teorem: Zbroj od k nezavisnih slucajnih varijabli X, Y, , Z raspodjeljenih po gama
raspodjelama sa stupnjevima slobode n, m, , l, je nova slucajna varijabla
raspodjeljena po gama raspodjeli sa stupnjem slobode n + m + + l.
9.1 Karakteristicne funkcije
Osim funkcija izvodnica, u statistici se koriste i karakteristicne funkcije C
X
(k), deni-
rane slicno kao i funkcije izvodnice (9.1), s tom razlikom da sada u eksponent dolazi
9.1. KARAKTERISTI

CNE FUNKCIJE 143


imaginarna jedinica
C
X
(k) =

x
k
x
p
e
k x
(x) dx.
(9.16)
Ponovo je (x) funkcija gustoce vjerojatnosti
3
. Ako je varijabla diskretna, umjesto inte-
grala dolazi znak zbrajanja, a umjesto (x) dx dolazi vjerojatnost P(x)
C
x
(k) =
x
k

x=x
p
e
k x
P(x). (9.17)
Iz gornje denicije se takoder vidi da se karakteristicna funkcija moze shvatiti kao o

cekivanje
varijable e
k x
C
X
(k) = E(e
k x
) = e
k x
.
Razvojem podintegralne eksponencijalne funkcije u red
e
k x
= 1 +
k x
1!
+

2
k
2
x
2
2!
+ +

n
k
n
x
n
n!
+ ,
karakteristicna funkcija postaje
C
X
(k) =

x
k
x
p
_
1 +
k x
1!
+

2
k
2
x
2
2!
+ +

n
k
n
x
n
n!
+
_
(x) dx
= 1 +
k
1!
X +

2
k
2
2!
X
2
+

3
k
3
3!
X
3
+

4
k
4
4!
X
4
+ .
Kao sto vidimo i karakteristicna funkcija je funkcija izvodnica, jer je zadana momentima
raspodjele. Buduci da se karakteristicna funkcija moze razviti u Taylorov red oko k = 0
C
X
(k) = C
X
(0) +
k
1!
d
d k
C
X
(k)

k=0
+
k
2
2!
d
2
d k
2
C
X
(k)

k=0
+
k
3
3!
d
3
d k
3
C
X
(k)

k=0
+ ,
to usporedbom gornja dva reda, ocitavamo
C
X
(k)

k=0
= 1,
d
d k
C
X
(k)

k=0
= X,
d
2
d k
2
C
X
(k)

k=0
=
2
X
2
= X
2
,
d
3
d k
3
C
X
(k)

k=0
=
3
X
3
= X
3
, (9.18)
d
4
d k
4
C
X
(k)

k=0
= X
4
,
.
.
.
d
n
d k
n
C
X
(k)

k=0
=
n
X
n

3
Uz pogodno odabrane granice integracije, C
X
(k) je Fourierova preobrazba od (x).
144 POGLAVLJE 9. FUNKCIJA IZVODNICA
Prednost karakteristicne pred funkcijom izvodnicom je u tome sto je integral kojim je
zadana karakteristicna funkcija, uvijek konvergentan
4
. Buduci da je

e
k x

= 1
to je i

C
X
(k)

x
k
x
p
e
k x
(x) dx

x
k
x
p

e
k x
(x) dx

x
k
x
p
(x) dx = 1,

C
X
(k)

1.
Za funkciju izvodnicu gornji izraz ne vrijedi, jer integral kojim je zadana funkcija izvodnica
(9.1),

x
k
x
p
e
k x
(x) dx
ne mora uvijek biti konvergentan. To je i razlog zasto se u praksi funkcije izvodnice
zamjenjuju karakteristicnim funkcijama.
Ilustrirajmo to na primjeru Cauchyeve raspodjele
C

C
(x) =
1
(1 +x
2
)
.
Funkcija izvodnica je
g
C
(k) =
1

e
k x
1 + x
2
dx.
Razvojem eksponencijalne funkcije u red, dobivamo
g
C
(k) =
1

1
1 + x
2
dx +
k

x
1 + x
2
dx +
k
2
2!

x
2
1 + x
2
dx +
k
3
3!

x
3
1 + x
2
dx +
= 1 + kX +
k
2
2!
X
2
+
k
3
3!
X
3
+ .
Buduci da su integrali

x
2
1 + x
2
dx,

x
4
1 + x
2
dx,
divergentni
5
, to je i cijela funkcija izvodnica takoder divergentna. Zakljucak je da Cauc-
hyjeva raspodjela nema momenata.
Drukcije je za karakteristicnu funkciju.
C
X
(k) =
1

e
k x
1 + x
2
dx =
1

cos(k x)
1 + x
2
dx +

sin(k x)
1 + x
2
dx.
4
Na primjeru funkcije izvodnice gama raspodjele se vidi da ona nije denirana za sve vrijednosti t, nego tek za |t| < 1.
5
Za veliki x je podintegralna funkcija prvog integrala jednaka 1, a drugog x
2
. Za navedene granice integracije, obje ove
funkcije imaju divergentan integral.
9.1. KARAKTERISTI

CNE FUNKCIJE 145


Drugi integral (sa sinusom) je jednak nuli jer je podintegralna funkcija neparna, pa pre-
ostaje
C
X
(k) =
1

cos(k x)
1 + x
2
dx.
Integracijom u kompleksnom podrucju se pokazuje da je
C
X
(k) = e
|k|
.
Razvoj u red daje
C
X
(k) = 1
|k|
1!
+
k
2
2!

|k|
3
3!
+
k
4
4!
.
Usporedbom gornjeg izraza sa (9.18), zakljucujemo da je
X = 1, X
2
= 1, X
3
= 1, . . .
Buduci da momenti ne mogu biti imaginarni, a parni momenti ne mogu biti ni negativni, to
opet zakljucujemo da Cauchyjeva raspodjela nema momente (ali karakteristicna funkcija
nije divergentna).
Za karakteristicnu funkciju vrijede slicni teoremi kao i za funkciju izvodnicu.
Neka je C
X
(k) karakteristicna funkcija varijable X. Izracunajmo karakteristicnu funkciju
varijable aX + b, gdje su a i b konstante. Prema deniciji karakteristicne funkcije (9.16)
C
aX+b
(k) =

x
k
x
p
e
k(ax+b)
(x) dx
= e
kb

x
k
x
p
e
kax
(x) dx
= e
kb
C
X
(ak) = e
kb
C
aX
(k).
Karakteristicna funkcija zbroja dvije nezavisne slucajne varijable X i Y , jednaka je
umnosku njihovih karakteristicnih funkcija.
C
X
(k) =

x
k
x
p
e
k x

X
(x) dx, C
Y
(k) =

y
k
y
p
e
k y

Y
(y) dy
C
X+Y
(k) = C
X
(k) C
Y
(k).
Isto vrijedi i za proizvoljan zbroj nezavisnih slucajnih varijabli
C
X
1
+X
2
++X
N
(k) = C
X
1
(k) C
X
2
(k) . . . C
X
N
(k). (9.19)
Posebno, ako su sve varijable X
n
raspodjeljene po istoj raspodjeli, biti ce i
C
X
1
+X
2
++X
N
(k) = [C
X
1
(k)]
N
.
Dokazimo i slijedecu tvrdnju poznatu kao :
146 POGLAVLJE 9. FUNKCIJA IZVODNICA
Teorem inverzije: Svaka raspodjela ima svoju karakteristicnu funkciju, a tu istu ka-
rakteristicnu funkciju ne moze imati nijedna druga raspodjela.
Neka kontinuirana slucajna varijabla X poprima vrijednosti u intervalu (, +). Nje-
zinoj raspodjeli gustoce vjerojatnosti (x), je relacijom
C
X
(k) =

e
k x
(x) dx
pridruzena karakteristicna funkcija C
X
(k).
Izracunajmo slijedeci integral

+A
A
e
k y
C
X
(k) dk =

+A
A
e
k y
dk

e
k x
(x) dx
=

dx (x)

+A
A
e
k (xy)
dk =

dx (x)
_
e
k (xy)
(x y)
_
+A
A
= 2

sin A(x y)
x y
(x) dx.
Umjesto varijable integracije x uvodimo novu varijablu z = A(x y), u kojoj je

+A
A
e
k y
C
X
(k) dk = 2

sin z
z
(z/A + y) dz
lim
A

+A
A
e
k y
C
X
(k) dk = 2

sin z
z
(y) dz = (y) 2

sin z
z
dz.
No, ovaj posljednji integral je tablicni integral s vrijednoscu

sin z
z
dz = ,
pa smo tako dobili da je

e
k y
C
X
(k) dk = 2(y),
tj.
(x) =
1
2

e
k x
C
X
(k) dk (9.20)
Gornjim se izrazom iz dane karakteristicne funkcije, jednoznacno dobiva gustoca vjero-
jatnosti.
Primjer: 9.1 Cauchyjeva raspodjela ima karakteristicnu funkciju C(k) = e
|k|
. Izracunajte
funkciju raspodjele gustoce vjerojatnosti.
9.1. KARAKTERISTI

CNE FUNKCIJE 147


R: Prema (9.20) je
(x) =
1
2

e
k x
e
|k|
dk =
1
2

e
k x+k
dk +
1
2

+
0
e
k xk
dk
=
1
2

+
0
_
e
k xk
+ e
k xk
_
dk
=
1

+
0
e
k
cos(k x) dk =
1

1
1 + x
2
.
Karakteristi

cna funkcija binomne raspodjele:


Binomna raspodjela vjerojatnosti je dana sa (8.1)
P(x) =
_
N
x
_
p
x
q
Nx
, x = 0, 1, 2, , N.
Prema deniciji
6
(9.17), je
C
X
(k) =
N

x=0
e
kx
P(x) =
N

x=0
e
kx
_
N
x
_
p
x
q
Nx
=
N

x=0
_
N
x
_
(pe
k
)
x
q
Nx
= (q + pe
k
)
N
.
C
X
(k) = (q + p e
k
)
N
. (9.21)
Pokazimo jos kako se karakteristicnom funkcijom racunaju ocekivanje i varijanaca bi-
nomne raspodjele. Prema (9.18) je
X = N p e
k
(q + p e
k
)
N1

k=0
= N p,
X
2
= N p e
k
(q + pe
k
)
N2
_
(N 1) p e
k
+ (q + pe
k
)

k=0
= (pN)
2
Npq
V ar(X) = X
2
X
2
= N p q.
Karakteristi

cna funkcija Poissonove raspodjele:


Sjetimo se da se Poissonova raspodjela dobije kao granicna vrijednost binomne, kada p 0
i N uz pN = const. Dakle, karakteristicnu funkciju Poissonove raspodjele cemo
dobiti kao opisanu granicnu vrijednost
C
X
(k) = (q + e
k
p)
N
=
_
1

N
+ e
k

N
_
N
=
_
1 +
(e
k
1)
N
_
N
.
U skladu s denicijom eksponencijalne funkcije, (8.15), u granici N uz konstantni
, gornji je izraz jednak
C
X
(k) = e
(e
k
1)
(9.22)
6
Sada je varijabla x diskretna, pa umjesto integrala dolazi zbroj.
148 POGLAVLJE 9. FUNKCIJA IZVODNICA
karakteristicnoj funkciji Poissonove raspodjele. Prema (9.18) racunamo momente
C
X
(k)|
k=0
= 1,
d C
X
(k)
d k

k=0
= e
k
e
(e
k
1)

k=0
= = X,
d
2
C
X
(k)
d k
2

k=0
= e
k
e
(e
k
1)
(1 +e
k
)

k=0
=
2
= X
2
,

2
= X
2
X
2
= .
Karakteristi

cna funkcija Gaussove (normalne) raspodjele:


U deniciju karakteristicne funkcije (9.16), za gustocu vjerojatnosti treba uvrstiti Ga-
ussovu gustocu (8.20)
C
X
(k) =
1

e
k x
e

1
2
(
xX

)
2
dx =
=
1

2
e

1
2
(
2
k
2
2 k X)

e
[x( k
2
+X)]
2
/(2
2
)
dx.
Uvodenjem nove varijable u = [x ( k
2
+X)]/(

2), konacno se dobiva


C
X
(k) =
1

1
2
(
2
k
2
2 k X)

e
u
2
du = e

1
2
(
2
k
2
2 k X)
.
C
X
(k) = e
k X
1
2
k
2

2
. (9.23)
Ako ovu funkciju razvijemo u Mac Laurinov red dobit cemo
C
X
(k) = 1 +
_
k X
1
2
k
2

2
_
+
1
2!
_
k X
1
2
k
2

2
_
2
+
1
3!
_
k X
1
2
k
2

2
_
3
+
1
4!
_
k X
1
2
k
2

2
_
4
+
= 1 +
1
1!
X k
1
2!
X
2
k
2

1
3!
X
_
3X
2
2X
2
_
k
3
+
1
4!
_
3X
2

2
2X
4
_
k
4
+
iz cega je, usporedbom sa (9.18), lako procitati pojedine momente raspodjele
X
3
= X
_
3X
2
2X
2
_
,
X
4
= 3X
2

2
2X
4
,
.
.
.
Karakteristi

cna funkcija gama raspodjele:


U deniciju karakteristicne funkcije (9.16), za gustocu vjerojatnosti treba uvrstiti gustocu
9.1. KARAKTERISTI

CNE FUNKCIJE 149


gama raspodjele (8.25)
C
X
(k) =
1
(n)

+
0
e
k x
x
n1
e
x
dx.
Uvodenjem nove varijable u = (1 k)x, dobiva se
C
X
(k) =
1
(n)
1
1 k

+
0
_
u
1 k
_
n1
e
u
du =
1
(n)
(1 k)
n

+
0
u
n1
e
u
du
C
X
(k) = (1 k)
n
. (9.24)
Pretpostavimo da imamo dvije slucajne varijable, X i Y , raspodjeljene po gama raspo-
djelama

X
(x) =
1
(n)
x
n1
e
x
,
Y
(y) =
1
(m)
y
m1
e
y
,
s pripadnim karakteristicnim funkcijama
C
X
(k) = (1 k)
n
, C
Y
(k) = (1 k)
m
Prema teoremu (9.19), karakteristicna funkcija slucajne varijable X + Y je
C
X+Y
(k) = C
X
(k) C
Y
(k) = (1 k)
(n+m)
.
No, gornja funkcija je upravo karakteristicna funkcija gama raspodjele

X
(x) =
1
(n + m)
x
n+m1
e
x
,
cime smo pokazali da je zbroj dvije nezavisne slucajne varijable X i Y raspodjeljene
po gama raspodjelama, nova slucajna varijabla X + Y raspodjeljena takoder po gama
raspodjeli (kao sto smo to pokazali i kod funkcije izvodnice).
Karakteristi

cna funkcija jednolike raspodjele:


U deniciju karakteristicne funkcije (9.16), za gustocu vjerojatnosti treba uvrstiti gustocu
jednolike raspodjele (8.28)
C
X
(k) =

+a
a
e
k x
1
2a
dx =
1
2a
e
k a
e
k a
k
C
X
(k) =
sin k a
k a
.
(9.25)
150 POGLAVLJE 9. FUNKCIJA IZVODNICA
9.1.1 Kumulativne funkcije
Kumulativna funkcija, K
X
(k), se denira kao logaritam karakteristicne funkcije
K
X
(k) = ln C
X
(k). (9.26)
Derivacije kumulativne funkcije su
d
d k
K
X
(k) =
1
C
X
(k)
C

X
(k),
d
2
d k
2
K
X
(k) =
1
C
2
X
(k)
_
C
X
(k) C

X
(k) (C

X
(k))
2
_
,
d
3
d k
3
K
X
(k) =
1
C
4
X
(k)
_
C
3
X
(k) C

X
(k) 3C
2
X
(k)C

X
(k)C

X
(k) + 2C
X
(k)(C

X
(k))
3
_
.
Uvrstavanjem (9.18) u gornje izraze, slijedi
d
d k
K
X
(k)

k=0
= X,
d
2
d k
2
K
X
(k)

k=0
= X
2
+X
2
d
3
d k
3
K
X
(k)

k=0
= X
3
+ 3XX
2
2X
3
.
Razvojem K
X
(k) u red i uvrstavanjem gornjih derivacija, dobiva se
K
X
(k) = K
X
(0) +
k
1!
d
d k
K
X
(k)

k=0
+
k
2
2!
d
2
d k
2
K
X
(k)

k=0
+
k
3
3!
d
3
d k
3
K
X
(k)

k=0
+
=
k
1!
X
1
+
(k)
2
2!
X
2
+
(k)
3
3!
X
3
+ ,
gdje su su s X
j
oznacene velicine koje se nazivaju kumulanti
X
1
= X,
X
2
= X
2
X
2
= M
2
,
X
3
= X
3
3X
2
X + 2X
3
= M
3
,
.
.
.
Relacijom (9.19) smo pokazali da za karakteristicne funkcije N nezavisnih slucajnih vari-
jabli X
n
vrijedi
C
X
1
+X
2
++X
N
(k) = C
X
1
(k) C
X
2
(k) . . . C
X
N
(k).
Logaritmiranjem gornjeg izraza dobiva se ekvivalentna relacija za karakteristicne funkcije
K
X
1
+X
2
++X
N
(k) = K
X
1
(k) + K
X
2
(k) + + K
X
N
(k).
Poglavlje 10
Sredisnji granicni teorem
Neka su
X
1
, X
2
, , X
N
medusobno nezavisne kontinuirane slucajne varijable, raspodjeljene po Gaussovoj ras-
podjeli s prosjecnim vrijednostima
X
1
, X
2
, , X
N

i standardnim devijacijama

1
,
2
, ,
N
.
Zbroj svih X
n
je jedna nova slucajna varijabla koju cemo oznaciti s
= X
1
+ X
2
+ + X
N
, (10.1)
S i

cemo oznaciti prosjecnu vrijednost i standardnu devijaciju . Prema (9.11) je


= X
1
+X
2
+ +X
N

=
2
1
+
2
2
+ +
2
N
.
Pitanje koje si sada postavljamo je:
Kojom je raspodjelom opisana slu

cajna varijabla ?
Do odgovora na to pitanje cemo doci pomocu karakteristicne funkcije. Neka je C

(k)
karakteristicna funkcija od , a C
X
n
(k) karakteristicna funkcija od X
n
. Prema (9.19),
vrijedi
C

(k) = C
X
1
(k) C
X
2
(k) C
X
N
(k).
Za Gaussovu raspodjelu smo u (9.23) dobili da je
C
X
n
(k) = e
kX
n

1
2

2
n
k
2
,
pa je
C

(k) = e
k(X
1
+X
2
++X
N
)
1
2
(
2
1
+
2
2
++
2
N
)k
2
= e
k
1
2

2

k
2
.
151
152 POGLAVLJE 10. SREDI

SNJI GRANI

CNI TEOREM
Time je C

(k) dobivena u obliku karakteristicne funkcije Gaussove raspodjele sa pro-


sjecnom vrijednoscu i varijancom
2

. Gornje razmatranje mozemo sazeti u slijedecu


tvrdnju:
Teorem: Zbroj od proizvoljnog broja nezavisnih slucajnih varijabli raspodjeljenih po
Gaussovoj raspodjeli, takoder je raspodjeljen po Gaussovoj raspodjeli.
Prirodno je sada postaviti slijedece pitanje:

Sto ako N medusobno nezavisnih slu

cajnih varijabli X
n
nisu raspodjeljene
po Gaussovoj raspodjeli? Kako

ce tada biti raspodjeljen njihov zbroj?
Oznacimo opet medusobno zadane nezavisne slucajne varijable
X
1
, X
2
, , X
N
,
ali su one sada raspodjeljene prema medusobno razlicitim raspodjelama (ne nuzno Ga-
ussovim), ciji su momenti jednaki
X
n
, X
2
n
, X
3
n
, .
Oznacimo sa X aritmeticku sredinu svih X
n
X =
1
N
_
X
1
+ X
2
+ + X
N
_
. (10.2)
Buduci da su X
n
medusobno nezavisne varijable to, prema (9.11), vrijedi
X =
1
N
_
X
1
+X
2
+ +X
N

_
,
2
X
=
1
N
2
_

2
1
+
2
2
+ +
2
N
_
.
Nadalje cemo pretpostaviti da je N vrlo velik broj
N 1.
Prema deniciji (9.16), karakteristicna funkcija varijable X (tj. Fourierova preobrazba
njezine gustoce vjerojatnosti) je dana sa
1
C
X
(k) =

e
k x
(x) dx.
No, X
n
su medusobno nezavisne varijable, pa je zato
(x ) dx = (x
1
) (x
2
) (x
N
) dx
1
dx
2
dx
N
.
Vratimo li se izrazu za karakteristicnu funkciju, dobivamo
C
X
(k) =

e
k
1
N
(x
1
+x
2
++x
N
)
(x
1
) (x
2
) (x
N
) dx
1
dx
2
dx
N
=

k x
1
N
(x
1
) dx
1

k x
2
N
(x
2
) dx
2

k x
N
N
(x
N
) dx
N
=
N

n=1

k x
n
N
(x
n
) dx
n
.
1
Ako je npr. varijabla X
n
denirana na intervalu (0, ), tada je njoj pridruzena gustoca vjerojatnosti jednaka nuli za
(, 0) i slicno za neke druge varijable. Uzevsi granice integracije od do +, obuhvatili smo sve moguce vrijednosti
slucajnih varijabli.
153
Uz pretpostavku da je N vrlo velik broj, argumenti eksponencijalnih funkcija su jako
mali brojevi, i zato mozemo u razvoju u red eksponencijalnih funkcija zadrzati samo
vodece clanove
C
X
(k) =
N

n=1

_
1 +
k x
n
N
+
1
2
_
k x
n
N
_
2
+O
_
N
3
_
_
(x
n
) dx
n
=
N

n=1
_
1 +
k
N
X
n

1
2
k
2
N
2
X
2
n
+O
_
N
3
_
_
=
N

n=1
e
ln
[
1+
k
N
X
n

1
2
k
2
N
2
X
2
n
+O
(
N
3
)
]
.
U gornjim smo izrazima s O(N
3
) oznacili clanove koji opadaju s N kao N
3
ili brze.
Za veliki N ti su clanovi manji od clanova koje smo eksplicite ispisali. Logaritam u
eksponentu mozemo razviti u red
ln(1 + ) =
1
2

2
+
1
3

3
,
po maloj velicini , koja u nasem slucaju iznosi

k
N
X
n

1
2
k
2
N
2
X
2
n
+O
_
N
3
_
,

2
=
k
2
N
2
X
n

2
+O
_
N
3
_
,

3
= O
_
N
3
_
.
Vratimo se izrazu za karakteristicnu funkciju
C
X
(k) =
N

n=1
e
k
N
X
n

1
2
k
2
N
2
(X
2
n
X
n

2
)+O
(
N
3
)

n=1
e
k
N
X
n

1
2
k
2
N
2

2
n
e

N
n=1
[
k
N
X
n

1
2
k
2
N
2

2
n
]
.
Dakle, uz zanemarivanje clanova reda O(N
3
) u eksponentu, za karakteristicnu funkciju
smo dobili
C
X
(k) = e
k
N
(X
1
+X
2
++X
N
)
1
2
k
2
N
2
(
2
1
+
2
2
++
2
N
)
= e
k X
1
2
k
2

2
X
,
sto prepoznajemo kao (9.23), karakteristicnu funkciju Gaussove raspodjele za varijablu
X . Kada znamo karakteristicnu funkciju, tada funkciju raspodjele gustoce vjerojatnosti
racunamo teoremom inverzije (9.20)
(X ) =
1
2

e
k x
C
X
(k) dk
=
1
2

e
k (Xx)
1
2
k
2

2
X
dk.
154 POGLAVLJE 10. SREDI

SNJI GRANI

CNI TEOREM
Ovo gore je tablicni integral ([1], p. 302, eq. 7.4.6)

e
a kb k
2
dk = e

a
2
4b

b
.
Uvrstavanje ovog rjesenja, izravno daje
(X ) =
1

2
e

1
2
(x X )
2

2
X
,
sto prepoznajemo kao Gaussovu raspodjelu. Zakljucujemo da je u granici velikog N,
gustoca vjerojatnosti slucajne varijable X (tj. obicne aritmeticke sredine) dana Gausso-
vom raspodjelom bez obzira kojom su raspodjelom opisane pojedine varijable X
n
. Gornja
razmatranja mozemo sazeti u slijedeci
Teorem: Zadano je N medusobno nezavisnih slucajnih varijabli, opisanih proizvolj-
nim gustocama vjerojatnosti. Ako od tih varijabli napravimo novu slucajnu
varijablu oblika zbroja (10.2), tada je raspodjela gustoce vjerojatnosti te nove
varijable dana Gaussovom raspodjelom. Ova je tvrdnja utoliko tocnija uko-
liko je N veci.
Ovaj se teorem naziva Sredi

snji grani

cni teorem. Njime Gaussova raspodjela dobiva


iznimno vazno mjesto u statistickoj teoriji. Prvi ga je postavio Laplace 1812. godine, a
strogi je dokaz dao Ljapunov 1901. godine.
Poglavlje 11
Informacija i entropija
11.1 Informacija
Iako se u svakodnevnom zivotu cesto koriste izrazi kao sto su: zasut sam sa puno in-
formacija ili imam premalo informacija da bih mogao/mogla napraviti to i to, najcesce
nitko i ne pomislja da se to puno informacija ili malo informacija izrazi kvantitativno
nekim brojem. U ovom ce se odjeljku pokazati upravo to: kako brojem izraziti kolicinu
informacije.
Razmislimo najprije, na temelju jednog jednostavnog primjera, koji su to dogadaji koji
sadrze puno, a koji dogadaji sadrze malo informacija. Zamislite da se nalazite usred ka-
lendarske zime i da na vijestima cujete vremensku prognozu da ce sutra biti jako hladno
i da ce snijeziti. To ce biti vijest koja sadrzi malo informacija, jer vi i bez meteorologa
ocekujete hladnocu i snijeg usred zime. No, ako na vijestima jave da ce sutra biti suncano
sa temperaturom zraka od +14
0
C, onda ta vijest sadrzi puno informacija. Ako zelimo
poopciti ovaj jednostavan primjer, reci cemo da vijest o dogadaju cija je vjerojatnost vrlo
velika, sadzi jako malo informacija. I obratno, vijest o dogadaju koji je malo vjerojatan,
sadzi puno informacija.
Definicija informacije:
Informacija I se denira kao logaritam omjera dvije vjerojatnosti: vjerojatnosti sigurnog
dogadaja (koja je jednaka jedan) i vjerojatnosti promatranog dogadaja
I = log
1
p
= log p. (11.1)
U skladu s ovom denicijom, manje vjerojatan dogadaj sadrzi vise informacija nego vise
vjerojatan dogadaj. Izracunajmo koliko informacija sadrzi vijest o dogadaju koji moze
imati samo dva ishoda (Bernoullijev dogadaj): nekome od vase rodbine ili prijatelja, rodilo
se dijete i vas zanima spol djeteta.

Sto znate o spolu djeteta, prije nego se informirate
kod sretnih roditelja? Razumno je pretpostaviti da je rodenje zenskog i muskog djeteta
jednako vjerojatno: p
z
= p
m
=
1
2
, pa je
I = log p = log
1
2
= log 2.
Iz prakticnih razloga (vezanih za uporabu elektronickih racunala) uobicajeno je proma-
trati logaritme u bazi 2, pa je tako
I = log
2
2 = 1.
155
156 POGLAVLJE 11. INFORMACIJA I ENTROPIJA
Kada vam netko od roditelja kaze spol djeteta, Vi cete dobiti kolicinu informacija u iznosu
od jedne jedinice. Mjerna jedinica za informaciju se zove bit, sto dolazi od skracenja
engleskog izraza binary digit. Opcenito, informacija ima iznos od jednog bita, ako nam
kaze koji se od dva jednako vjerojatna dogadaja zaista i dogodio.
Primjer: 11.1 Na sahovskoj ploci se nalazi samo jedna gura. Koliko bita sadrzi infor-
macija o polozaju te gure?
R: Na sahovskoj ploci postoje 64 polja. Figura moze biti na bilo kojem
polju, pa je zato vjerojatnost njezinog nalazenja na bilo kojem polju jednaka
p = 1/64. Prema deniciji (11.1), informacija o polozaju sadrzi
I = log
2
1
64
= log
2
2
6
= 6 bita.
11.2 Entropija izvora informacije
Svaka se vijest sastoji od odredenog broja slova, slogova, brojeva ili nekih drugih simbola.
Neka se promatra vijest sastavljena od N razlicitih slova. Kao sto je poznato
1
, od N
razlicitih elemenata se moze napraviti P
N
= N ! razlicitih permutacija. Vjerojatnost
svake pojedine permutacije je 1/P
N
, pa zato informacija o tome koja se od tih permutacija
pojavila kao vijest, ima
I = log
2
P
N
= log
2
N ! bita.
Ako se unutar skup aod N slova, pojavljuju grupe od po M
1
, M
2
, istih elemenata,
tada je ukupan broj permutacija jednak
P
M
1
,M
2
,
N
=
N !
M
1
! M
2
! . . .
,
a kolicina informacija je
I = log
2
P
M
1
,M
2
,
N
= log
2
N !

j
log
2
M
j
! bita.
Da bi se dobila informacija o ucinkovitosti izvora informacija, tj, koja kolicina podataka
(simbola) daje koju kolicinu informacija, denira se entropija izvora informacija,
H, kao jednostavni omjer kolicine informacije I i broja podataka (simbola) N koji su
proizveli tu kolicini informacija
H =
I
N
.
(11.2)
1
Vidjeti npr. odjeljak 1.1 ove knjige.
11.2. ENTROPIJA IZVORA INFORMACIJE 157
Primjer: 11.2 Kolika je entropija izvora informacija koji se sastoji od cetiri razlicita
slova?
R: Od cetiri razlicita slova se mogu napraviti 4 ! = 24 razne permutacije,
pa je zato vjerojatnost svake te permutacije jednaka 1/24. Prema deniciji
(11.2), entropija je
H =
I
N
=
log
2
24
4
=
4.58496
4
= 1.14624 bita.
158 POGLAVLJE 11. INFORMACIJA I ENTROPIJA
Poglavlje 12
Teorija korelacije
12.1 Pojam korelacije
Objasnimo pojam korelacije dvaju varijabli X i Y u usporedbi sa strogom funkcijskom
ovisnoscu X i Y i s primjerom gdje izmedu X i Y ne postoji nikakva veza.
Ako za svaki zadani X postoji algoritam kojim se izracunava pripadni Y , tada se kaze
da su X i Y povezani funkcijskom vezom. Jedan primjer funkcijske veze je relacija
y = 22.09 x
3
e
3x
, prikazana na slici 12.1.A. Naprotiv, ako za neki ksni X, varijabla Y
Slika 12.1: A: izmedu X i Y postoji funkcijska veza; B: izmedu X i Y ne postoji nikakva veza.
-0.5 0 0.5 1 1.5 2
x
-1
0
1
y
( A )
x
1
x
2
y
1
y
2
moze poprimiti bilo koju vrijednost, potpuno neovisno o X, tada se kaze da Y ne ovisi o
X, tj. za zadani X, varijabla Y moze imati bilo koju vrijednost. Isto tako, za svaki ksni
Y , varijabla X moze poprimiti bilo koju vrijednost. Ova vrsta (ne)ovisnosti je prikazana
na slici 12.1.B: tocke su priblizno homogeno raspodjeljene po dijelu (X, Y ) ravnine.
Izmedu ova dva ekstremna primjera se nalazi siroko podrucje pojava koje se nazivaju
korelacije. To su sve one pojave koje nisu vezane strogom funkcijskom vezom, ali koje
nisu niti potpuno nepovezane. Jedan tipican primjer ovakve vrste veze jeste veza izmedu
tjelesne visine i tjelesne mase odabrane skupine ljudi. Primjer takve veze je prikazan na
159
160 POGLAVLJE 12. TEORIJA KORELACIJE
slici 12.2, a odnosi se na primjer 12.1. Ljudi se medusobno razlikuju i ne postoji mate-
Slika 12.2: Veza visine X (u cm) i mase Y (u kg) jedne skupine ljudi.
150 160 170 180 190
x
50
60
70
80
90
y
4
40
72
42
10
1
maticka formula koja bi nam omogucila da na temelju visine izracunamo masu osobe ili
obratno, da na temelju mase izracunamo visinu. Za danu visnu, moguce su razlicite mase,
ali ne i previse razlicite. Primjetimo dvije vazne karakteristike slike 12.2:
(1) kao sto smo vec spomenuli, za danu visinu, moguce su razlicite mase, ali te mase
ne mogu biti proizvoljne - ne postoje osobe visoke 54 cm s tjelesnom masom 300 kg, kao
ni osobe visoke 185.5 cm s tjelesnom masom 40 kg; dakle, za danu visinu, masa se moze
mijenjati, ali ne bas posve proizvoljno,
(2) druga vazna osobina korelacijskih pojava se vidi iz brojeva sa slike 12.2 - ti brojevi
kazu koliki broj osoba iz promatrane skupine ima dane vrijednosti visine i mase
1
, pri-
mjecujemo da je najveci broj osoba koncentriran oko sredine intervala, dok su jako male
i jako velike mase, zastupljene manjim brojem individua, ili drugim rjecima, ako bismo iz
promatrane skupine nasumice birali jednu osobu visine 169.5 cm veca je vjerojatnost da
bi to bila osoba mase 64 kg, nego osoba mase 79 kg.
Ukoliko se broj osoba dane visine i tjelesne mase prikaze na osi z, dobije se slika 12.4. S
te slike zakljucujemo da za svaku ksnu visinu (ili ksnu masu) postoji masa (ili visina)
koja je najzastupljenija i time najvjerojatnija, a sve se druge mase (ili visine) javljaju u
manjem broju, i to utoliko manjem, ukoliko su dalje od ove najvece vrijednosti.
Nas zadatak u slijedecem odjeljku jeste kvantitativno izraziti kvalitativna opazanja iz
ovog odjeljka.
12.2 Linearna korelacija
Promatramo jedan skup dogadaja (osnovni skup). Na svakom dogadaju uocavamo neko-
liko obiljezja (npr. kod svih stanovnika jedne drzave uocimo njihovu tjelesnu masu X i
visinu Y ; kod neke skupine industrijskih proizvoda uocimo njihovu cijenu, zemlju podrije-
1
Slicni se brojevi mogu pridruziti svakoj tocki sa slike, ali su radi preglednosti slike izostavljeni.
12.2. LINEARNA KORELACIJA 161
tla i godinu proizvodnje; kod odredene zitarice uocimo broj zrna u klasu i visinu stabljike
ili sto slicno). Radi jednostavnosti, zadrzati cemo se na primjerima s dva obiljezja. Vri-
jednosti obiljezja X oznacimo s x, a broj razlicitih vrijednosti x-a neka je N. Vrijednosti
obiljezja Y za ksnu vrijednost X-a cemo oznaciti s y
x
. Ukupan broj razlicitih vrijednosti
Y za ksni X cemo oznaciti s M(x) (to su npr. ljudi iste tjelesne mase, tj. istog x , ali
razlicitih visina). Tezinama (apsolutnim frekvencijama)
t
x,y
nazivamo broj elemenata skupa koji imaju istu vrijednost i obiljezja X i obiljezja Y (u
primjeru iz tablice 12.1 to je broj biljaka s brojem cvjetnih stapki oznacenim s x i s brojem
latica oznacenim s y). Zbroj tezina po vrijednostima oba obiljezja

y
t
x,y
= N,
daje N, ukupan broj elemenata promatranog osnovnog skupa. Jednostruki zbroj

x
t
x,y
= t
y
,
je broj elemenata s ksnim obiljezjem Y za sve moguce vrijednosti X, a

y
t
x,y
= t
x
je broj elemenata s ksnim obiljezjem X za sve moguce vrijednosti Y , pri cemu je

y
t
y
= N,

x
t
x
= N.
Nanesemo li u pravokutnom koordinatnom sustavu obiljezje X na os x, obiljezje Y na
os y i tezine t
x,y
na os z, dobit cemo skup tocaka u trodimenzijskom prostoru koji
nam predocava raspodjelu ta dva obiljezja skupa (kao npr. slika 12.4). Da bismo umjesto
trodimenzijskog, dobili pregledniji, dvodimenzijski prikaz oba obiljezja skupa, postu-
pamo ovako: buduci da je svakom pojedinom x-u opcenito pridruzeno nekoliko y
x
-ova, mi
cemo za ksni x izracunati prosjecnu vrijednost (tj. obicnu aritmeticku sredinu) svih y
x
i oznaciti ju s y
x

y
x
=
1
t
x

y
x
y
x
t
x,y
x
. (12.1)
Provedemo li ovaj postupak za sve x-ove, dobit cemo skup tocaka
(x, y
x
),
cijim povezivanjem dobivamo dvodimenzijsku krivulju koja se zove krivulja regresije
oznacena crvenim na slici 12.3. Proucavanje krivulje regresije, glavni je zadatak teorije
korelacije. Za ilustraciju, ovog postupka navodimo primjer koji potjece od botanicara
Charliera koji je 1913. godine promatrao biljku Trientalis europea, na kojoj je uocio dva
obiljezja: broj cvjetnih stapki X i broj latica Y . Brojeci navedena obiljezja na 321. biljci,
dosao je do rezultata prikazanih u tablici 12.1 (to su tezine t
x,y
) i na slici 12.3:
162 POGLAVLJE 12. TEORIJA KORELACIJE
Tablica 12.1: Primjer racunanja krivulje regresije: x je broj cvjetnih stapki, a y je broj latica. Sredisnji
dio tablice predstavlja tezine t
x,y
.
x = 1 x = 2 x = 3 t
y
y = 5 119 6 0 125
y = 6 103 51 1 155
y = 7 10 16 2 28
y = 8 1 5 5 11
y = 9 0 0 2 2
t
x
233 78 10 321
Slika 12.3: Primjer racunanja krivulje regresije: crveno je (x, y
x
), ljubicasto je ( x
y
, y), plavo je pravac
(12.9), zeleno je pravac (12.11).
0 1 2 3 4
x
4
5
6
7
8
9
10
y

x
1
10
103
119
5
16
51
6
2
5
2
1
( < x >, < y > )
y
x=1
=
5 119 + 6 103 + 7 10 + 8 1
233
= 5.54077,
y
x=2
=
5 6 + 6 51 + 7 16 + 8 5
78
= 6.25641,
y
x=3
=
6 1 + 7 2 + 8 5 + 9 2
10
= 7.8,
x
y=5
=
1 119 + 2 6
125
= 1.048,
x
y=6
=
1 103 + 2 51 + 3 1
155
= 1.34194,
x
y=7
=
1 10 + 2 16 + 3 2
28
= 1.71429,
x
y=8
=
1 1 + 2 5 + 3 5
11
= 2.36364,
x
y=9
=
3 2
2
= 3 .
12.2. LINEARNA KORELACIJA 163
Na slici 12.3 su tocke (x, y
x
) prikazane crvenim kvadraticima, a krivulja regresije je
prikazana isprekidanom crvenom linijom. Varijable X i Y su potpuno ravnopravne, pa
se slicnim postupkom dobiva i druga krivulja regresije (x
y
, y), prikazana ljubicastim na
istoj slici.
Proucavanje krivulja regresije se izvodi momentima. Momenti se deniraju na isti nacin
kao i kod statistickih raspodjela (7.4) i (7.6), s tom razlikom da sada umjesto jedne, imamo
dvije varijable i umjesto teorijskih gustoca vjerojatnosti, dolaze empirijske frekvencije
P(x, y)
t
x,y
N
.
Navodimo denicije momenata X
k
Y
l
i centralnih momenata M
k,l
koje cemo kasnije
koristiti:
X
k
Y
l
=
1
N

y
x
k
y
l
t
x,y
,
M
k,l
=
1
N

y
_
x X
_
k
_
y Y
_
l
t
x,y
,
pri cemu su
X =
1
N

y
x t
x,y
=
1
N

x
x t
x
,
Y =
1
N

y
y t
x,y
=
1
N

y
y t
y
.
Uocimo i varijance
M
2,0

2
X
=
1
N

y
_
x X
_
2
t
x,y
=
1
N

y
_
x
2
2xX +X
2
_
t
x,y
= X
2
X
2
, (12.2)
M
0,2

2
Y
= Y
2
Y
2
.
Centralni moment
M
1,1

2
XY
=
1
N

y
_
x X
_ _
y Y
_
t
x,y
= XY XY , (12.3)
naziva se kovarijanca. U primjeru iz tablice 12.1 je
X = 1.3053, X
2
= 1.97819,
x
= 0.523815,
Y = 5.78505, Y
2
= 34.0903,
Y
= 0.789669,
XY = 7.79128,
x,y
= 0.489953.
164 POGLAVLJE 12. TEORIJA KORELACIJE
Pokusajmo naci neku jednostavnu funkciju koja bi opisivala statisticka svojstva proma-
tranog skupa. Poslije konstante, najjednostavnija analiticka krivulja je svakako pravac s
koecijentom smjera razlicitim od nule. Mi cemo, dakle, pokusati svakoj vrijednosti x
pridruziti jednu vrijednost y = f(x), tako da x i f(x) budu povezane jednadzbom pravca
f(x) = a
0
+ a
1
x (12.4)
(primjetimo da je konstanta poseban slucaj pravca paralelnog s osi x, tj. a
1
= 0). Pravac
zelimo povuci tako da
razlika iznosa odstupanja ordinata pravca
od niza vrijednosti y
x
bude

sto manja.
Iznose cemo promatrati kroz kvadrate odstupanja, jer se kvadriranjem eliminira predz-
nak odstupanja, a derivacija kvadatne funkcije je jednostavnija od derivacije apsolutne
vrijednosti. Taj uvjet matematicki pisemo tako sto trazimo da zbroj
S
2
y

1
N

y
x
_
y
x
f(x)
_
2
t
x,y
x
= min.
bude minimalan. Ako za f(x) uvrstimo jednadzbu pravca, uvjet minimuma glasi
S
2
y
=
1
N

y
x
_
y
x
a
0
a
1
x
_
2
t
x,y
x
= min. (12.5)
U gornjem su uvjetu koecijenti a
0
i a
1
slobodni parametri cije cemo vrijednosti odabrati
upravo tako da zadovoljimo gornji uvjet. Iz matematicke analize je poznato da se ekstrem
funkcije vise varijabli nalazi tako da se prve derivacije funkcije izjednace s nulom. Ali, prve
derivacije po cemu?

Citatelji su vjerojatno navikli da se funkcija zove f i da su njezine
varijable x i y i da se onda po njima derivira. Sada je situacija malo drukcija. Funkcija
ciji ekstrem trazimo se zove S
2
y
i ona ne ovisi niti o x niti o y
x
(to su nijeme varijable,
po njima se zbraja i zato nakon izvedenog zbrajanja, S
2
y
ne moze ovisiti o njima). Jedino
o cemu ovisi S
2
y
jesu koecijenti a
0
i a
1
koji odreduju pravac. Dakle, uvjeti ekstrema se
pisu kao
S
2
y
= S
2
y
(a
0
, a
1
)
S
2
y
a
0
= 0,
S
2
y
a
1
= 0.
To su jednadzbe koje odreduju ekstrem. U nasem slucaju, iz nacina kako je postavljen
problem, znamo da to mora biti minimum (maksimum je nemoguc).
S
2
y
a
0
= 0
1
N

y
x
(y
x
a
0
a
1
x) t
x,y
x
= 0,
S
2
y
a
1
= 0
1
N

y
x
x (y
x
a
0
a
1
x) t
x,y
x
= 0.
U gore uvedenim oznakama, to je 2 2 algebarski sustav za nepoznanice a
0
i a
1
XY a
0
X a
1
X
2
= 0, Y a
0
a
1
X = 0. (12.6)
12.2. LINEARNA KORELACIJA 165
Rjesenja gornjeg sustava su
a
1
=

2
XY

2
X
, a
0
= Y X

2
XY

2
X
(12.7)
(usporediti s (6.24), gdje je svakom x-u bio pridruzen samo po jedan y). Time trazena
jednadzba pravca glasi
y Y =

2
XY

2
X
_
x X
_
. (12.8)
To je pravac koji je najblizi tockama y
x
. Primjetimo jos i da on prolazi tockom
(X, Y ).
U primjeru iz tablice 12.1, ova jednadzba pravca glasi
y = 4.64306 + 0.87489 x (12.9)
(isprekidana plava crta na slici 12.3).
Pokazimo da je to ujedno i pravac najblizi krivulji regresije, tj. pokazimo da je
S
2
=
1
N

x
_
y
x
a
0
a
1
x
_
2
t
x
= min.
Parcijalnim derivacijama po a
0
i a
1
slijedi,
S
2
a
0
= 0
1

x
t
x

x
_
y
x
a
0
a
1
x
_
t
x
= Y a
0
a
1
X = 0,
S
2
a
1
= 0
1

x
t
x

x
x
_
y
x
a
0
a
1
x
_
t
x
= XY a
0
X a
1
X
2
= 0,
a to je opet 2 2 sustav kao i (12.6), pa smo time pokazali da je pravac (12.8) najblizi i
krivulji regresije.
Gore opisanim postupkom, krenuli smo od ksnih x i njima pridruzenih y
x
, da bismo na
kraju dobili pravac (12.8). Naravno da u x-evima i y-ima nema niceg posebnog, tj. da
smo mogli krenuti i od nekog ksnog y i potraziti njemu pridruzene x
y
s odgovarajucim
tezinama t
x,y
. Potpuno istim postupkom kao gore (uz zamjenu x y), dolazi se do pravca
pridruzenog krivulji regresije
x = g(y) = b
0
+ b
1
y,
x X =

2
XY

2
Y
_
y Y
_
,
166 POGLAVLJE 12. TEORIJA KORELACIJE
tj.
y Y =

2
Y

2
XY
_
x X
_
. (12.10)
Primjetimo da i ovaj pravac prolazi tockom
(X, Y ),
tj. to je tocka u kojoj se pravci (12.8) i (12.10) presjecaju. U primjeru iz tablice 12.1, taj
pravac glasi
y = 2.39433 + 2.59765 x,
(isprekidana zelena crta na slici 12.3).
Stupanj koreliranosti.
Ako su zadana dva ili vise osnovnih skupova, moze se postaviti pitanje usporedbe stup-
nja koreliranosti u tim skupovima:
koji je skup vi

se ili manje koreliran u odnosu na neki drugu skup?


Da bi se dobila kvantitativna ocjena stupnja korelacije pojedinog skupa, uvodi se koefi-
cijent korelacije
r =

2
XY

X

Y
(12.11)
(u nasem je primjeru r = 0.580345). Zna

cenje koecijenta korelacije cemo vidjeti na


temelju slijedeceg razmatranja: vec smo vidjeli da oba pravca regresije prolaze kroz tocku
(X, Y ), pa zato uvodimo pomaknute koordinate
x

= x X,
y

= y Y .
U tim novim koordinatama, jednadzba pravca (12.8) prolazi ishodistem ravnine (x

, y

) i
glasi
y

=

2
XY

2
X
x

.
12.2. LINEARNA KORELACIJA 167
Pogledajmo cemu je jednak zbroj (12.5) u crtkanim koordinatama
S
2
y
=
1
N

y
x
_
y
x
Ax B
_
2
t
x,y
x
=
1
N

y
x
_
y

x
+Y A
_
x

+X
_
B
_
2
t
x,y
x
=
1
N

y
x
_
y

x
Ax

+
_
Y AX B
_
. .
= (12.7) = 0
_
2
t
x,y
x
=
1
N

y
x
_
y


2
XY

2
X
x

_
2
t
x,y
x
=
1
N

y
x
_
y
2
x
2

2
XY

2
X
y

x
x

4
x,y

4
x
x
2
_
t
x,y
x
=
1
N

y
x
y
2
x
t
x,y
x
2

2
XY

2
X
1
N

y
x
y

x
x

t
x,y
x
+

4
x,y

4
x
1
N

y
x
x
2
t
x,y
x
= (12.2, 12.3) =
2
Y
2

2
XY

2
X

2
XY
+

4
X,Y

4
X

2
X
=
2
Y


4
XY

2
X
=
2
Y
_
1

4
XY

2
X

2
Y
_
=
2
Y
(1 r
2
), r =

2
XY

X

Y
.
Buduci da je S
2
y
zbroj pozitivnih brojeva, to je i on sam pozitivan broj, pa mora biti
(1 r
2
) 0 1 r +1.
Ako je r = 1, tada je S
2
y
= 0 i nema odstupanja pravca regresije od pravca: svakome x
odgovara jedan y
x
, tj. postoji stroga funkcionalna veza izmedu x i y
y = y(x).
U praksi to nikada nije slucaj, nego je uvijek
1 < r < +1
Iz gornjeg razmatranja zakljucujemo da

sto je r bli

zi grani

cnim vrijednostima +1
ili 1, to je korelacija bolja.

Sto je r po svojem iznosu blizi nuli, korelacija je
losija. Ako je r = 0, tada je S
2
y
=
2
Y
neovisno o x, tj. nema nikakve korelacije
izmedu x i y. Obicno se dobrom korelacijom smatra ona za koju je |r| 0.5, a losa je
korelacija za koju je |r| < 0.5.
Kutevi:
Proanalizirajmo jos i zna

cenje kuteva koje pravci regresije zatvaraju medusobno i sa


osima x i y. Iz (12.8) i (12.10) su poznate jednadzbe tih pravaca (iz jedne jednadzbe se
dobije druga, jednostavnom zamjenom x y)
y Y =

2
XY

2
X
_
x X
_
,
y Y =

2
Y

2
XY
_
x X
_
.
168 POGLAVLJE 12. TEORIJA KORELACIJE
Kao sto znamo, koecijenti smjera pravca su jednaki tangensima kutova koje pravci za-
tvaraju s osi x. Neka prvi pravac zatvara kut , a drugi
tan =

2
XY

2
X
, tan =

2
Y

2
XY
. (12.12)
Izracunajmo tangens kuta = koji medusobno zatvaraju ta dva pravca
tan = tan( ) =
tan tan
1 + tan tan
= (12.12) =
1 r
2
r


X

2
X
+
2
Y
.
Ako je r = 1 (sto znaci egzaktnu funkcionalnu ovisnost), tada je kut = = 0,
tj. oba pravca se poklapaju, identi

cki su jednaki. Ako je r = 0 (sto znaci da nema


korelacije izmedu x i y), tada je tan = , sto znaci da je kut medu pravcima /2:
pravci su medusobno okomiti kada izmedu x i y nema korelacije. Buduci da je
r =

2
XY

X

Y
,
iz r = 0 i slijedi da je i
2
XY
= 0, sto opet prema (12.12) povlaci da je i
tan = 0, tan = = 0, =

2
.
Jedan je pravac paralelan s osi x, a drugi s osi y.
Primjetimo na kraju jos i da sam kut ne mora biti mjera za korelaciju, jer on osim o
r ovisi i o
X
i
Y
. Jedino ako su x i y iste dimenzije (ili su bezdimenzijski), kut moze
posluziti kao mjera korelacije.
Primjer: 12.1 U donjoj tablicu su dane visine, X u cm i mase Y u kg, jedne dobne sku-
pine ljudi. Zadatak je prosuditi postoji li korelacija izmedu ove dvije varijable.
Y \X 157.5 161.5 165.5 169.5 173.5 177.5 181.5 185.5 t
y
X
y

54 9 23 13 4 1 - - - 50 162.70
59 10 31 51 40 7 1 - - 140 165.67
64 3 12 51 72 44 9 3 - 194 169.23
69 - 3 17 42 55 37 11 1 168 173.10
74 - 2 4 10 21 18 12 1 68 174.74
79 - - - 1 8 5 3 2 19 176.87
84 - - - - 3 1 2 2 8 179.00
89 - - - - - - 1 - 1 181.50
t
x
22 71 136 169 139 71 32 8 648
Y
x
57.64 59.07 62.09 64.50 68.46 70.41 72.91 75.88
R: Vrijednosti X
y
i Y
x
u gornjoj tablici su dobivene npr. ovako
X
y=54
=
1
50
(9 157.5 + 23 161.5 + 13 165.5 + 4 169.5 + 1 173.5) = 162.7,
12.2. LINEARNA KORELACIJA 169
Slika 12.4: Korelacija visina - masa iz primjera 12.1.
pom.dat
60
40
20
155
160
165
170
175
180
185
190
visina 50
55
60
65
70
75
80
85
90 masa
0
10
20
30
40
50
60
70
80
90
i slicno za istale vrijednosti iz tablice. Na slici 12.5 su plavom bojom oznaceni
parovi vrijednosti (x, Y
x
), a crvenom su bojom oznaceni parovi (X
y
, y).
Izracunajmo i ostale karakteristicne vrijednosti
X =
1
648

x
x t
x
= 169.901, X
2
=
1
648

x
x
2
t
x
= 28 902.2,

X
= 5.9875,
Y =
1
648

y
y t
y
= 65.2191, Y
2
=
1
648

y
y
2
t
y
= 4 294.64,

Y
= 6.41163,
XY =
1
648

y
x y t
xy
= 11 106.00

XY
= 5.02093.
Iz gornjih izraza racunamo i koecijent korelacije
r =

2
XY

X

Y
= 0.656681.
Koecijent korelacije je veci od 0.5, sto predstavlja dosta dobru korelaciju.
Izracunajmo tangense kutova i koji pravci zatvaraju s osi x, kao i tangens
kuta koji pravci zatvaraju medusobno
tan =

2
XY

2
X
= 0.703197, tan =

2
Y

2
XY
= 1.63068,
tan =
1 r
2
r


x

2
X
+
2
Y
= 0.432052 = 23.3668
0
.
170 POGLAVLJE 12. TEORIJA KORELACIJE
Slika 12.5: Plave tocke oznacavaju parove (x, Y
x
), a crvene oznacavaju parove (X
y
, y), a crtkanim
linijama su oznaceni odgovarajuci pravci.
150 160 170 180 190
x
50
60
70
80
90
y
Pomocu gornjih vrijednosti mozemo povuci i korelacijske pravce
y Y =

2
XY

2
X
(x X), y 65.2191 = 0.703197 (x 169.901),
y Y =

2
Y

2
XY
(x X), y 65.2191 = 1.63068 (x 169.901).
Ovi su pravci prikazani na slici 12.5: prvi u plavoj, a drugi u crvenoj boji.
12.3 Nelinearna korelacija
Ako se, prema (12.1), nacrta krivulja regresije (x, y
x
) i ako ona ne li

ci na pravac (kao
npr. na slici 12.6), potrebno je potraziti korelacijsku krivulju u obliku opcenitijem od
pravca. U pravilu se to radi pomocu polinoma reda K 2
f(x) = b
0
+ b
1
x + b
2
x
2
+ + b
K
x
K
, (12.13)
ali se mogu koristiti i drukcije funkcijske ovisnosti, ako zicka pozadina problema to
sugerira. Postupak je isti kao i kod linearne korelacije: koecijenti b
j
u gornjem izrazu
su slobodni parametri i oni se odreduju iz zahtjeva da S
2
y
, zbroj kvadrata odstupanja
ordinata korelacijskog polinoma f(x) od y
x
, bude minimalan
S
2
y
=
1
N

y
x
_
y
x
f(x)
_
2
t
x,y
x
= min., (12.14)
=
1
N

y
x
(y
x
b
0
b
1
x b
2
x
2
b
K
x
K
)
2
t
x,y
x
= min.
12.3. NELINEARNA KORELACIJA 171
Slika 12.6: Uz krivulju nelinearne regresije (12.13) za K = 2.
Nuzan uvjet minimuma jeste iscezavanje parcijalnih derivacija S
2
y
po b
j
:
S
2
y
b
0
= 0,
1
N

y
x
(y
x
b
0
b
1
x b
2
x
2
b
K
x
K
) t
x,y
x
= 0,
S
2
y
b
1
= 0,
1
N

y
x
(y
x
b
0
b
1
x b
2
x
2
b
K
x
K
) x t
x,y
x
= 0,
.
.
. (12.15)
S
2
y
b
K
= 0,
1
N

y
x
(y
x
b
0
b
1
x b
2
x
2
b
K
x
K
) x
K
t
x,y
x
= 0.
Gornje jednadzbe mozemo preglednije napisati i kao
Y b
0
b
1
X b
2
X
2
b
K
x
K
= 0,
XY b
0
X b
1
X
2
b
2
X
3
b
K
X
K+1
= 0,
.
.
. (12.16)
X
K
Y b
0
X
K
b
1
X
K+1
b
2
X
K+2
b
K
X
K+K
= 0.
To je sustav linearnih algebarskih jednadzba, reda (K+1) (K+1), cijim se rjesavanjem
dobivaju konstante b
0
, b
1
, , b
K
, a time i korelacijski polinom f(x) najblizi tockama y
x
.
Do rjesenja se moze doci i tako da se gornji sustav napise u matricnom obliku,
_

_
1 X X
2
X
K

X X
2
X
3
X
K+1

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
X
K
X
K+1
X
K+2
X
2 K

_
_

_
b
0
b
1
.
.
.
b
K
_

_
=
_

_
Y
X Y
.
.
.
X
K
Y
_

_
,
172 POGLAVLJE 12. TEORIJA KORELACIJE
a zatim ga se pomnozi s lijeva inverznom matricom
_

_
b
0
b
1
.
.
.
b
K
_

_
=
_

_
1 X X
2
X
K

X X
2
X
3
X
K+1

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
X
K
X
K+1
X
K+2
X
2 K

_
1 _

_
Y
X Y
.
.
.
X
K
Y
_

_
.
Gornji racun omogucava racun svih koecijenata b
0
, b
1
, , b
K
koji minimiziraju zbroj
(12.14).
Pokazimo da je ova krivulja ujedno i najbliza krivulji regresije y
x
. To cemo napraviti
tako sto cemo potraziti uvjet da je ukupno kvadratno odstupanje f(x) od y
x
minimalno
1
N

x
_
y
x
b
0
b
1
x b
2
x
2
b
K
x
K
_
2
t
x
= min.
Isto kao i ranije, gornji izraz parcijalno deriviramo po b
j
i te derivacije izjednacimo s
nulom
1
N

x
_
y
x
b
0
b
1
x b
2
x
2
b
K
x
K
_
t
x
= 0,
1
N

x
_
y
x
b
0
b
1
x b
2
x
2
b
K
x
K
_
x t
x
= 0,
.
.
.
1
N

x
_
y
x
b
0
b
1
x b
2
x
2
b
K
x
K
_
x
K
t
x
= 0.
Nakon zbrajanja, dobijemo isti sustav (12.16) kao i kada smo racunali odstupanja f(x)
od y
x
,
Y b
0
b
1
X b
2
X
2
b
K
x
K
= 0,
XY b
0
X b
1
X
2
b
2
X
3
b
K
X
K+1
= 0,
.
.
. (12.17)
X
K
Y b
0
X
K
b
1
X
K+1
b
2
X
K+2
b
K
X
K+K
= 0.
Time je pokazano da je korelacijska krivulja f(x) = b
0
+b
1
x+b
2
x
2
+ +b
K
x
K
ujedno
i najbliza regresijskoj krivulji y
x
.
Indeks korelacije:
Potrazimo sada velicinu koja ce nam opisivati stupanj koreliranosti izmedu X i Y . Ta se
velicina treba svesti na koecijent korelacije r (koji smo upoznali kod linearne korelacije),
kada su b
2
= b
3
= = b
K
= 0. Pomnozimo jednadzbe (12.15), koje daju uvjete
minimuma, redom sa b
0
, b
1
, , b
K
i zbrojimo ih. Dobit cemo
1
N

y
x
(b
0
+ b
1
x + b
2
x
2
+ + b
K
x
K
. .
= f(x)
)(y
x
b
0
b
1
x b
2
x
2
b
K
x
K
. .
= f(x)
) t
x,y
x
= 0,
12.3. NELINEARNA KORELACIJA 173
a to nije nista drugo nego
1
N

y
x
f(x)
_
y
x
f(x)
_
t
x,y
x
= 0,
1
N

y
x
f(x) y
x
t
x,y
x
=
1
N

y
x
f
2
(x) t
x,y
x
Y f = f
2
. (12.18)
Iz prve od jednadzba minimuma, (12.15), slijedi da je
1
N

y
x
[y
x
f(x)] t
x,y
x
= 0
1
N

y
x
y
x
t
x,y
x
=
1
N

y
x
f(x) t
x,y
x
Y = f. (12.19)
Vidimo da Y i f imaju istu prosjecnu vrijednost jednaku Y , koju mozemo uzeti za
ishodiste koordinatnog sustava, tj. mozemo prijeci u nove koordinate
y

= y Y .
f

= f f = f Y .
U tim novim koordinatama je
1
N

y
x
y
2
x
t
x,y
x
=
1
N

y
x
_
y
x
Y
_
2
t
x,y
x
=
2
Y
,
1
N

y
x
f(x)
2
t
x,y
x
=
1
N

y
x
_
f(x) Y
_
2
t
x,y
x
=
2
f
.
Oznacimo sa

2
Y,f
=
1
N

y
x
y

x
f(x)

t
x,y
x
=
1
N

y
x
_
y
x
Y
__
f(x) Y
_
t
x,y
x
=
1
N

y
x
_
y
x
f(x) y
x
Y f(x)Y +Y
2
_
t
x,y
x
= Y f Y Y fY +Y
2
= Y f fY
= (12.18), (12.19) = f
2
f
2
=
2
f
. (12.20)
Slicno kao i kod (12.11), zelimo kvantitativno izraziti stupanj koreliranosti osnovnog
skupa. Zato uvodimo indeks korelacije R
Y,X
,
R
Y,X
=

2
Y,f

f
= (12.20) =

2
f

f
R
Y,X
=

f

Y
.
(12.21)
174 POGLAVLJE 12. TEORIJA KORELACIJE
Da bismo vidjeli znacenje indeksa korelacije, vratimo se zbroju S
2
y
napisanom u crtkanim
koordinatama
S
2
y
=
1
N

y
x
_
y
x
f(x)
_
2
t
x,y
x
=
1
N

y
x
_
y

x
+Y f

(x) f
_
2
t
x,y
x
= (12.19) =
1
N

y
x
_
y

x
f

(x)
_
2
t
x,y
x
=
1
N

y
x
_
y
2
x
2y

x
f

(x) + f
2
(x)
_
t
x,y
x
=
1
N

y
x
y
2
x
t
x,y
x
2
1
N

y
x
y

x
f

(x) t
x,y
x
+
1
N

y
x
f
2
(x) t
x,y
x
=
2
Y
2
2
Y,f
+
2
f
= (12.20) =
2
Y

2
f
=
2
Y
_
1

2
f

2
Y
_
=
2
Y
_
1 R
2
Y,X
_
.
Iz gornjeg izraza vidimo da je zbroj kvadrata odstupanja y
x
f(x) utoliko manji ukoliko
je R
2
Y,X
blizi jedinici, tj. R
2
Y,X
mjeri koliko je polinom (12.13) blizu tockama y
x
. Ako je
R
2
Y,X
= 1, tada je S
2
y
= 0 i sve tocke y
x
leze na polinomu f(x) i on predstavlja egzaktnu
funkcijsku vezu X i Y . Ako je R
Y,X
= 0, zbroj S
2
y
ovisi samo o varijabli y, tj. izmedu x i
y nema nikakve korelacije. Sve ostale vrijednosti 1 < R
Y,X
< +1 opisuju veci ili manji
stupanj koreliranosti osnovnog skupa.
Umjesto (12.13), na potpuno isti nacin mogli smo krenuti i od polinoma
g(y) = a
0
+ a
1
y + a
2
y
2
+ + a
K
y
K
i zbroja
S
2
x
=
1
N

x
y
_
x
y
g(y)
_
2
t
x
y
,y
za koji bismo, analognim postupkom kao gore, dobili da je jednak
S
2
x
=
2
X
_
1 R
2
X,Y
_
.
Sada je
R
X,Y
=
g
/
X
,
indeks korelacije koji opisuje povezanost x prema y. Opcenito je R
X,Y
= R
Y,X
. Primje-
timo da za razliku od dva indeksa korelacije, postoji samo jedan koecijent korelacije i da
je on invarijantan na zamjenu X i Y .
Pokazimo da ako je polinom (12.13), pravac, da je tada R
Y,X
= r. Krenimo od izraza za
R
2
Y,X
R
2
Y,X
=

2
f

2
Y
=
1

2
Y
1
N

y
x
_
f(x) f
_
2
t
x,y
x
12.3. NELINEARNA KORELACIJA 175
u koji cemo uvrstiti (12.13) ogranicen na linearnu vezu
f = b
0
+ b
1
x
f = b
0
+ b
1
x = b
0
+ b
1
X
i dobiti
R
2
Y,X
=
1

2
Y
1
N

y
x
_
b
0
+ b
1
x b
0
b
1
X
_
2
t
x,y
x
=
b
2
1

2
Y
1
N

y
x
_
x
2
2xX +X
2
_
t
x,y
x
=
b
2
1

2
Y
_
X
2
2X
2
+X
2
_
=
b
2
1

2
Y
_
X
2
X
2
_
= b
2
1

2
X

2
Y
= (12.7) =

4
X,Y

4
X

2
X

2
Y
=

4
X,Y

2
X

2
Y
= r
2
.
Primjer: 12.2 Za ilustraciju nelinearne korelacije, navodimo jedan jednostavan primjer
ovisnosti izmedu X i Y . Donja tablica sadrzi tezine t
x,y
. Zadatak je izvesti
linearnu i kvadratnu korelaciju i izracunati koecijente i indekse korelacije.
Zakljucite koja je korelacijska funkcija najbolja.
Y \X 0 1 2 3
2 0 0 0 2
1 0 1 1 2
0 1 1 0 0
R: Izracunajmo najprije

y
t
x,y
= N = 8,

x
t
x,y
= t
y
,

y
t
x,y
= t
x
,
1
t
x

y
x
y
x
t
x,y
x
= y
x
,
1
t
y

x
y
x
y
t
x
y
,y
= x
y
.
Npr.
t
y=1
= 1 + 1 + 2 = 4
y
x=3
=
1
4
(2 2 + 1 2) = 1.5
x
y=1
=
1
4
(0 0 + 1 1 + 2 1 + 3 2) = 2.25.
176 POGLAVLJE 12. TEORIJA KORELACIJE
Unesimo gornje vrijednosti u tablicu.
Y \X 0 1 2 3 t
y
x
y

2 0 0 0 2 2 3
1 0 1 1 2 4 2.25
0 1 1 0 0 2 0.5
t
x
1 2 1 4 8
y
x
0 0.5 1 1.5
Sada se racunaju srednje vrijednosti:
X =
1
N

y
x t
x,y
=
1
N

x
x t
x
=
1
8
(0 1 + 1 2 + 2 1 + 3 4) = 2,
X
2
=
1
N

y
x
2
t
x,y
=
1
N

x
x
2
t
x
=
1
8
(0
2
1 + 1
2
2 + 2
2
1 + 3
2
4) = 5.25,
Y =
1
N

y
y t
x,y
=
1
N

y
y t
y
=
1
8
(0 2 + 1 4 + 2 2) = 1,
Y
2
=
1
N

y
y
2
t
x,y
=
1
N

y
y
2
t
y
=
1
8
(0
2
2 + 1
2
4 + 2
2
2) = 1.5,
X Y =
1
N

y
x y t
x,y
=
1
8
(0 0 1 + 0 1 0 + 0 2 0
1 0 1 + 1 1 1 + 1 2 0
2 0 0 + 2 1 1 + 2 2 0
3 0 0 + 3 1 2 + 3 2 2) =
1
8
(1 + 2 + 6 + 12) = 2.625
Pomocu gornjih srednjih vrijednosti se racunaju standardne devijacije:

2
X
= X
2
X
2
= 5.25 4 = 1.25,

2
Y
= Y
2
Y
2
= 1.5 1 = 0.5,

2
XY
= X Y X Y = 2.625 2 = 0.625.
Prema (12.8) i (12.10), korelacijski pravci su
y Y =

2
XY

2
X
_
x X
_
y = 0.5 x,
y Y =

2
Y

2
XY
_
x X
_
y = 0.8 x 0.6.
a prema (12.11), koecijent korelacije je
r =

2
XY

X

Y
= 0.790569.
12.3. NELINEARNA KORELACIJA 177
Za racun kvadratne korelacije oblika
y = f(x) = b
0
+ b
1
x + b
2
x
2
,
potrebno je izracunati i slijedece srednje vrijednosti
X
3
=
1
N

y
x
3
t
x,y
=
1
N

x
x
3
t
x
= 14.75,
X
4
=
1
N

y
x
4
t
x,y
=
1
N

x
x
4
t
x
= 42.75,
X
2
Y =
1
N

y
x
2
y t
x,y
= 7.375.
Ove srednje vrijednosti vode na slijedece vrijednosti koecijenata b
j
b
0
= 0,
b
0
= 0.5,
b
0
= 0,
tako da se kvadratna korelacija svodi na linearnu
y = 0.5 x.
Za racun indeksa korelacije, potrebno je izracunati i
f
2
=
1
N

y
f
2
(x) t
x,y
=
0.25
N

y
x
2
t
x,y
=
X
2

4
= 1.3125,

2
f
= f
2
Y
2
= 1.3125 1 = 0.3125,
sto zatim omogucava i racun indeksa korelacije (12.21) koji je u ovom slucaju
jednak koecijentu korelacije
R
Y X
=

f

Y
=

0.3125
0.5
= r = 0.790569.
Za racun one druge korelacijske parabole
x = g(y) = a
0
+ a
1
y + a
2
y
2
,
potrebno je izracunati i slijedece srednje vrijednosti
Y
3
=
1
N

y
y
3
t
x,y
=
1
N

y
y
3
t
y
= 2.5,
Y
4
=
1
N

y
y
4
t
x,y
=
1
N

y
y
4
t
y
= 4.5,
X Y
2
=
1
N

y
x y
2
t
x,y
= 4.125.
Ove srednje vrijednosti vode na slijedece vrijednosti koecijenata a
j
a
0
= 0.5,
a
0
= 2.25,
a
0
= 0.5,
178 POGLAVLJE 12. TEORIJA KORELACIJE
tako da kvadratna korelacija glasi
x = 0.5 + 2.25 y 0.5 y
2
.
Za racun indeksa korelacije, potrebno je izracunati i
g
2
=
1
N

y
g
2
(x) t
x,y
= dovr siti,

2
g
= f
2
X
2
= 4 = dovr siti,
sto zatim omogucava i racun indeksa korelacije
R
X,Y
=
g
/
X
= 0.82.
Buduci da je ovaj indeks korelacije blize jedinici nego sto su to R
Y X
i r,
zakljucak je da je ova kvadratna korelacija bolja od one prve kvadratane i
obje linearne korelacije. dovrsiti dodati crtez(e)
12.4 Omjer korelacije
Do sada smo se upoznali s dvije velicine koje mjere stupanj koreliranosti (ili stohasticnosti)
nekog skupa: to su koecijent korelacije r i indeks korelaciej R
,
. U ovom ce odjeljku
biti rijeci i o trecoj takvoj velicini - omjeru korelacije. Omjer korelacije je naziv za jednu
velicinu koja nam omogucava ocjenu stupnja koreliranosti (ili stohasticnosti) medu
velicinama X i Y , samo pomocu krivulje regresije,
(x, y
x
),
a bez uvodenja korelacijskog pravca ili koje druge korelacijske krivulje.
Ideja je u tome da se naprosto racuna zbroj kvadrata odstupanja y
x
od krivulje
regresije y
x
, a ne od polinoma kao u prethodonom odjeljku. Oznacimo taj zbroj sa
S
2
y
,
S
2
y
=
1
N

y
x
_
y
x
y
x

_
2
t
x,y
x
. (12.22)
sto je ovaj zbroj manji, to su tocke y
x
blize krivulji regresije y
x
i korelacija je veca.
Uvedimo jednu pomocnu velicinu

2
m,y
=
1
N

x
_
y
x
Y
_
2
t
x
,
koja mjeri odstupanja pojedinih y
x
od srednje vrijednosti cijelog skupa Y . Od ranije
nam je poznata varijanca y

2
Y
=
1
N

y
x
_
y
x
Y
_
2
t
x,y
x
.
12.4. OMJER KORELACIJE 179
Sada mozemo kombinirati ove izraze

2
Y
=
1
N

y
x
__
y
x
y
x

_
+
_
y
x
Y
__
2
t
x,y
x
=
1
N

y
x
_
y
x
y
x

_
2
t
x,y
x
. .
= S
2
y
+
1
N

y
x
_
y
x
Y
_
2
t
x,y
x
. .
=
2
m,y
+ 2
1
N

y
x
_
y
x
y
x

__
y
x
Y
_
t
x,y
x
.
Pokazimo da je ovaj posljednji, mjesoviti clan, jednak nuli
1
N

y
x
_
y
x
y
x

__
y
x
Y
_
t
x,y
x
=
1
N

y
x
_
y
x
y
x
y
x
Y y
x

2
+y
x
Y
_
t
x,y
x
=
1
N

y
x
y
x
y
x
t
x,y
x

Y
2

1
N

y
x
y
x

2
t
x,y
x
+

Y
2
=
1
N

x
y
x

y
x
_
y
x
y
x

_
t
x,y
x
=
1
N

x
y
x

_
y
x
y
x

_
t
x
= 0.
Vratimo se sada izrazu za
2
Y
koji postaje

2
Y
= S
2
y
+
2
m,y
.
Rijesimo li gornju jednakost po S
2
y
S
2
y
=
2
Y
_
1

2
m,y

2
Y
_
=
2
Y
_
1
2
Y,X
_
,
gdje smo oznacili

Y,X
=

m,y

Y
.
(12.23)
Buduci da je S
2
y
zbroj kvadrata, ono je pozitivna velicina, pa mora biti
1
Y,X
+1.
Velicina
Y,X
se naziva omjer korelacije i, slicno kao i koecijent i indeks korelacije,
mjeri korelaciju izmedu y
x
i x. Korelacija je bolja ako je S
2
y
manje, tj. ako je
Y,X
po
iznosu blizi jedinici. Ako je
2
Y,X
= 1, tada je S
2
y
= 0 i postoji egzaktna funkcijska veza
izmedu X i Y .
Pokazimo da je
S
2
y
S
2
y
.
180 POGLAVLJE 12. TEORIJA KORELACIJE
Prema denicijama (12.14) i (12.22) je
S
2
y
=
1
N

y
x
_
y
x
y
x

_
2
t
x,y
x
, S
2
y
=
1
N

y
x
_
y
x
f(x)
_
2
t
x,y
x
.
Oba gornja izraza su oblika
1
N

y
x
_
y
x
a
x
_
2
t
x,y
x
F(a
x
),
sto shvacamo kao neku funkciju od a
x
, koju smo nazvali F(a
x
). Pitamo se: kada je F(a
x
)
najmanje (po deniciji, najvece je za a
x
)? Iz matematicke analize je poznato da se
uvjet ekstrema funkcije odreduje iz
d F(a
x
)
d a
x
= 0 = (2)
1
N

y
x
(y
x
a
x
) t
x,y
x
y
x
= a
x
i/ili Y = a.
Dakle, zbroj je najmanji kada je a
x
= y
x
. U zbroju S
2
y
je a
x
= f(x) = y
x
, pa je zato
S
2
y
S
2
y
. Iz ove nejednakosti i relacija
R
2
y,x
= 1
S
2
y

2
Y
,
2
Y,X
= 1
S
2
y

2
Y
zakljucujemo da je

2
Y,X
R
2
y,x
.
To znaci da omjer korelacije ne moze biti manji od indeksa korelacija (pa time i koecijenta
korelacije). Ako je krivulja regresije pravac, tada je y
x
= f(x) i oba zbroja su isti:
S
2
y
= S
2
y
, pa je i

2
Y
(1
2
Y,X
) =
2
Y
(1 r
2
),

Y,X
= r.
Spomenimo jos na kraju, da razlika
2
Y,X
r
2
mjeri koliko korelacijska krivulja odstupa
od pravca.
Primjer: 12.3 dovrsiti
12.5 Visestruka i djelomicna korelacija
U prethodnim smo odjeljcima pokazali kako se moze traziti korelacija jedne slucajne va-
rijable o drugoj. Sada cemo to prosiriti na mogucnost da je jedna slucajna varijabla
korelirana sa dvije ili vise drugih slucajnih varijabli. Ovakav tip korelacije se naziva
vi

sestruka korelacija. Npr. moze se traziti korelacija izmedu visine jedne osobe i
visine njezinih roditelja (dvostruka korelacija) ili korelacija izmedu prinosa neke poljo-
privredne kulture i koristenja gnojiva, sredstava za zastitu od korova i kukaca, kolicine
padalina itd. (visestruka korelacija).
Ako znamo da je jedna varijabla korelirana sa vise drugih varijabli, ali nas iz nekog razloga
zanima ovisnost o samo jednoj od tih nekoliko varijabli (uz eliminaciju utjecaja ostalih),
tada se takva korelacija naziva djelomi

cna korelacija.
12.5. VI

SESTRUKA I DJELOMI

CNA KORELACIJA 181


12.5.1 Visestruka korelacija
Radi jednostavnosti promatrajmo problem sa tri slucajne varijable
y, x
1
, x
2
,
pri cemu cemo pretpostaviti da je y korelirano sa x
1
i x
2
. Svakom paru vrijednosti
(x
1
, x
2
) pripada nekoliko vrijednosti y. Broj tih razlicitih vrijednosti, nazivamo tezinom
(apsolutnom frekvencijom).
... dovrsiti ...
182 POGLAVLJE 12. TEORIJA KORELACIJE
Poglavlje 13
Teorija uzoraka
13.1 Osnovni pojmovi
U praksi se cesto javljaju problemi slijedeceg tipa:
Stigla je velika posiljka robe (brod pun kontejnera) i potrebno je procjeniti udovoljava
li pristigla roba odredenim standardima. Naravno da je neizvedivo otvarati svaki pojedini
kontejner i pregledati svaki pojedini proizvod. Umjesto toga nasumice se odabere nekoliko
kontejnera iz kojih se izvadi nekoliko primjeraka proizvoda i provjerava se samo njihova
kakvoca
Treba procjeniti sigurnost automobila u slucaju sudara. To se izvodi tako da se u
automobil stave lutke koje oponasaju putnike, a zatim se simulira sudar i potom analizira
ostecenje na automobilu i ozljede putnika. Ako bi se ovakav test proveo na svim automo-
bilima iz serije, nista ne bi ostalo za prodaju. Zato se test izvodi na manjem broju vozila,
a za rezultate se pretpostavlja da vrijede za cijelu seriju.
Gornja dva primjera mozemo poopci na slijedeci nacin: zadan je polazni (osnovni) skup
nekakvih proizvoda, predmeta, dogadaja ili neceg slicnog, a
zadatak je odrediti tra

zene parametre skupa koriste

ci statisti

cku analizu.
Ovo se poglavlje razlikuje od prethodnih po tome sto sada ne

cemo analizirati sve


elemente osnovnog skupa, nego samo jedan manji dio elemenata. Razlog je taj sto broj
elemenata tog polaznog skupa moze biti vrlo velik ili nam nisu dostupni svi elementi tog
skupa ili nemamo vremena proanalizirati svojstva svakog pojedinog elementa ili nesto
slicno. U tom slucaju se odabiru, relativno mali dijelovi skupa koji se nazivaju uzorci.
Teorija koja ispituje racunske postupke nad uzorcima, se zove teorija uzoraka ili teorija
reprezentativne metode
1
. Teoriji uzoraka je cilj:
(1) ustanoviti svojstva osnovnog skupa, na temelju svojstva uzoraka,
(2) ustanoviti koliko dobiveni rezultati odstupaju od tocnih vrijednosti
(koje se odnose na osnovni skup).
1
engl: sampling
183
184 POGLAVLJE 13. TEORIJA UZORAKA
Postignuce ovih ciljeva ovisi opet o tome kojim su se postupkom stvarale procjene iz uzo-
raka, kao i nacinu na koji je dobiven uzorak. Uobicajeno je elemente uzorka odabirati
metodom slu

cajnog odabira, sto znaci da svaki element osnovnog skupa ima istu vje-
rojatnost da bude odabran. Uvedimo nekoliko oznaka:
N je ukupan broj elemenata osnovnog skupa,
N je broj elemenata u pojedinom uzorku
(pretpostavljamo da svi uzorci imaju isti broj elemenata),
N
uz
je broj uzoraka
Krenimo od osnovnog skupa (koji ima N elemenata)
x
1
, x
2
, , x
N
(13.1)
i cija je aritmeticka sredina jednaka
x =
x
1
+ x
2
+ + x
N
N
. (13.2)
To je velicina koju je vrlo tesko ili nemoguce izracunati. Iz tog skupa izdvajamo uzorke
od po N clanova. Ukupan broj uzoraka koje je moguce napraviti na opisani nacin
2
je
N
uz
=
_
N
N
_
. Te cemo uzorke oznaciti kao
(1) x
1,1
, x
1,2
, , x
1,N
,
(2) x
2,1
, x
2,2
, , x
2,N
,
(3) x
3,1
, x
3,2
, , x
3,N
,
.
.
.
(k) x
k,1
, x
k,2
, , x
k,N
,
.
.
.
Svaki od gornjih x
k,j
je neki od elementa (13.1). Aritmeticka sredina k-tog uzorka, x
k
, je
jednaka
x
k
=
x
k,1
+ x
k,2
+ + x
k,N
N
. (13.3)
Kao sto smo spomenuli, od N elemenata osnovnog skupa (13.1), moguce je napraviti
_
N
N
_
uzoraka s N clanova. Stoga i gornjih aritmetickih sredina ima
_
N
N
_
. Njihova aritmeticka
sredina (oznacimo ju s m) jednaka je
m =
x
1
+ x
2
+ x
3
+
_
N
N
_ .
(13.4)
2
Najcesce se ne radi sa svim mogucim uzorcima, nego je N
uz
<<
(
N
N
)
13.1. OSNOVNI POJMOVI 185
Prema (13.3), je m jednako
m =
(x
1,1
+ x
1,2
+ + x
1,N
) + (x
2,1
+ x
2,2
+ + x
2,N
) +
N
_
N
N
_
Pogledajmo sada brojnik gornjeg izraza. Koliko se puta svaki element osnovnog skupa
x
i
, pojavljuje u brojniku? Ako ksiramo jedan x
i
, onda se preostalih N 1 clanova
uzorka (koji se nalaze u istoj okrugloj zagradi kao i x
i
, u brojniku gornjeg izraza) izmedu
N 1 preostalih elemenata osnovnog skupa, moze odabrati na
_
N1
N1
_
nacina. Ovakvo
razmisljanje vrijedi za svaki x
i
iz osnovnog skupa i zato je brojnik jednak
_
N 1
N 1
_
(x
1
+ x
2
+ + x
N
).
Uvrstimo to u izraz za aritmeticku sredinu m
m =
_
N1
N1
_
(x
1
+ x
2
+ + x
N
)
N
_
N
N
_
=
(N 1)! N!(N N)! (x
1
+ x
2
+ + x
N
)
N (N 1)! (N N)!N!
=
x
1
+ x
2
+ + x
N
N
x.
To je vrlo vazan rezultat
m = x. (13.5)
Aritmeticka sredina m od aritmetickih sredina svih mogucih uzoraka s N clanova upravo
je jednaka aritmetickoj sredini x, cijelog (velikog) osnovnog skupa. Naravno da u praksi
nikada nece biti moguce napraviti sve moguce uzorke od jednog ogromnog skupa, ali
o

cekujemo da

ce i za srazmjerno mali broj uzoraka, takoder aritmeti

cka
sredina m od aritmeti

ckih sredina promatranih uzoraka biti bliska pravoj


aritmeti

ckoj sredini i da

ce to biti utoliko to

cnije, ukoliko je broj uzo-


raka ve

ci.
Varijanca - vi

se uzoraka:
Ako za svaki od
_
N
N
_
mogucih uzoraka izracunamo njegovu aritmeticku sredinu, moguce
je da ce neke od tih sredina biti medusobno jednake. Poredamo li aritmeticke sredine
uzoraka po velicini i svakoj od njih pridruzimo kao tezinu, broj koliko se puta pojavila
u svim uzorcima, dobit cemo raspodjelu aritmeti

ckih sredina uzoraka. Za tu


raspodjelu smo upravo pokazali da ima aritmeticku sredinu jednaku aritmetickoj sredini
cijelog osnovnog skupa (uzeli smo u racun sve moguce uzorke). Izracunajmo varijancu
2
m
ove raspodjele aritmetickih sredina svih mogucih uzoraka

2
m
=
1
_
N
N
_
(
N
N
)

k=1
(x
k
x)
2
186 POGLAVLJE 13. TEORIJA UZORAKA

2
m
=
1
_
N
N
_
(
N
N
)

k=1
_
x
k,1
+ x
k,2
+ + x
k,N
N
x
_
2
=
1
_
N
N
_
1
N
2
(
N
N
)

k=1
_
(x
k,1
x) + (x
k,2
x ) + + (x
k,N
x )
_
2
. (13.6)
Pogledajmo izraz u uglatoj zagradi. Primjetimo opet da su x
k,n
elementi osnovnog skupa
x
i
, tako ce se kvadriranjem uglate zagrade dobiti dvije vrste clanova: nazovimo ih cisti i
mijesani
(x
i
x)
2
, 2 (x
i
x)(x
j
x ), i = j.
Izracunajmo koliko ima cistih clanova: u uglatoj zagradi u (13.6), ksiramo okruglu
zagradu s x
i
i pitamo se na koliko nacina iz N 1 preostalih elemenata osnovnog skupa
mozemo odabrati N1 clanova u preostalim okruglim zagradama; to je moguce na
_
N1
N1
_
nacina. Koliko ima mjesanih (x
i
x)(x
j
x) clanova? Sada ksiramo dva razlicita x
i
i
x
j
iz osnovnog skupa i pitamo se na koliko nacina iz preostalih N 2 elemenata osnovnog
skupa, mozemo odabrati N 2 clana u preostalim okruglim zagradama; to je moguce na
_
N2
N2
_
nacina. Ovim razmatranjem smo zakljucili da je
(
N
N
)

k=1
_
(x
k,1
x) + (x
k,2
x) + + (x
k,N
x)
_
2
=
N

i=1
_
_
N1
N1
_
(x
i
x )
2
+ 2
_
N2
N2
_
(x
i
x)

N
j=i+1
(x
j
x)
_
.
Time varijanca
2
m
raspodjele aritmetickih sredina uzoraka postaje jednaka

2
m
=
1
N
2
_
N
N
_
_
_
N 1
N 1
_
N

i=1
(x
i
x)
2
+ 2
_
N 2
N 2
_
N1

i=1
N

j=i+1
(x
i
x ) (x
j
x)
_
.
Sada dalje analiziramo mjesoviti clan gornjeg izraza: prema samoj deniciji (13.2), arit-
meticke sredine cijelog osnovnog skupa, je
(x
1
x) + (x
2
x) + + (x
N
x) = 0.
Kvadriranjem gornje relacije slijedi
(x
1
x )
2
+ (x
2
x )
2
+ + (x
N
x )
2
+ 2
_
(x
1
x)(x
2
x ) + (x
1
x)(x
3
x ) + + (x
2
x )(x
3
x) +
_
= 0
ili, krace napisano,
N

i=1
(x
i
x )
2
+ 2
N1

i=1
N

j=i+1
(x
i
x)(x
j
x ) = 0.
13.1. OSNOVNI POJMOVI 187
Ako mjesoviti clan iz gornje jednadzbe uvrstimo u izraz za
2
m
, dobit cemo

2
m
=
1
N
2
_
N
N
_
_
N 1
N 1
_
N

i=1
(x
i
x )
2

1
N
2
_
N
N
_
_
N 2
N 2
_
N

i=1
(x
i
x)
2
=
1
N
2
_
N
N
_
_
N 2
N 2
_
N N
N 1
N

i=1
(x
i
x)
2
=
1
N
1
N
N N
N 1
N

i=1
(x
i
x)
2
.
Oznacimo pravu standardnu devijaciju cijelog osnovnog skupa sa

2
=
1
N
N

i=1
(x
i
x)
2
, (13.7)
tada je varijanca (kvadrat standardne devijacije) raspodjele aritmetickih sredina svih
mogucih uzoraka od N clanova, jednaka

2
m
=
N N
N 1

2
N
.
Ako pretpostavimo da je broj elemenata osnovnog skupa N, vrlo velik (svakako puno veci
od N), tada je (N N)/(N 1) 1 i

2
m


2
N
,

N
(13.8)
Vaznost gornje relacije je u tome sto povezuje standardnu devijaciju raspodjele arit-
metickih sredina uzoraka sa pravom standardnom devijacijom cijelog velikog osnov-
nog skupa. Vidimo da je standardna devijacija dobivena iz uzoraka manja od prave
standardne devijacije, i to smanjene je srazmjerno korjenu iz velicine uzorka. Kasnije, u
odjeljku 13.2, cemo vidjeti da su aritmeticke sredine uzoraka raspodjeljene po Gaussovoj
raspodjeli. Prema nasim ranijim analizama sa str. 55, to znaci da sa 95.5% sigurnosti
mozemo reci da vrijedi
3
x
k
2
m
< x < x
k
+ 2
m
,
x
k
2

N
< x < x
k
+ 2

N
. (13.9)
Varijanca -jedan uzorak:
Gornji je izraz ipak nedovoljan za prakticnu primjenu, jer zbog nepoznavanja osnovnog
3
Ukoliko imamo vise uzoraka, tada u (13.9) umjesto x
k
dolazi m.
188 POGLAVLJE 13. TEORIJA UZORAKA
skupa, mi ne znamo ni koliki je (deniran kroz (13.7)). Zato se postupa na slijedeci
nacin: uvodi se varijanca k-tog uzorka

2
k
=
1
N
N

n=1
(x
k,n
x
k
)
2
. (13.10)
Primjetimo razliku prema
m
: gornji se izraz odnosi na jedan odredeni uzorak, dok se
(13.6) odnosi na sve moguce uzorke. Desnu stranu gornjeg izraza znamo izracunati, a
desnu stranu (13.6) ne znamo izracunati buduci da ne znamo koliki je x . Osim toga se
uvodi jedna slicna velicina s
2
k
koja se takoder odnosi na jedan odredeni uzorak, s tom
razlikom u odnosu na
2
k
, sto se sada promatra odstupanje elemenata uzorka u odnosu na
(nepoznatu) aritmeticku sredinu cijelog osnovnog skupa x (a ne u odnosu na aritmeticku
sredinu uzorka, x
k
, kao kod
2
k
)
s
2
k
=
1
N
N

n=1
(x
k,n
x)
2
.
Ova velicina s
k
je denirana tako da u odredenom smislu daje procjenu varijance os-
novnog skupa . Povezimo sada s
k
i
k
s
2
k
=
1
N
N

n=1
_
(x
k,n
x
k
) + (x
k
x )
_
2
=
1
N
N

n=1
(x
k,n
x
k
)
2
+
2
N
(x
k
x)
N

n=1
(x
k,n
x
k
) +
1
N
N

n=1
(x
k
x )
2
=
2
k
+ 2 (x
k
x)
_
1
N
N

n=1
x
k,n

1
N
N x
k
_
+
1
N
N (x
k
x)
2
=
2
k
+ 2 (x
k
x) (x
k
x
k
)
. .
= 0
+(x
k
x )
2
=
2
k
+ (x
k
x)
2
.
Sada se gornji izraz povezuje sa
m
. Prema deniciji (13.6) za
m
,

2
m
=
1
_
N
N
_
(
N
N
)

k=1
(x
k
x )
2
(x
k
x )
2
,
mozemo reci da je (x
k
x)
2
u prosjeku jednako
2
m
, pa zato gornja relacija postaje
s
2
k
=
2
k
+
2
m
= (13.8) =
2
k
+

2
N
.
Prema polaznoj zamisli, s
k
je deniran preko x, aritmeticke sredine cijelog skupa, pa bi
zato trebao biti nesto poput imitacije prave (one koja se odnosi na cijeli veliki skup).
Zato se izjednacava
s
k

i iz gornje relacije nalazimo
s
2
k
=
2
k
+
s
2
k
N
s
2
k
=
N
N 1

2
k
=
1
N 1
N

n=1
(x
k,n
x
k
)
2
,
13.1. OSNOVNI POJMOVI 189
tj.
s
k
=

N
N 1
_
x
2
k
x
2
k
_
(13.11)
(usporedite gornji izraz sa (6.12)). Ovaj s
k
je procjena standardne devijacije osnovnog
skupa i naziva se jos i standardna gre

ska. Ona je operativna jer se u cjelosti racuna


iz podataka pojedinog uzorka. To je velicina koju koristimo umjesto u (13.9).
x
k
2
s
k

N
< x < x
k
+ 2
s
k

N
. (13.12)
Primjer: 13.1 Evo jednog primjera u kojemu poznajemo egzaktno vrijednosti koje se
odnose na beskonacni skup, tako da cemo moci usporediti rezultate dobivene
pomocu uzorka sa pravim rezultatima.
Ako se prigodom bacanja jedne kocke okrene ili broj 4 ili broj 5 ili broj 6, onda
to nazivamo dogadajem A. Izvodi se slijedeci pokus: baci se odjednom 12 ko-
caka i broji se koliko se puta dogodio A. Taj broj oznacimo s x. Ocito je da x
moze biti bilo koji prirodni broj 0 x 12. Ovaj pokus se izvede 4 096 puta i
svaki se puta utvrdi koliki je x. Rezultat ovakvog prebrojavanja je dan donjom
tablicom
x 0 1 2 3 4 5 6 7 8 9 10 11 12
t
x
0 7 60 198 430 731 948 847 536 257 71 11 0.
Tako npr. iz gornje tablice ocitavamo da se A ostvario 6 puta u 948 od 4 096
bacanja. Zadatak je pomocu ovih podataka naci ocjenu za x.
R: Povezimo zadane velicine s oznakama uvedenim u prethodnom izlaganju:
broj elemenata osnovnog skupa je beskonacan, pa je N = ; velicina uzorka
je N = 4 096; varijabla X je diskretna i ima vrijednosti 0 x 12. Zbog
relativno jednostavne formulacije problema, x mozemo izracunati egzaktno
(bez potrebe posezanja za uzorcima). Kolika je vjerojatnost da se na jednoj
kocki ostvari dogadaj A?
p
A
=
1
6
+
1
6
+
1
6
=
1
2
q
A
= 1 p
A
=
1
2
.
Iz binomne raspodjele, (8.9), znamo da je standardna devijacija =

12 p
A
q
A
=

3 = 1.73205 . . . Kolika je vjerojatnost da se na 12 kocaka A ostvari x puta


P
x
=
_
12
x
_
p
x
A
q
12x
A
=
1
2
12
_
12
x
_
.
190 POGLAVLJE 13. TEORIJA UZORAKA
Pomocu gornjeg izraza racunamo
x =
12

x=0
x p
x
=
12

x=1
x p
x
=
1
2
12
12

x=1
x
_
12
x
_
=
1
2
12
12

x=1
x
12 !
x ! (12 x) !
=
1
2
12
12

x=1
12 11 !
(x 1) ! (11 (x 1)) !
=
12
2
12
11

n=0
11 !
n! (11 n) !
=
12
2
12
2
11
= 6.
Dakle, egzaktna srednja vrijednost x je 6. Pogledajmo sto dobijemo iz uzorka.
Prema (13.3) je
x
k
=
1
N

x
x t
x
=
0 0 + 1 7 + 2 60 + . . . + 11 11 + 12 0
4 096
= 6.138916015625000.
Slicno racunamo i
x
2
k
=
1
N

x
x
2
t
x
=
0
2
0 + 1
2
7 + 2
2
60 + . . . + 11
2
11 + 12
2
0
4 096
= 40.61694335937500,
iz cega slijedi

2
k
= x
2
k
x
2
k
= 40.61694335937500 6.138916015625000
2
= 2.93065.
Pomocu gornjih rezultata i (13.12), zakljucujemo da se pravi x nalazi u inter-
valu
6.139 2 0.0267487 < x < 6.139 2 0.0267487,
6.08542 < x < 6.19241.
Vidimo da nam rezultat dobiven pomocu uzorka daje broj razlicit od egzaktnog
rezultata, x = 6. To je, naravno, posljedica neidealnosti kocaka kojima je
izveden pokus. Uzorak nije uzet iz skupa idealnih kocaka (koji i ne postoji) i
zato ne moze reproducirati rezultat koji vrijedi za idealne kocke.
13.2 Primjena sredisnjeg granicnog teorema u teoriji uzoraka
Kao sto smo spomenuli u prethodnom odjeljku, ako za svaki od
_
N
N
_
mogucih uzo-
raka izracunamo njegovu aritmeticku sredinu, moguce je da ce neke od tih sredina biti
medusobno jednake. Poredamo li aritmeticke sredine uzoraka po velicini i svakoj od njih
pridruzimo kao tezinu, broj koliko se puta pojavila u svim uzorcima, dobit cemo ras-
podjelu aritmeti

ckih sredina uzoraka. Pri tome cemo opaziti da najvecu tezinu


imaju oni uzorci cija je artimeticka sredina najblize aritmetickoj sredini cijelog osnovnog
skupa. Sto je vece odstupanje (bilo ono pozitivno ili negativno) od aritmeticke sredine
13.3. TESTOVI 191
cijelog osnovnog skupa, tezine su manje. Iz centralnog granicnog teorema (odjeljak 10)
slijedi da ova raspodjela aritmetickih sredina uzoraka, u granici kada broj uzoraka
4
N
uz
raste, tezi prema Gaussovoj (normalnoj) raspodjeli. Zaista, ako prema (10.2) nazovemo
=
x
1
+ x
2
+ + x
N
uz
N
uz
(sada su aritmeticke sredine uzoraka medusobno nezavisne slucajne varijable x
k
X
k
iz
odjeljka 10), tada je varijabla opisana Gaussovom raspodjelom. Podsjetimo jos jednom
da ovaj rezultat ne ovisi o tome po kojoj su raspodjeli raspodjeljeni elementi osnovnog
skupa.
13.3 Testovi
Pretpostavimo da smo pomocu uzoraka dobili odredene procjene nekih parametara os-
novnog skupa. Sada se pitamo koliko su te procjene pouzdane, tj. kolika je vjerojatnost
da na temelju rezultata dobivenih iz uzoraka, dodemo do pogresnog zakljucka o osobi-
nama cijelog skupa? U tu su svrhu razvijeni postupci koji se opcenito nazivaju testovi i
od kojih su ovdje obradeni
2
i t testovi. Oni se zasnivaju na usporedbi empirijskih sa
odgovarajucim teorijskim raspodjelama.
13.3.1
2
test

Cesto se postavlja pitanje


da li i kojoj teorijskoj raspodjeli najbolje odgovara
neka empirijski dobivena raspodjela?
Kako se slicnost izmedu empirijske i teorijskih raspodjela ne bi odredivala odoka, razvi-
jene su posebne metode kojima se radi ta usporedba. Te se metode zovu testiranja ili
statisticki testovi. Vrlo je koristan
2
test koji je postavio Karl Pearson, 1900. godine.
Test se zasniva na nekim svojstvima gama raspodjele o kojoj smo govorili u odjeljku 8.5.
Pretpostavka da su empirijski podaci raspodjeljeni po nekoj teorijskoj raspodjeli se zove
hipoteza. Nas zadatak u ovom poglavlju jeste provjeriti koliko je hipoteza is-
pravna. Ova se provjera moze izvesti empirijski i teorijski.
Empirijski:
Neka uzorak ima N clanova koji predstavljaju vrijednosti varijable X. Njihovih N vrijed-
nosti razvrstamo u M razreda i prebrojimo koliko se clanova nalazi u pojedinom razredu.
Broj clanova m-tog razreda, t

m
, nazivamo empirijskom te

zinom ili empirijskom apso-


lutnom frekvencijom m-tog razreda.
Teorijski:
S druge strane, iz pretpostavljene teorijske raspodjele, mozemo izracunati koliko eleme-
nata iz uzorka od N clanova se nalazi u m-tom razredu. Taj broj, t
m
, zovemo teorijskom
4
a isto tako i broj N elemenata svakog pojedinog uzorka
192 POGLAVLJE 13. TEORIJA UZORAKA
te

zinom ili teorijskom apsolutnom frekvencijom m-tog razreda. .


Pojedini element uzorka se moze ili nalaziti ili ne nalaziti u m-tom razredu. Vjerojatnost
da se pojedini element uzorka nalazi u m-tom razredu je (broj povoljnih kroz broj svih
mogucnosti)
p
m
=
t
m
N
,
a vjerojatnost da se ne nalazi u m-tomu razredu je
q
m
= 1 p
m
= 1
t
m
N
.
Sada se postavlja slijedece pitanje:
kolika je vjerojatnost da se u m-tom razredu nade upravo t

m

clanova
(kao sto je ustanovljeno empirijski)? Od N clanova cijelog uzorka, njih t

m
se moze odabrati
na
_
N
t

m
_
razlicitih nacina. Vjerojatnost da ih se pojavi t

m
je p
t

m
, a da ih se istovremeno
ne pojavi N t

m
je q
Nt

m
; sve zajedno to vodi na trazenu vjerojatnost oblika binomne
raspodjele
P
m
=
_
N
t

m
_ _
t
m
N
_
t

m
_
1
t
m
N
_
Nt

m
.
Iz odjeljka 3.2 znamo da ce, za veliki N, binomna raspodjela prijeci u Gaussovu raspo-
djelu oblika (3.7), sa prosjecnom vrijednoscu (8.6)
x = Np
m
= t
m
.
To ce biti i prosjecna vrijednost granicne Gaussove raspodjele.
Razlika t
m
t

m
, za svaki m = 1, 2, , M, se moze shvatiti kao jedna slucajna varijabla
raspodjeljena po Gaussovoj raspodjeli. Neka je standardna devijacija svakog pojedinog
m-tog razreda jednaka
m
5
. Tada zbroj
M

m=1
(t
m
t

m
)
2

2
m
,
mjeri razliku izmedu teorijske i empirijske raspodjele, izrazenu u standardnoj devijaciji
pojedinog razreda kao jedinici mjere. Tu smo velicinu vec upoznali kod gama raspodjele
na strani 132 gdje smo ju oznacili s
2
. Uz vrlo malu pogresku
6
, moze se umjesto
2
m
pisati t
m
, pa je tako

m=1
(t
m
t

m
)
2
t
m
. (13.13)
Moze se pokazati (K. Pearson) da broj stupnjeva slobode k pridruzene gama raspodjele
ovisi o broju razreda M i vrsti raspodjele koja se prilagodava:
5
Primjetimo da, iako je ista oznaka,
m
nema znacenje (13.6)
6
Fisher, Contributions to Mathematical Statistics, New York, 1950.
13.3. TESTOVI 193
Gaussova raspodjela k = M 3,
binomna raspodjela k = M 2,
Poissonova raspodjela k = M 2.
S obzirom na vezu izmedu
2
i gama raspodjele, relacijom (8.26) smo pokazali da
je vjerojatnost varijable
2
dana sa
dP(M/2,
2
/2) =
1
(M/2)
_

2
/2
_
M/21
e

1
2

2
d(
2
/2).
Pomocu gornje formule, mozemo odgovoriti na slijedece pitanje:
kolika je vjerojatnost da

ce
2
biti ve

ce od neke zadane vrijednosti?


Prema gornjem izrazu za raspodjelu vjerojatnosti
2
, odgovor na gornje pitanje je
P =
1
2(M/2)

2
(
2
/2)
1
2
(M2)
e

1
2

2
d
2
.
Prakticki to znaci slijedece: iz pretpostavke da neka teorijska raspodjela dobro opisuje
empirijsku, pomocu (13.13) izracunamo
2
i pitamo se kolika je vjerojatnost da ce razlika
izmedu empirijske i teorijske raspodjele biti veca od toga
2
? Odgovor daje gornji inte-
gral. Ako se teorijska i empirijska raspodjela dobro slazu,
2
ce biti malo i donja granica
u integralu ce biti mala i cijeli ce integral biti velik. Naprotiv, ako je slaganje izmedu
teorijske i empirijske raspodjele lose,
2
ce biti velik i donja granica u integralu ce biti
velika i cijeli ce integral biti mali. Dakle
velike vrijednosti integrala zna

ce dobro slaganje, a
male vrijednosti integrala zna

ce lo

se slaganje.
Na str 55 smo pokazali da u slucaju Gaussove raspodjele, s 95.5 % pouzdanosti mozemo
smatrati da se
2
nalazi unutar intervala oko nule polusirine 2 . Stoga je i ovdje
uobicajeno 5% uzeti za granicu. Ako je iz integrala dobivena vjerojatnost veca ili jednaka
5% rezultat se smatra zadovoljavajucim, tj. hipoteza je potvrdena: teorijska raspodjela
dobro opisuje empirijsku. Ako je vrijednost integrala manja od 5% hipoteza se odba-
cuje. Ovo podrucje vrijednosti
2
se naziva podru

cjem signifikantnosti (slika 13.1).


Hipoteza ce biti pogresno odbacena u 5% slucajeva.
Primjer: 13.2 dovrsiti
Primjer: 13.3 Mjerenjem kapaciteta 485 kondenzatora dobiveni su podaci (izrazeni u
F) iz donje tablice. S C
n
su oznacene vrijednosti kapaciteta, a s t

n
njihove
194 POGLAVLJE 13. TEORIJA UZORAKA
Slika 13.1: Uz
2
test.
0 2 4 6 8 10

2
0
0.05
0.1
0.15
0.2
0.25

2

)
0.95
0.05
signifikantnosti
podrucje
empirijske tezine
C
n
19.60 19.65 19.70 19.75 19.80 19.85 19.90
t

n
3 5 5 20 35 74 92
C
n
19.95 20.00 20.05 20.10 20.15 20.20 20.25
t

n
83 70 54 27 12 2 3
Koristeci
2
test treba provjeriti pretpostavku da su elementi uzorka raspodje-
ljeni po Gaussovoj raspodjeli.
R: Za testiranje ce nam trebati teorijske Gaussove tezine t
G,n
pojedinih
mjerenja. Njih racunamo pomocu
t
G,n
N
=
G
(C
n
) d C,
gdje je
G
(C
n
) Gaussova raspodjela

G
(C
n
) =
1

2
e

1
2
[(C
n
C
n
)/]
2
,
a d C = 0.05 je sirina pojedinog razreda. Sama teorijska tezina je tada jednaka
t
G,n
= N d C
1

2
e

1
2
[(C
n
C
n
)/]
2
.
U gornjem izrazu je C
n
= 19.9329 aritmeticka sredina uzorka, = 0.108817
je standardna devijacija uzorka, oboje izracunato iz empirijskih podataka
C
k
n
=
1
N
N

n=1
C
k
n
t

n
,

2
= C
2
n
C
n

2
.
13.3. TESTOVI 195
Gornjom formulom se dobiju rezultati iz treceg stupca donje tablice
C
n
t

n
t
G,n
19.60 3 0.82534
19.65 5 3.02878 12.8535
19.70 5 8.99938
19.75 20 21.6504 21.6504
19.80 35 42.1723 42.1723
19.85 74 66.5115 66.5115
19.90 92 84.9328 84.9328
19.95 83 87.8138 87.8138
20.00 70 73.5121 73.5121
20.05 54 49.8268 49.8268
20.10 27 27.3449 27.3449
20.15 12 12.1506 12.1506
20.20 2 4.37147 5.64488
20.25 3 1.27341
485 484.414
Za nekoliko najmanjih i najvecih vrijednosti C
n
su pripadne tezine malene
(losa statistika, tj. mali broj dogadaja), pa cemo ih zato sazeti u jednu, kao
sto je to napravljeno cetvrtom stupcu gornje tablice: prve tri i posljednje dvije
vrijednosti smo zbrojili u jednu
t

n
: 3 + 5 + 5 = 13, t
G,n
: 0.82534 + 3.02878 + 8.99938 = 12.8535,
t

n
: 2 + 3 = 5, t
G,n
: 4.37147 + 1.27341 = 5.64488.
Time smo dobili M = 11 razreda iz kojih mozemo, prema (13.13) izracunati

2
=
M

m=1
(t
G,m
t

m
)
2
t
G,m
= 5.33193.
Broj stupnjeva slobode pridruzene gama raspodjele je k = M 3 = 8, pa iz
tablice IV na strani 358 - 9, reference [18], ocitavamo: P(
2
> 4.594) = 0.8 i
P(
2
> 5.527) = 0.7 iz cega zakljucujemo da je
0.7 < P(
2
> 5.33193) < 0.8.
Vjerojatnost je dakle veca od 5% sto znaci da je opravdano prihvatiti pretpos-
tavku da je raspodjela Gaussova.
13.3.2 Studentova t-raspodjela i t-test
Do ovoga je testa dosao 1908. godine William Sealy Gosset u radu kojega je objavio
pod pseudonimom Student. Po tome je i test dobio naziv Studentov test. Kao sto je
2
196 POGLAVLJE 13. TEORIJA UZORAKA
test baziran na gama raspodjeli, tako je i t-test baziran na t-raspodjeli, s kojom smo se
upoznali u odjeljku 8.6.
Krenimo od (velikog) osnovnog skupa ciji su elementi raspodjeljeni po Gaussovoj raspo-
djeli sa aritmetickom sredinom x i standardnom devijacijom i iz tog osnovnog skupa
izvadimo sve moguce uzorke od N clanova, s aritmetickim sredinama x
n
. Kao sto smo
pokazali u odjeljku 13.2, x
n
je raspodjeljeno po Gaussovoj raspodjeli oko prosjecne vri-
jednosti x. Iz toga zakljucujemo da je i varijabla x
n
x raspodjeljeno po Gaussovoj
raspodjeli sa prosjecnom vrijednoscu nula i standardnom devijacijom jednakom /

N.
Stoga, ako se napravi varijabla
x
n
x
/

N
,
ona ce biti raspodjeljena po Gaussovoj raspodjeli sa prosjecnom vrijednoscu nula i je-
dinicnom standardnom devijacijom. U gornjoj relaciji se x i odnose na cijeli skup, i
stoga su nam nepoznati. Ako umjesto te varijable, napravimo novu varijablu t koja ce
oponasati gornju varijablu
t =

N
x
n
x
s
n
, s
2
n
=
1
N 1

k
(x
n,k
x
n
)
2
, (13.14)
gdje se s
n
iz (13.11) u cjelosti racuna pomocu velicina iz uzorka, tada ce varijabla t biti
raspodjeljena po t-raspodjeli (8.27). Dokazimo slijedeci
Teorem: Ako je varijabla z opisana Gausovom raspodjelom (z = 0,
2
z
= 1), a varijabla
v gama raspodjelom sa stupnjem slobode k, tada je varijabla
t =
z

v/k
(13.15)
raspodjeljena po Studentovoj t-raspodjeli sa stupnjem slobode k.
Od ranije su nam poznate Gaussova i gama raspodjele

G
(z) =
1

2
e

1
2
z
2
,

(v) =
1
2
k
2

_
k
2
_ v
k2
2
e

1
2
v
,
pa je prema tome
(z, v) =
G
(z)

(v) =
1

22
k
2

_
k
2
_ v
k2
2
e

1
2
(v+z
2
)
.
Radi kraceg pisanja uvedimo pokratu
c =
1

22
k
2

_
k
2
_,
13.3. TESTOVI 197
i prijedimo s varijable z na varijablu t, drzeci pri tome v = const.
t =
z

v/k
.
Prema (3.34) mozemo pisati
(t, v) = (z, v)

dz
dt

iz cega izravno slijedi


(t, v) =
c

k
v
k1
2
e

v
2k
(k+t
2
)
.
Samu raspodjelu po t dobijemo tako sto cemo (t, v) prointegrirati po svim dozvoljenim
vrijednostima v

t
(t) =


0
(t, v) dv =
c


0
v
k1
2
e

v
2k
(k+t
2
)
dv.
Integral racunamo u novoj varijabli
x =
v
2k
(k + t
2
)
u kojoj je
(t) =
c

k
_
2k
k + t
2
_k+1
2


0
x
k1
2
e
x
dv
=
c

k
_
2k
k + t
2
_k+1
2

_
k + 1
2
_
=

_
k+1
2
_

k
_
k
2
_
_
1 +
t
2
k
_

k+1
2
,
sto na koncu prepoznajemo kao t-raspodjelu, cime je teorem i dokazan.
Pomocu funkcije (t) racuna se vjerojatnost P da t bude veci od neke zadane vrijednosti
P =


t
(t) dt.
Primjer: 13.4 Standardom je propisano da svrdlo ima tvrdocu 60 R
C
(60 jedinica na
Rockwelovoj skali C). Na uzorku od osam svrdala, dobivena je srednja vrijed-
nost 59.2 R
C
i standardna devijacija 0.5 R
C
. Ima li serija svrdala iz koje je
uzet ovaj uzorak prosjecnu tvrdocu 60 R
C
? Pretpostavite da tvrdoca svrdala
slijedi Gaussovu raspodjelu.
198 POGLAVLJE 13. TEORIJA UZORAKA
R: Oznacimo tvrdocu svrdla s X. Uzorak se sastoji od N = 8 eleme-
nata, a srednja vrijednost X u uzorku je x
k
= 59.2 R
C
i standardna devijacija

k
= 0.5 R
C
. Prema (13.10) i (13.11) je

2
k
=
1
N
N

n=1
(x
k,n
x
k
)
2
=
1
8
8

n=1
(x
k,n
59.2 R
C
)
2
= 0.25 R
2
C
,
s
2
k
=
1
N 1
N

n=1
(x
k,n
x
k
)
2
=
N
N 1

2
k
= 0.28571 R
2
C
.
Prema pretpostavci zadatka, srednja vrijednost cijelog skupa je x = 60, pa
varijabla t iz (13.14) ima vrijednost
|t| =

N
x
k
x
s
k

= 4.233202 .
Za uzorak od N elemenata, stupanj slobode t raspodjele je N 1, pa zato
iz tablice 6 na str 383. u [14], citamo da je P(t = 3.499) = 0.01,a da je
P(t = 5.405) = 0.001. Iz toga zakljucujemo da je
0.001 < P(t = 4.23 ) < 0.01,
sto je manje od granice od 5 % i zato zakljucujemo da prosjecna tvrdoca svrdala
nije 60 R
C
.
Primjer: 13.5 Mjerenjem mase 20 cokoladnih tabli, dobiveni su slijedeci rezultati (u gra-
mima)
97 99 98 96 98 101 98 95 97 99
98 96 97 98 98 100 99 97 101 98
Pretpostavimo da su mase raspodjeljene po Gaussovoj raspodjeli. Smije li se na
temelju gornjeg uzorka tvrditi da je prosjecna masa cokoladnih tabli osnovnog
skupa iz kojeg je uzet uzorak, manja od 100 g?
R: Procjenu cemo izvesti t testom. Izracunajmo potrebne velicine: broj
elementa uzorka je N = 20, pretpostavljena vrijednost aritmeticke sredine ci-
jelog skupa je x = 100 (sve racunamo u gramima, pa cemo zato tu oznaku
dalje izostavljati), aritmeticka sredina uzorka je
x =
1
20
(97 + 99 + 98 + + 98) = 98,
s
2
k
=
1
N 1
N

n=1
(x
k,n
x
k
)
2
=
1
19
[(1)
2
+ 1
2
+ 0
2
+ ] = 2.421.
Pomocu ovih velicina racunamo t
|t| =

N
x
k
x
s
k

20
2
1.55
= 5.770.
13.3. TESTOVI 199
Za uzorak od N = 20 elemenata, stupanj slobode t raspodjele je N1 = 19, pa
zato iz tablice 6 na str 383. u [14], citamo da je P(t = 5.770) < 0.001. Iz toga
zakljucujemo da je pretpostavka x = 100 pogresna. Dakle, x nije 100. Kada
znamo koliki x nije, pokusajmo procijeniti koliki jeste. Da bi vjerojatnost P
imala granicnu vrijednost od 5 %, prema tablici 6 na str 383. u [14], mora biti
t = 2.093, sto vodi na x = 99.
200 POGLAVLJE 13. TEORIJA UZORAKA
Poglavlje 14
Procjene
14.1 Nepristrane procjene
Neka je vjerojatnost pojave kontinuirane slucajne varijable X s vrijednostima x dana
gustotom vjerojatnosti (x). U izrazu za gustotu vjerojatnosti se, osim same varijable
x, pojavlju i parametri, koje temo optenito oznaciti s
j
. Tako npr. u Poissonovoj
raspodjeli (8.16) postoji samo jedna parametar jednak ocekivanju; u Gaussovoj
raspodjeli postoje dva parametra: ocekivanje
1
X i standardna devijacija
2
,
itd. U praksi najceste nisu poznate tocne vrijednosti parametra koji opisuju raspo-
djelu i zato je potrebno nati zgodan nacin da se procijeni vrijednost tih parametara.
Ovu procjenu parametra
j
temo izvoditi jednom slucajnom varijablom koju temo
oznaciti s
j
, a koja je denirana na uzorku duljine N

j
=
j
(x
1
, x
2
, . . . , x
N
)
Za se kaze da nepristrano procjenjuje pravi parametar , ako je ocekivanje od
upravo jednako pravom parametru
E() = . (14.1)
Evo jednog jednostavnog primjera: ranije je, relacijom (), pokazano da je E(x) = X;
ova jednakost je upravo primjer (14.4) u kojemu je X taj pravi parametar ciju vrijed-
nost hotemo odrediti, X, a slucajna varijabla kojom radimo procjenu je naprosto
aritmeticka sredina
x =
1
N
N

n=1
x
n
.
Potrazimo varijablu koja nepristrano procjenjuje varijancu
2
. Svakom uzorku duljine
N pridruzuje se varijanca izrazom

2
=
2
(x
1
, x
2
, . . . , x
N
) =
1
N
N

n=1
(x
n
x)
2
,
koja je takoder jedna slucajna varijabla denira na uzorku duljine N. Pogledajmo je
li
2
nepristrana procjena prave varijance
2
, tj. vrijedi li (14.4) uz
2

2
i
2

2
.
201
202 POGLAVLJE 14. PROCJENE
Raspisimo
2
na slijedeti nacin

2
=
1
N
N

n=1
(x
n
x +X X)
2
=
1
N
N

n=1
[(x
n
X) (x X)]
2
=
1
N
_
N

n=1
(x
n
X)
2
2(x X)
N

n=1
(x
n
X) + N (x X)
2
_
=
1
N
N

n=1
(x
n
X)
2
(x X)
2
.
Izracunajmo ocekivanje gornje jednadzbe, tako sto temo koristiti svojstvo linearnosti
operatora ocekivanja ()
E(
2
) =
1
N
N

n=1
E[(x
n
X)
2
] E[(x X)
2
].
Prema () je E[(x
n
X)
2
] =
2
, a E[(x X)
2
] =
2
/N, pa je zato
E(
2
) =
1
N
N

n=1

2
/N =
N 1
N

2
=
2
.
Dakle, zakljucujemo da
2
nije nepristrana procjena za varijancu. No, gornji racun
ipak nije posve uzaludan. Uvedemo novu slucajnu varijablu relacijom

N
N 1

2
.
Opet zbog linearnosti operatora ocekivanja (), vrijedi
E(
2
) = E
_
N
N 1

2
_
=
N
N 1
E(
2
) =
N
N 1
N 1
N

2
=
2
.
Dakle
2
jeste nepristrana procjena varijance cijelog skupa (a ne samo uzorka!). Napisimo
jos i
2
pomotu x
n
-ova iz uzorka

2
=
1
N 1
N

n=1
(x
n
x)
2
.
14.1.1 Najbolja nepristrana procjena
Mogute je zamisliti situaciju u kojoj postoji vise slucajnih varijabli , koje sve nepris-
trano procjenjuju parametar . U tom slucaju je vazno nati onu nepristranu procjenu
koja najbolje procjenjuje . U ovom slucaju rijec najbolje znaci da je odstupanje
od najmanje. Kako bismo eliminirali utjecaj predznaka (buduti da su negativni bro-
jevi manji od pozitivnih, to bi i negativna odstupanja uvijek bila manja od pozitivnih),
racunat temo kvadrate odstupanja. No, kvadratno odstupanje je upravo ono sto smo
vet ranije, (), denirali kao varijancu. Prema tome, da bi bila nepristrana procjena
od , mora biti E() = , a da bi bila jos i najbolja nepristrana procjena, mora biti
zadovoljen i dodatni uvjet minimalne varijance
E[()
2
] = minimum.
14.1. NEPRISTRANE PROCJENE 203
Pokazimo sada da od svih linearnih funkcija varijabli x
1
, x
2
, . . . , x
N
, upravo aritmeticka
sredina x ima svojstvo da najbolje procjenjuje ocekivanje X cijelog osnovnog skupa
dogadaja (a ne samo uzorka). Neka je, dakle, najoptenitija linearna kombinacija
slucajnih varijabli x
1
, x
2
, . . . , x
N
= c
1
x
1
+ c
2
x
2
+ + c
N
x
N
, (14.2)
gdje su c
n
konstante. Kako su sve varijable x
n
opisane istom funkcijom raspodjele
gustote vjerojatnosti, to te biti i
E(x
1
) = E(x
2
) = = E(x
N
) = X,
V (x
1
) = V (x
2
) = = V (x
N
) =
2
.
Nas je zadatak nati vrijednosti konstanata c
n
, tako da budu zadovoljeni uvjeti ne-
pristranosti E() = X i najbolje nepristranosti E[( X)
2
] = minimum. Prema
linearnosti operatora ocekivanja, (), prvi uvjet vodi na
E() = E(c
1
x
1
+ c
2
x
2
+ + c
N
x
N
) = c
1
E(x
1
) + c
2
E(x
2
) + + c
N
E(x
N
)
= c
1
X + c
2
X + + c
N
X = (c
1
+ c
2
+ + c
N
) X.
No, prema deniciji () nepristrane procjene, gornji izraz treba biti jednak X, a to je
mogute samo ako je
c
1
+ c
2
+ + c
N
= 1.
Gornji te uvjet ocito biti zadovoljen ako umjesto koecijenata c
n
iz (14.5), koristimo
normirane koecijente
c
n

c
n

N
n=1
c
n
,
cime postaje
=
c
1
x
1
+ c
2
x
2
+ + c
N
x
N

N
n=1
c
n
. (14.3)
Ovako deniran zadovoljava uvjet nepristranosti. Pogledajmo sada sto donosi uvjet
najbolje nepristrane procjene. Iz matematicke analize je poznato da se ekstremi (mi-
nimumi ili maksimumi) funkcije u odnosu na neku varijablu, odreduju zahtjevom da je
derivacija funkcije po toj varijabli jednaka nuli. Mi sada zelimo da varijanca bude eks-
tremna (minimalna) u odnosu na . No, je odredena vrijednostima N konstanata c
n
i zato postoji ne jedan, nego N uvjeta minimuma koje pisemo kao
V ()
c
n
= 0, n = 1, 2, , N.
Da bismo mogli provesti gornju derivaciju, moramo znati kako V ovisi o c
n
-ovima. Po
204 POGLAVLJE 14. PROCJENE
uzoru na (), sada racunamo
V () = V
_
c
1

N
n=1
c
n
x
1
+
c
2

N
n=1
c
n
x
2
+ +
c
N

N
n=1
c
N
x
N
_
= E
_
_
_
c
1

N
n=1
c
n
(x
1
X) +
c
2

N
n=1
c
n
(x
2
X) +
c
N

N
n=1
c
N
(x
N
X)
_
2
_
_
= E
_
c
2
1
(

N
n=1
c
n
)
2
(x
1
X)
2
+
c
2
2
(

N
n=1
c
n
)
2
(x
2
X)
2
+
c
2
N
(

N
n=1
c
n
)
2
(x
N
X)
2
+ 2
c
1

N
n=1
c
n
c
2

N
n=1
c
n
(x
1
X)(x
2
X)
2
+
_
= (lin E)
=
c
2
1
(

N
n=1
c
n
)
2
E[(x
1
X)
2
] +
c
2
2
(

N
n=1
c
n
)
2
E[(x
2
X)
2
] + +
c
2
N
(

N
n=1
c
n
)
2
E[(x
n
X)
2
]
+ 2
c
1

N
n=1
c
n
c
2

N
n=1
c
n
E[(x
1
X)(x
2
X)] +
Buduti da su x
n
medusobno neovisne varijable, to je prema (), ocekivanje mjesovitih
clanova jednako nuli E[(x
n
X)(x
m
X)] = 0, pa preostaje
V () =
c
2
1
(

N
n=1
c
n
)
2
E[(x
1
X)
2
] +
c
2
2
(

N
n=1
c
n
)
2
E[(x
2
X)
2
] +
c
2
N
(

N
n=1
c
n
)
2
E[(x
n
X)
2
]
=
c
2
1
(

N
n=1
c
n
)
2
V (x
1
) +
c
2
2
(

N
n=1
c
n
)
2
V (x
2
) +
c
2
N
(

N
n=1
c
n
)
2
, V (x
N
)
=
c
2
1
(

N
n=1
c
n
)
2

2
+
c
2
2
(

N
n=1
c
n
)
2

2
+
c
2
N
(

N
n=1
c
n
)
2

2
=
c
2
1
+ c
2
2
+ + c
2
N
_

N
n=1
c
n
_
2

2
.
Sada, kada vidimo eksplicitnu ovisnost varijance o c
n
-ovima, mozemo provesti derivaciju
i izjednaciti ju s nulom
V () =
c
2
1
+ c
2
2
+ + c
2
N
_

N
n=1
c
n
_
2

2
,
0 =
V ()
c
m
=
2c
m
(

N
n=1
c
n
)
2
(c
2
1
+ c
2
2
+ + c
2
N
)2(

N
n=1
c
n
)
(

N
n=1
c
n
)
4
.
Ocito je gornji uvjet ispunjen, ako je
c
m
=

N
n=1
c
2
n

N
n=1
c
n
.
Primjetujemo da desna strana gornjeg izraza ne ovisi o m, sto znaci da su svi c
m
-ovi
14.2. PROCJENE 205
medusobno jednaki i oznacit temo ih s C
C

N
n=1
c
2
n

N
n=1
c
n
= c
1
= c
2
= = c
N
.
Uvrstimo ove vrijednosti za c
n
, natrag u izraz za
=
c
1
x
1
+ c
2
x
2
+ + c
N
x
N

N
n=1
c
n
=
C(x
1
+ x
2
+ + x
N
)
NC
=
x
1
+ x
2
+ + x
N
N
= x.
Opet smo dobili aritmeticku sredinu. Time je pokazano da je aritmeticka sredina ne-
pristrana i najbolja nepristrana procjena ocekivanja.
14.1.2 Intervalne procjene
14.2 Procjene
14.2.1 Nepristrane procjene
Neka je vjerojatnost pojave slucajne varijable X dana gustotom vjerojatnosti (x).
U izrazu za gustotu vjerojatnosti se, osim same varijable x, pojavlju i parametri, koje
temo optenito oznaciti s
j
. Tako npr. u Poissonovoj raspodjeli (odjeljak 8.2) postoji
samo jedna parametar jednak srednjoj vrijednosti; u Gaussovoj raspodjeli (odjeljak 8.4)
postoje dva parametra: srednja vrijednost
1
X i standardna devijacija
2
, itd. U
praksi najceste nisu poznate tocne vrijednosti parametra koji opisuju raspodjelu i zato
je potrebno nati zgodan nacin da se procijeni vrijednost tih parametara. Ovu procjenu
(pravih, ali nepoznatih) parametra
j
temo izvoditi jednom slucajnom varijablom koju
temo oznaciti s
j

j
=
j
(x
1
, x
2
, . . . , x
N
), j = 1, 2,
deniranom na uzorku x
n
duljine N. Za se kaze da nepristrano procjenjuje pravi
parametar , ako je ocekivanje od upravo jednako pravom parametru
= . (14.4)
Ako je nepristrani procjenjitelj, tada je i

=
2

2
.
Evo jednog jednostavnog primjera: promatra se osnovni skup sa (nepoznatom) srednjom
vrijednostu X; treba pokazati da je srednja vrijednost k-tog uzorka (x
1
, x
2
, , x
N
)
k
nepristarni procjenitelj X
x
k
=
1
N
N

n=1
x
n,k
,
x
k
=

1
N
N

n=1
x
n,k

=
1
N
N

n=1
x
n,k
=
1
N
N

n=1
X = X.
206 POGLAVLJE 14. PROCJENE
Time je pokazano da je aritmeticka sredina uzorka, nepristrani procjenitelj od X.
Potrazimo varijablu koja nepristrano procjenjuje varijancu
2
. k-tom uzorku duljine
N pridruzuje se varijanca izrazom

2
k
=
1
N
N

n=1
(x
n,k
x
k
)
2
,
koja je takoder jedna slucajna varijabla denira na uzorku duljine N. Pogledajmo je
li
2
k
nepristrana procjena prave varijance
2
, tj. vrijedi li (14.4) uz
2

2
i
2

2
k
.
Raspisimo
2
k
na slijedeti nacin

2
=
1
N
N

n=1
(x
n
x + )
2
=
1
N
N

n=1
[(x
n
) (x )]
2
=
1
N
_
N

n=1
(x
n
)
2
2(x )
N

n=1
(x
n
) + N (x )
2
_
=
1
N
N

n=1
(x
n
)
2
(x )
2
.
Izracunajmo ocekivanje gornje jednadzbe, tako sto temo koristiti svojstvo linearnosti
operatora ocekivanja ()
E(
2
) =
1
N
N

n=1
E[(x
n
)
2
] E[(x )
2
].
Prema () je E[(x
n
)
2
] =
2
, a E[(x )
2
] =
2
/N, pa je zato
E(
2
) =
1
N
N

n=1

2
/N =
N 1
N

2
=
2
.
Dakle, zakljucujemo da
2
nije nepristrana procjena za varijancu. No, gornji racun
ipak nije posve uzaludan. Uvedemo novu slucajnu varijablu relacijom

N
N 1

2
.
Opet zbog linearnosti operatora ocekivanja (), vrijedi
E(
2
) = E
_
N
N 1

2
_
=
N
N 1
E(
2
) =
N
N 1
N 1
N

2
=
2
.
Dakle
2
jeste nepristrana procjena varijance cijelog skupa (a ne samo uzorka!). Napisimo
jos i
2
pomotu x
n
-ova iz uzorka

2
=
1
N 1
N

n=1
(x
n
x)
2
.
14.2. PROCJENE 207
14.2.2 Najbolja nepristrana procjena
Mogute je zamisliti situaciju u kojoj postoji vise slucajnih varijabli , koje sve nepris-
trano procjenjuju parametar . U tom slucaju je vazno nati onu nepristranu procjenu
koja najbolje procjenjuje . U ovom slucaju rijec najbolje znaci da je odstupanje
od najmanje. Kako bismo eliminirali utjecaj predznaka (buduti da su negativni bro-
jevi manji od pozitivnih, to bi i negativna odstupanja uvijek bila manja od pozitivnih),
racunat temo kvadrate odstupanja. No, kvadratno odstupanje je upravo ono sto smo
vet ranije, (), denirali kao varijancu. Prema tome, da bi bila nepristrana procjena
od , mora biti E() = , a da bi bila jos i najbolja nepristrana procjena, mora biti
zadovoljen i dodatni uvjet minimalne varijance
E[()
2
] = minimum.
Pokazimo sada da od svih linearnih funkcija varijabli x
1
, x
2
, . . . , x
N
, upravo aritmeticka
sredina x ima svojstvo da najbolje procjenjuje ocekivanje cijelog osnovnog skupa
dogadaja (a ne samo uzorka). Neka je, dakle, najoptenitija linearna kombinacija
slucajnih varijabli x
1
, x
2
, . . . , x
N
= c
1
x
1
+ c
2
x
2
+ + c
N
x
N
, (14.5)
gdje su c
n
konstante. Kako su sve varijable x
n
opisane istom funkcijom raspodjele
gustote vjerojatnosti, to te biti i
E(x
1
) = E(x
2
) = = E(x
N
) = ,
V (x
1
) = V (x
2
) = = V (x
N
) =
2
.
Na je zadatak nati vrijednosti konstanata c
n
, tako da budu zadovoljeni uvjeti nepris-
tranosti E() = i najbolje nepristranosti E[()
2
] = minimum. Prema linearnosti
operatora ocekivanja, (), prvi uvjet vodi na
E() = E(c
1
x
1
+ c
2
x
2
+ + c
N
x
N
) = c
1
E(x
1
) + c
2
E(x
2
) + + c
N
E(x
N
)
= c
1
+ c
2
+ + c
N
= (c
1
+ c
2
+ + c
N
) .
No, prema deniciji () nepristrane procjene, gornji izraz treba biti jednak , a to je
mogute samo ako je
c
1
+ c
2
+ + c
N
= 1.
Gornji te uvjet ocito biti zadovoljen ako umjesto koecijenata c
n
iz (14.5), koristimo
normirane koecijente
c
n

c
n

N
n=1
c
n
,
cime postaje
=
c
1
x
1
+ c
2
x
2
+ + c
N
x
N

N
n=1
c
n
. (14.6)
Ovako deniran zadovoljava uvjet nepristranosti. Pogledajmo sada sto donosi uvjet
najbolje nepristrane procjene. Iz matematicke analize je poznato da se ekstremi (mi-
nimumi ili maksimumi) funkcije u odnosu na neku varijablu, odreduju zahtjevom da je
208 POGLAVLJE 14. PROCJENE
derivacija funkcije po toj varijabli jednaka nuli. Mi sada zelimo da varijanca bude eks-
tremna (minimalna) u odnosu na . No, je odredena vrijednostima N konstanata c
n
i zato postoji ne jedan, nego N uvjeta minimuma koje pisemo kao
V ()
c
n
= 0, n = 1, 2, , N.
Da bismo mogli provesti gornju derivaciju, moramo znati kako V ovisi o c
n
-ovima. Po
uzoru na (), sada racunamo
V () = V
_
c
1

N
n=1
c
n
x
1
+
c
2

N
n=1
c
n
x
2
+ +
c
N

N
n=1
c
N
x
N
_
= E
_
_
_
c
1

N
n=1
c
n
(x
1
) +
c
2

N
n=1
c
n
(x
2
) +
c
N

N
n=1
c
N
(x
N
)
_
2
_
_
= E
_
c
2
1
(

N
n=1
c
n
)
2
(x
1
)
2
+
c
2
2
(

N
n=1
c
n
)
2
(x
2
)
2
+
c
2
N
(

N
n=1
c
n
)
2
(x
N
)
2
+ 2
c
1

N
n=1
c
n
c
2

N
n=1
c
n
(x
1
)(x
2
)
2
+
_
= (lin E)
=
c
2
1
(

N
n=1
c
n
)
2
E[(x
1
)
2
] +
c
2
2
(

N
n=1
c
n
)
2
E[(x
2
)
2
] + +
c
2
N
(

N
n=1
c
n
)
2
E[(x
n
)
2
]
+ 2
c
1

N
n=1
c
n
c
2

N
n=1
c
n
E[(x
1
)(x
2
)] +
Buduti da su x
n
medusobno neovisne varijable, to je prema (), ocekivanje mjesovitih
clanova jednako nuli E[(x
n
)(x
m
)] = 0, pa preostaje
V () =
c
2
1
(

N
n=1
c
n
)
2
E[(x
1
)
2
] +
c
2
2
(

N
n=1
c
n
)
2
E[(x
2
)
2
] +
c
2
N
(

N
n=1
c
n
)
2
E[(x
n
)
2
]
=
c
2
1
(

N
n=1
c
n
)
2
V (x
1
) +
c
2
2
(

N
n=1
c
n
)
2
V (x
2
) +
c
2
N
(

N
n=1
c
n
)
2
, V (x
N
)
=
c
2
1
(

N
n=1
c
n
)
2

2
+
c
2
2
(

N
n=1
c
n
)
2

2
+
c
2
N
(

N
n=1
c
n
)
2

2
=
c
2
1
+ c
2
2
+ + c
2
N
_

N
n=1
c
n
_
2

2
.
Sada, kada vidimo eksplicitnu ovisnost varijance o c
n
-ovima, mozemo provesti derivaciju
i izjednaciti ju s nulom
V () =
c
2
1
+ c
2
2
+ + c
2
N
_

N
n=1
c
n
_
2

2
,
0 =
V ()
c
m
=
2c
m
(

N
n=1
c
n
)
2
(c
2
1
+ c
2
2
+ + c
2
N
)2(

N
n=1
c
n
)
(

N
n=1
c
n
)
4
.
14.2. PROCJENE 209
Ocito je gornji uvjet ispunjen, ako je
c
m
=

N
n=1
c
2
n

N
n=1
c
n
.
Primjetujemo da desna strana gornjeg izraza ne ovisi o m, sto znaci da su svi c
m
-ovi
medusobno jednaki i oznacit temo ih s C
C

N
n=1
c
2
n

N
n=1
c
n
= c
1
= c
2
= = c
N
.
Uvrstimo ove vrijednosti za c
n
, natrag u izraz za
=
c
1
x
1
+ c
2
x
2
+ + c
N
x
N

N
n=1
c
n
=
C(x
1
+ x
2
+ + x
N
)
NC
=
x
1
+ x
2
+ + x
N
N
= x.
Opet smo dobili aritmeticku sredinu. Time je pokazano da je aritmeticka sredina ne-
pristrana i najbolja nepristrana procjena ocekivanja.
14.2.3 Intervalne procjene
210 POGLAVLJE 14. PROCJENE
Poglavlje 15
Stohasticki procesi
Ako se izvodi niz pokusa, pri cemu rezultat svakog pojedinog pokusa ovisi o slucaju, tada
se takav niz pokusa naziva stohasticki proces.
Jedan tipican primjer stohastickog procesa je proucavanje gibanja cestica uida (plina
ili tekucine). Broj cestica koje sudjeluju u tom gibanju je toliko velik da je prakticki
nemoguce pratiti gibanje svake pojedine cestice na temelju njezine jednadzbe gibanja.
Stoga se ovom problemu pristupa statisticki, tako sto se sudari promatrane cestice s
ostalim cesticama smatraju potpuno slucajnima. Npr. u slucaju difuzije, promatra se
proces mijesanja dva uida: u pocetnom su trenutku oni bili razdvojeni pregradom, zatim
se pregrada uklanja i uidi se pocinju mijesati. Karakteristicna pitanja koja se pri tome
postavljaju su: koliko vremena treba da se odreden broj cestica pomakne za odredenu
duzinu, kolika je brzina odvijanja, difuzije, koliko vremena treba da se uspostavi ravnoteza
i slicna pitanja.
Jedan drugi primjer stohastickog procesa je radioaktivni raspad, gdje je potrebno
odrediti vjerojatnost da se u odredenom vremenskom intervalu odredeni broj cestica ra-
dioaktivno raspadne.
Osim toga, stohasticki su i procesi kao Brownovo gibanje, umno

zavanje kulture
bakterija, broj elektrona i fotona u kozmi

ckim zrakama i mnogi drugi.


Osnove teorije stohastickih procesa su posatavili 1931. god. ruski matematicari Andrej
Nikolajevic Kolmogorov
1
i Aleksandar Jakovljevic Hincin
2
.
Kao sto je gore vec spomenuto, klasicni opis gibanja mnostva cestica je neprovediv zbog
velikog broja cestica koje sudjeluju u procesu. Gledano sa stanovista kvantne mehanike,
opis gibanja je jos slozeniji. Naime, pokazalo se da cak niti za jednu jedinu (a pogotovo
ne za mnostvo) cesticu nije moguce tocno odrediti trajektoriju njezinog gibanja. Ono sto
je moguce izracunati kvantnomehanickim racunom jeste vjerojatnost prijelaza iz nekog
poznatog kvantnog stanja
0
u kome se sustav nalazi u trenutku t
0
, u jedno od niza
kvantnih stanja {
t
} u kojima se sustav moze naci u trenutku t > t
0
. Ta se vjerojatnost
oznacava kao
P(t
0
,
0
; t, {
t
}), t > t
0
.
Ako vjerojatnost stanja sustava u vremenu t ovisi samo o t
0
, ali ne i o ranijim vre-
1
Andrej Nikolajevic Kolmogorov, ruski matematicar. Roden je 25. IV 1903. u Tambovu u Carskoj Rusiji, a umro je 20.
X 1987. u SSSRu.
2
Aleksandar Jakovljevic Hincin, ruski matematicar. Roden je 19. VII 1894. u Carskoj Rusiji, a umro je 18. IX 1959 u
SSSRu.
211
212 POGLAVLJE 15. STOHASTI

CKI PROCESI
menskim trenicima t < t
0
, onda se takvi procesi nazivaju Markovljevi
3
procesi.
U nastavku ovog odjeljka ce se izloziti dva razmjerno jednostavna primjera Markovljevih
procesa, a to su nasumicni hod i Markovljevi lanci.
15.1 Nasumicni hod
Nasumicni hod
4
je proces koji se pojavljuje u razlicitim podrucjima ljudske djelatnosti
5
.
Jedna jednostavna denicija ovog problema je slijedeca: cestica se giba u jednoj dimenziji
(npr. po segmentu osi x) tako da tijekom vremena izvodi skokove lijevo ili desno za jednu
jedinicu; vjerojatnost skoka na lijevu stranu je q, a na desnu p = 1 q; treba odrediti ili
polozaj cestice nakon n skokova ili vjerojatnost da cestica dode do ruba segmenta ili sto
slicno. Ekvivalentan ovome je i problem koji se pojavljuje u teoriji igara, a denira se na
slijedeci nacin: dva igraca. A i B, igraju igru kod koje je vjerojatnost dobitka za igraca
A jednaka p, a vjerojatnost gubitka je q (za B je, naravno, obratno); na pocetku igre,
igrac A ima x novaca, a B ima X x novaca. Igra se igra tako dugo dok ili A ne dobije
sav novac (iznosa X) ili ne izgubi sav novac (i komplementarno za igraca B). Postavlja
se pitanje: kolika je vjerojatnost da A izgubi sav svoj novac.
U nastavku ce se koristiti slika gibanja cestice, a ne primjer iz teorije igara. Promatrat
ce se, dakle, jednodimenzijsko gibanje po osi x u intervalu [0, X]. Vjerojatnost pomaka u
desno oznacava se s p, a vjerojatnost pomaka u lijevo s q = 1 p. Neka se u pocetnom
trenutku cestica nalazi u tocki s koordinatom 0 x X. U vremenskim trenucima
t = 1, 2, 3, cestica se nasumicno pomice lijevo ili desno za jednu jedinicu duljine.
Smjer pomaka se odreduje nekim pokusom ciji je ishod slucajan. Npr. ako zelimo da
vjerojatnost pomaka lijevo i desno bude jednaka, smjer pomaka se moze odrediti bacanje
kovanice: pismo - lijevo, a glava - desno ili bacanjem kocke: parni broj - lijevo, neparni
broj - desno ili nesto slicno. No, nije nuzno promatrati ovako simetricne procese. Od
interesa mogu biti i procesi u kojima je npr. vjerojatnost pomaka lijevo i desno nije ista
6
(npr. brojevi 1 i 2 na kocki znace pomak lijevo, a svi ostali desno)
Polozaj cestice nakon n pomaka, odgovara kolicini novca u posjedu igraca A nakon n
odigranih igara. Nasumicni hod zavrsava kada cestica ili stigne u ishodiste x = 0 ili u
x = X. Oznacimo s
p
x
vjerojatnost da cestica stigne u tocku x = X, ako se u pocetku nalazila u tocki x,
q
x
vjerojatnost da cestica stigne u tocku x = 0, ako se u pocetku nalazila u tocki x.
Ocito je iz denicija, da je
p
x
+ q
x
= 1.
3
Andrej Andrejevic Markov, ruski matematicar. Roden je 14. VI 1856. u Carskoj Rusiji, a umro je 20. VII 1922. u
SSSRu.
4
engl. random walk.
5
Ponekad se naziva i pijancev hod, sto sugerira jednu mogucu primjenu teme izlozene u ovom odjeljku. Taj se problem
moze postaviti i u dvije i tri dimenzije, sto je tada slozenije od onoga o cemu ce biti rijeci u ovom odjeljku.
6
Npr. sustav Isingovih spinova iznosa /2 u vanjskom magnetsko polju: vjerojatnost prijelaza u stanje paralelno vanjskom
polju ce biti veca nego vjerojatnost prijelaza u stanje antiparalelno polju. Drugi primjer je pijanac koji se nalazi na strmoj
ulici: vjerojatnije je da ce napraviti korak niz nego uz strminu.
15.1. NASUMI

CNI HOD 213


Vjerojatnost dolaska do ruba:
Diskutirajmo situaciju kada se cestica nalazi u x i kada je njezina vjerojatnost da stigne
u ishodiste jednaka q
x
. U slijedecem koraku, cestica ima dvije mogucnosti: ili ce se
pomaknuti desno u tocki x +1 s vjerojatnoscu p ili lijevo u tocku x 1 s vjerojatnoscu q.
Ako se nasla u tocki x + 1, tada je njezina vjerojatnost da stigne u tocku x = 0 jednaka
p q
x+1
. Naprotiv, ako se nasla u tocki x 1, tada je njezina vjerojatnost da stigne u
tocku x = 0 jednaka q q
x1
. Buduci da postoje samo dvije mogucnosti: pomak ili lijevo
ili desno, to mora biti (slika 15.1)
q
x
= q q
x1
+ p q
x+1
. (15.1)
Naravno da za gornje tri q
j
vjerojatnosti vrijedi
q
x1
> q
x
> q
x+1
,
jer sto je cestica blize ishodistu, veca je i vjerojatnost da ce doci do ishodista. Isto tako,
Slika 15.1: Moguci pomaci cestice: ili vjerojatnost.
prema deniciji q
j
vjerojatnosti, je
q
0
= 1, (15.2)
jer ako cestica jeste u ishodistu, onda je vjerojatnost toga jednaka jedinici, a
q
X
= 0, (15.3)
jer ako je cestica stigla u krajnju desnu tocku, onda sigurno nije u ishodistu, a nasumicni
hod je okoncan. Ove dvije jednadzbe jesu rubni uvjeti za jednadzbu diferencija (15.1).
Potrazimo rjesenja te jednadzbe uz pretpostavku da je
p = q.
Uz ovu pretpostavku, rjesenja cemo potraziti u obliku potencije
q
x
= R
x
,
214 POGLAVLJE 15. STOHASTI

CKI PROCESI
za nepoznati R, koji treba odrediti. Uvrstavanjem gornjeg pretpostavljenog oblika rjesenja
u jednadzbu (15.1), dolazi se do
R
x1
_
R q p R
2
_
= 0.
Uz pretpostavku da je R = 0 (sto je trivijalno rjesenje), gornja je jednadzba zadovoljena
ako je
R
2

1
p
R +
p
q
= 0.
Dva rjesenja gornje jednadzbe su
R

=
1
2p
_
1 (1 2q)
_
=
_

_
R
+
= 1 ,
R

=
q
p
.
Tako su se dobila dva rjesenja
q
(+)
x
= 1,
q
()
x
=
_
q
p
_
x
.
Buduci da je polazna jednadzba linearna i homogena, to je i linearna kombinacija ova dva
rjesenja, takoder rjesenje. Zato je opci oblik rjesenja dan sa
q
x
= A q
(+)
x
+ B q
()
x
= A 1 + B
_
q
p
_
x
, (15.4)
gdje se konstante A i B odreduju iz rubnih uvjeta (15.2) i (15.2):
x = 0, q
0
= 1 = A + B,
x = X, q
X
= 0 = A + B
_
q
p
_
X
.
Rjesavanjem gornjeg 2 2 linearnog sustava, dobiju se konstante A i B
A =
_
q
p
_
X
_
q
p
_
X
1
, B =
1
_
q
p
_
X
1
,
i konacno rjesenje za q
x
q
x
=
_
q
p
_
X

_
q
p
_
x
_
q
p
_
X
1
, q = p. (15.5)
To je vjerojatnost da ce cestica koja se u danom trenutku nalazi u tocki x, okoncati svoj
nasumicni hod u tocki x = 0.
15.1. NASUMI

CNI HOD 215


Buduci da je
p
x
+ q
x
= 1,
(cestica mora okoncati svoj nasumicni hod ili u x = 0 ili u x = X) to je vjerojatnost da
ce cestica koja se u danom trenutku nalazi u tocki x, okoncati svoj nasumicni hod u tocki
x = X, jednaka
p
x
= 1 q
x
=
_
p
q
_
X

_
p
q
_
Xx
_
p
q
_
X
1
, q = p.
U slucaju kada je p = q =
1
2
, izrazi za p
x
i q
x
se svode na neodredeni oblik
0
0
,
i rjesavaju se ili razvojem u red ili primjenom LHospitalovog pravila (sto je u biti isti
postupak). Uvede li se varijabla
u =
q
p
,
tada je, primjenom LHospitalovog pravila,
lim
u 1
q
x
= lim
u 1
Xu
X1
xu
x1
Xu
X1
0
= 1
x
X
, q = p =
1
2
.
q
x
= 1
x
X
q = p =
1
2
. (15.6)
Primjetimo da gornje rjesenje zadovoljava rubne uvjete (15.2) i (15.2). Vjerojatnost da
cestica okonca hod u x = X je
p
x
= 1 q
x
=
x
X
, q = p =
1
2
.
Primjer: 15.1 Zadan je interval na x osi [0, 1000].

Cestica se nalazi u tocki x = 999.
Izracunajte vjerojatnost da cestica okonca svoj hod u tocki x = 0, ako je
(a) p = q = 1/2,
(b) p = 2/5, q = 3/5 .
R:
(a) Kada je q = p = 1/2, vjerojatnost q
x
se racuna iz (15.6)
q
x
= 1
x
X
= 1
999
1000
= 1 0.999 = 0.001 = 0.1 %.
216 POGLAVLJE 15. STOHASTI

CKI PROCESI
(b) Kada je q = p, vjerojatnost q
x
se racuna iz (15.24)
q
x
=
_
q
p
_
X

_
q
p
_
x
_
q
p
_
X
1
=
_
3
2
_
1000

_
3
2
_
999
_
3
2
_
1000
1
=
_
3
2
_
999
_
3
2
1
_
_
3
2
_
1000
1
=
3
999
3
1 000
2
1 000
=
1
3
1
1 (2/3)
1 000

1
3
.
Primjer: 15.2

Cestica se nalazi u tocki x, a interval po kojemu se moze gibati je 0
x < . Kolika je vjerojatnost da cestica dode u ishodiste ako je q > p, q = p
i q < p?
R:
Kada je q = p, vjerojatnost dolaska u ishodiste se racuna iz (15.24)
q
x
=
_
q
p
_
X

_
q
p
_
x
_
q
p
_
X
1
.
Kada je q > p, tada je
lim
X
q
x
=
_
q
p
_
X

_
q
p
_
X

= 1,
tj. cestica ce sigurno okoncati svoj hod u ishodistu.
Ako je q = p, tada se q
x
racuna pomocu (15.6),
q
x
= lim
X
_
1
x
X
_
= 1,
i opet ce cestica sa sigurnoscu okoncati svoj hod u ishodistu.
Ako je q < p, tada je
lim
X
_
q
p
_
X
= 0,
pa je, prema (15.24), vjerojatnost dolaska u ishodiste dana sa
q
x
=
_
q
p
_
x
.
Vrijeme do dolaska u rubnu to

cku:
Promotrimo opet cesticu koja zapocinje svoj hod iz tocke x, ali sada treba izracunati
prosjecan broj koraka
N
x
15.1. NASUMI

CNI HOD 217


koji napravi cestica, prije nego okonca svoj hod u x = 0 ili u x = X. Taj ce se broj
izracunati tako sto ce se postaviti jednadzba koja povezuje broj koraka koji se razlikuju
za jedan: ako cestica skoci za jedno mjesto lijevo ili desno
N
x
= q N
x1
+ p N
x+1
+ 1. (15.7)
Prvi clan desne strane opisuje jedan korak cestice na lijevu stranu, a drugi clan opisuje
jedan korak na desnu stranu. Treci clan kaze da je broj koraka iz tocaka x1 za jedan veci
nego broj koraka iz tocke x (racunam broj koraka u odnosu na tocku x: dakle, cestica se iz
x1 treba vratiti u x i to vracanje je taj +1 korak). Gornju jednadzbu treba upotpuniti
i s rubnim uvjetima
N
0
= N
X
= 0, (15.8)
koji naprosto kazu da kada se cestica nade u jednoj od rubnih tocaka, proces slucajnog
hoda je okoncan.
Gornja jednadzba je istog oblika kao i jednadzba (15.1), s tom razlikom da je ova jednadzba
nehomogena. To znaci da je ukupno rjesenje jednadzbe dano zbrojem rjesenja homogene
jednadzbe i partikularnog rjesenja nehomogene jednadzbe
N
x
= N
hom.
x
+ N
part.
x
.
Rjesenje homogene jednadzbe je poznato i ono je oblika (15.4),
N
hom.
x
= A 1 + B
_
q
p
_
x
,
konstante A i B se sada odreduju iz rubnih uvjeta na cijelo rjesenje (a ne samo na
homogeni dio rjesenja). Partikularno rjesenje treba pogoditi, pa cemo pogadanje zapoceti
s jednostavnom linearnom funkcijom
N
part.
x
= a + b x.
Uvrstavanjem gornjeg izraza u jednadzbu (15.7), dobiva se
0 = b(p q) + 1,
tj.
b =
1
q p
.
Na a nema nikakvih uvjeta, sto znaci da je a proizvoljan, pa mozemo odabrati a = 0.
Time cijelo rjesenje za N
x
postaje
N
x
= A 1 + B
_
q
p
_
x
+
x
q p
.
Konstante A i B se odreduju iz rubnih uvjeta
x = 0, N
0
= 0 = A + B,
x = X, N
X
= 0 = A + B
_
q
p
_
X
+
X
q p
.
218 POGLAVLJE 15. STOHASTI

CKI PROCESI
Rjesavanjem gornjeg sustava po A i B, dobiva se
A =
X
qp
_
q
p
_
X
1
, B =
X
qp
_
q
p
_
X
1
.
Konacno rjesenje je
N
x
=
x
q p

X
q p
_
q
p
_
x
1
_
q
p
_
X
1
, q = p.
(15.9)

Sto ako je q = p =
1
2
? Uvrstavanjem q = p =
1
2
u gornji izraz, opet ce se dobiti
neodredenost. Zato treba pazljivo izvesti granicni prijelaz q
1
2
i p
1
2
. Uvedimo
ponovo varijablu
u
q
p
,
i promatrajmo gornji izraz u granici kada je
u = 1 , 0.
Binomnim razvojem je
u
x
= (1 )
x
= 1 x +
x(x 1)
2

2
+ ,
u
X
= (1 )
X
= 1 X +
X(X 1)
2

2
+ .
Uvrstavanjem gornjih razvoja u (15.9), dolazi se do
N
x
= lim
0
_

2x

+
2x

1
x1
2
+
1
X1
2
+
_
= lim
0
_

2x

+
2x

_
1
x 1
2
+
_

_
1 +
X 1
2
+
_
_
= lim
0
_

2x

+
2x

_
1 +
X 1
2

x 1
2
+O(
2
)
_
_
= lim
0
[x (X x) +O() ] .
U granici kada u 1 je = 0 i konacno je
N
x
= x (X x), q = p =
1
2
. (15.10)
15.1. NASUMI

CNI HOD 219


Primjer: 15.3

Cestica se nalazi u tocki x = 500 i giba po intervalu [0, 1 000]. Vjerojat-
nosti koraka lijevo i desno su iste. Koliki je ocekivani broj koraka cestice, prije
nego zavrsi u jednom od rubova?
R:
Ako je q = p, broj koraka se racuna iz 15.10
N
x
= x(X x) = 500 (1 000 500) = 250 000.
Neka se cestica nalazi u tocki X = 1 000, intervala [0, 1 001], koliki je ocekivani
broj koraka cestice? Opet prema 15.10 slijedi
N
x
= x (X x) = 1 000 (1 001 1 000) = 1 000.
Dakle, iako se cestica nalazi sasvim uz desni rub, jos uvijek se ocekuje da ce
napraviti 1 000 koraka, prije nego dospije do samog ruba.
Primjer: 15.4

Cestica se nalazi u tocki x, a interval po kojemu se moze gibati je 0
x < . Kolika je vjerojatni broj koraka koje cestica treba napraviti prije nego
sto stigne do jednog ruba, ako je q > p, q = p i q < p?
R:
Kada je q = p, broj koraka se racuna iz (15.9)
N
x
=
x
q p

X
q p
_
q
p
_
x
1
_
q
p
_
X
1
, q = p.
Kada je q > p, tada je
lim
X
N
x
=
x
q p
lim
X
X
_
q
p
_
X
.
Drugi clan desne strane sadrzi neodredeni izraz /, pa se rjesava LHospitalovim
pravilom (derivacijom po X)
lim
X
X
_
q
p
_
X
=
1
ln
q
p

_
q
p
_
X
= 0
i broj koraka potreban za dolazak cestice u ishodiste
7
je
N
x
=
x
q p
.
tj. cestica ce sigurno okoncati svoj hod u ishodistu.
Ako je q = p, tada se N
x
racuna pomocu (15.10),
N
x
= lim
X
x (X x) = .
7
U ishodiste zato jer je q > p i vjerojatnije je gibanje cestice na lijevo prema ishodistu, nego desno.
220 POGLAVLJE 15. STOHASTI

CKI PROCESI
Ako je q < p, tada je opet N
x
dan sa (15.9), ali je sada
lim
X
_
q
p
_
X
= 0,
pa je opet
N
x
= .
Ovaj beskonacan broj koraka koji se dobiva za q p je posve razumljiv: cestica
se giba po beskonacno velikom intervalu, a vjerojatnost skokova ne preferira
smjer prema ishodistu.
Srednja udaljenost od po

cetne to

cke:
Rijesimo sada ovaj zadatak: cestica se nalazi u ishodistu, x = 0, jednodimenzijskog
koordinatnog sustava i pomice se za jedno mjesto na desnu stranu s vjerojatnoscu p, a s
vjerojatnoscu q = 1 p se pomice za jedno mjesto na lijevo. Zadatak je naci vjerojatnost
da se nakon N koraka, cestica nade na udaljenosti x od ishodista? Ocito ce x biti cijeli
broj s vrijednostima iz intervala
N x +N.
Buduci da kod odabira smjera pomaka, postoje samo dvije mogucnosti, vjerojatnost da
je u N pomaka cestica napravila n pomaka na desnu i N n koraka na lijevu stranu je
dana binomnom raspodjelom
P(n) =
_
N
n
_
P
n
q
Nn
.
Pomak na desno povecava koordinatu cestice za jedan, a pomak na lijevo smanjuje koor-
dinatu za jedan. Zato je nakon N koraka polozaj cestice dan sa
x = n (+1) + (N n) (1) = 2n N.
Iz gornjeg izraza je
n =
x + N
2
,
pa je sada moguce sa P(n) prijeci na P(s)
P(n) P(x) =
_
N
x+N
2
_
p
(x+N)/2
q
NN/2x/2
= (p q)
N/2
_
N
x+N
2
_ _
p
q
_
x/2
.
To je vjerojatnost da se cestica nakon N slucajnih koraka nade u tocki s koordinatom x.
Srednja vrijednost koordinate x je
x = 2 n N = 2Np N = N(2p 1) = N(p q),
gdje je uvrstena poznata relacija za binomnu raspodjelu n = Np. Iz gornje se rela-
cije vidi da ako je p = q =
1
2
, tada je x = 0, sto je u skladu sa zdravorazumskim
15.2. MARKOVLJEVI LANCI 221
ocekivanjem. Ako je p >
1
2
biti ce i x > 0, tj. srednji pomak je na desnu stranu i
simetricno, ako je p <
1
2
. Slicno se moze izracunati i x
2
i dobiti
x
2
= 4n
2
4nN + N
2
,
x
2
= 4 n
2
4 nN + N
2
.
Iz binomne raspodjele je poznato , (8.8),
n
2
= Np + N(N 1)p
2
,
sto vodi na
x
2
= 4
_
Np + N(N 1)p
2
_
4NpN + N
2
i konacno se za standardnu devijaciju dobije

x
=

x
2
x
2
= 2

Npq.
Gornji se model (i njegova poopcenja na vise dimenzija) moze primjeniti u:
Teoriji magnetizma, gdje se umjesto N koraka jedne cestice, promatra skup od N ne-
pomicnih cestica, a umjesto pomaka lijevo ili desno, svaka od N cestica moze imati dvije
razlicite vrijednosti atomskog magnetskog momenta: +1 ili 1 (u prikladnim jedinicama).
U tom slucaju srednji polozaj cestice, odgovara srednjoj magnetizaciji sustava.
Racunu intenziteta N nekoherentnih svjetlosnih izvora. Amplituda svakog izvora se moze
prikazati dvodimenzijskim vektorom nasumicnog smjera. Ukupni intenzitet svjetlosti svih
N izvora je rezultat zbrajanja ovih nasumicnih vektora.
15.2 Markovljevi lanci
Na pocetku izlaganja, denirajmo pojmove koji ce se koristiti. Izvodi se niz od n pokusa
u kojima se uocavaju slucajni dogadaji
A
1
, A
2
, , A
n
,
s vjerojatnostima
P(A
1
), P(A
2
), , P(A
n
).
Ako su svi slucajni dogadaji medusobno nezavisni, tada je
P(A
1
A
2
A
n
) = P(A
1
) P(A
2
) P(A
n
). (15.11)
Pokusi koji mogu okoncati samo na dva
8
nacina (npr.: uspjeh ili neuspjeh, ima struje ili
nema struje, 1 ili 0, spin gore ili spin dolje, itd.) zovu se Bernoullijevi pokusi. Ukoliko
jednadzba (15.11) ne vrijedi, pokusi su zavisni Bernoullijevi pokusi. Za njih je
9
P(A
1
A
2
A
n
) = P(A
n
/A
n1
A
2
A
1
) P(A
3
/A
2
A
1
) P(A
2
/A
1
) P(A
1
)
8
Kao Isingov model s dva stanja.
9
Sjetiti se uvjetnih vjerojatnosti iz odjeljka 2.2.3.
222 POGLAVLJE 15. STOHASTI

CKI PROCESI
Za nezavisne dogadaje je uvjetna vjerojatnost jednaka apsolutnoj vjerojatnosti
P(A
k
/A
k1
A
2
A
1
) = P(A
k
).
Markovljevi zavisni Bernoullijevi pokusi se deniraju ovako
P(A
k+1
/A
k
A
k1
A
2
A
1
) = P(A
k+1
/A
k
). (15.12)
Vjerojatnost ishoda (k + 1)-og pokusa ovisi samo o ishodu k-tog pokusa,
ali ne i o ishodima svih ranijih pokusa.
To je ucinak memorije, ali kratkotrajne memorije. Pamti se samo prethodni dogadaj i
nista drugo prije toga
10
. Buduci da je vjerojatnost svakog novog dogadaja vezana za vje-
rojatnost prethodnog dogadaja, ovakvi se nizovi pokusa nazivaju Markovljevi lanci
11
i po svojoj deniciji su diskontinuirani. Markovljevi lanci se ne pojavljuju zickim pro-
blemima, nego i u problemima drustvenih znanosti, biologije, genetike itd. Nasumicni
hod je jedan primjer Markovljevog lanca: polozaj cestice u slijedecem koraku ovisi samo
o tome gdje se cestica sada nalazi, ali ne i o nacinu kako je cestica dospjela u sadasnji
polozaj. Stohasticki procesi kod kojih svako novo stanje ovisi o prethodnom, ali se sam
proces odvija kontinuirano, nazivaju se Markovljevi procesi.
Sada cemo malo promijeniti oznake - do sada smo uvjetnu vjerojatnost da se dogodi B,
ako se vec dogodio A, oznacavali s P(B/A), a sada cemo tu istu uvjetnu vjerojatnost
oznacavati s
P(A, B) P(B/A).
Buduci da svaki od promatranih pokusa moze okoncati na dva nacina, jedan cemo nacin
nazvati uspjeh i oznacavati
12
sa s, a drugi cemo nazvati neuspjeh i oznacavati
13
s f. Na
taj nacin vezana (uvjetna) vjerojatnost ili vjerojatnost prijelaza ili prijelazna vjerojatnost,
izmedu dva susjedna pokusa (stanja)
P(A
k
, A
k+1
)
moze poprimiti cetiri moguce vrijednosti:
P(s, s) vjerojatnost uspjeha u (k + 1)-vom pokusu, ako je i u k-tom pokusu bio uspjeh;
P(s, f) vjerojatnost neuspjeha u (k + 1)-vom pokusu, ako je u k-tom pokusu bio uspjeh;
P(f, s) vjerojatnost uspjeha u (k + 1)-vom pokusu, ako je u k-tom pokusu bio neuspjeh;
P(f, f) vjerojatnost neuspjeha u (k + 1)-vom pokusu, ako je i u k-tom pokusu bio neuspjeh;
10
Gledano u prostornim varijablama, to je slicno medudjelovanju ogranicenom samo na prve susjede.
11
A. A. Markov, 1856 - 1922, ruski matematicar.
12
od engl. success
13
od engl. failure
15.2. MARKOVLJEVI LANCI 223
Ako ove vjerojatnosti ne ovise o k, lanac se naziva homogen. Ove se cetiri vjerojatnosti
mogu napisati i u obliku matrice vjerojatnosti prijelaza
P =
_
_
P(s, s) P(s, f)
P(f, s) P(f, f)
_
_
.
S obzirom da postoje samo dva ishoda pokusa, mora biti
P(s, s) + P(s, f) = 1, P(f, s) + P(f, f) = 1,
(15.13)
P(s, s) + P(f, s) = 1, P(s, f) + P(f, f) = 1,
tj. zbroj svakog reda i svakog stupca matrice P je jednak jedinici. Buduci da se radi o
vjerojatnostima, svaki je element matrice P pozitivan realan broj ili nula. Matrice s ova
dva svojstva se zovu stohasti

cke matrice. Matrica P opisuje prijelaz izmedu dva stanja


u jednom koraku Markovljevog lanca.
Jos jedna denicija: opcenito se matrica A
A =
_

_
a
1,1
a
1,2
a
1,R
a
2,1
a
2,2
a
2,R
.
.
.
a
R,1
a
R,2
a
R,R
_

_
,
naziva stohasti

cna, ako je a
i,j
0 i ako je zbroj elemenata svakog reda jednak jedan.
Matrica je dvostruko stohasticna, ako je zbroj elemenata svakog reda i svakog stupca
jednak jedan. Moze se pokazati da je svaka matrica prijelaza, stohasticna matrica.
Uvedimo i oznake apsolutnih vjerojatnosti:
p
k
(s) je apsolutna (bezuvjetna) vjerojatnost uspjeha u k-tom pokusu;
p
k
(f) je apsolutna (bezuvjetna) vjerojatnost neuspjeha u k-tom pokusu.
Za apsolutne vjerojatnosti ocito vrijedi
p
k
(s) + p
k
(f) = 1. (15.14)
Pomocu uvedenih oznaka, moze se postaviti ova ocita jednadzba koja povezuje apsolutnu
vjerojatnost ishoda k-tog pokusa s apsolutnom vjerojatnoscu ishoda k 1-vog pokusa
p
k
(s) = p
k1
(s) P(s, s) + p
k1
(f) P(f, s).
Ona izrazava jednostavnu cinjenicu da se uspjeh u k-tom pokusu moze dobiti samo na
dva nacina:
224 POGLAVLJE 15. STOHASTI

CKI PROCESI
prvi clan desne strane je uvjetna vjerojatnost da u k-tom pokusu bude uspjeh, ako je u
k 1 je pokusu bio uspjeh,
a drugi clan desne strane je uvjetna vjerojatnost da u k-tom pokusu bude uspjeh, ako je
u k 1 je pokusu bio neuspjeh.
Uvrstimo u gornju jednadzbu
P(f, s) = 1 P(f, f)
iz (15.13) i
p
k1
(f) = 1 p
k1
(s),
cime se dolazi do rekurzije
p
k
(s) = p
k1
(s)
_
P(s, s) + P(f, f) 1
_
+
_
1 P(f, f)
_
za apsolutnu vjerojatnost da se u k-tom pokusu pojavi uspjeh. Iteracijom ove rekurzije,
a uz uvjet
14

P(s, s) + P(f, f) 1

< 1,
dobiva se
p
k
(s) =
_
p
0
(s) +
1 P(f, f)
P(s, s) + P(f, f) 2
_
_
P(s, s) + P(f, f) 1
_
k

1 P(f, f)
P(s, s) + P(f, f) 2
.
(15.15)
Buducu da k-ti pokus moze rezultirati samo uspjehom ili neuspjehom, to je
p
k
(s) + p
k
(f) = 1,
pa se apsolutna vjerojatnost neuspjeha, moze dobiti kombiniranjem gornja dva izraza
p
k
(f) =
_
p
0
(f) +
1 P(s, s)
P(s, s) + P(f, f) 2
_
_
P(s, s) + P(f, f) 1
_
k

1 P(s, s)
P(s, s) + P(f, f) 2
ili jednostavnom zamjenom
s f
u (15.15).
- - - - - - - - - - -
14
Taj je uvjet potreban zbog konvergencije jednog geometrijskog reda koji se pojavljuje u izvodu:
N

j=0
r
j
=
r
N+1
1
r 1
.
15.2. MARKOVLJEVI LANCI 225
Postavimo sada jednadzbu za jednu novu uvjetnu vjerojatnost, koju cemo oznaciti s
P
k
(s, s),
a koja predstavlja uvjetnu vjerojatnost da (k + 1)-vi pokus bude uspjesan, ako je i k-ti
pokus bio uspjesan. To je uvjetna vjerojatnost upravo za k-ti pokus, dok vjerojatnosti
P(i, j) opisuju samo vjerojatnost prijelaza iznedu bilo koja dva susjedna pokusa.
P
k
(s, s) = P
k1
(s, s)P(s, s) + P
k1
(s, f)P(f, s)
= P
k1
(s, s)P(s, s) +
_
1 P
k1
(s, s)
_ _
1 P(f, f)
_
= P
k1
(s, s)
_
P(s, s) + P(f, f) 1
_
+
_
1 P(f, f)
_
.
Rjesavanjem gornje rekurzije (slicno kao i nekoliko puta ranije), dobiva se
P
k
(s, s) =
P(s, s) 1
P(s, s) + P(f, f) 2
_
P(s, s) + P(f, f) 1
_
k
+
P(f, f) 1
P(s, s) + P(f, f) 2
.
Slicnim se postupkom dobivaju i slijedeci izrazi
P
k
(s, f) =
P(s, s) 1
P(s, s) + P(f, f) 2
_
P(s, s) + P(f, f) 1
_
k
+
P(s, s) 1
P(s, s) + P(f, f) 2
,
P
k
(f, s) =
P(f, f) 1
P(s, s) + P(f, f) 2
_
P(s, s) + P(f, f) 1
_
k
+
P(f, f) 1
P(s, s) + P(f, f) 2
,
P
k
(f, f) =
P(f, f) 1
P(s, s) + P(f, f) 2
_
P(s, s) + P(f, f) 1
_
k
+
P(s, s) 1
P(s, s) + P(f, f) 2
.
Primjer: 15.5 Izvode se Markovljevi zavisni Bernoullijevi pokusi, u kojima su
P(s, s) =
1
3
, P(f, f) =
1
2
.
Izracunajte P
3
(s, f) i P
3
(f, f) .
R:
dovrsiti
- - - - - - - - - - -
Sada cemo malo promijeniti rjecnik: umjesto da govorimo o nizu od n pokusa, promatrat
cemo stanja jednog sustava, ali u n razlicitih vremenskih trenutaka. Tih mogucih stanja
nece biti samo dva (1 s i 2 f) kao do sada, nego cemo broj mogucih stanja sustava
poopciti
15
na R. Oznakom
A
t
(r), t = 0, 1, 2, , n, r = 1, 2, , R,
ce se oznacavati slijedeci dogadaj: u trenutku t sustav se nalazi u stanju r. Ovako postav-
ljen problem je Markovljev lanac sa R mogucih stanja. Denirajmo slijedece vjerojatnosti:
15
Kao poopcenje s Isingovog na Pottsov model.
226 POGLAVLJE 15. STOHASTI

CKI PROCESI
P(i, j) je uvjetna vjerojatnost da se Markovljev lanac u trenutku t nade u stanju j,
ako je u prethodnom trenutku, t 1, bio u stanju i. Ta je vjerojatnost
neovisna o vremenskom trenutku t (homogenost).
P
m
(i, j) je uvjetna vjerojatnost da se sustav u trenutku t + m nalazi u stanju j
uz uvjet da se u trenutku t nalazio u stanju i. I ova je vjerojatnost neovisna o t,
a ovisi samo o m, tj. o razlici pocetnog i konacnog vremena.
Primjetimo da je P(i, j) P
1
(i, j).
Gore denirane vjerojatnosti se nazivaju vjerojatnosti prijelaza ili prijelazne vjero-
jatnosti.
Postavimo sada jednadzbu za P
m
(i, j) tako sto cemo matematickim simbolima izraziti
slijedecu trivijalnu cinjenicu: da bi se sustav koji u trenutku t bio u stanju i, u trenutku
t +m nasao u stanju j, on mora u prethodnom trenutku t +m1 biti u bilo kojem od r
mogucih stanja
P
m
(i, j) = P
m1
(i, 1) P(1, j) + P
m1
(i, 2) P(2, j) + + P
m1
(i, R) P(R, j)
=
R

r=1
P
m1
(i, r) P(r, j). (15.16)
Razmisljajuci na isti nacin, moze se postaviti i jednadzba za apsolutnu vjerojatnost da
se sustav u trenutku n nalazi u stanju j, polazeci od apsolutne vjerojatnosti u trenutku
t = 0 i vjerojatnosti prijelaza iz t = 0 u t = n
p
n
(j) = p
0
(1) P
n
(1, j) + p
0
(2) P
n
(2, j) + + p
0
(R) P
n
(R, j)
=
R

r=1
p
0
(r) P
n
(r, j), (15.17)
ili preko apsolutne vjerojatnosti u trenutku t = n1 i vjerojatnosti prijelaza iz t = n1
u t = (n 1) + 1
p
n
(j) = p
n1
(1) P(1, j) + p
n1
(2) P(2, j) + + p
n1
(R) P(R, j)
=
R

r=1
p
n1
(r) P(r, j). (15.18)
Buduci da ovise o dva indeksa, vjerojatnosti prijelaza P(i, j) se mogu napisati u obliku
matrice
P =
_

_
P(1, 1) P(1, 2) P(1, R)
P(2, 1) P(2, 2) P(2, R)
.
.
.
P(R, 1) P(R, 2) P(R, R)
_

_
,
15.2. MARKOVLJEVI LANCI 227
i slicno za matricu koja opisuje vjerojatnost prijelaza s vremenskim razmakom t = m
P
m
=
_

_
P
m
(1, 1) P
m
(1, 2) P
m
(1, R)
P
m
(2, 1) P
m
(2, 2) P
m
(2, R)
.
.
.
P
m
(R, 1) P
m
(R, 2) P
m
(R, R)
_

_
,
U skladu s pravilom za mnozenje matrica, jednadzba (15.16) se moze napisati i kao ma-
tricna jednadzba
P
m
= P
m1
P, (15.19)
ili, po komponentama
_

_
P
m1
(1, 1) P
m1
(1, 2) P
m1
(1, R)
P
m1
(2, 1) P
m1
(2, 2) P
m1
(2, R)
.
.
.
P
m1
(R, 1) P
m1
(R, 2) P
m1
(R, R)
_

_
P(1, 1) P(1, 2) P(1, R)
P(2, 1) P(2, 2) P(2, R)
.
.
.
P(R, 1) P(R, 2) P(R, R)
_

_
=
_

R
r=1
P
m1
(1, r) P(r, 1)

R
r=1
P
m1
(1, r) P(r, 2)

R
r=1
P
m1
(1, r) P(r, R)

R
r=1
P
m1
(2, r) P(r, 1)

R
r=1
P
m1
(2, r) P(r, 2)

R
r=1
P
m1
(2, r) P(r, R)
.
.
.

R
r=1
P
m1
(R, r) P(r, 1)

R
r=1
P
m1
(R, r) P(r, 2)

R
r=1
P
m1
(R, r) P(r, R)
_

_
Primjetimo jos i da se jednadzba (15.19) moze rekurzivno dovesti do
P
m
= P
m1
P = P
m2
P
2
= P
1
P
m1
.
No, kako je prema deniciji P
1
(i, j) P(i, j), to je konacno
P
m
= P
m
. (15.20)
Matrica P opisuje vjerojatnost promjene stanja sustava uslijed vremenskog pomaka za
jednu jedinicu. Gornji izraz kaze da se vjerojatnost stanja u trenutku t + m dobiva kao
rezultat m uzastopnih vremenskih pomaka jedinicnog iznosa u odnosu na vjerojatnost
stanja u trenutku t (slika 15.2).
Koristeci upravo uvedenu matricnu notaciju, i jednadzba (15.18) se moze napisati pre-
glednije kao
p
n
= p
n1
P, (15.21)
gdje vektor p
n
predstavlja vjerojatnost svakog pojedinog od R stanja sustava u n-tom
vremenskom trenutku
p
n
=
_
p
n
(1), p
n
(2), , p
n
(R)
_
.
228 POGLAVLJE 15. STOHASTI

CKI PROCESI
Slika 15.2: Ilustracija jednadzbe (15.20).
Iteracijom (15.21), dobiva se stanje sustava u n-tom trenutku, izrazeno preko stanja u
pocetnom, 0-tom trenutku i matrice vjerojatnosti prijelaza
p
n
= p
0
P
n
. (15.22)
Primjer: 15.6 Za sustav s tri stanja, matricom
P =
_

_
0
1
3
2
3
2
3
0
1
3
1
3
2
3
0
_

_
,
je zadan jedan Markovljev lanac. Iz pocetnih vrijednosti
p
0
(1) =
1
2
, p
0
(2) =
1
4
, p
0
(3) =
1
4
,
izracunajte apsolutne vjerojatnost da se u trenutku t = 3 sustav nade
(a) u stanju 1, (b) u stanju 2, (c) u stanju 3.
R:
U skladu s (15.22), vjerojatnosti pojedinih stanja u trenutku t = 3 se racunaju
kao
p
3
= p
0
P
3
,
15.2. MARKOVLJEVI LANCI 229
gdje vektor pocetnog stanja
p
0
=
1
4
_
2, 1, 1
_
.
Uzastopnim mnozenjem matrice P se dobiva
P
3
=
1
9
_

_
3 2 4
4 3 2
2 4 3
_

_
,
pa je
p
3
=
1
4
_
2, 1, 1
_
1
9
_

_
3 2 4
4 3 2
2 4 3
_

_
=
1
36
_
12, 11, 13
_
.
Do istog se rezultata moze doci i drukcije:
p
1
= p
0
P =
1
4
_
2, 1, 1
_
1
3
_

_
0 1 2
2 0 1
1 2 0
_

_
=
1
12
_
3, 4, 5
_
p
2
= p
1
P =
1
12
_
3, 4, 5
_
1
3
_

_
0 1 2
2 0 1
1 2 0
_

_
=
1
36
_
13, 13, 10
_
p
3
= p
2
P =
1
36
_
13, 13, 10
_
1
3
_

_
0 1 2
2 0 1
1 2 0
_

_
=
1
108
_
36, 33, 39
_
.
Gornji vektor p
3
sadrzi odgovore i na (a) i na (b) i na (c)
p
3
(1) =
36
108
=
12
36
, p
3
(2) =
33
108
=
11
36
, p
3
(3) =
39
108
=
13
36
.
Ergodi

cnost
Markovljev se lanac naziva ergodicnim, ako postoji niz brojeva

1
,
2
, ,
R
sa svojstvom da za svaki par stanja i i j vrijedi
lim
m
P
m
(i, j) =
j
,
230 POGLAVLJE 15. STOHASTI

CKI PROCESI
ili, prema (15.20), u matricnom obliku
lim
m
P
m
= lim
m
P
m
= . (15.23)
Rijecima: u granici kada su pocetno i konacno stanje jako (beskonacno) udaljeni u vre-
menu, prijelazna vjerojatnost da se sustav nade u nekom konacnom stanju j, ovisi samo
o tom konacnom stanju, a ne i o pocetnom stanju i.
Pogledajmo sada sto se moze reci o apsolutnoj vjerojatnosti p
n
(j) ergodicnog sustava, u
granici n , tj. u vremenskom trenutku dugo nakon pocetka promatranja procesa.
Na temelju relacije (15.17), slijedi, u granici velikog n
lim
n
p
n
(j) = lim
n
R

r=1
p
0
(r)P
n
(r, j) =
R

r=1
p
0
(r) lim
n
P
n
(r, j) =
R

r=1
p
0
(r)
j
.
No, u svakom, pa tako i pocetnom trenutku se sustav mora nalaziti u jednom od R
mogucih stanja. Stoga je
R

r=1
p
0
(r) = 1,
sto konacno vodi na
lim
n
p
n
(j) p

(j) =
j
.
(15.24)
Dugo nakon pocetka promatranja vremenskog razvoja ergodicnog sustava, apsolutna vje-
rojatnost nalaska sustava u odredenom stanju ima konacnu vrijednost
1
,
2
, ,
R
. Ove
se vrijednosti nazivaju stacionarne vjerojatnosti Markovljevih lanaca, tj. Markovljev
lanac je postigao statisti

cku ravnote

zu.
Primjetimo jos i da relacija (15.21), u granici n , prelazi u
p
n
= p
n1
P
_
lim
n
,
p

= p

P,
sto je relacija kojom se takoder mogu racunati stacionarne vjerojatnosti
j
.
Primjer: 15.7 Je li Markovljev lanac iz primjera 15.6, ergodican?
R:
15.2. MARKOVLJEVI LANCI 231
Iz primjera 15.6, slijedi
P =
1
3
_

_
0 1 2
2 0 1
1 2 0
_

_
,
P
2
=
1
9
_

_
4 4 1
1 4 4
4 1 4
_

_
,
P
3
=
1
9
_

_
3 2 4
4 3 2
2 4 3
_

_
,
.
.
.
Iz gornjeg zapisa nekoliko prvih potencija P
n
se vidi da je P
n
oblika
P
n
=
_

_
a b 1 a b
1 a b a b
b 1 a b a
_

_
,
za svaki n, pa ce i u granici n biti isto takvog oblika. No, buduci da je
lim
n
P
n+1
= lim
n
P
n
,
to mora biti za veliki n
P
n+1
= P
n
P
_

_
a b 1 a b
1 a b a b
b 1 a b a
_

_
=
_

_
a b 1 a b
1 a b a b
b 1 a b a
_

1
3
_

_
0 1 2
2 0 1
1 2 0
_

_
.
Izjednacavanjem istih elemenata na lijevoj i desnoj strani gornje matricne
232 POGLAVLJE 15. STOHASTI

CKI PROCESI
jednadzbe, dobiva se
1
3
_
1 a + b
_
= a,
1
3
_
2 a 2b
_
= b,
1
3
_
2a + b
_
= 1 a b,
cija su rjesenja a = b = 1/3, tako da je
lim
n
P
n
=
1
3
_

_
1 1 1
1 1 1
1 1 1,
_

_
iz cega se ocitava

1
=
2
=
3
=
1
3
.
To znaci da Markovljev lanac iz primjera 15.6, jeste ergodican.
Primjer: 15.8 Pretpostavlja se da u nekom gradu svake godine 4 % stanovnika seli u
predgrade, dok istovremeno 1 % stanovnika predgrada seli u grad. Uz pretpos-
tavku da ukupan broj stanovnika grada i predgrada ostaje konstantan, odredite
kakva ce biti konacna (stacionarna) raspodjela stanovnika grada i predgrada.
R:
Ovo je primjer sustava s dva stanja koja se mogu nazvati grad s oznakom g i
predgrade s oznakom p. Moguci su slijedeci prijelazi:
P(g, g) = 0.96 vjerojatnost da osoba koja je bila u gradu i ostane u gradu;
P(g, p) = 0.04 vjerojatnost da osoba koja je bila u gradu, preseli u predgrade;
P(p, g) = 0.01 vjerojatnost da osoba koja je bila u predgradu, preseli u grad;
P(p, p) = 0.99 vjerojatnost da osoba koja je bila u predgradu i ostane u
predgradu.
Ove se vjerojatnosti mogu napisati u obliku matrice
P =
_
_
0.96 0.04
0.01 0.99
_
_
.
U skladu s denicijom ergodicnosti (15.23), stacionarno stanje gore opisanog
prijelaza postoji, ako postoji
lim
n
P
n
.
15.2. MARKOVLJEVI LANCI 233
Svaka potencija matrice P
n
, opisuje vjerojatnosti prijelaza izmedu grada i
predgrada nakon n godina i zato zbroj elemenata svakog reda mora biti jednak
jedinici
P
n
=
_
_
a 1 a
b 1 b
_
_
.
Kao i u prethodnom zadatku, za veliki n je
lim
n
P
n+1
= lim
n
P
n
,
pa je i
P
n+1
= P
n
P
_
_
a 1 a
b 1 b
_
_
=
_
_
a 1 a
b 1 b
_
_

_
_
0.96 0.04
0.01 0.99
_
_
=
_
_
0.96 0.04
0.01 0.99
_
_
Gornja matricna jednadzba vodi na jednadzbe za a i b
a 0.05 = 0.01, b 0.05 = 0.01,
s istim rjesenjem
a = b = 0.20,
ili matricno
lim
n
P
n
=
_
_
0.20 0.80
0.20 0.80
_
_
,
ili rijecima
lim
n
P
n
(g, g) = 0.20 vjerojatnost da nakon dugo godina osoba koja je
bila u gradu i ostane u gradu;
lim
n
P
n
(g, p) = 0.80 vjerojatnost da nakon dugo godina osoba osoba
koja je bila u gradu, preseli u predgrade;
lim
n
P
n
(p, g) = 0.20 vjerojatnost da nakon dugo godina osoba osoba
koja je bila u predgradu, preseli u grad;
lim
n
P
n
(p, p) = 0.80 vjerojatnost da nakon dugo godina osoba osoba
koja je bila u predgradu i ostane u predgradu.
Buduci da promatrani limes postoji, promatrani Markovljev lanac je er-
godican.
Uzmimo sada primjer s konkretnim brojevima - neka je u pocetku i u gradu
i u predgradu zivjelo po 500 000 stanovnika. Kao rezultat opisanih prijelaza
(slika 15.3) uspostavilo se stacionarno stanje s 200 000 stanovnika u gradu i
800 000 stanovnika u predgradu.
234 POGLAVLJE 15. STOHASTI

CKI PROCESI
Slika 15.3: Migracija grad - predgrade.
Primjer: 15.9 Matrica vjerojatnosti prijelaza P Markovljevog lanca s dva stanja (1, 2)
je
P =
_
_
3
4
1
4
1
4
3
4
_
_
.
(a) Ako se u pocetnom trenutku t
0
= 0 sustav nlazio u stanju 1, odredite vje-
rojatnosti stanja sustava u nekoliko slijedecih vremenskih trenutaka.
(b) Odredite matricu vjerojatnosti prijelaza nakon nekoliko slijedecih vremen-
skih trenutaka.
(c) Postoji li
lim
n
P
n
?
Kolike su stacionarne vjerojatnosti
j
?
R:
Pocetno stanje zapisujemo kao
p
0
(1) = 1, p
0
(2) = 0,
ili pomocu vektora
p
0
= (1, 0).
(a) U skladu s relacijom (15.21) , stanja sustava u slijedecim vremenskim
15.3. POISSONOV PROCES 235
trenucima, se dobivaju mnozenjem vektora stanja p
n
s matricom prijelaza
p
1
= p
0
P =
1
4
(1, 0)
_
_
3 1
1 3
_
_
=
1
4
(3, 1)
p
2
= p
1
P =
1
4
2
(3, 1)
_
_
3 1
1 3
_
_
=
1
8
(5, 3),
p
3
= p
2
P =
1
4
3
(5, 3)
_
_
3 1
1 3
_
_
=
1
16
(9, 7),
.
.
.
(b)
P =
1
4
_
_
3 1
1 3
_
_
=
1
2
2
_
_
2
1
+ 1 2
1
1
2
1
1 2
1
+ 1
_
_
,
P
2
=
1
8
_
_
5 3
3 5
_
_
=
1
2
3
_
_
2
2
+ 1 2
2
1
2
2
1 2
2
+ 1
_
_
,
P
3
=
1
16
_
_
9 7
7 9
_
_
=
1
2
4
_
_
2
3
+ 1 2
3
1
2
3
1 2
3
+ 1
_
_
,
.
.
.
Iz gornjih izraza nije tesko pokazati (npr. indukcijom) da je opcenito
P
n
=
1
2
n+1
_
_
2
n
+ 1 2
n
1
2
n
1 2
n
+ 1
_
_
.
(c) U granici n , tj. u vremenskim trenucima dugo nakon pocetka
procesa je, prema (15.23),

j
= lim
n
P
n
= lim
n
_
_
2
n
+1
2
n+1
2
n
1
2
n+1
2
n
1
2
n+1
2
n
+1
2
n+1
_
_
=
_
_
1
2
1
2
1
2
1
2
_
_
.
Iako se u pocetnom trenutku sustav naalzio u stanju 1, dugo nakon pocetka
procesa, vjerojatnosti zauzeca oba stanja su medusobno jednake

1
=
1
2
,
2
=
1
2
.
15.3 Poissonov proces
15.3.1 Poissonov proces
Definicija:
Promatra se jedan zicki proces tijekom kojega se dogadaj A moze realizirati vise puta.
236 POGLAVLJE 15. STOHASTI

CKI PROCESI

Cinjenica da se, unutar vremenskog intervala [t


1
, t
2
], uoceni dogadaj A realizirao N puta,
oznacava se kao
N(t
1
, t
2
).
Proces koji opisuje N(t
1
, t
2
) se naziva Poissonov proces
16
, ukoliko varijabla N(t
1
, t
2
)
ima slijedeca tri svojstva:
(1) Izostanak pamcenja: N(t
1
, t
2
) ne ovisi o (ne)ostvarivanju dogadaja A
u vremenima t < t
1
;
(2) Homogenost u vremenu: N(t
1
, t
2
) ovisi o t
1
i t
2
samo kroz njihovu razliku
N(t
1
, t
2
) = N(t
2
t
1
);
(3) Regularnost: unutar innitezimalnog vremenskog intervala d t,
vjerojatnost pojave samo jednog dogadaja je
jednaka d t +O
_
d t
2
_
, a vjerojatnost pojave
vise od jednog dogadaja je O
_
d t
2
_
.
Ovaj posljednji uvjet (regularnost) znaci da se u jednom trenutku ne mogu dogoditi dva
i vise dogadaja A, nego samo jedan ili nijedan. S oznakom O
_
d t
2
_
su oznaceni svi visi
clanovi srazmjerni s d t
2
, d t
3
, d t
4
, , koji svi imaju svojstvo da u granici d t 0, trnu
brze od d t, tj.
lim
d t 0
O
_
d t
2
_
d t
= 0.
Parametar opisuje gustocu realizacije dogadaja A i naziva se intenzitet Poissonovog
procesa.
Zbog drugog od navedenih svojstava, homogenosti u vremenu (ili translacijske invarijant-
nosti u vremenu), vrijedi da je
N(t
1
, t
2
) = N(t
1
+ , t
2
+ )
za svaki . Ukoliko se za odabere upravo = t
1
, tada je
N(t
1
+ , t
2
+ ) = N(0, t
2
t
1
)
Broj dogadaja u intervalu [0, t] se krace oznacava i kao N(t), tj.
N(0, t) N(t).
Primjetimo i da se broj dogadaja iz intervala [0, t] moze zamisliti i kao zbroj dogadaja iz
intervala [0, t

] i dogadaja iz intervala [t

, t], uz t

< t
N(0, t) = N(0, t

) + N(t

, t), t

< t.
16
Simeon-Denis Poisson (17811840), francuski matematicar
15.3. POISSONOV PROCES 237
Sada je razlika
N(t) N(t

) = N(0, t) N(0, t

) = N(0, t

) + N(t

, t) N(0, t

) = N(t

, t).
Trajektorije:
Skicirajmo trajektoriju jednog tipicnog Poissonovog procesa (slika 15.4): varijabla N(t)
Slika 15.4: Tipicna trajektorija Poissonovog procesa.
ima vrijednost nula, sve dok se dogadaj A ne dogodi prvi puta (u trenutku t
1
); tada N(t)
skokovito mijenja svoju vrijednost od 0 na 1 i tu vrijednost ima sve do trenutka t
2
kada
se po drugi puta realizira A; sada N(t) opet skokovito mijenja svoju vrijednost sa 1 na 2
itd. Primjetimo da vremenski intervali t
n
t
n1
ne moraju biti iste duljine, ali da je skok
uvijek za isti (jedinicni) iznos.
Oznacimo s p
n
(t) vjerojatnost da se od trenutka 0, pa do trenutka t, dogadaj A ostvario
tocno n puta
p
n
(t) = P(N(t) = n),
gdje je P(N(t) = n) vjerojatost da slucajna varijabla N(t) ima vrijednost n. Dokazimo
da je
p
n
(t) = e
t
(t)
n
n!
.
Prema trecem svojstvu (regularnost) je
p
1
(d t) = d t +O
_
d t
2
_
, (15.25)
sto znaci da je vjerojatnost dva ili vise dogadaja jednaka O
_
d t
2
_

j=2
p
j
(d t) = O
_
d t
2
_
. (15.26)
238 POGLAVLJE 15. STOHASTI

CKI PROCESI
Zbog normiranja vjerojatnosti, mora biti

j=0
p
j
(d t) = 1.
Iz gornja tri izraza se zakljucuje da je
p
0
(d t) = 1 d t +O
_
d t
2
_
. (15.27)
Pogledajmo sada vjerojatnost p
n>0
(t + d t) - to je vjerojatnost da se u vremenskom in-
tervalu [0, t + d t] dogadaj A ostvario n puta. To se moze dogoditi na tri medusobno
iskljuciva nacina:
(a
0
) svih n dogadaja se dogodilo u intervalu [0, t];
(a
1
) n 1 dogadaj se dogodio u intervalu [0, t],
a jedan dogadaj se dogodio u intervalu [t, t + d t];
(a
k
) n k dogadaja (za k 2) se dogodilo u intervalu [0, t],
a k dogadaja se dogodilo u intervalu [t, t + d t].
Gornje tri tocke se mogu izraziti na slijedec nacin
p
n
(t + d t) = P(a
0
) + P(a
1
) +

k=2
P(a
k
).
Pogledajmo odvojeno pribrojnike desne strane gornjeg izraza:
P(a
0
) je vjerojatnost da se A ostvari n puta u intervalu [0, t] i nijednom u intervalu
[t, t + d t]
P(a
0
) = P(N(t) = n) P(N(t + d t) N(t) = 0) = P(N(t) = n) P(N(d t) = 0)
= p
n
(t) p
0
(d t) = p
n
(t)
_
1 d t
_
+O
_
d t
2
_
.
Slicno je i P(a
1
) vjerojatnost da se A ostvari n 1 puta u intervalu [0, t] i jednom u
intervalu [t, t + d t]
P(a
1
) = P(N(t) = n 1) P(N(t + d t) N(t) = 1) = P(N(t) = n 1) P(N(d t) = 1)
= p
n1
(t) p
1
(d t) = p
n1
(t) d t +O
_
d t
2
_
,
kao i
P(a
k
) = P(N(t) = n k) P(N(t + d t) N(t) = k) = P(N(t) = n k) P(N(d t) = k)
= p
nk
(t) p
k
(d t) = p
nk
(t) O
_
d t
2
_
= O
_
d t
2
_
.
15.3. POISSONOV PROCES 239
Kombiniranjem gornjih izraza, dobiva se
p
n
(t + d t) = p
n
(t)
_
1 d t
_
+ p
n1
(t) d t +O
_
d t
2
_
, n 1
= p
n
(t)
_
p
n
(t) p
n1
(t)
_
d t +O
_
d t
2
_
p
n
(t + d t) p
n
(t)
d t
=
_
p
n
(t) p
n1
(t)
_
+
O
_
d t
2
_
d t
.
U granici kada d t iscezava, lijeva strana gornje jednadzbe je jednaka derivaciji, a drugi
clan desne strane je nula
p

n
(t) =
_
p
n
(t) p
n1
(t)
_
, n 1. (15.28)
Ako je n = 0, tada je p
0
(t + d t) vjerojatnost da se u intervalu [0, t + d t] dogadaj A nije
nijednom dogodio: dakle, nije se dogodio niti u intervalu [0, t] niti u intervalu [t, t + d t]
p
0
(t + d t) = p
0
(t) p
0
(d t) = p
0
(t)
_
1 d t
_
+O
_
d t
2
_
p
0
(t + d t) p
0
(t)
d t
= p
0
(t) +
O
_
d t
2
_
d t
.
U granici kada d t iscezava,
p

0
(t) = p
0
(t). (15.29)
Rjesenja jednadzba (15.28) i (15.29) su jednoznacna tek uz zadavanje pocetnih uvjeta: u
trenutku t = 0 je sigurno da se dogadaj A ostvario nula puta, ili jezikom matematickih
simbola
p
0
(0) = 1, p
n
(0) = 0, n 1. (15.30)
jedan od nacina rjesavanja navedenih diferencijalnih jednadzba je i primjena Laplaceove
preobrazbe
17
, jer je Laplaceova preobrazba derivacije funkcije srazmjerna samoj nederivi-
ranoj funkciji. Npr. ako se s
P
n
(s) = L
_
p
n
(t)
_
oznaci Laplaceova preobrazba funkcije p
n
(t), tada je opcenito, preobrazba prve derivacije
te iste funkcije jednaka
L
_
p

n
(t)
_
= sP
n
(s) p
n
(0)
Primjenimo gornji rezultat na rjesavanje (15.28) uz pocetni uvjet (15.30)
sP
n
(s) =
_
P
n
(s) P
n1
(s)
_
, n 1
P
n
(s) =

+ s
P
n1
(s) =
_

+ s
_
2
P
n2
(s) =
P
n
(s) =
_

+ s
_
n
P
0
(s).
17
Vidjeti npr. poglavlje o integralnim preobrazbama u [7].
240 POGLAVLJE 15. STOHASTI

CKI PROCESI
No, P
0
(s) se odreduje Laplaceovom preobrazbom jednadzbe (15.29). Zajedno s pocetnim
uvjetom (15.30), dobiva se
sP
0
(s) 1 = P
0
(s)
P
0
(s) =
1
+ s
,
pa je i
P
n
(s) =

n
( + s)
n+1
.
Inverzna Laplaceova preobrazba gornjeg izraza daje
p
n
(t) =
n
t
n
n!
e
t
.
sto je i trebalo dokazati.
Sada smo u mogucnosti dati jednu malo formalniju deniciju Poissonovog procesa (pri-
mjetimo i promjenu oznake N(t) N
t
):
Poissonov proces [N
t
, t 0] je zadan slijedecim uvjetima:
(1) N
0
= 0
(2) N ima nezavisne priraste;
(3) slucajna varijabla N
t
N
t
za 0 t

< t je opisana Poissonovom raspodjelom s


parametrom (t t

), tj.
P(N
t
N
t
= n) =
_
(t t

)
_
n
n!
e
(tt

)
.
Iz posljednjeg od gornjih uvjeta slijedi da slucajna varijabla N
t
N
t
i slucajna varijabla
N
tt
imaju istu (gornju) raspodjelu.
Pokazimo da za Poissonov proces, uz t

< t, vrijedi
P(N
t
= j/N
t
= i) =
_
(t t

)
_
(ji)
(j i) !
e
(tt

)
. (15.31)
Zbog drugog od gornjih svojstava je
P(N
t
= j/N
t
= i) = P(N
t
N
t
= j i/N
t
N
t
= i i) = P(N
t
N
t
= j i)
=
_
(t t

)
_
(ji)
(j i) !
e
(tt

)
,
15.3. POISSONOV PROCES 241
cime je tvrdnja dokazana.
Poopcimo gornje razmatranje tako sto cemo uvesti raspodjelu vise varijabli (konacnodimenzijska
raspodjela): neka su
t
1
< t
2
< < t
k
,
n
1
n
2
n
k
.
Tada je
P(N
t
1
= n
1
, N
t
2
= n
2
, , N
t
k
= n
k
) = P(N
t
1
= n
1
, N
t
2
N
t
1
= n
2
n
1
, , N
t
k
N
t
k1
= n
k
n
k1
)
= zbog nezavisnosti varijabli
= P(N
t
1
= n
1
) P(N
t
2
N
t
1
= n
2
n
1
) . . . P(N
t
k
N
t
k1
= n
k
n
k1
)
=
_
t
1
_
n
1
n
1
!
e
t
1
_
(t
2
t
1
)
_
(n
2
n
1
)
(n
2
n
1
) !
e
(t
2
t
1
)

_
(t
k
t
k1
)
_
(n
k
n
k1
)
(n
k
n
k1
) !
e
(t
k
t
k1
)
=
n
k
t
n
1
1
(t
2
t
1
)
(n
2
n
1
)
(t
k
t
k1
)
(n
k
n
k1
)
n
1
! (n
2
n
1
) ! (n
k
n
k1
) !
e
t
k
. (15.32)
Primjer: 15.10 Broj poziva u telefonskoj centrali se modelira Poissonovim procesom.
Ako je ocekivani broj poziva u jednoj minuti jednak 1.2, kolika je vjerojatnost
dogadaja (N
2
= 2, N
4
= 3)?
R:
Prema relaciji (8.17)
N
t
= t,
i uvjetu zadatka je
1.2 = N
t
= 1 min = 1.2 min
1
.
Za poznati , trazenu vjerojatnost racunamo kao pomocu (15.32) ogranicenu
na dvije varijable
P(N
t
1
= n
1
, N
t
2
= n
2
) =
n
2
t
n
1
1
(t
2
t
1
)
(n
2
n
1
)
n
1
! (n
2
n
1
) !
e
t
2
,
s t
1
= 2, t
2
= 4 i n
1
= 2, n
2
= 3, sto vodi na
P(N
2
= 2, N
4
= 3) =
3
2
2
(4 2)
(32)
2 ! (3 2) !
e
4
= 4
3
e
4
= 0.056884.
242 POGLAVLJE 15. STOHASTI

CKI PROCESI
Konstrukcija Poissonovog procesa:
Ukazimo na vezu izmedu Poissonovog procesa i eksponencijalne raspodjele. Naime, po-
kazat ce se da je vremenski interval izmedu dva skoka kod Poissonove raspodjele (slika
15.5) opisan eksponencijalnom raspodjelom.
Neka je A dogadaj cija je vjerojatnost ostvarenja tijekom vremena opisana eksponenci-
Slika 15.5: Vremenski interval izmedu dva skoka kod Poissonovog procesa.
jalnom raspodjelom s parametrom . Denirajmo slucajnu varijablu koja mjeri vrijeme
do pojave dogadaja A. Njezina je funkcija raspodjele
P( t) = 1 e
t
,
s ocekivanjem
=
1

.
Tvrdnja koju treba dokazati je da je proces koji mjeri broj ostvarenja ovako zadanih
dogadaja A, upravo Poissonov proces. U skladu s gornjim izlaganjem, za N(t) mora
vrijediti
_
N(t) = k
_
=
_

1
+
k
< t,
1
+
k
+
k+1
t
_
_
N(t) k
_
=
_

1
+
k
+
k+1
t
_
.
Dokazimo slijedecu tvrdnju: ako je niz slucajnih nezavisnih varijabli
n
, koje opisuju
vrijeme izmedu ostvarivanja dogadaja A, opisan eksponencijalnom raspodjelom s para-
metrom , tada je varijabla N(t) koja broji ostvarenja dogadaja A do vremena t, dana
Poissonovom raspodjelom s istim parametrom .
Neka je
t
k
=
1
+
2
+ +
k
15.3. POISSONOV PROCES 243
vrijeme koje protekne do k-te pojave dogadaja A. Buduci da je ta varijabla zbroj vari-
jabli koje se ravnaju po eksponencijalnoj raspodjeli, on je sama raspodjeljena po gama
raspodjeli (odjeljak 8.5) s parametrima i k. Gustoca vjerojatnosti gama raspodjele je,
prema (8.25), jednaka
(x) =
1
(k)

k
x
k1
e
x
x > 0.
Ako se do trenutka t dogadaj A dogodio manje od k puta, to znaci da je i t t
k
(u skladu
s gornjom denicijom t
k
). Ova se tvrdnja moze zapisati i kao
P(N(t) < k) = P(t t
k
).
Koristeci gornju jednakost, slijedi
P(t > t
k
) = 1 P(t t
k
) = 1 P(N(t) < k).
Iz gornje se jednakosti dalje racuna
P(N(t) < k) = 1 P(t > t
k
)
= 1

k
(k)

t
0
x
k1
e
x
d x
= e
t
k1

j=0
(t)
j
j !
.
To je vjerojatnost da se do trenutka t dogadaj A ostvari manje od k puta. Sukladno tome,
vjerojatnost da se on ostvari tocno k puta je
p
k
(t) = P(N(t) = k) = P(N(t) < (k + 1)) P(N(t) < k)
= e
t
k

j=0
(t)
j
j !
e
t
k1

j=0
(t)
j
j !
= e
t
(t)
k
k !
, k = 0, 1, 2, , (15.33)
a to je upravo Poissonova raspodjela, kao sto je i trebalo dokazati.
Svojstva:
(1) Zbroj dvaju nezavisnih Poissonovih procesa N
1
i N
2
s parametrima
1
i
2
je opet
Poissonov proces s parametrom
1
+
2
. Dokazimo ovu tvrdnju (radi jednostavnosti) samo
za jednodimenzijsku Poissonovu raspodjelu. Neka je N = N
1
+ N
2
. Vjerojatnost da se u
oba procesa zajedno, A dogodi n puta je moguca tako da se u jednom procesu A dogodi
244 POGLAVLJE 15. STOHASTI

CKI PROCESI
r puta, a u onom drugom n r puta, pa je zato
P(N(t) = n) =
n

r=0
P(N
1
(t) = r, N
2
(t) = n r)
=
n

r=0
P(N
1
(t) = r) P(N
2
(t) = n r)
=
n

r=0
e

1
t
(
1
t)
r
r !
e

2
t
(
2
t)
nr
(n r) !
= e
(
1
+
2
) t
t
n
n!
n

r=0
n!
r ! (n r) !

r
1

nr
2
= e
(
1
+
2
) t
t
n
n!
(
1
+
2
)
n
,
a to je opet Poissonov proces s parametrom
1
+
2
.
(2) Veza s binomnom raspodjelom: poznata je vrijednost Poissonovog procesa u trenutku
t, a pitanje je kolika je bila njegova vrijednost u jednom ranijem trenutku t

< t? Potrebno
je dakle izracunati uvjetnu vjerojatnost
P(N(t

) = k/N(t) = n).
Prema (2.7), gornja je uvjetna vjerojatnost jednaka
P(N(t

) = k/N(t) = n) =
P(N(t

) = k, N(t) = n)
P(N(t) = n)
Razlomak na desnoj strani se moze dalje raspisivati kao
P(N(t

) = k, N(t) = n)
P(N(t) = n)
=
P(N(t

) = k, N(t t

) = n k)
P(N(t) = n)
=
P(N(t

) = k) P(N(t t

) = n k)
P(N(t) = n)
= e
t
(t

)
k
k !
e
(tt

)
[(t t

)]
nk
(n k) !
_
e
t
(t)
n
n!
_
1
= e
t

(tt

)+t
n!
k ! (n k) !

k+nkn
t
k
(t t

)
nk
t
n
=
_
n
k
_ _
t

t
_
k
_
1
t

t
_
nk
.
Nazove li se
p
t

t
< 1,
tada je gornja uvjetna vjerojatnost dana binomnom raspodjelom
P(N(t

) = k/N(t) = n) =
_
n
k
_
p
k
(1 p)
nk
.
15.3. POISSONOV PROCES 245
(3) Jedan praktican problem: telefonska centrala ima dva ulazna broja. Do trenutka t, na
oba je broja primljeno ukupno n poziva. Kolika je vjerojatnost da je na prvi broj upuceno
k poziva?
Pozive na oba broja shvacamo kao nezavisne Poissonove procese N
1
i N
2
s parametrima

1
i
2
, a potrebno je izracunati uvjetnu vjerojatnost
P(N
1
(t) = k/N
1
(t) + N
2
(t) = n).
Ponovo, kao i u tocki (2), krecemo od (2.7) i pisemo
P(N
1
(t) = k/N
1
(t) + N
2
(t) = n) =
P(N
1
(t) = k, N
1
(t) + N
2
(t) = n)
P(N
1
(t) + N
2
(t) = n)
=
P(N
1
(t) = k, N
2
(t) = n k)
P(N
1
(t) + N
2
(t) = n)
.
Zbog nezavisnosti oba procesa, brojnik se moze napisati kao umnozak
P(N
1
(t) = k, N
2
(t) = n k) = P(N
1
(t) = k) P(N
2
(t) = n k),
a prema tocki (1) je zbroj dva Poissonova procesa u nazivniku opet Poissonov proces s
parametrom
1
+
2
.
P(N
1
(t) = k/N
1
(t) + N
2
(t) = n) = e

1
t
(
1
t)
k
k !
e

2
t
(
2
t)
nk
(n k) !
_
e
(
1
+
2
) t
(
1
+
2
)
n
t
n
n!
_
1
=
n!
k ! (n k) !

k
1

nk
2
(
1
+
2
)
n
=
_
n
k
_ _

1

1
+
2
_
k
_

2

1
+
2
_
nk
.
Nazove li se
p

1

1
+
2
< 1,
tada je trazena uvjetna vjerojatnost opet dana binomnom raspodjelom
P(N
1
(t) = k/N
1
(t) + N
2
(t) = n) =
_
n
k
_
p
k
(1 p)
nk
.
(4) Veza s geometrijskom raspodjelom: nastavimo s gornjim primjerom telefonske centrale
s dva ulazna broja i zapitajmo se koliko je poziva stiglo na prvi broj u vremenskom
intervalu izmedu dva poziva na drugi broj?
Gornji problem, formuliran u terminima Poissonovih procesa, glasi ovako: promatraju se
dva nezavisna dogadaja A
1
i A
2
opisana Poissonovim procesima s parametrima
1
i
2
.
Neka se A
1
dogodio N puta u vremenskom intervalu izmedu dva uzastopna ostvarenja
dogadaja A
2
. Zadatak je odrediti kolika je vjerojatna vrijednost N.
Vrijeme izmedu dva uzastopna istvarenja A
2
je opisano eksponencijalnom raspodjelom
s gustocom vjerojatnosti
() =
2
e

2

.
246 POGLAVLJE 15. STOHASTI

CKI PROCESI
Buduci da je realizacija dogadaja A
1
Poissonov proces, to je vjerojatnost da se on realizira
N = k puta u vremenskom intervalu [0, ] dana sa
N(k) = e

1

(
1
)
k
k !
.
Trazena vjerojatnost da varijabla N ima vrijednost k je upravo srednja vrijednost (ocekivanje)
od N(k), gdje se usrednjavanje izvodi s gustocom vjerojatnosti za sirinu vremenskog in-
tervala (), kada sam vremenski interval moze imati bilo koju pozitivnu vrijednost
N =


0
N(k) () d
=


0
e

1

(
1
)
k
k !

2
e

2

d
=

k
1

2
k !

k
e
(
1
+
2
)
d .
Jednostavnim uvodenjem nove varijable, gornji se integral svodi na gama funkciju, (8.21),
tako da je rjesenje
N =

k
1

2
(
1
+
2
)
k+1
, k = 0, 1, 2,
dano u obliku geometrijske raspodjele.
15.3.2 Kolmogorovljeve jednadzbe
U ovom se odjeljku studiraju Markovljevi procesi ciji su rezultati opisani diskretnim vri-
jednostima iz skupa S. Tocnije, u vremenskim trenucima t
0
< t
1
< < t
n
, promatra
se slucajni proces X sa vrijednostima iz diskretnog skupa S, koji zadovoljava uvjet Mar-
kovljevog procesa (da rezultat n + 1-og pokusa ovisi samo o rezultatu prethodnog, n-tog
pokusa)
P(X
t
n+1
= x
n+1
/X
t
n
= x
n
, X
t
n1
= x
n1
, , X
t
0
= x
0
) = P(X
t
n+1
= x
n+1
/X
t
n
= x
n
).
Dokazimo slijedecu tvrdnju: ako proces X ima nezavisne priraste, tda j eon Markovljev
proces
P(X
t
n+1
= x
n+1
/ X
t
n
= x
n
, X
t
n1
= x
n1
, , X
t
0
= x
0
)
= P(X
t
n+1
X
t
n
= x
n+1
x
n
/X
t
n
X
t
n1
= x
n
x
n1
, , X
t
1
X
t
0
= x
1
x
0
, X
t
0
= x
0
)
= P(X
t
n+1
X
t
n
= x
n+1
x
n
)
= P(X
t
n+1
X
t
n
= x
n+1
x
n
/ X
t
n
= x
n
)
= P(X
t
n+1
= x
n+1
/ X
t
n
= x
n
).
15.3. POISSONOV PROCES 247
Ranije, kod Markovljevih lanaca, je uveden pojam vjerojatnosti prijelaza. Sada ce se
vjerojatnost prijelaza denirati za Markovljeve procese. Ako u trenutku t
p
, proces ima
vrijednost x
p
, potrebno je odrediti vjerojatnost da ce taj isti proces u kasnijem trenutku
t
k
> t
p
imati vrijednost x
k
. Primjetimo da ova vjerojatnost prijelaza ovisi o cetiri
18
varijable (slika 15.6)
P(X
t
k
= x
k
/ X
t
p
= x
p
) p(t
p
, x
p
, t
k
, x
k
) p
[t
p
,t
k
]
pk
.
Matrica
Slika 15.6: Vjerojatnost prijelaza iz stanja x
p
u trenutku t
p
u stanje x
k
u kasnijem trenutku t
k
.
P
[t
p
,t
k
]

_
p
[t
p
,t
k
]
pk
_
se naziva matrica prijelaznih vjerojatnosti ili matrica prijelaza.

Cinjenica da su danom trenutku t promatrani proces moze nalaziti samo u jednom stanju,
izrazava se u terminima matricnih elemenata matrice prijelaza kao
p
[t,t]
i,j
=
i,j
. (15.34)
Takoder, cinjenica da se u svakom vremenskom trenutku proces mora nalaziti u jednom
(bilo kojem) od svih svojih mogucih stanja se iskazuje kao

j=1
p
[t,t]
i,j
= 1, i = 1, 2, .
Ova se osobina procesa naziva konzervativnost.
Chapman - Kolmogorovljeva jednad

zba:
18
Sjetimo se da vjerojatnost prijelaza Markovljevog lanaca ovisila samo o (pocetnom i konacnom ) stanju, a ne i o vremenu
kada se proces dogada.
248 POGLAVLJE 15. STOHASTI

CKI PROCESI
Izvedimo sada sredisnju jednadzbu koja opisuje Markovljeve procese. Uocimo tri vremen-
ska trenutka
t
p
t t
k
i njima pridruzena tri dogadaja
A = {X
t
k
= x
k
}
B
k
= {X
t
= x
k
}, k
C = {X
t
p
= x
p
}
vrlo nejasan izvod
Time je pokazana Chapman - Kolmogorovljeva jednad

zba
P
[t
p
,t
k
]
= P
[t
p
,t]
P
[t,t
k
]
t
p
t t
k
. (15.35)
Primjer: 15.11 Za ilustraciju gornjeg izlaganja, napisimo matricu prijelaza za Poisso-
nov proces.
R:
Kao rezultat Poissonovog procesa se moze pojaviti bilo koji broj iz skupa
S = {0, 1, 2, } (dakle, samo diskretne vrijednosti). Prema (15.31) je
P(N
t
= j/N
t
= i) =
_
(t t

)
_
(ji)
(j i) !
e
(tt

)
.
Elementi matrica p
[t

,t]
i,j
se racunaju tako da se za vrijednosti i i j uzimaju
redom vrijednosti iz skupa S. Npr. prvi red matrice sadrzi elemente
p
[t

,t]
00
= e
(tt

)
,
p
[t

,t]
01
= (t t

) e
(tt

)
,
p
[t

,t]
02
=
1
2
_
(t t

)
_
2
e
(tt

)
,
.
.
.
i slicno za ostale elemente prvog reda. Racunajuci elemente drugog reda, treba
15.3. POISSONOV PROCES 249
se prisjetiti da je (1)! = (2)! = (3)! = = , tako da je
p
[t

,t]
10
= 0,
p
[t

,t]
11
= e
(tt

)
,
p
[t

,t]
12
= (t t

) e
(tt

)
,
.
.
.
U konacnici se dobiva gornja trokutasta matrica s istim elementima na glavnoj
i sporednim dijagonalama
P
[t

,t]
= e
(tt

)
_

_
1 (t t

)
1
2
_
(t t

)
_
2

0 1 (t t

)
0 0 1
.
.
.
.
.
.
.
.
.
.
.
.
_

_
.
Iz primjera 15.11 se vidi da matrica prijelaza ovisi samo o razlici konacnog i pocetnog
vremena. Opcenito se procesi s tim svojstvom nazivaju homogeni procesi i oznacavaju
se kao
P
[t

,t]
P(t t

).
Slicno se oznacavaju i matricni elementi
p
[0,t]
i,j
= p
i,j
(t).
Koristeci gornje oznake, a u skladu s Chapman - Kolmogorovljevom jednadzbom (15.35)
P
[0,t+t

]
= P
[0,t]
P
[t,t+t

]
P(t + t

) = P(t) P(t

). (15.36)
Gornje se svojstvo naziva svojstvo polugrupe, tj. skup matrica prijelaza P zajedno s
binarnom relacijom mnozenja matrica cini algebarsku strukturu koja se zove polugrupa.
Primjetimo da iz svojstva (15.34), u slucaju homogenih procesa, slijedi
p
[t,t]
i,j
= p
i,j
(t t) = p
i,j
(0) =
i,j
, (15.37)
ili, u matricnom zapisu
P(0) = 1. (15.38)
Kolmogorovljeve jednad

zbe:
U ovom dijelu se pokazuje kako se cijela polugrupa matrica prijelaza P(t) moze konstru-
irati iz jedne matrice.
250 POGLAVLJE 15. STOHASTI

CKI PROCESI
Zapocinje se s Chapman - Kolmogorovljevom jednadzbom homogenog Markovljevog pro-
cesa X, zapisanom u obliku (15.36)
P(t + t

) = P(t) P(t

),
ili, raspisano po matricnim elementima
p
i,j
(t + t

) =

k
p
ik
(t) p
kj
(t

). (15.39)
Uvedimo sada matricu A ciji su matricni elementi jednaki
a
i,j
p

i,j
(0).
Uz pretpostavku
19
da se u relaciji (15.39) redoslijed operacija deriviranja i zbrajanja moze
zamjeniti, iz iste se relacije dobiva

p
i,j
(t + t

) =

k
p
ik
(t)
d
d t

p
kj
(t

).
U trenutku t

= 0, gornja se relacija svodi na


p

i,j
(t) =

k
p
ik
(t) p

kj
(0) =

k
p
ik
(t) a
kj
, (15.40)
ili, matricno
P

(t) = P(t) A. (15.41)


Ova se jednadzba naziva Kolmogorovljeva jednad

zba unaprijed.
Na slican nacin, derivacijom po t, dobiva se i

t
p
i,j
(t + t

t=0
=

k
d
d t
p
ik
(t)

t=0
p
kj
(t

)
p

i,j
(t

) =

k
p

ik
(0) p
kj
(t

) =

k
a
ik
p
kj
(t

).
No, t

je bilo koji trenutak, pa ga radi jednostavnosti mozemo preimenovati u t, tako da


gornja relacija u matricnom obliku glasi
P

(t) = A P(t). (15.42)


Ova se jednadzba naziva Kolmogorovljeva jednad

zba unazad.
Matrica gusto

ce prijelaza A
Matrica A koja se pojavljuje u gornjim jednadzbama, se naziva matrica gustoce prije-
laza
20
. Pogledajmo neka njezina svojstva. Prisjetimo se da je, prema (15.37)
p
i,j
(0) =
i,j
,
19
Koja je najcesce zadovoljena u slucajevima od zickog interesa.
20
ili innitezimalni generator polugrupe P
15.3. POISSONOV PROCES 251
ili, u matricnom zapisu, prema (15.38)
P(0) = 1.
(1) Prema deniciji a
i,j
je, za i = j,
a
i,j
p

i,j
(0) = lim
d t 0
p
i,j
(d t) p
i,j
(0)
d t
= lim
d t 0
p
i,j
(d t)
d t
,
pa je
p
i,j
(d t) = a
i,j
d t +O
_
d t
_
, i = j.
Buduci da su vjerojatnosti p
i,j
uvijek pozitivne ili jednake nuli, to se iz gornje relacije
zakljucuje i da je a
i,j
0 za i = j.
(2) Kada je i = j, racun kao gore vodi na
a
ii
p

ii
(0) = lim
d t 0
p
i1
(d t) p
ii
(0)
d t
= lim
d t 0
p
ii
(d t) 1
d t
,
pa je
p
ii
(d t) = 1 + a
ii
d t +O
_
d t
_
.
Buduci da vjerojatnosti p
ii
ne mogu biti vece od 1, to se iz gornje relacije zakljucuje da
je a
ii
< 0.
Takoder, iz cinjenice da se u svakom trenutku, proces mora nalaziti u jednom od konacnih
stanja j, slijedi da je

j
p
i,j
(t) = 1
_
d
d t

t=0

j
p

i,j
(0) = 0

j
a
i,j
= 0. (15.43)
Primjer: 15.12 Zadatak je izracunati matricu gustoce prijelaza za Poissonov proces.
R:
Prema (15.33), za Poissonov proces je
p
i,j
(t) =
(t)
ji
(j i) !
e
t
q
i,j
= p

i,j
(0) = e
t
_

ji
t
ji1
(j i 1) !

(t)
ji
(j i) !
_

t=0
.
252 POGLAVLJE 15. STOHASTI

CKI PROCESI
Desna strana gornjeg izraza je razlicita od nule samo u dva slucaja:
j = i a
i,i
=
t
1
(1) !

t=0
= ,
j = i + 1 a
i,i+1
=

1

t
1 !

t=0
= ,
j = i & j = i + 1 a
i,j
= 0.
A =
_

_
0
0
0 0
.
.
.
.
.
.
.
.
.
.
.
.
_

_
.
Na temelju ponasanja zickog sustava unutar vrlo kratkog vremenskog intervala, mogu
se odrediti matricni elementi a
i,j
. Zatim se iz poznavanja matrice gustoce prijelaza A,
koristeci Kolmogorovljeve jednadzbe, moze odrediti matrice matrica prijelaznih vjerojat-
nosti P(t) u proizvoljnom trenutku, tj moguce je predvidjeti vjerojatnosti prijelaza sustava
u proizvoljnom t.
Prisjetimo se relacija (15.25) - (15.27) za Poissonov proces
p
0
(d t) = 1 d t +O
_
d t
2
_
,
p
1
(d t) = d t +O
_
d t
2
_
,
p
j
(d t) = O
_
d t
2
_
, j 2.
15.3. POISSONOV PROCES 253
Gornje se vjerojatnosti mogu povezati s prijelaznim vjerojatnostima, na slijedeci nacin
p
i,i
(d t) = P
_
N(t + d t) = i / N(t) = i
_
= P
_
N(d t) = 0
_
= p
0
(d t)
= 1 d t +O
_
d t
2
_
p
i,j
(d t) = P
_
N(t + d t) = j / N(t) = i
_
i = j
= P
_
N(d t) = 1
_
= p
1
(d t)
= d t +O
_
d t
2
_
Zamislimo atom kao jedan mali magnet koji moze biti usmjeren u samo dva
21
smjera:
jedan zovemo gore, s oznakom , a drugi zovemo dolje, s oznakom . Vrijeme koje
sustav provede u stanju je opisano eksponencijalnom raspodjelom s parametrom

,
a vrijeme provedeno u stanju je takoder opisano eksponencijalnom raspodjelom, ali s
jednim drugim parametrom

.
Izracunajmo sve cetiri prijelazne vjerojatnosti
p
,
(d t) = P
_
X(d t) = /X(0) =
_
= p
0
(d t) = 1

d t +O
_
d t
2
_
p
,
(d t) = P
_
X(d t) = /X(0) =
_
= p
1
(d t) =

d t +O
_
d t
2
_
p
,
(d t) = P
_
X(d t) = /X(0) =
_
= p
1
(d t) =

d t +O
_
d t
2
_
p
,
(d t) = P
_
X(d t) = /X(0) =
_
= p
0
(d t) = 1

d t +O
_
d t
2
_
Iz gornjih prijelaznih vjerojatnosti se elementi matrice gustoce racunaju kao
a
i,j
= lim
d t 0
p
i,j
(d t) p
i,j
(0)
d t
,
iz cega slijedi
a
,
=

a
,
=

a
,
=

a
,
=

,
21
Ovakav se model obicno naziva Isingov model.
254 POGLAVLJE 15. STOHASTI

CKI PROCESI
tj. matrica A je
A =
_
_

_
_
.
Primjetiomo da je relacija (15.43) zadovoljena
a
,
+ a
,
= 0,
a
,
+ a
,
= 0.
Pokazimo sada i slijedeci korak - kako se iz poznavanja A (koja se odreduje iz ponasanja
sustava u innitezimalnom vremenu), moze izracunati matrica prijelaza P(t), koja opisuje
vjerojatnost prijelaza u proizvoljnom trenutku.
Za i =, , Kolmogorovljeve jednadzbe (15.40), glase
p

i,
(t) = p
i
(t) a

+ p
i
(t) a

= p
i
(t)

+ p
i
(t)

,
p

,
(t) = p

(t)

+ p

(t)

, p

,
(t) = p

(t)

+ p

(t)

(15.44)
p

i,
(t) = p
i
(t) a

+ p
i
(t) a

= p
i
(t)

p
i
(t)

,
(t) = p

(t)

(t)

, p

,
(t) = p

(t)

(t)

(15.45)
Ako je u stanju , atom moze ili ostati u tom stanju ili prijeci u , pa je zato
p
,
+ p
,
= 1.
Slicno, ako je atom u stanju , on moze u tom stanju i dalje ostati ili moze prijeci u
stanje. Zato je
p
,
+ p
,
= 1.
Gornje dvije jednadzbe se mogu iskoristiti tako da se u Kolmogorovljevim jednadzbama
15.3. POISSONOV PROCES 255
(15.44) i (15.45), pojavlju samo vjerojatnosti s istim indeksima
p

,
(t) = p

(t)

+ p

(t)

= p

(t)

+
_
1 p

(t)
_

,
(t) + (

) p

(t) =

,
(t) = p

(t)

+ p

(t)

= p

(t)

+
_
1 p
,
_

,
(t) + (

) p
,
(t) =

,
(t) = p

(t)

(t)

=
_
1 p
,
_

(t)

,
(t) + (

) p
,
(t) =

,
(t) = p

(t)

(t)

=
_
1 p
,
_

(t)

,
(t) + (

) p
,
(t) =

Tako smo dosli do cetiri diferencijalne jednadzbe


p

,
(t) + (

) p

(t) =

,
p

,
(t) + (

) p
,
(t) =

,
p

,
(t) + (

) p
,
(t) =

,
p

,
(t) + (

) p
,
(t) =

,
koje su sve istog oblika
y

+ A y = B,
uz
A =

, B =

ili

.
To su nehomogene diferencijalne jednadzbe, cija su rjesenja oblika
y = y
H
+ y
P
,
gdje je y
H
rjesenje homogene jednadzbe (s nulom na desnoj strani), a y
P
je partikularno
rjesenje nehomogene jednadzbe. Potrazimo homogeno rjesenje u obliku
y
H
= e
t
,
256 POGLAVLJE 15. STOHASTI

CKI PROCESI
a partikularno u obliku konstante
y
P
= c
0
.
Uz ove pretpostavke, ukupno rjesenje je
y = e
At
+
B
A
,
gdje se nepoznata konstanta odreduje iz pocetnih uvjeta (15.37). Tako je
p

(t) =

e
(

) t
+

,
p

(t) =

e
(

) t
+

,
p

(t) =

e
(

) t
+

,
p

(t) =

e
(

) t
+

.
Gornje prijelazne vjerojatnosti su elementi matrice prijelaza
P(t) =
_
_
p

(t) p

(t)
p

(t) p

(t)
_
_
. (15.46)
pomocu ovih prijelaznih vjerojatnosti se moze odrediti p
j
(t), vjerojatnost da se u trenutku
t sustav nalazi u stanju j = ili . Ova je vjerojatnost odredena stanjem sustava u
pocetnom trenutku t = 0. To pocetno stanje moze biti odredeno ili deterministi

cki,
p
j
(0) = 1, ili p
j
(0) = 0,
ili probabilisti

cki
p

(0) = p, p

(0) = q = 1 p,
tj. u pocetnom trenutku se sustav nalazi u stanju s vjerojatnoscu p, a u stanju s
vjerojatnoscu 1 p. Kao primjer, izracunajmo vjerojatnost da se u trenutku t sustav
nalazi u stanju uz probabilisticke pocetne uvjete:
p

(t) = P
_
X(t) =
_
= P
_
X(t) = / X(0) =
_
P
_
X(0) =
_
+ P
_
X(t) = / X(0) =
_
P
_
X(0) =
_
= p p

(t) + (1 p) p

(t)
= p
_

e
(

) t
+

_
+ (1 p)
_

e
(

) t
+

_
=

+
p

+ q

e
(

) t
15.3. POISSONOV PROCES 257
Dugo nakon pocetka procesa, stanje sustava ne ovisi o pocetnim uvjetima (u gornjem
izrazu su pocetni uvjeti sadrzani u p i q)
lim
t
p

(t) =

.
Slicnim se postupkom dobiva i
lim
t
p

(t) =

.
Dugo nakon pocetka procesa je omjer vjerojatnosti da sustav bude u stanju i stanju
jednak
lim
t
p

(t)
p

(t)
=

.
No, prema samom svom znacenu (odredenom eksponencijalnom raspodjelom), inverzna
vrijednost je ocekivano vrijeme koje sustav provodi u stanju ili

=
1

=
1

,
tako da j egornji omjer vjerojatnosti jednak
lim
t
p

(t)
p

(t)
=

.
Rekonstrukcija prijelaznih vjerojatnosti
Pokazimo sada kako se iz poznavanja matrice A (generatora) mogu konstruirati matrice
prijelaza P.
Matricna diferencijalna jednadzba (15.42)
P

(t) = A P(t), (15.47)


zajedno s pocetnim uvjetom
P(0) = 1,
moze se rijesiti metodom Laplaceove preobrazbe. Oznacimo s P(s) Laplaceovu preobrazbu
P(t), tada je
s P(s) 1 = A P(s).
To je algebarska jednadzba u koju je ugraden i pocetni uvjet. Njezino je rjesenje
P(s) =
1
s 1 A
.
Poteskoca ovakvog racuna P(s) je u tome sto treba racunati inverz matrice s 1A, a to
moze biti razmjerno slozeno ukoliko se promatrani sustav moze nalaziti u velikom broju
stanja (red matrice je velik).
258 POGLAVLJE 15. STOHASTI

CKI PROCESI
S druge strane, jednadzba (15.47) ima ocito rjesenje u obliku eksponencijalne funkcije
P(t) = e
At
.
Eksponencijalna funkcija s matricom u argumentu se racuna pomocu razvoja eksponen-
cijalne funkcije u red
e
At
=

n=0
t
n
A
n
n!
.
Problem s rjesenjem gornjeg oblika je u tome sto treba znati sve potencije matrice A. Taj
se problem rjesava (kvazi)dijagonalizacijom matrice.
(1) Jednostavnija varijanta: matrica se u cjelosti dijagonalizira u bazi svojstvenih vektora,
tj. postoji matrica S reda k, sa svojstvom da je
A = S D S
1
(gornja veza medu matricama A i D se zove preobrazba slicnosti), gdje je D dijagonalna
matrica sa svojstvenim vrijednostima matrice A na dijagonali
D =
_

_
a
1
0 0
0 a
2
0
.
.
.
.
.
.
0 0 a
k
_

_
. (15.48)
Iteracijom gornjeg izraza, dolazi se do
A
2
= S D S
1
S D S
1
= S D
2
S
1
.
.
.
A
n
= S D
n
S
1
.
No, za razliku od n-te potencija matrice A, n-tu potenciju dijagonalne matrice D je lako
izracunati
D
n
=
_

_
a
n
1
0 0
0 a
n
2
0
.
.
.
.
.
.
0 0 a
n
k
_

_
.
Uvodenjem matrice D, rjesenje za P je
P(t) = e
At
= S

n=0
t
n
D
n
n!
S
1
= S
_

_
e
t a
1
0 0
0 e
t a
2
0
.
.
.
.
.
.
0 0 e
t a
k
_

_
S
1
.
15.3. POISSONOV PROCES 259
(2) Kao sto je poznato iz linearne algebre, ne moze se svaka matrica dovesti u dijagonalni
oblik (15.48), ali se zato svaka matrica moze dovesti u Jordanov
22
kvazidijagonalni
oblik
A =
_

_
D
1
0 0
0 D
2
0
.
.
.
.
.
.
0 0 D
l
_

_
,
gdje su podmatrice D
j
oblika
D
j
=
_

_
d
j
1 0 0
0 d
j
1 0
.
.
.
.
.
.
.
.
.
0 0 d
j
1
0 0 0 d
j
_

_
.
U posebnom slucaju ako su se podmatrice D
j
reda jedan, tada se Jordanov oblik svodi
na potpunu dijagonalizaciju (15.48).
Primjer: 15.13 Nadite svojstvene vrijednosti i svojstvene vektore matrice A iz gornjeg
modela s dva stanja. Pomocu svojstvenih vektora konstruirajte matrice S i S
1
i matricu P(t). Rezultat usporedite s (15.46).
R:
dovrsiti
15.3.3 Procesi radanja i umiranja
U odjeljku ... je pokazano da je Poissonov proces opisan slijedecom vjerojatnoscu
p
n,n+k
(d t) = P
_
N(t + d t) = n + k / N(t) = n
_
)
_

_
1 d t +O(d t
2
) , k = 0 ,
d t +O(d t
2
) , k = 1 ,
O(d t
2
), k 2 .
22
Marie Ennemond Camille Jordan, francuski matematicar (5. I 1838. La Croix-Rousse, Lyon - 22. I 1922. Paris)
260 POGLAVLJE 15. STOHASTI

CKI PROCESI
Primjetimo da vjerojatnost p
n,n+k
(d t) ne ovisi niti o n niti o t. U cijelom dosadasnjem
izlaganju se parametar tretirao kao konstantan. No, moze biti i funkcija jedne ili vise
varijabla, a da opisani proces i dalje bude Markovljev proces.
Proces radanja
Sada zelimo Poissonovim procesom opisati proces radanja. Opceniti dogadaj A o ko-
jemu smo do sada govorili, sada ce postati dogadaj radanja jedne jedinke u promatranoj
populaciji. Neka je
=
n
,
tj. neka bude funkcija od n, broja jedinki promatrane populacije u trenutku t. Uz taj
uvjet, Poissonova je vjerojatnost zadana sa
p
n,n+k
(d t) = P
_
N(t + d t) = n + k / N(t) = n
_
=
_

_
1
n
d t +O(d t
2
) , k = 0 ,

n
d t +O(d t
2
) , k = 1 ,
O(d t
2
), k 2 .
(15.49)
Prema deniciji matricnih elemenata a
i,j
= p

i,j
(0), iz gornjeg se izraza ocitava matrica
gustoce prijelaza
A =
_

0

0
0 0
0
1

1
0 0
.
.
.
0
n

n
0
.
.
.
_

_
. (15.50)
Pomocu izraza (15.49) se moze napisati veza medu vjerojatnim brojem jedinki u trenucima
t i t +d t: ako je u trenutku t vec bilo n jedinki i nijedna se jedinaka nije rodila u intervalu
d t, tada ce i u trenutku t +d t biti n jedinki; druga je mogucnost da je u trenutku t bilo
n 1 jedinki i da se u intervalu d t rodila jedna jedinka, tako da u trenutku t + d t opet
postoji n jedinki. Dakle, oba opisana procesa vode na n jedinki u trenutku t + d t i zato
je
p
n
(t + d t) = p
n
(t) (1
n
d t) + p
n1
(t)
n1
d t +O(d t
2
), n 1.
Gornja se jednadzba moze napisati i u obliku
p
n
(t + d t) p
n
(t)
d t
=
n
p
n
(t) +
n1
p
n1
(t) +O(d t), n 1.
U granici d t 0 je
lim
d t 0
p
n
(t + d t) p
n
(t)
d t
= p

n
(t) =
n
p
n
(t) +
n1
p
n1
(t), n 1. (15.51)
15.3. POISSONOV PROCES 261
Za n = 0 je i p
n1
0, pa gornja jednadzba prelazi u
p

0
(t) =
0
p
(
t). (15.52)
Opisani proces radanja se moze egzaktno rijesiti u jednostavnom slucaju kada
n
linearno
ovisi o n

n
= n .
Ovakav proces radanja se naziva Yule-Furryev
23
proces. U skladu s (15.50), matrica
gustoce Yule-Furryevog procesa je
A =
_

_
0 0 0 0
0 0 0
.
.
.
0 n n 0
.
.
.
_

_
,
a iz Kolmogorovljevih jednadzba prema naprijed, (15.41),
P

(t) = P(t) A,
dobivaju se diferencijalne jednadzbe (15.51) i (15.52), koje u Yule-Furryevu obliku glase
p

n
(t) = n p
n
(t) + (n 1) p
n1
(t), n 1
p

0
(t) = 0.
Neka u pocetnom trenutku t = 0, postoji samo jedna jedinka
24
p
1
(0) = 1, p
j
(0) = 0, j = 1.
Zadatak je izracunati p
n
(t), vjerojatnost da u trenutku t postoji tocno n jedinki. Iz
jednadzbe
p

0
(t) = 0
slijedi zakljucak da je
p
0
(t) = const,
a zbog pocetnog uvjeta, ta konstanta mora biti jednaka nula, tj.
p
0
(t) = 0, t.
23
George Udny Yule, skotski matematicar, (18. II 1871. Morham (near Haddington), Scotland - 26. VI 1951. Cambridge,
Cambridgeshire, England); Furry ???
24
Ako su za razmnozavanje potrebne dvije jedinke, tada pocetni uvjet treba glasiti
p
2
(0) = 1, p
j
(0) = 0, j = 2.
262 POGLAVLJE 15. STOHASTI

CKI PROCESI
Ovaj je rezultat posve razumljiv s obzirom da se promatra proces koji sadrzi samo radanje
(a ne i umiranje), pa ako je u pocetnom trenutku postojala jedna jedinka, u kasnijim
trenucima ih moze biti samo vise.
Diferencijalna jednadzba za p
n=1
glasi
p

1
(t) = p
1
(t).
Ocito rjesenje gornje jednadzbe koje zadovoljava i pocetni uvjet je
p
1
(t) = e
t
.
Pogledajmo sada diferencijalnu jednadzbu za n = 2
p

2
(t) = 2 p
2
(t) + p
1
(t)
p

2
(t) = 2 p
2
(t) + e
t
.
Lako je vidjeti da je gornja jednadzba ekvivalentna jednadzbi
d
d t
_
e
2 t
p
2
(t)

= e
t
.
Izravnom intergracijom gornje jednadzbe i uvrstavanjem pocetnog uvjeta, dobiva se rjesenje
p
2
(t) = e
t
_
1 e
t
_
.
Pretpostavimo da je opcenito
p
n
(t) = e
t
_
1 e
t
_
n1
i dokazimo tu pretpostavku indukcijom. Diferencijalna jednadzba za p
n+1
je
p

n+1
(t) = (n + 1) p
n+1
(t) + n p
n
(t)
p

n+1
(t) + (n + 1) p
n+1
(t) = n e
t
_
1 e
t
_
n1
d
d t
_
e
(n+1) t
p
n+1
(t)

= n e
nt
_
1 e
t
_
n1
= n
n1

m=0
_
n 1
m
_
(1)
m
e
(nm) t
_

t
0
d t
Integracijom gornjeg izraza, uz uvrstavanje pocetnih uvjeta, dobiva se
p
n+1
(t) = e
t
_
1 e
t
_
n
cime je dokazana polazna pretpostavka.
Pomocu poznate vjerojatnosti p
n
(t) se mogu dalje racunati razlicite srednje vrijednosti.
Tako je npr. srednji broj jedinki u trenutku t jednak
n(t) =

n=1
n p
n
(t) = e
t

n=1
n
_
1 e
t
_
n1
= e
t
_
e
x
d
d x

n=1
(1 e
x
)
n
_
x=t
= e
t
.
15.3. POISSONOV PROCES 263
Broj jedinki eksponencijalno raste s vremenom.
Procesi radanja i umiranja
Promatrajmo sada populaciju u kojoj osim procesa radanja postoji i proces umiranja,
opisan parametrom . Unutar vremenskog intervala d t, broj jedinki se radanjem moze
povecati za jedan, umiranjem smanjiti za jedan, a ako se u intervala d t ne dogodi niti
jedan porod niti smrtni slucaj, broj jedinki ce ostati nepromjenjen. Matricni elementi
matrice prijelaza izmedu stanja s i jedinki u trenutku t i j jedinki u trenutku t + d t, su
p
i,j
(d t) = P
_
N(t+d t) = j / N(t) = i
_
=
_

i
d t +O(d t
2
) , j = i 1 ,
1 (
i
+
i
) d t +O(d t
2
) , j = i ,

i
d t +O(d t
2
) , j = i + 1 ,
O(d t
2
), j i + 2, j i 2 ,
(15.53)
S pocetnim uvjetom

0
= 0.
Primjetimo da u slucaju i = j nismo uzeli ubzir mogucnost da se u intervalu d t jedna
jedinka rodi i jedna jedinka umre, zato sto je to proces srazmjeran s O(d t
2
), a takvi se
procesi sustavno zanemaruju. Pomocu gornjih prijelaznih vjerojatnosti, lako je ocitati
matricu gustoce prijelaza s matricnim elementima a
i,j
= p

i,j
(0)
A =
_

0

0
0 0

1

1

1

1
0 0
.
.
.

n

n

n

n
0
.
.
.
_

_
.
Gornja je matrica ekvivalentna diferencijalnoj jednadzbi
p
n
(t + d t) = p
n1
(t)
n1
d t + p
n
(t)
_
1 (
n
+
n
) d t
_
+ p
n+1
(t)
n+1
d t +O(d t
2
).
ciji je zicki sadrzaj identican sadrzaju jednadzbe (15.53). Nakon nekoliko jednostavnih
manipulacija
p
n
(t + d t) p
n
(t)
d t
=
n1
p
n1
(t) (
n
+
n
) p
n
(t) +
n+1
p
n+1
(t) +
O(d t
2
)
d t
_
lim
d t 0
iz gornje se jednadzbe mogu ocitati Kolmogorovljeve jednadzbe
p

n
(t) =
n1
p
n1
(t) (
n
+
n
) p
n
(t) +
n+1
p
n+1
(t), n 1,
264 POGLAVLJE 15. STOHASTI

CKI PROCESI
a za n = 0, uz uvjet
0
= 0,
p

0
(t) =
0
p
0
(t) +
1
p
1
(t).
Pocetni uvjeti su takvi da je u trenutku t = 0, zivo m jedinki
p
m
(0) = 1, p
j
(0) = 0, j = m.
Bibliograja
[1] Milton Abramowitz and Irene A. Stegun, Handboook oh mathematical functi-
ons, (McGrow-Hill, New York, 1972)
[2] Dixon W. J. and Massey F. J., Introduction to Statistical Analysis, (McGrow-Hill,
New York, 1957)
[3] Elezovi

c N., Teorija vjerojatnosti - zbirka zadataka, (Element, Zagreb, 1995)


[4] Elezovi

c N., Vjerojatnost i statistika - Diskretna vjerojatnost, (Element, Zagreb,


2008)
[5] Elezovi

c N., Vjerojatnost i statistika - Slucajne varijable, (Element, Zagreb, 2007)


[6] Elezovi

c N., Vjerojatnost i statistika - Matematicka statistika; Stohasticki procesi,


(Element, Zagreb, 2007)
[7] Z. Glumac, Matematicke metode zike, uvod, (http://www.zika.unios.hr/ zglu-
mac/ummf.pdf)
[8] I. S. Gradshteyn and I. M. Ryzhik, Table of Integrals, Series, and Products,
(Academic Press, New York and London, 1965)
[9] Grimmet and Stirzaker, Exercises in Probability, (izdavac, grad, 195..)
[10] Grinstead C. M. and Snell J. M., Introduction to Probability, (Dartmouth
College, Hanover, NH, 1997; ili http://www.dartmouth.edu/ chance)
[11] Hsu H. P., Theory and Problems of Probability, Random Variables, and Random
Processes, (Schaums Outline Series, McGrow-Hill, New York, 1997)
[12] Markovi

c B., Miler D., Rub

ci

c A., Vari

cak M., Odabrana poglavlja zike,


III dio, skripta, (Sveuciliste u Zagrebu, 1963)
[13] Markovi

c

Z., Uvod u visu analizu, II dio, (

Skolska knjiga, Zagreb, 1952)


[14] Pavli

c I., Statisticka teorija i primjena, (Panorama, Zagreb, 1965)


[15] Ross S. M., Introduction to Probability Models, (Academic Press, San Diego, 1997)
[16] Spiegel M. R., Schaums Mathematical Handbook of Formulas and Tables, (pogle-
dati u bibl.)
[17] Serdar V., Udzbenik statistike, (

Skolska knjiga, Zagreb, 1975.)


265
266 BIBLIOGRAFIJA
[18] Vrani

c V., Vjerojatnost i statistika, (Tehnicka knjiga, Zagreb, 1971.)


[19] Vukadinovi

c S., Zbirka resenih zadataka iz teorije verovatnoce, (Privredni pregled,


Beograd, 1978.)
Kazalo pojmova
binomni poucak, 12
poopcenje, 13
dogadaj
elementaran, 16
iskljuciv, 21
potpun skup, 16
slucajan, 17
uktuacije, 103
greske
prave, 76
prividne, 76
koecijent
asimetrije, 104
spljostenosti, 104
kombinacije
bez ponavljanja, 8
s ponavljanjem, 10
kvocjent varijacije, 104
momenti, 102
centralni, 104
pomocni, 104
permutacije
bez ponavljanja, 5
s ponavljanjem, 6
pokus
deterministicki, 16
slucajan, 16
raspodjela gustoce vjerojatnosti
marginalna, 67
standardna devijacija, 103
varijacije
bez ponavljanja, 9
s ponavljanjem, 11
varijanca, 103
vjerojatnost
a priori, 18
a posteriori, 19
denicija, 18
267

You might also like