You are on page 1of 14

188 GLAVA 11.

STATISTICKA OCENA PARAMETARA

-
Odredivanje sirine h je jedini parametar KDE ocene gustine. Za Gausovo
jezgro, pod pretpostavkom da je uzorak normalno raspodeljen, kao opti-
malna sirina se uzima
b n1/5
hopt = 1.06
b standardna devijacija uzorka. Sa ovom sirinom i Gausovim jezgrom,
gde je
KDE aproksimacija gustine raspodele za nas uzorak je data na slici 11.3.

11.2 Metoda najmanjih kvadrata


Pretpostavimo da imamo matematicki model oblika

y(x) = y(x; a1 , . . . , aM ) = y(x; a)

gde M slobodnih parametara (konstanti) a = (a1 , . . . , aM ) ne znamo, a


treba da ih nekako odredimo. U tom cilju koristicemo N poznatih podataka
(xi , yi ), i = 1, . . . , N (obicno dobijenih merenjima).
Postupak odredivanja - nepoznatih parametara u modelu na osnovu poz-
natih eksperimentalnih podataka se obicno naziva tovanjem. Ne postoji
jednoznacan odgovor koji vektor parametara a je najbolji. U tom cilju se
obicno denise funkcija kvaliteta tovanja, koja za date parametre a daje
numericku vrednost kvaliteta modela u odnosu na podatke. Kao optimalne
parametre cemo uzeti one za koje ova funkcija uzima najbolju vrednost.
Metoda najmanjih kvadrata odreduje - optimalne parametre a1 , . . . , aM
tako da minimiziraju funkciju
N (
)
2 yi y(xi ; a1 , . . . , aM ) 2
(a) = (11.4)
i
i=1

gde su i unapred poznate vrednosti. U slucaju da su sve te vrednosti


jednake, i = , i = 1, . . . , M , moze se slobodno uzeti da je = 1, posto
optimalna vrednost a ne zavisi od te vrednosti.
Pretpostavimo da je yi = y(xi ; a) + i , gde su eksperimentalne greske
i normalno raspodeljene sa ocekivanjem 0 i standardnom devijacijom i .
Pod tom pretpostavkom mozemo za svaku vrednost parametara a1 , . . . , aM
izracunati verovatnocu da eksperimentalne vrednosti yi uzimaju bas te vre-
dnosti (odnosno pripadaju malom intervalu oko njih). Ocena maksimalne
verodostojnosti kao optimalne parametre uzima one za koje je ta verovatnoca
najveca. Pokazuje se da optimalni parametri upravo minimiziraju funkciju
(11.4). Pod pretpostavkom normalno raspodeljenih gresaka, 2 (a) ima 2
raspodelu sa = N M stepeni slobode. Verovatnoca Q da 2 bude vece od
11.2. METODA NAJMANJIH KVADRATA 189

konkretno stacunate vrednosti 2 (a) je data nekompletnom gama funkcijom


Q(/2, 2 (a)/2) gde je

(a, x) 1
Q(a, x) = = et ta1 dt, (a > 0) .
(a) (a) x

Vrednost Q daje meru kvaliteta tovanja, tj. modela. Ukoliko je Q vrlo


malo, uzrok moze biti

model je pogresan, i moze biti statisticki odbacen,

informacije o devijacijama i su pogresne i vece su nego sto je nave-


deno,

eksperimentalne greske nisu normalno raspodeljene.

Ukoliko je Q suvise veliko, blisko 1, uzrok moze biti

greske podataka su precenjene i stvarno su manje od navedenih,

eksperimentator nije dobro obavio svoj posao, eksperimentalni podaci


su sumnjivi.

Zbog cinjenice da je Q malo ukoliko greske nisu normalno raspodeljene


(recimo sistematske greske kod nekih nelinearnih modela), nije neobicno da
model prihvatimo i ako je Q 103 , ali ipak treba biti oprezan. Stvarno
pogresni modeli daju mnogo manje vrednosti za Q.
Prema teoriji, za veliko N je 2 asimptotski
normalno raspodeljeno sa
ocekivanjem i standardnom devijacijom 2. Zato bi ocekivane vrednosti
za 2 (a) trebale da budu 2 (a) .
Ukoliko ne znamo velicine i i ako pretpostavimo da su one jednake,
i = , mozemo prvo u funkciji (11.4) zadati i = 1, sracunati optimalne
parametre a koji minimiziraju tu funkciju, i naknadno sracunati

1
N
2 = (yi y(xi ; a))2 .
N M
i=1

Kvalitet modela mozemo verikovati i statistickom analizom ostataka


(razlika) ri = (yi y(xi ; a))/i . Pravljenjem histograma ili KDE dijagrama
za ostatke mozemo videti da li su greske zaista normalno ili priblizno nor-
malno raspodeljene. Kutijasti dijagram nam moze pomoci u otkrivanju po-
dataka sa velikim odstupanjima. Posto je uticaj tih podataka u funkciji
(11.4) znacajan usled kvadratne zavisnosti, cesto se u postupku tovanja
190 GLAVA 11. STATISTICKA OCENA PARAMETARA

ovakve tacke eliminisu iz uzorka, i tovanje ponovi bez njih. Motivacija


za ovaj postupak je da je uzrok ovakvih gresaka drugacije prirode od nor-
malnih eksperimentalnih gresaka. Takode, - ostaci ri , kao slucajne velicine,
-
treba da budu medusobno nezavisni. Medusobna - nezavisnost ostataka se
moze statisticki testirati autokorelacijom. Ukoliko se ispostavi da ostaci nisu
-
medusobno nezavisni, to obicno znaci da model nije najbolje izabran. Do
ovakve situacije se npr. dolazi ako kvadratnu funkciju tujemo linearnom.
U zavisnosti od toga da li je funkcija y(x; a1 , . . . , aM ) linearna po nepoz-
natim parametrima ili nije, razlikujemo linearne, odnosno nelinearne modele.
Matematicki aparat za dobijanje optimalnih parametara se u ta dva slucaja
razlikuje.

11.2.1 Linearni model


U generalizovanom linearnom modelu je funkcija y(x) linearna po parame-
trima a1 , . . . , aM :

M
y(x) = ak Xk (x)
k=1
gde su X1 (x), . . . , XM (x) unapred zadate linearno nezavisne bazisne funkcije.
Za tovanje polinomima mozemo uzeti Xk (x) = xk1 ili, bolje, ortogonalne
polinome.
U skladu sa (11.4), treba minimizovati
( )2
N
yi M
2 k=1 ak Xk (xi )
(a) = . (11.5)
i
i=1
-
Ukoliko su i nepoznati ili medusobno jednaki, moze se uzeti i = 1.
Neka je A matrica dimenzije N M , i vektor b duzine N , sa elementima
Xj (xi ) yi
Aij = , bi = .
i i
U tacki minimuma funkcije (11.5) su njeni parcijalni izvodi po ak jednaki
nuli, pa je

N
1 M
0= 2 yi aj Xj (xi ) Xk (xi ), k = 1, . . . , M ,
i=1
i j=1

sto daje sistem linearnih jednacina



M
kj aj = k ili a =
j=1
11.2. METODA NAJMANJIH KVADRATA 191

gde je

N
Xj (xi )Xk (xi )
N
yi Xk (xi )
kj = , j = ,
i=1
i2 i=1
i2
ili
= AT A, = AT b .
Sistem AT A a = AT b se naziva normalni sistem, i cesto je lose uslovljen,
sto predstavlja problem za nalazenje njegovog resenja. Umesto standard-
nih metoda (Gausove ili metode Holeckog) tada je bolje koristiti iterativne
metode (npr. Gaus-Zajdelovu metodu). Do istog resenja dovodi i primena
metode singularne dekompozicije (SVD) na pravougaoni sistem Aa = b. Na
uslovljenost matrice normalnog sistema bitno utice izbor bazisnih funkcija
Xi (x), pa se pogodnijim izborom bazisa u istom prostoru moze znacajno
popraviti uslovljenost sistema.
Inverzna matrica C = 1 je tesno povezana sa standardnim devijaci-
jama tovanih parametara aj , a one daju meru stabilnosti parametara u
odnosu na greske podataka. Posto je a = C, bice
(N )
M yi Xk (xi )
aj = Cjk .
i=1
i2
k=1

Varijansa parametra aj se moze izraziti kao


N ( )2
2 aj
(aj ) = i2 .
yi
i=1

Posto jk a time i Cjk ne zavise od yi

aj Cjk Xk (xi )
M
= ,
yi i2
k=1

pa je ( )

M
M
N
Xk (xi )Xl (xi )
2
(aj ) = Cjk Cjl .
i=1
i2
k=1 l=1

U zagradi su upravo elementi matrice = C 1 , pa je

2 (aj ) = Cjj .
- aj i ak .
Elementi Cjk van dijagonale predstavljaju kovarijansu izmedu
192 GLAVA 11. STATISTICKA OCENA PARAMETARA

11.2.2 Nelinearni model


U slucaju modela koji nije linearan po parametrima

y = y(x, a), a = (a1 , . . . , aM )

trazi se minimum funkcije


N (
)
2 yi y(xi ; a) 2
(a) = (11.6)
i
i=1
N
= ri2 (a)
i=1
= R(a)T R(a)

gde smo oznacili ri (a) = (yi y(xi ; a))/i i R(a) = (r1 (a), . . . , rN (a))T .
Zbog nelinearnosti, ova funkcija moze imati vise lokalnih minimuma, pa je
ponekad nalazenje optimalnih parametara tezak zadatak i moraju se pri-
meniti metode globalne optimizacije. U svakom lokalnom, pa i globalnom
minimumu, gradijent funkcije 2 (a) mora biti jednak nuli. Oznacimo
[ ]
ri
J(a) = , i = 1, . . . , N, j = 1, . . . , M .
aj
Gradijent funkcije koju minimiziramo ima elemente

2
N
yi y(xi ; a) y(xi ; a)
= 2
ak
i=1
i2 ak

N
ri
= 2 ri
ak
i=1

pa je
2 (a) = 2J(a)T R(a)
i

N [ ]
2 2 1 y(xi ; a) y(xi ; a) 2 y(xi ; a)
=2 (y i y(xi ; a))
ak aj i2
i=1
ak aj ak aj

odakle sledi da je Hesijan funkcije jednak

( )
N
2 2 (a) = 2 J(a)T J(a) + S(a) , S(a) ri (a)2 ri (a)
i=1
11.2. METODA NAJMANJIH KVADRATA 193

Kvadratna aproksimacija funkcije 2 (a) je data sa

1
2 (a + a ) = 2 (a) + 2 (a) a + aT 2 2 (a) a
2
= R(a)T R(a) + 2R(a)T J(a) a +
+ aT (J(a)T J(a) + S(a)) a

Ukoliko je funkcija y(x; a) dovoljno glatka, za minimizaciju funkcije (11.6)


se mogu koristiti kako gradijentne, tako i metode drugog reda tacnosti. Sledi
kraci pregled metoda koje se koriste u praksi.

Njutnova metoda
Primena Njutnove metode za minimizaciju funkcije daje
( )1
a = J(a)T J(a) + S(a) J(a)T R(a) .

I pored brze konvergencije u okolini resenja, metodu komplikuje potreba


racunanja drugih izvoda od kojih zavisi S(a).

Gaus-Njutnova metoda
Za dovoljno malo a aproksimiracemo linearizacijom R(a + a ) = R(a) +
J(a)a , sto za posledicu ima da je 2 ri (a) = 0, pa je S(a) 0 i
( )1
a = J(a)T J(a) J(a)T R(a) ,

tj. a je resenje linearnog sistema


( )
J(a)T J(a) a = J(a)T R(a)

ili
a =
gde je

1 2 2 N
1 y(xi ; a) y(xi ; a)
kl = 2 ,
2 ak al ak al
i=1 i

1 2
N
yi y(xi ; a) y(xi ; a)
k = .
2 ak
i=1
i2 ak
194 GLAVA 11. STATISTICKA OCENA PARAMETARA

Matrica se u slucaju da je y(x; a) linearna po parametrima poklapa sa


istom matricom iz prethodnog odeljka, pa matrica C = 1 predstavlja
matricu varijansi i kovarijansi parametara a1 , . . . , aM .
Gaus-Njutnova metoda je jednostavnija za primenu jer ne zahteva racu-
nanje drugih izvoda. Opravdanje za aproksimaciju koja je u njoj primenjena
je u cinjenici da ce
N
S(a) ri (a)2 ri (a)
i=1

u slucaju nezavisnih i slucajno raspodeljenih gresaka ri biti malo usled


-
medusobnog potiranja clanova u sumi. Prednosti Gaus-Njutnove metode
su

lokalna kvadratna konvergencija u zadacima sa nultom optimalnom


greskom,

brza lokalna konvergencija za zadatke koji nisu mnogo nelinearni ili


koji imaju male lokalne greske ri ,

a mane su

slaba konvergencija za izrazito nelinearne modele i za velike optimalne


greske ri ,

odsustvo konvergencije u nekim slucajevima iz prethodne tacke,

nije korektno denisana kada J(a) nema puni rang,

ne garantuje se globalna konvergencija.

Dampirana Gaus-Njutnova metoda

U ovoj varijanti prethodne metode je


( )1
a + a = a J(a)T J(a) J(a)T R(a)

gde se bira po kriterijumu jednodimenzione optimizacije. Parametrom


izbegavamo prevelike vrednosti za a , a metoda je korektno denisana i ako
J(a) nema puni rang.
11.2. METODA NAJMANJIH KVADRATA 195

Levenberg-Markartova metoda
U Levenberg-Markartovoj metodi (Levenberg 1944., Marquardt 1963.) se
nova iteracija u optimizaciji dobija po formuli
( )1
a + a = a J(a)T J(a) + I J(a)T R(a)
gde je 0 parametar metode, a I jedinicna matrica. U granicnom slucaju
za = 0 se svodi na Gaus-Njutnovu metodu, a za velike vrednosti se
vektor a po pravcu asimptotski priblizava antigradijentu sa sve manjom
duzinom, sto garantuje uspesnost koraka za dovoljno veliko .
Druga interpretacija metode je da je ona teorijski ekvivalentna zadatku
min ||R(a) + J(a) a ||L2
||a ||

gde je velicina povezana sa parametrom (tacnije 1/).


U ovoj metodi se, koristeci oznake od ranije, a dobija kao resenje sistema
( + I) a = . (11.7)
Za pozitivno je matrica sistema pozitivno denitna i povecavanjem ovog
parametra poboljsavamo uslovljenost sistema. Variranjem parametra obe-
-
zbedujemo kompromis izmedu - brze konvergencije i stabilnosti metode.
Algoritam metode se sastoji od sledecih koraka
1. Izabrati pocetnu aproksimaciju a.
2. Sracunati 2 (a).
3. Postaviti pocetnu vrednost = 0.001 .
4. Proveriti kriterijum za zaustavljanje algoritma.
5. Resiti sistem (11.7) i sracunati 2 (a + a ) .
6. Ako je 2 (a + a ) 2 (a), povecati (npr. 10 puta) i ici na korak 4.
7. Ako je 2 (a + a ) < 2 (a), smanjiti (npr. 10 puta), prihvatiti novu
aproksimaciju a + a , i ici na korak 4.
Kriterijum za zaustavljanje obicno kombinuje sledece kriterijume: maksi-
malan dozvoljen broj iteracija, ||a || , |2 (a + a ) 2 (a)| .
Po zavrsetku algoritma, invertovanjem matrice sistema (za = 0),
dobijamo matricu C varijansi i kovarijansi parametara a1 , . . . , aM .
Ovde je metoda izlozena u prvobitnoj, Levenbergovoj formi, a Markart
je kasnije modikovao metodu tako sto zamenom jedinicne matrice I dijago-
nalnom diag(J(a)T J(a)) ostvaruje poboljsanu stabilnost za velike vrednosti
parametra .
196 GLAVA 11. STATISTICKA OCENA PARAMETARA

11.3 Robusno fitovanje


Metodu za procenu parametara modela smatramo robusnom ukoliko mali
poremecaji vrednosti eksperimentalnih tacaka, ili veci poremecaji na ma-
njem broju tacaka, rezultuju malim razlikama u procenjenim parametrima.
Metoda najmanjih kvadrata pretpostavlja da su greske normalno raspo-
deljene. Kod normalne raspodele velike vrednosti su vrlo malo verovatne.
Velike greske pojedinih tacaka bitno uticu na vrednost funkcije 2 zbog
kvadratne zavisnosti u njoj, i rezultat tovanja usled toga moze biti nezado-
voljavajuci.
Metode ocene (tovanja) parametara metodom maksimalne verodostoj-
nosti se, polazeci od pretpostavljene raspodele eksperimentalnih gresaka,
svode na minimizaciju


N ( )
yi y(xi ; a)
min
(a1 ,...,aM ) i
i=1

ili

N
yi y(xi ; a)
min (ri ) , ri = ,
(a1 ,...,aM ) i
i=1

za neku funkciju (r).


Za normalnu raspodelu gresaka sa normalnom gustinom raspodele oblika
C1 exp(C2 r2 ) metoda maksimalne verodostojnosti daje (r) = r2 /2, i to
predstavlja metodu najmanjih kvadrata.
U slucaju da greske nisu normalno raspodeljene, vec imaju dvostranu
eksponencijalnu raspodelu sa gustinom oblika C1 exp(|r|), tada se dobija da
je (r) = |r|. Treba primetiti da u ovom slucaju (r) uzima manje vrednosti
za veliko r nego u prethodnom slucaju, pa zato vece greske u ovom slucaju
imaju manji uticaj na ukupnu funkciju greske koja se minimizira. Sa druge
strane, ova funkcija nije glatka, pa se ne mogu koristiti gradijentne i metode
viseg reda za minimizaciju.
Za Kosijevu (ili Lorencovu) raspodelu sa gustinom oblika C/(1 + r2 /2)
se dobija da je (r) = ln(1 + r2 /2). U ovom slucaju vece greske imaju jos
manji uticaj.
Nevezano za metodu maksimalne verodostojnosti, robusno tovanje mo-
zemo izvesti pogodnim izborom funkcije (r). Pozeljno je da za veliko r
ova funkcija ne uzima velike vrednosti, cime se neutralise preveliki uticaj
velikih gresaka u podacima. Sa druge strane, ako su greske priblizno nor-
malno raspodeljene, pozeljno je da ova funkcija za male vrednosti r lici
11.4. POUZDANOST DOBIJENIH PARAMETARA 197

na kvadratnu. Jedna od takvih funkcija (Andrews sine) koja se koristi za


robusno tovanje je
{
C(1 cos(r/C)), |r| C ,
(r) =
C, |r| > C .
Ako su greske normalno raspodeljene, najbolje je uzeti da je C = 2.1 . Druga
pogodna funkcija za robusno tovanje (Tuckeys biweight) je
[ ( ) ]
C 2 1 1 r2 3 , |r| C ,
6 C2
(r) =
C2
6 , |r| > C .
Za normalno raspodeljene greske je najbolje uzeti C = 6 .

11.4 Pouzdanost dobijenih parametara


Kada smo u modelu odredili optimalne parametre (a1 , . . . , aM ), postavlja se
pitanje koliko su oni osetljivi na male varijacije ulaznih podataka. Naime,
ukoliko su eksperimentalne greske isto raspodeljene, ali su drugacije (recimo
kod drugog kompleta merenja), izracunati parametri ce se malo razlikovati.
Nas interesuje mera njihove promene, a nju dobro opisuje standardna devi-
jacija parametara, kao i intervali poverenja koji se dobijaju ako je poznata
raspodela parametara.
U slucaju metode najmanjih kvadrata i linearnog modela, pod pret-
postavkom nezavisnih normalno raspodeljenih gresaka, teorijski rezultat je
da su standardne devijacije parametara dijagonalni elementi matrice kovari-
jansi C = 1 . Ova procena se koristi i kod nelinearnih modela. Medutim, -
ukoliko greske nemaju normalnu raspodelu, ukoliko nisu nezavisne, ili ako
koristimo metode robusnog tovanja, ovaj rezultat ne smemo koristiti. Na
koji nacin ipak proceniti osetljivost dobijenih parametara?
Komplet podataka koji imamo oznacimo sa D(0) , a izracunate parame-
tre sa a(0) . Da smo imali dodatne komplete podataka D(k) , k = 1, . . . , K
iste velicine i sa isto raspodeljenim slucajnim greskama, oni bi dali za rezul-
tate a(k) , k = 1, . . . , K. Osetljivost dobijenih parametara se onda svodi
-
na statisticku obradu rezultata a(k) . Medutim, mi takve izvorne komplete
podataka nemamo, ali ih mozemo simulirati na sledeca dva nacina.

Monte Carlo simulacija podataka


Iako znamo da parametri a(0) nisu pravi, vec imaju neku gresku, pret-
postavicemo za potrebe simulacije podataka da su to bas pravi parametri.
198 GLAVA 11. STATISTICKA OCENA PARAMETARA

Sa njima cemo generisati nove kolekcije podataka iste duzine preko

yi = y(xi ; a(0) ) + i

gde slucajne velicine i imaju istu raspodelu kao u izvornim podacima. Na


taj nacin dobijamo komplete podataka D(k) , k = 1, . . . , K koji daju opti-
malne parametre a(k) , k = 1, . . . , K.

Bootstrep metoda
Bootstrep metoda je jos jednostavnija za primenu. U njoj ne generisemo
nikakve nove podatke, vec nove komplete pravimo od istog polaznog kom-
pleta podataka. Posto nije pametno polazni komplet deliti na vise delova
jer se tako smanjuje broj tacaka u kompletu, postupicemo na sledeci nacin.
Iz polaznog kompleta podataka na slucajan nacin biramo (sa vracanjem)
onoliki broj podataka koliko je sadrzao polazni komplet. Na ovaj nacin ce
se neki podaci uzeti vise puta, a neki ce biti izostavljeni. Ponavljanjem
ovog postupka dobijamo komplete podataka D(k) , k = 1, . . . , K, i za njih
sracunate optimalne parametre a(k) , k = 1, . . . , K.

11.4.1 Visedimenziona normalna raspodela


U ovom poglavlju cemo izloziti deniciju i osnovne osobine visedimenzione
normalne raspodele.
Jednodimenziona normalna raspodela slucajne promenljive X sa mate-
matickim ocekivanjem i varijansom 2 ima gustinu raspodele
1
e[(x)/] /2
2
g(x) =
2 2
Ukoliko imamo uzorak (x1 , . . . , xN ) koji je normalno raspodeljen, ocene za
i 2 su date formulama (11.1) i (11.2). Kao intervali poverenja se mogu
uzeti [ c, + c] za c > 0. Sto je c vece, veca je i verovatnoca da X
pripada tom intervalu. Za c = 1 ta verovatnoca je 68.27%, za c = 2 je
95.45%, a za c = 3 je 99, 73%.
Visedimenziona slucajna promenljiva X = (X1 , . . . , Xp ) ima p-dimenzi-
onu normalnu (Gausovu) raspodelu, ukoliko je njena gustina raspodele
1 1 (x)/2
g(x) = e(x)
(2)p/2 ||1/2
gde je x = (x1 , . . . , xp ), < xi < , i = 1, . . . , p, je matematicko
ocekivanje promenljive X, a je simetricna, pozitivno denitna kovarijantna
11.4. POUZDANOST DOBIJENIH PARAMETARA 199

matrica vektora X. Zbog pozitivne denitnosti je || = det() = 0, pa 1


postoji. Ovu raspodelu cemo oznacavati sa Np (, ). Navedimo osnovne
osobine ove raspodele.
Konturne hiperpovrsi iste vrednosti gustine raspodele su elipsoidi dati
formulom(x ) 1 (x ) = c2 . Elipsoidima je centar tacka , a za ose
imaju c i ei , gde su i sopstvene vrednosti matrice , a ei odgovarajuci
normirani sopstveni vektori, ei = i ei , i = 1, . . . , p.
Ako X ima Np (, ) raspodelu, za matricu A dimenzije q p vazi da AX
ima raspodelu Nq (A, AA ). Za konstantan vektor d dimenzije p ce X + d
imati raspodelu Np ( + d, ).
Neka je = LL dekompozicija Holeckog, gde je L donja trougaona
matrica. Ako X ima Np (, ) raspodelu, na osnovu prethodnog sledi da
L (X ) ima Np (0, Ip ) raspodelu, gde je Ip jedinicna matrica dimenzije p.
Ako Z ima Np (0, Ip ) raspodelu, tada su njene koordinate nezavisne i imaju
N (0, 1) raspodelu. Tada ce X = + LZ imati Np (, ) raspodelu. Ovaj
rezultat sluzi za generisanje slucajnih tacaka sa ovom raspodelom.
Ako X ima Np (, ) raspodelu, tada svaka koordinata Xi ima N (i , ii )
raspodelu. Svaki izabrani podskup parametara imace takode - visedimenzionu
normalnu raspodelu sa podmatricom matrice koja sadrzi odgovarajuce
kolone i vrste tih izabranih parametara.
Ako X ima Np (, ) raspodelu, tada (X ) 1 (X ) ima 2p raspodelu
sa p stepeni slobode.
Ako X ima Np (, ) raspodelu, i ako 2p () oznacava gornji (100)-ti
percentil, tada je verovatnoca da X pripada elipsoidu (x ) 1 (x )
2p () jednaka 1 .
Za uzorak nezavisnih visedimenziono normalno raspodeljenih vektora
(x1 , . . . , xN ), svaki dimenzije M , statisticke ocene parametara ce biti

1
N
b=
xi (11.8)
N
i=1

i
1
N
b=
b) (xi
(xi b) . (11.9)
N 1
i=1

11.4.2 Intervali i regioni poverenja


Ako smo nekom od prethodno opisanih metoda dobili veci broj optimalnih
parametara a(k) , k = 1, . . . , K za isti broj simuliranih kompleta podataka,
200 GLAVA 11. STATISTICKA OCENA PARAMETARA

pretpostavicemo da je raspodela ovih vektora parametara visedimenziona


normalna.
Ukoliko nas zanimaju samo pojedinacni parametri, mozemo jednostavno
oceniti parametre jednodimenzione normalne raspodele za odgovarajucu ko-
ordinatu vektora parametara, po formulama (11.1) i (11.2). Nakon toga
mozemo odrediti odgovarajuce intervale poverenja oko dobijenih vrednosti
parametra u funkciji izracunate standardne devijacije.

p =1 =2 =3 =4 =5 =6
68.27% 1.00 2.30 3.53 4.72 5.89 7.04
90% 2.71 4.61 6.25 7.78 9.24 10.6
95.45% 4.00 6.18 8.02 9.72 11.3 12.8
99% 6.63 9.21 11.3 13.3 15.1 16.8
99.73% 9.00 11.8 14.2 16.3 18.2 20.1
99.99% 15.1 18.4 21.1 23.5 25.7 27.9

Tabela 11.1: Vrednosti 2 za razne nivoe poverenja p i stepena slobode

-
Ukoliko nas, medutim, interesuju oblasti poverenja za vise parametara is-
tovremeno, mozemo odrediti regione (elipsoide) poverenja na osnovu pretho-
dno navedenih osobina visedimenzione normalne raspodele. Prvo se naprave
statisticke ocene po formulama (11.8) i (11.9). Vrednost funkcije 2 (a) za
originalne podatke ce biti najmanja kada je a = a(0) i tu vrednost oznacimo
sa 2min = 2 (a(0) ). Za sve ostale vrednosti a(k) , k = 1, . . . , K, vrednost ce
biti veca. Velicina 2 2 (a(j) ) 2 (a(0) ) ce imati 2 raspodelu sa M
stepeni slobode.
U slucaju da nas ne interesuje region poverenja za sve, nego samo za
< M parametara, postupicemo na sledeci nacin. Nakon dobijanja a(0) ,
za sve druge simulirane komplete podataka vrsiceno optimizaciju samo po
parametrima koji nas interesuju, dok preostale parametre ksiramo na vred-
nosti iz a(0) .
-
Odredivanje elipsoida poverenja se vrsi na sledeci nacin.

1. Neka nas interesuje zajednicka oblast poverenja za M izabranih


parametara.

2. Izabrati nivo poverenja p, recimo 0.9, 0.95, 0.99 ili neki drugi.

3. Izracunati takvo da je verovatnoca da je 2 promenljiva sa stepeni


slobode manja od tacno jednaka p. Za cesce koriscene verovatnoce
se te vrednosti mogu naci u Tabeli 11.1.
11.5. KUDA IDE OVAJ SVET? 201

4. Iz matrice kovarijansi C = 1 , dobijene u metodi najmanjih kvadrata,


izdvojiti podmatricu dimenzije koja odgovara parametrima koji nas
interesuju, i oznacimo je sa Cproj .

5. Invertovati matricu Cproj .

6. Jednacina elipsoida poverenja za izabranih parametara je


1
(a a(0) ) Cproj (a a(0) ) .

11.5 Kuda ide ovaj svet?


Ljudi su oduvek bili fascinirani lepotom nebeskog svoda, a Suncu, Mesecu
i zvezdama, narocito pokretnim (planete) su pridavali bozanske osobine.
Periodicne pojave pomracenja Sunca i Meseca su izazivale strah u drevnim
vremenima a, neposredno smo se uvelili, i u bliskoj proslosti (11. avgusta
1999. u Srbiji). Onaj ko je takve pojave mogao da predvidi, nesumnjivo
je posedovao veliki ugled i moc. Radi predvidanja - astronomskih pojava,
naucnici su se uvek sluzili matematickim modelima, koji su zavisili od nivoa
naucnih znanja kao i preciznosti raspolozivih instrumenata. Crkve su bile
prirodno zainteresovane za ovladavanje ovim znanjima, centri nauke i pi-
smenosti su bili ranije prvenstveno pri manastirima, ali cim su naucne istine
dosle u sukob sa verskim dogmama, nauci je bilo sve teze da se razvija.
Za opisivanje kretanja je potrebno odrediti tacku (centar) oko koga
se tela krecu. Matematicki je prihvatljivo staviti koordinatni pocetak u
proizvoljnu tacku, ali razlicita resenja daju vise ili manje komplikovane
putanje (orbite) tela koje se krecu. Za drevne ljude je bilo ocigledno da
je Zemlja dole, a nebo gore, i da se sve na nebu krece oko njih i
Zemlje. Ubrzo su otkrili da je Zemlja zakrivljena, a Eratosten je dosta
tacno izracunao i njen obim. Iako je jos u helenizmu postojala heliocentricna
teorija, u srednjem veku je geocentricna teorija bila zvanicno prihvacena, pr-
venstveno iz verskih razloga.
Sa matematicke strane, posmatrano kroz tacnost matematickih mod-
ela, geocentricna, Braheova geoheliocentricna i Kopernikova heliocentricna
-
teorija su bile ekvivalentne, tj. davale su isti nivo gresaka u predvidanjima
zbog pretpostavke o kruznim orbitama (uz pomocne epicikle). Sa zicke
strane postoji bitna razlika izmedu - geocentricne i heliocentricne teorije. Kod
epicikala (kruznice ciji se centar krece po kruznici oko Zemlje), po kojima se
krecu planete u geocentricnoj teoriji, nije jasno sta bi mogao biti uzrok kre-
tanja, jer centri epicikala nisu bili vezani za neka zicka tela. U Kopernikovoj

You might also like