You are on page 1of 10

PITANJA NA "USMENOME" DIJELU ISPITA IZ KOLEGIJA VJEROJATNOST I STATISTIKA 12. Testiranje hipoteze o nepoznatoj aritmetikoj sredini.

Dvosmjerni i jednosmjerni testovi. Postavljaju se ove hipoteze: H 0 : ........ X = X 0 H1 : ........ X X 0 Interval prihvaanja hipoteze nulte hipoteze glasi: X 0 z Se( x ) Ako je veliina uzorka n 30, tada se upotrebljava "t" iz Studentove distribucije umjesto koeficijenta "z" iz normalne distribucije. Ako se aritmetika sredina uzorka nalazi u navedenome intervalu, prihvaamo hipotezu H0. Testiranje hipoteze o nepoznatoj aritmetikoj sredini osnovnoga skupa moe se postaviti i jednosmjerno. Pri testiranju na donju granicu postavlja se alternativna hipoteza da je aritmetika sredina osnovnoga skupa manja od neke pretpostavljene vrijednosti. Hipoteza H0 glasi da je aritmetika sredina osnovnoga skupa vea ili jednaka nekoj pretpostavljenoj vrijednosti. H 0 : ......... X X 0 H1 : ......... X X 0 DG = X 0 z Se( x) 13. Testiranje hipoteze o nepoznatoj proporciji (relativnoj frekvenciji). Dvosmjerni i jednosmjerni testovi. Testiranje hipoteze o nepoznatoj proporciji osnovnoga skupa vri se na slian nain kao i testiranje hipoteze o nepoznatoj aritmetikoj sredini osnovnoga skupa s obzirom na injenicu da su im sampling distribucije iste. H 0 : ...........P = P0 H 0 : ...........P P0 H1 : ...........P P0 H1 : ...........P > P0 Interval prihvaanja nulte hipoteze glasi: P0 z Se( p) DG i GG princio isti kao u i za aritmetiku sredinu. Ovo ne znam triba li: Testiranje hipoteze o razlici proporcija dvaju osnovnih skupova vri se na slian nain kao i testiranje hipoteze o razlici aritmetikih sredina dvaju osnovnih skupova. H 0 : ..........P = P2 1 H1 : ..........P P2 1

Interval prihvaanja nulte hipoteze glasi: 0 z Se( p1 p2 ) Se( p1 p2 ) = 1 1 p (1 p) ( + ) n1 n2


p=

m1 + m2 n1 + n2

14. Testiranje hipoteze o razlici aritmetikih sredina dvaju nezavisnih osnovnih skupova. Postavlja se nulta hipoteza da nema znaajne razlike izmeu aritmetikih sredina dviju nezavisnih populacija. Nezavisni uzorci potjeu iz razliitih populacija te meu njima ne postoji povezanost (korelacija). Ukoliko se na istome uzorku vre razliita mjerenja pod razliitim uvjetima, onda govorimo o zavisnim uzorcima. Kod zavisnih uzoraka postoji korelacija izmeu rezultata prije i poslije eksperimenta. Kod nezavisnih uzoraka standardna greka je vea negoli kod zavisnih. H 0 : ......... X 1 X 2 = 0 H1 : ......... X 1 X 2 0 Test-veliina je Studentov t-omjer. S porastom veliine uzorka sampling distribucija tei ka normalnome obliku pa se moe uporabiti i z-omjer. s2 s2 X 1 X 2 Se( x1 x 2 ) = 1 + 2 t = n1 n2 Se( x1 x 2 ) Zakljuci o statistikoj signifikantnosti donose se na osnovu greke tipa I. Pretpostavke su da uzorci potjeu iz normalnih populacija i da su im varijance jednake, meutim t-test je prilino robustan na neispunjavanje tih pretpostavki, naroito ako su uzorci istih veliina i ako su dovoljno veliki. Dakle, snaga testa je vea to je greka tipa II manja. Prema tomu, moe se zakljuiti da jednosmjerni testovi imaju veu snagu od dvosmjernih testova, pa ih je pod odreenim uvjetima bolje primjenjivati. Jednosmjerni test izgledao bi ovako: H 0 : ......... X 1 X 2 H1 : ......... X 1 < X 2 Jednosmjerni test moe se postaviti kao test na donju ili kao test na gornju granicu. Npr. ako kod dvosmjernoga testa dobijemo signifikantnost od 8%, to znai da nema signifikantne razlike u aritmetikim sredinama dviju nezavisnih populacija, a ako test postavimo jednosmjerno signifikantnost iznosi 4% to je statistiki signifikantno. 15. Testiranje hipoteze o razlici aritmetikih sredina dvaju zavisnih osnovnih skupova. Ovdje je nain postavljanja hipoteza i donoenja zakljuaka isti kao i kod i kod testiranja razlike sredina dviju nezavisnih populacija, ali je standardna greka drukija: Se( X 1 X 2 ) =
2 s12 s2 + 2 r1 , 2 Se( x1 ) Se( x 2 ) n1 n2

gdje r1,2 predstavlja Pearsonov koeficijent linearne korelacije izmeu dvaju mjerenja iste sluajne varijable na istome uzorku. to je jaa korelacija meu mjerenjima standardna greka je manja. Prema tomu, kod testiranja razlike aritmetikih sredina dviju zavisnih populacija lake se odbacuje nulta hipoteza negoli kod nezavisnih uzoraka. Za testiranje razlike izmeu dvaju zavisnih uzoraka moe se koristiti i Sign-test (test predznaka) Kod ovoga testa takoer testira se hipoteza da dvije varijable imaju istu distribuciju. Raunaju se razlike izmeu dviju varijabli za sve parove te se svrstavaju u pozitivne, negativne i jednake. Ukoliko su dvije varijable jednako distribuirane, onda broj pozitivnih i negativnih razlika ne e biti signifikantno razliit. Test-veliina takoer je z-omjer koji pripada normalnoj distribuciji.

16. Testiranje hipoteze o nezavisnosti obiljeja. Nulta hipoteza glasi da ne postoji zavisnost dvaju nominalnih odnosno kategorijalnih obiljeja. Hipoteze glase ovako: H 0 : ........Pij = Pi P j H1 : ........Pij Pi P j Test-veliina je sljedea: r c (m e ) 2 2 = ij ij eij i =1 j =1 mi . m. j n i j

eij =

mij = originalne frekvencije (empirijske), eij = oekivane (teorijske) frekvencije koje se izraunavaju pod pretpostavkom da ne postoji zavisnost dvaju obiljeja osnovnoga skupa. Navedena veliina usporeuje se s kritinom vrijednou Hi-kvadrata iz tablica. Broj stupnjeva slobode jednak je df = (r-1) (c-1), gdje oznaka r oznaava broj redaka, a oznaka c broj stupaca u tabeli kontingence. Ukoliko empirijska vrijednost Hi-kvadrata ne premai kritinu vrijednost Hi-kvadrata iz tablica, prihvaamo nultu hipotezu kao istinitu, tj. zakljuujemo da nema ovisnosti obiljeja elemenata osnovnog skupa. U drugom sluaju, ako vrijednost empirijskog Hi-kvadrata premai kritinu vrijednost prihvaamo alternativnu hipotezu, tj. zakljuujemo da postoji zavisnost dvaju obiljeja elemenata osnovnog skupa. Tabela iz koje se izraunava vrijednost Hi-kvadrata naziva se tabelom kontingence. 17. Testiranje hipoteze da distribucija ima neki odreeni oblik. Moe se testirati hipoteza da distribucija sluajne varijable X ima oblik neke teorijske distribucije. Ovdje e se pokazati testiranja da li distribucija ima oblik jednolike, binomne, Poissonove ili normalne distribucije. Kod svih testiranja test-veliina je vrijednost empirijskoga Hi-kvadrata:
k ( f f ti ) 2 2 = originalne frekvencije (iz distribucije uzorka), = i fi f i =1 ti

fti = teorijske frekvencije koje se izraunavaju pod pretpostavkom da distribucija ima oblik neke teorijske distribucije. Teorijske frekvencije za diskontinuirane (diskretne) sluajne varijable dobivaju se ovako: f ti = ( f i ) p ( xi )
i =1 k

Empirijska vrijednost Hi-kvadrata se usporeuje s kritinom vrijednou Hi-kvadrata iz tablica na odreenom nivou signifikantnosti testa i uz odreeni broj stupnjeva slobode df=. Broj stupnjeva slobode izraunava se na sljedei nain: - za jednoliku distribuciju df = k - 1 - za binomnu distribuciju df = k - 2 - za Poissonovu distribuciju df = k - 2 - za normalnu distribuciju df = k - 3 Veliina "k" predstavlja broj frekvencija. Ukoliko empirijska vrijednost Hi-kvadrata ne premai kritinu vrijednost iz tablica, prihvaamo hipotezu da empirijska distribucija ima pretpostavljeni oblik. Ukoliko je empirijska vrijednost Hi-kvadrata vea od kritine vrijednosti iz tablica, prihvaamo alternativnu hipotezu da distribucija nema pretpostavljeni oblik. 18. Analiza varijance s jednim i s dva promjenjiva faktora. Analiza varijance na osnovu rangova. (ovo je isjeak iz knjige, maknite to mislite da je nepotrebno :)
U svrhu ispitivanja djelovanja faktora A na vrijednost sluajne varijable X potrebito je uzeti onoliko uzoraka koliko ima varijacija faktora A (A1, A2, A3,....., Ak). Dakle, imamo k uzoraka od kojih svaki ima nj elemenata. Navedeni uzorci mogu, ali ne moraju imati isti broj elemenata. Ovo testiranje svodi se na testiranje znaajnosti razlike aritmetikih sredina vie osnovnih skupova (populacija), odnosno testiramo hipotezu da svi uzorci potjeu iz iste populacije. U postupku testiranja znaajnosti djelovanja promjenjivoga faktora A na sluajnu varijablu X postavljaju se sljedee hipoteze:
2 H 0 : ......... A = 0 2 H 1 : ......... A 0

Testiranje se vri F-testom. F-omjer predstavlja omjer varijance koja se pripisuje djelovanju promjenjivoga faktora A i varijance unutar uzoraka, koja nije uzrokovana djelovanjem promjenjivoga faktora A. Naime, unutar svakoga pojedinog uzorka djeluje samo jedna varijacija faktora A, tj. Ai. Pretpostavke za primjenu analize varijance s jednim promjenjivim faktorom su da uzorci potjeu iz normalnih populacija i da imaju jednake varijance. Meutim ti uvjeti ne moraju biti ispunjeni ako su uzorci jednake ili sline veliine i ako su populacije meusobno sline u odstupanju od normalne distribucije. Ocjene varijance dobivaju se iz odgovarajuih uzoraka na ije vrijednosti varijable X su djelovale varijacije faktora A.

Zbroj kvadrata ukupnih odstupanja vrijednosti varijable X od oekivane vrijednosti (aritmetike sredine) moe se ralaniti na sljedei nain:

( X
j =1 i =1

ij

X ) 2 = ( X ij X j ) 2 + n j ( X j X ) 2
j =1 i =1 j =1

(ukupno)

(unutar uzoraka)

(izmeu uzoraka)

Izraz s lijeve strane predstavlja ukupan zbroj kvadrata odstupanja vrijednosti sluajne varijable X od aritmetike sredine svih uzoraka. Prvi dio izraza s desne strane predstavlja zbroj kvadrata odstupanja vrijednosti varijable X od aritme-tike sredine unutar uzoraka. Drugi dio izraza s desne strane predstavlja zbroj kvadrata odstupanja aritmetikih sredina uzoraka od zajednike aritmetike sredine, odnosno zbroj kvadrata odstupanja izmeu uzoraka. Zbroj kvadrata odstupanja vrijednosti numerike varijable izmeu uzoraka predstavlja u stvari efekat djelovanja faktora A. Testiranje znaajnosti djelovanja faktora A na varijablu X moe se vriti F-testom. Kod F-omjera stavlja se u odnos ocjena varijance izmeu uzoraka (dakle varijanca koja se odnosi na djelovanje faktora A) i ocjena varijance unutar uzoraka:

F =

n
j =1 k

j n

( X j X ) 2 /(k 1) =
ij

( X
j =1 i =1

X j ) 2 /( n k )

2 sA 2 su

Empirijski F-omjer usporeuje se s tablinom vrijednou F-varijable koja se distribuira prema F distribuciji s (k-1) stupnjeva slobode u brojniku i (n-k) stupnjeva slobode u nazivniku. Ukoliko vrijednost empirijskoga (izraunatoga) F-omjera premai tablinu vrijednost za odreene stupnjeve slobode i nivo signifikantnosti testa , prihvaamo hipotezu da je djelovanje faktora A znaajno. U novije vrijeme za analizu varijance koriste se raunalni programi (statistiki paketi) koji daju precizno izraunatu signifikantnost testa umjesto da se ograniavamo na graninu vrijednost od 5%. Ukoliko je F > F( k 1; n k ) djelovanje faktora A je znaajno, odnosno ako je signifikantnost testa manja od 5% prihvaamo alternativnu hipotezu da je djelovanje faktora A statistiki znaajno. Ukoliko se prihvati hipoteza da svi uzorci potjeu iz iste populacije nas dalje ne zanimaju meusobne razlike pojedinih uzoraka. Meutim, ukoliko F-testom odbacimo nultu hipotezu moe nas zanimati razlika aritmetikih sredina izmeu pojedinih uzoraka. Ovdje nije dobro primjenjivati standardni t-test za pojedine grupe. Glavni razlog je u tome to se poveanjem broja t-omjera poveava i vjerojatnost da se pojave sluajno znaajni t-omjeri. Drugi razlog je to t-test vrijedi za sluajne uzorke. Ako iz niza aritmetikih sredina izaberemo najveu i najmanju pa njihovu razliku testiramo t-testom onda te dvije aritmetike sredine nisu izabrane po zakonu sluaja.

Dva faktora:
Na vrijednost neke sluajne varijable X moe djelovati vie od jednoga promjenjivog faktora. Ovdje e biti prikazano statistiko testiranje znaajnosti djelovanja dvaju promjenjivih faktora na vrijednost sluajne varijable X. Promjenjive faktore iji utjecaj testiramo nazovimo A i B. Analiza varijance s dva promjenjiva faktora takoer se svodi na hipotezu o razlici aritmetikih sredina vie osnovnih skupova, ali sada po dva razliita faktora koji djeluju na istu numeriku varijablu. Pretpostavke koje bi trebale biti ispunjene prigodom testiranja razlika u aritmetikim sredinama vrijede kao i kod analize varijance s jednim promjenjivim faktorom.

U postupku testiranja znaajnosti djelovanja varijacija u faktorima A i B postavljaju se sljedee hipoteze:


2 H 0 : ......... A = 0 2 H1 : ......... A 0

odnosno odnosno

2 H 0 : ......... B = 0 2 H1 : ......... B 0

Testiranje gornjih hipoteza vri se standardnim F-testom. Naime, omjer dviju varijanci uvijek pripada F-distribuciji s odreenim stupnjevima slobode u brojniku i nazivniku i uz odreenu signifikantnost . Dekompozicija ukupnoga zbroja kvadrata odstupanja varijable X od aritmetike sredine sada se moe prikazati ovako:

ukupan zbroj zbroj kvadrata zbroj kvadrata rezidualni = + + kvadrata izmedu redaka izmedu stupaca zbroj kvadrata

( X ij X ) 2 = ni ( X i X ) 2 + n j ( X j X ) 2 +
j =1 i =1 i =1 j =1

+ ( X ij X i X j + X ) 2
J =1 i =1

Testiranje znaajnosti djelovanja faktora A (testiranje varijabiliteta izmeu redaka):

F =

2 sA 2 sR

Navedeni empirijski F-omjer usporeuje se s kritinom vrijendou iz tablica F-distribucije s (c-1) stupnjeva slobode u brojniku i (n-k-c+1) stupnjeva slobode u nazivniku uz odreeni nivo signifikantnosti testa . Ukoliko empirijski F- omjer premai kritinu vrijednost iz tablica, zakljuujemo da je djelovanje faktora A na sluajnu varijablu X znaajno. Testiranje znaajnosti djelovanja faktora B:

F =

2 sB 2 sR

Navedeni F-omjer usporeuje se s kritinom vrijednou iz F-distribucije sa (k-1) stupnjeva slobode u brojniku i (n-k-c+1) stupnjeva slobode u nazivniku uz odreeni nivo znaajnosti . Ukoliko empirijska vrijednost F-omjera premai tablinu vrijednost, zakljuujemo da je djelovanje faktora B na sluajnu varijablu X znaajno. KRUSKAL-WALLIS TEST (ANALIZA VARIJANCE S JEDNIM PROMJENJIVIM FAKTOROM POMOU RANGOVA) U prethodnim testiranjima (1. i 2.) testirali smo jednakost aritmetikih sredina triju ili vie osnovnih skupova. U situaciji kada neki od uvjeta za provedbu tih testova nisu ispunjeni (npr. ako su uzorci uzeti iz populacija koje nisu normalno distribuirane ili nisu s jednakim varijancama ili kada se podatci za statistiku analizu sastoje samo od rangova) upotrebljavamo neparametrijski KruskalWallis test. Test veliina je ova:

k R2 12 H= j 3 (n + 1) , gdje su oznake sljedee: n( n + 1) j =1 n j

k = broj uzoraka, nj = veliina j-toga uzorka, n = veliina svih uzoraka zajedno. Rj = zbroj rangova u j-tome uzorku. Postupak testiranja provodi se ovim koracima: 1. Opservacije iz uzoraka n1, n2,....., nk iz k uzoraka kombiniraju se u jedinistveni niz veliine n i poredaju prema veliini od najmanjega prema najveemu. Zatim se opservacije zamjenjuju njihovim rangovima, poevi od 1, koji se daje najmanjoj opservaciji do n, koji se daje najveoj opservaciji. Ukoliko dvije opservacije imaju istu vrijednost, onda im se daje aritmetika sredina rangova (isto kao i kod raunanja Spearmanovoga koeficijenta korelacije ranga). 2. Rangovi koji su dodijeljeni opservacijama u svakoj od k grupa zbrajaju se posebno te dobivamo k suma rangova. 3. Izraunava se test statistika prema prije navedenoj formuli. 4. Ukoliko se radi o tri uzorka i pet ili manje opservacija, signifikantnost navedene test-veliine odreuje se iz posebnih tablica. Ukoliko ima vie od pet opservacija i jednome ili vie uzoraka, vrijednost H se usporeuje s tablinim vrijednostima 2 s k-1 stupnjeva slobode.

19. Linearna korelacija. Testiranje znaajnosti koeficijenta linearne korelacije. Pod pojmom korelacije podrazumijevamo meuzavisnost, odnosno povezanost sluajnih varijabli. Mjera stupnja podudarnosti (slaganja) sluajnih varijabli predstavlja mjeru korelacije. Korelacija moe biti pozitivna i negativna po smjeru. Pozitivna korelacija je onda kada rast jedne varijable prati rast druge varijable, odnosno pad jedne varijable prati pad druge. Negativna korelacija znai da rast jedne varijable prati pad druge varijable. Ukoliko je korelacija potpuna, radi se o funkcionalnoj povezanosti varijabli. Tada se vrijednost jedne sluajne varijable moe se s potpunom sigurnou odrediti pomou vrijednosti druge varijable. Ukoliko je korelacija djelomina, govorimo o stohastikoj ili statistikoj vezi. Najvanija mjera linearne korelacije meu sluajnim varijablama naziva se Pearsonov koeficijent linearne korelacije. Primjenjuje se na omjerne i intervalne skale mjerenja (numerike varijable). Pretpostavka za njegovu primjenu je da su obje sluajne varijable normalno distribuirane. Meutim, ako varijable X i Y nisu normalno distribuirane svejedno se moe primijeniti Pearsonov koeficijent linearne korelacije ako je broj parova dovoljno velik.

r=

( X X ) (Y Y )
i= 1 i i

( X X ) (Y Y )
2 i= 1 i i= 1 i

r=

X
i =1

Yi n X Y

n x y

Izraz u brojniku podijeljen s n naziva se kovarijancom, ili prvim mjeovitim momentom oko vrijednosti aritmetikih sredina sluajnih varijabli X i Y. Testiranje znaajnosti koeficijenta linearne korelacije provodi se t-testom: H 0 : ......r = 0 H1 : .......r 0 Ukoliko je koeficijent linearne korelacije osnovnoga skupa jednak nuli, onda sampling distribucija koeficijenata linearne korelacije tei normalnome obliku ako broj parova vrijednosti sluajnih varijabli X i Y tei k beskonanosti. Ukoliko je broj parova mali (n < 30) moe se koristiti Studentova distribucija. Test veliina je ova:
t =
*

Se(r )

Za velike uzorke standardna greka rauna se ovako: 1 Se(r ) = n 1 dok se za male uzorke izraunava ovako:

Se(r ) =

1 r n2

Zakljuak o statistikoj znaajnosti izvodi se kao i kod ostalih testova. Ako je signifikantnost testa manja od 5% onda se prihvaa alternativna hipoteza, odnosno koeficijent linearne korelacije je statistiki znaajan. Kao i kod ostalih testova koji koriste ttest, moe se takoer provesti i jednosmjerno testiranje ukoliko a priori znamo predznak koeficijenta linearne korelacije a potrebno je samo testirati njegovu statistiku znaajnost. Jednosmjerno testiranje ide u korist alternativne hipoteze jer je za njeno prihvaanje potrebita upola manja signifikantnost negoli kod dvosmjernoga testa. Jednosmjerni testovi imaju veu snagu. VANA NAPOMENA: Kod koeficijenta korelacije treba gledati i njegovu praktinu znaajnost, a ne samo statistiku znaajnost. 20. Korelacija ranga. Testiranje znaajnosti koeficijenta korelacije ranga. Od svih koeficijenata koji koriste rangove umjesto originalnih vrijednosti najvie u uporabi je Spearmanov koeficijent korelacije ranga. Njegova vrijednost kree se u istome rasponu kao i koeficijent linearne korelacije. Najee se koristi za mjerenje korelacije izmeu redosljednih obiljeja ili obiljeja ranga, ali se moe koristiti i kod numerikih varijabli ukoliko nisu zadovoljene pretpostavke za primjenu Pearsonovoga koeficijenta linearne korelacije. U tome sluaju ne koriste se numerike vrijednosti varijabli X i Y nego njihovi rangovi. Rauna se ovako:
rs = 1 6 di2 n3 n
i =1 n

Spearmanov koeficijent korelacije ranga spada u neparametrijsku statistiku te samim time ima slabiju snagu negoli Pearsonov koeficijent linearne korelacije. Znaajnost Spearmanovoga koeficijenta korelacije ranga testira se na isti nain kao i Pearsonovoga koeficijenta linearne korelacije. 21. Linearna regresija. (ovde ima vika, ne znam to tono treba) Za razliku od korelacijske analize, kod regresijske analize treba odrediti koja varijabla e biti regresand (zavisna) varijabla. Nezavisne varijable u modelu obino se nazivaju regresorskim varijablama. U velikom broju primjena veza izmeu varijabli je linearna, ali postoje takoer i sluajevi nelinearne regresije. Dakle, trebamo odabrati matematiku funkciju koja e najbolje aproksimirati vezu meu varijablama. Ako imamo jednu zavisnu i jednu nezavisnu varijablu onda se radi o jednostrukoj regresiji, a ako imamo vie nezavisnih varijabli onda govorimo o viestrukoj (multiploj regresiji). Regresijski model izgleda ovako:

Y = 0 + 1 X + e

U gornjemu modelu Y je regresand (zavisna) varijabla, X je regresorska (nezavisna) varijabla, e je sluajna grjeka, dok su populacijski regresijski parametri (koeficijenti). Zadaa regresijske analize je ocijeniti regresijske parametre na osnovu uzorka. Pri tomu sluajna grjeka e mora udovoljavati odreenim uvjetima (tzv. Gauss-Markovljevi uvjeti). Prvi uvjet:

E (e) = 0 i

To znai da je oekivana vrijednost sluajne grjeke jednaka nuli. Sluajna grjeka je as pozitivna, as negativna, ali ne smije imati nikakvo sistematsko kretanje u bilo kojemu smjeru. Ako se radi s konstantnim lanom, onda je gornji uvjet ispunjen automatski jer imamo:

(Yi Y i ) = 0
i =1

Iz ovoga slijedi da je zbroj originalnih vrijednosti varijable Y jednak zbroju oekivanih (po regresiji) vrijednosti varijable Y. Drugi uvjet:

E (ei , e j ) = e2 < + za i = j
Radi se o uvjetu da varijanca reziduala bude konana i vrsta, tj. da se ne mijenja od opservacije do opservacije. Taj uvjet naziva se esto uvjetom homoskedastinosti varijance reziduala. Ukoliko taj uvjet nije ispunjen radi se o tzv. heteroskedastinosti reziduala. U tome sluaju varijanca moe sustavno kovarirati s regresorskom varijablom. Ukoliko ovaj uvjet nije ispunjen ocjena parametara standardnom metodom najmanjih kvadrata bit e neefikasna.

Trei uvjet:

E (ei , e j ) = 0 (i j)

odnosno Cov (ei , e j ) = 0 (i j).


Ovaj uvjet se odnosi na nepostojanje sustavnosti u sluajnim grjekama. Naime, ako je grjeka doista sluajna ne smije postojati nikakva korelacija izmeu vrijednosti varijable e s pomakom. Ukoliko ovaj uvjet nije ispunjen, standardna metoda najmanjih kvadrata dat e neefikasne ocjene. etvrti uvjet: Sluajna varijabla mora biti distribuirana nezavisno od regresorske (eksplanatorne) varijable:

E (e i , X i ) = 0

Kao dodatak gornjim uvjetima jo je vano napomenuti da sluajna varijabla mora biti distribuirana po normalnoj distribuciji,

N (0; e2 )

You might also like