You are on page 1of 32

STATISTIKA

POPULACIJA I UZORCI
Populaciju ine svi lanovi neke skupine sa odreenom karakteristikom koju elimo
mjeriti. Npr. da elimo saznati prosjeni IQ stanovnika Hrvatske, populaciju nam ine svi
stanovnici, a karakteristika je u ovom sluaju IQ. Mjerenje na cijeloj populaciji je
najpreciznije, ali u sluaju da je populacija velika (4.5 milijuna stanovnika Hrvatske) ili da
je proces mjerenja takav da nam mijenja populaciju (provjeravanjem ispravnosti svih
automobila crash-testom unitili bismo cijelu populaciju) to nije nuno praktino ili
izvedivo. Zato se najee mjerenja vre na ogranienom broju lanova skupine koji
nazivamo uzorak.
Statistiki podatci koje dobijemo mjerenjem karakteristika uzorka nam predstavljaju
procjenu rezultata koji bi smo dobili na cijeloj populaciji - dakle uzorak je praktiniji, ali
manje precizan. Glavni faktori kod biranja uzorka su reprezentativnost i veliina uzorka.
Uzorak je samo dio populacije, to znai da moramo biti paljivi pri uzimanju uzorka kako
zbog loeg odabira lanova samog uzorka ne bi dolo do pogrenih zakljuaka. Dakle
uzorak mora vjerno reprezentirati populaciju. Veliina uzorka nam je vana zbog
kompliciranosti mjerenja (elimo to manji uzorak kako bi istraivanje bilo to jeftinije i
jednostavnije), a sa druge strane uzorak ne smije biti premali inae e dolaziti do
prevelike greke u mjerenju (veliina uzorka najvie ovisi o toleranciji greke koju si
moemo dopustiti, s tim da se obino doputa do 5% greke).
Postoji vie naina biranja uzoraka, s tim da od naina ovisi reprezentativnost:
1. Sluajni uzorak - kod sluajnog uzorka vano je da svaki lan populacije ima
jednaku vjerojatnost da bude izabran u uzorak. Da bi se dobio sluajni uzorak
moramo koristiti metodu izbora koja potpuno iskljuuje mogunost da neki od
lanova dobiju veu vjerojatnost izbora. Npr. uzimanje uzorka samo od ljudi iz
telefonskog imenika je pristrano zato jer smo zanemarili sve ljude koji nemaju
telefon ili ga nisu stavili u telefonski imenik. Najbolje je koristiti generator sluajnih
brojeva u sprezi sa popisom cijele populacije.
2. Sistematski uzorak - moe biti jednako reprezentativan kao i sluajni uzorak.
Moramo imati popis svih lanova populacije koji je posloen na nain da ne unosi
pristranost (npr. popis ljudi po abecedi je dobar). Nakon toga odaberemo neki
sistem po kojemu odabiremo lanove (npr. prvog lana uzmemo sluajno, a nakon
toga uzimamo svakog desetog), to e dati slian efekt kao i sluajni uzorak ako je
lista bila dobra.
3. Stratificirani uzorak - populaciju podijelimo u grupe (stratume) prema nekim
karakteristikama (npr. po starosnoj skupini), te zatim iz svakog stratuma uzmemo
sluajni uzorak. Ova metoda moe dati reprezentativniji uzorak od obinog
sluajnog uzorka i esto se koristi. Veliina uzorka iz pojedinih stratuma ovisi o
tome kolika je veliina stratuma u odnosu na ukupnu populaciju (npr. ako ima u
populaciji ima 60% ena, a 40% mukaraca onda se uzorak mora sastojati od 60%
ena i 40% mukaraca), no ovisi nam i o nekim drugim faktorima (npr. ako
ustanovimo da stratum A od 1000 lanova ima st.dev. 5, a stratum B od 100
lanova ima st.dev. 20, onda je omjer 1000*5 : 100*20 = 5 : 2).
4. Klaster uzorak - je donekle slian stratificiranom uzorku, ali je manje
reprezentativan. Populaciju dijelimo u klastere i nakon toga sluajnim odabirom
uzimamo odreeni broj klastera iz kojih onda uzimamo sve lanove u uzorak.

Primjer: podijelimo grad u etvrti i nakon toga sluajno odaberemo nekoliko etvrti
u kojima sve stanovnike ispitamo o njihovom miljenju o gradskoj upravi.
5. Kvotni uzorak - takoer slian stratificiranom uzorku, ali jo manje precizan.
Ustvari radi se o biranju nesluajnih stratuma, zato jer se prema nekim prethodnim
informacijama (npr. pretpostavka da je jednako mukaraca i ena u nekoj
populaciji) unaprijed odreuje koliko je e biti velik uzorak ljudi koji se uzima iz
pojedinog stratuma.
6. Prigodni uzorak - uzorak koji nam se nae pri ruci :) moe biti izuzetno pristran,
no moe biti i nepristran ukoliko nam zavisna varijabla ne ovisi o faktorima koji se
pojavljuju u uzorku. Npr. izrazito pristrano bi bilo zakljuivati o postotku
"normalnih" ljudi meu tienicima psihijatrijske ustanove, no isti uzorak bi mogao
dati nepristrane rezultate ako bismo npr. testirali njihove motorike sposobnosti.
Prigodni uzorci se esto koriste u istraivanjima zbog izrazite praktinosti, no
potrebno je znati to radite!
Veliina uzorka ovisi primarno o tome koliko precizno mjerenje elimo, dok je ovisnost o
veliini populacije neznatna. Takoer ovisno o sluaju veliiinu uzorka moe biti prilino
komplicirano raunati, ovdje je naveden samo najjednostavniji raun. Dakle uzorak od
100 ljudi podjednako e dobro funkcionirati za populaciju od 1000 ljudi i za milijun ljudi,
no veliina uzorka je obrnuto proporcionalna sa kvadratom greke i moe se raunati
pomou formule n = ^2/d^2, gdje je n veliina uzorka, d je pogreka, je standardna
devijacija. Obino se uzima =1,96 (podruje u kojem je 95% vjerojatnost da e se
pojava desiti) pa nam u osnovi varira samo greka. Npr. za pogreku od 4% potreban nam
je uzorak od 600 lanova.
Da li su uzorci zavisni (parni) ili nezavisni (neparni)?
Openito, kad god je ispitanik u jednoj skupini povezan s ispitanikom u drugoj skupini,
govorimo o parnim uzorcima.
Primjerice, u istraivanju majki i keri, uzorci su upareni, majka sa svojom kerkom.
Ispitanici u dva uzorka nisu nezavisni jedni od drugih. Za nezavisne uzorke je vjerojatnost
da lan populacije bude odabran kao uzorak potpuno neovisna o bilo kojem drugom
odabranom lanu, bilo da se radi o skupini tog lana ili nekoj drugoj skupini u istraivanju
(7).
Parni se podaci mogu definirati kao vrijednosti koje se obino mjere u parovima i stoga se
moe oekivati da one vie variraju izmeu parova, nego izmeu ispitanika unutar para.
Ukoliko nisu postignuti ti uvjeti, u tom sluaju govorimo o neuparenim ili nezavisnim
uzorcima.
Zato je to vano? Postoje mnogi statistiki testovi koji imaju razliite verzije ukoliko se
radi o parnim, odnosno neparnim uzorcima te imaju razliit matematiki pristup koji moe
dovesti do razliitih rezultata. Primjerice, dobro poznati statistiki test t-test koji se
primjenjuje za usporedbu srednje vrijednosti izmeu dva uzorka, ima razliite verzije za
parne/neparne uzorke: t-test z
a parne (zavisne) uzorke i t-test za neparne uzorke.
Stoga je odabir t-testa za parne uzorke (zavisne) umjesto onog za neparne (nezavisne)
pogreka koja moe dovesti do krivih rezultata/zakljuaka u procesu statistikog
zakljuivanja iz premise.
Test za parne uzorke moramo odabrati u sluaju kada pokus slijedi jedan od ovih ustroja
(7):
kada mjerimo varijable prije i poslije intervencije kod svakog ispitanika;
kada odabiremo ispitanike kao parove, uparene prema varijablama kao to su npr. dob,
etnika skupina ili stupanj ozbiljnosti bolesti; jedan od parova bude lijeen na jedan nain;
a drugi par na alternativni nain;
2

izvodimo laboratorijski pokus nekoliko puta, svaki puta s kontrolnim i ispitivanim uzorkom
u duplikatu;
mjerimo varijablu ishoda kod parova dijete/roditelj (ili bilo kojem slinom paru).
Openito govorei, kad god oekujemo da e nam vrijednost u jednom uzorku biti blia
odreenoj vrijednosti u drugom uzorku, nego to bi bila kod sluajno odabrane vrijednosti
u drugom uzorku, moramo odabrati test za uparene podatke. U drugom sluaju
odabiremo test za nezavisne uzorke.

TIPOVI PODATAKA I SKALE MJERENJA


Ovisno o tome kakva se pojava mjeri dobit emo podatke odreenog tipa. Ovisno o tipu
podataka moi emo primijeniti neke statistike metode, no ne moemo bilo koju
statistiku metodu koristiti nad bilo kojim tipom podataka. Za neke podatke imati emo
bogatiji set metoda na raspolaganju, a za neke e nam biti dostupne samo osnovne.
Poanta je da treba znati koje metode smijemo koristiti za koje podatke, inae emo dobiti
besmislene rezultate. Razliite tipove podataka opisuju skale mjerenja:
1. Nominalna skala - odreenim stvarima moemo pridruiti broj koji im slui kao
oznaka (npr. muko = 1, ensko = 2), tako da odreenu pojavu moemo samo
brojati. Ovakvim podatcima moemo odrediti dominantnu vrijednost, moemo
raditi ^2-test, te dobiti koeficijent kontigencije C (iz tablice kontigencije,
skupa s jo nekim koeficijentima).
2. Ordinalna skala - ovakve podatke moemo poredati, tj. moemo odrediti da li je
odreena pojava vea ili manja na toj skali, ali razlike izmeu pojedinih jedinica
skale nisu jednake. Tipian primjer su kolske ocjene (znate da je 3 vee od 2, ali
razlike od 1 do 2 i od 2 do 3 nisu iste). Uz metode pod 1. moemo odreivati
centralnu vrijednost (medijan), koeficijente korelacije i , te koeficijent
konkordancije W.
3. Intervalna skala - za ovakve podatke znamo slijed, ali i razliku izmeu brojeva na
skali koja je jednaka na svakom dijelu skale. Ono to nemamo je apsolutna nula, tj.
nemamo neke nulte vrijednosti od koje skala kree. Npr. takva skala je Celzijeva
skala za temperaturu, gdje ne moemo rei da je temperatura od 100C dva puta
vee od 50C, ali znamo da je prijelaz sa 50 na 51C jednak kao i sa 100 na 101C.
Uz metode iz 1. i 2. za ovakve podatke moemo raunati aritmetiku sredinu,
standardnu devijaciju, z-vrijednost, koeficijent korelacije r (ukljuujui i
parcijalnu i multiplu korelaciju).
4. Omjerna skala - slino kao i intervalna skala, ali ima i apsolutnu nulu, to znai
da jednaki brojani odnosi (omjeri) znae i jednako odnose u mjerenoj pojavi.
Primjeri ovakvih podataka su pr. teina, visina, temperatura u stupnjevima Kelvina
itd. Uz sve prije navedene metode moemo odrediti i geometrijsku sredinu i
koeficijent varijabilnosti.

TIPOVI PODATAKA I RASPODJELA


Kvantitativni (numeriki) podaci mogu biti:
1. Diskretni (diskontinuirani) numeriki podaci, samo u sluaju ako postoji konaan
broj moguih vrijednosti ili ako postoji prostor na brojevnom pravcu izmeu svake dvije
mogue vrijednosti (npr. iitavanje vrijednosti sa zastarjelog ivinog termometra).
2. Kontinuirani podaci ine ostatak numerikih podataka koji se ne mogu smatrati
diskretnima. To su tipovi podataka koji se obino povezuju s nekom vrstom naprednog
mjerenja na instrumentima prema razvojnom stupnju struke.
Ono to je vanije jest da se podaci mogu mjeriti intervalnom ljestvicom ili onom omjernom.
Za samu statistiku analizu razlika izmeu te dvije ljestvice mjerenja nije vana.
3

1. Intervalna mjerna ljestvica - podaci izraeni ovom mjernom ljestvicom nemaju


apsolutnu nulu i ne moemo rei da je dvostruko vea brojana vrijednost za ista dva puta
vea. Primjerice, iako vrijednosti temperature izmjerene na Celzijusovoj ljestvici imaju
jednake intervale izmeu stupnjeva, 0C nije apsolutna nula. Nula na Celzijusovoj ljestvici
oznaava toku ledita vode, no ne i totalnu odsutnost temperature. Nema smisla rei da je
temperatura od 10C dvostruko toplija 5C.
2. Omjerna mjerna ljestvica - podaci izraeni omjernom mjernom ljestvicom imaju
apsolutnu nulu. Na primjer, prilikom mjerenja duljine, nula predstavlja odsutnost duljine, a
10 metara je dvostruko dulje od 5 metara.
Oba tipa podataka (i intervalni i omjerni) mogu se koristiti u parametrijskim testovima.
Kvalitativni (kategoriki) podaci mogu biti:
1. Binarni
(logiki)
podaci

osnovni
tip
kategorikih
podataka
(npr.
pozitivno/negativno; prisutno/odsutno itd.).
2. Nominalni podaci - kod kompleksnijih kategorikih podata, prvu (i najslabiju) razinu
podataka predstavljaju nominalni podaci. Podaci nominalne razine dobiju se iz vrijednosti
koje se razlikuju samo po nazivu. Ne postoji neka standardna shema poretka (npr.
rumunjska, maarska, hrvatska skupina ljudi itd.).
3. Ordinalni (uredbeni) podaci - slini su nominalnim podacima u tome da se podaci
razlikuju prema nazivu, a od nominalnih podataka ih razlikuje shema stupnjevanja (npr.
povremeni puai, umjereni i teki puai)
VRSTA OBILJEJA

MJERENJE OBILJEJA (MJERNA LJESTVICA)

KVALITATIVNO
(KATEGORIKO)

NOMINALNA
- opisna
- brojevi, slova
- pokazatelji razvrstani u skupine
- rase
- spol
ORDINALNA
- uredbena
- brojevi
- pokazatelji imaju obavijesnu vrijednost
- ocjene u koli
- klasifikacije bolesti (CIN I, CIN II, CIN III)
OMJERNA

KVANTITATIVNO
(NUMERIKO)

KONTINUIRANA
DISKRETNA

INTERVALNA

OSNOVNE ZNAAJKE SKUPINE


Mjere centralne tendencije

aritmetika sredina
medijan (centralna vrijednost)
mod (dominantna vrijednost)
Mjere varijabilnosti
raspon
standardna devijacija
koeficijent varijacije

ARITMETIKA SREDINA
aritmetika sredina =suma svih rezultata / broj rezultata
prosjek, teite rezultata
zajednika aritmetika sredina !

MEDIJAN (CENTRALNA VRIJEDNOST)


Vrijednost koja se u nizu rezultata nalazi tono u sredini; poloajna mjera (ne
raunamo ju)
dijeli skup podataka na dva jednaka dijela
toka od koje je najmanja suma svih odstupanja

poloaj medijana =(N + 1) /2

(61 + 1)/2= 31

N paran broj -> medijan je aritmetika sredina dva srednja rezultata

MOD (DOMINANTNA VRIJEDNOST)


najea vrijednost u nekom nizu podataka

ako su rezultati grupirani u razrede -> mod je aritmetika sredina razreda s najveom
frekvencijom

RASPON
razlika izmeu maksimuma i minimuma

najnetonija mjera varijabilnosti

raspon -> 357 90 = 267

STANDARDNA DEVIJACIJA (S)


varijanca = s2
oznaava prosjeno odstupanje od aritmetike sredine
smije se raunati samo uz aritmetiku sredinu !

KOEFICIJENT VARIJACIJE (KV)


oznaava koliki postotak od aritmetike sredine iznosi standardna devijacija
slui za meusobnu usporedbu varijabilnosti razliitih svojstava

STANDARDNA POGREKA ARITMETIKE SREDINE (SE, SEM)


koliko je precizna procjena prave aritmetike sredine iz aritmetike sredine uzorka ?
standardna greka je to manja to je manja standardna devijacija uzorka i vei broj
mjerenja (N)
oznaava odstupanje aritmetikih sredina uzoraka od prave aritmetike sredine
populacije
procjena! (pravu ne znamo)

PAZITI !!

s SE

mjera varijabilnosti uzorka

ne opisuje uzorak nego kvantificira


preciznost procjene aritmetike sredine

NORMALNA (GAUSSOVA) RASPODJELA

OSNOVNE ZNAAJKE NORMALNE RASPODJELE


zvonolika
simetrina s obzirom na aritmetiku sredinu
asimptota (nikada ne dodiruje os x; nema gornje i donje granice)
kontinuirana je (opisuje mnoge sluajne procese)
potpuno definirana aritmetikim sredinom i standardnom devijacijom
Primjer: visina, teina, antropometrijske osobine

ZATO TESTIRATI RASPODJELU NA NORMALNOST ?


bolji uvid u podatke
uvjetuje izbor statistikog testa
Normalna raspodjela -> aritmetika sredina SD
Ne-normalne raspodjela -> medijan, raspon
(i varijanca uvjetuje izbor testa !!!)
uvjetuje izbor mjere centralne tendencije i mjere varijabilnosti

Normalna raspodjela -> parametrijski testovi


Ne-normalne raspodjela -> neparametrijski testovi
KAKO TESTIRATI RASPODJELU NA NORMALNOST ?
runo
Kolmogorov-Smirnov, Shapiro-Wilk i dr
testira znaajnost razlike teoretske i empirijske raspodjele
Nul-hipoteza = nema razlike
P < 0.05 -> empirijska raspodjela nije normalna
P > 0.05 -> empirijska raspodjela je normalna
VRSTA RASPODJELE I VARIJANCA UVJETUJU IZBOR STATISTIKOG TESTA !!!

STATISTIKI TESTOVI
Statistiki test je postupak pomou kojeg se dolazi do odluke o prihvaanju ili
odbacivanju statistike hipoteze uz odreenu vjerojatnost

VRSTE TESTOVA (PARAMETRIJSKI I NEPARAMETRIJSKI)


Razlikujemo parametrijske i neparametrijske statistike testove.
Parametrijski statistiki testovi su testovi koji, da bi se smjeli primijeniti u
statistikom testiranju, postavljaju zahtjeve na distribuciju izvornih podataka.
Neparametrijski testovi ne postavljaju takav tip zahtjeva, premda i oni pretpostavljaju
odreene uvjete pod kojima ih se smije primijeniti. Neparametrijske testove esto zovu
jo i testovima nezavisnim o distribucijama podataka (engl. distribution free tests).
Neparametrijski testovi koriste se kod malih uzoraka, kada je nemogue odrediti
distribuciju podataka ili kada je primjenjena kategorijska skala mjerenja. Imaju manju
snagu otkrivanja stvarnog efekta u odnosu na ekvivalentni parametrijski test.
Koji statistiki test e se primijeniti u analizi prikupljenih podataka ovisi o dizajnu studije,
tipu varijable koja se testira te o raspodjeli koju slijede istraivani podaci.
NEKI NAJEE UPOTREBLJAVANI STATISTIKI TESTOVI RAZLIKE
PARAMETRIJSKI TESTOVI
Studentov ili
t-test za nezavisne uzorke

NEPRAMETRIJSKI
TESTOVI
Mann-Whitney U-test
Wald-Wolfowitz test

t-test diferencija ili


t-test za zavisne uzorke

Wilcoxon test sume


rangova

Jednosmjerna analiza varijance


(F-test, ANOVA)

Kruskall-Wallis analiza
varijance rangova (Htest)
Medijan test

SVRHA TESTA
Usporedba dva
nezavisna uzorka koji su
uzeti iz iste populacije
Usporedba dva seta
opaanja na istom
uzorku
Usporedba vie od dva
nezavisna uzorka koji su
uzeti iz iste populacije

Analiza varijance s ponavljanim


mjerenjima

Freedmanova analiza
varijance
Kendall's W-test
Cochran's Q-test

Usporedba vie od dva


seta opaanja na istom
uzorku

Ovisno o vrsti raspodjele, odabiremo parametrijske, odnosno neparametrijske testove.


Trebamo imati na umu da mnogi statistiki testovi (npr. t-test, ANOVA i njene varijante) a
priori pretpostavljaju da podaci uzorkovani iz populacije slijede Gaussovu
(normalnu/zvonoliku) raspodjelu. Testovi koji slijede tu pretpostavku nazivaju se
parametrijskim testovima, a njima se bavi parametrijska statistika (4).
Parametrijska statistika pretpostavlja da podaci slijede jedan tip raspodjele
vjerojatnosti (npr. normalnu raspodjelu) i donosi zakljuke o parametrima
raspodjele. Meutim, kod mnogih populacija, kao i kod biolokih podataka, podaci ne
slijede precizno Gaussovu raspodjelu. Gaussova se raspodjela iri u beskonanost u oba
smjera te tako ukljuuje i beskonano negativne kao i beskonano pozitivne brojeve, a
bioloki podaci su esto po svojoj prirodi ogranieni u stupnjevanju. No, mnogi bioloki
podaci ipak slijede zvonoliku raspodjelu koja slii Gaussovoj raspodjeli.
Stoga e ANOVA testovi, t-testovi i ostali statistiki testovi ispravno ispitivati ak i u
sluaju da je raspodjela samo priblina Gaussovoj (posebno kod velikih uzoraka, npr. >
100 ispitanika) i ti se testovi rutinski primjenjuju na mnogim poljima znanstvenog
istraivanja.
No u nekim situacijama, primjerice kada imamo mali uzorak (npr. < 10 ispitanika) ili kada
kao varijablu rezultata imamo medicinski rezultat (npr. Apgar rezultat), primjena takvog
testa, koji pretpostavlja da populacija slijedi normalnu raspodjelu, bez odgovarajueg
znanja o tom fenomenu, mogla bi rezultirati P vrijednou koja bi navodila na pogrean
zakljuak.
Iz tog razloga, druga grana statistike, neparametrijska statistika, nudi metode i testove
nezavisne o raspodjeli podataka, koji se ne oslanjaju na pretpostavku da su podaci uzeti iz
dte raspodjele vjerojatnosti (u naem sluaju je to normalna raspodjela). Takvi se testovi
nazivaju neparametrijski statistiki testovi (4). Trebamo zapamtiti da gotovo svaki
parametrijski statistiki test ima odgovarajuu neparametrijsku inaicu.
Jedna od vjerojatno najteih odluka tijekom statistikog protokola je koji test odabrati:
parametrijski ili neparametrijski. Pitanje koje si moemo postaviti je: ako se
neparametrijski testovi ne oslanjaju na pretpostavku da podaci koje obrauju slijede
normalnu raspodjelu, zato ne primijeniti samo one tipove testova s kojima bi izbjegli
pogreku?
Kako bi razumjeli razliku izmeu tih dvaju tipa testova moramo razumjeti daljnja dva
osnovna statistika koncepta: robusnost (engl. robustness) i snaga statistikog testa
(engl. power).
Robusni test se moe upotrijebiti ak i kada neke od pretpostavki za izvoenje testa nisu
zadovoljene. Neparametrijski testovi su robusniji od svojih parametrijskih inaica,
primjerice mogu obraditi vrlo male uzorke, gdje su podaci daleko od normalne raspodjele.
Snaga statistikog testa je vjerojatnost da e taj test odbaciti nultu hipotezu, ako je
alternativna hipoteza istinita (npr. da se nee napraviti pogreka tipa II). Kao to je
autorica Ilakovac (6) prethodno detaljno opisala, pogreka tipa II je takoer poznata pod
nazivom pogreka druge vrste, pogreka ili lano negativna, a definira se kao pogreka
neiskljuivanja nulte hipoteze u sluaju kada je ona zaista neistinita. S pojaanjem snage
statistikog testa, opada vjerojatnost pogreke tipa II. Neparametrijski testovi su esto
robusniji, no obino imaju manju snagu testa. Drugim rijeima, kod velikih uzorka moe biti
potrebno da se donose zakljuci s istim stupnjem pouzdanosti (7).

KADA MOEMO PRIMIJENITI ODGOVARAJUI NEPARAMETRIJSKI TEST?


Neparametrijski test trebamo zasigurno primijeniti u situacijama kao to su ove (7):

Ako je varijabla ishoda ordinalan podatak ili rezultat s manje od dvanaestak


kategorija (npr. Apgar rezultat). Jasno je da u tim sluajevima uzorak iz populacije
ne moe slijediti Gaussovu raspodjelu.
Ako je uzorak premalen (< 10);
Ako je nekoliko vrijednosti van ljestvice, previsoke ili preniske da bi se mjerile
specijalnom mjernom tehnikom. Iako uzorak iz populacije slijedi normalnu
raspodjelu, njegove podatke nije mogue analizirati parametrijskim testom (npr. ttestom ili ANOVA testom). Neparametrijski test se kod ove vrste podataka
jednostavno moe primjeniti, jer se nee oslanjati na pretpostavke da podaci
slijede normalnu raspodjelu. Neparametrijski testovi biljee izvorne podatke kao
ordinalne podake. Izuzetno niskim i izuzetno visokim vrijednostima dodijele se
vrijednosti stupnja i na taj se nain nee naruiti analiza, kao to bi to bio sluaj
kod primjene izvornih podataka s ekstremnim vrijednostima. U tom sluaju nee
biti vano da neke vrijednosti nisu bile precizno izmjerene.
Ako imamo dovoljno statistike pouzdanosti da je populacija daleko od one iji
podaci slijede normalnu raspodjelu. Mnotvo testova koji ispituju normalnost
raspodjele moe ispitati prate li podaci iz uzorka normalnu raspodjelu.
Testovi za ispitivanje normalnosti raspodjele primjenjuju se za odreivanje jesu li skupovi
podataka dobro organizirani normalnom raspodjelom. Drugim rijeima, kod ispitivanja
statistike hipoteze, ti e testovi ispitati podatke prema nultoj hipotezi da se vidi slijede li
oni normalnu raspodjelu.
Najei primjeri takvih testova su:
1. DAgostino-Pearsonov test normalnosti raspodjele koji izraunava iskoenost
(engl. skewness) i spljotenost (engl. kurtosis), kako bi izrazio koliko su podaci udaljeni od
normalne raspodjele po pitanju asimetrije i oblika. Nadalje, on izraunava koliko se svaka
od tih vrijednosti razlikuje od vrijednosti koja je oekivana u sluaju normalne raspodjele,
te rauna P vrijednost iz zbroja tih odstupanja. Taj je test normalnosti raspodjele
viestruko upotrebljiv te ima veliku snagu (u usporedbi s nekim drugim testovima) pa ga
stoga preporuuju neke suvremene statistike knjige.
2. Kolmogorov-Smirnovljev test normalnosti raspodjele, koji se prije esto
upotrebljavao, usporeuje kumulativnu raspodjelu podataka s oekivanom kumulativnom
normalnom raspodjelom, a P vrijednost mu se temelji na najveoj vrijednosti odstupanja,
to ba i nije najosjetljiviji nain da se procjeni normalnost raspodjele, stoga se smatra
staromodnim.
The Kolmogorov-Smirnov test is used to test for 'goodness of fit' between a sample
distribution and another distribution, which often is the Normal (bell-shaped) distribution.
The test compares the set of scores in the sample to a normally distribute set of scores
with with the same mean and standard deviation.
3. pored ova tritesta postoji zaista velik broj ostalih testova koji ispituju normalnost
raspodjele, kao to su: Jarque-Beratest, Anderson-Darlingovtest, Cramr-vonMisesovt est, Lillieforsov test normalnosti (adaptacija Kolmogorov-Smirnovljevog
testa), Shapiro-Wilkinsonov test, ShapiroFrancia test normalnosti itd.).
Primjena testova za ispitivanje normalnosti raspodjele ini se jednostavnim nainom
odluivanja trebamo li se odluiti za parametrijski ili neparametrijski test. No ona to nije,
budui da trebamo paziti na veliinu uzor(a)ka prije no to primijenimo te testove. Za
male uzorke (npr. < 15), testovi normalnosti ba i nisu korisni. Oni imaju malu snagu
razlikovanja izmeu populacije iji podaci slijede Gaussovu raspodjelu i one iji podaci ne
slijede normalnu raspodjelu. Mali uzorci jednostavno ne sadravaju dovoljno informacija da
nam omogue donoenje zakljuka o obliku raspodjele za cijelu populaciju. Donja tablica
saima testove o kojima smo pisali na neposredan nain (Tablica 2.).
Ako podaci ne slijede Gaussovu (normalnu) raspodjelu, moda emo moi pretvoriti
vrijednosti kako bi tvorili Gaussovu raspodjelu (4). U ovom lanku neemo opisivati kako
se to radi, no kao dobar primjer za mjerenja (numerikih podataka) moemo spomenuti
jednostavan nain na koji se to moe napraviti, a to je logaritamska pretvorba: nova
vrijednosti = log (stara vrijednost).

10

U nekim sluajevima takav jednostavan pristup moe nam omoguiti primjenu


parametrijskog statistikog testa umjesto neparametrijskog.

PROVJERA PRETPOSTAVKI O PODACIMA


Parametrijski testovi: zadovoljene su pretpostavke o podacima
Neparametrijski testovi: nisu zadovoljene pretpostavke o podacima
Parametrijski test
pretpostavka: poznavanje teorijske raspodjele vjerojatnosti koju podaci slijede
Neparametrijski test
nezavisan od teorijske raspodjele podataka
rangiranje
mali uzorci, kategorijski mjerene varijable

Slijede li podaci normalnu raspodjelu?


Grafiki prikaz empirijske raspodjele (historam, stem-and-leaf, box plot, normal
plot)
Statistiki testovi za provjeru normalnosti (Kolmogorov-Smirnov,
Shapiro-Wilk )
odabir statistikog testa
Jesu li dvije ili vie varijanci jednake?
Statistiki testovi (Levene, Barttlet i F-test)
interpretacija rezultata statistikog testa

NUMERIKI PODACI -TESTIRANJE STATISTIKE HIPOTEZE

11

4.1. STATISTIKA HIPOTEZA I TEST


Promatramo statistiko obiljezje X..
Statistika hipoteza je elementarna tvrdnja o nekoj osobini populacije (znanstvena h,
statistika h.) Kaemo da je statistika hipoteza jednostavna ukoliko jednoznano
odreduje razdiobu od X. U suprotnom kaemo da je sloena.
Primjeri.
1. H1 : X ima normalnu razdiobu sloena hipoteza
2. H2 : X N(170, 64) jednostavna hipoteza
Hipoteza moe biti tona (istinita) ili netona (neistinita). Testiranje hipoteze je proces
traenja istine, odnostno stvarnog stanja izraeno probabilistiki (vjerojatnost).

Pri interpretaciji rezultata statistikih testova valja imati na umu da se hipoteza ne dokazuje!
Rezultat statistikog testa ukazuje samo da li dostupni podaci podravaju ili ne podravaju
hipotezu, tj. koliko bi hipoteza mogla biti prihvatljivom ili neprihvatljivom, dakako uz odreenu
vjerojatnost.
Na temelju podataka prikupljenih na uzorku ispitanika statistiko-matematikim postupkom
izraunaju se vrijednosti specifinog statistikog testa. Na temelju vrijednosti rezultata izraunatih
statistikim testom donosi se odluka o odbacivanju ili prihvaanju nul-hipoteze.
Dobivene vrijednosti statistikog testa reflektiraju veliinu dokaza protiv nul-hipoteze u
ispitivanom uzorku. Dakle, to je vea apsolutna vrijednost statistikog testa (tj. bez obzira na
njezin predznak + ili -), vei je i dokaz protiv nul-hipoteze, tj. manja je vjerojatnost da je nulhipoteza istinita.
Sve vrijednosti statistikih testova slijede neku poznatu teorijsku distribuciju vjerojatnosti..
Distribucija statistikog testa distribucija je vjerojatnosti za vrijednosti konkretnog testa. Povrina
ispod krivulje predstavlja statistiku vjerojatnost (P-vrijednost).
Sve mogue vrijednosti rezultata statistikog testa toke su na horizontalnoj osi grafa distribucije
vjerojatnosti statistikog testa; na vertikalnoj osi je vjerojatnost. Razlikujemo dvije grupe
vrijednosti: grupa vrijednosti u podruju odbacivanja H0 te grupa vrijednosti u podruju
prihvaanja H0. Prema tome u koje od ovih podruja pada vrijednost statistikog testa prihvaa se
ili odbacuje nul-hipotezu, odnosno odbacuje se ili prihvaa alternativnu hipotezu.

12

Odluka o tome koje vrijednosti spadaju u podruje odbacivanja, a koje u podruje


prihvaanja donosi se na temelju razine znaajnosti () Razina znaajnosti () odreuje
povrinu ispod distribucijske krivulje vrijednosti statistikog testa koja je iznad vrijednosti
na horizontalnoj osi u podruju odbacivanja H0.
Razina znaajnosti () predstavlja graninu vjerojatnost uz koju jo uvijek valja prihvatiti
eventualno istinitu nul-hipotezu.
P-vrijednost, tj. vjerojatnost povrina je ispod oba (ili u posebnim sluajevima jednog)
kraja distribucije vjerojatnosti od izraunate vrijednosti statistikog testa. Veina
raunalne statistike programske podrke automatski izrauna dvosmjernu P-vrijednost.
Primjer: razina znaajnosti = 0,05:
- ako je P < 0,05 odbacuje se nul-hipoteza, tj. rezultati su statistiki znaajni
(signifikantni) na 5% razini znaajnosti1;
- ako je P 0,05 prihvaa se nul-hipoteza; tj. rezultati nisu statistiki znaajni
(signifikantni) na 5% razini znaajnosti, odnosno nema dovoljno dokaza za odbacivanje
nul-hipoteze.
Izbor veliine razine znaajnosti statistikog testa (0,05; 0,01; 0,01; 0,001) je proizvoljan.
Veliina razine znaajnosti govori o tome u kojem postotku si istraiva doputa nainiti
greku odbacivanja istinite nul-hipoteze. U situacijama kada su klinike implikacije
odbacivanja nul-hipoteze ozbiljne, valja zahtijevati snanije dokaze za odbacivanje nulhipoteze (razina znaajnosti od 0,01 ili 0,001).
Navoenje rezultata uz odreenu razinu znaajnosti (npr. P<0,05 ili P>0,05) moe navesti
na krivi zakljuak. Na primjer, ako je P=0,04 odbacuje se H 0, a ako je P=0,06 ne odbacuje
se H0. Postavlja se pitanje vanosti, odnosno znaenja utvrene razlike. Preporuka je, a
danas i zahtjev veine uvaenih medicinskih asopisa, da se navede precizna P-vrijednost
to je danas lako rjeivo uz pomo raunala i primjenu dostupnih statistikih programskih
podrki kao to su SAS, Statistica, SPSS, S-plus i druge, budui da one uz rezultat
statistikog testa i ekspliciraju egzaktnu P-vrijednost.
Budui da se zakljuivanje u statistici provodi na temelju informacija o uzorku, mogue je
pogrijeiti i donijeti krivu odluku.
Greka tipa I nastaje kada se odbaci istinita nul-hipotezu. Razina znaajnosti statistikog
testa (alpha) predstavlja maksimalnu ansu, odnosno vjerojatnost da se naini greka
tipa I. Veliinu razine znaajnosti valja odrediti prije prikupljanja podataka.
Greka tipa II nastaje kada se ne odbaci neistinita nul-hipotezu te zakljui da nema efekta
kada on stvarno postoji. ansa da se naini greka tipa II naziva se (beta).
Saga testa rauna se kao (1- ) te predstavlja vjerojatnost odbacivanja neistinite nulhipoteze. Snaga testa zapravo je ansa detektiranja, kao statistiki znaajnog, odreenog
realnog efekta lijeenja. Uobiajeno se izraava u postotcima.
Na snagu statistikog testa utjeu:
veliina uzorka - snaga raste kako raste veliina uzorka;
varijabilitet opaanja - snaga pada kako raste varijablitet opaanja;
efekt od interesa (efekt razlike) - snaga je vea to je vei efekt;
razina znaajnosti () - snaga je vea to je vea razina znaajnosti.
Uoljivo je da je parametar na koji je najlake utjecati zapravo veliina uzorka. Stoga se
tzv. analiza snage (engl. power analysis) koristi za izraunavanje potrebne veliine uzorka
za istraivanje s visokom vjerojatnou okrivanja stvarnog efekta zadane veliine
Snagu predloenog statistikog testa vano je poznavati ve u stadiju planiranja
istraivanja. Adekvatna snaga statistikog testa ukazuje da on ima dobru ansu
otkrivanja kliniki relevantnog efekta, ako on postoji. Snaga dobrog statistikog testa
trebala bi biti barem 70-80%. Etiki je neprihvatljivo, a takoer je i gubitak vremena i
sredstava, provoditi klinika istraivanja koja imaju manju ansu otkrivanja realnog efekta
lijeenja.

13

TESTIRANJE STATISTIKE HIPOTEZE:


A. postavljanje hipoteze

nulta hipoteza (nulhipoteza, H0)


razlike nema
alternativna hipoteza (H1)
razlika postoji

B. odabir statistikog testa

vrsta podataka
brojani

kategoriki

veliina uzorka

povezanost skupina

itd.

primjer: 2test

C. odreivanje razine znaajnosti

razina znaajnosti
mjera pogrjeke tijekom zakljuivanja
iskazuje se vjerojatnou P
P<

D. izraun statistike testa

specifina vrijednost testa


2, t, h, z...
P vrijednost

E. zakljuak
P<

statistike pogrjeke: zakljuujemo da postoji razlika, a razlike nema


P je manji od graninoga, dakle
mala je vjerojatnost da pogrjeno zakljuujemo zakljuak je ispravan
odbacujemo nultu h. (nema razlike)
prihvaamo alternativnu: razlika postoji

statistike pogrjeke: zakljuujemo da postoji razlika, a razlike nema


P je vei ili jednak graninome, dakle
vjerojatnost pogrjenog zakljuivanja nije dovoljno mala
prihvaamo nultu hipotezu: razlike nema

Pa

Nul-hipoteza, H (engl. null hypothesis) pretpostavka je o izostanku efekta, tj. da ne


0
postoji razlika meu uzorcima u populaciji od interesa (npr. nema razlike u aritmetikim
sredinama). To je hipoteza koja se testira, hipoteza da nema razlike ( engl. hypothesis of
no difference). Postavlja se (najvema) u svrhu odbacivanja. Odbacuje se ili prihvaa.
14

Primjer H0: u mukaraca i ena u populaciji jednak je postotak puaa.


Alternativna hipoteza, H1 (engl. alternative hypothesis) vrijedi ako nul-hipoteza nije
istinita. Najee se direktno odnosi na teorijsku pretpostavku koja se eli istraiti, tj.
esto je alternativna hipoteza upravo hipoteza istraivaa.
Primjer H1: u mukaraca i ena u populaciji razliit je postotak puaa

POGREKE PRI TESTIRANJU HIPOTEZE


Neka je = E[X].
Na primjer, pretpostavimo da nas zanima je li tocan hipoteza: H 0: 50.
Preciznije, elimo na osnovi realizacije sluajnog u- zorka za X donijeti odluku hoemo li
odbaciti ili ne odbaciti tu hipotezu.
Postupak donoenja odluke o odbacivanju ili ne odbacivanju statistike hipoteze zove se
testiranje statistikih
hipoteza.
Primijetimo da uz osnovnu ili nul - hipotezu, npr.: H0: 50. postoji njoj alternativna
hipoteza: H0: >50.
Budui da sve odluke bazirane na uzorcima iz populacije nisu 100% pouzdane, ni
zakljuak (odluka) statistikog testa nije 100% pouzdan. Dakle, moe se dogoditi da je
zakljuak testa pogrean. Prema tome, imamo sljedeu situaciju:

Pogreka koju inimo kada odbacujemo H0, a ona je istinita, je pogreka prve vrste.
Pogreka koju inimo kada ne odbacujemo H0, a istinita je H1, je pogreka druge vrste.
Pogreka tipa I: (razina znaajnosti testa)
Pogreka tipa II: (1- je snaga testa vjerojatnost odbacivanja netone nulhipoteze)
15

Greka tipa I (nastaje kada se odbaci istinita nul-hipotezu. Razina znaajnosti


statistikog testa (alpha) predstavlja maksimalnu ansu, odnosno vjerojatnost da se
naini greka tipa I. Veliinu razine znaajnosti valja odrediti prije prikupljanja podataka.
Greka tipa II nastaje kada se ne odbaci neistinita nul-hipotezu te zakljui da nema
efekta kada on stvarno postoji. ansa da se naini greka tipa II naziva se (beta).
Viestruko testiranje hipoteze znatno poveava uestalost pogreke tipa I !
=?

uobiajena vrijednost:
= 0,05
= 5%
to manja
mogue i manje:
= 0,01

=?

= 0,005

tvrdnja da nema razlike kad ona stvarno postoji


bolje to je manja: = 0,2 (ili manje)
openito:
statistika snaga testa: 100(1)%

ISTRAIVAKO PITANJE HIPOTEZA

Postoji li razlika (u istoj varijabli) izmeu dvaju (ili vie) skupina?


Postoji li povezanost dvaju varijabli?
Moe li se iz jedne Moe li se iz jedne (ili vie) varijable predvidjeti druga?

ODABIR STATISTIKOG TESTA


Ovisi o:

vrsti podataka/ljestvice mjerenja


raspodjeli (normalnost)
uzorku (veliina, zavisnost)
broju pokazatelja (uni/bi/multivarijatni testovi)
istraivakom pitanju

ODABIR TESTA: OVISNOST O RASPODJELI PARAMETRIJSKI I


NEPARAMETRIJSKI
Parametrijski testovi:

pokazatelji koji ne odstupaju od normalne raspodjele


obrauju izvorna mjerenja

Neparametrijski testovi:

nisu ogranieni normalnou raspodjele


ne ralanjuju izvorne podatke ve rankove

ODABIR TESTA: OVISNOST O OSOBINI UZORKA


Veliina:

veliki uzorci parametrijski testovi


mali uzorci neparametrijski testovi
Zavisnost:
nezavisni uzorci neparni testovi
zavisni uzorci parni testovi

16

OVISNOST O BROJU POKAZATELJA


univarijatni:
ralanjuju samo jedan pokazatelj
bivarijatni
ralanjuju dva pokazatelja
multivarijatni
ralanjuju vie pokazatelja

VARIJABLE
stalne ne e se promjeniti tijekom ispitivanja (spol, rasa, genotip...)
promjenive mogu se promijeniti tijekom ispitavanja (broj leukocita, koncentracija
glukoze...)
nezavisne varijable
mjerimo neovisno o ishodu pokusa, prethode zavisnim varijablama, prediktori,
rizini imbenici, varijable izloenosti (os x)
zavisne varijable
kriteriji, posljedice djelovanja nezavisnih varijabli, predstavljaju mjeru ishoda koju
u istraivanju mjerimo (os y)

TESTOVI ZA PROVJERU HIPOTEZA


Najei testovi za provjeru hipoteza

T - TEST
F - TEST
HI - KVADRAT TEST

T - TEST

osniva se na usporedbi aritmetikih sredina


primjenjuje se pri analizi kvantitativnog svojstva

T- testom se procjenjuje da li je u dvije skupine statistiki razlikuju jedna od druge . Ova


analiza je prikladno kad god elite usporediti
prosjeke(mean) dvije skupine .
Slika 1 prikazuje distribucija za tretirane ( plava) i
kontrolne (zeleno ) grupe u studiju . Zapravo , slika
prikazuje idealiziranu distribuciju - stvarna raspodjela
e obino biti prikazan s histogramom ili bar grafom.
Na slici je oznaeno mjesto gdje se nalaze prosjeci
kontrolne i lijeene skupine sredstava nalaze. Pitanje
na koje t-test odgovara je da li su prosjeci statistiki
razliiti.

17

to to znai rei da je prosjek za dvije grupe statistiki razliit? Razmotrimo tri situacije je
prikazano na slici 2 . Prva stvar koju treba primijetiti na tri situacije je da je razlika
izmeu prosjeka je isti u sva tri. No , takoer treba primijetiti da tri situacije ne
izgledaju isto. Gornji primjer pokazuje sluaj s umjereno varijabilnosti rezultata u svakoj
skupini. Druga situacija pokazuje veliku varijabilnost. trei prikazuje sluaj s niskim
varijabilnosti. Jasno , mi bi se zakljuiti da je grupa s najasnoije izraenim razlikama ona
s malom arijabilnou... Zato? Budui da je relativno malo preklapanje izmeu dvije
krivulje u obliku zvona . U sluaju velike varijabilnosti razlika je najmanje upeatljiva se
dvije zvonolike distribucije uvelike preklapaju.
This leads us to a very important conclusion: when we are looking at the differences
between scores for two groups, we have to judge the difference between their means
relative to the spread or variability of their scores. The t-test does just this.

STATISTICAL ANALYSIS OF THE T-TEST


The formula for the t-test is a ratio. The top part of the ratio is just the difference between
the two means or averages. The bottom part is a measure of the variability or dispersion
of the scores. This formula is essentially another example of the signal-to-noise metaphor
in research: the difference between the means is the signal that, in this case, we think our
program or treatment introduced into the data; the bottom part of the formula is a
measure of variability that is essentially noise that may make it harder to see the group
difference. Figure 3 shows the formula for the t-test and how the numerator and
denominator are related to the distributions.

18

The top part of the formula is easy to compute -- just find the difference between the
means. The bottom part is called the standard error of the difference. To compute it,
we take the variance for each group and divide it by the number of people in that group.
We add these two values and then take their square root. The specific formula is given in
Figure 4:

METODOLOGIJA T-TESTA OVISI O:

broju skupina (uzoraka) ije aritmetike sredine usporeujemo


o jedna
o dvije
broju jedinica u skupinama (veliini uzorka)
o vrlo mali uzorak
o mali uzorak
o veliki uzorak
meusobnom odnosu izmeu skupina ije aritmetike sredine usporeujemo
o nezavisni
o zavisni

VARIJANTE

T - TESTA

Testiranje znaajnosti razlika izmeu jedne aritmetike sredine i unaprijed


odreene vrijednosti
Testiranje znaajnosti razlike izmeu aritmetikih sredina dvije skupine (uzorka)

POSTUPNIK T - TESTA

Postaviti nul - hipotezu


Prikupiti podatke i provjeriti njihovu distribuciju
Utvrditi razliku izmeu aritmetikih sredina i analizirati je T - TESTOM
Procijeniti vjerojatnost da je ustanovljena razlika sluajna (ne odbacujemo nulhipotezu i zakljuujemo da su uzorci iz iste populacije) ili statistiki znaajna
(odbacujemo nul - hipotezu i zakljuujemo da su uzorci iz razliitih populacija;
P<0,05 ili P<0,01).

19

F TEST

temelji se na usporedbi varijanci (Analiza varijance - ANOVA)


primjenjuje se za kvantitativna svojstva kada elimo usporediti varijancu dva
uzorka ili kada elimo analizirati razlike izmeu aritmetikih sredina vie uzoraka
(3 i vie uzoraka)

Test-statistika F je sluajna varijabla koja ima F-distribuciju s DF1 i DF2 stupnjeva slobode.
Uz razinu znaajnosti koju istraiva sam izabire s obzirom na mogue posljedice
(najee 0,05 ili 0,01) interpretacija rezultata je ista kao i u sluaju interpretacije t-testa.
Drugim rijeima nul-hipoteza aritmetike sredine svih grupa (uzoraka) su jednake bit
e prihvaena ako je granini F vei od izraunatog. Ako je pak granini F manji od
izraunatog, onda nul-hipotezu treba odbaciti. Drugim rijeima, prihvatit e se hipoteza
da se bar jedna aritmetika razlikuje od preostalih.

ANALIZA VARIJANCE - A N O V A

obuhvaa niz razliitih metoda (jednosmjerna ANOVA, jednosmjerna ANOVA s


ponovljenim mjerenjima, dvosmjerna ANOVA)
osniva se na analizi varijabiliteta unutar i izmeu uzoraka

T-test je primjenjiv iskljuivo kada imamo dva uzorka. Meutim esto u istraivanjima
imamo vie uzoraka. Analiza varijance je test koji se primjenjuje u takvim sluajevima.
Primjena analize varijance bit e mogua ako je mjerena varijabla normalno distribuirana i
ako su varijance svih promatranih uzoraka jednake. Ideja analize varijance sastoji se u
razdvajanju varijabilnosti mjerenog varijancom na dva dijela: varijabilnost meu
ispitanicima koji pripadaju razliitim grupama odnosno uzorcima (engl. between-group
variation) i varijabilnost meu ispitanicima unutar svake pojedine grupe odnosno uzorka
(engl. within-group variation). Ovaj drugi dio varijabilnosti esto se naziva neobjanjenom
ili rezidualnom varijabilnou.

20

Nul-hipoteza koja se testira glasi:


H0: 1=2=3===k
ili aritmetike sredine populacija iz kojih su uzeti uzorci jednake su
nasuprot alternativnoj hipotezi:
H1: ij
ili bar jedna se aritmetika sredina razlikuje od preostalih
U postupku primjene analize varijance prvo treba izraunati aritmetike sredine za svaki
od k uzoraka, zatim varijabilnost meu ispitanicima izmeu grupa (uzoraka) i varijabilnost
meu ispitanicima unutar grupa (uzoraka). Nakon toga treba nainiti test-statistiku F kao
omjer varijabilnosti izmeu grupa i varijabilnost unutar grupa, te broj stupnjeva slobode
DF1=k-1 i DF2=n-k, pri emu je k broj grupa (uzoraka) a n je ukupan broj ispitanika
(n=n1+n2++nk, ni je broj ispitanika u i-toj grupi odnosno uzorku).

POSTUPNIK ANALIZE VARIJANCE

Postaviti nul - hipotezu


Prikupiti podatke i provjeriti njihovu distribuciju
Utvrditi razliku izmeu aritmetikih sredina i analizirati ih F - TESTOM
Procijeniti vjerojatnost da su ustanovljene razlike sluajne (ne odbacujemo nulhipotezu i zakljuujemo da su uzorci iz iste populacije) ili statistiki znaajne
(odbacujemo nul - hipotezu i zakljuujemo da su uzorci iz razliitih populacija;
P<0,05 ili P<0,01)
Utvrditi izmeu kojih parova uzoraka su razlike statistiki znaajne i na kojoj razini
vjerojatnosti

HI KVADRAT ( 2 )TEST
Hi-kvadrat test spada u grupu statistikih testova koji ne ukljuuju usporedbe. Uvaj test
se koristi za ispitivanje nezavisnosti (eng. indepedence) dvije varijable ili faktora,
sluajnosti (eng. randomness), te dobrote prilagodbe (eng. goodness-to-fit).
Upotrebljava u veini sluajeva ako se radi o kvalitativnim podacima ili ako tim podacima
distribucija znaajno odstupa od normalne.
Ve u poetku treba naglasiti da se hi-kvadrat test rauna samo s frekvencijama pa u
raun nije doputeno unositi nikakve mjerne jedinice. Osnovni podaci istraivanja mogu
biti i mjerne vrijednosti, ali u hi-kvadrat unose se samo njihove frekvencije.
Hi-kvadrat test je vrlo praktian test koji moe osobito posluiti onda kad elimo utvrditi
da li neke dobivene (opaene) frekvencije odstupaju od frekvencija koje bismo oekivali
pod odreenom hipotezom. Kod ovog testa katkada traimo postoji li povezanost izmeu
dvije varijable i on pokazuje vjerojatnost povezanosti. Moemo pretpostaviti da neka
21

teorijska raspodjela dobro opisuje opaenu raspodjelu frekvencija. Da bismo tu


pretpostavku (hipotezu) provjerili, primjenjujemo ovaj test.
Najee upotrebljavamo hi-kvadrat test u ovim sluajevima:
1. Kad imamo frekvencije jednog uzorka pa elimo ustanoviti odstupaju li te frekvencije
od frekvencija koje oekujemo uz neku hipotezu.
2. Kad imamo frekvencije dvaju ili vie nezavisnih uzoraka te elimo ustanoviti
razlikuju li se uzorci u opaenim svojstvima.
3. Kad imamo frekvenciju dvaju zavisnih uzoraka, koji imaju dihotomna svojstva, te elimo
ustanoviti razlikuju li se uzorci u mjernim svojstvima, tj. je li dolo do promjene.

jedan od najeih neparametrijskih testova


primjenjujemo ga za kvalitativna svojstva
temelji se na uestalosti (frekvencijama) pojedinih kategorija rezultata koje
usporeujemo s nekom drugom uestalou koja bi se oekivala pod odreenom
nul-hipotezom
na osnovi dobivenog rezultata ne odbacujemo ili odbacujemo nul-hipotezu koja
obino glasi da nema statistiki znaajne razlike izmeu opaene i oekivane
uestalosti
u raun treba unijeti uestalost frekvenciju (nikada ne smijemo unositi mjerene
vrijednosti ni postotke) ne samo za neto to se dogodilo, ve i za ono to se nije
dogodilo
najlake hi - kvadrat izraunavamo ukoliko rezultate unosimo u tablice

fo = opaene frekvencije
ft= teoretski oekivane frekvencije

NEPARAMETRIJSKE METODE
razlozi za primjenu:
_ distribucije varijabli oigledno nisu normalne
_ uzorak je mali, a postoji sumnja na normalnost
varijable su mjerene ordinalnom skalom

22

ordinalnom

_ varijable su mjerene

MANN-WHITNEY U TEST
testira pripadaju li dva neovisna uzorka istoj populaciji (tj. imaju li iste medijane)
Sometimes distributions of variables do not show a normal distribution, or the samples
taken are so small that one cannot tell if they are part of a normal distribution or not.
Using the t-test to tell if there is a significant difference between samples is not
appropriate here.
The Mann-Whitney U-test can be used in these situations. This test can be used for very
small samples (between 5 and 20). It can also be used when the variable being recorded
is measured using an arbitrary scale which cannot be measured accurately (e.g. a colour
scale measured by eye or a behavioural trait such as aggression).
MWW is virtually identical to performing an ordinary parametric two-sample t test on the
data after ranking over the combined samples.
The size of leaves taken from bramble bushes were measured to see if there is a
difference
between the size of the leaves growing in full sunlight and those growing in the shade.
Width of leaf / cm
Sunlight 6.0 4.8 5.1 5.5 4.1 5.3 4.5 5.1
Shade 6.5 5.5 6.3 7.2 6.8 5.5 5.9 5.5
The Mann-Whitney U-test is chosen because the sample size is so small it is not clear if
these
are samples taken from normally distributed data.
1. Set up the Null Hypothesis: There is no difference between the leaves taken from the
sunlit bramble and the shaded bramble.
Alternative Hypothesis: There is a difference between the leaves taken from the sunlit
bramble and the shade bramble.
2. Let n1 be the size of the smallest sample and n2 be the size of the biggest sample. In
this example both are of the same size so it does not matter which you choose. n1 = 8
and n2 = 8
3. Rank all the values for both samples from the smallest (=1) to the largest. Set them up
as shown in the table below. Note where the values are the same and share the same
rank, take an average of the rank values.
4. Total the ranks of each sample R1 and R2 (see the bottom of the table above).
5. Calculate the U values for both samples:
6. Use the table to find the critical value for the U statistic at the 5% level for samples of
this size (n1 = 8 and n2 = 8).
Ucrit = 13
23

7. Reject the Null Hypothesis if the smallest value of U1 or U2 is below Ucrit. In this case
U2 is below 13 we can reject the Null Hypothesis and accept the Alternative Hypothesis.
The difference between the size of the bramble leaves in the light and the dark is
significant for P>0.05. Bramble leaves in the dark seem to be significantly bigger.
npr:
Sluajni uzorak n1=7 iz populacije X dao je sljedea opaanja:
3.7; -1.1; 2.6; 2.3; 4.1; 0.8; 3.9
a sluajni uzorak n2=5 iz populacije Y opaanja:
4.6; 4; 5.3; 4.4; 3
Pripadaju li ovi uzorci istoj populaciji?populaciji
The test involves the calculation of a statistic, usually called U, whose distribution under
the null hypothesis is known. In the case of small samples, the distribution is tabulated,
but for sample sizes above ~20 there is a good approximation using the normal
distribution. Some books tabulate statistics equivalent to U, such as the sum of ranks in
one of the samples, rather than U itself.
The U test is included in most modern statistical packages. It is also easily calculated by
hand, especially for small samples. There are two ways of doing this.
For small samples a direct method is recommended. It is very quick, and gives an insight
into the meaning of the U statistic.
1. Choose the sample for which the ranks seem to be smaller (The only reason to do
this is to make computation easier). Call this "sample 1," and call the other sample
"sample 2."
2. Taking each observation in sample 1, count the number of observations in sample
2 that are smaller than it (count a half for any that are equal to it).
3. The total of these counts is U.
For larger samples, a formula can be used:
1. Arrange all the observations into a single ranked series. That is, rank all the
observations without regard to which sample they are in.
2. Add up the ranks for the observations which came from sample 1. The sum of
ranks in sample 2 follows by calculation, since the sum of all the ranks equals
N(N + 1)/2 where N is the total number of observations.
3. U is then given by:

where n1 is the sample size for sample 1, and R1 is the sum of the ranks in sample
1.

KRUSKAL-WALLIS TEST
testira pripada li vie uzoraka istoj populaciji
In statistics, the KruskalWallis one-way analysis of variance by ranks a nonparametric method for testing equality of population medians among groups. It is

24

identical to a one-way analysis of variance with the data replaced by their ranks. It is an
extension of the MannWhitney U test to 3 or more groups.
Since it is a non-parametric method, the KruskalWallis test does not assume a normal
population, unlike the analogous one-way analysis of variance. However, the test does
assume an identically-shaped and scaled distribution for each group, except for any
difference in medians.
Definition: A non-parametric test (distribution-free) used to compare three or more
independent groups of sampled data.
Assumptions: Unlike the parametric independent group ANOVA (one way ANOVA), this
non-parametric test makes no assumptions about the distribution of the data (e.g.,
normality).
Characteristics: This test is an alternative to the independent group ANOVA, when the
assumption of normality or equality of variance is not met. This, like many nonparametric tests, uses the ranks of the data rather than their raw values to calculate the
statistic. Since this test does not make a distributional assumption, it is not as powerful
as the ANOVA.
Test: The hypotheses for the comparison of two independent groups are:
Ho: The samples come from identical populations
Ha: They samples come from different populations
Notice that the hypothesis makes no assumptions about the distribution of the
populations. These hypotheses are also sometimes written as testing the equality of the
central tendency of the populations.
The test statistic for the Kruskal-Wallis test is H. This value is compared to a table of
critical values for U based on the sample size of each group. If H exceeds the critical
value for H at some significance level (usually 0.05) it means that there is evidence to
reject the null hypothesis in favor of the alternative hypothesis. (See the Zar reference
for details.)
Note: When sample sizes are small in each group (< 5) and the number of groups is
less than 4 a tabled value for the Kruskal-Wallis should be compared to the H statistic to
determine the significance level. Otherwise, a Chi-square with k-1 (the number of
groups-1) degrees of freedom can be used to approximate the significance level for the
test.
Graphical comparison: The graphical comparison allows you to visually see the
distribution of the two groups. If the p-value is low, chances are there will be little
overlap between the distributions. If the p-value is not low, there will be a fair amount of
overlap between the groups. There are a number of options available in the comparison
graph to allow you to examine the groups. These include box plots, means, medians,
and error bars.
Location in KWIKSTAT and WINKS: The Kruskal-Wallis test (independent group
comparison test) is located in the Analyze/Non-parametric comparisons menu. When
there are only two groups in this comparison, the test becomes a Mann-Whitney test.

KORELACIJA I REGRESIJA
25

KORELACIJA
Matematiki postupak za izraunavanje stupnja povezanosti dvaju brojanih pokazatelja
kojim se izraunava:
koeficijent korelacije r
statistika znaajnost koeficijenta korelacije P
Korelacija predstavlja suodnos ili meusobnu povezanost izmeu razliitih pojava
predstavljenih vrijednostima dvaju varijabli. Pri tome povezanost znai da je vrijednost
jedne varijable mogue sa odreenom vjerojatnou predvidjeti na osnovu saznanja o
vrijednosti druge varijable. Klasini primjeri povezanosti su npr. saznanje o utjecaju
koliine padalina na urod itarica, o povezanosti slane hrane i visokog krvnog tlaka i sl.
Promjena vrijednosti jedne varijable utjee na promjenu vrijednosti druge varijable.
Varijabla koja svojom vrijednou utjee na drugu varijablu naziva se neovisna varijabla.
Varijabla na koju se utjee naziva se ovisna varijabla. Npr. unoenje vie soli u organizam
utjee na porast krvnog tlaka, dok porast krvnog tlaka ne utjee na poveanje unoenja
soli u organizam. U ovom primjeru unoenje soli u organizam je neovisna varijabla, a
poveanje krvnog tlaka je ovisna varijabla. Mogui su sluajevi da dvije varijable
istovremeno utjeu jedna na drugu, pa su u tom sluaju obje varijable istovremeno i
ovisne i neovisne.

ODNOS IZMEU VARIJABLI


Meusoban odnos izmeu dvije varijable, grafiki moemo prikazati pomou
dvodimenzionalnog grafa, tzv. scatter dijagram (dijagrama rasprenja). Vrijednosti jedne
varijable prikazane su na x osi, a druge na y osi dijagrama. Toke presjeka kreu se oko
odreenog pravca koji se naziva linija regresije. to su toke blie pravcu, korelacija je
vea. to su toke rasprenije korelacija je manja. U praksi je vizualno vrlo teko, osim u
sluaju savrene korelacije odrediti stupanj povezanosti izmeu varijabli. Ovisno o
meusobnom odnosu dvaju varijabli meu kojima postoji korelacija, ona moe biti
linearna ili nelinearna. Kod linearne korelacije, toke su grupirane oko pravca. Kod
nelinearne korelacije, toke su grupirane oko neke druge krivulje.
Dvije varijable koje promatramo sa ciljem utvrivanja njihove korelacijske povezanosti
mogu biti u 4 razliita odnosa:
1. kada mala vrijednost jedne varijable odgovara maloj vrijednosti druge varijable,
kao i kada velika vrijednost jedne varijable odgovara velikoj vrijednosti druge
varijable, radi se o pozitivnoj korelaciji.
2. kada mala vrijednost jedne varijable odgovara velikoj vrijednosti druge varijable i
obratno, radi se o negativnoj korelaciji.
3. kada vrijednost jedne varijable u nekim intervalima odgovara maloj vrijednosti
druge varijable, a u drugim intervalima velikoj vrijednosti, radi se o nemonotonoj
korelaciji. Ako se korelacija vie nego jednom mijenja od pozitivne prema
negativnoj, takva korelacija naziva se ciklika korelacija.
4. kada se na osnovu vrijednosti jedne varijable ne moe zakljuiti nita o vrijednosti
druge varijable, tada korelacija ne postoji. Toke u takvom grafu su rasprene.

najvei stupanj sukladnosti u variranju, tzv. Potpuna korelacija ili funkcionalna


veza, postoji kad svakoj vrijednosti u jednoj varijabli ( napr. varijabli X) odgovara
samo jedna vrijednost u drugoj varijabli (npr. varijabli Y)
djelomina korelacija znai da odreenoj vrijednosti varijable X odgovara vie
razliitih vrijednosti varijable Y
korelacija je manja to ima vie razliitih vrijednosti varijable Y koje veemo uz
odreenu vrijednost varijable X
26

korelacija je vea to ima manje razliitih vrijednosti varijable Y koje veemo uz


odreenu vrijednost varijable X

KOEFICIJENTI KORELACIJE

[ UR ED I ]

Koeficijenti korelacije izraavaju mjeru povezanosti izmeu dvije varijable u jedinicama


neovisnima o konkretnim jedinicama mjere u kojima su iskazane vrijednosti varijabli.
Postoji vie koeficijenata korelacije koji se koriste u razliitim sluajevima. U praksi se
prilikom rada s linearnim modelima najee koristi Pearsonov koeficijent korelacije
(produkt moment koeficijent korelacije). Prilikom rada s modelima koji nisu linearni
najee se koristi Spearmanov koeficijent korelacije (produkt rang koeficijent korelacije).

KOEFICIJENT KORELACIJE R

pokazuje stupanj ( i smjer) korelacije

negativna korelacija -1...................0...................+1 funkcionalna korelacija


nema

funkcionalna

pozitivna

korelacije

zakljuke o vrijednosti koeficijenta korelacije donosimo uz odreenu razinu


vjerojatnosti (p<0,05; p<0,01)

PREDZNAK KOEFICIJENTA KORELACIJE

27

(+) pozitivan smjer korelacije pokazuje da porast vrijednosti varijable X prati


porast vrijednosti varijable Y
(-) negativan smjer korelacije pokazuje da porast vrijednosti varijable X prati
opadanje vrijednosti varijable Y

PEARSONOV KOEFICIJENT KORELACIJE R P


Mjera stupnja linearne povezanosti dviju kvantitativnih varijabli

Pearsonov koeficijent korelacije koristi se u sluajevima kada izmeu varijabli


promatranog modela postoji linearna povezanost i neprekidna normalna distribucija.
Vrijednost Pearsonovog koeficijenta korelacije kree se od +1 (savrena pozitivna
korelacija) do 1 (savrena negativna korelacija). Predznak koeficijenta nas upuuje na
smjer korelacije da li je pozitivna ili negativna, ali nas ne upuuje na snagu korelacije.
Pearsonov koeficijent korelacije bazira se na usporedbi stvarnog utjecaja promatranih
varijabli jedne na drugu u odnosu na maksimalni mogui utjecaj dviju varijabli. Oznaava
se malim latinikim slovom r. Za izraun koeficijenta korelacije potrebna su tri razliite
sume kvadrata (SS): suma kvadrata varijable X, suma kvadrata varijable Y i suma
umnoaka varijabli X i Y.
Parametrijski test (rauna s izmjerenim vrijednostima):
jednostavna linearna korelacija
dva pokazatelja
intervalna ili omjerna mjerna ljestvica
vrijednosti: 1 r +1
barem jedna varijabla normalna raspodjela
veliki uzorak (n > 30)
povezanost varijabli linearna
x, y ....nizovi vrijednosti varijabli _iju povezanost ocjenjujemo
POSTUPAK ZA OCJENU KORELACIJE
a) crtanje korelacionog dijagrama
28

b) ocjena postojanja povezanosti


c) u sluaju da postoji linearna povezanost, raunamo koeficijent korelacije r
Interpretacija koeficijenta korelacije
statistika znaajnost
_ ocjenjuje je li r znaajno razliit od 0
_ ovisi o veliini uzorka - za velike uzorke, mali r e biti znaajan
praktina znaajnost
_ ocjenjuje se pomou koeficijenta determinacije r2
_ koliki udio varijabilnosti je zajedniki
Suma kvadrata varijable X jednaka je sumi kvadrata odstupanja vrijednosti varijable X od
njezine prosjene vrijednosti:

Prosjena vrijednost varijable X jednaka je:

Suma kvadrata varijable Y jednaka je sumi kvadrata odstupanja vrijednosti varijable Y od


njezine prosjene vrijednosti:

Prosjena vrijednost varijable Y jednaka je:

Suma umnoaka varijabli X i Y jednaka je sumi umnoaka odstupanja vrijednosti varijabli


X i Y od njihovih prosjeka:

Koeficijent korelacije jednak je omjeru:

U sluaju da meu varijablama ne postoji linearna povezanost, moe se provesti


odgovarajua transformacija kojom se vrijednosti varijabli modela svode na linearne.

SPEARMANOV KOEFICIJENT KORELACIJE


neparametrijski test (rauna s rangovima):
linearna korelacija, , rS
dva pokazatelja
29

ordinalna mjerna ljestvica


vrijednosti: 1 r +1
POSTUPAK:
1. neovisno rangiranje vrijednosti varijabli; jednakim vrijednostima pridruuje se isti rang
koji se dobije kao suma raspoloivih rangova podijeljena s brojem jednakih vrijednosti
varijable
2. raunanje koeficijenta r
3. ocjena znaajnosti koeficijenta r (za N 10)
Spearmanov koeficijent korelacije (produkt rang korelacije) koristi se za mjerenje
povezanosti izmeu varijabli u sluajevima kada nije mogue primjeniti Pearsonov
koeficijent korelacije. Bazira se na tome da se izmjeri dosljednost povezanosti izmeu
poredanih varijabli, a oblik povezanosti (npr. linearni oblik koji je preduvjet za koritenje
Pearsonovog koeficijenta) nije bitan. Sluajevi u kojima se koristi Spearmanov koficijent su
npr. kada meu varijablama ne postoji linearna povezanost, a nije mogue primjeniti
odgovarajuu transformaciju kojom bi se povezanost prevela u linearnu (npr. veza izmeu
seizmikog atributa i buotinskog podataka u naftnoj geologiji). Spearmanov koeficijent
korelacije kao rezultat daje priblinu vrijednost koeficijenta korelacije koji se tretira kao
njegova dovoljno dobra aproksimacija. Prilikom koritenja Spearmanovog koeficijenta,
vrijednosti varijabli potrebno je rangirati i na takav nain svesti na zajedniku mjeru.
Najjednostavniji nain rangiranja je da se najmanjoj vrijednosti svake varijable pridjeli
rang 1, slijedeoj po veliini rang 2 i tako sve do posljednje kojoj se pridjeljuje maksimalan
rang. Izraunavanje koeficijenta radi se koritenjem vrijednosti pridijeljenih rangova.
Spearmanov koeficijent oznaavati emo sa rS.
Formula za izraun Spearmanovog koeficijenta korelacije je:

gdje je d razlika vrijednosti rangova dvije promatrane varijable, a n je broj razliitih serija.
kada rS, a ne rP:

ordinalna mjerna ljestvica


mali uzorak (n < 35)
normalnu raspodjelu

ZAKLJUAK
Osim ispitivanja razlike statistikom ralambom moe se ispitati i povezanost.
Razliku ispitujemo meu skupinama, a povezanost meu varijablama.
Postojanje i stupanj povezanosti ispituje se korelacijom.
Pearsonov koeficijent korelacije parametrijski je test dok je Spearmanov
neparametrijski.
Korelacija se tumai s obzirom na vrijednost koeficijenta korelacije, a ne njegove
statistike znaajnosti.
Tumaiti se smiju samo statistiki znaajni koeficijenti korelacije.
Jakost povezanosti izraava se kao udio zajednikih vrijednosti, a izraunava se iz
koeficijenta determinacije (r2).

REGRESIJSKA ANALIZA

znai odnos izmeu odabranih vrijednosti jedne varijable (varijable X) i s njima


povezanih vrijednost druge varijable (varijable Y)
30

koristimo je kada elimo istraiti mogunost procjene vrijednosti jedne varijable


(varijabla Y) na temelju poznate vrijednosti druge varijable (varijable X)
vrijednosti mjerenja predstavljene su kao parovi rezultata koji se sastoje od
podatka za nezavisnu varijablu (obino varijablu X) i od podatka za zavisnu
varijablu (obino varijablu Y)
parovi rezultata prikazani su kao toke u koordinatnom sustavu koji na osi X ima
vrijednosti za varijablu X, a na osi Y vrijednosti za varijablu Y

LINEARNA REGRESIJA
- ako parovi varijabli pokazuju prisustvo korelacije, funkcionalnu vezu prikazuje
JEDNADBA REGRESIJE
REGRESIJA - prognoza iz jedne varijable u drugu

JEDNADBA PRAVCA REGRESIJE

u koordinatnom sustavu crta (ili krivulja) spaja toke koje su funkcija mjerenja
varijable X i varijable Y
crta regresije pokazuje tip odnosa izmeu varijabli X i Y:
- ako je pravac, onda je povezanost linearna i odreena jednadbom pravca
regresije
- ako nije pravac, tada se radi o zakrivljenoj korelaciji
kad se crta regresije, prikazana u koordinatnom sustavu, moe opravdano opisati
pravcem tada se i matematiki moe opisati jednadbom pravca:
Y = a + bX
Y i X= najvjerojatniji rezultat varijable y za odreeni rezultat varijable X
a = odsjeak na osi Y
b = koeficijent nagiba

PRIMJER: PRAVAC REGRESIJE ZA REZULTATE OSTVARENE NA TESTU X I


TESTU Y ( 8 STUDENATA)

31

32

You might also like