You are on page 1of 17

KORELACIJE-PEARSON

1. Što je korelacija?

-Korelacija je zavisnost, povezanost, asocijacija između dvije pojave.


-Statistička definicija: sukladnost u variranju dviju ili više varijabli.
-Primjeri: povezanost između ekonomskog statusa i zdravstvenog stanja, povezanost između
visine i težine u ljudi, povezanost između inteligencije i školskog uspjeha, povezanost između
savjesnosti i školskog uspjeha itd.
-Karl Pearson (1857. – 1936.) – engleski matematičar koji je razradio računski postupak za
izračunavanje stupnja povezanosti i izrazio stupanj povezanosti brojem, koji je nazvao
KOEFICIJENT KORELACIJE – r (Pearsonov r).
-r je najčešće korišteni koeficijent korelacije.

2. što je poanta Pearsonove korelacije?

Za razliku od ostalih korelacija ona zahtijeva da imamo varijabilitet među rezultatima, dakle
da nešto varira, poput visine i težine, inteligencije, a poanta je u tome da to mora varirati. Da
nije kao spol, da ima stroge kategorije, već da ima najrazličitije moguće rezultate. Rezultati
su izraženi na intervalnoj i omjernoj skali.

Pearsonov koeficijent korelacije (r ) mjeri jakost i smjer linearne korelacije.

3. Dijagram raspršenja ( i distribucije ) ?

-Dijagram raspršenja, korelacijski oblak ili šuma točkica tablični ili grafički prikaz korelacije u
koordinatnom sustavu. Prikaz vezanog raspršenja u dvije varijable x i y.
-Svaka statistička jedinica (tj. ispitanik) prikazana je jednom točkom s dvije koordinate:
rezultat u X varijabli, povezani rezultat u Y varijabli.

-Imali smo primjer gdje vidimo na grafu rezultate studenata logopedije koju su postigli na I. i
na II. Kolokviju iz statistike. Svaka točkica na grafu predstavlja jednog studenta. Više
studenata, veća je šansa da iznesemo neki zaključak. Rezultati se generalno grupiraju oko
sredine na obje varijable. Kada povučemo pravac između te 2 varijable dobivamo jednu crtu
koja se naziva PRAVAC REGRESIJE.
Pozitivna povezanost je ako je student imao dobre rezultate na I. kolokviju, a vrlo vjerojatno
će ih imati i na II. kolokviju.
Rezultati na kolokviju koji su izraženi u postotcima pripadaju intervalnoj skali jer nema
apsolutne nule.
4. Koja mjerna skala se najčešće koristi u psihologiji ?

Većinom što psiholozi mjere je na intervalnoj skali jer se psiholozi većinom bave
testovima, mjernim instrumentima, testovima inteligencije, upitnicima, testovima
znanja i to sve nema apsolutnu 0.

A kada psiholozi traže fiziološku mjeru gdje imaju apsolutnu nulu, za mjerenje krvnog
tlaka, ubrzavanje srčanog pulsa, koriste omjernu skalu.

6. Što je to korelacijska površina ?

KORELACIJSKA POVRŠINA je „površina” koju u koordinatnom sustavu zauzimaju


individualni rezultati pojedinih elemenata u dvije varijable, između kojih se računa
korelacija. Površina koja označava raspršenja pojedinih statističkih jedinica oko parcijalne
srednje vrijednosti u Y za neku fiksnu vrijednost u X.

7. Što je to potpuna korelacija ?

-Potpuna korelacija postoji kad u svakoj vrijednosti u jednoj varijabli X odgovara samo
jedna vrijednost u drugoj varijabli Y.
-Ako linearnom porastu prve varijable odgovara linearni porast druge varijable, i to tako da je
jedna određena vrijednost prve varijable uvijek povezana s korespondentnom vrijednošću
druge varijable, korelacija je POTPUNA i POZITIVNA: r=+1

-Ako linearnom porastu prve varijable odgovara linearni pad druge varijable, i to tako da je
jedna određena vrijednost prve varijable povezana s jednom korespondentnom ( podudarati ,
poklapati ) vrijednošću druge varijable, korelacija je POTPUNA I NEGATIVNA: r=-1

8. Što je to djelomična korelacija ?

-Kod djelomične korelacije postoji kovarijabilitet kod promatranih varijabli, ali


određenoj vrijednosti varijable X odgovara više različitih vrijednosti varijable Y.
-Ako linearnom porastu prve varijable uglavnom odgovara linearni porast druge varijable, i to
tako da je jedna određena vrijednost prve varijable povezana s više vrijednosti druge
varijable, korelacija je DJELOMIČNA I POZITIVNA: 0<r<1

-Ako linearnom porastu prve varijable uglavnom odgovara linearni pad druge varijable, i to
tako da je jedna određena vrijednost prve varijable povezana s više vrijednosti druge
varijable, korelacija je DJELOMIČNA i NEGATIVNA: -1<r<0

9. Što je crta ili pravac regresije?


CRTA ili PRAVAC REGRESIJE je crta koja aproksimira točke (koje predstavljaju pojedine
statističke jedinice, tj. ispitanike) na jednu zajedničku liniju.
Spaja točke s koordinatama određenim FIKSNIM VRIJEDNOSTIMA u jednoj varijabli (X) i
PARCIJALNIM SREDNJIM VRIJEDNOSTIMA u drugoj varijabli (Y)
Pokazuje tip odnosa između varijabli:
pravac – linearna korelacija
crta – zakrivljena korelacija

10. Što kad je korelacija=0 ?

-Kad je korelacija=0 svakoj vrijednosti u X varijabli mogu odgovarati sve vrijednosti u Y


varijabli.
-Jednoj određenoj vrijednosti X varijable odgovara bilo koja (od mogućih) vrijednosti druge
varijable: r=0
-Među varijablama postoji samo SLUČAJAN varijabilitet, tj. nema kovariranja → promjene u
jednoj varijabli odvijaju se nezavisno od promjena u drugoj varijabli.

12. Što je Rezidualni varijabilitet ? – standardna pogreška prognoze

-Rezidualni varijabilitet je varijabilitet rezultata koji je preostao u varijabli Y kad se


promatra povezanost s rezultatima u X.
-Što je korelacija između X i Y varijable veća, rezidualni varijabilitet je manji jer se točke bolje
aproksimiraju na crtu regresije.

-Ako je korelacija potpuna, sve točke prianjaju na crtu regresije pa je rezidualni varijabilitet =
0.
-Ako nema korelacije, točke će maksimalno odstupati od crte regresije pa će rezidualni
varijabilitet biti maksimalan, tj. jednak standardnoj devijaciji vrijednosti u Y varijabli.
-Što točke više odstupaju od crte regresije, to je rezidualni varijabilitet veći.

13. Što određuje jednu Pearsonovu korelaciju ? Što sve možemo saznati na osnovu
iznosa koeficijenta korelacije?

-Za početak možemo saznati njegovu visinu i smjer, da li taj koeficijent ukazuje da je riječ o
visokoj povezanosti, znači te varijable su u snažnoj korelaciji i nešto na njih djeluje da
zajedno rastu ili padaju ili da zajednu 1 raste, 1 pada u istom intenzitetu ili su neke slabije
povezanosti.

-Negativna i pozitivna korelacija ( povezanost između varijabli ).

-Negativna korelacija= porastom rezultata na jednoj varijabli padaju rezultati na drugoj


varijabli.

-Pozitivna korelacija= npr. provođenjem treninga, raste umor, a raste i vrijeme.

- Jedan od preduvjeta Pearsonove korelacije je da moraju biti linearni odnosi da bi se ona


utvrdila.
Možemo grafički prikazati te rezultate i viditi preko korelacijske površine smjer i u jednoj mjeri
visinu.
Kada govorimo o Pearsonu NE MOŽEMO reći: vrijeme uloženo u trening uzrokuje umor, čak
i da je to tako, mi to ne možemo zaključiti iz jednog broja koji smo izračunali.

15. Koji su uvjeti za računanje Pearsonovog koeficijenta?

1. uvjet= LINEARNI ODNOS između varijabli, ako je nelinearan možemo mi izračunati


Pearsona, ali nećemo dobiti točan rezultat.

2. uvjet= Pearson je parametrijski postupak, da bi smo mi točno zaključili o odnosima među


varijablama te varijable trebaju biti NORMALNO DISTRIBUIRANE.

3. uvjet= potreban je VELIK broj parova rezultata, barem 30 ili više

4. uvjet= HOMOSCEDASCITET predstavlja podjednaku raspršenost rezultata varijable Y oko


svakog rezultata varijable X.

5. uvjet= rezultati u obje varijable moraju biti prave numeričke vrijednosti, tj. moraju biti
izraženi barem na intervalnoj skali

HOMOSCEDASCITET bi značilo da za rezultat 40 na varijabli X, raspon rezultata oko 40-ak


treba biti podznak kao i recimo raspon rezultata oko Y 60-ke, drugim riječima varijabilitet
rezultata Y treba biti podjednak na svim razinama rezultata varijable X.

16. Što je homoscedascitet?

Homoscedascitet je podjednako variranje vrijednosti u Y varijabli za sve vrijednosti u X


varijabli.
Teško ga je kontrolirati pa se obično to i ne čini, već se samo pretpostavlja da nije u znatnijoj
mjeri narušen.
Kontrola: dijagram raspršenja.

18. Što je koeficijent determinacije ? Što to matematički predstavlja ?

Matematički to je r na kvadrat, mi kvadriramo r koji smo dobili, recimo korelacija -0,80 znači
postoji visoka negativna korelacija, kad to kvadriramo i dobijemo 0,64, termin 64 predstavlja
64%, odnosno statistički izraženo da ove 2 varijable koje koreliraju -0,80 dijele tvz. 64%
zajedničkih faktora.

21. Kada je opravdano računati koeficijent korelacije r ?

Opravdano ga je računati kada:


kada su rezultati barem na intervalnoj skali, ako je broj rezultata veći od 30, ako su
distribucije u varijablama simetrične, ako je povezanost među varijablama linearna, a ne
zakrivljena.

26. KOEFICIJENT DETERMINACIJE: rxy ² ?


Postotak zajedničke varijance dviju varijabli, odnosno postotak svih faktora koji su odgovorni
za dobiveni stupanj sukladnosti u variranju rezultata varijabli X i Y.
Određuje se kvadriranjem koeficijenta korelacije: rxy² (npr. r=0.30, rxy²=0.09 ili 9 %
zajedničke varijance; r=0.6, rxy²=0.36 ili 36 % zajedničke varijance; dakle, povezanost r=0.6
je zapravo 4 puta snažnija od povezanosti r=0.3!)
Može se još interpretirati i kao postotak objašnjene varijance ili postotak redukcije pogreške.

27. Što utječe na korelaciju ?

Na korelaciju utječe: grupiranje rezultata, zakrivljeni odnos varijabli, podskupine s različitim


aritmetičkim sredinama, utjecaj raspona- ograničeni raspon smanjuje visinu korelacije.

Važne napomene:

-Dakle, numerička vrijednost koeficijenta korelacije je od -1 do 1.

-Pozitivan predznak ukazuje da su promjene istosmjerne, dok negativni predznak označava


da su promjene u promatranim varijablama suprotnog smjera.

- Za svaki izračunati koeficijent korelacije potrebno je izračunati i njegovu statističku


značajnost i tek onda ga interpretirati.

- Interpretacija koeficijenata korelacije ovisi o vrsti varijabli, broju ispitanika, ali kao gruba
orijentacija, nekada se navodi da je:

0-0,2 nikakva ili vrlo slaba povezanost,

0,2-0,4 slaba povezanost,

0,4-0,7 srednja povezanost ,

0,7-1 velika povezanost

-Postoje različiti koeficijenti korelacije, ali svi oni samo pokazuju stupanj sukladnosti u
variranju varijabli, a ne ukazuju na uzročno-posljedičnu vezu među varijablama. To znači da
ako se utvrdi da je neki koeficijent korelacije značajan, ne može se zaključiti da porast jedne
varijable uzrokuje porast druge već da one sukladno variraju, tj. da su značajno povezane.

29. T-test ?

T-odnos se općenito odnosi na razlomak kod kojeg se u brojniku nalazi neka vrijednost, a u
nazivniku pogreška te vrijednosti.
T-odnos je najpoznatiji kod testiranja značajnosti razlika između dvije aritmetičke sredine i u
tom slučaju on pokazuje koliko je puta neka razlika veća od svoje pogreške.

30. Linearna korelacija ?


-Podjednake promjene vrijednosti u jednoj varijabli praćene su podjednakim promjenama
vrijednosti u drugoj varijabli.

-Crta regresije u dijagramu raspršenja je PRAVAC.

- Načelno, za svaku korelaciju možemo odrediti dva pravca regresije:


1. na apscisu nanosimo vrijednosti A varijable, a na ordinatu vrijednosti B varijable
2. na apscisu nanosimo vrijednosti B varijable, a na ordinatu vrijednosti A varijable

-Određivanje dva pravca regresije za jednu korelaciju ima svoj smisao samo ako obje
varijable mogu biti i prediktorske i kriterijske (npr. korelacija između godina školovanja i
verbalnih sposobnosti).

31. Zakrivljena korelacija ?

-Povezanost koja nije linearna (npr. korelacija između intenziteta rasvjete i radnog učinka u
nekom preciznom poslu).
-Može biti dvojaka:
1. zakrivljena povezanost u kojoj crta regresije ne mijenja svoj smjer
2. zakrivljena povezanost u kojoj crta regresije mijenja svoj smjer › nije dopušteno
izračunavati Pearsonov r!

- Prije odluke o izračunu određenog koeficijenta korelacije, korisno je grafički prikazati


dobivene rezultate pomoću dijagrama raspršenja.

32. Vrste korelacija ?

Linearne i nelinearne korelacije.

33. Spearmanov koeficijent korelacije, Ro ?

-Spearmanov koeficijent korelacije je jedna ili obje varijable mjerene ordinalnom mjernom
ljestvicom. Ne postavlja uvjet linearnosti, simetričnosti niti veličine uzorka.
Nazvan po Charles Spearman.

-Procjenjuje koliko se dobro može opisati odnos između dvije varijable pomoću
a monotono funkcija.

-Spearmanova korelacija ocjenjuje monotone odnose (bili oni linearni ili ne).

-Ako nema ponovljenih vrijednosti podataka, javlja se savršena Spearmanova korelacija +1 ili
-1 kada je svaka od varijabli savršena monotona funkcija druge.

-Neparametrijski test ( računa s “rangovima”):

linearna korelacija, dva pokazatelja, ordinalna mjerna ljestvica .

-Jedna ili obje varijable izražene u rangovima (ordinalna skala)

- Nisu poznate stvarne razlike među rezultatima, samo razlike među rangovima rezultata.

-Za razliku od r, Ro ne zahtjeva linearan odnos među varijablama, niti zadovoljenje uvjeta
normalne distribucije i izostanka ekstremnih rezultata
-Rang korelacija daje samo približnu indikaciju asocijacije između dvije varijable i opravdano
ju je upotrijebiti samo onda ako se ne može izračunati r korelacija!

-Može se računati i ako varijable nisu u linearnom odnosu.

-Daje približnu vrijednost povezanosti dviju varijabli. Neosjetljiv na ekstremne rezultate.

34. Regresijska analiza ?

Regresijska analiza bavi se određivanjem funkcionalne zavisnosti između dviju ili više
varijabli. Analitički izraz te zavisnosti zove se regresijski model.

Ako model izražava vezu između zavisne i jedne nezavisne varijable, riječ je o jednostavnom
regresijskom modelu.

Ako model izražava vezu između zavisne i dviju ili više nezavisnih varijabli, riječ je o modelu
višestruke regresije.

35. Kendallov koeficijent korelacije, Tau ?

-Uz Spearmanov koeficijent rang korelacije veoma često se koristi i Kendallov koeficijent
rang korelacije.

-Način izračunavanja Tau (τ) koeficijenta korelacija nešto je složenije od izračunavanja


Spearman-ovog ili ρ (Ro) koeficijenta korelacija.

-S se računa tako da se u Y varijabli svaki rang usporedi s ostalima, koji su desno od njega.
Ako je rang s kojim se uspoređuje veći, upiše se +1, ako je manji upiše se –1, a ako su
jednaki upiše se 0.

-Obično se naziva Kendallov τ koeficijent. Ime je dobilo po Maurice Kendall.

-Kendallov koeficijent rang-korelacije τ (tau), obje varijable su ordinalne, ili jedna varijabla je
nominalna dihotomna (ima samo dvije klase), a druga je metrička ili Likertova ljestvica.

36. Testiranje značajnosti koeficijenta korelacije Tau ?

37. Point-biserijalni koeficijent, rpb ?

-Point-biserijalni koeficijent korelacije računa se između neke kontinuirane varijable i neke


dihotomne (binarne) varijable.

-Prije računanja ovog koeficijenta korelacije potrebno je dihotomnoj (binarnoj) varijabli


pridijeliti vrijednosti za svaku kategoriju. Ako je neka karakteristika nazočna onda je varijabli
potrebno pridijeliti rezultat “1”, a ako ta karakteristika nije nazočna najzgodnije je varijabli
pridijeliti vrijednost “0”.

- Point-biserijalni koeficijent korelacije jednak je Pearsonovom (r) koeficijetu korelacije i


obilježava se rpb.

-Point-biserijalni koeficijent korelacije računa se po formuli.


-To je utvrđivanje povezanosti između varijabli izraženih na dihotomnoj (nominalnoj) i
intervalnoj/omjernoj skali.

- Formula bazirana na Pearsonovom koeficijentu korelacije.

-Ako je riječ o politomnoj (nominaloj) varijabli, primjenjuje se tetrahorični koeficijent korelacije


(nije predviđen planom i programom)
- Biserijalni koeficijent- dihotomna varijabla je „umjetno” na nominalnoj skali.

-Značajnost ovoga koeficijenta korelacije testira se na identičan način kao i Pearsonovog


koeficijenta korelacije (r).

39. Koeficijent parcijalne korelacije?

Parcijalna korelacija predstavlja korelaciju između dvije varijable kod kojih je isključen utjecaj
treće varijable.

Postupak eliminacije utjecaja neke varijable na one ispitivane naziva se


parcijalizacija. Parcijalizirajući utjecaj treće varijable na dvije ispitivane,
moguće je dobiti pravi koeficijent korelacije, koji se naziva koeficijent parcijalne
korelacije.

-Nekada se između dvije varijable može dobiti visoka korelacija zato što na obje varijable
istovremeno, na isti način djeluje na neka treća varijabla.

-Formulom za parcijalnu korelaciju računa se povezanost dvije varijable, uz istovremeno


isključivanje „utjecaja” (kontrolu) treće varijable na prvu i drugu varijablu.
*Bazirana na Pearsonovoj formuli za korelaciju, moguće računanje koeficijenta
determinacije.

40. Značajnost parcijalne korelacije?

-Kao i kod ostalih koeficijenta korelacija značajnost se testira t – testom.

-Teorijski t očitava se iz tablice studentove distribucije uz broj stupnjeva slobode određen


pomoću: DF = N – 3.

41. Koeficijent konkordancije (W)?

-Ako imamo više od dva ocjenjivača koji rangiraju neke ispitanike prema njihovom uspjehu i
ako želimo izračunati koliko se ti ispitivači međusobno slažu u svojim ocjenama, to ćemo
postići računanjem koeficijenta konkordancije W.

• Ispitivanje slaganja između više nizova rangova.

• Nekoliko ocjenjivača daje rangove za neke kandidate; nas zanima koliko se ocjenjivači
slažu.

• Koeficijentom W se testira odnos između stvarnog slaganja ocjenjivača i maksimalno


mogućeg slaganja.

• W ne može biti negativan


• Kada među ocjenjivačima ne bi bilo slaganja, svaki ocjenjivani kandidat bi morao imati
jednaku sumu rangova.

• Traže se razlike između svake sume rangova i očekivane sume rangova pod nul
hipotezom: (m(N+1)/2 )

Primjer: Četvorica ispitivača ocijenila su šestoricu učenika. Koliki je koeficijent slaganja


ispitivača u ocjenjivanju učenika, ako su rezultati dati u slijedećoj tablici.

Značajnost koeficijenta konkordancije testira se pomoću Hi-kvadrat testa.

Uz broj stupnjeva slobode df=N-1 očita se iz tablica teorijski Hi-kvadrat za razinu značajnosti
5%. Ako je izračunati Hi-kvadrat veći od tabličnog Hi-kvadrata, može se zaključiti da je
koeficijent konkordancije W statistički značajan, tj. procjenjivači se slažu u svojim ocjenama.
Može se zaključiti da se ispitivači statistički značajno slažu u ocjenjivanju učenika, uz
pogrešku od 5%.

- Ti- zbroj rangova


- Tablica F

42. Multipla korelacija?

-Multivarijatni postupak kojim se određuje stupanj povezanosti između jedne varijable


(kriterijska varijabla ili kriterij) i optimalno ponderirane kombinacije nekoliko drugih varijabli
(prediktorske varijable ili prediktori).

-Odnose prediktorskih varijabli i kriterija obično grafički prikazujemo preko „Venn dijagrama”.
.optimalno ponderirana - svaka prediktorska varijabla se ponderira (pomnoži) vrijednošću
kojom joj se pridaje određena važnost

- Ponder („važnost”) varijable se određuje na osnovu:


a) visine povezanosti prediktora s kriterijem b) povezanosti između prediktora

-Što je korelacija prediktora s kriterijem veća, on bi trebao imati veći udio (težinu ili ponder) u
multiploj korelaciji R

-Težina/Važnost pojedinog prediktora se izražava preko beta (β) pondera

- Za optimalan regresijski model (R), poželjna je što veća korelacija prediktora s kriterijem, a
što manja korelacija između prediktora (odsustvo multikolinearnosti)

-Multipla ( višestruka ) korelacija je korelacija između neke varijable koja se proučava i


strukture 2 ili više varijabli koje čine jedan sistem.

-Višestruka korelacija je analitička procedura kojom se utvrđuje na koji način više nezavisnih
varijabli utječe na jednu zavisnu varijablu. Koeficijent višestruke korelacije označava se
velikim latiničnim slovom R.

- Za računanje koeficijenta višestruke korelacije potrebno je prvo izračunati koeficijente


korelacije između svakog para varijabli koje promatramo.

-Odnos koeficijenata korelacije varijabli može se prikazati matricom korelacije. Dobivene


koeficijente potrebno je uvrstiti u formulu za izračun višestruke korelacije.
-Podaci višestruke korelacije kod koje se promatra međusobni utjecaj tri varijable može se
prikazati trodimenzionalnim scatter dijagramom.

43. Beta-ponderi (β) ?

-Beta-ponderi (β) su standardizirani koeficijenti učešća.

-Beta-ponder1 pomnožimo s rezultatima prediktora 1*, a Beta-ponder2 s rezultatima


prediktora 2*, da bismo dobili maksimalno moguću multiplu korelaciju prediktora s kriterijem
*Prediktori i kriterij trebaju biti standardizirani.

44. B-koeficijenti ?

-B-koeficijenti su nestandardizirani koeficijenti učešća.

*Prediktori i kriterij trebaju biti izraženi u bruto rezultatima.

-b koeficijenti nisu međusobno usporedivi jer njihova veličina ovisi o  (standardnoj devijaciji)
pripadajućeg prediktora.

45. MULTIKOLINEARNOST PREDIKTORA ?

-Multikolinearnost= povezanost dvije ili više prediktorskih (X) varijabli.

48. Uvjeti korištenja R? odnosno multiple korelacije

Uvjeti: isti uvjeti za korištenje Pearsonove r i odsustvo multikolinearnosti

49. Ograničenost R?

OGRANIČENJA:

1. Precijenjenost R (multipla korelacija sistematski je veća od korelacije izračunate na


populaciji):

2. Ne razlikuje slučajne od stvarnih korelacija u populaciji

3. Omjer N i k (preporuke N=15 ili 30 x k, no to ovisi o fenomenu koji se ispituje – veći uzorak
za “slabije” fenomene)

50. Preduvjeti za korištenje Pearsonova koeficijenta korelacije?

Preduvjeti: Normalnost distribucije, Linearnost povezanosti, Homoscedascitet.

51. Upotreba multiple korelacije?

-U profesionalnoj/akademskoj selekciji- primjena više prognostičkih testova (prediktori) za


prognozu budućeg uspjeha u poslu/školi (kriterij).
-Primjena optimalne kombinacije tretmana u svrhu postizanja poboljšanja u (kognitivnom,
govornom, psihofizičkom) statusu djeteta.
-Medicini- primjena dijagnostičkih testova (prediktora), za donošenje zaključaka o fizičkom
(psihičkom) stanju pacijenta.

54. 'Najpošteniji' pravac ?

'Najpošteniji' pravac - onaj koji ima najmanju sumu kvadrata odstupanja pojedinačnih Y
rezultata od tog pravca.

55. Standardna pogreška prognoze (Spp)?

Standardna pogreška prognoze = mjera variranja konkretnih rezultata oko pravca regresije
(oko najvjerojatnijeg, prognoziranog rezultata).

-Prognoza pomoću pravca regresije će biti manje točna što je niža korelacija između dvije
varijable, jer su u tom slučaju individualni rezultati jako raspršeni oko pravca regresije.

-Pri tome moramo pretpostaviti, a što ne mora biti tako tzv. homoscedascitet = raspršenje
oko pravca regresije je manje-više podjednako uz čitavu duljinu pravca.

56. Standardna pogreška aritmetičke sredine?

Standardna pogreška aritmetičke sredine = mjera variranja aritm. sredina uzoraka oko prave
aritm. Sredine.

Napomena:

-Prognoziranje rezultata iz X u Y ima smisla ako: -su varijable u linearnom odnosu -ako
postoji približan homoscedascitet (a on ne postoji ako nemamo približnu normalnu
distribuciju svake varijable) .

-Savjet: najprije nacrtati scatter dijagram.

58. Zašto nije preporučljivo provoditi više t-testova ?

Zbog:

1. Povećavanjem broja t-odnosa, povećavamo razinu značajnosti

2. t-test vrijedi za slučajne uzorke

3. Povećan „posao” izračunavanja

4. Uzimajući u obzir samo usporedbu dvije M, gubimo na preciznosti, jer varijabilitet rezultata
ovisi o svim grupama, a ne samo o dvije grupe

59. ANOVA ?
*Kod ANOVE varijabilitet svih rezultata se rastavlja na dijelove od kojih je sastavljen , a to
su:

-INTERNI VARIJABILITET ( varijabilitet unutar unutar svake pojedine grupe ) –within groups
(WG)

-VARIJABILITET IZEMĐU GRUPA- between groups ( BG )

*Iz odnosa tih dvaju varijabiliteta može se zaključiti da li se radi o grupama koje se
međusobno razlikuju ( ne pripadaju istoj populaciji ) ili se ne razlikuju značajno , odnosno sve
grupe potječu iz iste populacije ( a njihove razlike su slučajne )

61. Mogući nacrti za ANOVA-u?

›Jednosmjerna ANOVA (nezavisni uzorci)

› Jednosmjerna ANOVA – ponovljena mjerenja (zavisni uzorci)

› Dvosmjerna ANOVA (2 nezav. var., nezavisni uzorci)

› Dvosmjerna ANOVA - ponovljena mjerenja na 1 faktoru

› Dvosmjerna ANOVA - ponovljena mjerenja na oba faktora

› Višesmjerna ANOVA (više nez. var)

62. Preduvjeti za ANOVU?

Preduvjeti:
1. Podaci populacije iz kojih su uzorci uzimani normalno distribuirani
2. Varijance populacija približno jednake

-No, ovi uvjeti mogu biti zanemareni ako su:


1. Uzorci jednake ili slične veličine
2. Podaci populacija međusobno slični u odstupanju od normalne distribucije

VAŽNO: Nakon ANOVE...

-Ukoliko F nije statistički značajan, ne zanimaju nas razlike među pojedinačnim skupinama.

-Međutim, ukoliko F jeste značajan, to nam govori samo da sve grupe ne pripadaju istoj
populaciji, pa nas zanima nas među kojim je skupinama razlika značajna.

68. Oblici dvosmjernih ANOVA?

-Nezavisni uzorci (Factorial between subjects two-way design ANOVA) → Kod ovakve
analize u svakoj od kategorija nalaze se drugi ispitanici!

-‘Mješoviti dizajn’ ili ponovljena mjerenja na jednom faktoru (Mixed within-between


subject two-way design ANOVA) → Kod ovakve analize na jednom faktoru imamo
ponovljena mjerenja (faktoru A -kolone), a na drugom –B nezavisne uzorke (redovi).
-Dvosmjerna ANOVA s ponovljenim mjerenjima na oba faktora(Factorial within subject
two-way design ANOVA) → ponovljena mjerenja na oba faktora (prvom i drugom, redovi i
kolone): isti ispitanici se nalaze u svim kategorijama!

69. Što je interakcija?

-Interakcija je učinak ili rezultat istovremenog uzajamnog djelovanja dvije ili više
varijabli na Zavisnu varijablu.

-U ANOVI ukazuje koliko je i kakvo je uzajamno djelovanje nezavisnih varijabli, a ne njihove


samostalne efekte.

-Interakcija je prisutna kada efekt jedne nezavisne varijable na zavisnu ovisi o razini druge (ili
drugih) nezavisnih varijabli.

-Dakle, efekt jedne nezavisne varijable na zavisnu nije isti na svim razinama neke druge
nezavisne varijable.

70. Koji su neparametrijski postupci ?

› Kvalitativni podaci (nominalna skala)

› Podaci kojima distribucija značajno odstupa od normalne

Hi Kvadrat, centili, decili, koeficijent konkordancije čudesa…

72. OSNOVNA UPOTREBA χ 2 testa ?

χ 2 test jedan od najpoznatijih neparametrijskih testova.

Kada raspolažemo s frekvencijama pojedinih kategorija rezultata i želimo ih usporediti s


drugim frekvencijama koje bi se očekivale pod nekom hipotezom, odnosno, želimo utvrditi da
li se neke dobivene ili opažene frekvencije razlikuju od teoretskih frekvencija koje bismo
očekivali pod nekom (nul) hipotezom.

74. Upotrebe/oblici χ2 testova?

1. Jedan uzorak

• Odstupaju li frekvencije (jednog) uzorka od teoretskih frekvencija postavljenih uz određenu


hipotezu

• Neke moguće hipoteze: H. slučajnosti; H. normalne distribucije; H. Poissonove distribucije;


H. unaprijed poznatih frekvencija

2. Dva ili više uzoraka/svojstava

• 2x2 tablica
• Tablica kontigencije

• Razlikuju li se uzorci u opaženim svojstvima (frekvencijama)

3. Dva zavisna uzorka

• 2x2 tablica (dihotomna svojstva) – testiranje, je li došlo do promjene u dva ponovljena


mjerenja? • McNemarov test

VAŽNO:

-Kad ne bi bilo nikakvih razlika između opaženih i očekivanih frekvencija, hi-kvadrat bi bio
nula. Što su razlike veće, veći je i izraz hi kvadrata
Tablica graničnih vrijednosti (H) pokazuje uz određeni df koliko najmanje mora iznositi hi
kvadrat da odbacimo nul hipotezu, na određenoj razini sigurnosti (0,05 ili 0,01)

79. Koji su uvjeti za računanje hi-kvadrata?

Navest ćemo praktičnu stranu hi kvadrata to je tzv aditivno svojstvo znači da imamo pravo
zbrojiti nekoliko hi kvadrata iz istih istraživanja i na značajnost dobivenog rezultata

1. Računa se samo s frekvencijama (nema %, p, M...)

2. Suma ft mora biti jednaka sumi fo (min razlike)

3. Kada radimo sa svojstvom pojavilo se/nije se pojavilo trebamo staviti u račun i frekv u
kojima se nije pojavilo (npr. bez nesreće)

4. Frekvencije u pojedinim poljima u tablici moraju biti nezavisne na način da svaka


frekvencija u pojedinom polju mora pripadati drugom ispitaniku (ne može se umjetno
povećavati N)

5. Nijedna ft ne smije biti odveć mala:


a) Kad imamo više od 2 ćelije, ako je više od 20% ft manje od 5 treba spajati susjedne ćelije
b) Kod 2x2 tablica hi kvadrat možemo upotrebljavamo ako je N>40, a ako je N20) nijedna ft
ne smije biti manja od 5
c) U tablicama kontingencije, ako je df>1, hi kvadrat možemo upotrebljavati ako manje od
20% ćelija ima ft manju od 5, a nijedna ćelija manju od 1., Ako to nije postignuto; spajaju se
ćelije.

6. Yatesova korekcija se primjenjuje kad je df= 1 (2x2 tbl), naročito kod malih frekvencija, te
kod tablica kontingencije ako u bilo kojoj ćeliji mamo ft manju od 5

80. Parametrijski vs. neparametrijski postupci?


Upotreba parametrijskih postupaka zahtijeva normalnu distribuciju rezultata. ›
Neparametrijski postupci se nazivaju i statistika slobodna od distribucije.

› Mogu se i primjenjivati na podatke koji su izraženi na intervalnim ili omjernim skale, ali to
nije uobičajeno.

81. Snaga statističkog postupka?


-Snaga statističkog postupka- odnosi se na vjerojatnost odbacivanja nul – hipoteze,
ukoliko je ona zaista pogrešna. Dakle, snaga je sposobnost testa da točno utvrdi
razliku/povezanost između uzoraka podataka, ukoliko ona zaista postoji. -Snaga
neparametrijskih testova je manja od snage parametrijskih testova. Ako između dvije
populacije postoji razlika, to ćemo lakše i uspješnije (točnije) utvrditi primjenom.

89. Medijan test?

Medijan test je postupak koji se koristi kada želimo znati da li se dvije nezavisne grupe
ispitanika razlikuju s obzirom na centralnu tendenciju.

› Nastoji se utvrditi dolaze li dvije nezavisne grupe rezultata (ne moraju nužno biti uzorci iste
veličine) iz iste populacije s istim medijanom,

› Konačan izračun se svodi na hi-kvadrat test,

- u parametrijskoj statistici njemu djelomično odgovara t-test, kojim ispitujemo značajnost


razlika između dvije aritmetičke sredine,

- test se može koristiti kad god su rezultati izraženi na najmanje ordinalnoj skali..

90. Test sume rangova (Mann Whitney U) T TEST ZA NEZAVISNE

Koristi se kada:

- rezultati izraženi najmanje na ordinalnoj skali,

- testiramo pripadaju li dvije skupine ispitanika pripadaju istoj populaciji,

- jedan je od najsnažnijih neparametrijskih testova,

- najbolja je alternativa t-testu kada rezultati nisu izraženi na intervalnoj skali.

91. Test predznaka (Sign test)?

-Ne uzima u obzir veličinu razlike, već samo smjer razlika.

-Iz tog razloga je prikladan postupak, vremenski ekonomičan, kad postoje velike razlike, te
samo aproksimativno želimo odrediti smjer razlika.

NAPISANO:

Dva zavisna uzorka


Ako želimo biti precizniji (zanima nas veličina razlika, a ne samo smjer) koristit ćemo
Wilcoxonov test ekvivalentnih parova (koji zahtijeva mjerene vrijednosti, dakle: intervalnu ili
omjernu skalu).

92. Prošireni medijan test ?- vise nezavisnih

93. Kruskal-Wallisov test? Prošireni mann whitney više nezavisnih


Kruskal-Wallisov test – predstavlja analizu varijance na rangovima. Na određeni način
predstavlja prošireni test sume rangova.

94. Friedmanov test?-vise zavisnih


-Rezultati iste skupine ispitanika u više različitih uvjeta Friedmanov test = ‘dvostruka analiza
varijance rangova’ Bez obzira što se zasniva samo na rangovima, dokazana je dosta visoka
snaga ovog testa.

95. Statistička snaga, zašto je važna?

Vjerojatnost da će istraživanje rezultirati statistički značajnim rezultatom ako je istraživačka


hipoteza točna.
Važna je zbog:

– zbog planiranja veličine uzorka

– zbog razumijevanja smisla nekog statistički neznačajnog rezultata

– zbog razumijevanja smisla nekog statistički značajnog rezultata koji nije važan u
praktičnom smislu

96. Određivanje statističke snage?

1. „pješice” (kao u primjeru)

2. kalkulatori statističke snage na internetu

3. softverski paketi (istraživač unosi vrijednosti različitih aspekata svog istraživanja kao što
su poznata populacijska M, predviđena populacijska M, SD populacije, veličina uzorka,
razina rizika i jednosmjerno vs. dvosmjerno testiranje)

4. tablice statističke snage (pokazuju statističku snagu istraživanja ovisno o dobivenoj


veličini učinka i veličini uzorka) (Cohen, 1988; Kraemer i Thiemann, 1987)

97. Što određuje statističku snagu?

› veličina učinka

› broj ispitanika

› odabrana razina rizika

› jednosmjerni vs. dvosmjerni test

› vrsta statističke procedure

B(eta) KOEFICIJENT – govori o vaznosti pojedinog prediktora

MEDIJAN TEST – preko Hi kvadrata racunamo njegovu znacajnost

PREDZNAK U POINT BIS. KOEF. – predznak govori kojoj smo kategoriji u nominalnoj varijabli
dali veću oznaku i to utjece na to je li pozitivna ili negativna korelacija; u kakvom su odnosu
vrijednosti u kontinuiranoj varijabli i dihotomnoj; ako je poz vece vrijednosti u kont var se
odnose na visi kod u dihotomnoj, da je negativan predznak bilo bi obrnuto

BETA PONDERI – govori o vaznosti pojedinog prediktora

VARIJABILITET U ANOVI , VARIJABILITET U T TESTU –


KAKO ODREDITI SMJER RAZLIKA U TESTU SUME RANGOVA? – preko sume rangova?

MULTIPLA KORELACIJA , MULTIKOLINEARNOST – PRAVAC REGRESIJE (+objasniti formulu)

MAN WHITNEY TEST – njegovu znacajnost gledamo preko z vrijednosti

HETEROSCEDASCITET, PREDUVJETI ZA MULTIPLU

ZAŠTO KORISTITI ANOVU, A NE T TEST-


PREDUVJETI ZA PRAVAC REGRESIJE – linearan odnos varijabli i homoscedascitet

RAZLIKA IZMEĐU SPEARMANA I KENDALLA – S Kendallom možemo uraditi parcijalnu


korelaciju i možemo raditi s varijablom koja je na nominalnoj skali (slicno point biserijalnom),
a Spearman to ne može. Također ako dodajemo neki novi rezultat kad koristimo kendala, ne
moramo ponavljati cijeli postupak a kod Spearmana treba

You might also like