You are on page 1of 11

PSIHOLOKA RAUNARSKA STATISTIKA v0.

3
Autori:Petar Kosti i Vladimir Hedrih

Poglavlje Multivarijantne metode i tehnike + linearna regresija
(Vladimir Hedrih)

VANO! OBAVEZNO PROITATI!

Licenca:
Sadraj ovog fajla je slobodan i besplatan. Autori dozvoljavaju bilo kome ko doe
u posed ovog fajla da ga koristi, presnimava na druge medije u celini, ustupljuje, daje ili
razmenjuje sa drugima pod uslovom da to ini besplatno i da informacija o autorima
ovog sadraja i ova strana prilikom obavljanja takvih radnji ostane sauvana.

Bilo ko ko doe u posed sadraja ovog fajla ima pravo da ga po svojoj elji
modifikuje, prilagoava ili dopunjuje i u takvom obliku dalje distribuira pod uslovom da u
modifikovani sadraj ukljui:
1) informaciju o tome koji deo potie od naeg originala, a koji deo predstavlja
modifikaciju,
2) informaciju o autoru modifikacije,
3) informaciju o tome gde se moe nai originalna (naa) verzija,
4) ovu stranu,
5) kao i pod uslovom da i taj modifikovani deo bude takoe slobodan i besplatan.

Prodaja, iznajmljivanje ili bilo koji drugi vid ostvarivanja materijalne koristi od
sadraja ili dela sadraja ovog fajla, od prodaje medija na kom se nalazi snimljen,
natampan ili na drugi nain zabeleen sadraj ili deo sadraja ili od usluge snimanja ili
beleenja sadraja ili dela sadraja ovog fajla na bilo koji medij nije dozvoljen bez pisane
saglasnosti izdavaa.






Autori







Ni, decembar 2005
14. MULTIVARIJANTNE METODE I TEHNIKE U PSIHOLOGIJI
Autor: Vladimir Hedrih

14.1. Osnovni pojmovi - kombinovanje varijabli, raspravanje varijanse

Najkompleksniju grupu statistikih tehnika ine statistike tehnike koje nazivamo
multivarijatnim. U ovu grupu spada niz statistikih tehnika razliitih namena, kojima je
svima zajednika jedna stvar - rade sa veim brojem varijabli koje nekako kombinuju-
integriu u neke nove varijable sa kojima onda izvode ono to im je i funkcija. Neke od
tih tehnika slue za formiranje predikcionih modela, neke za grupisanje podataka, a
neke samo za smanjenje koliine informacija zarad lake interpretacije. Ipak sve one
koriste dve procedure (nazovimo ih tako) koje e ovde biti opisane. Razumevanje ovih
stvari je od sutinske vanosti za razumevanje i cele oblasti multivarijatne statistike. Te
dve procedure su sledee:

Linearno kombinovanje varijabli - je postupak kojim se varijable sabiraju pomnoene
nekim koeficijentom da bi se dobila neka nova varijabla. Koeficijenti sa kojima se
varijable koje se kombinuju (a koje se onda nazivaju izvorne varijable) mnoe odreuju
uticaj koji data izvorna varijabla ima na novoformiranu varijablu.

Taj model za kombinovanje izgleda ovako:
z=a1*b+a2*c+a3*d+a4*e...
gde su b,c,d i e varijable koje se kombinuju (izvorne varijable), a1, a2, a3 i a4 neki
koeficijenti (brojevi), a z je nova varijabla koja se dobija od izvornih. Naravno mogui su
i drugaiji modeli za kombinovanje, ali to onda nisu modeli za linearno kombinovanje
varijabli i oni se ne koriste u standardnim oblicima multivarijatnih tehnika koje e biti
opisane u nastavku
to je koeficijent kojim se mnoi varijabla vei to je i uticaj te varijable na novu vei. Ako
stavimo da je zbir svih koeficijenata 1, onda e koeficijent odgovarati procentu varijanse
nove varijable koji ini varijansa date izvorne. Ali ovo je ve pria o:

Rasparavanje varijanse - rekli smo ranije da varijansa predstavlja meru razlika izmeu
entiteta u datom statistikom skupu (uzorku, populaciji). Varijansa pokazuje koliko su
entiteti meusobno razliiti, ali ona ima i jo jedno svojstvo - mogue je odgovarajuim
matematikim postupcima odrediti koji deo tih razlika potie od kojih faktora (ili bolje
reeno koji deo varijanse varijabla deli sa kojom drugom varijablom). Drugim reima,
mogue je varijansu neke varijable rasparati na delove tano odreene veliine (a ta
veliina se izraava u odnosu na ukupnu - kao procenat ukupne varijanse) i za svaki od
tih delova odrediti sa kojom je drugom varijablom ta varijansa zajednika. Ovo verovatno
zvui potpuno nerazumljivo, pa u pokuati da objasnim na primeru.
Recimo da imamo grupu od 10 jednojajanih blizanaca i da merimo recimo njihovu
sposobnost za dizanje tegova. Recimo da ti blizanci imaju 10 godina, da su svi iveli u
jedinstvenim virtuelnim svetovima koji su precizno simulirani samo za njih kako bi bili
identini, da su hranjeni istom hranom...sve u svemu pretpostavimo da su i nakon 10
godina identini kao to su bili i kad su se rodili. Recimo da smo izmerili njihovu
sposobnost za dizanje tegova i da svi imaju jednaku - recimo da svako od njih moe da
podigne po teg od 50kg. Njihovca aritmetika sredina na dizanju tegova je sada 50kg, a
varijansa 0 (svi su isti). E recimo sada da upiemo polovinu njih u kolu za dizanje
tegova, a polovinu ostavimo tamo gde su bili. Posle godinu dana merimo ponovo i
otkrijemo da oni to su bili u koli sada mogu svi da dignu 100kg, dok ovi ostali i dalje
mogu 50kg. Sada je njihov prosek 75kg, a varijansa im vie nije 0 nego 625 (standardna
devijacija - 25). Videemo dalje da je korelacija idenja u kolu i rezultata sada 1,00 to
znai da varijabla idenje u kolu u potpunosti objanjava razlike meu naim
blizancima. Recimo da sada uzmemo dva blizanca od ovih to nisu ili u kolu i
smanjimo im prilikeza fiziku vebu. Nakon toga izmerimo i dobijemo da 2 blizanca diu
po 40kg, 3 po 50kg i 5 po 100kg. Prosek je sada 73kg, a varijansa se poveala na 641.
E sada, da smo ovaj poslednji zahvat uradili PRE nego da stvorimo razliku izmeu
blizanaca (uoite da je efekat poslednjeg zahvata smanjivanje sposobnosti dizanja
tegova za 10kg po izloenom blizancu) ukupna varijansa bi bila 16. Znai doprinos ovog
zahvata ukupnoj varijansi je 16. Uoimo da je naa ukupna varijansa na kraju celog
poduhvata (641) jednaka zbiru varijansi koje potiu od ovde dva aktivna faktora.
Ovo je bila demonstracija da je ukupnu varijansu mogue rasparati na delove koji
potiu od razliitih faktora. Naravno, ne moraju svi doprinosi biti takvi da poveavaju
ukupnu varijansu - oni mogu biti i takvi da ukupnu varijansu smanje, ali u svakom sluaju
ono to je bitno je da je varijansa bilo koje varijable svodiva na zbir delova varijanse pod
uticajem razliitih faktora (ili zbiru delova varijanse koji su toj varijabli zajedniki sa
nekim drugim varijablama). Sa informacijske take gledita, sva ova zajednika
varijansa je predstavlja dupliranje informacija - ako su odreene informacije ve
sadrane u jednoj varijabli, te iste informacije na drugom mestu ili drugim mestima su
suvine, a sve tehnike koje e u nastavku biti opisane se upravo bave otkrivanjem
ovakvih zajednikih delova varijabli.

14.2.Regresija
Autor: Vladimir Hedrih

emu slui? Slui predvianju vrednosti ispitanika na jednoj varijabli na osnovu
njihovih vrednosti na drugoj varijabli ili drugim varijablama.

Koji su uslovi za njenu primenu? Kada se kae regresija obino se misli na skup
regresionih tehnika koje rade sa varijablama koje su bar na intervalnom nivou merenja,
mada postoje i regresione tehnike koje rade i sa ordinalnim (ordinalna regresija) i
nominalnim (logistika regresija) podacima. Znai u ovoj tehnici koju sada obraujemo
potrebno je da sve varijable koje ulaze u postupak budu bar na intervalnom nivou
merenja.

Kako to radi? U postupku regresije uslovno reeno imamo dve kategorije varijabli
varijable prediktore (one na osnovu kojih vrimo predvianje) i varijablu kriterijum
(varijabla koju hoemo da predviamo). Onda se trai matematiki model na osnovu
koga je mogue od ove prve grupe varijabli dobiti varijablu na kojoj ispitanici imaju
vrednosti koje su to slinije njihovim vrednostima na kriterijsmakoj varijabli. Najprostiji
sluaj regresione analize je kada imamo jednu prediktorsku i jednu kriterijumsku
varijablu i kada pretpostvaljamo da je odnos izmeu njih linearan (tj. da se moe najbolje
aproksimirati jednom pravom linijom) ovakav sluaj regresije se naziva jednostruka
linearna regresija. U ovom sluaju se postupak regresije jednostavno svodi na
transponovanje prediktorske varijable na skalu kriterijumske (studenti su sluali u prvom
semestru o tome kako se prebacuju vrednosti na z skalu i uopte kako se transponuju
vrednosti sa jedne na drugu skalu).
Malo komplikovaniji sluaj je sluaj multiple linearne regresije kada je potrebno
linearnim kombinovanjem niza prediktorskih varijabli stvoriti varijablu (prediktor) koja to
je mogue bolje aproksimira kriterijumsku (tj. na kojoj ispitanici imaju vrednosti koje su
to je mogue vie sline njihovim vrednostima na kriterijumskoj varijabli).
Jo komplikovaniji su sluajevi nelinearne regresije kada pretpostavljamo da
odnos izmeu varijabli (prediktorskih i kriterijuma) najbolje opisuje neto to nije prava
linija u ovakvim sluajevima se najee radi o razliitim krivim linijama, ali je naravno
mogue pretpostaviti bilo kakav odnos izmeu ovih stvari i onda radi regresiju pod
takvim matematikim modelom.

Kada je mogue predvianje jedne varijable na osnovu druge ili drugih? To je
mogue samo kada su prediktor/prediktori i kriterijum u korelaciji (kada je jedan
kriterijum i jedan prediktor onda traimo obinu korelaciju, a kada je vie prediktora,
onda ve govorimo o multiploj). Naravno postupak regresije je mogue sprovesti i kada
varijable nisu u korelaciji, ali u takvim sluajevima tanost predikcije nee biti nita bolja
od one koju bi imali da smo sluajno pogaali.

Kako znati koliko nam varijabli treba da bismo dobro predvideli kriterijum?
Naravno, optimalno je ono reenje koje nam omoguava da sa to manjim brojem
prediktora to bolje predviamo kriterijum, a to koje varijable ine najbolje prediktor
teko je (nije mogue) utvrditi posmatranjem samo korelacija (obinih) izmeu date
varijable i kriterijuma. Zato u SPSS-u postoji nekoliko metoda koje slue upravo za to
formiranje optimalnog prediktora od to je mogue manjeg broja prediktorskih varijabli (o
tome kasnije).

Metode regresije (u SPSS-u) iako se bazino radi o istom metodu linearne
regresije u SPSS-u se pominje nekoliko metoda koje u stvari slue upravo za stvari gore
pomenute da odrede optimalni broj prediktorskih varijabli evo nekih:
- Enter (Unos) nema nikakve selekcije prediktor se gradi od svih
prediktorskih varijabli.
- Forward (Napred) polazi se od prediktorske varijable koja ima najveu
korelaciju sa kriterijumu (ona se prva ubacuje u jednainu), onda se posle nje
ubacuje prediktorska varijabla koja ima najveu parcijalnu korelaciju (znai
najveu korelaciju sa kriterijumom kad se iz nje i iz kriterijuma iskljue oni
delovi koji su im zajedniki sa ovom prvom prediktorskom varijablom koja je
prva ubaena u proceduru) i tako se ubacivanje nastalja sve dok se ne
potroe sve prediktorske varijable koje imaju statistiki znaajnu parcijalnu
korelaciju sa kriterijumom (pri emu se kod svakog sledeeg ubacivanja kod
raunanja parcijalne korelacije kontrolie za sve one varijable koje su ve u
proceduri). Za ovu metodu mogue je definisati nivo statistike znaajnosti koji
parciijalna korelacija treba da ima da bi varijabli ula u jednainu
- Backward (Natrag) suprotno od prethodne metode prvo se ubace sve, a
onda se redom izbacuju one ije parcijalne korelacije nisu statistiki znaajne
na dovoljnom nivou (u SPSS-u se odreuje poseban nivo za izbacivanje nije
isti kao za ubacivanje).
- Stepwise (metod po koracima - koraasti metod slobodan prevod) u
svakom koraku se u analizu ubacuje varijabla koja ima statistiki najznaajniju
korelaciju (parcijalnu pri emu se kontrolie za varijable koje su ve u
jednaini) sa kriterijumom. Ako u toku trajanje procedure neka od parcijalna
korelacija neke od varijabli koje su ve u jednaini postane statistiki
beznaajna (tj. pree definisani nivo za izbacivanje ta varijabla se izbacuje).

Naravno u svim sluajevima je sam metod sprovoenja postupka regresije identian,
samo se razlikuju brojevi varijabli koje ulaze u postupak i naravno, samo prvi metod daje
jedno reenje svi ostali metodi za svaki korak daju po jedno.

Statistici&Output:

- R koeficijent multiple korelacije predstavlja korelaciju izmeu kriterijuma i
skupa prediktorskih varijabli koje su ubaene u proceduru.
- R kvadrat (R square) koeficijent multiple determinacije predstavlja
procenat varijanse koji je zajedniki kriterijumu i skupu prediktorskih varijabli
ubaenih u proceduru.
- Prilagoeno R kvadrat (adjusted R square) prilagoeni koeficijent multiple
determinacije treba da predstavlja u stvari procenu procenta varijanse koji je
zajedniki prediktorima i kriterijumu, ali u populaciji (obino R kvadrat je esto
tako visoko samo na uzorku).
- sig. F ili samo sig. za testranje znaajnosti koeficijenata korelacije (svih) u
postupku regresije koristi se F test i zavisno od ukljuenih opcija kompjuter
izbacuje nivo statistike znaajnosti odgovarajueg koeficijenta korelacije.
Takoe se koristi F test i za ispitivanje toga koliko dobro (da li bolje od sluaja)
regresioni model predvia kriterijum.
- B oznaka za koeficijente kojim treba mnoiti i konstantu koju treba dodati
prediktorskim varijablama da bi se napravio prediktor. B je oznaka za
nestandarizovanu varijantu koeficijenata (koja kad se primeni daje predvianja
kriterijuma koja su na istoj skali na kojoj i kriterijum).
- Beta to isto samo kada se radi sa standardizovanim verzijama prediktorskih
varijabli (na z skali). Naravno ovim putem se dobijaju predvianja kriterijuma
na z skali.
- Korelacija nultog razreda (zero-order correlation) obina korelacija (obino
jedne od prediktorskih varijabli i kriterijuma).
- Semiparcijalna korelacija (Part correlation) korelacija (u ovom sluaju) date
nezavisne varijable i kriterijuma onda kada se iz nezavisne varijable izbaci
onaj deo koji je toj varijabli zajedniki sa ostalim varijablama u modelu.
- Parcijalna korelacija (Partial) korelacija nezavisne varijable i kriterijuma kada
se i iz kriterijuma i iz nezavisne izbaci onaj njihov zajedniki deo koji im je
zajedniki i sa ostalim varijablama iz modela.
- Ostatak (rezidual) razlika izmeu prave i predviene vrednosti (moe biti
standardizovana, nestandardizovana, studentizovana...)

Neki od autputa koje je mogue dobiti kao nove varijable u matrici:

- Standardizovane (na z skali) i nestandardizovane predviene vrednosti
SPSS moe da formira varijablu (varijable) u kojima se nalaze predviene
vrednosti ispitanika (na osnovu prediktora tj. regresionog modela).
- Prilagoene (Adjusted) predviene vrednosti predviene vrednosti za svaki
sluaj za situaciju kada je taj sluaj izbaen iz modela za raunanje
regresionih koeficijenata (B i Beta).
- Standardizovani i nestandardizovani ostaci (reziduali) dati za svaki sluaj
ponaosob.
- Razlika u Beti (DfBeta) promena u regresionom koeficijentu koja se dobije
kada se dati sluaj izbaci iz regresionog modela (kada ima vie Beta
koeficijenata onda SPSS izbacuje po jednu varijablu za svaki koeficijent).
- Razlika u fitu (DfFit) razlika u predvienoj vrednosti (tog sluaja) koja se
dobije ako se taj sluaj izbaci iz raunanja regresionih koeficijenata (tj. iz
regresionog modela).

Primer:
Da bi se pokrenula linearna regresiaj treba otii na Analiziraj/Regresija/Linearna.


Pojavljuje se ekran u kome treba odrediti varijable koje se ubacuju u proceduru:

U polje zavisna varijabla (Dependent) ubaciti kriterijumsku varijablu, a u polje nezavisna
varijabla (Independent(s)) ubaciti prediktorske varijable (na osnovu kojih elimo da
predviamo). U meniju Metoda biramo neku od metoda regresije (metoda u smislu
naina za utvrivanje koliko od prediktorskih varijabli da ostane u konanom modelu
vidi gore).
Ako ne elimo da formiramo regresioni model na osnovu svih ispitanika nego samo na
osnovu nekih onda ubacujemo odgovarajuu varijablu u polje Selekciona varijabla i
definiemo pravilo (Rule) o tome kako na osnovu vrednosti na toj selekcionoj varijabli
kompjuter da zna koje ispitanike da ukljui u uzorak na osnovu koga se pravi regresioni
model.
Klikom na menii Statistika dobijamo sledei prozor i tu definiemo ta od autputa elimo
da dobijemo:
Ovde je zgodno tiklirati opciju procene
(Estimates) da bi nam SPSS izbacio
vrednosti regresionih koeficijenata,
opciju Intervali poverenja (Confidence
Intervals) da bi na izbacio 95%
intervale poverenja za svaki od
regresionih koeficijenata, opciju
Prikladnost modela (Model fit) da bi
dobili R, R kvadrat, prilagoeno R
kvadrat, opciju promena R kvadrat (R
squared change) da bi dobili podatak o
tome za koliko bi se promenio R
kvadrat ako bismo ubacili onu od prediktorskih varijabli van modela (vidi gore metode)
koja ima najveu parcijalnu korelaciju sa prediktorom (tj. koja bi najvie doprinela
promeni R-a na bolje) ili ako bismo izbacili onu varijablu ija parcijalna korelacija sa
kriterijumom vie nije statistiki znaajna na dovoljnom nivou. SPSS ovde izbacuje ove
podatke za svaki korak Kada zavrimo klikemo na Dalje (Continue).

Ako elimo da neto od outputa dobijemo u vidu novih varijabli u matrici kliknemo na
opciju Snimi (Save). Dobijemo sledei prozor:


Ovde moemo traiti da nam SPSS kao varijable izbaci nestandarizovane,
standardizovane i prilagoene (Adjusted) predviene vrednosti, standardizovane i
nestandardizovane ostatke (Residals), razlike u Beti i razlike u Fitu (DfBeta i DfFit) kada
se dati sluaj izbaci iz procedure, kao i jo niz drugih stvari. Kada ovde zavrimo odemo
opet na Continue.
Ako elimo da promenimo kriterijum za ubacivanje ili izbacivanje prediktorske
varijable iz procedure (to ima smisla samo ako koristimo neki od metoda koji radi u vie
koraka (to su svi pomenuti osim Enter (Unos). Minimalni nivo statistike znaajnosti
parcijalne korelacije date prediktorske varijable koji je potreban da bi ona bila ubaena u
proceduru unosimo u polje Ulaz (Entry), a granini nivo znaajnosti potreban da bi
varijabla bila izbaena u polje Uklanjanje (Removal). Ovako kako je podeeno na slici
iz procedure bivaju izaene sve varijable iji je nivo znaajnosti (njihove parcijalne
korelacije sa kriterijumom) manji od 0,1 (znai brojano vei od 0,1), a u proceduru
ulaze samo varijable ija je parcijalna korelacija sa kriterijumom statistiki znaajna bar
na nivou 0,05.
Naravno, mogue je isto to (kriterijum
za ulaz i izbacivanje) definisati i preko F
vrednosti (znai upisivanjem odgovarajue F
vrednosti, a ne nivoa znaajnosti to je ovaj
dijalog ispod Iskoristi F vrednost (Use F
value), ali emu to.


Output:

Model Summary
,546
a
,298 ,279 .7543 ,298 15,303 1 36 ,000
,634
b
,402 ,368 .7062 ,104 6,078 1 35 ,019
Model
1
2
R R Square
Adjusted
R Square
St d. Error of
the Estimate
R Square
Change F Change df 1 df 2 Sig. F Change
Change Statistics
Predictors: (Constant), ST2
a.
Predictors: (Constant), ST2, ST6
b.


Ovo je prva informativna tabela koja se dobije u autputu. Predviana je ocena na
osnovu nekoliko stavki. Ovde je regresiona procedura okonana u drugom koraku i
konano R je 0,634. Interesantno je da bi ubacivanjem dodatne varijable (nakon drugog
koraka) R Square bio promenjen statistiki znaajno (na nivou 0,019), ali poto
procedura radi na osnovu parcijalnih korelacija prediktorskih varijabli, a ne na osnovu
ovoga, stvar je okonana u drugom koraku.

ANOVA
c
8,708 1 8,708 15,303 ,000
a
20,485 36 ,569
29,193 37
11,739 2 5,869 11,769 ,000
b
17,454 35 ,499
29,193 37
Regression
Residual
Total
Regression
Residual
Total
Model
1
2
Sum of
Squares df Mean Square F Sig.
Predictors: (Const ant), ST2
a.
Predictors: (Const ant), ST2, ST6
b.
Dependent Variable: OCENA
c.


U ovoj tabeli se F testom testira valjanost regresionih modela (modeli iz svakog koraka)
svi koji su statistiki znaajni (Sig.) dobri su tj. predvianje na osnovu njih je bolje od
sluajnog pogaanja. U fusnosti tabele se vidi koje su prediktorske varijable u kom
modelu i ta je kriterijum tj. zavisna varijabla (znai u prvom modelu je prediktorska
varijabla ST2, a u drugom ST2 i ST6, a zavisna varijabla je OCENA).

Coeffi ci ents
a
1,345 ,679 1,981 ,055 -,032 2,721
,662 ,169 ,546 3,912 ,000 ,319 1,005 ,546 ,546 ,546
2,128 ,710 2,995 ,005 ,686 3,570
,609 ,160 ,503 3,815 ,001 ,285 ,934 ,546 ,542 ,499
-,199 ,081 -,325 -2,465 ,019 -,364 -,035 -,392 -,385 -,322
(Constant)
ST2
(Constant)
ST2
ST6
Model
1
2
B St d. Error
Unstandardized
Coef f icients
Beta
St andardi
zed
Coef f icien
ts
t Sig. Lower Bound Upper Bound
95% Conf idence Interv al f or B
Zero-order Part ial Part
Correlations
Dependent Variable: OCENA
a.


U ovoj tabeli su dati regresioni koeficijenti za svaki model, statistka znaajnost razlike
izmeu modela sa primenom koeficijenta i prediktorske varijable i onoga to bi bilo kada
bi data prediktorska varijabla bila iskljuena iz modela (ako je statistiki znaajno, onda
koeficijent/varijabla valja da ostane u modelu). Onda su date gornja idonja granica 95%-
tnog intervala poverenja za B kao i korelacije prediktorskih varijabli i kriterijuma.

Excluded Variables
c
,310
a
2,192 ,035 ,347 ,879
,259
a
1,671 ,104 ,272 ,775
-,103
a
-,719 ,477 -,121 ,962
-,024
a
-,162 ,872 -,027 ,916
-,325
a
-2,465 ,019 -,385 ,982
,183
b
1,134 ,265 ,191 ,651
,081
b
,448 ,657 ,077 ,538
-,031
b
-,226 ,823 -,039 ,914
-,102
b
-,726 ,473 -,124 ,873
ST1
ST3
ST4
ST5
ST6
ST1
ST3
ST4
ST5
Model
1
2
Beta In t Sig.
Part ial
Correlation Tolerance
Collinearit
y
St at ist ics
Predictors in the Model: (Const ant ), ST2
a.
Predictors in the Model: (Const ant ), ST2, ST6
b.
Dependent Variable: OCENA
c.


I konano tu su i podaci o parcijalnim korelacijama varijabli koje nisu bile ukljuene u
model u svakom koraku. Vidimo da je u prvom koraku najbolju statistiku znaajnost
imala varijabla ST6 (0,019) i zato je ona ukljuena u jednainu u drugom koraku, a da u
drugom koraku vie ni jedna od varijabli koje su ostale napolju ne ispunjava uslove za
ulazak u proceduru (a uslov je sig<0.05). Ipak u koloni Beta Ln su dati Beta koeficijenti
koje bi svaka od varijabli imala da je ba ona unesena u proceduru u narednomkoraku
(tj. da ispunjava uslov za unos).

You might also like