Professional Documents
Culture Documents
Glava Prosta Korelaciona I Regresiona Analiza
Glava Prosta Korelaciona I Regresiona Analiza
REGRESIONA ANALIZA
CILJEVI POGLAVLJA
11. glava
2. znate kada se primenjuje korelacija, a kada regresija
3. primenite i shvatite koeficijent proste linearne korelacije
i njegova ograničenja
4. formulišete prost linerani regresioni model, i da na
osnovu njega ocenite i predvidite vrednost jedne pojave
na osnovu vrednosti neke druge
5. shvatite logiku i primenite jedan od najvažnijih
statističkih metoda, metod najmanjih kvadrata
6. interpretirate regresioni i korelacioni izlaz iz modernih
statističkih softvera
1 Termin "stohastički" potiče od starogrčke reči στοχαστικός, što znači ciljati ili
pogađati.
POGLAVLJE 11 – Prosta korelaciona i regresiona analiza 251
Guide for the Social Sciences, Sage, Thousand Oaks, 2005, str. 312, ili:
http://mathworld.wolfram.com/Stochastic.html
3 Kod regresije se izbegava izraz “nezavisna promenljiva“ jer to implicira da je X
tome se na apscisnu osu nanose jedinice pojave koju smo označili nezavisnom
(u regresionoj analizi objašnjavajućom) promenljivom X, a na ordinatnu osu
jedinice zavisne promenljive Y. Ucrtavanjem svih empirijskih parova podataka
može se dobiti važna slika o eventualnom postojanju, obliku, smeru i jačini
veze između posmatranih pojava.
PRIMER 11.1: Uzmimo podatke Tabele 11.1, koja pokazuje izdatke za
propagandu (u milionima dinara) i prihod od prodaje (u 100 miliona dinara),
deset, na slučaj odabranih računarskih firmi u Srbiji.
Tabela 11.1 Izdaci za propagandu i prihod od prodaje 10 računarskih firmi,
na osnovu slučajnog uzorka
Firma A B C D E F G H I J
Izdaci za propagandu 8 10 3 3 2 7 5 6 5 4
Prihod od prodaje 10 14 3 5 4 12 8 9 7 6
Dijagram raspršenosti
14
12
10
Prihod
0
0 2 4 6 8 10
Izdaci
vidu prave linije, što nam govori da je u pitanju linearna veza. Međutim, sve
tačke se ne nalaze na samoj pravoj liniji, jer bi se onda radilo o
funkcionalnom slaganju, što je izuzetno redak slučaj u ekonomiji. U pitanju
je, dakle, stohastička veza, kod koje individualni slučajevi pokazuju
odstupanja od opšte pravilnosti. Ukoliko su tačke više raspršene u odnosu na
pravu liniju, utoliko je i slabija međuzavisnost dve pojave, i obrnuto. U
slučaju kada je raspored tačaka sasvim raspršen zaključuje se da ne postoji
nikakvo kvantitativno slaganje varijacija dve pojave.
Na Slici 11.2 prikazane su različite mogućnosti povezanosti varijacija dve
pojave na odgovarajućim dijagramima raspršenosti.
200
150
Prihod
100
50
0
0 50 100 150 200 250 300
Broj zaposlenih
Kao mera jačine proste linearne korelacione veze u uzorku koristi se relativna
mera, koja se naziva Pirsonov koeficijent proste linearne korelacije, ili
koeficijent proste linearne korelacije, ili često samo koeficijent korelacije.
Formulisao ga je Karl Pirson5 1896. godine. Ovaj koeficijent pokazuje stepen
pravolinijskog kvantitativnog slaganja dve pojave. Označava se sa r i
izračunava po formuli:
Koeficijent
proste linearne n xy − x y (11.5)
r=
korelacije u n x − ( x)
2 2
n y − ( y )
2 2
uzorku
5 Osnovne ideje o korelaciji prvi je sugerisao Frensis Golton 1888. u članku "Co-
relations and their measurements, chiefly from anthropometric data. Proc R Soc
London, 45, str. 219-247". Golton je prvi uveo oznaku r za koeficijent korelacije.
Usled ovoga u poslednje vreme koeficijent proste korelacije neki autori nazivaju
Golton-Pirsonov koeficijent.
POGLAVLJE 11 – Prosta korelaciona i regresiona analiza 259
Nije
Izražena
Inverzna Direktna
Nema linearne
jaka jaka
veze
Broj Prihod
xy x2 y2
zaposlenih x y
299,4 204,7 61287,18 89640,36 41902,09
280 207,35 58058,00 78400 42994,02
133 34,28 4559,24 17689 1175,11
168 35,14 5903,52 28224 1234,81
71 44,3 3145,30 5041 1962,49
71 24,1 1711,10 5041 580,81
28 14,9 417,20 784 222,01
163 70,9 11556,70 26569 5026,81
tačnu vrednost bismo izračunali ako bismo u obzir uzeli podatke za svih 500
kompanija sa globalne liste časopisa Fortune. Budući da te podatke nemamo,
postavlja se pitanje, kako na osnovu koeficijenta korelacije u uzorku r doneti
validan zaključak o tome da li u skupu postoji korelacija?
Prilikom testiranja uvešćemo dodatnu pretpostavku da je zajednički
raspored promenljive X i Y normalan. Zbog toga je jasno da ćemo primeniti
parametarski test.
Nultu hipotezu postavićemo u obliku:
H0 : ρ = 0
odnosno, da u osnovnom skupu ne postoji linearna korelacija, ili, što je isto, da
ocena, r, nije statistički značajna. Ograničićemo se na dvosmernu alternativnu
hipotezu:
H1 : ρ ≠ 0
Dakle, alternativna hipoteza ukazuje samo na to da u skupu postoji linearna
veza, a ne govori ništa o jačini veze. Za nivo značajnosti uzmimo standardnu
vrednost α = 0,05.
Postavlja se pitanje koji statistički test, odnosno koju statistiku testa da
primenimo? U teorijskoj statistici je pokazano da se kod testiranja proste
linearne korelacije koristi t test sa n – 2 stepeni slobode. Polazeći od opšteg
izraza za statistiku testa (10.1) i vodeći računa da hipotetična vrednost
parametra iznosi 0, izraz za statistiku testa glasi:
r
t= (11.6)
sr
gde je sr standardna greška ocene koeficijenta proste linearne korelacije. Pri
njenom izračunavanju koristi se formula:
Standardna greška 1− r2
ocene koeficijenta sr = (11.7)
n−2
proste linearne korelacije
Šta pokazuje ova standardna greška? Podsetimo se: svaka standardna greška u
statistici pokazuje prosek odstupanja ocene od parametra. Dakle, sr pokazuje
koliko u proseku koeficijent korelacije uzorka odstupa od koeficijenta
korelacije skupa.
PRIMER 11.2 (nastavak): Prilikom izračunavanja ocenjenog koeficijenta
korelacije na podatke Tabele 11.2 dobili smo da je r = 0,92. Standardna greška
ocene koeficijenta korelacije sr jednaka je:
1− r2 1 − 0,922
sr = = = 0,16
n−2 8−2
pa će izračunata vrednost statistike Studentovog testa biti:
262 OSNOVI STATISTIKE
r 0,92
t= = = 5,75
sr 0,16
Odredimo sada p-vrednost pomoću tablica Studentovog rasporeda. Broj
stepeni slobode iznosi (n-2)=6. Statistika testa je veća od 3,7074, pa
zaključujemo da je p-vrednost < 0,01 (jer smo vrednost iz zaglavlja 0,005
pomnožiti sa 2 pošto je test dvosmeran). Budući da je p-vrednost manja od
postavljenog nivoa značajnosti α = 0,05, odbacujemo nultu hipotezu.
Zaključujemo, uz rizik greške od 0,05, da da u skupu (koji se sastoji od 500
najboljih kompanija u svetu) postoji linearna veza između broja zaposlenih i
prihoda.
Prikažimo sada izlaze korelacione analize pomoću EduStata, Tabelom 11.4:
Tabela 11.4 Izlaz iz EduStata pri rešavanju postojanja linearne korelacije
Pirsonov koeficijent proste korelacije r
Varijable
X: Broj zaposlenih
Y: Prihod
r: 0,9165
TESTIRANJE
Standardna greška koeficijenta Statistika t-testa P
proste korelacije
0,1633 5,6121 0,001365
H0 : U osnovnom skupu NE postoji linearna korelacija
H1 : U osnovnom skupu postoji linearna korelacija
Zaključak : Pri testiranju nulte hipoteze da u osnovnom skupu nema
linearne korelacije dobijena p-vrednost 0,0014 ukazuje da u osnovnom
skupu postoji linearna veza na nivou značajnosti od 0,01 jer je p-
vrednost < 0,01. Zaključujemo da koeficijent proste korelacije r JESTE
statistički značajan
Statistički softver je dao preciznu p-vrednost koja potvrđuje našu analizu i
zaključak da se nulta hipoteza odbacuje.
Odsečak Nagib
β1
β0
Prost linearni
regresioni model Yi = β 0 + β1 xi + ε i i = 1,2,...,N (11.9)
deterministički stohastički
deo modela deo modela
gde su
Yi i-ta zavisna promenljiva
xi i-ta vrednost objašnjavajuće promenljive
ß0 i ß1 su regresioni parametri: ß0 je odsečak ili slobodni član,
a ß1 nagib
εi stohastički član ili slučajna greška
N veličina osnovnog skupa
i i-ta vrednost u osnovnom skupu.
Šta opisuje ovaj regresioni model i u čemu je njegov smisao? Regresioni model
opisuje (modelira) stohastičku zavisnost između posmatrane dve promenljive u
osnovnom skupu, iz koga je izabran uzorak. Model je linearan, jer je njegov
deterministički deo β0 + β1xi prava linija. Objasnimo detaljnije konceptualnu
osnovu modela.
Vraćajući se na naš Primer 11.1, pretpostavimo za trenutak da su nam
poznati podaci za sve firme u Srbiji koje se bave prodajom računarske opreme.
Recimo da je njihov broj 1000 (N=1000) i da između izdataka za propagandu i
prihoda od prodaje postoji stohastička linearna veza kao u (11.9). Grafički
prikazano, dijagram raspršenosti mogao bi izgledati kao na Slici 11.7.
268 OSNOVI STATISTIKE
Regresiona linija
μ Y⏐X = x = β0 + β 1x i (11.10)
osnovnog skupa i
εi : N(0, σ 2 )
tj. stohastički član ima normalan raspored sa aritmetičkom sredinom
0 i varijansom σ 2 .
4. Nema autokorelacije. To znači da između bilo koja dva stohastička
člana εi i εj ne postoji linearna korelacija.
5. X nije slučajna promenljiva (otuda je u modelu objašnjavajuća
promenljiva označena malim slovom). Ova pretpostavka ukazuje na
to da su vrednosti objašnjavajuće promenljive fiksirane, tj. da ih
istraživač unapred mora odabrati pre uzimanja uzorka. U našem
primeru to bi značilo da bi se najpre fiksirali pojedini nivoi ulaganja
u propagandu, a zatim za svaki od njih na slučaj birala firma i merila
njena prodaja.
Svih pet pretpostavki zajedno formiraju tzv. normalan linearni regresioni
model. Budući da se koristi pretpostavka o normalnosti, jasno je da je linearna
regresija parametarski statistički metod.
Kakva je statistička priroda ocena b0 i b1? Pošto od uzorka do uzorka mogu uzimati
različite vrednosti, koje ne možemo unapred predvideti, one su slučajne promenljive.
Ovo je analogno ocenjivanju aritmetičke sredine skupa, gde je nepoznata
aritmetička sredina skupa μ konstanta, njena ocena X slučajna promenljiva, a
ocenjena (realizovana) vrednost x konstanta. U prostoj regresiji nepoznati
parametri ß0 i ß1 su konstante, njihove ocene b0 i b1 slučajne promenljive, a
nakon što se odabere uzorak, odgovarajuće ocenjene vrednosti b0 i b1 su
konstante. Ove razlike možemo prikazati Tabelom 11.4.
Tabela 11.4 Statistička priroda parametara, ocena i ocenjenih vrednosti u regresiji
Parametri β0 i β1 Konstante
Ocene b0 i b1 Slučajne promenljive
Ocenjene vrednosti b0 i b1 Konstante
(Rezidual) ei = yi −
yi
ei2 = ( yi − yˆ i )2 = [ yi − ( b0 + b1 xi )]
2
(11.14)
U ovom izrazu nepoznate su bo i b1. Postupak minimiziranja se sprovodi
nalaženjem parcijalnih izvoda po b0 i b1 i njihovim izjednačavanjem sa
nulom. Na taj način dolazimo do sistema dve jednačine sa dve nepoznate, koje
se nazivaju normalnim jednačinama:
Normalne jednačine
n n
y i = nb 0 + b 1 x i
i=1 i=1
(11.15)
n n n
xiy i = b0 xi + b1 x i2
i= 1 i=1 i=1
274 OSNOVI STATISTIKE
n xy − x y 10 ⋅ 489 − 53 ⋅ 78
b1 = = = 1,3476
n x 2 − ( x ) 2 10 ⋅ 337 − 53 2
78 53
b 0 = y − b 1x = − 1,3476 ⋅ = 0,6577
10 10
Matematički izraz ocenjene regresione linije glasi:
ŷi = 0,6577 + 1,3476xi
POGLAVLJE 11 – Prosta korelaciona i regresiona analiza 275
Ovu prava ucrtaćemo u dijagram raspršenosti tako što ćemo uzeti bilo koje
dve vrednosti za x, zameniti u jednačinu i dobiti odgovarajuće prilagođene
vrednosti ŷi . Spajanjem te dve tačke dobijamo pravu liniju. To smo i uradili
na Slici 11.10. korišćenjem statističkog paketa Minitab (otuda i zanemarljive
razlike u rezultatima, kao posledica zaokrugljivanja).
14
12
10
Prodaja
0
0 2 4 6 8 10
Propaganda
Gaus-Markovljeva teorema
Gaus-Markovljeva teorema
Ako su ispunjene sve pretpostavke prostog linearnog regresionog
modela, ocene dobijene metodom najmanjih kvadrata su najbolje
(efikasne), nepristrasne linearne ocene.
b 1 : N ( β 1 ,σ b21 )
E(b1) = β1
Slika 12.11 Teorijski uzorački raspored ocene b1
Vidimo da ocena b1 (kao slučajna promenljiva) ima normalan raspored.
Aritmetička sredina tog rasporeda je ß1. Standardna devijacija uzoračkog
rasporeda ocene b1, označimo je sa σb1, naziva se standardnom greškom ocene
b1. Šta pokazuje ova standardna greška? Kao i svaka standardna greška -
prosek odstupanja ocene od parametra. Dakle, standardna greška nagiba
pokazuje prosek odstupanja ocene nagiba u uzorku od parametra nagiba u
skupu. Kao takva, ona ukazuje na preciznost ocene; ukoliko je standardna
greška manja, ocena je kvalitetnija.
U slučaju neispunjenja pojedinih pretpostavki regresionog modela
potrebno je preduzeti odgovarajuće korektivne akcije. Ovo je predmet
ekonometrije i mi se na njima nećemo zadržavati. Spomenimo samo da je
regresiona analiza robustna na odstupanje od normalnosti, ali da se posebni
problemi javljaju u slučaju postojanja autokorelacije i heteroskedastičnosti.
Ovim smo završili sa prikazivanjem četvrte i pete etape u regresionoj
analizi. Prelazimo na šestu: potrebno je ispitati koliko je dobro regresiona linija
prilagođena podacima i testirati da li objašnjavajuća promenljiva predstavlja
bitan faktor pri objašnjavanju varijacija Y.
Nakon što smo ocenili parametre regresionog modela došli smo do optimalnih
ocena i na osnovu njih konstruisali regresionu liniju u uzorku. Od svih
mogućih pravih linija ona se najbolje prilagođava podacima. Sada se postavlja
pitanje, koliko takva linija dobro reprezentuje empirijske podatke? Drugačije
rečeno, koliko je naš model uspešan, tj. kvalitetan, u opisivanju zavisnosti
278 OSNOVI STATISTIKE
yi
Neobjašnjeno
(y i −
yi)
odstupanje ( y i − y ) Ukupno odstupanje
Objašnjeno
odstupanje (
y i − y)
yi
xi
Slika 11.12 Ukupno, objašnjeno i neobjašnjeno odstupanje zavisne promenljive Y
Na dijagramu raspršenosti 11.12 posmatrajmo jednu, proizvoljnu empirijsku
(stvarnu) vrednost yi iz uzorka koja odgovara vrednosti objašnjavajuće
promenljive xi. Pošto je aritmetička sredina serije y konkretnog uzorka uvek
konstanta, ona ne zavisi od serije x, pa se može ucrtati kao linija paralelna x osi.
Iz deskriptivne statistike nam je poznato da se odstupanje (varijacija) meri
najčešće kao razlika između podataka i aritmetičke sredine svih podataka. U
ovom slučaju "podatak" je yi, a aritmetička sredina y . Takvo odstupanje naziva
se ukupnim odstupanjem. Vidimo da se posmatrana tačka ne nalazi tačno na
regresionoj liniji, već je iznad nje. Zbog čega? Zato što posmatramo stohastičke
POGLAVLJE 11 – Prosta korelaciona i regresiona analiza 279
( yi − y ) = ( yˆ i − y ) + ( yi − yˆ i ) (11.18)
Ukupno Objašnjeno Neobjašnjeno
odstupanje odstupanje odstupanje
( yi − y ) 2 = ( yˆ i − y ) 2 + ( yi − yˆ i ) 2
SKU SKO SKN
Ukupna Objašnjena Neobjašnjena (11.19)
suma kvadrata suma kvadrata suma kvadrata
(Ukupan (Objašnjen (Neobjašnjen
varijabilitet) varijabilitet) varijabilitet)
Na taj način, došli smo do iste jednakosti kao kod analize varijanse. Ukupna
suma kvadrata razložena je na dva dela. Objašnjena suma kvadrata često se
naziva i regresionom sumom kvadrata, a neobjašnjena suma kvadrata
rezidualnom ili sumom kvadrata greške. Primetimo da smo izraz SKN već
koristili u obliku Σei2, pri objašnjenju metoda najmanjih kvadrata.
Jednakost (11.19) ima veliki značaj, jer se na osnovu nje dolazi do mera
reprezentativnosti regresione linije; standardna greška regresije se zasniva na
vrednosti SKN, a koeficijent determinacije na poređenju veličine SKO u odnosu
na SKU.
Standardna ( yi − y i ) 2 y 2 − b0 y − b1 xy (11.21)
greška regresije s= =
n−2 n−2
s2 =
y 2
− b0 y − b1 xy
=
720 − 0,6577 ⋅ 78 − 1,3476 ⋅ 489
= 1,215
n−2 10 − 2
s = 1, 215 = 1,102
Budući da je standardna greška regresije u suštini standardna devijacija, ona je
apsolutna mera.
POGLAVLJE 11 – Prosta korelaciona i regresiona analiza 281
Koeficijent determinacije
U praksi se kao indikator kvaliteta regresionog modela, odnosno kao mera
njegove reprezentativnosti, skoro isključivo koristi koeficijent determinacije.
Ovim ne negiramo važnost standardne greške regresije, ona je uostalom deo
regresionog izlaza svakog statističkog softvera. Prednosti koeficijenta
determinacije u odnosu na standardnu grešku su sledeće:
1. ne zavisi od mernih jedinica promenljive Y, odnosno on je relativna
mera,
2. mnogo je lakši za tumačenje, i
3. na jednostavan način omogućava poređenje više regresionih modela.
x 2 2
Koeficijent 2 2
− nx
r =b (11.24)
y
1 2
determinacije 2
− ny
Reprezentativnost
regresionog modela
x 2 2
− nx 337 − 10 ⋅ 5,3 2
r 2 = b 12 = 1,3476 2 = 0,9129
y
2
2
− ny 720 − 10 ⋅ 7,8 2
E(Yi ) = β 0 + β 1 x i
zaključujemo da je nagib β 1 jednak nuli. U tom slučaju vrednosti X nisu od
koristi pri predviđanju Y.
Koeficijent nagiba β 1 jednak je nuli u sledeća tri slučaja:
1. Y je konstantno za bilo koju vrednost X, na primer, Yi = 10. Ova
situacija se grafički može videti na Slici 11.2.i.
2. Između posmatranih pojava ne postoji nikakva kvantitativna veza. Na
Slici 11.2 ovaj slučaj je prikazan pod h.
3. Između promenljivih postoji nelinearna funkcionalna veza. Ovo je
ilustrovano na Slici 11.2 c.
U svim ostalim situacijama postoji barem slaba linearna veza između X i Y, pa
će se nagib prave razlikovati od nule. Stoga je u prostoj linearnoj regresiji
najvažnije testirati hipotezu da li je parametar nagiba ß1 jednak nuli. Ako bi
nas takav test uputio na zaključak da je β 1 = 0, tada ne bismo smeli
ocenjenu regresionu liniju koristiti u cilju predviđanja.
Postavimo, stoga, nultu hipotezu da između varijacija posmatranih
pojava u osnovnom skupu ne postoji linearna veza, odnosno da X ne utiče na
Y:
H0 : β1 = 0
Statistiku testa jednostavno ćemo formirati slično kao kod proste linearne
korelacije (izraz 11.6), tako što ćemo ocenu parametra staviti u odnos sa
standardnom greškom te ocene (jer je pretpostavljena vrednost parametra
jednaka nuli). Ovde je ocena b1, a njenu standardnu grešku σ b1 smo upoznali
kada smo razmatrali karakteristike ocena dobijenih metodom najmanjih
kvadrata. Budući da standardna greška ocene nagiba, σ b 1 , zavisi od nepoznate
standardne devijacije slučajne greške, σ, moramo je oceniti. Kada umesto σ
stavimo njenu ocenu, s (standardnu grešku regresije), dolazimo do formule za
standardnu grešku ocene nagiba:
Ocena standardne s
s b1 =
2 (11.25)
greške nagiba x 2 − nx
Statistika testa ima oblik :
b1
t=
s b1 (11.26)
a statistika testa:
b 1 1,3476
t= = = 9,167
s b1 0,147
Pređimo sada na poslednju etapu regresione analize, koja je ujedno i njen cilj.
Da bismo validno koristili prost linearni regresioni model za predviđanje
neophodno je da su ispunjena, istovremeno sledeća tri uslova:
Predviđamo, uz rizik od 0,05, da će se, kod neke pojedinačne firme koja ulaže
devet miliona dinara u propagandu, prodaja nalaziti u intervalu od 9,841 do
15,731 (stotina miliona dinara). Kao posledica veće standardne greške vidimo
da je interval predviđanja širi od intervala poverenja. Ovo je logično, jer su
individualne vrednosti podložne većim fluktuacijama nego prosečne.
REZIME
U ekonomiji i društvenim naukama preovladavaju stohastičke veze između
pojava. Dok kod funkcionalnih veza za svaku vrednost nezavisne promenljive X
uvek postoji samo jedna vrednost zavisne promenljive Y, kod stohastičkih veza za
jednu vrednost X postoji čitav niz mogućih vrednosti Y. Stohastičke veze u
stvarnosti opisujemo pomoću stohastičkih modela. Ovi modeli uključuju slučajnu
grešku kojom obuhvatamo uticaje svih faktora koje nismo uključili u model.
Prilikom ispitivanja međuzavisnosti varijacija dve ili više promenljivih u
statistici se primenjuju regresiona i korelaciona analiza. Ukoliko analiziramo samo
dve pojave govorimo o prostoj regresiji ili korelaciji. U slučaju analize više od dve
pojave, jednu od njih označavamo kao zavisno promenljivu i primenjujemo
višestruku korelaciju ili regresiju.
Pomoću korelacije ispitujemo da li između dve ili više pojava postoji
kvantitativno slaganje, i ako postoji, kog je intenziteta. Pirsonov koeficijent se
označava sa r i pokazuje da li između dve numeričke promenljive u uzorku postoji
linearna veza. Da bi se ispitalo da li i u osnovnom skupu postoji linearna veza
njegovu vrednost moramo da testiramo pomoću Studentovog t testa. Pirsonov
koeficijent spada u grupu parametarskih pokazatelja jer se zasniva na pretpostavci
da je zajednički skup dve posmatrane promenljive normalan.
Dok kod korelacije nije bitno koju smo promenljivu označili kao zavisnu a
koju kao nezavisnu, kod regresione analize najpre mora da se izvrši identifikacija
promenljivih. Cilj regresije je da se kroz ocenu parametara regresionog modela
izvrši ocenjivanje prosečne vrednosti Y i predvide pojedinačne vrednosti Y.
Zavisnost između dve pojave u prostoj linearnoj regresiji opisujemo kroz prost
linearni regresioni model. Ukoliko su pretpostavke tog modela ispunjene tada
metod najmanjih kvadrata, po Gaus-Markovljevoj teoremi, daje najbolje
nepristrasne linearne ocene. Ideja metode najmanjih kvadrata kod proste linearne
regresije je da se dođe do najbolje prave linije, odnosno one koja će najbolje
reprezentovati vezu između dve pojave. To se postiže minimiziranjem sume
kvadrata reziduala.
Kod proste linearne regresije ocenjujemo dva parametra regresionog
modela: odsečak i nagib. Ocenjena vrednost odsečka pokazuje ocenu prosečne
vrednosti zavisne promenljive kada je objašnjavajuća promenljiva X jednaka 0. U
praksi je daleko važnija ocena nagiba. Ona pokazuje ocenu prosečne promene Y
kada se X poveća za svoju jedinicu.
Da bismo sagledali da li regresioni model na zadovoljavajući način opisuje
POGLAVLJE 11 – Prosta korelaciona i regresiona analiza 289