You are on page 1of 23

STATISTIKA

DR. LIDIJA Z. STIRN

1
Kazalo:

1. STATISTIKA-......................................................................................................................................................4
2. VRSTE SPREMENLJIVK (izražajo vrednost)....................................................................................................4
3. STATISTIČNE SPREMENLJIVKE ALI ZNAKI:..............................................................................................4
4. ATRIBUTIVNE SPREMENLJIVKE:..................................................................................................................5
5. NUMERIČNE SPREMENLJIVKE:.....................................................................................................................5
6. OZNAČEVANJE SPREMENLJIVK:..................................................................................................................5
7. UREJANJE STATISTIČNIH PODATKOV:.......................................................................................................5
8. RANŽIRNA VRSTA IN RANG:.........................................................................................................................5
9. FREKVENČNA PORAZDELITEV KVANTITATIVNIH SPREMENLJIVK:..................................................6
10. PRIKAZOVANJE STATISTIČNIH PODATKOV............................................................................................6
11. GRAFIKON, HISTOGRAM-.............................................................................................................................6
12. SREDNJE VREDNOSTI-...................................................................................................................................6
13. MEDIANA-.........................................................................................................................................................7
14. MODUS:.............................................................................................................................................................7
15. ARITMETIČNA SREDINA ALI POVPREČJE-...............................................................................................7
(literatura)Kvadratična sredina:................................................................................................................................7
(literatura)Harmonična sredina:................................................................................................................................7
(literatura)Geometrična sredina:...............................................................................................................................8
16. MERE VARIACIJE: (mere variranja)................................................................................................................8
VARIANCA IN STANDARDNA DEVIACIJA:.....................................................................................................8
Koeficient variacije :.................................................................................................................................................9
17. KVANTILNI RAZMIKI:....................................................................................................................................9
18. MERE ASIMETRIJE: (literatura).......................................................................................................................9
MERE SPLOŠČENOSTI:.........................................................................................................................................9
19. VERJETNOST:.................................................................................................................................................10
20.TEORETIČNE PORAZDELITVE:...................................................................................................................10
NORMALNA PORAZDELITEV...........................................................................................................................10
Standardizirana normalna porazdelitev:..................................................................................................................11
STUDENTOVA PORAZDELITEV t :...................................................................................................................11
F PORAZDELITEV: (literatura)............................................................................................................................12
2 PORAZDELITEV: (literatura)...........................................................................................................................12
BINOMSKA PORAZDELITEV :..........................................................................................................................12
21. VZORČENJE IN VZORCI :.............................................................................................................................12
NAKLJUČNI VZOREC :.......................................................................................................................................13
VZORČNA PORAZDELITEV ARITMETIČNIH SREDIN :...............................................................................13
VZORČNA PORAZDELITEV RAZLIK DVEH POVPREČIJ:............................................................................14
22. POSKUŠANJE DOMNEV...............................................................................................................................14
OSNOVNA IN NIČELNA DOMNEVA................................................................................................................14
STATISTIČNA ZNAČILNOST REZULTATOV:................................................................................................14
NAPAKE PRI PREISKUŠANJU DOMNEV.........................................................................................................15
23. PARAMETIČNI IN NEPARAMETRIČNI TESTI:........................................................................................15
KAJ JE ZNAČILNO ZA PARAMETRIČNE TESTE. NAŠTEJ KATERE POZNAŠ IN OPIŠI..........................15
KAJ SO NEPARAMETRIČNI TESTI. NAŠTEJ TISTE, KI JIH POZNAŠ IN OPIŠI.........................................15
POSTOPEK pri preizkušanju domnev:...................................................................................................................16
24. ANALIZA KVANTITATIVNIH SPREMENLJIVK.......................................................................................16
OCENA POVPREČJA POPULACIJE...................................................................................................................16
OCENA POVP. Z VELIKIM VZORCEM.............................................................................................................16
OCENA POVP Z MAJHNIM VZORCEM............................................................................................................17
25. PREIZKUŠANJE DOMNEVE O RAZLIKI MED POVPREČJEM VZORCA IN POPULACIJE S TESTOM
»z« (str.79)..............................................................................................................................................................17
26. PREIZKUŠANJE DOMNEVE O RAZLIKI MED POVPREČJEM VZORCA IN POPULACIJE S TESTOM
»t« (str.80)...............................................................................................................................................................17
27. PREIZKUŠANJE DOMNEVE O RAZLIKI MED POVPREČJEMA DVEH NEODVISNIH VZORCEV...17
a. RAZLIKA MED POVPREČJEM DVEH VELIKIH VZORCEV (str. 82):...................................................17
b. RAZLIKA MED POVPREČJEM DVEH VELIKIH VZORCEV (str. 82) (test F):......................................18
28. WILCOXONOV TEST Z VSOTO RANGOV/FREKVENČNIH RANGOV.................................................18
POVPREČNA RAZLIKA PRI PARNIH, MED SEBOJ ODVOSNIH VZORCIH...............................................18
29. ANALIZA PARNIH PODATKOV S TESTOM »T«......................................................................................19

2
30. ANALIZA Z WILCOXONOVIM TESTOM PREDZNAČENIH RANGOV.................................................19
31. PRIMERJAVA VEČ VZORCEV.....................................................................................................................19
a. ANALIZA VARIANCE (F porazdelitev)...........................................................................................................19
b. KRUKAL-WALLISOV TEST...........................................................................................................................19
32. TEST HI-KVADRAT.......................................................................................................................................20
33. KOLERACIJA IN REGRESIJA.......................................................................................................................20
34. KOEFICIENT KOLERACIJE PO PEARSONU..............................................................................................21
35. KAJ JE LINEARNI PROGRAM.KAKO IZ PRIMARNEGA DOBIMO DUALNI PROGRAM. KAJ
POMENI, ČE NEKA DUALNA SPREM. ENAKA 0...........................................................................................21
36. KAJ JE MATRIČNA IGRA Z VSOTO NIČ. KAKO IŠČEMO OPTIMALNO STRATEGIJO ZA OBA
IGRALCA, ČE IMA MATRIKA SEDLO IN KAKO ČE GA NIMA. KAJ JE CENA IGRE...............................21
37. MREŽNO PLANIRANJE RAZLOŽI POJMA KRITIČNA POT IN KRITIČNA..........................................22
AKTIVNOST..........................................................................................................................................................22
38. KAJ POMENI KRATICA DDDP RAZLOŽI KATERI SO OSNOVNI ELEMENTI DDDP IN OPIŠI
RAZLIKO MED DDDP IN MREŽNIM PLANIRANJEM....................................................................................22
39. METODA SIMPLEX-......................................................................................................................................22
40. NAŠTEJ VSE PRINCIPE ODLOČANJA ZA PRIMER HEVRISTIČNEGA ODLOČANJA VSAKEGA
OPIŠITE..................................................................................................................................................................22
41. SISTEM LINEARNIH ENAČB.......................................................................................................................23
42. SISTEM LINEARNIH NEENAČB..................................................................................................................23
43. MATRIKA........................................................................................................................................................24

3
1. STATISTIKA-
je veda, ki kvantitativno proučuje masovne pojave v naravi in družbi ter tako z metodami, ki so njej lastne,
odkriva zakonitosti teh pojavov. Kot znanost je del matematike. Proučuje množične pojave. Zaradi
prilagojenosti statističnih metod problemom stroke govorimo ponavadi o statistikah v posameznih vejah
znanosti oz. strokah (ekonomiji, družboslovju…) kot ločenih vejah statistike. Statistika nam po eni strani
pomaga zbirati, urejati in prikazovati statistične podatke, ta del imenujemo deskriptivna statistika (starejši
del), v tem stoletju pa so se razvile tudi statistične analize, ki omogočajo sklepanje tudi iz podatkov, na
majhnih skupinah – to je analitična statistika
Imamo vzorec in populacijo. Kadar imamo veliko vzorcev vzamemo en del iz množice. Množice imajo
veliko elementov. Elemente merimo. Imamo statistične znake.
To so lastnosti elementov.
OSNOVNI POJMI: - enota – statistična enota je posamezen preučevani element (npr. ljudje), na enotah merimo
in dobimo podatke
Populacija N – je množica vseh preučevanih elementov oz. statističnih enot. Pogoji, ki populacijo načno
opredeljujejo so vsebinski, časovni in krajevni (opisane – realne populacije, umišljene hipotetične
populacije)
vzorec n– je podmnožica populacije vzorčenja, torej je to le del populacije, izbran za študij določenih
značilnosti te populacije.
Numerične opisne mere – npr. Povprečje in standardno deviacijo izračunane za populacijo imenujemo
parametre populacije, iste mere izračunane za vzorec pa statistike
spremenljivka (statistične spremenljivke/statistični znaki)– to je lastnost enote (teža, višina, dohodek..),
imamo oznake x, y, z vsaka od spremenljivk ima svojo vrednost x1=1, x2=2.
Spremenljivke so različne.

2. VRSTE SPREMENLJIVK (izražajo vrednost)


- Opisne ali atributivne spremenljivke (se ne izražajo v številkah), včasih imajo atributivni znaki
nominalen značaj , znake lahko razlikujemo, ne moremo jih pa urediti po logičnem zaporedju, so
lahko samo dve vrednosti ( dihotomno lastnost-oboleli/neoboleli) oz. kategorije, včasih več.
Nominalno spremenljivko lahko opišeš ji daš ime (npr. spol), so opredljena z imenom in številke ne
pomenijo njihove vrednosti.
Drugi atributivni znaki pa imajo vrednosti, ki se dajo urediti v logičnem zaporedju ali po stopnjah
kvalitete pojma – tu govorimo o ordinalnosti statističnega znaka. Te lahko uredimo po kvaliteti od
najboljše do najslabše, možnosti za statistično analizo takih spremenljivk je več kot pri atributivnih
znakih s samo nominalnem značajem. Ordinalne spremenljivke so opredeljene tako z imenom kot
tudi s številom (npr. odlično 5). Možnost za statistično analizo so ordinalne spremenljivke bolj
primerne od niminalnih.
- številske, numerične (starost, teža,..). Numerične spremenljivke (NS) imenujemo tiste
spremenljivke, katerih vrednost je izražena s številkami. NS pa delimo na zvezne ali kontinuirne
oziroma kvantitativne spremenljivke in na nezvezne ali diskontinuirne oziroma kvantalne
spremenljivke. Nezvezne imajo vrednosti podane samo s celimi števili, ugotavljamo jih v glavnem
s štetjem (npr. število opravljenih izpitov…). Zvezne NS pa dobimo v glavnem z merjenjem in
imajo lahko neke enote katere koli vrednosti znotraj določenega razmika., vrednosti niso nujno
omejena na cela števila kot pri nezveznih numeričnih znakih. Vsi numerični znaki imajo poleg
nominalnega tudi ordinalni značaj.
VRSTE SPREMENLJIVK (tip merjenja)
- nominalne (spol, barva, ..)
- ordinalne (odličen, prav dober,…)
- intervalne (temperatura od do,..)
- razmernostne spremenljivke (razmerje: starejši, mlajši)
Statistične podatke lahko prikazujemo tabelarično ali grafično.
Tabelo (sestavljajo stolpci in vrstice); morajo biti razumljive in pregledne.
Grafikoni- prikazovanje podatkov zahteva ponavadi nekaj več trenda in spretnosti kot tabelarična. Za izdelavo
najpogosteje uporabljamo aritmetično lestvico.
(histogram, frekvenčni poligon, stolpčni diagram, strukturni stolpec-krog, linijski diagram)

3. STATISTIČNE SPREMENLJIVKE ALI ZNAKI:


čeprav so si posamezne enote v populaciji enake s stališča opredeljenih pogojev, imajo poleg tega niz
značilnosti, po katerih se med seboj razlikujejo moški, ženska, starost. Od teh značilnosti vsakokrat izberemo
eno ali mogoče nekaj takih, ki so kakorkoli povezane z vsebino raziskovalnega problema in jih jasno definiramo.

4
Tako izbrane in definirane značilnosti imenujemo statistične spremenljivke ali statistične znake. Statističnih
spremenljivk je več vrst. Statistične spremenljivke so atributivne in numerične.

4. ATRIBUTIVNE SPREMENLJIVKE:
ali opisne so tiste, katerih vrednost opisujemo z besedami. Lahko imamo tudi atributivne znake, ki imajo samo
dve vrednosti, ki se dajo urediti oziroma razvrstiti v logično zaporedje, pogosto po velikosti ali po stopnjah
kvalitete.V takem primeru govorimo o originalnosti statističnega znaka.

5. NUMERIČNE SPREMENLJIVKE:
so tiste, katerih vrednost izražamo s številkami. Numerične spremenljivke delimo na nezvezne ali diskontirne
oziroma kvantalne in na in na zvezne ali kontinuirne oziroma kvantitativne spremenljivke. Nezvezne numerične
spremenljivke imajo vrednosti podane samo s celimi števili, ugotavljamo pa jih s štetjem. Zvezne numerične
oziroma kvantitativne spremenljivke dobimo v glavnem z merjenjem. Teoretično ima lahko kvantitativna
spremenljivka neke enote katerokoli vrednost znotraj določenega razreda. Omejuje jih le natančnost metode, s
katero smo spremenljivko merili.

6. OZNAČEVANJE SPREMENLJIVK:
Vsak statistična spremenljivka ima lahko več možnih vrednosti dihotomnih (dve) do neskončnosti pri zveznih
NS. Vsaka statistična spremenljivka lahko označimi x, y, kadar pa želimo označiti, da gre za katero koli jo
označimo xi, kjer je i=1-n.
Zbiranje statističnih podatkov: statistične podatke lahko pridobimo na različne načine, pri tem je potrebno
paziti, da so podatki točni zanesljivi oziroma da je čim manj napak. Do kakšnih napak pri zbiranju podatkov
lahko pride je odvisno glede na vrsto podatkov in na način pridobivanja. Vedno pa napake lahko razdelimo v dve
skupini v slučajne ( premajhne natančnosti merskih metod ali malomarnosti zbirateljev podatkov-preveliki,
premajhni, te napake povečujejo variranje podatkov, na končni rezultat pa ponavadi ne vplivajo saj se pri
velikem številu – in + med seboj izničijo) in v sistematične ( te pa so posledica konstantnih vzrokov, ki
sistematično delujejo na vrednost posamezne enote in vedno v isto smer, tu pa se z večanjem števila enot napaka
ne izniči, ampak se sumira – popolno spremenijo sliko/napačne odločitve- potrebno jih je preprečevati) napake.

7. UREJANJE STATISTIČNIH PODATKOV:


če je podatkov malo, urejanje in obdelava ne predstavlja problema. Kadar je podatkov veliko, je teže dobiti
pregled nad njimi, v takem primeru podatke najprej grupiramo, uredimo po skupinah. Čeprav je na videz
preprosta naloga, je pogosto zelo težka in zahteva precej pozornosti, saj se pri grupiranju lahko mnoge
značilnosti posameznih enot popolnoma skrijejo. Grupiranje je odvisno od vrste statistične spremenljivke.
a)Urejanje atributivnih spremenljivk AS: pri teh AS grupiramo enote v skupine, ki jih imenujemo kategorija.
(npr. spol, zakonski stan…) Kadar ima AS le nekaj vrednosti, vsako vrednost znaka vzamemo kot posebno
kategorijo, nato pa podatke sortiramo po posameznih kategorijah (frekvenca kategorije). Včasih pa imajo AS
mnogo vrednosti – mnogo kategorij. Posamezne vrednosti teh AS pogosto označujemo z več izrazi, večkrat so
nejasne tudi meje med njimi (nedoločene) in se lahko med seboj prekrivajo. Zato je potrebno vrednosti AS, ki
niso jasno razmejene in opredeljene, točno opredeliti ter določiti povezanost in odnose med njimi – to je
klasifikacija. (lahko je tudi mednarodna klasifikacija). Zato je najbolje, če je za to možno uporabiti že izdelano
klasifikaciji. Klasifikacije so ponavadi urejene hierarhično po decimalnem načelu, za tako klasifikacijo je
značilno, da vsaka kategorija - od splošnih proti specifičnim- vsebuje več kategorij nižjega reda. Decimalne
klasifikacije so hierarhične klasifikacije, kjer imamo na vsakem nivoju največ deset skupin (od 0-9), vsaka od
teh skupin pa je podrobneje razdeljena še na 10 skupin nižjega reda.
b)UREJANJE NUMERIČNIH SPREMENLJIVK: kadar gre za nezvezne ali kvartalne spremenljivke, ki
imajo ponavadi majhno število različnih vrednosti (celih števil) in ponavadi njihovo število različnih vrednosti
vzamemo vsako vrednost kot svoj razred, če jih je več, nekaj vrednosti združimo v en razred. Kadar so
spremenljivke zvezne, jih lahko uredimo v ranžirno vrsto in jim določimo frekvenčno porazdelitev.

8. RANŽIRNA VRSTA IN RANG:


kadar imamo opraviti s kvantitativnimi spremenljivkami in je podatkov malo, bomo dobili pregled nad
vrednostmi spremenljivke že z ureditvijo enot po velikosti znaka od najmanjše do največje vrednosti. Tako
dobimo ranžirno vrsto. Vsaki enoti oziroma vrednosti v ranžirni vrsti nato damo zaporedno številko, ki jo
imenujemo rang. Kadar imamo več enot z isto vrednostjo, seštejemo range, ki bi jih enote dobile in vsoto delimo
s številom teh enot. Rrang v splošnem bolje označuje položaj enote v statistični masi kot pa sama vrednost
znaka, vendar ga moramo navajati vedno skupaj s številom vseh enot v ranžirni vrsti, sicer je brez pomena (9
med 10-mi, je drugače kot 9 med 1000-mi). Razlike v rangih ne ustrezajo razliki med posameznimi vrednostmi
spremenljivk. Prednost rangov je tudi v tem, da jih lahko uporabljamo pri atributivnih spremenljivkah
(ordinalnega značaja) –možnost kvatitativnega proučevanja.

5
9. FREKVENČNA PORAZDELITEV KVANTITATIVNIH SPREMENLJIVK:
kadar imamo veliko kvantitativnih podatkov, urejanje v ranžirno vrsto ne zadostuje, ampak dobimo pregled nad
njimi le, če podatke uredimo v skupine, ki jih imenujemo razredi. Ker so podatki kontinuirani, moramo razrede
in njihove meje določiti sami. To napravimo tako, da najprej ugotovimo razliko med najvišjo in najnižjo
vrednostjo podatkov, kar imenujemo variacijski razmik, razpon ali variacijsko skupino (R=xmax-xmin). Nato se
odločimo za primerno število razredov in z njimi delimo celotni variacijski razmak. Tako dobimo razredni
interval ali razredno širino, praviloma so enaki. Razredov naj bo med 10in 20 odvisno od števila enot, če je
razredov preveč, ne dobimo dobrega pregleda nad podatki, če jih je premalo skrijejo bistvo (kadar smo v dilemi
se odločimo za večja število, saj jih kasneje lahko združimo). Začetek prvega razreda postavimo nekaj pod
najmanjšo vrednostjo, konec pa nekaj nad največjo vrednostjo spremenljivk in s tem primerno zaokrožimo
razredne intervale. (na začetku in na koncu so lahko razredi izjemoma odprti –določena samo ena meja; ni
sredine). Meje naj bodo določene s natančnostjo osnovnih podatkov in ne bolj natančno. Biti morajo natančno
določene tako, da vemo za vsako vrednost spremenljivke v kateri razred spada. Sredina razreda (xi) je zelo
pomembna, ker nam rabi kot cenilka povprečne vrednosti spremenljivke vseh enot v tem razredu. Pri določanju
sredine razreda moramo paziti na prave meje meje razreda, ki se pogosto razlikujejo od navedenih v tabeli in so
odvisne od zaokroževanja podatkov pri meritvah. Število podatkov, razvrščenih v isti razred, imenujemo
absolutna frekvenca tega razreda (fi). Takšno ureditev statističnih podatkov imenujemo frekvenčna
porazdelitev. Absolutna frekvenca ni odvisna le od tega, za kateri razred gre, ampak tudi od skupnega števila
podatkov. Strukturni delež posameznega razreda v celotni statistični masi imenujemo relativna frekvenca (fio
ozi. f%fo= fi/n). Včasih potrebujemo tudi komulativno frekvenčno porazdelitev. Kumulativna frekvenca Fi
razreda nam pove, koliko enot ima vrednost pod spodnjo mejo ustreznega razreda (F i+1= Fi+fi). Potem poznamo
še relativno komulativno frekvenco (Fio+1 = Fio + fo).

10. PRIKAZOVANJE STATISTIČNIH PODATKOV


prikazujemo lahko tabelarično ali grafično, vsak ima svoje vrednosti in pomanjkljivosti, ki jih je treba pri izbiri
med obema načinoma upoštevati. Tabela ima prednost v tem, da podatke prikazuje s poljubno natančnostjo in jih
je lažje pripraviti kot grafikon. Grafikon je manj zahteven (natančen) kot tabela in nazorneje (neposredno)
prikazuje podatke in njihovo povezanost.
Tabelo sestavljajo vrstice in stolpci, ki se sekajo v poljih. Vsebina po vrsticah je podana v čelu tabele, po
stolpcih pa v glavi tabele, na desnem robu in na dnu imamo zbirni stolpec oz. vrstico. Morajo biti razumljive in
pregledne, v naslovu mora biti vse pojasnjeno. Vsa polja v tabeli morajo biti zapolnjena.

11. GRAFIKON, HISTOGRAM-


s katerim prikazujemo kvantitativne spremenljivke, urejene v frekvenčno porazdelitev (spodnja/zgornja meja),
spada med površinske diagrame, pri katerih je frekvenca enot v vsakem razredu prikazana s površino ustreznega
stolpca v grafikonu. Če so razredi intervala enaki, je frekvenca vsakega razreda sorazmerna višini stolpca. Če pa
so razredni intervali različni, je potrebno pri risanju stolpcov to upoštevati. Podatke urejene v frekvenčno
porazdelitev lahko prikažemo tudi s frekvenčnim poligonom. Narišemo ga tako, da nad sredino vsakega razreda
nanesemo točko v višini, kin ustreza frekvenci tega razreda, nato dobljene točke po vrsti zvežemo z daljicami
(uporablja se redkeje kot histogram)-prednost bolje so vrednosti razmeščene znotraj razredov in laže se prikaže
več frekvenčnih porazdelitev v enem grafu. Med površinske diagrame spada tudi stolpični diagram, stolpci
katerih površina je sorazmerna velikosti podatkov. Strukture lahko prikazujemo s strukturnim stolpcem ali s
strukturnimi krogi. Strukturni stolpci so podobni stopničastemu diagramu, le da je stolpič, ki predstavlja
celoto, razdeljen v sorazmerju strukturnimi deleži. Linijski-črtni diagram se pogosto uporablja pri časovni
statističnih vrstah. Tu so podatki podani v času, ker se dani podatki nanašajo na čas, so od časa tudi odvisni. i ks =
(Sk/So). 100 – indeks s stalno osnovo (So=prva vrednost-prvi člen); ikp= (Sk/Sk-1).100 – indeks s premično
osnovo; kk= (Sk/Sk-1) – koeficient dinamike (1 raste,1 pada); Tk= ikp-100 – tempo rasti. Torej časovne
podatke lahko prikazujemo tudi z indeksi.
Z ogivo prikazujemo grafično komulativno frekvenco (x=spodnja meja(xmin), y=komulitiva (Fi))

Torej nalogo začnemo lahko reševati z ražirno vrsto ali pa z razredi oziroma frekvenčno porazdelitvijo.

12. SREDNJE VREDNOSTI-


vrednosti numeričnih statističnih spremenljivk pri homogenih populacijah varirajo okrog neke srednje vrednosti.
V statistiki je pomembno ugotoviti, okrog katerega središča (razreda) se gostijo vrednosti spremenljivk
posameznih enot, ker s to vrednostjo, če je potrebno, predstavimo celotno populacijo ali vzorec. Meril za srednjo
vrednost je več, aritmetična sredina, mediana, nekoliko manj pa modus. V določenih razmerah so vse tri mere
identične, vendar ima vsaka med njimi prednosti in pomanjkljivosti. Druge mere srednje vrednosti so
kvadratična, geometrična sredina, harmonična sredina. Če se srednja vrednost uporablja za opis populacije jo

6
imenujemo parameter, srednjo vrednost vzorca, ki je pomembna predvsem za oceno ustreznega parametra
populacije pa imenujemo statistika.
(literatura)Kvantilni rang : je število, ki nam pove koliko % je manjših od tega števila, ki ga imenujemo
kvantil, in koliko % je večjih, če je npr. kvantilni rang Px= 0,25, pomeni da je 25 % manjših in 75 % večjih od
kvantilnega ranga. Kvantili : Xp, kjer imajo p vrednosti od 0-1, Kvantili so: 1.Kvartili:X0,25 (prvi); X0,5
(drugi); X 0,75 (tretji);… 2.Decili:X 0,1; …; X 0,9; 3. Centili:  X 0,01; …; X 0,99
Px= (Rx-0,5)/N – kvantilni rang, Rx= Fo+(fo. (Xp-xomin)/io) – rang Xp-ja; Xp=xomin+(io. (Rx-Fo)/fo) –
kvantil; Rx=Px.N+0,5; FoRxF1; io=je razredni interval z največjo frekvenco

13. MEDIANA-
ali centralna vrednost je tista vrednost spremenljivke od katere ima polovica enot manjših, polovica pa večjih
vrednosti spremenljivk. Če je število enot liho, je mediana enaka vrednosti srednje enote v ranžirni vrsti, če pa je
število enot sodo je mediana povprečje srednjega para podatkov. Medijano računamo takrat, ko imamo ranžirno
vrsto in rang (od najmanjšega do največjega). (npr. Me=X 0,5 (peti decil, drugi kvartal; namesto Px=0,1 imamo X
0,5, računamo kot v nalogi kvantil – zvezek)
Me = medijana Me= xomin+(io. (Rx-Fo)/fo)
Mediana je neobčutljiva za spremembe posameznih vrednosti, če pri tem enota ostane v isti polovici ranžirne
vrste. V statističnem pomenu je mediana manjšega pomena kot aritmetična sredina, v nekaterih primerih pa je
zelo primerna srednja vrednost in bolje predstavlja statistično maso kot aritmetična sredina (kadar je statistična
masa porazdeljena nesimetrično). Če so podatki urejeni v frekvenčni tabeli, lahko mediano le ocenimo, ocena
temelji na domnevi, da so enote v razredu enakomerno porazdeljene od ene do druge meje.

14. MODUS:
je najpogostejša vrednost spremenljivke oziroma mesto največje gostitve podatkov. Pomanjkljivost modusa kot
srednje vrednosti je v tem, da ga lahko ugotovimo le za razmeroma veliko populacijo. Pri manjših vzorcih ga ni
mogoče ugotavljati, zato je statistično praktično neuporaben, operiramo z njim predvsem v zvezi z opisom
populacij. Imeti moramo frekvenčno porazdelitev.
Postopek izračuna: najprej poiščemo razred z največjo frekvenco fo, nato izberemo en razred spodaj f -1 in en
razred zgoraj f+1, nato izračunamo d-1=fo-f-1 in d+1=fo-f+1; nato pa še modus: Mo=xomin+io.d-1/(d-1+d+1)

15. ARITMETIČNA SREDINA ALI POVPREČJE-


uporabljamo jo najbolj pogosto. Dobimo jo, če seštejemo vrednosti spremenljivke vseh enot in vsoto delimo s
številom enot. Nanjo torej vpliva vrednost statističnega znaka vsake enote. Aritmetična sredina predstavlja
nekakšno težišče podatkov, saj vsota razlik odklon navzgor enaka tisti navzdol(vsota obeh je enaka 0). Iz vsote
kvadratov odklonov od aritmetične sredine je izpeljana varianca, pomembna mera za variabilnost podatkov.  =

aritmetična sredina za populacijo, x =aritmetična sredina za vzorec. x   x ; x   x .f i i


,
n n
xi=sredina posameznega razreda, fi=absolutna frekvenca ustreznega razreda, formule so za populacijo enake.
Druga formula je v primeru če imamo razrede.
V primeru popolne asimetrije : Mo=Me= x
V primeru asimetrije v DESNO velja : Mo<Me< x ; v primeru LEVO : x <Me<Mo
(literatura)Kvadratična sredina:
v statistiki se uporablja za varianco.
1 1 1
K  .  x k2 podatki ; K  .  x k2 . f i frekvenca ; K  .  xi2 . f i frekvenca / sredi
n n n
xk=podatki podani ranžirne vrste v prvi formuli, v drugi ga v frekvenčne razrede (v razredu enaki podatki),
xi=sredina posameznega razreda.

(literatura)Harmonična sredina:
Dobimo jo lahko tudi iz aritmetične sredina, tako, da izračunamo najprej aritmetično sredino harmonična pa je
njena recipročna vrednostH=1/aritmetična sredina. Uporablja se predvsem pri izračunih - koliko proizvodov
na uro? oziroma proizvodno storilnost.
n
H 
1 1 1 harmonična sredina
  ... 
x1 x 2 xn
(literatura)Geometrična sredina:
uporablja se verižnih indeksih:

7
G n x1 .x 2 ...x n
PRAVILO: H<G< x <K

16. MERE VARIACIJE: (mere variranja)


Podatek o srednji vrednosti sam še ne zadošča za natančnejšo opredelitev mase. Potrebno je namreč vedeti tudi,
koliko posamezni podatki odstopajo od te vrednosti in s tem oceniti, koliko srednja vrednost res predstavlja
statistično maso. Srednja vrednost, ki je rezultat delovanja splošnih opredeljujočih pogojev populacije, namreč
toliko bolje predstavlja statistično maso, kolikor manjši je vpliv posameznih dejavnikov¸npr. napaka aparature,
delovna razmerja, nečistoča…-so majhne in zanemerljive) in kolikor manjše je variiranje podatkov posledica
tega vpliva. Torej je srednja vrednost toliko bolj reprezentivna, kolikor je manjše variiranje. Zato obstaja več mer
za variacijo.
VARIANCA IN STANDARDNA DEVIACIJA:
varianca je osnovna mera variacije, podobno kot aritmetična sredina, osnovna vrednost za srednjo vrednost.
Varianca je povprečje kvadratov, odklonov posameznih vrednosti od aritmetične sredine, je za statistično analizo
zelo pomembna. Kot opisni parameter nima pravega smisla(kvadrat), varianca se grafično ne da predstaviti. Zato
za opisni parameter uporabljamo variacije uporabljamo kvadratni koren iz variacije, ki jo imenujemo
standardna deviacija ali standardni odklon.
Mi bomo varianco populacije označili z 2 in standardni odklon (deviacijo) pa ; varianco pri vzorcu s2 in
standardni odklon s. (literatura)
x     x  x
2 2

 2
 , populacija; s  2
, vzorec
n n 1
Imenovalec v enačbi za vzorec je zmanjšan za eno, ker je le tako varianca vzorca lahko nepristranska ocena
variance populacije. Vemo pa, da se varianca vzorca prav največkrat uporablja prav v ta namen.
Poznamo tudi naslednji način izračuna, ki je manj zamuden.
 x 2
 x 2

x 2

n
x 2

n
  2
, populacija; s 2
, vzorec
n n 1
Kadar pa imamo podatke urejene v frekvenčni tabeli pa dodamo se absolutno frekvenco fi in x ne pomeni več
posamezne vrednosti temveč sredino posameznega razreda xi.
 f . x   f . x 
2 2
i i  i i x
 2
 , populacija; s 2
, vzorec
n n 1
Po tem postopku je seveda le ocena prave variance, ki bi jo izračunali iz posameznih podatkov, ocena je
nekoliko prevelika, ker temelji na domnevi, da so podatki v posameznem razredu enakomerno porazdeljeni okoli
sredine razreda – kar ne drži popolnoma. Zato je ta napaka čim večja tem večji je intervalni razredni interval (i)
– veliko podatkov, vendar v splošnem ni velika. To popravimo s Sheppardovim popravkom (i2/12) : 2 pop=2
– i2/12
Standardno deviacijo /odklon dobimo tako, da izračunamo kvadratni koren variance:    2 ; s  s 2
Analiza variante temelji na dejstvu, da varianca nekega vzorca, vzetega iz iste populacije, predstavlja
nepristransko oceno variance populacije.
(literatura)
x aritmetična sredina vzorca ocenjuje (dobra cenilka) aritmetično sredino populacije .
x je nepristranska cenilka , povprečno vrednost dobro povprečuje vzorec
2 x pristranska cenilka 2 populacije
s2 je nepristranska cenilka za 2

Koeficient variacije :
pogosto želimo primerjati variiranje različnih spremenljivk, ki so med seboj v vsebinski zvezi, ne moremo
primerjati absolutnih mer variacije, ker imajo spremenljivke različne enote mere ali pa različne vrednosti
podatkov z istimi enotami mere. Vseh teh težav se rešimo, če podamo mero variacije v odnosu na ustrezno
 s
srednjo vrednost : KV  .100; populacija; KV  .100; vzorec
 x

17. KVANTILNI RAZMIKI:


Varianca in standardna variacija se uporabljata kot meri variranja skupaj z aritmetično sredino kot srednjo
vrednostjo. Kadar so podatki nesimetrično porazdeljeni in uporabljamo za srednjo vrednost mediano in ne

8
aritmetične sredine, je varianca neustrezna mera variranja. Takrat je bolje uporabiti za mero variiranja kvartilni
razmik ali razmik, v katerem je določen odstotek vseh podatkov. Kvartili centili in decili so oblike kvantilov.
Npr. kvartili so trije in delijo ranžirno vrsto na štiri enake dele ter srednji kvartil obenem tudi mediana. Kvartilni
razmik je razmik med spodnjim in zgornjim kvartilom(Q=Q3-Q1=X 0,75-X0,25) in obsega srednjo polovico
podatkov, četrtina jih je pod spodnjim in četrtina nad zgornjim kvartilom.
Decilni razmik : D=D9-D1=X0,9-X0,1 –zajema 80%, 10% spod , 10% nad
Med njimi se najbolj uporabljajo centili, ki jih je 99 in razdelijo niz po velikosti na 100 delov in kjer je v vsakem
delu enaka frekvenca podatkov Centili delijo podatke na v ranžirni vrsti na sto skupin in vsak centil obsega 1%
podatkov, če npr. odštejemo zgornje in spodnje tri centile dobimo 94 % vseh podatkov.
Računanje kvantilnih razmikov je možno samo pri sorazmerno velikem številu podatkov.
Variacijski razmik: je razlika med največjim in najmanjšim podatkom: R=xmax-xmin. Ta mera variacije ima v
primerjavi z varianco precej pomanjkljivosti, saj je odvisna samo od skrajnih vrednosti, pove pa nič o variranju
podatkov, saj te vrednosti nanjo ne vplivajo.
Odkloni posameznih enot od aritmetične sredine tudi ne dajejo uporabne mere za variacijo, saj je njihova vsota
enaka nič. (vsota pozitivnih odklonov od AS je enak vsoti negativnih odklonov-(x- x )=0). Če pa bi vzeli
absolutne vrednosti odklonov bi dobili povprečni absolutni odklon od aritmetične sredine– absolutne vrednosti
odklonov bi delili s številom enot n : AD x = 1/n .x- x  povprečni absolutni odklon, večje so vrednosti bolj
je variabilni je odklon
Poznamo tudi povprečni absolutni odklon od mediane : ADMe= 1/n .x-Me

18. MERE ASIMETRIJE: (literatura)


Tu poznamo naslednje koeficiente glede na modus, mediano in kvartil.
x  Mo
-koeficient asimetrije glede na modus : KAMo 

-koeficient asimetrije glede na mediano : KAMe 

3. x  Me 

 Q3  Me    Me  Q1 
-koeficient asimetrije glede na kvartil : KAQ 
Q3  Q1

-asimetrija:
1
3
 . x  x  
A n 
 3

Pravilo: če so vsi zgoraj pozitivni je asimetrija v Desno;


-Če so vsi zgoraj negativni je asimetrija v Levo;
-če je nič je simetrija.
MERE SPLOŠČENOSTI:
Q3  Q1
koeficient sploščnosti : KS  1,9. , koničasto KS<1, ploščato KS>1;
D9  D1

-kurtoza ali eksces : meri sploščenost


1
 4 
 . x  x  
b n 
 4

19. VERJETNOST:
Pri večini dogodkov govorimo, da se pojavljajo z večjo ali manjšo verjetnostjo. Verjetnost posameznih
dogodkov računamo z verjetnostnim računom. Tudi metode za statistično analizo podatkov, dobljenih na
vzorcih, in sklepanje o lastnostih populacije temelje na verjetnostnem računu.
Verjetnost nekega dogodka, kot jo razumemo v statistiki, je pravzaprav relativna frekvenca tega dogodka v
naključno izbranem zaporedju opazovanj, kadar je število opazovanj zelo veliko in raste čez vse meje.
Verjetnost zato izrazimo podobno kot relativno frekvenco s kvocientom med številom pričakovanih dogodkov in
celotnim številom dogodkov oziroma opazovanj. Ta kvocient označimo s črko p in ima vrednost med 0 in 1. 0
pomeni dogodek ni mogoč. 1 pomeni, da je dogodek zanesljiv. V praksi nikoli ne dobimo 0 ali 1, pač pa
govorimo, da se p bliža 0 in, da je dogodek praktično nemogoč. In, da se bliža 1, da je praktično zanesljiv.
Verjetnost včasih izražamo tudi z ulomkom ali z odstotkom.
Verjetnost komplementarnega dogodka, torej verjetnost, da pričakovanega dogodka ne bo, je enaka 1,
zmanjšana za verjetnost pričakovanega dogodka.v statistiki to imenujemo tudi riziko ozi. tveganje.

9
Seštevanje :Verjetnost več dogodkov lahko med seboj seštevamo, kadar gre za dogodke, ki se med seboj
izključujejo. V takem primeru je verjetnost, da bo nastopil eden ali drug dogodek enaka vsoti verjetnosti
vsakega posameznega dogodka. (verjetnost ali ali  +). Vsota verjetnosti vseh dogodkov, ki se med seboj
izključujejo je enaka 1.
Množenje: Kadar so dogodki med seboj neodvisni, je verjetnost, da se skupaj pojavi več dogodkov, enaka
produktu verjetnosti vsakega teh dogodkov. (npr. mečemo dve kocki hkrati) (hkrati  x).
Kadar si neodvisni dogodki lahko sledijo na več kot en način, je skupna verjetnost vseh načinov enaka vsoti
verjetnosti vsakega od možnih načinov. (npr. dve kocki na prvi 3 na drugi 6 oz. na prvi 6 in na drugi 3 :
p= 1/6 .1/6 +1/6 .1/6 = 1/18

20.TEORETIČNE PORAZDELITVE:
Sedaj smo govorili o stvarnih porazdelitvah spremenljivk – frekvenčna porazdelitev. Poleg teh pa poznamo
tudi teoretične porazdelitve,med katerim je najbolj pomembna normalna porazdelitev, porazdelitev t
(studentova) in binomska porazdelitev. Razen teh bomo spoznali še porazdelitev 2 in porazdelitev F.
Teoretične porazdelitve so pomembne, saj predstavljajo pravzaprav matematično idealizacijo stvarnih
porazdelitev, če te zadoščajo istim zahtevam kot teoretične. Pogosto pa je da stvarne porazdelitve v določeni
populaciji ne poznamo v celoti, lahko jo pa ocenimo, da je podobna eni od teoretičnih porazdelitev. V tem
primeru lahko zakonitosti, ki veljajo za teoretično porazdelitev, uporabimo tudi pri stvarnih porazdelitvi
populacije.
Še važnejša pa je uporaba teoretičnih porazdelitev kot verjetnostnih porazdelitev pri vzorčenju. Posamezne
slučajnostne spremenljivke v pravilno izbranem vzorcu se namreč porazdeljujejo v določene teoretične
porazdelitve, ki jih v takem primeru imenujemo tudi verjetnostne porazdelitve. Verjetnost posameznih vrednosti
spremenljivke je tu prikazana kot funkcija te vrednosti, vsota verjetnosti za vrednosti spremenljivk vseh enot
mora biti ena (kvocient) ali 100% (odstotki).
NORMALNA PORAZDELITEV
 je najpomembnejša teoretična porazdelitev in jo imenujemo normalna ali Gaussova porazdelitev in spada
med zvezne porazdelitve
 če si zamislimo, da imamo populacijo z velikim številom enot in večje število razredov, bi frekvenčni
poligon dobil obliko unimodalne, zvonaste, bolj ali manj simetrične oblike, ki bi bila podobna normalni
krivulji. Torej je normalna porazdelitev – normalna krivulja simetrična in zvonaste oblike.
 pomen normalne porazdelitve je posebno v tem, da ima ključno vlogo pri mnogih metodah za statistično
analizo podatkov in to celo takih, ki so dobljeni na vzorcih iz populacije, katere porazdelitev se občutno
razlikuje od normalne. Poleg tega je normalna porazdelitev osnova za nekatere druge teoretične
porazdelitve – npr. porazdelitev t; Večina teoretičnih porazdelitev (binomska, t) v določenih razmerah
asimptotično prehajajo v normalno porazdelitev.
 normalna krivulja je podana z dvema parametroma z aritmetično sredino in s standardno deviacijo
(odklonom). Aritmetična sredina določa, kje na številčnici premica normalne porazdelitve leži, standardna
deviacija pa , kakšno širino obsega. Čeprav imajo normalne porazdelitve različne parametre – različne
aritmetične sredine in standardne deviacije, so si med seboj podobne in imajo določene skupne lastnosti.
 Zaradi simetričnosti je polovica posameznih vrednosti vedno pod vrednostjo aritmetične sredine in polovica
nad njo, ne glede na velikost parametrov je relativna frekvenca vedno 0,6826  (glede na različne stopnje
zaupanja je razmik med standardnima deviacijama 68,26% (5%), 95,44% (1%), 99,73 % (0,1%)).
 Te značilnosti normalne porazdelitve nam pomagajo pri računanju verjetnosti za vrednosti spremenljivk, če
je njihova porazdelitev podobna normalni.
 Pri kvantitativnih (zvezne-numerične-merjenje) spremenljivkah ne moremo govoriti o verjetnostni ene
same spremenljivke (odvisne od natančnega merjenja), za kvantalnih (nezvezne – numerične-štetje) oz.
atributivnih (opisne)spremenljivkah pa lahko napovemo verjetnost posamezne vrednosti ali kategorije.
Kvantitativne spremenljivke so odvisne od natančnega merjenja, vrednosti znotraj intervala, zaokroževanje.
 metode slone na dejstvu, da se povprečje vzorcev vzetih iz iste populacije porazdelijo normalno, čeprav
sama populacija iz katere ti vzorci izhajajo ni normalno porazdeljena
- Z = normirani ali standardizirani odklon
- a = x ali ; zveza med frekvenco in verjetnostjo  p= f/n
- spremenljivka X je poljubnaXN(, ) ali XN(a, ) pri populaciji,
x x
- spremenljivka X je poljubnaXN( x , ) ali XN(a, ) pri vzorcu,  pop x , torej
n n
standardni odklon populacije pristranska cenilka standardnemu odklonu vzorca,
p.1  p 
- pri deležu je a= x = p (delež v %) in velja  N(p, ),
n

10
 12  22
- če nas zanima razlika med podatki in porazdelitev je normalna, velja:  N(0,  ),
n1 n2
0 = x1 - x 2
P (x1<X<x2) =  ((x2-a)/)- ((x1-a)/)
N normalna porazdelitev
((x2-a)/) zgornja meja
((x1-a)/) spodnja meja
Standardizirana normalna porazdelitev:
- Z = normirani ali standardizirani odklon
N(a,)
- Z N (0, 1)  /2 + /2 + 1 - = 1;  = stopnja tveganja (da pademo izven); 1-  = stopnja zaupanja;
da dobimo verjetnost med –Z in +Z je 1-;  je lahko 5%, 1 % ali 0,1 %.
- P (0<Z1-<Zo) =  (Zo); P (a<Z<b) = (b) -(a); () = 0,5 in  (-Z) = -  (Z)
Če pri normalni porazdelitvi odklonov posameznih vrednosti od aritmetične sredine ne izražamo več v enotah
mere statistične spremenljivke, ampak vzamemo za enoto kar ustrezno standardno deviacijo, dobimo novo enoto
za merjenje teh odklonov, to je tako imenovani standardizirani odklon  označujemo ga s črko »z«
x xx
Z za populacijo Z  za vzorec - (n>30);
 s
Če je porazdelitev vrednosti Z, ki ima aritmetično sredino enako nič in standardni odklon eni, s pomočjo te
porazdelitve lahko dajemo splošne podatke o katerikoli normalni porazdelitvi, pri tem si pomagamo s tabelami,
ki nam povedo odnos med verjetnostjo in deležem površine pod krivuljo, ki jo ta vrednost omejuje.
S tem načinom lahko ugotovimo, npr. kolikšen delež populacije ima večje oziroma manjše vrednosti, kolikšen
delež populacije ima vrednost spremenljivke znotraj določenega razmika, kolikšen delež enot je v populaciji
pod določeno vrednostjo in kolikšen nad njo.
Z: Z0,05=1,96; Z0,01=2,58; Z0,001=3,29
/2 + /2 + 1 - = 1 dvostransko gledanje
 + 1 - = 1 enostransko gledanje
STUDENTOVA PORAZDELITEV t :
standardizirana normalna porazdelitev se torej zelo uspešno uporablja, kadar gre za realne populacije, katere
parametri so nam poznani. Ponavadi imamo samo podatke o vzorcih in njihove statistike nam rabijo za oceno
parametrov populacije. Ta ocena pa je nezanesljiva čim manjši vzorec je. V takem primeru namesto normalne
porazdelitve uporabljamo studentovo porazdelitev, oziroma porazdelitev t-e porazdelitev . Studentova
porazdelitev je modifikacija normalne porazdelitve, ki omogoča sklepanje o parametrih populacije tudi z oceno,
dobljenih na majhnih vzorcih (n<30):
x
t studentova porazdelitev t za majhne vzorce (n<30),
s
torej porazdelitev t je podobna normalni porazdelitvi, razlika med njima je odvisna od velikosti vzorca, kot
ocena za standardni odklon. Merilo za velikost vzorca so stopinje prostosti (m) in ki so vedno enake
imenovalcu v enačbi za ustrezno oceno standardnega odklona, če gre za oceno standardnega odklona
populacije, bo m = n – 1.Za vsako stopnjo prostosti oz. velikost vzorca je porazdelitev t nekoliko drugačna, vse
so podobne normalni, le da je proti obema skrajnima vrednostima delež celotne površine pri njih večji kot pri
normalni porazdelitvi, ta razlika je čim večja tem nižji je m. Ko se število prostosti povečuje, se porazdelitev t
vse bolj približuje normalni. Podobno kot pri normalni porazdelitvi so tudi tukaj podatki o porazdelitvi t podani
v tabelah, ampak ne o krivuljah v celoti, ampak samo kritične vrednosti t pri različnih stopnjah tveganja ( ) in
različne stopnje prostosti (m). Pri 30 stopinjah prostosti je tista meja, kjer velja, da od nje naprej navzgor lahko
razliko zanemarimo.
Kadar n<30 uporabimo studentovo porazdelitev t, če pa je n>30 pa normalno porazdelitev z.
t (m =1-30) tu imamo en parameter
F PORAZDELITEV: (literatura)
Uporablja se pri variancah, odvisna je od parametrov m1 in m2: F (m1, m2)
2 PORAZDELITEV: (literatura)
2 (m) če je parameter večji od 30 preide v normalno.
BINOMSKA PORAZDELITEV :
Binomska porazdelitev je nezvezna verjetnostna porazdelitev, pove verjetnost pr, kar pomeni, da bomo dobili
določeno število r pričakovanih dogodkov v nizu n neodvisnih opazovanj, kadar imamo pri vsakem opazovanju
samo dva možna dogodka oz. vrednosti znaka (dihitomnost znaka).

11
Kadar je verjetnost pričakovanega dogodka v populaciji  znana i se ne spreminja od opazovanja do opazovanja,
označimo verjetnost pričakovanega dogodka v populaciji s  (v vzorcu s p)
Tu gre za dihotomne spremenljivke z dvema možnima vrednostima (npr. učinkuje, neučinkuje), npr,. na dveh
bolnikih so možni so trije izidi – učinkuje pri obeh, pri enem, pri nobenem.
-pri obeh: =0,9; pr=2 = 0,9.0,9=0,81 (neodvisni – x)
-pri enem: =0,9; pr=1 = 0,9.0,1 + 0,9.0,1=0,18 (neodvisni – x, izključujeta - +))
-pri nobenem: =0,9; pr=0 = 0,1.0,1=0,01 (neodvisni – x)
-p=1
skupni izraz za zgoraj navedeni izračun je :   1      1 za dve opazovanji,
2

  1     n  1 za n število opazovanj,
Važno je če se število opazovanj veča, se binomska porazdelitev približuje normalni porazdelitvi. Približevanje
je tem hitrejše, čim bolj se verjetnost dogodka v populaciji približuje vrednosti 0,5. (slika str.55), kadar je
zmnožek verjetnosti v populaciji in števila opazovanj enak ali večji od pet (n.5) je binomska porazdelitev že
tako podobna normalni, da razliko lahko zanemarimo.

21. VZORČENJE IN VZORCI :


Predavanje:
-vsi vzorci morajo imeti enake možnosti in pogoje, da so izbrani
-vzorčenje je lahko z vračanjem in brez vračanja
-vzorci veliki –nekaj 1000 enot, majhni vzorci – nekaj 100 enot
Kako pridemo do elementov vzorca(literatura):
a. s številčenjem (1,2…):
-sistematično izbiranje oz sistematični vzorec (1,5,10…)
-loterijski sistem
-tablica slučajnih številk (str.58/59)
b. večstopenjsko izbiranje:
-npr. prva stopnja regija, druga, občina, tretja območje, četrta vas..
-imeti moramo več elementov pri izbiri (bolj so pristranski, več jih mora biti)
-kadar so zelo heterogeni, so vzorci zelo različni (npr. študenti, srednješolci, osnovnošolci – heterogena
skupina , Stratificirano)
c. kvotno vzorčenje:
-npr. ne samo ženske
-določen procent žensk, starih,…
N (neznano) n (znano)
x (to je točkovna ocena) je nepristranska cenilka za 
 x oz. s (to je točkovna ocena) je nepristranska cenilka za 
 x 2 oz. s2 (to je točkovna ocena) je nepristranska cenilka za 2
Knjiga:
V glavnem imamo pri raziskovanju le redko opravka s populacijami, večinoma delamo samo z deli teh populacij
– vzorci. Delo z vzorci pa je vedno hitrejše in mnogo cenejše kot delo s celimi populacijami, zato vzorčenje
postalo pomembno orodje statistikov na raznih področjih znanosti. Torej delamo z umišljenimi populacijami,
kjer število enot neznano, parametrov hipotetičnih populacij tudi ne poznamo in jih ocenimo edino z vzorčenjem.
Da bi iz vzorca lahko sklepali o celotni populaciji, mora biti čimbolj reprezentiven za populacijo. Zato je
pravilno vzorčenje zelo pomembno. Dobro pa je da na podlagi rezultatov še intuitivno sklepamo, če so dobljeni
rezultati na vzorcu reprezentivni tudi za populacijo.
Vedeti pa moramo, da sklepanje iz vzorca o populaciji je vedno povezano z večjim ali manjšim tveganjem.
Tveganje pa lahko ocenim z verjetnostnim računom, samo v primeru, če so enote vzorca izbrane po
slučajnostnem načelu –vzorec naključen.
NAKLJUČNI VZOREC :
Tu je omogočeno, da imajo vse enote enako možnost priti v vzorec in da nobena lastnost enote ne vpliva na njen
izbor- nepristranost vzorca. Včasih imamo lahko pri vzorčenju pristranost očitno, včasih neopazno, zato
nepristranost lahko zagotovimo samo s predpisanimi postopki pri izbiri vzorca (npr. žreb, metanje kovanca ali
uporaba tablic naključnih števil).
Uporaba tablic naključnih števil:
-enote, iz katerih želimo izbrati vzorec, oštevilčimo, iz njih tabele naključnih števil nato izberemo številke
vzorca (tabela C – tabela naključnih števil). Jemljemo vedno po toliko števil skupaj, kot ima mest zaporedna
številka zadnje enote v masi. (npr. vzorec 10 med 70-timi), izberemo določeni blok in začnemo izbirati naključna
števila (prvi dve), ki ustrezajo številom 1-70 do naključno deset izbranih.

12
Poleg naključnega vzorca poznamo še alternativne oblike naključnega vzorca – sistematični vzorec, stratificirani
vzorec in vzorec v več stopnjah.
Sistematični vzorec uporabljamo, kadar so podatki o enotah oz. posameznikih v populaciji že urejeni v seznamih,
kartotekah ali kako drugače. Prvo enoto izberemo po slučajnostnem načelu, vse drugo pa po vzorčni shemi, ki
smo jo postavili (npr. želimo imeti vzorec po eno enoto od petdesetih, prvo izberemo iz tabliv naključnih števil,
nato pa vsako petdeseto –39, 89, 139,…). Tako vzorčenje je naključno, pristransko pa je le v primeru, če se
interval (npr. 50) sovpada s katerim od dejavnikov.
Stratificiran (heterogen) vzorec dobimo, če pri populaciji, razdeljeni na sloje, jemljemo naključni vzorec
določene velikosti iz vsakega sloja posebej. Izbira slojev je odvisna od problema, ki ga raziskujemo (spol,
starost, izobrazba, poklic…). S stratificiranim vzorcem je ocena parametra natančnejša, poleg tega pa lahko
ocenjujemo tudi parametre vsakega sloja posebej.
Vzorčenje v več stopnjah poteka tako, da najprej izberemo med enotami prve stopnje, nato pa iz izbranih enot
prve stopnje izberemo enote druge stopnje, ki jih nato vključimo v opazovanje (npr. najprej delovne
organizacije, nato pa izmed temi organizacijami izberemo vzorec delavcev). Pri obeh mora biti izbor naključen.
Tako vzorčenje je hitro in preprosto.
Da bi lahko izračunali potrebno velikost vzorca za oceno povprečja populacije, bi torej potrebovali podatke o
standardnem odklonu populacije, tega pa ponavadi ne poznamo.
(Kasneje Str.130 in 75)
VZORČNA PORAZDELITEV ARITMETIČNIH SREDIN :
x aritmetična sredina vzorca
s standardni odklon vzorca
Te vrednosti v populaciji imenujemo parametre v vzorcu pa statistike, ki jih rabimo za oceno parametrov
(aritmetične sredine in standardnega odklona).
Da bi lahko iz aritmetičnih sredin vzorcev ocenjevali aritmetično sredino populacij, moramo vedeti, kakšna je
porazdelitev povprečij vzorcev, izbranih iz te populacije (kakšna je vzorčna porazdelitev).
To porazdelitev bomo bolje razumeli, če si predstavljamo, da iz znane populacije izbiramo naključne vzorce s po
»n« enotami, vsakemu od teh določimo aritmetično sredino, nato enote vrnemo v populacijo. Postopek
ponavljamo, da dobimo vrsto povprečij naključnih vzorcev z »n« enotami. In če sedaj ta povprečja vzamemo kot
spremenljivke in jih uredimo kot v frekvenčno porazdelitev, dobimo vzorčno porazdelitev povprečij.
Praktično tega ne bomo delali, saj postopek ne bi imel smisla, pomembno je samo poznati lastnosti, tako
umišljene porazdelitve, saj nam to dovoljuje sklepati iz enega samega vzorca, kot v praksi tudi ponavadi je.
Aritmetična sredina vzorčne porazdelitve povprečij je enaka aritmetični sredini populacije.
1.  x =

x   SE standardni odklon vzorčne porazdelitve povprečij, ki je sorazmeren s standardnim odklonom
n
populacije in obratno sorazmeren s korenom števila enot v vzorcu .
Standardni odklon vzorčne porazdelitve povprečij imenujemo tudi standardni pogrešek ocene povprečij in ga
označujemo z SE. Ker je vzorčna porazdelitev povprečij normalna (2.), veljajo tudi zanjo značilnosti normalne
porazdelitve (Gausova krivulja), prav ta značilnost, pa nam dovoljuje, da z uporabo standardnega pogreška
ocenimo interval, v katerem lahko z določeno verjetnostjo pričakujemo povprečje populacije.
Tretja značilnost vzorčne porazdelitve povprečij je ta, da je porazdelitev približno normalna tudi takrat, ko
populacija sama ni normalno porazdeljena, če so le vzorci dovolj veliki. To je zelo pomembna lastnost vzorčne
porazdelitve povprečij, saj pomeni, da lahko uporabimo normalno porazdelitev pri statističnem sklepanju tudi
takrat, pri katerih populacija ni normalno porazdeljena. Za razliko od prvih dveh , ki sta pričakovani (aritmetična
sredina vzorčne porazdelitve povprečij=aritmetični sredini populacije; vzorčne porazdelitev povprečij ima
značilnost normalno porazdelitev), nas tretja preseneča.
Kako velik mora biti vzorec, da lahko pričakujemo normalno vzorčno porazdelitev povprečij tudi pri populaciji,
ki ni normalno porazdeljena, je odvisno od velikosti odstopa od normalne porazdelitve, čim večja je razlika, tem
večji mora biti vzorec.
x
Zx 
 standardizirani odklon za vzorčno porazdelitev povprečij
n
Standardizirana vzorčna porazdelitev povprečij pa nam lahko koristi kot verjetnostna porazdelitev. Pri statični
analizi podatkov tako ocenjujemo verjetnost, da bi iz znane populacije izbrali vzorec, ki bi imel povprečje v
določenem razmiku vrednosti.
VZORČNA PORAZDELITEV RAZLIK DVEH POVPREČIJ:
Tu primerjamo dva vzorca, od katerih je eden tretiran drugi pa je prvemu v kontrolo. Za ocenjevanje razlik med
njima moramo poznati glavne značilnosti vzorčne porazdelitve razlik dveh povprečij.

13
Umišljeni poskus: iz ene populacije izberemo dva slučajna vzorca x1 z n1 številom enot in x2 z n2 enotami. Enot
v obeh vzorcih je lahko enako ni pa nujno. Povprečje drugega vzorca odštejemo od prvega in dobimo razliko:
x 1 - x 2. Enote obeh vzorcev vrnemo v populacijo in vse zopet večkrat ponovimo. Če razlike obeh povprečij
vzamemo za spremenljivko in jih frekvenčno uredimo, dobimo vzorčno porazdelitev razlik povprečij dveh
vzorcev z n1 in n2 enotami. Tudi tukaj velja enako kot za vzorčno porazdelitev povprečij, je pomembna samo
zato, ker na omogoča analizirati rezultate, iz ene same razlike dveh povprečij.
Vzorčna porazdelitev razlike dveh povprečij je normalna. Aritmetična sredina je enaka nič. Varianca te
porazdelitve je vsota variance povprečij prvega vzorca in variance povprečij drugega vzorca. Standardni odklon
razlik povprečij dveh vzorcev je:
 12  22
 x1 x 2   standardni odklon razlik povprečij dveh vzorcev
n1 n2
Standardni odklon vzorčne porazdelitve razlik povprečij dveh vzorcev imenujemo tudi standardni pogrešek
ocene razlik dveh povprečij dveh vzorcev, tudi ta ima značilnosti normalne porazdelitve.
x1  x 2
Z x1 x 2 
 12  22 standardizirani odklon vzorčne porazdelitve razlik dveh povprečij

n1 n2

22. POSKUŠANJE DOMNEV


Ugotovili smo, da iz naključnih vzorcev lahko ocenjujemo parametre populacije, iz katere so vzorci izbrani.
Vzorci pa nam ne koristijo samo za ocenjevanje parametrov populacije, ampak tudi za preverjanje domnev, ki jih
postavljamo pri statistični analizi rezultatov znanstvenega ali strokovnega dela.
OSNOVNA IN NIČELNA DOMNEVA
 domneva, kakršna je pravkar opisana imenujemo tudi osnovna domneva in jo označujemo z H1
 osnovni priredimo nasprotno domnevo, ko jo imenujemo ničelna in jo označujemo z Ho.
 Ker si osnovna in ničelna domneva nasprotujeta, ima zavrnitev ničelne domneve za posledico sprejetje
osnovne domneve. (zavrnemo ničelno, sprejmemo osnovno oz. ne zavrnemo ničelne in ne sprejmemo
osnovne)
 Ničelno domnevo preskušamo z izračunom
STATISTIČNA ZNAČILNOST REZULTATOV:
V najpogosteje izberemo vrednosti 0,05, 0,01 in 0,001 kot zgornjo meje tveganja, pri kateri zavračamo ničelno
domnevo. Torej govorimo o 5%, 1% in 0,1% stopnji tveganosti. Katero izberemo je odvisno od narave podatkov
in problema, ki ga obravnava osnovna domneva (odločitev strokovno utemeljena). Izhajati moramo iz posledic,
kaj je če osnovno domnevo ne sprejmemo in je bila pravilna in obratno.
Ko se odločimo o stopnji tveganosti pri zavračanju ničelne domneve, se moramo odločiti, ali bomo uporabili
enosmerni ali dvosmerni test. O tem se odločamo že pri postavljanju osnovne in ničelne domneve. Če pri ničelni
domnevi uporabimo znaka ><, s tem določimo tudi smer testa in sicer naj bi bil enosmeren, kadar pa ničelna
domneva trdi samo, da ni , nas smer ne zanima in zato uporabimo dvosmerni test. Praktično je ta odločitev zelo
pomembna in je ne smemo prepustiti formalnemu postavljanju ničelne domneve, če namreč uporabimo
enosmerni test, bo isti rezultat značilen pri pol manjšem tveganju, kot če bi uporabili dvosmerni test.
NAPAKE PRI PREISKUŠANJU DOMNEV
 ničelno domnevo zavrnemo, kadar je verjetnost, da je pravilna dovolj majhna.
 Vedeti pa moramo, če to verjetnost postavimo še tako nizko, je pri sklepanju vendarle vedno nekaj
tveganja, da bomo ničelno domnevo zavrnili, čeprav v resnici drži. Napako, ki bi jo naredili imenujemo
napako prve vrste, njeno verjetnost pa označujemo z . Verjetnost napake prve vrste je v naprej
določena s stopnjo tveganja pri sklepanju (). Napak prve vrste je majhna. Napako pa je možno tudi
narediti tako, da bi ničelno domnevo sprejeli, čeprav v resnici ne drži in zavrnili osnovno domnevo. To
pa je napaka druge vrste, njeno verjetnost pa označujemo z . Medtem, ko verjetnost za napako prve
vrste izberemo sami v naprej, pa napak druge vrste odvisna od več dejavnikov. Nanjo vplivajo trije
faktorji: porazdelitev relavantnega parametra obeh alternativnih populacij (npr. razlika med povprečji),
velikost vzorca (večje število enot-manjši ) je in stopnja tveganosti (večji je – manjši je ).
Ker v splošnem parametrov obeh alternativnh populacij ne poznamo, faktorja za verjetnost napake druge vrste
skoraj nikoli ne poznamo, kljub temu lahko na njega vplivamo z dovolj velikim vzorce in . Vedeti pa moramo,
če se odločimo za dovolj majhno napako prve vrste, s tem se povečuje možnost napake druge vrste – pomembne
rezultate pripisujemo naključju   naj ne bo premajhen, če to ni potrebno.
Kot vidimo, je pri sklepanju nevarnejša napaka druge vrste, saj je njena verjetnost zelo velika in je ponavadi ne
moremo oceniti, med tem ko je verjetnost za napako prve vrste znana. Torej če ničelno domnevo zavrnemo,

14
lahko naredimo napako prve vrste, če pa ničelno sprejmemo in s tem zavrnemo osnovno, lahko tvegamo s
napako druge vrste.
Tej nevarnosti se izognemo tako, da v primeru, ko je tveganje preveliko, naredimo ničelne domneve ne
zavrnemo in osnovne ne sprejmemo. Torej v tem primeru ostane osnovna domneva , ki jo statistično preverjamo
– nepotrjena ne pa ovržena.
Verjetnost, da z določenim testom ne bomo naredili napake druge vrste 1 - , imenujemo moč testa (odkriva
statistične značilnosti). To pomeni verjetnost, da bomo z testom zavrnili ničelno domnevo, kadar ni pravilna in jo
je treba zavrniti

23. PARAMETIČNI IN NEPARAMETRIČNI TESTI:


Večina metod za statistično analizo podatkov temelji na nekaterih predpostavkah v zveti z porazdelitvijo
populacije. Najprej predpostavimo, da je vzorec vzet iz normalno porazdeljene populacije, nato pa s statistično
metodo ugotovimo povprečje , varianco, standardni odklon. S temi metodami torej preverjamo domneve o
parametrih populacije in jih zato imenujemo parametrične metode.
V zadnjih leti pa se vse bolj uveljavljajo tudi metode, ki ne temelje na predpostavki o normalni ali drugačni
porazdelitvi populacije. Ker z njimi ne preskušamo domnev o statističnih parametrih populacije jih imenujemo
neparametrične statistične metode ali testi.
Parametrični testi: Pomanjkljivost parametričnih testov je predvsem v tem, da je ponavadi predpostavka o
normalni porazdelitvi populacije le slabo utemeljena, negotovost in možnost napake, ki izvira iz tega, sta lahko
precejšni, posebno kadar iz vzorca ocenjujemo parametre populacije. Nevarnost je manjša, kadar metoda temelji
na vzorčni porazdelitvi povprečij ( ta je pri dovolj velikem vzorcu normalna, če tudi populacija ni normalno
porazdeljena). Po drugi strani pa imajo parametrične metode večjo moč odkrivanja statističnih značilnosti, in so
primernejša za analizo podatkov, ki zahtevajo več vzorcev ali skupin, ter oceno mej in intervalov.
Neparametriči testi: ena od prednosti neparametričnih testov je predvsem v hitrem in preprostem računanju. Ta
je še posebno izrazita pri majhnih vzorcih, kjer je rangiranje naglo. Velika možnost uporabe računalnikov in
osebnih kalkulatorjev so to prednost neparmetričnih testov nekoliko zmanjšale. Glavna prednost
neparametričnih testov je v njihovi neobčutljivosti za obliko porazdelitve populacije, z njimi lahko tudi
analiziramo podatke, kjer spremenljivke sploh niso kvantitativne, saj zadostuje, da so spremenljivke ordinalnega
značaja in da jih lahko rangiramo. Pomanjkljivosti teh testov pa so predvsem v tem, da je njihova moč manjša
kot moč parametričnih testov, kar pomeni večjo verjetnost, da bo statistična značilnost nekega rezultata ostala
neodkrita. So primerni za oceno značilnosti, manj pa oceno mej in intervala zaupanja.
Torej se za analizo uporabljajo tako parametrični kot neparametrični testi, v določenih primerih prevladujejo eni
v drugih drugi.
KAJ JE ZNAČILNO ZA PARAMETRIČNE TESTE. NAŠTEJ KATERE POZNAŠ IN OPIŠI.
Z parametričnimi testi preverjamo domneve o parametrih populacije in jih zato imenujemo parametrične metode.
Parametrični testi: z-test, t-test, HI-kvadrat, F-test.
Pomanjkljivosti parametričnih testov je predvsem v tem, da je ponavadi predpostavka o normalni porazdelitvi
populacije, le slabo utemeljena. Parametrični testi imajo večjo moč odkrivanja statističnih značilnosti in so
primernejše za analizo podatkov; ki zahtevajo več vzorcev ali skupin ter za oceno mej in intervalov zaupanja.
KAJ SO NEPARAMETRIČNI TESTI. NAŠTEJ TISTE, KI JIH POZNAŠ IN OPIŠI.
Ho: razlik ni; H: razlike so
Prednost neprarametričnih testov je predvsem v hitrem in preprostem računanju. Ta prednost je še posebej
izrazita pri majhnih vzorcih, kjer je rangiranje naglo. Glavna prednost neparam. testov je v njihovi
neobčutljivosti za obliko porazdelitve populacije. Z njimi lahko analiziramo tudi podatke, kjer spremenljivke
sploh niso kvantitativne, saj zadostuje, da so spremenljivke ordinalnega značaja in da jih lahko rangiramo.
Pomanjkljivosti teh testov pa so predvsem v tem, da je njihova moč manjša kot moč parametričnih testov kar
pomeni večjo verjetnost, da bo statistična značilnost nekega rezultata ostala neodkrita. Ti testi so predvsem
primerni za oceno značilnost, manj za oceno mej in intervala zaupanja.
POSTOPEK pri preizkušanju domnev:
 podatke najprej pretehtamo in presodimo, katera metoda bi bila najprimernejša za analizo problema.
 Izbira prave metode je ena ključnih odločitev pri statistični analizi (izbira prave metode je ponavadi
izbrana že pri načrtovanju raziskav in predvideli tudi ustrezno zbiranje pdatkov)
 Najprej je potrebno oceniti, kakšno vrsto podatkov imamo ali gre za kvantitativne, zvezne
spremenljivke ali za atributivne oziroma kvantalne.
 Pomembno je tudi, da problem razčlenimo
 Ko izberemo metodo, postavimo osnovno domnevo in nato ničelno domnevo.
 Določimo tveganje pri katerem bomo zavrnili ničelno domnevo, ustrezno temu določimo kritične meje
in kritično območje iz ustreznih tabel poiščemo kritično vrednost za izbrani test pri določenem
tveganju, če ni utemeljenih vzrokov, uporabljamo vedno dvosmerni test
 Podatke, ki jih želimo analizirati vstavimo v ustrezni izraz in izračunamo vrednost izraza

15
 Če dobljena vrednost pade v kritično območje, zavrnemo ničelno domnevo in sprejmemo osnovno
domnevo ( v tem primeru pravimo, da so rezultati statistično značilni)
 Če pa je vrednost zunaj tega območja ničelne domneve ne moremo zavrniti, in osnovna domneva ostane
nepotrjena (ne sprejmemo).

24. ANALIZA KVANTITATIVNIH SPREMENLJIVK


 za njihovo analizo uporabljamo, kot smo že menili dve vrsti metod: parametrične in neparametrične.
 Parametrične metode uporabljamo predvsem tam, kjer vemo ali vsaj lahko predpostavljamo, da gre za
normalno porazdelitev
 S to analizo iščemo odgovore na vprašanja kakšno je povprečje populacije, če poznamo povprečje vzorca,
naključno izbranega iz te populacije, ali je razlika med vzorcem in znano populacijo značilna, ali se dva
naključno izbrana vzorca med seboj značilno razlikujeta.
OCENA POVPREČJA POPULACIJE
Kadar aritmetične sredine populacije ne poznamo, jo lahko ocenimo iz vzorca, ki smo vzeli iz te populacije.
Glede na lastnost vzorčne porazdelitve aritmetičnih sredin, vemo, da je porazdelitev normalna s povprečjem, ki
je enako povprečju populacije, in s standardnim odklonom, ki ga imenuje tudi standardni pogrešek ocene
povprečja populacije (SE).
Iz lastnosti normalne porazdelitve sledi s 95% verjetnostjo, da se povprečje posameznega vzorca, vzetega iz
znane populacije, ne odmika od povprečja populacije za več kot 1,96 navzgor ali navzdol ali pa tudi obratno (kar
velja za vzorec velja tudi populacijo). Iz tega sledi, da bi iz povprečja danega vzorca lahko ocenili povprečje
populacije, tu pa ocena povprečja ni podana z eno vrednostjo ampak z intervalom –intervalom zaupanja, v
katerem je z določeno verjetnostjo pravo povprečje:
x -z.SE<< x + z.SE interval zaupanja
Takšno oceno lahko imenujemo tudi intervalno oceno povprečja-pogosto uporabljamo točkovo oceno. Povprečje
vzorca vzamemo kot točkovno oceno za povprečje populacije, z odklonom zaupanja (z. SE ) pa povemo, za
koliko se z določenim tveganjem ocena povprečja največ odmika od pravega povprečja populacije.
Ocenjevanje povprečja in računanje intervala zaupanja ali odklona zaupanja nima smisla, če poznamo populacijo
in njegovo povprečje in ga ni potrebno ocenjevati iz vzorca. smisel samo kadar je populacija neznana.
V takem primeru pri računanju standardnega pogreška namesto standardnega odklona populacije uporabimo
standardni odklon vzorca. Dobljena vrednost ni standardni pogrešek  x ampak le ocena s x , ki ravno tako
označujemo z SE (standardni pogrešek). Ocena standardnega odklona je tem bolj zanesljiva, čim večji je vzorec
odvisnost od velikosti.
OCENA POVP. Z VELIKIM VZORCEM
 več kot 30 enot tu se uporablja test Z, to pomeni, da standardni odklon vzorca lahko vzamemo za oceno
standardnega odklona populacije.
s
 uporabimo standardizirano normalno porazdelitev – z, SE  standardni pogrešek za vzorec
n
 x -z.SE<< x + z.SE interval zaupanja
OCENA POVP Z MAJHNIM VZORCEM
 kadar je vzorec majhen (n<30), postane njegov standardni odklon nezanesljiva ocena standardnega odklona
populacije. Zanesljivost je tem večja, čim manjši je vzorec, zato za določanje mej uporabljamo test – t
 x -t.SE<< x + t.SE interval zaupanja pri n<30
Popravek z N :
N n
 v intervalu uporabljamo tudi popravek , ne uporabimo ga kadar je N velik in, če elemente
N 1
vračamo, če N niznan, kadar pa je N majhen in ga ne vračamo pa ga upoštevamo :
N n N n
x -z.SE. << x + z.SE. interval zaupanja s popravkom
N 1 N 1

25. PREIZKUŠANJE DOMNEVE O RAZLIKI MED POVPREČJEM VZORCA IN POPULACIJE S


TESTOM »z« (str.79)
Vemo, da sta redko znana povprečje in standardni odklon populacije, zato primerjava z znano populacijo ni prav
pogost primer v statističnih analizah.
Preizkus temelji na vzorčni porazdelitvi aritmetičnih sredin pri isti populaciji (vzorčna porazdelitev str. 9).
Tu Ho trdi, da je povprečje populacije , iz katere je vzet vzorec, enako povprečju znane populacije in da je
morebitna razlika naključna:
Ho :  = o

16
Domnevo preverjamo tako, da ugotovimo kakšna je verjetnost, da bi iz znane populacije po naključju izbrali
vzorec, katerega povprečje potem primerjamo. Če je verjetnost manjša kot stopnja tveganja, za katero smo se
odločili Ho zavrnemo in H1 sprejmemo, ki trdi vzorec ne izhaja iz znane populacije in da se od nje značilno
razlikuje. Tu uporabimo enačbo :
x
Zx 
 ( standardizirani odklon za vzorčno porazdelitev povprečij ) in z test
n

26. PREIZKUŠANJE DOMNEVE O RAZLIKI MED POVPREČJEM VZORCA IN POPULACIJE S


TESTOM »t« (str.80)
Kadar želimo analizirati razliko med povprečjem vzorca in populacije, katere standardni odklon nam ni znana, bi
morali uporabiti standardni odklon vzorca kot nepristransko cenilko standardnega odklona populacije, ker je pri
majhnem vzorcu ta ocena nezanesljiva, za preizkus ne moremo uporabiti normalne porazdelitve temveč
porazdelitev »t« z m= n-1 (stopnja prostosti). Ničelna domneva je podobna kot v prejšnjem primeru
x
t
s ( standardizirani odklon za vzorčno porazdelitev povprečij ) in t test
n

27. PREIZKUŠANJE DOMNEVE O RAZLIKI MED POVPREČJEMA DVEH NEODVISNIH


VZORCEV
Primerjanje dveh neodvisnih vzorcev je zelo pogost postopek, ponavadi je eden v od vzorcev kontrolni drugi
tretiran z neko z nekim postopkom.
Preizkus temelji na vzorčni porazdelitvi dveh povprečij (str. 10). Ničelna domneva trdi, da oba vzorca izvirata iz
iste populacije in ni resnične razlike med obema povprečjema oz. da je morebitna razlika samo posledica
naključja: Ho :  x1 x 2  0 , to domnevo preverjamo z računanjem, kolikšna je verjetnost, da bi dobili tako
razliko med povprečjema obeh vzorcev, kakršno smo v resnici dobili, če bi bila oba vzorca vzeta iz iste
populacije, če je ta verjetnost manjša od kot stopnja tveganja, zavrnemo Ho in sprejmemo H1, ki trdi, da se
povprečij obeh vzorcev značilno razlikujeta.
Ker ponavadi ne poznamo standardnega odklona populacije iz kater po ničelni domnevi izhajata vzorca, moramo
za njeno oceno vzeti standardni odklon vzorcev, glede na velikost jih delimo:
a. RAZLIKA MED POVPREČJEM DVEH VELIKIH VZORCEV (str. 82):
Vzorca morata biti dovolj velika n>30, lahko njuna standardna odklona vzamemo za dovolj zanesljivo oceno
standardnega odklona populacije. Domnevo preizkusimo s pomočjo standardizirane normalne porazdelitve
razlik povprečij:
x1  x 2
Z x1 x 2 
s12 s 22 standardizirani odklon vzorčne porazdelitve razlik dveh povprečij pri dveh

n1 n 2
velikih vzorcih
b. RAZLIKA MED POVPREČJEM DVEH VELIKIH VZORCEV (str. 82) (test F):
Vzorca morata biti majhna n<30, tu standardna odklona postaneta nezanesljivo oceno standardnega odklona
populacije, tem bolj , čim manjša sta, zato tu ne moremo narediti preskus domneve na normalni porazdelitvi
temveč s »t« testom.
V tem primeru test »t« sloni še na dodatni predpostavki, računati je namreč potrebno skupni standardni odklon
za oba vzorca, to pa smemo storiti samo, če se varianci obeh vzorcev med seboj ne razlikujeta . Predpostavko o
enakih variancah moramo preveriti s testom F.
Test F uporabljamo predvsem pri analizi variance. Značilnosti testa: vrednost F je pravzaprav razmerje med med
večjo in manjšo varianco, odvisna je od velikosti obeh vzorcev (n) oz. stopinj prostosti (m) : m1=n1-1 in m2=n2-
1. Kritične vrednosti te porazdelitve pri najbolj pogostih stopnjah tveganja in različnih stopnjah prostosti so
ponavadi podane v tabelah (knjiga »D« -kritične vrednosti pri F pri 5% tveganju).
Pri preizkušanju ničelne domneve o razliki med povprečjema dveh majhnih neodvisnih vzorcev uporabljamo
enačbo:
x1  x 2
t
1 1 , kjer je »s« skupni standardni odklon za oba vzorca in jo računamo po enačbi:
s. 
n1 n 2

17
 x  2
 x  2

x   x  x x 


2 2 1 2
1  x1 2  x2
2
1  2
2
s oz. n1 n2
n1  n2  2 s
n1  n 2  2
t t (n1  n2  2) jih seštejemo ker sta dva vzorca (stopinje prostosti m= n1 + n2 –2)

28. WILCOXONOV TEST Z VSOTO RANGOV/FREKVENČNIH RANGOV


- da izhajata oba vzorca iz iste populacije, torej imamo opravka z dvema neodvisnima vzorcema, domnevo, da
vzorca izhajata iz iste populacije preizkušamo s testom vsote rangov po Wilcoxonu.
- ta test je neparametričen
- hipoteza je ravno obratna kot pri parametričnih; Ho ni razlik, H1 razlike so očitne; tabela H pri p=0,05, če je
vsota rangov manjšega vzorca enaka ali manjša kot prvo število iz tabele oziroma enaka ali večja od drugega
števila iz tabele, se vzorca razlikujejata pri 5% stopnji tveganja. (n1-število enot v manjšem vzorcu; n2-število
enot v večjem vzorcu).
- podatke x1, x2 uredimo v ranžirno vrsto in nato rangiramo ne glede na to kateremu vzorcu pripadajo, nato
seštejemo range vseh enot manjšega vzorca , tako da dobimo vsoto njihovih rangov T 1 (vsota rangov manjšega
vzorca)
- rangiranje pomeni urediti vrednosti po velikosti v ranžirno vrsto
- če je kateri od vzorcev večji od števil, ki so zajeta v tabeli, lahko značilnost razlik v vsoti rangov preizkusimo s
pomočjo normalne porazdellitve (binomna k normalni):
2.Ti  ni . n1  n2  1  2
z
n1 .n2 . n1  n2  1 , Ti je vsota rangov enega od vzorcev( vseeno kateri), ni pa število enot v istem

3
vzorcu
POVPREČNA RAZLIKA PRI PARNIH, MED SEBOJ ODVOSNIH VZORCIH
Doslej imeli kvantitativne spremenljivke in med seboj neodvisne vzorce. Vemo pa, da imamo velikokrat opraviti
s parnimi vzorci (odvisnimi) , en podatek v prvem vzorcu ima par v druge vzorcu in jih primerjamo. Parne
podatke dobimo v navzkrižnih poskusih z istimi subjekti, ki jih enkrat tretiramo, drugič pa nam rabijo za
kontrolo.

29. ANALIZA PARNIH PODATKOV S TESTOM »T«


Analiza je preprosta, upoštevamo le razliko med posameznimi pari (d), povprečno razliko v vzorcu - d ,
povprečno razliko v populaciji d. Ho trdi, da je pri populaciji povprečje razlik med obema enako nič. Torej gre
test aritmetične sredine enega vzorca :

 d  2

d d 2

n
t ; sd 
sd n 1
n
m=n-1; n= število parov (tabela B)

30. ANALIZA Z WILCOXONOVIM TESTOM PREDZNAČENIH RANGOV


- razlike pri posameznem paru, v bistvu je ta test alternativa za t test pri analizi parnih podatkov
- test je neparametričen, Ho trdi, de je mediana razlik med pri parih v celotni populaciji enaka nič (bizti
med parnimi meritvami približno enako število pozitivnih in negativnih razlik)
- podatke uredimo v ranžirno vrsto in določimo rang, obravnavamo samo tiste, ki imajo razliko
- nato skupaj seštejemo podatke, ki imajo predznak + (T+)in predznak - (T-), če bi Ho držala bi morale
biti približno enaki.
- Kritične vrednosti, pri katerih lahko z določeno stopnjo tveganja zavrnemo Ho, so v tabeli G (tabela
velja za manjšo od vsot obeh rangov).
- Če je manjša vsota rangov, ki smo jo tako dobili, manjša od kritične vrednosti T, Ho zavrnemo

31. PRIMERJAVA VEČ VZORCEV


Tu analiziramo več vzorcev. Na prvi pogled se zdi, da bi lahko vzeli po dva in dva vzorca in s testom t, testom z
ali alternativnim neparametričnem testom poskušali značilnost razlik med njima – to je nepravilno. Zato je v

18
takem primeru nujna več vzročna analiza, to najpogosteje primerjamo z analizo variance ali z alternativnim
nepararmetričnim Krukal-Walilisovim testom.
a. ANALIZA VARIANCE (F porazdelitev)
Analiza variance temelji na dejstvu, da varianca vsakega vzorca vzetega iz populacije, predstavlja nepristransko
oceno variance populacije. Vzorčno porazdelitev razmerij teh varianc imenujemo tudi porazdelitev F.
Analiza variance je parametrična analiza, zato jo lahko uporabljamo samo pri normalnih populacijah, poleg tega
se variance med seboj ne smejo preveč razlikovati.
Bistvo analize variance je v tem, da se celotno varianco vseh enot iz vseh vzorcev razstavimo na komponente, iz
katerih je sestavljen.
Ho trdi, da vsi vzorci izhajajo iz populacije z enakim povprečjem in, da varianca med skupinami ni večja od
variance znotraj teh skupin. Kritične vrednosti porazdelitve F pri 5% tveganju dobimo v tabeli D, če dobljena
vrednost F presega kritično vrednost, zavrnemo ničelno domnevo, sprejmemo sklep, da vzorci izhajajo iz
različnih populaci.
b. KRUKAL-WALLISOV TEST
 za večvzorčno analizo enega samega faktorja,
 to je neparametričen test z značilnimi prednostmi in pomanjkljivostmi te skupine testov,
 uporabljamo lahko tudi kadar podatki ne izvirajo iz normalne distribuirane populacije in kadar so variance
vzorcev niso homogene
 postopek podoben kot pri Wilcoxonovem testu vsote rangov,
 podatke rangiramo ne glede nato iz katere skupine je posamezna enota, range seštejemo in podatke vnesemo
v izraz:
12 Tv2
H
n. n  1
 n  3. n  1 , n je število vseh enot, nv je število enot v posameznem vzorcu in Tv je
v
vsota rangov v posameznem vzorcu, izračunane vsote rangov preverimo z enačbo:
n(n  1)
Tv 
2
Če so vzorci dovolj veliki, večji kot po pet enot, postane porazdelitev H tako podobna hi-kvadrat, da lahko za
oceno značilnosti uporabljamo kar tabele hi-kvadrat z m=k-1, ke je število skupin.
Iz tabele F pri 5% tveganju in pri določenih stopinjah prostosti izberemo kritično vrednost, če je H presega od
kritične vrednosti, lahko Ho zavrnemo.
32. TEST HI-KVADRAT
Se uporablja pri statistični obdelavi podatkov, kadar želimo vedeti ali se ugotovljene frekvence razlikujejo od
frekvenc, ki bi jih pričakovali na temelju analize.
Za vsako kategorijo najprej izračunamo razliko med ugotovljeno in pričakovano frekvenco, nato pa razmerje
med kvadratom te razlike in pričakovano frekvenco.

Oblika porazdelitve je odvisna od stopinj prostosti (določene s številom neodvisnih spremenljivk).


Stopnje prostosti so dane s številom polj v kontigenčni tabeli.
Uporablja se pri analizi podatkov enega, dveh ali več vzorcev, kadar so podatki dani s številom.
Pomembno je tudi, da je vseh enot vsaj 40 ali več in da mora biti pričakovano frekvenco vedno večja od ena in
80 % kategorij imeti pričak.frekvenco pet ali več.
Da bi temu ustregli moramo včasih več polj kontigenčne tabele zdužiti.
Kadar pa je vsaj ena pričak.frekvenca pod pet, moramo opraviti popravek za zveznost Yotesovim popravkom
(zmanjšati za –0,5 ne glede na predznak).
ANALIZA ENEGA VZORCA
Stopinje prostosti dobimo kot številko kategorij naj kot ena: m=k-1. Ker sta samo dve kategoriji, imamo eno
stopinjo prostosti (nujen Yotesov popravek)
X2= dobimo da seštejemo vrednosti

m= k- 1
fu - dano v nalogi
fp - 40% od vseh udeleženih
(fu – fp)
(fu – fp)k
(fu – fp)˛k
(fu – fp)˛k
fp na koncu obe kategoriji seštejemo = X2

19
ANALIZA DVEH ALI VEČ VZORCEV
Kadar imamo podatke prikazati v tabeli s štirimi polji, ki jo imenujemo 2x2 kontigenčna tabela. Stopinje
prostosti dobimo tako, da od števila vrstic odštejemo ena in od števila stolpcev ena in to pomnožimo.
Določimo ničelno domnevo (da med kofeinom in budnostjo ni zveze) ali pri tem izračunamo kakšno frekvenco
bi pričakovali, če bi ta trditev držala.
Pričakovano frekvenco pa dobimo tako, da za vsako polje v tabeli pomnožimo vsoto v ustrezni vrstici z vsoto v
ustreznem stolpcu ter zmnožek delimo s skupno vsoto vseh enot.
a ba+b
c d c+d
Če pa je tabela večja kot 2x2 m=v-1*s-1 stopinje prostosti

Izračunamo pričakovano frekvenco tako, da vzamemo seštevek vseh skupnih enot delimo z vsoto vrstice krat
vsota skupaj delimo z vsoto v stolpcu in pomnožimo z vso vsoto.

33. KOLERACIJA IN REGRESIJA


- gre za medsebojno zvezo dveh spremenljivk x in y,
- ugotavljamo povezanost obeh spremenljivk, in kakšne vrste je

METODA KOLERACIJE- poskušamo kvantificirati stopnjo povezanosti obeh spremenljivk

LINEARNA REGRESIJA-naloga je določiti enačbo krivulje, ki se najbolj prilega podatkom dveh spremenljivk
pri istih enotah, če so podatki prikazani na koleracijskem diagramu.

Y = a + bx = y + b (x – x)

KOLERACIJA- ne pomeni, da sta spremenljivki med seboj povezani kot vzrok in posledica. Nasprotno, zelo
pogosto sta obe spremenljivki odvisni od nekega tretjega dejavnika, katerega pogosto niti ne poznamo. Se
razlikuje glede na smeri, zato govorimo o pozitivni in negativni.
Pozitivna je kadar vrednost ene spremenljivke narašča z vrednostjo druge; negativna pa je če vrednost ene
spremenljivke pada, če vrednost druge narašča. Je lahko pa tudi večja ali manjša.

34. KOEFICIENT KOLERACIJE PO PEARSONU


 uporabljamo kadar sta spremenljivki približno normalno porazdeljeni
 označujemo ga z r in je enak razmerju med kovarianco Cxy in zmnožkom standardnih deviacij.
Kovarianca je povprečni produkt odklonov dveh naključnih spremenljivk.

Enačba za koeficient koleracije:

Ima vrednost med –1 (max.neg.koleracija) in +1 (max.poz.koleracija)


Če pa je 0-pa pomeni, da med spremenljivkami ni povezanosti.

Koeficient koleracije je merilo za stopnjo povezanosti in pove samo, da kako velika je koleracija, nikakor pa ne
pove, če je povezanost značilna ali ne.
Ocenjujemo jo s testom T pri m=n-2 stopinjah prostosti.

35. KAJ JE LINEARNI PROGRAM.KAKO IZ PRIMARNEGA DOBIMO DUALNI PROGRAM. KAJ


POMENI, ČE NEKA DUALNA SPREM. ENAKA 0.
linearni program je vsak program, pri katerem spremenljivke zadoščajo pogojem negotovosti, sistemu linearnih
neenačb in za katere ima linearna funkcija, definirana na konveksni množici, ki jo določajo te neeačbe, ekstrem .
Rešitev linearnega prog. je ena ekstremna točka konveksne množice, ali dve ekstremni točki (v tem primeru tudi
celotna spojnica dveh točk) ali pa rešitve ni (kon.množica je v tem primeru prazna).
K vsakemu linernemu prog. lahko priredimo dualni prog.. Pri tem velja, da iz primarnega dobimo dualnega tako,
da matriko koeficientov v neenačbah transportiramo, neenačaje obrnemo, maximum zamenjamo z minimumom,
koeficient ciljne funkcije postanejo omejitve v neenačbah, omejitve pa koeficienti ciljne funkcije dualnega
programa. V dualnem lin.programu imamo toliko spremenljivk kot imamo v primarnem omejitev, saj vsaki
omejitvi prim.lin.prog. pripada ena dualna sprem. Linearni program rešujemo, če imamo dve neznanki grafično,
če pa imamo tri neznanke z metodo simplex. Glede na vsebino lin.prig. ločimo lin.prog. proizvodnih, mešalnih
in transportnih problemov.

20
36. KAJ JE MATRIČNA IGRA Z VSOTO NIČ. KAKO IŠČEMO OPTIMALNO STRATEGIJO ZA
OBA IGRALCA, ČE IMA MATRIKA SEDLO IN KAKO ČE GA NIMA. KAJ JE CENA IGRE.
Matrična igra ali stateška igra, pri kateri gre za odločitve, kjer nastopata dva odločevalca. Vsak odločevalec
izbere odločitev neodvisno od drugega odločevalca v sistemu, s čimer vpliva na rezultat oz. korist, ki jo doseže
drugi odločevalec z izbiro svoje alternative. Kadar se interes enega odloč. križa z interesom drugega imenujemo
to konfliktna situacija. Konfliktno situacijo primerjamo s potekom strateških iger npr. šaha. Odločevalec A ima
na razpolago toliko alternativ kot ima matrika plačil vrstic in odločevalec B ima toliko alternativ na razpolago
kolikor ima matrika plačil stolpcev.
Strateška igra s sedlom: kadar je maximinj=aik=minmaxij=aik;
SEDLO pove katero čisto strategijo naj odločevalca A oz. B izbereta in vrednost, ki jo A najmanj dobi in B
največ plača. (to je čista strategija).
Omega je cena igre. Čista stateg. je takrat, kadar je srateg.odločevalca enaka 1, vse ostale pa so nič. Npr:(0,1,0)
sicer pa je mešana stategija. V matričnih igrah s sedlom je optimalna strategija za oba odločevalca vedno čista
strategija.
Strateška igra brez sedla: v tem primeru govorimo o mešani strategiji igralcev. Matrična igra nima sedla npr.
če je maxmin=0=minmax=3. Matriko potem reduciramo, tako da poiščemo za oba odločevalca prevladujoče
alternative in nato s pomočjo minmax pravila poiščemo optimalno strategijo za odločevalca A in B. Eksistirane
alternative uporabimo, ostale pa z reduciramo. Nato ugotovimo ali obstoji sedlo, vendar pravilo velja, da tudi v
reducirani matriki ni sedla, poiščemo mešano strategijo in ceno igre. V matrični igri brez sedla je vedno
optimalna mešana strategija.
CENA IGRE- ima naslednji pomen; če odločevalec A izbere alternativo a*i (alternativa v vrstici – maxminai ), si
s tem zagotovi, da bo zanesljivo dobil najmanj , odločevalec B pa mu s pravilno izbiro lahko vselej prepreči, da
ne bo dobil več kot . Odločevalec B pa si s podobnim razmišljanjem, to je z izbiro alternative b*j(alternativa v
stolpcu – minmaxai), zagotovi, da ne plača več kot . Tako odločevalca A in B lahko dosežeta neke vrste
ravnovesja. Q ravnovesju govorimo takrat, kadar odločevalca opravita več potez kar pa je povezano s pojmom
strategija.

37. MREŽNO PLANIRANJE RAZLOŽI POJMA KRITIČNA POT IN KRITIČNA


AKTIVNOST
Mrežno planiranje se ukvarja s kontrolo in vodenjem procesov ter njihovim stroškovnim planiranjem. Vse
metode mrežnega planiranja temeljijo na algebri., matematični statistiki in teoriji grafov. Mrežni plan je končen
ovrednoten graf brez zank in krožnih poti z enim vhodom in enih izhodom. Vozlišče grafa imenujemo v
mrežnem planiranju dogodek. povezavo pa dejavnost (aktivnost) Vrednost povezave imenujemo trajanje
aktivnost, maksimalno pot od vhoda mrežnega plana do izhoda mrežnega plana imenujemo KRITIČNA POT. To
poiščemo tako, da rešimo sistem rekuzijskih enačb, s tem da začnemo v izhodu mrežnega plana in gremo proti
njegovemu vhodu. Problem mrežnega plana rešujemo po metodi CMP tako, da najprej naredimo analizo
strukture in potem še časovno analizo. Strukturna analiza pomeni izdelavo seznama aktivnosti, izdelavo pregleda
povezanosti aktivnosti in izdelavo mrežnega načrta. S časovno analizo pa ugotovimo trajanje aktivnosti in
kritično pot.

38. KAJ POMENI KRATICA DDDP RAZLOŽI KATERI SO OSNOVNI ELEMENTI DDDP IN OPIŠI
RAZLIKO MED DDDP IN MREŽNIM PLANIRANJEM
Kratica DDDP pomeni diskretno deterministično dinamično programiranje. Z dinamičnim programiranjem lahko
glede na izbran kriterij poiščemo optimalno vodenje procesa, ki se odvija v več fazah. Pri več faznih procesih se
moramo v vsaki fazi odločiti, kako naj vodimo nadaljnji del procesa. Vseh odločitev ne določimo hkrati, pač pa
zaporedno drugo za drugo (zaradi tega pravimo, da je problem dinamičen) in pri tem iščemo tako zaporedje
odločitev, ki nam da glede na izbran kriterij optimalen učinek. Obravnavali bomo le procese, ki imajo končno
število faz in vse množice, ki v procesu nastopajo bodo diskretne in končne (zaradi tega pravimo, da je
programiranje diskretno). Vsak problem, ki ga lahko rešimo v fazah je dinamičen problem. V vsaki fazi
sprejmemo odločitev in odločitev vpliva na vse ostale. Poiskati moramo tako odločitev, da bo posledica
optimalna.
Sestavljena je iz več faz:
 faza: povemo iz koliko faz oz. korakov je sestavljen proces
 faza: v vsakem trenutku imamo stanje Xij
 faza: v vsakem stanju imamo na razpolago končno množico odločitev dxij
 faz: enačba prehoda

21
 faza: donesek oz. dobiček
 faza: grafično ponazorimo z grafom
 faza: optimiziramo s kontitativnimi metodami Beleman (od leve proti desni)
 na koncu še sledi komentar
RAZLIKA: DDDP upošteva faze, ima lahko več končnih stanj, vrednost končnega stanja je lahko 0 ali ni enaka
nič, iščemo retrogradno min ali max. 0 so stanja, imamo prehod, optimalna politika.
Mrežno planiranje-nima faz, nujno imamo en končni dogodek, kjer se proces konča, vrednost končnega stanja je
vedno nič, iščemo samo max. 0 so dogodki, imamo aktivnost, kritična pot.

39. METODA SIMPLEX-


temelji na zamenjavi vektorjev v bazi. Lin.program vsebuje neenačbe in tudi enačbe. Če so neenačbe moramo
najprej iz neenačb narediti enačbe. To naredimo tako, da uvedemo dopolnilne spremenljivke. Če želimo reševati
po sistemu simpleks se zahteva reševanje s kanonskim sistemom enačb. To je, da obstoji vsaki enačbi natančno
ena spremenljivka, ki ima v tej enačbi koeficient 1, v ostalih enačbah pa je pri tej spremenljivki koeficient 0. Da
bomo imeli kanonski sistem enačb vpeljemo še umetne spremenljivke. Tako definiranega lin.prog. je možna
rešitev vektor x, ki zadošča pogojem nenegotovosti ter vsem omejitvenim enačbam oz. neenačbam. Optimalna
možna rešitev tega lin.prog. pa je tak vektor x, ki zadošča pogojem nenegotovosti, vsem omejitvenim enačbam
ter za katerega ima namenska funkcija max. oz. min. Možna rešitev se imenuje NEBAZNA, če ima vektor x več
kot m pozitivnih komponent in se sistem imenuje bazna NEDEGENERIRANA rešitev lin.prog. če ima vektor x
manj kot m pozitivnih komponent.
Bistvo je, da najdemo eno ekstremno točko, nato hodimo od ene ekstremne točke do druge toliko časa dokler je
pri max ciljno funk. še možno povečat oz. pri min zmanjšat. Iz ene točke v drugo pridemo da zamenjamo en
vektor v fazi.

40. NAŠTEJ VSE PRINCIPE ODLOČANJA ZA PRIMER HEVRISTIČNEGA ODLOČANJA


VSAKEGA OPIŠITE.
Realni problem odločanja, tako tudi problemi poslovnega odločanja so izredno kompleksni in zapleteni. V njih
nastopajo razni kvantitativni in kvalitativni dejavniki ter deterministični in statistični procesi. Pri njihovem
obravnavanju si pomagamo tako, da originalnemu problemu priredimo odekvaten model, ki je bolj enostaven in
nekako simbolično prikazuje relacije med posameznimi dejavniki sistema.
V zvezi z oblikovanjem modelov v grobem ločimo naslednje faze:
- postavimo problem poslovnega odločanja,
- oblikovanje modela,
- iskanje rešitve,
- preverjanje modela in ocena rešitve,
- uvajanje modela v prakso in kontrola njegove pravilnosti.

Pri hevrističnem odločanju gre za sprejemanje odločitev v razmerah negotovosti.


1) MINIMAX pravilo: nič ne tvegamo, zanimajo nas najmanjši rezultati in kot optimalno odločitev izberemo
tisto pri kateri je rezultat izbran izmed najmanjših, največji.
ai = aj ? minUik = minUjk
k k

2) MAXMAX pravilo: po katerem veliko tvegamo. Tu nas zanimajo največji rezultati in kot optimalno odločitev
izberemo tisto, pri kateri je rezultat, izbran izmed največjih, najmanjši.

ai = aj ? maxUik = maxUjk
k k

3) HURWICZOV PRINCIP- kjer k najboljšemu rezultatu vzamemo najslabšega in se nato odločimo na osnovi
konveksne linearne kombinacije obeh. (je linerna sestava na osnovi konveksne linearne kombinacije in vsak
koeficient je element iz intervala [0,1]
Čim večji je α tem večji je optimizem tistega, ki sprejme odločitve.
H(a1)= αmaxÌUik + (1-α)minUjk; α= 0,4
k

4) LAPLACEVO pravilo- kjer seštejemo vse rezultate, ki pripadajo odločitvi in kot optimalno odločitev
izberemo tisto, pri kateri je vsota rezultatov največja.
a1 = aj ? Uik = Ujk
k k

5) BAYESOVO pravilo ENAKIH VERJETNOSTI: ki upošteva enake verjetnosti za nastop kateregakoli


možnega stanja. Po Bayesovem pravilu enakih verjetnosti štejemo za najbolj ugodno tisto odločitev, pri kateri je
aritmetična sredina rezultatov največja.

22
E(a1) = Uik · pik (1/3=n; ali dano 0,45=s)
6) MINIMAX pravilo priložnostnih izgub:
- v osnovni preglednici poiščemo največje število (maximum) in ga prikažemo kot št. 0,
nato pa vsa ostala podana števila odštejemo od tega maximuma.
- tu nas zanima, kakšne so posledice če ne sprejmemo optimalne odločitve. Če se odločevalec ne odloči za
optimalno odločitev, nekaj izgubi, kar je sicer imel priložnost dobiti.. To izgubo imenujemo priložnostna izguba.
Za vsako odločitev poiščemo maxsimalno priložnostno izgubo in kot optimalno odločitev izberemo tisto, pri
kateri je priložnostna izguba izbrana izmed največjih, najmanjša.

41. SISTEM LINEARNIH ENAČB


Uredimo spremenljivke, na voljo imamo več enačb z več neznankami, za rešitev uporabimo metodo z rangi,
določimo rang osnovne matrike in rang naše matrike, ki ju rešujemo, če sta med seboj enaka je sistem homogen.
Homogen pomeni ena rešitev, če ne se pa takšen problem ne da rešiti zato ga uporabimo pri
PARAMERTRIČNEM PROGRAMIRANJU in dobimo nov sistem enačb, ki je homogen.

42. SISTEM LINEARNIH NEENAČB


Rešitev je konveksna množica za katero velja, če izberemo dve poljubni točki v tej množici leži njuna daljica
znotraj množice. Rešitev je celotna daljica in je konveksna linearna sestava in jo zapišemo kot pA.
Rešitve so tri: konveksna množica ima lahko neskončno mnogo točk in sistem linearnih neenačb ima neskončno
mnogo rešitev,; konveksna množica ima eno samo rešitev, SLN ima eno rešitev,;konveksna množica je prazna
SLE nima rešitve.
Vrste: ekstremne, neekstremne.

43. MATRIKA
- seštevanje, odštevanje, množenje matrike s skalarjem, množenje matrike z matriko.
- inverzna matrika A-1 = 1/detA d -b
-c a A*X = B X*A = B
X = A-1B X = BA-1
- enotska matrika 1 0
0 1

Kranj, 2002
RO

23

You might also like