You are on page 1of 20

STATISZTIKAI FOGALMAK

A statisztika a tömegesen előforduló jelenségekre, folyamatokra vonatkozó információk


összegyűjtésének, leírásának, elemzésének, értékelésének és közlésének tudományos
módszertana.

A XVII. század óta a statisztika fokozatosan a matematika önálló ágává fejlődött, amelynek fő
célja volt, hogy minél megbízhatóbb hasznosítható információt nyerjenek a felmérési,
megfigyelési és mérési adatokból, a statisztikai mintából. A statisztika matematikai
vizsgálatokat foglal magában, a számokra támaszkodik, de nagymértékben befolyásolja a
számok megválasztásának módja és a statisztikai módszerek kiválasztása. Az eredmények
értelmezésének mindig logikusnak kell lennie, mert előfordulhat, hogy a számok helyes
eredményt adnak, de az értelmezése téves lehet.

Minden területen megjelennek a statisztikai adatok (a pszichológiában, jogban,


egészségügyben, sportban, gazdaságtanban, stb.). Sokszor olyan céllal használják, hogy egy
érv, termék vagy tanács hitelességét növeljék. Így találkozhatunk több olyan statisztikai
számadattal is, amely nem pontos elemzésre épül. Ez félrevezethető lehet, és ez által rossz
döntéseket hozhatunk. A statisztika egy nagy lépés a valóság megismerése felé, de félig
viccesen azt is mondhatjuk, hogy az első lépés az, hogy megkérdőjelezzük a statisztika
helyességét. A hiba nem a statisztikában, hanem bennünk van. Nem értjük a statisztikát és
hagyjuk magunkat becsapni. A statisztika átfonja az egész életünket, néha jól használják, néha
nem. Meg kell különböztetnünk a két esetet.

A statisztika két nagy területe a leíró és a következtető statisztika, amelyek között átfedés
figyelhető meg:

1. leíró statisztika (descriptive statistics): célja az adatok összegyűjtése, csoportosítása,


egyszerű aritmetikai műveletekkel történő elemzése és az eredmények áttekinthető
megjelenítése.

2. következtető statisztika (inferential statistics): akkor alkalmazzuk, ha az adatgyűjtés nem


teljes körű (nem az egész populációt érinti), csak az egyedek egy részének (minta) megfigyelésre
kerül sor, és erre az egy részre vonatkozó információból számított eredmények alapján
következtetünk az egészre.

1
Fogalmak

Statisztikai adatok: olyan számértékek, amelyek azzal különböztethetőek meg a


matematikában használatos számoktól, hogy mindig tartalmaznak fogalmi jegyeket, területi,
időbeli, minőségi, mennyiségi azonosítókat, és csak ezekkel együtt értelmezhetőek. A
statisztikai adatok általában csak korlátozottan pontosak, az adatfelvétel, az adatfeldolgozás és
az adatközlés során előforduló hibák miatt.

Primer adat, amelyet a kutató a saját kutatása során gyűjt, a szekunder adat pedig más kutatók
által gyűjtött adat.

Alapadatokat az elsődleges mérések, számítások útján nyerjük, a származtatott adatokat pedig


kettőnél több alapadaton elvégzett művelet segítségével kapjuk. Statisztikai mutatószámok
azok a statisztikai adatok (általában származtatott adatok), amelyekkel valamilyen
rendszeresen megismétlődő jelenséget statisztikailag jellemzünk. Pl. gazdasági fejlődésnél az
1 főre kivetített GDP, termelékenység kimutatása.

Ismérvek/változók típusai

A sokaság egyedeinek jellemzőit, tulajdonságait ismérveknek nevezzük (pl. betegség típusa,


súlyossága). Attól függően, hogy az ismérvváltozatok milyen jellegű információt adnak a
sokaság egyedeiről, különböző fajta ismérveket különböztetünk meg (területi, időbeli,
mennyiségi, minőségi). A számszerűen kifejezhető ismérveket változónak hívjuk. A
számítások után a változókból adatok lesznek. Ez lesz a mérési eredmény. Azonban ezeket a
kifejezéseket a gyakorlatban felcserélik, vagy szinonimaként használják.

Négy fő ismérvfajta különböztethető meg: területi, időbeli, minőségi és mennyiségi. Területi


és időbeli ismérvek az adatokat földrajzi vagy időbeli elhelyezkedésük szerint csoportosítja, a
minőségi és mennyiségi ismérvek pedig valamilyen mérés szerint. (Földrajzi vagy területi
elhelyezkedés alapján nézhetjük, hogy ki melyik településen lakik, időbeli elhelyezkedés
alapján pedig ki melyik évben született.)

Mennyiségi (kvantitatív) ismérvek folytonos eloszlású adatok, a skála minden egyes pontjára
eshet adat (vérnyomás, életkor, testsúly, testmagasság, jövedelem, stb.). Matematikai
műveletek jól végezhetők velük . A folytonos adatok tetszőleges pontossággal megadhatók és
bármely két érték közötti tartomány is értelmezhető.

Minőségi (kvalitatív) ismérvek esetében csak az egyes skálafokokra kerülhet adat, közéjük
nem. Ezeket az adatokat szöveges formában kapjuk (iskolai végzettség, elégedettségi skála).
2
Statisztikai számításokhoz kvantifikálni kell, azaz a minőségi ismérveket át kell alakítani
számokká. A számok azonban csak tulajdonságokat fognak jelölni.

Az alapján, hogy hány különböző értéket vehet fel egy adott mennyiségi változó két típust
különböztethetünk meg: Diszkrét változó: véges számú különböző egész értéket vehet fel, és
az értékek egymástól jól elkülönülnek. Csoportokat tudunk létrehozni (pl. iskolai végzettség,
családi állapot, gyermekek száma, Likert-skála). Folytonos változó: értékei folytonosan
helyezkednek el, adott terjedelemben bármilyen értéket felvehet (pl. reakcióidő, testmagasság,
testsúly).

Függő – független változó: A függő változó az a változó, amelyről feltételezzük, hogy egy
másiktól függ, vagy a másik okozza. Általában sok független változó befolyásolja az egy
függő változót. (Pl. egy kísérlet során arra vagyunk kíváncsiak, hogy milyen független
(befolyásoló) változók vannak hatással az egyetlen (vizsgált) függő változóra.) (Ha két
változó nem függ egymástól, akkor azok függetlenek egymástól, tehát független változók.)

Mérési skálák

4 féle skálatípus van, amely meghatározza, hogy milyen statisztikai próbát lehet vele végezni:
Nominális (névleges) – Ordinális (sorrendi) – Intervallum – Arányskála. A skálatípusok
között hierarchia van, a legegyszerűbb típusok által hordozott információ mindig előállítható
a hierarchiában felette állókból. Fordított irányban nem működik.

Nominális/névleges skála (nominal): Matematikai műveletek végzésére nem alkalmas, nincs


konkrét értékük. A számok kategóriákat jelentenek. Gyakran csak bináris/dichotóm adatokat
tartalmaz („két kategória”, „igen-nem”, „egyezik - nem egyezik”), de lehet többértékű is
(családi állapot: 1=házas, 2=egyedül álló, 3=elvált, 4=özvegy, 5=élettársi kapcsolat).
Kvalitatív ismérvek esetén használjuk, egymáshoz nem viszonyíthatók (nincs kisebb vagy
nagyobb, jobb vagy rosszabb). A nominális skála esetében a skálaérték előfordulásának
gyakorisága (módusz) vizsgálható, vagy kontingenciatábla is készíthető, azonban sem
medián, sem átlag használatának nincs értelme a nominális skálánál.

Ordinális/sorrendi skála (ordinal): A számokat valamilyen elv szerint sorba lehet rendezni. Az
1-es a rangsorban az elsőt fejezi ki, vagyis ez a sorrend eleje. Ilyen változók esetében nem
állapítható meg, hogy a rangsorolt tényezők között pontosan mekkora a különbség. Ez a skála
már több információt hordoz. Mindig diszkrét adatokat tartalmaz és kvalitatív jellegű.
Ordinális változó az iskolai osztályzat. Megállapíthatjuk, hogy a négyesnél jobb az ötös, de

3
nem mondhatjuk, hogy a 3-as és 4-es között ugyanakkora a tudáskülönbség, mint a 4-es és 5-
ös között. Ordinális változónak minősül a betegségek stádiumának beosztása, az elégedettség
mértéke, éttermek kategóriái, iskolai végzettségek, áruk minősége szerinti osztályozás,
katonai rendfokozat, stb. A Likert-skála is ordinális változó (pl. Mennyire fontos Önnek a
kórházak parkosítása? 1- nem igazán fontos, 2 - elég fontos, 3 - nagyon fontos, 4 - a
legfontosabb).

Intervallum skála (interval): Nincs abszolút nullpontja, az arányaiknak nincs értelme. A két
szomszédos érték között ugyanakkora a távolság. A számértékek mind a nagyság szerinti
viszonyokat megmutatják, mind az eltérés mértékét meghatározzák, a skálaértékek
különbségét értelmezni lehet. Például 10 és 12 Celsius fok és 20 és 22 Celsius fok között
ugyanakkora a távolság, de az nem igaz, hogy a 20 Celsius fok kétszer olyan meleg, mint a
10. Intervallum skálán mérik a testhőmérsékletet, az intelligencia hányadost, a naptári
időszámítást. Intervallum skálán adjuk meg a dátumokat, vagy az IQ értéket is. Az
intervallumskála nullapontjának a meghatározása megállapodás kérdése. Itt már számolhatunk
átlagot, mivel a nullapont eltolása nem változtatja meg az átlag relatív helyét az átlagolt
számok között.

Arányskála (ratio): a változó értékei sorba rendezhetők, különbségük és arányuk is


értelmezhető. Abszolút nullapontot is tartalmaz, ami a tulajdonság hiányát jelenti, de ez a
nullapont nem önkényes. Magasság mérésnél a nullapont a nulla magassághoz tartozik,
ugyanúgy tömegnél a nulla tömeghez. Kezdőpontja kötött, és rendelkezik mértékegységgel.
Az értékek arányának jelentése van, pl. egy 100 kg-os ember kétszer olyan nehéz, mint egy 50
kg-os. Ilyen adatok például: életkor, testsúly, testmagasság, jövedelem mértéke, élelmiszer-
fogyasztási kiadások, a naponta átlagosan elszívott cigaretták száma, pulzus, vérnyomás.

MINŐSÉGI/KVALITATIV MENNYISÉGI/KVANTITATIV
Nominális/Névleges: A sokaság elemeit Intervallum: A sokaság elemeit valamilyen
valamilyen tulajdonságok szerint mértékegység szerint osztályozzuk, de csak a
csoportokba soroljuk, de a csoportok között „mennyivel több?” kérdésre tudunk
nincs semmiféle rangsorolás válaszolni, a hányszorosra nem
Ordinális/Sorrendi: A csoportok között Arány: A sokaság elemeit mértékegység
felállítható sorrendiség van szerint osztályozzuk és a „hányszoros?”
kérdésre is tudunk válaszolni

4
Leíró statisztika

A statisztikai eljárások révén egy minta segítségével teszünk megállapítást a teljes


populációra vonatkozóan. Mivel a minta csak közelítően reprezentálja a populációt, ez a
megállapítás soha nem lehet 100%-ig biztos. A statisztikai eljárások során értenünk kell, hogy
milyen szempontból informatívak, és milyen szempontból nem hasznosíthatók a statisztikai
elemzések eredményei. A mindig meglevő korlátokkal együtt kell értelmezni az
eredményeket.

Az adatokból viszonylag könnyen kiszámítható paramétereket leíró statisztikai


mérőszámoknak nevezzük. Ez csak az adatok bemutatására szorítkozik, nem lehet
általánosítani, vagy összefüggéseket vizsgálni vele. A leíró statisztika nem alkalmas a
hipotézisek vizsgálatára, bizonyítására!

Négy fő csoportja: 1. megoszlási, 2. elhelyezkedési (centrális), 2. szóródási és 4. kapcsolati


mutatók.

1. Megoszlási mutatók (measures of distribution): megmutatják, hogy az adatok milyen


arányban oszlanak meg az egyes kategóriák, csoportok között.

Abszolút gyakorisági eloszlás: megmutatja, hogy 1-1 csoportba összesen hány vizsgált
személyt soroltunk be.

Relatív gyakorisági eloszlás: Akkor alkalmazzuk, ha legalább 2 eltérő elemszámú csoportot


hasonlítunk össze százalékos megoszlásban.

Kumulatív gyakorisági eloszlás: Az adott csoport abszolút gyakoriságának, és a nála kisebb


csoportok abszolút gyakoriságának összege.

Abszolút Relatív Kumulatív


gyakoriság gyakoriság gyakoriság
gyermekek 68 fő 37,8% 37,8%
felnőttek 90 fő 50,0% 87,8%
idősek 22 fő 12,2% 100,0%
Összesen 180 fő 100,0%

2. Elhelyezkedési mutatók (measures of central tendency): azt az értéket igyekeznek megadni,


amely körül a minta elemei csoportosulnak, vagyis keresik a minta közepét. Ide tartoznak a
számított középértékek (átlagok) és a helyzeti középértékek (módusz és medián). Valamennyi

5
középértékkel szemben támasztott követelmény, hogy közepes helyzetet foglaljon el, a
legkisebb (minimum) és a legnagyobb (maximum) értékek között helyezkedjen el.

Átlagok (mean): Ide tartozik a számtani átlag, a harmonikus átlag, a mértani átlag és a
négyzetes átlag. Mindig számítással határozzuk meg őket. Értéküket minden egyes érték
befolyásolja.

Kiugró értékek (outlier): Az olyan adatokat, amelyek az eloszlás közepétől távol


helyezkednek el kiugró, vagy extrém (szélsőséges) értékeknek nevezzük. Az átlagok
érzékenyek a kiugró értékekre, főleg kis mintaszám esetén. Az alapsokaságtól való
"elszakadás" származhat téves egyéni méréskor, megfigyelési hibából, a műszer téves
leolvasásakor, de származhat olyan egyedi tulajdonságból is (ami az élő szervezetben nem
ritka), amely nincs meg a többi egyednél. Ilyen adat(ok) esetén a helyes eljárás az, ha dupla
statisztikai számítást végzünk: egyszer bent hagyva az adatok között, egyszer pedig elhagyva
végzünk statisztikai próbát, hogy befolyásának hatását megismerjük. Az ilyen értékek
grafikus ellenőrzésére a dobozábrát alkalmazzuk.

Az ábrázolás során kiugró értéknek bizonyult adatokat mindig meg kell vizsgálni. Ha csak
adathiba lépett fel azt egyszerű korrekcióval javítani lehet. Ha a kiugró adat egyedi hatásból
adódik, amely a többi egyedre nem lehet jellemző, akkor az ilyen értéket célszerű kihagyni a
további elemzésből. A biometriai vizsgálatok során általában nem teszünk különbséget az

6
enyhe és extrém kiugró értékek között. Éppen az élettani vizsgálatok fontossága miatt csak a
belső határokat hagyjuk meg, és az azon kívüli értékek mindegyikét kiugró értéknek tekintjük.
Az átlagoknál használatos az úgynevezett trimmelés, vagyis a kilógó adatok alsó és felső
meghatározott százalékát (max. 5%) kivesszük.

Módusz (mode): az az érték, amely a leggyakrabban fordul elő a mintában. Nominális skálán
sem átlagot, sem mediánt nem tudunk mérni, csak móduszt. Ha az értékek egyforma
gyakorisággal fordulnak elő a mintában, akkor a móduszt nem lehet egyértelműsíteni. Tehát
nem mindig határozható meg, nem mindig létezik és nem feltétlenül egyértelmű, mivel
ugyanazt a maximum gyakoriságot több különböző érték is elérheti. Folytonos normális
eloszlás esetén a módusz a görbe maximum értékénél van. Ebben az esetben nem
beszélhetünk olyan értékről, amely a leggyakrabban fordul elő az adatok között.

Medián (median): a gyakorisági eloszlás középső értéke. A nagyság szerint növekvő


(csökkenő) sorrendbe rendezett adatok között a középső érték, az az 50%-os metszési pont
vagy az adatok felező pontja (2. kvartilise), mivel a nálánál kisebb illetve nagyobb értékek
gyakorisága azonos. Azaz a statisztikai sokaságot kétfelé vágó érték. A medián a kiugró
értékekre nem érzékeny, mivel a szélső értékek nem befolyásolják nagyságát. A medián a
számtani közepet pótolja ferde (aszimmetrikus) eloszlásoknál vagy extrém értékek
előfordulása esetén. Ordinális, intervallum vagy arányskálán mért adatok. Amennyiben az
elemek száma páros, akkor a két középső értéket átlagoljuk.

Középérték számítási lehetőségek:

Skála Átlag Medián Módusz


Nominális Nem Nem Igen
Ordinális Nem Igen Igen
Intervallum Nem Igen Igen
Arányskála igen igen igen

3. szóródási mutatók (measures of spread): Az adatok egymástól való eltéréseit, variabilitását


szóródásnak nevezzük (diszperzió). Amíg a középértékek az adatok centrális tendenciáját
fejezik ki, addig a szóródás az adatok változékonyságairól, különbözőségeiről ad
felvilágosítást. Ezzel a kétféle paraméterrel az adatok viselkedése, eloszlása jól leírható.
Normális eloszlásról beszélünk, ha a változóinkból készített hisztogram haranggörbét alkot,
azaz Gauss-görbe eloszlású lesz. A harangalak abból adódik, hogy az eredmények az
átlagértékek körül sűrűsödnek, attól távolodva ritkulnak. Normális eloszlás esetén annak a

7
valószínűsége, hogy egy változó a középérték egyszeres szórásán belül található 68,27%,
annak a valószínűsége, hogy egy valószínűségi változó az átlagértékhez képest a kétszeres
szóráson belül található 95,45%. A háromszoros szóráson belüli megtalálás valószínűsége
99,73%. A gyakorlatban a kétszeres szórástávolságot vesszük hibakorlátnak. Vagyis az adatok
95%-a itt található.

Az adatok eloszlásának bemutatása


hisztogrammal

Szóródást vizsgáló módszerek:

Ferdeség (skewness): Az adatok nem-normális eloszlását a normális eloszláshoz viszonyítjuk.


Ezt az aszimmetriát a ferdeséggel lehet vizsgálni, amely lehet jobboldali és baloldali. Jobbra
ferde az eloszlás (pozitív ferdeség), ha jobbra laposodik, azaz a „farki része” jobb irányba
mutat. Balra ferde az eloszlás (negatív ferdeség), ha a farki része bal irányba mutat. Normális
eloszlásnál a ferdeség értéke 0.

balra ferde normális eloszlású jobbra ferde

Hegyesség/csúcsosság (kurtosis): Az eloszlás csúcsosságát (hegyességét) hasonlítja a


normális eloszláshoz. Normális eloszlás esetén a hegyesség értéke 0. Pozitív hegyesség esetén

8
a megfigyelés csúcsosabb és hosszabb farokkal rendelkezik. Ezt nevezzük pozitív
hegyességnek. Negatív hegyesség esetén a megfigyelés kevésbé csúcsos és rövidebb farkuk
van.

(A normális eloszlást a Kolmogorov–Szmirnov teszttel lehet vizsgálni.)

Terjedelem (range): A minta legkisebb adatától a legnagyobb adatig terjedő távolság értékét
mutatja. A maximumból ki kell vonni a minimumot, azaz a legnagyobb és a legkisebb elem
közötti különbség. Metrikus skála esetén alkalmazzuk. Függ az extrém értékektől és függ a
minta elemszámától. A terjedelem képlete: R = xmax − xmin

Szórás (standard deviation, SD): Jele: σ (szigma). A leggyakrabban használt szóródási


mutató. A statisztika zöme a szórásanalízisre épül. Nem függ az elemek számától. A szórás az
egyes értékek számtani átlagtól vett eltéréseinek átlaga, vagyis megmutatja, hogy az
ismérvértékek (elemek) mennyivel térnek el átlagosan az átlagtól. Tehát először kiszámoljuk
a számtani átlagot, majd megnézzük az adatok és a számtani átlag különbségét. Az eltéréseket
négyzetre emeljük és ennek vesszük a számtani átlagát, majd a végén négyzetgyököt vonunk.

Mértékegysége megegyezik az alapadatok mértékegységével. A szórás a variancia


négyzetgyöke.

Példa a szórás kiszámítására: adatok: 1, 2, 4, 1; összege: 1 + 1 + 2 + 4 = 8; átlaga: 8 / 4 = 2

xi xi  x ( xi  x )2
1 1-2=-1 1
1 1-2=-1 1
2 2-2=0 0 = 1,414 SD=1,41

4 4-2=2 4

9
Variancia, szórásnégyzet, vagy átlagos négyzetes eltérés (variance): Jele: σ2. A minta
adatainak átlagától való eltérések négyzetének átlaga, mely egyenlő a szórás négyzetével.

Használt jelölések:

Kvantilisek (quantile): A kvantilis értékek a mennyiségi ismérv értékeinek rendezésére


szolgálnak, néhány számszerű információ alapján segítik az eligazodást. Ide tartoznak a
medián (2), tercilis (3), kvartilis (4), kvintilis (5), decilis (10), percentilis (100).

Tercilisek (tercilis): A nagyság szerint sorba rendezett sokaságot 2 osztópont segítségével 3


egyenlő részre osztja.

Kvartilisek (quartile): A nagyság szerint sorba rendezett sokaságot 3 osztópont


segítségével 4 egyenlő észre osztja, amely részekbe az értékek 1/4, 1/2, 3/4 része esik
(illetve azok a számok, amelyek alá az értékek 1/4, 1/2, 3/4 valószínűséggel esnek). A
második kvartilis a medián. A Kvart paraméter 0-ás értéke a tartomány minimumát, 4-
es értéke pedig a tartomány maximális értékét adja vissza. Q1=alsó kvartilis,
Q2=Medián, Q3=felső kvartilis. A dobozábrák (boxplot) jól szemléltetik ezeket az
adatokat. Amennyiben kiugró érték (outlier) van benne (a szórása 3-nál nagyobb),
akkor csillaggal fogja jelölni valahol fent vagy lent.

10
Interkvartilis terjedelem (interquartile range): Az észlelési adatok 50 %-át foglalja magában.
Az első negyed feletti és a harmadik negyed alatti értékek. Az első és harmadik kvartilis
különbsége Q3-Q1.

Kvintilisek (quintile): A nagyság szerint sorba rendezett sokaságot 4 osztópont segítségével 5


egyenlő részre osztja. K1, K2, … K4.

Decilies (decile): A nagyság szerint sorba rendezett sokaságot 9 osztópont segítségével 10


egyenlő részre osztja. K1, K2, … K9.

11
Percentilisek (percentile): A nagyság szerint sorba rendezett sokaságot 99 osztópont
segítségével 100 egyenlő részre osztja. K1, K2, … K99. Segítségével meghatározható egy
számhalmaz k-adik percentilise (százalékosztálya). Az alsó és felső néhány percentilis közötti
részt (2,5% - 97,5% vagy 5% - 95%) szokás normális (referencia) értéknek elfogadni. Egy
kisgyermekről akkor mondják, hogy elmaradt a fejlődésben, ha súlya/magassága nem éri el a
vele egykorú gyermekekre jellemző 5%-os percentilis értéket.

4. kapcsolati mutatók (measures of correlation): A változók közötti kapcsolat (korreláció) azt


jelzi, hogy ha az egyik változó értéke megváltozik, a másik változó értéke is változik + vagy –
irányba. (Együtt mozog azonos vagy ellentétes irányba.) A korrelációs együttható méri ennek
a tendenciának az irányát és erősségét is.

Pearson-féle korrelációs együttható (Pearson correlation coefficient, r) egy szám, amely két
folyamatos változó közötti kapcsolat szorosságát, erősségét méri. Nincs mértékegysége.
Értéke -1 és +1 között van. Ha r=0, vagy ahhoz közeli értéket mutat, akkor nincs összefüggés
az adatok között. Ha r=+1, akkor lineáris összefüggés van. Azaz, ha ismerem az egyik
paramétert, akkor ki tudom számolni a hozzá kapcsolódó másikat. A + jel egyenes, a – jel
fordított arányosságot mutat.

12
Ha mi akarjuk megnézni az összefüggést két változó között, akkor egy koordinátarendszerben
az egyik tengelyre vezessük fel az egyik változó adatait és rendeljük hozzá a másik változó
adatait. A pontokra egy képzeletbeli egyenest húzunk. Látjuk, hogy a pontok szóródnak, de
van valamilyen összefüggés, kapcsolat a két változó között. Sztochasztikus kapcsolat van
közöttük, ami azt jelenti, hogy átmenet a függvényszerű kapcsolat és a teljes függetlenség
között. Az egyik ismérv szerinti hovatartozás a másik ismérv szerinti hovatartozás
valószínűségét határozza meg. A kapcsolat szorossági mutatóinak értelmezése eltérő.
Általában úgy veszik, hogy 0 esetén függetlenség van, 0 és 0,3 között gyenge kapcsolat, 0,3
és 0,7 között közepes kapcsolat, 0,7 és 1 között szoros kapcsolat, míg 1 esetén függvényszerű
kapcsolat.

Fontos megjegyezni, hogy csak lineáris, vagy majdnem lineáris sztochasztikus kapcsolat
esetén működik. Az összevetett adatoknak folytonos változóknak kell lenni. Pl. lehet, hogy az

13
adatok egy görbe mellett helyezkednek el, tehát nem lineáris a kapcsolat. Ebben az az esetben
nem lehet használni Pearson-féle korrelációs együtthatót, Spearman-féle korrelációt .

Spearman-féle rangkorreláció (Spearman rank correlation): Amennyiben extrém értékek


vannak az adatainkban és nem lehet elhagyni, vagy az adataink nem folytonos változók, vagy
az egyik változót magunk határozzuk meg, vagy nem normál eloszlásúak az adataink, vagy
nem lineáris a kapcsolat, akkor a Pearson korreláció nem-paraméteres párját, a Spearman-féle
rangkorrelációt kell használni. Ez a teszt egy kicsit gyengébb, mert kevesebb adattal dolgozik,
de azért jól használható. Jele: a ρ (Rho) vagy rs.

Konfidencia-intervallum (confidence interval, CI): A minta átlaga természetesen nem a


populáció átlaga, de meg lehet becsülni vele. Ha ismerjük az átlagot és a szórást, akkor
kiszámolhatjuk, hogy a populáció megközelítőleg milyen intervallum tartományban
ingadozhat. Ezt a tartományt a konfidencia intervallumnak nevezzük. Minél nagyobb a
mintaszám, annál pontosabb lesz az érték, általában 95%-os valószínűséggel becsüljük meg az
értéket.

Átlag standard hibája (standard error of mean, SEM): Az átlag szórása vagy standard hibája
azt fejezi ki, hogy az átlag, amit a mintából számoltunk, mennyire megbízható. Ha többször is
meg tudnánk ismételni a mérést, akkor mindegyik mérés-sorozat átlagának a szóródását
mutatja a populáció átlag körül Ha ismerjük a minta elemszámát, átlagát és szórását, akkor ki
tudjuk számítani, hogy a populáció (alapsokaság) átlaga milyen értékek között mozoghat.
Minél nagyobb a mintaszám, annál pontosabban meg lehet határozni. A képlete: SE=SD/n

HIPOTÉZIS VIZSGÁLATOK

A kutatási hipotéziseket statisztikai hipotézisekké alakítjuk át. A gyakorlatban két hipotézissel


dolgozunk: H0: null-hipotézis és H1: alternatív hipotézis. Null-hipotézis, hogy a
feltételezésünk nem igaz. Feladatunk, hogy meggyőző bizonyítékunk legyen arra, hogy a null-

14
hipotézist elutasíthassuk és elfogadjuk az alternatív hipotézist. (Mivel a minta soha nem
reprezentálja a populációt 100%-osan, ezért a statisztikai eredmény sem lesz 100%-ig biztos.)

Statisztikai elemzések esetén eleve feltételezzük, hogy az elképzelésünk nem igaz, és a


vizsgálati eredményektől várjuk, hogy meggyőző bizonyítékot adjanak arra, hogy mégis
megalapozott a feltevésünk. Ha a meggyőző bizonyítékot nem tudjuk előállítani, akkor
kénytelenek vagyunk elfogadni, hogy a kutatási hipotézisünket nem tudtuk alátámasztani.

A kérdés az, hogy mikor utasíthatjuk el a null-hipotézist és fogadhatjuk el az alternatívat.

A hüvelykujj szabály szerint 5%-os hiba határt engedünk. Ezt nevezzük empirikus
szignifikancia-szintnek. Amikor az egyik hipotézist elutasítjuk, akkor a másikat
automatikusan elfogadjuk. A döntést a szignifikancia alapján végezzük. α-nak nevezzük ezt a
határértéket, amelyet a kutatás előtt meghatározunk. Nem szükséges az 5%-os hibahatárt
választani, lehet 10%-os is, hiszen az egészségügyben vannak kirívó esetek és már 10%-nál is
elfogadhatunk feltevéseket, de vannak kutatások (farmakológiai), ahol szigorúbb hibahatárt
választunk, pl. 1%, vagy 0,1%.

Ha p < α: H0-t elvetjük (elfogadjuk H1-t), ha p ≥ α: H0-t fogadjuk el, azaz nincs különbség a
vizsgált paraméterek között. (Pl. Az új terápia nem hatékonyabb a réginél, bár a kutatási
hipotézisem az volt.)

Amíg 5%-nál nagyobb a valószínűsége annak, hogy nem helyes a feltevésünk, addig nem
fogadjuk el azt. Így előfordulhat, hogy ha 8% a valószínűsége annak, hogy nem megalapozott
az elképzelésünk, és ennek megfelelően 92% annak a valószínűsége, hogy megalapozott,
akkor ezt a vizsgálati eredményt nem tekintjük elég meggyőzőnek ahhoz, hogy elfogadjuk.

Első- és másodfajú hiba

Az 5%-os hibahatár nem egy elméletileg megalapozott, a tévedések ellen biztos védelmet
nyújtó eszköz. Előfordulhat, hogy a vizsgálatunk p = 0,08 eredménnyel zárul, azaz 8%-nak
találjuk a H0 valószínűségét. Ezt a szigorú küszöb miatt még nem utasítjuk el. Ebben a
helyzetben előfordulhat, hogy valójában a H1 volt a jó hipotézis (ami nem meglepő, hiszen
mégiscsak 92%-nak találtuk annak a valószínűségét, hogy igaz!), és hibát követtünk el,
amikor nem utasítottuk el H0-t. A hiba azért jöhet létre, mert nem volt szerencsénk a minta
összeállításakor (a sok lehetséges mintából pont egy szélsőséges összetételűt sikerült
kiválasztanunk), vagy azért, mert kicsi volt a minta elemszáma. Amikor nem találjuk

15
megalapozottnak az egyébként igaz H1-et, akkor másodfajú hibát követünk el: vizsgálatunk
álnegatív eredményre vezet.

Olyan helyzet is adódhat, amikor a vizsgálatunk eredménye p < 0,02, tehát elég kicsinek tűnik
a H0 valószínűsége, és elvetjük (egyben elfogadjuk H1-et), annak ellenére, hogy H0 volt igaz.
Ha az egyébként megalapozatlan H1-et elfogadjuk, akkor elsőfajú hibát követünk el:
vizsgálatunk álpozitív eredményre vezet. Ennek magyarázata szintén a szélsőséges
mintaösszetétel.

Az első és másodfajú hibák nem a vizsgálatot végzők által elkövetett hibák, hanem a döntési
folyamat természetéből következnek. Egy minden szakmai szabályt tiszteletben tartó,
lelkiismeretesen elvégzett vizsgálat eredménye is lehet hibás statisztikai következtetés. A
legjobban felkészült kutatócsoport is találkozhat extrém mintával, és hozhat rossz döntést a
helyesen számított statisztikai eredményekre támaszkodva, az abszolút korrekt vizsgálata
végén. Azt ugyanis egy vizsgálat elvégzése után nem tudjuk megmondani, hogy az éppen
vizsgált minta tipikus volt vagy szélsőséges.

Tehát: Abban az esetben, ha a null-hipotézist elvetjük, noha az a valóságnak megfelel,


akkor elsőfajú hibát követünk el. Ennek elkövetési valószínűsége megegyezik az α
szignifikancia-szinttel. Abban az esetben, ha a nullhipotézist elfogadjuk, noha az a
valóságnak nem felel meg, akkor másodfajú hibát követünk el. Ennek valószínűségét csak
becsülni tudjuk.

Ha vizsgálataink során például 5 százalékos szignifikancia-szintet használunk, akkor


amennyiben a kapott érték 0,05-nál kisebb, akkor a null-hipotézist – ötszázalékos
szignifikancia-szint mellett – elvetjük. Tehát akkor fogadjuk el a null-hipotézist, ha az
elsőfajú hiba elkövetésének valószínűsége legfeljebb 5 százalék, azaz 95 százalékos
valószínűséggel helyes döntést hozunk.

Nem lehet pontosan megfogalmazni, hogy melyik az a kis valószínűségi küszöbérték,


amelynél sem az első- sem a másodfajú hibát nem követjük el. Kompromisszum
eredményeként a leggyakrabban elfogadott küszöbértékek (szignifikancia-szint) α=0,05,
α=0,1 és a legszigorúbb az α=0,001)

Miért éppen 5%-nál fogadjuk el a hibahatárt? A tévedés valószínűségét mi állapítjuk meg


előre, még a kísérlet megkezdése előtt. Tehát egyáltalán nem kötelező a 95% illetve az 5%
betartása, mégis ez a kialakult „szokásrendszer”.

16
PARAMÉTERES ÉS NEM PARAMÉTERES ELJÁRÁSOK

Paraméteres eljárások (Parametric test)

A paraméteres statisztikai eljárások közös jellemzője, hogy a vizsgált valószínűségi változók


eloszlása normális eloszlást követ. A számítási eljárások erre a tulajdonságra épülnek.

t-próbák

1. Egymintás t-próba (One sample t-test): Akkor alkalmazzuk, amikor egy adott értékhez
szeretnénk hasonlítani a mintánk átlagát. Pl. arra vagyunk kíváncsiak, hogy a mintánk BMI
átlaga mennyivel tér el 22-től, vagy a férfiakból álló minta magassága a 175 cm-től. Az
egymintás t próbát akkor alkalmazzuk, amikor van egy legalább intervallum mérési szintű
változónk és ennek az átlagát szeretnénk összehasonlítani egy bizonyos értékkel.

Függetlenmintás (vagy kétmintás) t-próba (Independent samples t-test): Két független minta
középértékének összehasonlítására használjuk (betegek és egészségesek; férfiak és nők;
intervenciós csoport és kontroll csoport). A függetlenség azt jelenti, hogy a 2 csoport
tulajdonságai eltérnek egymástól. Akkor alkalmazzuk, ha két csoportban folytonos változóink
vannak, amelyekből van értelme átlagot számolni (pl. kor, vérnyomás, BMI, stb.)

A próba nem követeli meg a csoportok azonos elemszámát, így eltérő elemszámú csoportokra
is használható.

Páros(ított) t-próba (Paired samples t-test): A párosított minták átlagát hasonlítja össze.
Önkontrolos vizsgálatoknál nézi, hogy ugyanazon paraméterek valamilyen beavatkozás előtt
és után okoznak-e változást az eredményben. Ez a legerősebb teszt, mert ugyanazon az
egyedeknél nézi a változást. Pl. A betegeknél kezelés előtt és után nézi a hatást. Ugyanazon
betegeknél nézi a változók differenciáját.

F-próba: Igen gyakran használt eljárás két variancia homogenitásának eldöntésére, azaz két
minta azonos varianciájú alapsokaságból származik-e.

A varianciát szórásnégyzetnek is nevezik, mert a szórásnak a négyzete. Mind a variancia,


mind a szórás, szóródási mutató, azaz azt fejezik ki, hogy értékeink átlagosan mennyivel
térnek el az átlagtól, mennyivel szóródnak az átlag körül. A variancia értéke akkor kicsi,
amikor az adataink az átlag körül csoportosulnak. Tehát az adatok átlag körüli ingadozásának
a leírására szolgál. Minél jobban közelít az értéke a 0-hoz, annál homogénebb a mintánk és

17
minél nagyobb az érték, annál inkább szóródnak a középértéktől, tehát annál inkább
különböznek az adatok egymástól.

(Ha F-próbával a két variancia azonos, akkor pl. használhatunk függetlenmintás t-próbát. Ha a
két variancia nem azonos, akkor az ún. d-próbát (Welch próbát) használunk.)

Egyszempontos Varianciaanalízis (One Way Analysis of Variance, ANOVA): Több változót


tudunk egyszerre összehasonlítani. A teszt megmutatja, hogy van-e különbség a csoportok (pl.
csoportok kezelése) között. Minél nagyobb az F értéke, annál valószínűbb, hogy különbség
van a csoportok között. Fontos, hogy a minták függetlenek legyenek egymástól. (Pl. Gyakori
hiba, hogy egészségügyi kartonokból, kórlapokból úgy állítanak össze csoportokat, hogy
egyes személyek több csoportba is bekerülnek, pl. a betegség előrehaladottsága miatt, vagy
mivel többször jelentek meg vizsgálaton. Az ilyen csoportok nem tekinthetők függetlennek.)
Fontos, hogy a minták normális eloszlásúak legyenek. A mintáknak azonos varianciájú
populációból kell származni. Vagyis minden minta szóródása körülbelül ugyanakkora kell
legyen. (Ezt a Levene-próbával lehet megvizsgálni.)

Kovarianciaanalízis (ANCOVA): Élettanban gyakoriak az olyan vizsgálatok, amikor egy


vizsgált változóra egy másik változó (pl. életkor) hatást gyakorol, azt befolyásolja. Az ilyen
változók az ún. kovariáns változók. Ezek hatását célszerű figyelembe venni az analízis során,
mert az eredmény nem lesz valós. A kovariáns hatását az ANOVA kezeli, az ilyen modell
neve az ANCOVA (kovariancia hatásával bővített modell).

A NEM-PARAMÉTERES TESZTEK (Non-parametric tests)

Ezeket a teszteket nominális és ordinális skálákon tudjuk alkalmazni, vagy olyan esetekben,
amikor a folytonos változók nem felelnek meg a kritériumoknak (nem normális eloszlásúak,
vagy különböző varianciájú csoportból származnak).

A khi-négyzet próba (χ²-próba) két minőségi változó közötti kapcsolat elemzésére


alkalmazható statisztikai próba. Arra ad választ, hogy a két változó között van-e szignifikáns
kapcsolat. Nominális vagy ordinális mérési szintű változók esetében alkalmazhatjuk.

1. mindkét változó nominális mérési szintű


2. egyik változó nominális, a másik pedig ordinális mérési szintű
3. mindkét változó ordinális mérési szintű

18
A khi-négyzet próba feltételei: Az elvárt gyakoriság minden egyes cellában minimum 5 kell
legyen. Azonban egyes esetekben van, hogy egy megengedőbb feltétellel dolgoznak a
kutatók. Ez alapján az összes cella maximum 20%-ában lehet az elvárt gyakoriság száma
kevesebb, mint 5. Elvégezzük a khi-négyzet próbát. Ha a próba szignifikáns kapcsolatot
mutat, akkor lekérjük a megfelelő statisztikai mutatókat és értelmezzük ezeket. Ha nem
szignifikáns a kapcsolat, akkor azt állítjuk, hogy a két változó nem függ egymástól.

Ha a két változó közötti kapcsolat szignifikáns, akkor még a következő együtthatókat kell
elemezni:

1. nominális és egy ordinális, vagy 2 nominális változó esetén: Cramer’s V együtthatót

2. ordinális változó esetén: Gamma együtthatót

A Cramer’s V együttható egy asszociációs együttható, amely két nominális változó közötti
kapcsolat szorosságát mutatja meg. Értéke 0 és 1 közötti intervallumban van. Ha értéke 0,
akkor függetlenség áll fenn. Ha értéke 1, akkor nagyon erős kapcsolatról beszélhetünk. Példa:
Ha az asszociációs mérőszám értéke 0,407-es, akkor közepes erősségű kapcsolat van a két
változó között.

A gamma együttható két ordinális mérési szintű változó közötti kapcsolat szorosságát mutatja
meg. Értéke nemcsak a változók közötti összefüggés erősségéről, hanem irányáról is informál.

A kereszttábla elemzés a változók közötti összefüggések feltárására alkalmas módszer. A


kereszttábla megmutatja két vagy több változó együttes eloszlását. Egy változó gyakorisági
eloszlását alcsoportokra bontja más változók értékei vagy kategóriái szerint.

Nincsenek Depressziós tünetek Összesen


depressziós tünetek vannak
Sportol 55 9 64
Nem sportol 21 13 34
Összesen 76 22 98

Fisher-teszt: Amikor a Khí-négyzet próba nem alkalmazható, akkor helyette a Fisher-tesztet


használják. Általában a kis mintaszám esetén szokták használni. Fisher-teszt megmutatja,
hogy van-e szignifikáns kapcsolat két nominális mérési szintű változó között. A teszt null-
hipotézise: a két minta eloszlása különbözik egymástól. Azokban az esetekben alkalmazzuk,

19
amikor két nominális mérési szintű változónk közötti kapcsolatot szeretnénk megvizsgálni és
mindkét nominális mérési szintű változónak 2 válaszlehetősége van. 2*2-es
kontingenciatáblában (kereszttáblában) és kis elemszám esetén. Ha p ≤ 0,05, akkor különbség
van a férfiak és a nők moziba járásának gyakoriságában.

Mann-Whitney próba: függetlenmintás (kétmintás) t-próba nem parametrikus megfelelője,


amelyet nem normális eloszlás, valamint ordinális változók esetén használunk, és majdnem
olyan pontos is. Null-hipotézise, hogy a két minta azonos eloszlásból származik.
Wilcoxon próba: Páros t-próba nem-parametrikus változata
A Kruskal-Wallis tesztet vagy más néven a nem-paraméteres ANOVA tesztet (Non-
parametric ANOVA) akkor használhatjuk, ha kettőnél több mintát szeretnénk
összehasonlítani és a mintáink függetlenek egymástól valamint véletlen mintavételezésűek,
legalább ordinális skálán mérhetők.

Friedman próba: A Friedman-próba legalább ordinális változók mediánjának


összehasonlítására alkalmas 2 vagy annál több összetartozó csoportnál. A próba null-
hipotézise szerint a mediánok egyeznek a csoportokban. A próbának nincs előfeltétele.

20

You might also like