You are on page 1of 154

WŁADYSŁAW W.

SKARBEK

WYBRANE ZAGADNIENIA
METODOLOGII NAUK SPOŁECZNYCH

© Copyright by Władysław W. Skarbek, 2013

Naukowe Wydawnictwo Piotrkowskie

Piotrków Trybunalski 2013


SPIS TREŚCI

UWAGI WSTĘPNE

Roz.1. ZAGADNIENIA OGÓLNOMETODOLOGICZNE


1.1. Typy wiedzy
1.2. Klasyfikacja nauk
1.3. Struktura wiedzy naukowej
1.4. Uzasadnianie praw naukowych w naukach
empirycznych
1.5. Charakter rozwoju nauk empirycznych

Roz.2. PROCEDURA BADAWCZA W NAUKACH


SPOŁECZNYCH
2.1. Etapy badania
2.2. Koncepcja badań

Roz. 3. WYBRANE METODY I TECHNIKI BADAWCZE W


NAUKACH SPOŁECZNYCH
3.1. Wybór metod i technik badawczych
3.2. Obserwacja
3.3. Wywiad
Wywiad zwykły
3.3.1.
Wywiad ankietowy
3.3.2.
Wywiad panelowy
3.3.3.
Charakterystyka pytań kwestionariusza
3.3.4. wywiadu
3.4. Socjometria

Roz.4. WSTĘP DO ANALIZY STATYSTYCZNEJ


4.1. Podstawowe zagadnienia statystyki
4.2. Elementy rachunku prawdopodobieństwa
Pojęcia kombinatoryki
4.2.1.
Fundamentalne pojęcia teorii
4.2.2. prawdopodobieństwa
4.3. Zmienne statystyczne i ich rozkłady
2
Charakterystyka zmiennych
4.3.1.
Rozkład empiryczny zmiennych
4.3.2.
Rozkład teoretyczny zmiennych
4.3.3.
4.4. Analiza struktury
Miary tendencji centralnej
4.4.1.
Miary zmienności
4.4.2.
4.5. Analiza współzależności
Rodzaje związków współzależnościowych
4.5.1.
Analiza regresji
4.5.2.
Analiza korelacji
4.5.3.
4.6. Wnioskowanie statystyczne
Dobór próby losowej
4.6.1.
Estymacja parametrów jednej zmiennej
4.6.2.
Weryfikacja hipotez statystycznych
4.6.3.

Do jasnych dążąc głębin Bo dokąd się nie udał


Nie mógł trafić w sedno Zawsze nadaremno
Śledź pewien obdarzony Tu jasno. Ale płytko,
Naturą wybredną Tam głębia, ale ciemno
Tadeusz Kotarbiński,
Fraszki

3
Uwagi wstępne

Termin „metodologia nauk” pod względem etymologicznym znaczy tyle


co ”nauka o metodach stosowanych w nauce”. Przy czym ogólna
metodologia nauk – ze względu na zakres - miałaby obejmować metody
powszechne (uniwersalne), wspólne dla wszystkich nauk, zaś metodologie
szczegółowe dotyczyłyby poszczególnych typów nauk (np. metodologia
nauk społecznych) bądź poszczególnych jednostkowych nauk (np.
metodologia socjologii, metodologia pedagogiki).
W odniesieniu do metodologii nauk (ogólnej i szczegółowych) utarły się
w literaturze przedmiotu dwa poglądy, pierwszy, iż w gruncie rzeczy jest to
filozofia nauki i drugi, lepiej jak się zdaje uzasadniony, że metodologia
nauk i filozofia nauki to dziedziny wiedzy aczkolwiek mające ze sobą wiele
wspólnego, to jednak różniące się na tyle, by zasadnie mówić o odrębnych
dziedzinach. Źródeł takiego stanu rzeczy należy upatrywać w rozróżnieniu
zaproponowanym przez I. Kanta między pytaniami quid iuris – pytaniami
dotyczącymi prawomocności, ważności głoszonych przez badaczy tez, a
pytaniami quid facti – pytaniami dotyczącymi tego, jak badacze faktycznie
postępują w trakcie prowadzenia badań naukowych. Okazuje się, że
metodologia nauk traktuje metody głównie jako narzędzia do osiągania
rezultatów poznawczych (quid facti) podczas gdy filozofia nauki w
większym stopniu koncentruje się na filozoficznych założeniach tych metod
i prawomocności uzyskiwanych za ich pomocą wyników poznawczych
(quid iuris).
Istnieją wszakże odmienne poglądy. Do nich należy np. ujęcie S.
Ossowskiego (1897-1963) zaprezentowane w rozprawie Nauka o nauce1.
Ossowski ustala dwa główne punkty widzenia, którym można
przyporządkować wszelkie dociekania naukoznawcze: otóż naukę rozumie
się bądź jako drogę do poznawania świata (epistemologiczny punkt
widzenia), bądź jako pewną sferę ludzkiej kultury (antropologiczny punkt
widzenia); ponadto istnieją aspekty drugoplanowe dociekań
naukoznawczych. W myśl tej propozycji zagadnienia dotyczące nauki
(naukoznawstwa) zawierają się w pięciu następujących działach:
1. Filozofia nauki – (dominuje epistemologiczny punkt widzenia)
obejmuje m.in. zagadnienie pojęcia nauki, linii demarkacyjnej oddzielającej
to, co jest nauką od tego, co nie jest nauką. Do filozofii nauki Ossowski
zalicza również metodologię nauk:

Tu weszłaby wielka grupa ogólnych zagadnień metodologicznych: analiza


sposobów uzasadniania różnego typu zdań występujących w nauce, analiza roli

1
S. Ossowski, Nauka o nauce [w:] Dzieła, t. IV, O nauce, PWN, Warszawa 1967, s. 91.
4
fikcji w naukowym poznaniu, analizy takich pojęć, jak pojęcie prawa
naukowego, hipotezy itp.2

2. Psychologia nauki – analizuje się czynności badawcze, etapy


twórczości naukowej, uzdolnienia niezbędne do uprawiania pewnych
dziedzin nauki itp.
3. Socjologia nauki – (dominuje antropologiczny punkt widzenia)
obejmuje zagadnienie stosunków miedzy nauką a kulturą, sztuką czy religią;
rozważa uzależnienie rozwoju nauki od warunków ekonomicznych,
struktury danego społeczeństwa itp.
4. Nauka o potrzebach, organizacji i zarządzaniu badań naukowych –
bada politykę państwa w stosunku do nauki, kwestię popularyzacji nauki,
prawodawstwa broniącego własności intelektualnej itp.
5. Historia nauki – zajmuje się historią pojęcia nauki oraz
poszczególnych dyscyplin; uzyskane wyniki poznawcze mogą być
wykorzystane pozostałe działy dociekań naukoznawczych.
Tak więc termin „metodologia nauk” w ujęciu S. Ossowskiego – jest
podrzędny względem terminu „filozofia nauki”, a ten z kolei jest podrzędny
wobec terminu „naukoznawstwo”.
Kwestia, czy charakterystyka metodologii nauk – zgodnie z etymologią -
jako nauki o metodach naukowych oddaje zadowalająco poczynania
uczonych, zależy w znacznej mierze od sposobu rozumienia terminu
„nauka”. Interesujące rozwiązanie omawianej kwestii zaproponował K.
Ajdukiewicz (1890-1963). Wedle niego termin „nauka” może być
rozumiany dwojako: bądź jako ogół czynności podejmowanych przez
badaczy bądź jako wytwór tych czynności, a więc zbiór tez, do jakich doszli
badacze w swym dążeniu do poznania rzeczywistości. Odpowiednio do tego
należy, jak sądzi, wyróżnić dwa rodzaje metodologii, które określa mianem
metodologii pragmatycznej i metodologii pragmatycznej.
Metodologia pragmatyczna obejmuje:

1) Wyróżnienie typów czynności wykonywanych przy uprawianiu nauk oraz


ich analizę, doprowadzającą do definicji zdających sprawę z tego, na czym
czynności te polegają, 2) opis procedury naukowej (w ogólnych zarysach)
stosowanej w różnych naukach, 3) dopatrzenie się zadań, do których
wykonania, świadomie lub nieświadomie, zdążają uczeni specjaliści różnych
nauk, i oparta na tym kodyfikacja norm poprawnego postępowania w naukach3.

Metodologia apragmatyczna dotyczy efektów działalności naukowców,


aczkolwiek jest oczywiste, że w sposób naturalny są one uzależnione od
czynności podejmowanych przez badaczy. Nie można bowiem mówić o
procedurze badawczej, nie mówiąc zarazem o oczekiwanych tezach, które
2
Tamże, s. 93.
3
K. Ajdukiewicz, Logika pragmatyczna, PWN, Warszawa 1974, s. 175.
5
pragnie się na koniec uzyskać. Szczególnie uwidacznia to się w naukach
formalnych przy konstruowaniu systemów aksjomatycznych. Bada się w
nich m. in. niesprzeczność (brak dwóch tez sprzecznych) oraz zupełność
(czy spośród dwóch tez sprzecznych, jedna jest konsekwencją przyjętych
aksjomatów).

Otóż prowadząc tego rodzaju badania nad systemami aksjomatycznymi, nie


interesujemy się zupełnie postawą człowieka wobec zdań, które wchodzą w
skład tego systemu. Nie interesuje nas to, czy ktokolwiek wierzy w te zdania,
czy też nie wierzy w nie, czy wywnioskowuje jedne z drugich, czy aksjomaty
tego systemu są dla kogokolwiek oczywiste. Interesują nas tylko same zdania
wchodzące w skład systemu i ich wzajemne związki, ponadto interesują nas
jeszcze układy przedmiotów, do których te aksjomaty się odnoszą.
Uprawiając takie badania nad nauką – pojętą nie jako rzemiosło uczonych,
lecz raczej jako wytwór ich zabiegów poznawczych (zrealizowanych lub
choćby tylko możliwych) – uprawiamy metodologię apragmatyczną.
Najważniejszym i najbardziej rozwiniętym działem tej pragmatycznej
metodologii jest teoria systemów dedukcyjnych4.

W niniejszej pracy przyjmujemy za K. Ajdukiewiczem podział


metodologii na a p r a g m a t y c z n ą , którą w gruncie rzeczy można
utożsamiać z filozofią nauki z tym wszakże zastrzeżeniem, iż zostanie
rozszerzona o kwestie dotyczące rozwoju nauki (kumulatywizm contra
antykumulatywizm); poświęcony zostanie jej Roz. I oraz na metodologię
p r a g m a t y c z n ą , której zostaną poświęcone pozostałe rozdziały. Należy
jeszcze zauważyć, iż Ajdukiewicz w swej charakterystyce metodologii
pragmatycznej akcentuje przede wszystkim kwestie związane z procedurą
badawczą (z tym, co obecnie zwykło się określać mianem projektu
badawczego) oraz metod badawczych nie mówi zaś nic na temat metod
analizy materiału uzyskanego w efekcie zastosowanej procedury badawczej
i odpowiednio dobranych metod badawczych. Wobec tego należałoby
rozszerzyć zakres metodologii pragmatycznej właśnie o metody analizy
danych. W niniejszej pracy zostanie to uwzględnione: Roz. 1. poświęcony
będzie zagadnieniom ogólnometodologicznym (głównie klasyfikacji nauk,
strukturze nauki, uzasadnianiu i rozwojowi teorii naukowych); Roz. 2.
dotyczyć będzie zagadnień procedury badawczej; Roz. 3. poświęcony jest
wybranym metodom i technikom badawczym i na koniec Roz. 4. zawiera
wstęp do statystycznej metody analizy danych.

4
Tamże, s. 176.
6
ROZ. 1. ZAGADNIENIA OGÓLNOMETODOLOGICZNE

1.1. Typy wiedzy

Wiedza, tj. zbiór informacji o dowolnych zdarzeniach (obiektach,


zjawiskach), może być trojaka: racjonalna (potoczna, artystyczno-literacka,
naukowa), spekulatywna bądź irracjonalna5:

Typ wiedzy Rodzaj zasady Rodzaj poznania


Potoczna, Intersubiektywnej Empiryczne,
artystyczno- komunikowalności i racjonalne,
literacka sprawdzalności intuicyjne
Racjonalna Intersubiektywnej
komunikowalności i Empiryczne,
Naukowa sprawdzalności. racjonalne
Racjonalnego
uznawania
przekonań
Spekulatywna Intersubiektywnej Racjonalne,
komunikowalności intuicyjne
Irracjonalna - Mistyczne,
objawienie

Kryterium wyróżniania owych trzech względnie autonomicznych typów


wiedzy ludzkiej stanowią trzy kryteria: intersubiektywnej
komunikowalności, intersubiektywnej sprawdzalności oraz racjonalnego
uznawania przekonań.

1. Zasada intersubiektywnej komunikowalności – wiedza może być


przekazana innemu podmiotowi i zrozumiana przezeń, o ile dysponuje on
niezbędnymi ku temu kwalifikacjami.
2. Zasada intersubiektywnej sprawdzalności – istnieje możliwość
testyfikacji, tj. wykazania prawdziwości bądź odpowiednio wysokiego
prawdopodobieństwa w odniesieniu do zbioru informacji konstytuujących
wiedzę o dowolnych zdarzeniach ewentualnie istnieje możliwość
falsyfikacji, tj. wykazania fałszywości bądź odpowiednio niskiego
prawdopodobieństwa w odniesieniu do zbioru informacji konstytuujących
wiedzę o dowolnych zdarzeniach.
3. Zasada racjonalnego uznawania przekonań – stopień przekonania, z
jakim głosi się daną tezę, nie może być większy niż stopień jej
uzasadnienia.

5
Por. J. Such, M. Szcześniak, Filozofia nauki, UAM, Poznań 1997, s. 35 i nast.
7
Do w i e d z y r a c j o n a l n e j zaliczamy wiedzę potoczną oraz
artystyczno-literacką, spełniające dwie pierwsze zasady (intersubiektywnej
komunikowalności i sprawdzalności) oraz wiedzę naukową spełniającą
wszystkie trzy zasady (intersubiektywnej komunikowalności i
sprawdzalności oraz racjonalnego uznawania przekonań).

1) W i e d z a p o t o c z n a (zdroworozsądkowa) – cechuje ją brak


precyzji, mały stopień abstrakcji oraz z reguły niski stopień uzasadnienia
głoszonych tez; stanowi produkt uboczny wszelkiej działalności ludzi.

2) W i e d z a a r t y s t y c z n o - l i t e r a c k a – związana jest z literaturą


i sztuką; podobnie jak w przypadku wiedzy potocznej spełnia ona zasadę
intersubiektywnej komunikowalności i sprawdzalności. Obydwa typy
wiedzy, oprócz poznania empirycznego (zmysłowego) i racjonalnego
(rozumowego) dopuszczają ponadto możliwość poznania intuicyjnego.
Termin „intuicja” (łac. intuitio) wszedł do filozofii europejskiej w XIII
w. jako odpowiednik greckiego terminu „epibole”, występującego w
filozofii Epikura (341-270 p.n.e.), i oznaczającego momentalne (w jednym
momencie) poznanie całościowe jakiegoś przedmiotu. W filozofii
nowożytnej, w pracach G.J. Leibniza (1646-1716) poznanie intuicyjne
zostaje przeciwstawione myśleniu symbolicznemu. Miało to oznaczać, że
poznanie intuicyjne jest bezpośrednie, gdyż do przedmiotu poznania dociera
bez żadnego pośrednictwa. Podczas gdy poznanie symboliczne jest
pośrednie; do przedmiotu dociera za pośrednictwem symbolu –
reprezentanta przedmiotu.
Do obydwu tych tradycji: epikurejskiej i leibnizowskiej nawiązuje
epistemologia H. Bergsona (1859-1941). Przywiązuje ona szczególną wagę
do wymiaru czasu i co się z tym wiąże do pojęcia trwania, dostępnego
podmiotom w bezpośrednim doświadczeniu. Doświadczenie to jest tym
samym w jakimś sensie co intuicję trwania, dzięki której w ogóle możliwe
jest bezpośrednie poznanie rzeczywistości przestrzenno-materialnej.
Poznanie intuicyjne przeciwstawia Bergson poznaniu intelektualnemu, a
więc pojęciowemu, które fragmentaryzuje i ustatycznia rzeczywistość,
zmienną z natury. Intuicja w sensie bergsonowskim charakteryzuje się
niepodzielnością (części są wtórne względem całości) oraz
bezpośredniością; stanowi metodę poznawania rzeczywistości szczególnie
obecną w sztuce i filozofii:

Sztuka jest pierwszym przykładem takiego poznania. Daje nam jedną i


globalną wizję swych przedmiotów. O krajobrazie czy człowieku
przedstawionym przez malarza przeróżne nauki mogą wiedzieć i mówić wiele
rzeczy, lecz Rembrandt pokazuje nam człowieka, a Ruysdael krajobraz,
uchwytne od razu w ich całości i jedności. Ów rodzaj poznania bezpośredniego,
całościowego, nie związanego z działaniem, a nawet z istoty nieprzydatnego ze

8
względu na działania, nosi nazwę „intuicji”. Jest bezużyteczny dla działania, u
samych swych źródeł bowiem jest mu obcy.
Intuicja podniesiona do roli metody jest samym poznaniem filozoficznym.
Filozofia może wychodzić od nauki, kontynuować poznanie naukowe i
uogólniać jego konkluzje. Jest to rodzaj filozofii w sposób naturalny uprawiany
przez uczonych, gdy doszedłszy do kresu swej dyscypliny podejmują
filozofowanie6.

3) W i e d z a n a u k o w a – wyróżnia się spośród wszystkich


pozostałych typów wiedzy tym, że po pierwsze spełnia wszystkie trzy
zasady oraz po wtóre – dopuszcza jedynie możliwość poznania
empirycznego i racjonalnego. Nauka co prawda wyrasta z potrzeb życia
praktycznego, które zawsze wymagało i nadal wymaga namysłu nad
doborem środków do realizacji zamierzonych celów. To jest wspólne źródło
wiedzy potocznej i naukowej. Wszakże w odróżnieniu od wiedzy potocznej
wiedza naukowa winna dostarczać wiedzy pogłębionej oraz metodycznie
uzasadnionej. Nie należy też zapominać o tym, że od wiedzy naukowej
oczekuje się stawiania i rozwiązywania problemów nie tylko praktycznych,
lecz czysto teoretycznych, niekoniecznie mogących znaleźć zastosowanie w
dającej się przewidzieć przyszłości.
Pozytywizm logiczny (Koło Wiedeńskie) wysunął tzw. p r o b l e m
d e m a r k a c j i , czyli odróżniania tez naukowych od tez nienaukowych.
Uznano, mówiąc w uproszczeniu, że wiedza (teoria) naukowa winna
składać się ze zdań, które można by sprawdzać w doświadczeniu. K.R.
Popper (zob. Roz. 1.4.) zaproponował kryterium demarkacji oparte na
asymetrii miedzy stwierdzeniem prawdziwości (weryfikacją) a
stwierdzeniem fałszywości (falsyfikacji) twierdzeń nauki (teorii, praw).
Zwrócił mianowicie uwagę na to, że przypadki potwierdzające w
doświadczeniu jakieś twierdzenie nie gwarantują jego prawdziwości,
podczas gdy wystąpienie choćby jednego przypadku sprzecznego z danym
twierdzeniem wykazuje jego fałszywość. Dla Poppera twierdzenia uzyskują
status naukowych tylko wówczas, jeśli jesteśmy gotowi z góry określić
doświadczenie, które może je sfalsyfikować, w przeciwnym razie będzie to
twierdzenie pseudonaukowe. Jeszcze inne rozwiązanie problemu demarkacji
przewiduje, iż twierdzenie należy uznać za naukowe wówczas, gdy
przewiduje fakty, o których do tej pory nic nie wiedziano, i co ważne, w
rzeczy samej są one doświadczalnie potwierdzone.
Satysfakcjonujące rozwiązanie problemu demarkacji nabiera na
znaczeniu, jeśli zwrócimy uwagę na występujące w obszarze wiedzy
zjawisko istnienia tzw. p s e u d o n a u k i , a więc rodzaju wiedzy, która
aspiruje do miana wiedzy naukowej, niedocenianej – zdaniem
pseudonaukowców - przez naukę oficjalną bądź też takiej, która stara się
6
E. Gilson, T. Langan, A.A. Maurer, Historia Filozofii Współczesnej. Od czasów Hegla do czasów
najnowszych, IW PAX, Warszawa 1977, s. 281.
9
uzyskać status tzw. wiedzy alternatywnej. Zbiór twierdzeń głoszonych w
obrębie pseudonauki może spełniać zasadę intersubiektywnej
komunikowalności, ale nie spełnia pozostałych dwóch zasad:
intersubiektywnej sprawdzalności oraz racjonalnego uznawania przekonań.
Pseudonauka w szczególności czyni przedmiotem swych zainteresowań
nieznane czy też nieuznawanie przez naukę oficjalną „siły nadprzyrodzone”
takie jak wgląd w przyszłość (prekognicja), możliwość poruszania materii
siłami umysłu (psychokineza), bezpośrednia komunikacja pomiędzy
umysłami (telepatia), wyczuwanie wody czy innych obiektów znajdujących
się pod ziemią (różdżkarstwo), diagnozowanie i leczenie chorych siłami
psychicznymi (m.in. chirurgia psychiczna) itp. Wszakże oprócz zjawisk,
które przeczą nie tylko nauce, ale wręcz zdrowemu rozsądkowi (np.
spirytyzm), istnieją również obszary wiedzy jeszcze nie rozpoznanej albo
też takiej, która nie dysponuje aktualnie wystarczającymi dowodami
eksperymentalnymi, chociaż zachowana jest w niej procedura badawcza
właściwa nauce (tzw. protonauka). Musi w tym względzie być zachowana
duża ostrożność. Tym bardziej, że problem odróżniania nauki od
pseudonauki ma znaczenie nie tylko teoretyczne, lecz również polityczne i
etyczne:

Problem odróżniania nauki od pseudonauki ma poważne implikacje również


dla instytucjonalnej krytyki. Teoria Kopernika została zakazana przez Kościół
katolicki w 1616 r. ponieważ, jak stwierdzono, była pseudonaukowa. Została
zdjęta z indeksu w 1820 r., ponieważ do tego czasu Kościół uznał, że fakty jej
dowiodły, a zatem stała się naukowa. Komitet Centralny Komunistycznej Partii
Związku Radzieckiego zadekretował w 1949 r., że genetyka Mendla jest
pseudonaukowa, a jej obrońców, takich jak akademik Wawiłow, zabito w
obozach koncentracyjnych; po zamordowaniu Wawiłowa genetyka
Mendlowska została zrehabilitowana; ale prawo Partii do decydowania, co jest
naukowe i publikowane, a co pseudonaukowe i karalne, zostało utrzymane w
mocy. Nowe liberalne organizacje rządowe Zachodu również korzystają z
prawa do odmowy wolności słowa temu, co uważają za pseudonaukę, jak to
widzieliśmy w przypadku debaty na temat związku rasy i inteligencji7.

4) W i e d z a s p e k u l a t y w n a – oparta na poznaniu racjonalnym


bądź intuicyjnym; spełnia jedynie zasadę intersubiektywnej
komunikowalności. Zawarta jest w znakomitej większości systemów
filozoficznych czy mitologiczno-religijnych.

5) W i e d z a i r r a c j o n a l n a – oparta na subiektywnym poznaniu


mistycznym bądź objawieniu; nie spełnia ani zasady intersubiektywności
(komunikacyjnej, sprawdzalności), ani zasady racjonalnego uznawania
przekonań. Należą do niej m.in. wszelkie religie oparte na objawieniu i

7
I. Lakatos, Pisma z filozofii nauk empirycznych, PWN, Warszawa 1995, s. 361.
10
mówiące coś o transcendencji w rozumieniu ontologicznym jako pewnym
bycie wykraczającym poza rzeczywistość dostępną doświadczeniu
empirycznemu, racjonalnemu czy też intuicyjnemu (w sensie epikurejsko-
leibnizowskim)8.

1.2. Klasyfikacje nauk

Wiek XX przypisał nauce wielkie znaczenie; osiągnięcia naukowe


dogłębnie zmieniły kształt cywilizacji. Jednocześnie od zawsze istniała
refleksja nad nauką. Wraz ze wzrostem znaczenia samej nauki również
refleksja nad nauką staje się rzeczą wielkiej wagi. Bardzo często refleksję
nad nauką rozpoczyna się od dokonania klasyfikacji poszczególnych nauk w
przekonaniu, że struktura nauk i ich wzajemne powiązania w jakiś sposób
odzwierciedlają strukturę badanej rzeczywistości. Ostatnimi czasy spora
część myślicieli odchodzi od takiego przekonania, traktując klasyfikacje
nauk raczej w sposób czysto instrumentalny, wyłącznie jako użyteczne
zabiegi porządkujące. Niemniej dobrze będzie zapoznać się z wybranymi
sposobami podziału nauk.
W czasach s t a r o ż y t n y c h od VI do IV wieku p.n.e. wiedza
naukowa utożsamiana była z filozofią. Dopiero w IV wieku p.n.e. zaznaczył
się proces separacji nauk szczegółowych od filozofii. Arystoteles np. (384–
322 p.n.e.) zaproponował trójpodział nauk na: teoretyczne, w których
uzyskiwanie wiedzy jest celem samym w sobie (logika, metafizyka, fizyka i
matematyka), praktyczne, pouczające o właściwych sposobach
postępowania (etyka, polityka i ekonomika) oraz twórcze (pojetyczne),
dające wskazówki do osiągnięcia jakiegoś pożytku bądź zrealizowania
czegoś wzniosłego (poetyka, retoryka, sztuki plastyczne).
W Ś r e d n i o w i e c z u wyróżniano dwa rodzaje nauk: s z t u k i
w y z w o l o n e (świeckie) oraz n a u k i t e o l o g i c z n e , w których
dopuszczano objawienie jako źródło poznania. Sztuki wyzwolone (artes
liberales), konstytuujące wykształcenie człowieka wolnego, obejmowały
tzw. trivium (gramatyka, retoryka i dialektyka) oraz tzw. quadrivium
(arytmetyka, geometria, astronomia i muzyka). Pod koniec średniowiecza
rozpoczął się proces wyzwalania nauk przyrodniczych spod
światopoglądowej dominacji Kościoła. Znalazło to odzwierciedlenie
również w randze, jaką przypisywano naukom teoretycznym, a zwłaszcza

8
Na przykład „krasnologia” rozumiana jako „nauka o poglądach ludzi na krasnali” należeć będzie do
wiedzy racjonalnej (artystyczno-literackiej lub naukowej), ponieważ poglądy ludzi mogą być badane
metodami naukowymi. Natomiast rozumiana jako ”nauka o krasnalach” – należy do wiedzy
spekulatywnej lub tzw. pseudonauki (termin „nauka” użyty jest tutaj w sensie metaforycznym).
Podobnie „teologia” rozumiana jako „nauka o poglądach ludzi na Boga czy też bogów” należeć
będzie do wiedzy racjonalnej (artystyczno-literackiej lub naukowej), a rozumiana jako „nauka o Bogu
czy też bogach” – do wiedzy spekulatywnej, irracjonalnej lub tzw. pseudonauki (termin „nauka”
użyty jest tutaj również w sensie metaforycznym).
11
przyrodoznawstwu, w klasyfikacjach nauk. Znamiennym przykładem może
być w tym względzie klasyfikacja zaproponowana przez F. Bacona (1561-
1626). Przyjął on mianowicie za kryterium podziału udział „władz
umysłowych” w danym typie nauk. Tak więc dla nauk teoretycznych
(logika, matematyka, przyrodoznawstwo) dominująca jest aktywność
poznawcza; dla nauk historycznych – pamięć, zaś dla sztuk pięknych –
wyobraźnia. Stąd też dla F. Bacona najwyższą rangę posiadały nauki
teoretyczne.
Szczególną rolę odegrała klasyfikacja zaproponowana, w obrębie nurtu
pozytywistycznego, przez A . C o m t e ’ a (1798–1857). Zastosował on
dwa główne kryteria podziału: stopień abstrakcji i ogólność. Wedle
pierwszego nauki mogą być: abstrakcyjne (teoretyczne) mówiące o
ogólnych prawidłowościach w świecie faktów bądź konkretne (opisowe)
zajmujące się faktami jednostkowymi. Drugie kryterium, wedle malejącego
stopnia ogólności, ma zastosowanie do nauk abstrakcyjnych (matematyka,
astronomia, fizyka, chemia, fizjologia i socjologia) oraz do nauk
konkretnych (kosmografia, geologia, mineralogia, zoologia, botanika,
medycyna i inne).
Należy też zwrócić uwagę na klasyfikację dokonaną przez W .
W i n d e l b a n d a (1848-1915), w której silnie kontrastuje się nauki
humanistyczne z naukami przyrodniczymi. Windelband podzielił nauki na:
nomotetyczne (gr. nomos – prawo, thetos – ustanowiony), badające
zdarzenia powtarzające się, w celu wykrycia prawidłowości jakim one
podlegają; są to przede wszystkim nauki przyrodnicze, wyjaśniające oraz
idiograficzne (gr. idios – swoisty, graphein - pisać) badające zdarzenia
jednostkowe, niepowtarzalne; są to głównie nauki humanistyczne,
rozumiejące. Windelband zakwestionował tym samym pozytywistyczną
redukcję metod humanistyki do metod przyrodoznawstwa w tej samej
mierze co i forsowaną przez humanistów przełomu XIX i XX wieku
odrębność nauk o podmiocie świadomym (Geisteswissenschaften) od nauk
o przyrodzie (Naturwissenschaften). Kryterium wyróżniania nauk
nomologicznych i idiograficznych nie jest bowiem zasadnicza odmienność
przedmiotu poznania, lecz odmienność celów poznawczych. Nauka
nomologiczna zmierza do uchwycenia prawidłowości zmian zachodzących
w rzeczywistości empirycznej podczas gdy nauka idiograficzna opisuje
podłoże tych zmian, zdarzenia, które zaistniały i więcej się nie powtórzą.
Nic nie stoi więc na przeszkodzie temu, aby opis dotyczył zarówno zdarzeń
przyrodniczych jak również zdarzeń humanistycznych. Ze względów
poznawczych dla opisu bardziej interesujące są jednak zdarzenia
humanistyczne i stąd to one właśnie stanowią główny przedmiot nauk
idiograficznych.
Interesującej syntezy klasyfikacji nauk z obu punktów widzenia:
przyrodniczego i humanistycznego dokonał K. A j d u k i e w i c z w

12
rozprawie Metodologiczne typy nauk9. Wyróżnia w niej trzy następujące
grupy nauk: I. Nauki aprioryczne (matematyka i logika formalna). II. Nauki
empiryczne (aposterioryczne: nauki przyrodnicze badające przyrodę
nieożywioną i ożywioną). III. Nauki humanistyczne: (a) typ nomologiczny
(wyjaśniający, np. psychologia, socjologia); (b) typ idiograficzny
(sprawozdawczy, np. historia); (c) typ aksjologiczny (wartościujący, np.
literaturoznawstwo).
I. N a u k i a p r i o r y c z n e – korzystają jedynie z twierdzeń
apriorycznych (pewników i postulatów) tj. takich, które przyjmuje się jako
ostateczne przesłanki, nie wywodzone z innych twierdzeń. Pewnikiem
będzie każde zdanie, któremu nie można zaprzeczyć tzn. uznać za fałszywe,
jeśli jego wyrażenia składowe posiadają ściśle określone na gruncie danego
języka, znaczenia (np. „każda kula jest okrągła”). Drugi rodzaj twierdzeń,
które można przyjmować bez uzasadnienia, to postulaty, które ustalają
znaczenia pewnych wyrażeń języka.
II. N a u k i empiryczne (aposterioryczne) – korzystają
alternatywnie z twierdzeń apriorycznych lub twierdzeń bezpośrednio
opartych na doświadczeniu zmysłowym (introspekcja lub ekstraspekcja). Te
drugie nie zawsze posiadają gwarancję swej prawdziwości i dlatego mogą w
zasadzie ulegać korekcie albo wręcz obalone również na drodze
doświadczenia.
III. N a u k i h u m a n i s t y c z n e – w charakterze ostatecznych
przesłanek dopuszczone są, obok twierdzeń apriorycznych i opartych na
doświadczeniu zmysłowym, również twierdzenia oparte na rozumieniu
wypowiedzi językowych; nauki humanistyczne mają bowiem do czynienia z
psychiką jednostek ludzkich i jej wytworami. Świat humanistyki tworzą
cztery dziedziny, w obrębie których znajdują się przedmioty badań nauk
humanistycznych:

Świat psychiki i świat ducha obiektywnego stanowią dwie pierwsze


dziedziny, których poznanie opiera się w znacznej mierze na rozumieniu
cudzych wypowiedzi. Trzecią dziedziną jest dziedzina tworów posiadających
znaczenie. Tworami takimi są, przede wszystkim, twory językowe, a ponadto
niektóre przynajmniej postaci dzieł sztuki. Nie można wszak uprawiać
językoznawstwa w całej jego rozciągłości, nie rozumiejąc języka, który się bada
(…). Czwartą dziedziną, której poznanie opiera się w znacznej mierze na
rozumieniu wypowiedzi, jest świat dziejów i społeczności ludzkich. Świat
minionych dziejów ludzkich daje się nam poznać przeważnie na podstawie tzw.
źródeł, tj. spisanych wypowiedzi, przekazanych nam z czasów minionych. Aby
źródła te dostarczały nam istotnie jakichś informacji, trzeba je, przede
wszystkim, umieć odczytać i zrozumieć. Odczytanie i zrozumienie źródła
muszą później ulec ocenie krytycznej pod względem ich autentyczności i

9
K. Ajdukiewicz, Metodologiczne typy nauk [w:] Język i Poznanie, t. I, PWN, Warszawa 1985, s. 287
i nast.
13
prawdomówności, punktem wyjścia dla tej krytyki jest jednak przeważnie
odczytanie i zrozumienie sensu źródła10.

W świecie humanistyki, konstytuowanym przez cztery wyżej wskazane


dziedziny, można wyróżnić trzy typy metod badawczych, stosowanych w
obrębie nauk humanistycznych; nomologiczny, idiograficzny i
aksjologiczny.
(a) Typ nomologiczny (wyjaśniający) – wobec przedmiotów badanych
stawia się zadania podobne do zadań, jakie stoją przed naukami
przyrodniczymi. Zbiera się zatem poszczególne fakty w oparciu o
doświadczenie, stawia hipotezy, formułuje prawa, tworzy teorie itd.
Przykładem może być psychologia (introspekcja, obserwacja, eksperyment)
bądź socjologia (obserwacja, wywiad). W tych naukach spotyka się często
tendencję do tworzenia praw, opartych na rozumowaniu indukcyjnym czy
też statystycznym.
(b) Typ idiograficzny (sprawozdawczy) – za główne zadanie uważa się
poznanie faktów jednostkowych dla nich samych i opisanie ich bez
tendencji do wyszukiwania praw nimi rządzących. Za przykład posłużyć
może historia, która bada fakty i zjawiska społeczne należące do
przeszłości. Nie wszystkie jednak zdarzenia z przeszłości interesują
historyka, lecz tylko te, które posiadają jakąś wartość w porządku
społecznym w danym przedziale czasowym.
(c) Typ aksjologiczny (wartościujący) – sądzi się, że w naukach
humanistycznych najważniejsze są pojęcia wartości (np. prawda, dobro,
piękno, pożytek) i wskutek tego nauki humanistyczne wymagają
diametralnie odmiennych metod od tych stosowanych w naukach
przyrodniczych. Nie wystarcza tutaj czysto intelektualna rekonstrukcja
pewnych zdarzeń i umiejscowienie ich w jakimś porządku społecznym,
badacz powinien ponadto zrozumieć rolę i sens poszczególnych wytworów
kulturowych w całokształcie świata wartości, w szczególności zrozumieć
sposób, w jaki przyczyniają się one do tego, by całość była wartościowa. A
to jest możliwe, mówiąc ogólnie, w drodze doznawania tego, co pragnie się
poznać.
Podział nauk na: formalne, empiryczne i humanistyczne wyznacza
zarazem dość popularny podział metodologii na: metodologię nauk
formalnych, metodologię nauk empirycznych oraz metodologię nauk
humanistycznych (w tym : społecznych).
W s p ó ł c z e ś n i e istnieje wiele klasyfikacji nauk wedle rozmaitych
kryteriów11, między innymi: przedmiotu badań, metody badań, rodzaju

10
Tamże, s. 308.
11
Zob. J. Such, M. Szcześniak, Filozofia nauki, UAM, Poznań 1997, s. 52.
14
formułowanych problemów, zadań i celów czy stopnia abstrakcji. Dość
rozpowszechniony na gruncie metodologii jest następujący podział nauk12:
I. Nauki matematyczne (np. logika, teoria mnogości, topologia,
geometria, teoria liczb).
II. Nauki fizyczne (nauki o przyrodzie nieożywionej).
III. Nauki biologiczne (nauki o przyrodzie ożywionej).
IV. Nauki społeczne (filozofia, socjologia, psychologia, historia,
językoznawstwo, prawo, nauki polityczne).
V. Nauki stykowe (pograniczne; powstające na pograniczu kilku nauk
pokrewnych, np. biofizyka, chemia fizyczna).
VI. Nauki kompleksowe (poszukujące powiązań między naukami bardzo
odległymi od siebie, np. cybernetyka, teoria informacji, synergetyka, teoria
komunikacji, ogólna teoria układów).
VII. Nauki stosowane (techniczne, rolnicze, ekonomiczne, medyczne,
pedagogiczne czy rekreacyjne).
Dla celów niniejszej pracy przyjmujemy podział nauk na:
(a) t e o r e t y c z n e : formalne (matematyka, logika) i empiryczne:
przyrodnicze oraz humanistyczne w sensie K. Ajdukiewicza (nomologiczne
– w tym: s p o ł e c z n e , idiograficzne, aksjologiczne);
(b) s t o s o w a n e – służące do rozwiązywania praktycznych,
konkretnych problemów pojawiających się w życiu społecznym.

1.3. Struktura wiedzy naukowej

Struktura wiedzy naukowej tworzy kompleks złożony z niejednorodnych


składników: faktów, hipotez, twierdzeń, praw oraz teorii.

1) F a k t y . Bazą wszystkich nauk realnych (przyrodniczych i


humanistycznych) są f a k t y w tym sensie, że od nich rozpoczyna się
uprawianie nauki i za ich pomocą sprawdza się uzyskane wyniki. Pojęcie
faktu odgrywało fundamentalną rolę w niektórych systemach
filozoficznych. L. Wittgenstein (1889-1951) wręcz rozpoczyna swój Traktat
(Tractatus logico-philosophicus) od znamiennej tezy, iż „Świat jest
wszystkim, co jest faktem”. Autor ten fakty wiąże ze zdarzeniami i
przeciwstawia je rzeczom. Odmiennie polski filozof i prakseolog T.
Kotarbiński (1886-1981) - fakty poczytuje za podstawowe kategorie
ontyczne. Dzieli je następnie na statyczne (rzeczy) i kinetyczne (zdarzenia).
W swej reistycznej ontologii to właśnie rzeczy traktuje Kotarbiński jako
fundamentalne, pierwotne składniki konstytutywne uniwersum ontycznego.
Od razu wyłania się jednak pytanie, czy naukę interesują same fakty, czy
raczej systematycznie powtarzające się relacje pomiędzy faktami,
pozwalające na przewidywanie przyszłych faktów w oparciu o znajomość

12
Tamże, s. 52.
15
faktów aktualnych; trafne przewidywanie stanowiłoby zarazem weryfikację
tez formułowanych w oparciu o zbiór faktów. Pouczająca w tym względzie
jest dyskusja toczona przez neopozytywistów w kręgu Koła Wiedeńskiego.
Podziałowi zdań na empiryczne i teoretyczne nadali oni postać ostrej
dychotomii: zdania mogą być wyłącznie wypowiadane bądź w odniesieniu
do faktów (empiryczne), bądź jako tautologie. Pośród zdań empirycznych
szczególną rolę spełniają tzw. zdania elementarne (spostrzeżeniowe,
protokolarne, atomowe), które zdają sprawę z bezpośrednich doznań
zmysłowych odwzorowujących fakty. Logiczny schemat opisujący
całościowy zbiór faktów, dający się w ostatecznej instancji zredukować do
zbioru zdań elementarnych, tworzy teorię naukową. Było to rozwinięcie
koncepcji L. Wittgensteina, od którego neopozytywiści czerpali inspiracje,
zawartej w tezie 4.25 i 4.26 Traktatu:

4.25. Jeżeli zdanie elementarne jest prawdziwe, to stan rzeczy istnieje; jeżeli
jest fałszywe, to stan rzeczy nie istnieje.
4.26. Podanie wszystkich prawdziwych zdań elementarnych opisuje świat
całkowicie. Świat jest całkowicie opisany przez podanie wszystkich zdań
elementarnych wraz ze wskazaniem, które z nich są prawdziwe, a które
fałszywe13.

Neopozytywiści, w efekcie dyskusji, zrezygnowali ostatecznie z


przekonania, iż każda teoria daje się zredukować do zbioru zdań
elementarnych. Jest to niemożliwie, ponieważ w każdej teorii równie
istotnym elementem co doświadczenie empiryczne jest pewien fragment
wyrażany w zdaniach teoretycznych, bez którego teoria nie byłaby strukturą
logiczną odzwierciedlającą adekwatnie rzeczywistość.
Pojawia się ponadto następujące zagadnienie: czy przez fakt należy
rozumieć coś, co należy do rzeczywistości pozajęzykowej, czy też zdanie - a
więc składnik rzeczywistości językowej - stwierdzające istnienie jakiegoś
określonego momentu bytowego. Nie wnikając bliżej w rozległe dyskusje
nad powyższymi kwestiami przyjmujemy na użytek naszej pracy, iż f a k t
to zdarzenie (pozajęzykowe) ujęte w pewnym ustalonym, względnie
minimalnym (w odróżnieniu od procesu), interwale czasoprzestrzennym.
Faktem przyrodniczym będzie więc np. wyładowanie atmosferyczne; faktem
psychicznym – np. kontemplacja estetyczna opery Carmen Bizeta; faktem
historycznym – np. bitwa pod Grunwaldem.
Natomiast f a k t s p o ł e c z n y to taki fakt, który stanowi rezultat
oddziaływań (spontanicznych lub instytucjonalnych) pomiędzy członkami
jakiejś zbiorowości społecznej bądź taki, który dotyczy zespołów ludzi
(zbiorowości społecznych), skupionych wokół pewnego ośrodka

13
L. Wittgenstein, Tractatus logico-philosophicus, PWN, Warszawa 1970.
16
integrującego (wartości, idei, wspólnych celów). Podział faktów
społecznych będzie zatem wyglądał następująco14:

KRYTERIUM PODZIAŁU RODZAJE FAKTÓW SPOŁECZNYCH


Zachowanie
Działanie
Oddziaływania spontaniczne
Czynność społeczna
Działania społeczne
Styczności
Oddziaływania instytucjonalne Interakcje społeczne
Stosunki społeczne
Para
Krąg społeczny
Zbiorowości społeczne
Grupa społeczna
Społeczność
Zbiorowości oparte na podobieństwie
zachowań
Zbiorowości oparte na wspólnej kulturze

Zachowanie – forma aktywności fizycznej, zewnętrznie obserwowalna,


dająca się sprowadzić do pewnych ruchów ciała jednostki.
Działanie – zachowanie, z którym związane jest znaczenie motywacyjne
i kulturowe (zachowanie wyposażone w sens).
Czynność społeczna – działanie celowo adresowane do innych osób
(adresaci mogą być bezpośredni bądź pośredni).
Działania społeczne – czynność społeczna, w której bierze się pod uwagę
rzeczywiste lub spodziewane reakcje partnera i w związku z tym są one
nieustannie modyfikowane stosownie do tych reakcji.
Styczności: przestrzenna – bezpośrednie lub pośrednie zetknięcie się
osób w określonej przestrzeni i czasie, w wyniku którego uświadamiają
sobie swe istnienie i posiadane cechy; psychiczna – zainteresowanie się
osoby X osobą Y ze względu na posiadane przez osobę Y cechy, które – jak
sądzi – mogą być użyteczne w zaspokojeniu jakichś potrzeb osoby X;
społeczna – czynności podejmowane przez osobę X wobec osoby Y ze
względu na posiadane przez osobę Y cechy, które mogą być użyteczne w
zaspokojeniu jakichś potrzeb osoby X.
Interakcje społeczne – systematyczne, trwałe wykonywanie działań
skierowanych na wywołanie u partnera określonej reakcji, przy czym
reakcja ta z kolei wywołuje nowe działania pierwszego osobnika. Innymi

14
Zob. W.W. Skarbek, Wybrane zagadnienia socjologii ogólnej i socjologii edukacji, NWP 2003, s.
22 i nast.
17
słowy, są to takie zespoły czynności osoby X, które zmierzają do
zmodyfikowania zachowań osobnika Y, zaś jej reakcje zwrotnie modyfikują
zachowania osoby X.
Stosunki społeczne – to systemy unormowanych wzajemnych
oddziaływań między jednostkami, określonych przez system wartości, na
gruncie szczególnej sytuacji łączącej te jednostki.
Para (dwójka) – zbiorowość złożona z dwóch osób tej samej lub różnej
płci połączonych więzią osobistą.
Krąg społeczny – niewielka zbiorowość, nie oparta na wyraźnej zasadzie
odrębności, o słabej więzi instytucjonalnej (np. stycznościowy, koleżeński,
przyjacielski).
Grupa społeczna – zbiór osób powiązanych systemem stosunków
uregulowanych przez instytucje, posiadających pewne wspólne wartości i
oddzielonych od innych zbiorowości wyraźną zasadą odrębności.
Społeczność – zbiorowość terytorialna umożliwiająca jednostkom ją
tworzącym zaspokajanie podstawowych potrzeb ekonomicznych i
kulturalnych.
Zbiorowości oparte na podobieństwie zachowań – zbiorowości nie
posiadające zinstytucjonalizowanej więzi społecznej, ale determinujące
podobne zachowania ludzkie w określonych sytuacjach społecznych
(zbiegowisko, audytorium, tłum).
Zbiorowości oparte na wspólnej kulturze – zbiorowości etniczne, których
podstawą wyróżnienia jest zazwyczaj wspólny język, czasami odrębna
gwara, czy też pewien kompleks kulturowy (ród, klan, plemię, lud).

2) H i p o t e z y n a u k o w e . Podstawowym warunkiem prowadzenia


badań naukowych jest uświadomienie sobie przez badacza sytuacji
problemowej, którą należy rozwiązać. Sytuacja problemowa sama przez się
zakłada istnienie pewnego obszaru wiedzy i niewiedzy. Do badacza należy
ustalenie ich wzajemnej proporcji oraz sformułowanie pytań czy też
twierdzeń mających na celu maksymalne ograniczenie obszaru niewiedzy.
Pytania (twierdzenia) tego rodzaju noszą nazwę hipotez. Zgodnie z
etymologią słowa (gr. hypothesis - przypuszczenie) są one pewnymi
przypuszczeniami, co do których istnieje jakieś prawdopodobieństwo, że
mogą w znaczącym stopniu ograniczyć obszar niewiedzy dla danej sytuacji
problemowej.
Do najbardziej powszechnych sposobów stosowanych przy tworzeniu
hipotez w naukach społecznych należą:

a) wysuwanie wniosku hipotetycznego z istniejących teorii;


b) „odkrywanie” hipotezy przez uogólnianie zebranych danych, np.
zawartych w sprawozdaniach statystycznych;

18
c) swoiste wczuwanie się badającego w określone sytuacje społeczne, czyli
wysuwanie przez niego wniosków na podstawie własnych doświadczeń
życiowych i wykorzystywanie umiejętności tworzenia trafnych domysłów15.

Decyzja co do tego, czy dane pytanie badawcze (twierdzenie) można


traktować jako hipotezę, czy też nie, nie jest całkiem arbitralna. Zdanie
kandydujące do miana hipotezy musi spełniać określone wymogi
racjonalności. Nie mogą też istnieć wiarygodne dane przeczące mu w
momencie wysuwania hipotezy, a jeśli pojawią się takowe w przyszłości –
hipoteza traci wiarygodność i należy ją tym samym odrzucić. Istnieje
ponadto zgoda co do tego, że hipotezy stawia się w celu wyjaśnienia faktów
już zaobserwowanych oraz przewidywania przyszłych. Wszakże dana
hipoteza jest w stanie temu sprostać tylko wówczas, gdy pomyślnie
przejdzie procedurę weryfikacyjną (łac. verum – prawda), tj. gdy okaże się
prawdziwa. W wersji osłabionej potwierdzenie hipotezy może mieć miejsce
nie dla całego zakresu jej stosowalności, lecz wyłącznie dla pewnej ilości
przypadków (tzw. konfirmacja hipotezy). Może też mieć miejsce sytuacja, iż
łatwiej jest przeprowadzić procedurę falsyfikacyjną hipotezy (łac. falsum –
fałsz), tj. procedurę wykazania jej fałszywości16. Odpowiednio: wersja
osłabiona polegałaby na osłabieniu wiarygodności hipotezy (tzw.
dyskonfirmacja hipotezy).

3) P r a w a n a u k i . Termin „prawo” jest co najmniej dwuznaczny17.


Po pierwsze – rozumiany jest jako podstawowa, obiektywna i konieczna
prawidłowość występująca w rzeczywistości empirycznej (przyrodniczej,
społecznej - wymiar synchroniczny, historycznej – wymiar diachroniczny,
psychicznej) i po drugie – jako teza językowa, opisująca jakąś
prawidłowość o szczególnie doniosłym znaczeniu; jest to tzw. prawo nauki.
Metodologów interesują par excellance prawa nauki same w sobie.
Filozofów zaś nurtuje między innymi pytanie dotyczące tego, czy prawa
nauki opisują prawidłowości istniejące obiektywnie w rzeczywistości
empirycznej, czy też są to jedynie pewne konstrukty czysto teoretyczne,
mające na celu wygodny, skrótowy zapis określonej sekwencji zdarzeń.
Interesuje filozofów też kwestia konieczności prawidłowości, tzw.
konieczności realnej; czy jest to mianowicie analogon konieczności
formalnej, tj. wynikania logicznego, czy raczej jakiś odmienny, swoisty
15
J. Sztumski, Wstęp do metod i technik badań społecznych, PWN, Warszawa 1984, s. 45.
16
Należy zauważyć, że wedle K. Poppera, użyteczność hipotezy leży przede wszystkim w
możliwości wykazania jej fałszywości (falsyfikacji), a nie na poszukiwaniu przypadków
potwierdzających hipotezę. Znaczne trudności interpretacyjne przysparza też kwestia tzw. hipotez
probabilistycznych, dotyczących częstości występowania własności w danym zbiorze, czyli jej
prawdopodobieństwa; ta kwestia zostanie poruszona w rozdziale dotyczącym analizy statystycznej.
17
Zupełnie odmienny sens posiada termin „prawo” używany w prawoznawstwie, gdzie oznacza zbiór
określonych przepisów normujących pewien fragment rzeczywistości społecznej, stanowionych przez
odpowiednie organy prawodawcze (prawo w sensie prawniczym).
19
rodzaj konieczności. Filozofowie, ujmujący rzeczywistość empiryczną jako
całość racjonalną, skłonni są postrzegać w niej wszelkie relacje między
dowolnymi zdarzeniami jako analogony relacji logicznych; inni
konieczność realną upodabniają często do konieczności psychicznej, takiej z
jaką świadome czyny wynikają z motywów (np. A. Schopenhauer).

W tym celu, aby pewne twierdzenie, formułowane w obszarze nauki,


stało się p r a w e m n a u k i musi spełnić warunki formalne oraz
nieformalne18.
Do warunków f o r m a l n y c h zalicza się następujące: uniwersalność,
nierównoważność ze zbiorem zdań jednostkowych, otwartość ontologiczna
oraz otwartość epistemologiczna.
1. Uniwersalność – niezależność prawa od zasięgu czasoprzestrzennego
dla wszystkich zdarzeń (obiektów, procesów) tego samego rodzaju;
wszystkie zdarzenia podlegają prawu bez względu na to kiedy i w jakim
miejscu się pojawiają.
2. Nierównoważność ze zbiorem zdań jednostkowych – prawo nauki nie
może być zastąpione przez jakąkolwiek skończoną liczbę zdań
jednostkowych o sekwencji badanych zdarzeń.
3. Otwartość ontologiczna – prawo nauki, oprócz zdarzeń przeszłych i
teraźniejszych, dotyczy także zdarzeń przyszłych, których zajście
przewiduje. W tym sensie stanowi ekstrapolację, której zasięg wykracza
poza obszar zdarzeń przebadanych.
4. Otwartość epistemologiczna – prawo nauki dotyczy również zdarzeń
jeszcze nie rozpoznanych tj. takich, o których istnieniu bądź jeszcze nie
wiadomo, bądź w ogóle powątpiewa się o ich istnieniu. Zdarzenia tego
rodzaju mogą być przedmiotem
Otwartość ontologiczna implikuje otwartość epistemologiczną, ale nie na
odwrót. Jeżeli prawo nauki dobrze zdaje sprawę ze zdarzeń, które
zachodziły w przeszłości bądź zachodzą w teraźniejszości, to tym samym
należy spodziewać się, że tak będzie również w przyszłości. Natomiast nic
nie można wyrokować na temat zachodzenia zdarzeń w przyszłości
(otwartość ontologiczna) w przypadku, gdy zdarzenia wątpliwe nie zostaną
potwierdzone za pomocą metod naukowych.
Do warunków n i e f o r m a l n y c h zalicza się następujące: posiadanie
uzasadnienia, spełnianie funkcji eksplanacyjnej (wyjaśniającej) oraz
przynależność do teorii naukowej.
1. Uzasadnienie – prawo nauki musi posiadać uzasadnienie. W
przeciwnym razie twierdzenie o wzajemnych relacjach pomiędzy
zdarzeniami, formułowane w obszarze nauki, może posiadać jedynie status
hipotezy. Jednakże stopień uzasadnienia nie jest ściśle określony; jest on z

18
Zob. J. Such, Problemy weryfikacji wiedzy. Studium metodologiczne, PWN, Warszawa 1975, s. 37 i
nast.
20
reguły zrelatywizowany do dziedziny badań (większy np. w naukach
przyrodniczych, a mniejszy w społecznych) oraz historycznie zmienny.
2. Funkcja eksplanacyjna (wyjaśniająca) – prawo nauki wyjaśnia relacje
pomiędzy pewną sekwencją zdarzeń. Sam termin „wyjaśniać” wymaga
wszakże komentarza. W języku potocznym „wyjaśnić x” oznacza tyle, co
„uczynić x zrozumiałym dla przeciętnego podmiotu”. Takie rozumienie
terminu „wyjaśnienie” jest jednak całkiem nieokreślone wskutek tego, iż
odwołuje się ono do aspektu czysto subiektywnego; coś co jest
niezrozumiałe dla jednego przeciętnego podmiotu, może być - w podobnych
okolicznościach - zrozumiałe dla innego. W tradycji filozoficznej,
wywodzącej się od Arystotelesa, funkcjonuje podział wiedzy na:
demonstratywną - odpowiadającej na pytanie „jak” oraz teoretyczną –
odpowiadającej na pytanie „dlaczego”. Otóż charakterystyczną właściwość
wyjaśniania naukowego upatruje się w tym, że odpowiada ono na pytanie
„dlaczego”. A zatem można przyjąć w dużym przybliżeniu, iż „wyjaśnić x”
znaczy tyle, co odpowiedzieć na pytanie: „dlaczego zachodzi x?”.
3. Przynależność do teorii naukowej – teoria naukowa, o ile uzyskała
potwierdzenie obserwacyjne nie związane bezpośrednio z danym prawem
nauki, stanowiącym jej składnik –dostarcza eo ipso temu prawu
uzasadnienia o charakterze teoretycznym.

Pojęcie prawa ugruntowało się w nauce dopiero w czasach nowożytnych.


W starożytności nauka empiryczna związana była ze światopoglądem
materialistycznym, wywodzącym się od Leukipossa (V p.n.e.) i Demokryta
(460-370 p.n.e.). Wprawdzie odkrywano już wtedy elementarne prawa
jakościowe o charakterze przyczynowym czy też prawa ilościowe (np.
akustyki – pitagorejczycy; hydrodynamiki – Archimedes), ale traktowano je
wyłącznie w wymiarze filozoficznym jako konkretyzację idei rozumności
świata (gr. nus, logos) czy też porządku (gr. kosmos) nieustannie
ograniczającego odwieczny chaos. Średniowieczem zawładnęła z czasem w
zasadzie niepodzielnie scholastyka, ograniczająca się do komentowania
pism Arystotelesa i rezygnująca programowo z badań empirycznych.
Dopiero wiek XVII, wiek „rewolucji naukowej” umożliwił odkrywanie i
ścisłe formułowanie praw nauki, przede wszystkim w obszarze przyrody
(Galileusz, Kepler, Kartezjusz, Pascal, Hooke, Newton). Znalazło to swoje
odzwierciedlenie również w filozofii materialistycznej, która sukcesywnie
wyzwalała się ze starożytnego podejścia kauzalistycznego (odkrywanie
przyczyn zdarzeń) na rzecz podejścia nomologiczno-strukturalnego
(ustalanie prawidłowości w obrębie struktur). Czasy współczesne
wyeksponowały szczególną rolę praw statystycznych, w związku z czym
dominuje, rzec można, podejście probabilistyczne - ustalanie prawidłowości
dla zjawisk masowych o charakterze losowym zarówno w dziedzinie
zdarzeń przyrodniczych jak również społeczno-historycznych.

21
Ścisłe zdefiniowanie prawa naukowego nie jest możliwe; wszelkie
określenia mają jedynie ograniczony, historyczny charakter,
zrelatywizowany do osiągniętego szczebla rozwoju nauki. Poza tym
współcześnie, znacznie częściej niż sposób definiowania prawa nauki,
dyskutowana jest w metodologii ogólnej kwestia roli poszczególnych typów
praw oraz wiążący się z tym problem klasyfikacji praw nauki. Do często
spotykanych podziałów należą następujące podziały dychotomiczne praw
nauki na: jakościowe – ilościowe; empiryczne teoretyczne; dynamiczne –
statystyczne; synchroniczne – diachroniczne; strukturalne – funkcjonalne19.

1. Prawa jakościowe – ilościowe. Podział ten należy do najstarszych;


znany był już w czasach starożytnych. Przykładem może być prawo
jakościowe Talesa z Miletu stwierdzające, iż pewien minerał, zwany dziś
magnetytem, zawsze przyciąga żelazo czy prawo ilościowe, sformułowane
w szkole pitagorejskiej, określające zależność między długością struny a
wysokością jej tonu. P r a w o j a k o ś c i o w e podaje z reguły
charakterystykę pewnego zbioru zdarzeń (obiektów, faktów, zjawisk,
procesów) - w formie inkluzji (każde A jest B) bądź porządku (A poprzedza
B na skali S) - wyznaczoną przez określoną cechę. W przypadku inkluzji
pojawia się problem, widoczny zwłaszcza w dziedzinie nauk społecznych,
dotyczący tego, czy prawo nauki uzasadnia również tzw. kontrfaktyczny
okres warunkowy (gdyby to było A, to również byłoby B) oraz tzw.
podmiotowy (nierzeczywisty) okres warunkowy (jeśli zdarzy się A, to
zdarzy się również B). Zdaniem wybitnego metodologa nauk społecznych P.
Abella jest to mało prawdopodobne:

Niewiele znajdziemy w socjologii przypadków, w których chcielibyśmy


posługiwać się w ten sposób okresem warunkowym kontrfaktycznym lub
nierzeczywistym. Nawet twierdzenie „wszystkie społeczeństwa charakteryzują
się strukturą pokrewieństwa” – które, o ile wiem, jest uniwersalnie prawdziwe
(dla wszystkich znanych społeczeństw) – raczej niechętnie przełożymy na:
„jeśli jest to społeczeństwo, to charakteryzuje się strukturą pokrewieństwa”, nie
zważając na możliwości odkrycia nowych społeczeństw. Być może, niektórzy
socjologowie byliby skłonni do takich twierdzeń, a napotkawszy społeczeństwo
bez struktury pokrewieństwa poszukiwaliby rozwiązania w sferze warunków
początkowych ograniczających zasięg ważności prawa20.

P r a w o i l o ś c i o w e ma zawsze postać formuły matematycznej


określonej w dziedzinie liczb (z reguły rzeczywistych). Może ono
przybierać charakter zależności stricte funkcyjnej, stochastycznej
(statystycznej) bądź korelacyjnej [zob. Roz. 4.5.1.]. W gruncie rzeczy

19
Por. W. Krajewski, Prawa nauki. Przegląd zagadnień metodologicznych, KiW, Warszawa 1982, s.
312 i nast.
20
P. Abell, Modele w socjologii, PWN, Warszawa 1975, s. 125.
22
jednak wszystkie powyższe zależności mają charakter funkcyjny, o ile
funkcję rozumie się szeroko jako pewien rodzaj przyporządkowania
(jednoznaczny bądź nie) wartości jednej zmiennej wartościom innej. Innymi
słowy, zależności funkcyjne opisują , w jaki sposób miary liczbowe jednej
wielkości zależą od miar liczbowych innej wielkości. W przypadku dwóch
zmiennych naturalnym sposobem określania związku pomiędzy nimi jest
właśnie uznanie jednej z nich za funkcję drugiej. Przy czym:

Przy konstruowaniu modeli zwykle odróżniamy zmienną wyjaśnianą od


wyjaśniającej, czyli zmienną, której zróżnicowanie chcemy wyjaśnić od tej,
która to zróżnicowanie wyjaśnia. Zmienną zależną piszemy po lewej stronie
znaki równości, niezależną, a niezależną po prawej. Równość A = f (B) oznacza
więc, że A jest zmienną wyjaśnianą, a B – wyjaśniającą. Twierdzenia tak
sformułowane mówią nam oczywiście bardzo niewiele: informują tylko, że
zmienne są powiązane, ale już nie o tym, jak są powiązane. By wiedzieć to
ostatnie, musimy znać postać funkcji. Określenie postaci funkcji zależy jednak
od poziomu pomiaru zmiennych tworzących związek21.

Należy wszakże cały czas mieć na uwadze to, że prawo ilościowe ze swej
natury związane jest z jakąś skalą liczbową. Tak więc wypowiadając tezę
„Świadomość klasowa rośnie ze wzrostem konfliktu klasowego” (A rośnie
wraz z B; A koreluje dodatnio z B) bądź „Świadomość klasowa maleje ze
wzrostem konfliktu klasowego” (A maleje wraz ze wzrostem B; A koreluje
ujemnie z B) – wypowiadamy tezę jakościową (będącą prawem
jakościowym, o ile zostanie uzasadniona). Dopiero wskazanie, o ile
jednostek – na przyjętej skali liczbowej – następuje przyrost bądź ubytek
owej świadomości klasowej powoduje to, że teza jakościowa staje się tezą
ilościową (i eo ipso prawem ilościowym, o ile zostanie dostatecznie
uzasadniona).

2. Prawa empiryczne – teoretyczne. P r a w o e m p i r y c z n e


(rejestrujące) – to prawo wyprowadzone bezpośrednio z doświadczenia, a
więc takie prawo, w którym - oprócz stałych logicznych - znajdują się
wyłącznie terminy obserwacyjne, tj. dotyczące zdarzeń dających się
bezpośrednio zaobserwować przez podmiot świadomy. Prawa tego typu
opisują związki między obserwowalnymi własnościami dowolnych zdarzeń;
podstawową metodą ich odkrywania jest indukcja (uogólnianie na
podstawie poszczególnych przypadków). P r a w o t e o r e t y c z n e
dotyczy tych aspektów dowolnych zdarzeń, których nie można
bezpośrednio zaobserwować. Ważną cechą praw teoretycznych jest ich
przynależność do pewnych teorii. Wynika to stąd, że ze swej istoty dotyczą
one pewnych konstruktów teoretycznych zawierających jakieś terminy

21
Tamże, s. 131.
23
nieobserwacyjne; podstawową metodą ich odkrywania jest metoda
hipotetyczno-dedukcyjna (stawianie hipotez, wyciąganie konsekwencji i
konfrontacja z danymi doświadczalnymi).

3. Prawa jednoznaczne – statystyczne. P r a w o j e d n o z n a c z n e


(dynamiczne, deterministyczne) ustala jednoznaczną zależność między
pewnymi zdarzeniami; zależność ta jest bezwyjątkowa, tzn. spełniona w
każdym pojedynczym przypadku. Prawo statystyczne
(probabilistyczne, stochastyczne) ustala tylko prawdopodobieństwo zdarzeń
danego rodzaju, tzn. w ramach określonego zbioru zdarzeń. Określa więc
występowanie zdarzeń w skali masowej, ale nie w każdym poszczególnym
przypadku. W skali masowej zachodzi określona prawidłowość, gdyż
ustalają się średnie wielkości globalne, a przypadek jako taki jest
eliminowany.
Czasami w odniesieniu do praw jednoznacznych stosuje się nazwę
„prawa dynamiczne”, wywodzącą się od Maxwella i Plancka, którzy sądzili
- niesłusznie zresztą - że typowymi reprezentantami praw jednoznacznych
są prawa dynamiki Newtona. Używa się też nazwy „prawa
deterministyczne”, ale i ona obarczona jest wadą, tą mianowicie, iż
zdecydowanie przesądza rozłączność praw deterministycznych i praw
statystycznych. Zgodnie z tradycją idącą od Laplace’a bowiem – każde
zdarzenie podlega prawom jednoznacznym. Współcześnie jednak uznaje się
na ogół szerszą formułę determinizmu mówiącą o tym, że każde zdarzenie
podlega prawom, a zatem nie tylko prawom jednoznacznym (determinizm
jednoznaczny), ale również prawom statystycznym (determinizm
statystyczny).
Belgijski statystyk Adolf Quetelet (1796-1874) był jednym z pierwszych
uczonych, który analizował statystykę narodzin, małżeństw, zgonów,
samobójstw itd. oraz formułował wnioski o prawdopodobieństwie ich
wystąpienia w kolejnych latach, o ile spełnione są ściśle określone warunki.
Wedle Queteleta możliwość takiej prognozy była dostatecznym dowodem
na to, iż życiem społecznym rządzą prawa o charakterze statystycznym.

4. Prawa synchroniczne – diachroniczne. P r a w o s y n c h r o n i c z n e


(koegzystencjalne, współwystępowania) opisuje strukturę przestrzenną
pewnego układu w jednym przekroju czasowym. Natomiast p r a w o
d i a c h r o n i c z n e (temporalne) opisuje proces zmian struktury
przestrzennej układu na osi czasu. Wśród praw diachronicznych na ogół
wyróżnia się dwa podzbiory – prawa rozwojowe (ewolucyjne), mówiące o
tendencjach rozwojowych układu, kolejności a także natężeniu kolejnych
jego faz oraz prawa przyczynowe (kauzalne), mówiące o oddziaływaniu
energetyczno-informacyjnym jednego układu (oddziałujący) na drugi
(oddziaływany). Tak rozumiane prawa przyczynowe pozostają oczywiście
w sprzeczności ze słynną t e z ą D . H u m e ’ a , w myśl której związek
24
przyczynowy to nic innego jak następstwo czasowe poszczególnych zdarzeń.
Wnioskowanie na podstawie przyczyn o ich skutkach jest zawodne, sądzi
Hume, ponieważ brak mu podstawy rozumowej; opiera się ono bowiem
wyłącznie na przyzwyczajeniu, na prostym przenoszeniu doświadczeń z
przeszłości na przyszłość.

5. Prawa strukturalne – funkcjonalne. P r a w o s t r u k t u r a l n e


(integralne) – opisuje budowę (strukturę) układu oraz zależności między
jego elementami składowymi zarówno w pewnym przekroju czasowym jak i
na osi czasu. Z kolei p r a w o f u n k c j o n a l n e stwierdza, jakie funkcje22
spełniają wybrane aspekty układu (elementy, własności, relacje) dla
podtrzymania określonego stanu wyróżnionego układu (określającego jego
istotę). Przykładem prawa funkcjonalnego może być twierdzenie
socjologiczne mówiące, że struktury pokrewieństwa pełnią społeczną
funkcję kontroli społecznej. Na twierdzeniach funkcjonalnych (z których
szczególnie ważne stanowią prawa) opiera się doktryna funkcjonalizmu w
naukach społecznych.

Nauka początkowo formułuje zazwyczaj prawa jakościowe,


jednoznaczne i empiryczne. Następnie przechodzi stopniowo do
formułowania praw ilościowych, statystycznych i teoretycznych.

Synchroniczne Strukturalne
Empiryczne Funkcjonalne
JAKOŚCIOWE Diachroniczne Strukturalne
(inkluzyjne, Funkcjonalne
porządkowe)
Teoretyczne Synchroniczne Strukturalne
Diachroniczne Funkcjonalne
Jednoznaczne Synchroniczne
Empiryczne Diachroniczne
ILOŚCIOWE Statystyczne Synchroniczne
(funkcyjne, Diachroniczne
probabilistyczne) Jednoznaczne Synchroniczne
Teoretyczne Diachroniczne
Statystyczne Synchroniczne
Diachroniczne

22
Należy zwrócić uwagę na odmienność znaczenia pojęć: „zależność funkcyjna” (nauki formalne) –
jednoznaczna bądź w sensie szerokim – niejednoznaczna, określająca istotę praw ilościowych oraz
„zależność funkcjonalna” (nauki empiryczne), tj. „funkcja spełniana przez x w celu podtrzymania
wyróżnionego stanu układu”, określająca istotę praw funkcjonalnych. Można powiedzieć, iż
wyrażenie „funkcją stanu rzeczy S2 jest stan rzeczy S1” oznacza, iż „stan rzeczy S1 determinuje
funkcjonalnie stan rzeczy S2”. Struktura funkcjonalna jest bowiem takim systemem relacyjnym, który
utrzymuje pewien wyróżniony stan dzięki temu, że odpowiednie jego składniki zachowują
odpowiadające im stany cząstkowe – zdeterminowane funkcjonalnie przez stan globalny.
25
Powyżej zaprezentowano podział praw na jakościowe i ilościowe oraz
ich dalsze związki z wybranymi typami praw. Przy czym:

Prawa jakościowe są najczęściej jednoznaczne. Ale nie zawsze. Mogą one


być również statystyczne w tym sensie, gdy stwierdzamy, że są one spełnione
nie we wszystkich wypadkach, lecz tylko w przeważającej większości
wypadków, tzn. z dużym prawdopodobieństwem (…). Weźmy formułowane w
socjologii prawo, że klasa panująca ma wyższy prestiż niż inne klasy społeczne
(tzn. członkowie innych klas woleliby należeć do tej klasy). I to prawo ma
charakter statystyczny, gdyż istnieją liczne wyjątki (np. rewolucjoniści lub
hippisi)23.

Prawa diachroniczne rozwojowe (ewolucyjne) na ogół są też jakościowe.


Niemniej czasami mogą przybierać postać ilościowych, o ile potrafimy w
miarę precyzyjnie określić długość trwania poszczególnych faz
rozwojowych rozważanego ciągu zdarzeń. Podobnie przedstawia się sprawa
w odniesieniu do praw diachronicznych przyczynowych (kauzalnych). W
większości przypadków są to prawa jakościowe. Jeżeli jednak potrafimy
określić na skali liczbowej zależność intensywności skutku od
intensywności przyczyny, wówczas należy zaliczyć je do praw ilościowych.

4) F u n k c j e p r a w . Prawa nauki spełniają różne funkcje. Do


najważniejszych należą trzy: eksplanacyjna, prognostyczna oraz
prakseologiczna.

1. Funkcja eksplanacyjna (łac. explanatio - wyjaśnienie). Funkcję tę


zalicza się do definicyjnych warunków prawa nauki. Polega ona na
udzielaniu odpowiedzi na pytanie: dlaczego zachodzi dane zdarzenie (fakt,
proces, zjawisko). Naukowe wyjaśnienie zdarzenia polega na
wyprowadzeniu zdania o tym zdarzeniu z innych zdań uznanych za
prawdziwe; innymi słowy, poszczególne zdarzenie wyjaśnia się jako
szczególny przypadek „prawa ogólnego”. Znany jest schemat wyjaśniania
zaproponowany w 1948 r. przez amerykańskich filozofów nauki: C. Hempla
i P. Oppenheima i stąd zwany schematem Hempla–Oppenheima. Zgodnie z
tym schematem (tzw. m o d e l n o m o l o g i c z n o - d e d u k c y j n y )
wyjaśnianie jest rodzajem rozumowania dedukcyjnego. Zdanie opisujące
dowolne zdarzenie, które chcemy wyjaśnić, nosi nazwę explanandum, zaś
zbiór zdań służących do jego wyjaśnienia – to explanans. Innymi słowy,
explanans – to zbiór przesłanek, a explanandum – konkluzja rozumowania
dedukcyjnego (wyjaśniania). Schemat ten można zapisać następująco:

23
W. Krajewski, Prawa nauki. Przegląd zagadnień metodologicznych, KiW, Warszawa 1982, s.326.
26
L1,L2,…,Ln
C1,C2,…,Cn
E

gdzie: L1,L2,…,Ln – uznane i przyjęte prawa ogólne; C1,C2,…,Cn –


warunki początkowe, czyli te fakty, które stanowią warunki zajścia
wyjaśnianego faktu (zjawiska, zdarzenia); E – wyjaśniany fakt (zjawisko,
zdarzenie). Część schematu nad kreską, to explanans, a pod kreską –
explanandum.
Oczywiście powyższy schemat Hempla–Oppenheimera, jako że należy
do rozumowań dedukcyjnych, jest schematem ścisłym, niezawodnym. W
praktyce naukowej stosuje się jednak także wyjaśnienia o charakterze
statystycznym (tzw. model s t a t y s t y c z n o - i n d u k c y j n y ),
stwierdzające jedynie pewne prawdopodobieństwa zachodzenia zdarzeń.
Występuje też mało precyzyjny rodzaj wyjaśniania zwany wyjaśnianiem
przez analogię. Polega ono zazwyczaj na sprowadzaniu zjawisk gorzej
znanych do lepiej znanych.

2. Funkcja prognostyczna (łac. prognostikon – zapowiedź; predyktywna,


łac. praedicto – przepowiednia). O ile funkcja wyjaśniania dotyczy zdarzeń
z przeszłości, o tyle funkcja prognostyczna skierowana jest na przyszłość i
sprowadza się do przewidywania zdarzeń przyszłych. Czasami jednak
metodologowie używają terminu „prognoza” w sensie szerokim. Obejmuje
on wówczas: „prognozę” w sensie węższym – przewidywanie zdarzeń
przyszłych; „postgnozę” – przewidywanie zdarzeń przeszłych oraz tzw.
„diagnozę pośrednią” – przewidywanie zdarzeń teraźniejszych24. Stwierdzić
należy, że wyjaśnianie stanowi podstawę do przewidywania w tym sensie,
iż jest ono budowane przy wykorzystaniu wcześniej ustalonych praw nauki,
wchodzących w skład określonej teorii naukowej. Wyjaśnianie tedy
zarówno w sensie logicznym jak i chronologicznym zawsze poprzedza
przewidywanie i, co więcej, doniosłe znaczenie procedury wyjaśniania
praktycznie realizuje się za pośrednictwem procedury przewidywania:

Właśnie ta proporcjonalna moc przewidywania nadaje wyjaśnianiu


naukowemu jego znaczenie tylko w tym stopniu, w jakim zdolni jesteśmy
wyjaśnić fakty empiryczne, możemy osiągnąć najwyższy cel badania
naukowego, a mianowicie – nie protokołować po prostu zjawisk naszego
doświadczenia, lecz – poznać, opierając się na nich, uogólnienia teoretyczne,
które pozwalają nam przewidzieć nowe zdarzenia25.

24
Zob. J. Such, M. Szcześniak, Filozofia nauki, UAM, Poznań 1997, s. 67.
25
C.G. Hempel, P. Oppenheimer, The Logic of Explanation [in:] Readings in the Philosophy of
Science, ed. by H. Feigel and M. Brodbeck, New York 1953, p. 323.
27
Istnienie wzmiankowanej mocy przewidywania, która nadaje procedurze
wyjaśniania metodologiczny sens uzasadnia się następująco. Prawo nauki
(szerzej: teoria naukowa) wyjaśnia pewne zdarzenia należące do
nieskończonej dziedziny przedmiotowej. Natomiast część tej dziedziny,
która dostępna jest poznaniu empirycznemu, z natury rzeczy zawsze jest
skończona. Z tego wynika, że dla każdego ustalonego prawa nauki (szerzej:
teorii) istnieje nieobserwowalna część wyjaśnianej dziedziny przedmiotowej
i właśnie w stosunku do tej części prawo nauki posiada potencjalną moc
przewidywania.
Istnieje tyle rodzajów przewidywania, co rodzajów praw nauki, na
podstawie których dokonuje się prognozowania. Każdy rodzaj praw nauki
umożliwia bowiem określony rodzaj prognozy, np. prognozy ilościowe są
możliwe wyłącznie w oparciu o prawa ilościowe. Z kolei prawa strukturalne
pozwalają przewidywać istnienie określonych zdarzeń oraz ich własności w
dowolnym punkcie czy przedziale na osi czasu, a więc zarówno w
przyszłości (prognoza w sensie węższym), jak w teraźniejszości (diagnoza
pośrednia) i w przeszłości (postgnoza). Najbardziej jednak oczywisty rodzaj
przewidywania, to przewidywanie na podstawie zależności kauzalnych
(praw przyczynowych). Nie należy wszakże stawiać znaku równości między
przyczynowością a przewidywalnością, ponieważ sugerowałoby to,
poniekąd w zgodzie z pozytywistyczną koncepcją wiedzy, do utożsamienie
prawa nauki z prawem przyczynowym - co w świetle zaprezentowanych
powyżej rozmaitych typów praw nauki – byłoby absurdalne.
Odrębny rodzaj prognoz to przewidywanie statystyczne, oparte na
wnioskowaniu uprawdopodobniającym, które dotyczy ogółu zdarzeń
danego typu, a nie każdego z nich z osobna. Prognozowanie statystyczne
szczególnie doniosłą rolę odgrywa w naukach społecznych. Oczywiście
polega ono na przewidywaniu ogólnych tendencji rozwojowych,
wyznaczonych przez zdarzenia o charakterze masowym. Przy czym, aby
prognoza miała naukową legitymizację, nie może wykraczać poza obszar
ważności prawa nauki, na podstawie którego jest formułowana; w
przeciwnym bowiem razie nie byłaby to naukowa prognoza, lecz proroctwo.

3. Funkcja prakseologiczna. Istota tej funkcji polega na zwiększaniu


stopnia sprawności działań ludzkich we wszystkich dziedzinach ich
realizacji. Szczególne znaczenie posiada w dziedzinie nauk społecznych.
Jednym z celów tych nauk wszak – poza czysto teoretycznym poznaniem -
jest doskonalenie, w sensie racjonalności i efektywności, funkcjonowania
poszczególnych systemów społecznych.

4) T e o r i e n a u k o w e . Naukowy obraz świata składa się z wielu


teorii funkcjonujących w rozmaitych obszarach wiedzy. Należy na wstępie
zauważyć, że termin „teoria” jest wieloznaczny. W jednym z podstawowych
znaczeń przez teorię rozumie się po prostu hipotezę oferującą
28
rozstrzygnięcie pewnego problemu badawczego (np. teoria o włoskim
pochodzeniu polskiego kronikarza Galla Anonima). W innym znaczeniu o
teorii mówią przedstawiciele nauk empirycznych, gdy operują terminami
(tzw. terminami teoretycznymi), których desygnaty nie są obserwowalne
zmysłowe, lecz stanowią użyteczne z jakichś względów konstrukty
teoretyczne (np. teorie osobowości). Z reguły jednak w metodologii teoria
na ogół oznacza każdy spójny i usystematyzowany, tj. powiązany
określonymi stosunkami logicznymi, zespół twierdzeń opisujących pewną
klasę zdarzeń.
Przez t e o r i ę rozumieć tedy będziemy logiczną całość, w której
wyróżnia się następujące elementy: 1) Twierdzenia naukowe (wśród nich
hipotezy oraz prawa nauki); zdania, z których są one zbudowane muszą
zawierać przynajmniej jeden termin teoretyczny, tj. taki, że denotuje on
własność nieobserwowalną. 2) Modele odzwierciedlające badany fragment
rzeczywistości. 3) Procedurę testowania teorii na skali: weryfikacja –
falsyfikacja.
Status poznawczy teorii - a więc kwestia tego, czy teorii (w
szczególności – zdaniom teoretycznym budujących twierdzenia naukowe)
przysługuje wartość logiczna: prawda lub fałsz – określa koncepcje teorii w
naukach społecznych. Wyróżnić można trzy podstawowe koncepcje:
deskryptywną, instrumentalistyczną oraz realistyczną26.

1. Deskryptywna koncepcja – spośród wielu funkcji podstawową jest


funkcja deskryptywna, która teoria opisuje przebieg zdarzeń
obserwowalnych w sposób możliwie prosty, ekonomiczny. Wedle E. Nagla:

Teoria jest skrótowym i eliptycznym sformułowaniem zależności łączących


poszczególne zdarzenia i własności obserwowalne i jakkolwiek dosłownie
wziętych stwierdzeń teoretycznych nie można właściwie traktować jako
twierdzeń prawdziwych albo fałszywych, to sama teoria może być jednak tak
charakteryzowana o tyle, o ile jest ona przekładalna na twierdzenia o
przedmiotach obserwowalnych27.

Tak więc zdaniom (teoretycznym) wchodzącym bezpośrednio w skład


teorii – w rozumieniu koncepcji deskryptywnej - nie przysługuje wartość
logiczna: prawda lub fałsz. Niemniej, skoro w tej koncepcji teoria opisuje
zdarzenia obserwowalne, to możliwy jest przekład zdań teoretycznych na
zdania faktualne (o faktach), którym wartość logiczna już przysługuje. W
praktyce jednak trudno jest dokonać jednoznacznego przekładu
poszczególnego zdania teoretycznego na zdanie faktualne. Dlatego też

26
Zob. E. Nagel, Struktura nauki, PWN, Warszawa 1970; E. Kałuszyńska, Modele nauk
empirycznych, Warszawa 1994; J. H. Turner, Struktura teorii socjologicznej, WN PWN, Warszawa
2004.
27
E. Nagel, Struktura nauki, PWN, Warszawa 1970, s. 112.
29
przyjmuje się osłabiony warunek, zgodnie z którym danemu zdaniu
teoretycznemu odpowiada nie pojedyncze zdanie faktualne, lecz pewien
zbiór równoważnych z nim logicznie zdań faktualnych.
Przykładem teorii ilustrującej koncepcję deskryptywną może być
p o z y t y w i z m . Wiąże się on ściśle z ogólnometodologicznymi
postulatami A. Comte’a (1789-1857). Są to następujące postulaty:
1. Nauka winna dążyć do zdobycia wiedzy pozytywnej, tj. pewnej,
ścisłej, pożytecznej, konstruktywnej.
2. Nauka może badać tylko to, co ujawnia się w doświadczeniu
(empirycznym – możliwe jest do zaobserwowania); w przypadku nauk
społecznych – tzw. fakty społeczne. Badacz powinien unikać problemów o
charakterze metafizycznym (filozoficznym).
3. Poznanie rzeczywistości winno być neutralne z punktu widzenia
sporów o wartości; nauka nie może formułować sądów wartościujących.
Badacz zjawisk społecznych musi zajmować postawę aksjologicznie
neutralną wobec poznawanej rzeczywistości.
4. Nauka zobowiązana jest dostarczać podstaw do przewidywania (mieć
charakter prognostyczny); nauki społeczne winna dostarczać wiedzę
niezbędną do kontroli procesów społecznych. Rezultaty badawcze winny
mieć wartość użytkową.
W tym celu, aby możliwa była realizacja powyższych postulatów - nauka
społeczna winna upodobnić swój warsztat badawczy do przyrodnika i
posługiwać się następującymi metodami badawczymi: obserwacją,
eksperymentem, analizą porównawczą, a ponadto stosować specyficzną dla
nauk społecznych metodę – analizę historyczną.
Do metodologii A. Comte’a nawiązuje XX-wieczna odmiana
pozytywizmu, zwana neopozytywizmem albo Kołem Wiedeńskim. Do
głównych przedstawicieli tego kierunku w dziedzinie nauk społecznych
należy zaliczyć Otto Neuretha (1882-1945), George’a Andrew Lundberga
(1895-1966) i Paula Felixa Lazarsfelda (1901-1976). Neopozytywizm
akceptuje wszystkie tezy postulaty pozytywizmu, a ponadto głosi
dodatkowe:
Stosowanie właściwych metod i technik jest sprawą fundamentalną w
badaniach społecznych; metodologia swą rangą przewyższa teorię zjawisk
społecznych.
1. Wyłącznie wiedza skwantyfikowana (wyrażona w formie jednostek
pomiaru ilościowego) może być uznana za wiedzę naukową, rzetelną,
prawomocną. W związku z tym w każdym badaniu należy wykorzystywać
takie metody, które umożliwiają pomiar badanych zjawisk społecznych z
matematyczną precyzją.
2. Badacz powinien precyzyjnie formułować definicje pojęć, jakimi się
posługuje (np. definicja osobowości społecznej).
3. Poznawanie zjawisk społecznych powinno być upodobnione do badań
prowadzonych przez fizyków (tzw. fizykalizm - przeciwieństwo
30
organicyzmu, w myśl którego poszczególne podsystemu społeczeństwa
działają na wzór podsystemów organizmu biologicznego).
Wzorując się na metodologii nauk fizykalnych Georg A. Lundberg
sformułował taki oto wniosek: w n a u k a c h s p o ł e c z n y c h k a ż d y
przedmiot badań winien podlegać pomiarowi, w
przeciwnym bowiem razie stanowi tylko byt pozorny, którym nie warto się
zajmować. A zatem cokolwiek nie podlega pomiarowi, po prostu nie
istnieje. Ponadto przedmiotem badań nauk społecznych powinny być
zachowania konkretnych jednostek, a nie jakaś bliżej nieokreślona całość
społeczna. Z tego wynika, że materiały, które dotyczą przeszłości, nie są
przydatne w badaniu teraźniejszości; pogląd taki nosi nazwę ahistoryzmu. Z
kolei zjawiska świadomości konkretnych jednostek (np. opinie,
przekonania) mogą być przedmiotem badań pod warunkiem, że zostaną
uzewnętrznione przez jednostkę (np. w formie wypowiedzi).

2. Instrumentalistyczna koncepcja – teoria, nawet jeśli jest całkowicie


poprawna, nie opisuje niczego i tym samym zdania ją budujące nie
podlegają kwalifikacji logicznej (nie są prawdziwe ani fałszywe). Teoria
służy jedynie jako narzędzie systematyzacji zdarzeń oraz przewidywania
zdarzeń przyszłych na podstawie przeszłych (funkcja prognostyczna):

Teoria uważana jest za regułę lub zasadę analizowania i przedstawiania


symbolicznego pewnych danych potocznego doświadczenia, a zarazem za
narzędzie wyprowadzania jednych zdań obserwacyjnych z innych28.

Twierdzenia teorii nie są zdaniami w sensie logicznym i stąd nie można


ich stosować w charakterze przesłanek wyjaśniających jakieś zdania
obserwacyjne (faktualne). Potraktowanie więc teorii jako zespołu reguł
symbolicznego reprezentowania danych doświadczenia jest równoznaczne z
odmówieniem jej funkcji wyjaśniających i tym samym zasadności
formułowania w jej obrębie praw nauki, te bowiem z definicji wymagają
spełniania nie tylko funkcji prognostycznej (przewidywania), lecz również
funkcji eksplanacyjnej (wyjaśniającej).
Za przykład może posłużyć k u l t u r a l i z m Floriana Znanieckiego
(1882-1958) - polskiego socjologa. Leży on w nurcie tzw. socjologii
humanistycznej. Nurt ten ukształtował się pod przemożnym wpływem
właśnie F . Znanieckiego oraz Amerykanina Williama Thomasa (1863-
1947). Rezultatem ich współdziałania było pięciotomowe dzieło
zatytułowane The Polish peasant in Europe and America (Chłop polski w
Europie i Ameryce). Ta pozycja wydawnicza uznana została za jedną z
najważniejszych w literaturze socjologicznej XX wieku. Stosunkowo
niewielka część wspomnianego dzieła traktuje o metodologii, ale to ta część

28
Tamże, s. 122.
31
wywarła doniosły wpływ na nauki społeczne. Punktem wyjścia rozważań
zawartych w omawianej pracy było pytanie – czy możliwa jest ścisła nauka
o zjawiskach społecznych? Odpowiedź autorów jest pozytywna, ale z
zastrzeżeniem, że uzna się metody badań społecznych za specyficzne,
odmienne od metod poznawczych stosowanych w naukach przyrodniczych.
Swoistość metodologiczną nauk społecznych, w szczególności
socjologii, można ująć w następujące tezy:
1. W naukach społecznych należy łączyć teorię z praktyką, tj. tezy
teoretyczne na temat rzeczywistości społecznej z badaniami empirycznymi.
Zajmowanie się samą teorią byłoby uprawianiem tzw. socjologii
gabinetowej. Z kolei poprzestawanie na samych badaniach empirycznych -
bez próby budowania teorii - czyni je prostym opisem zjawisk społecznych.
2. Badania empiryczne winny opierać się w tej samej mierze na
tradycyjnych metodach (np. obserwacja, eksperyment) jak również na
dokumentach osobistych (np. autobiografie, listy, pamiętniki, dzienniki,
wspomnienia); metoda ta znalazła zastosowanie w tzw. case study method
(studium przypadku) i dokumentach urzędowych (np. księgi kościelne, akta
sądowe, zapisy notarialne, programy nauczania, zarządzenia). metody te
stanowią istotny rys metodologii na gruncie socjologii humanistycznej.
3. Wszelkie zjawiska społeczne należy rozpatrywać w kontekście
całokształtu kultury danego społeczeństwa. w szczególności zachowanie
jednostek czy grup społecznych należy analizować w powiązaniu z
warunkami, w jakich one mają miejsce.
4. W naukach społecznych winno się badać nie tylko fakty społeczne (jak
postulowali pozytywiści i neopozytywiści), lecz również znaczenia tych
faktów dla całokształtu życia społecznego.
Kulturalizm to teoria czynności i wartości postulująca rozpatrywanie
zjawisk społecznych na tle całokształtu kultury z uwzględnieniem tzw.
współczynnika humanistycznego. Kulturę rozumie Znaniecki jako zbiór
wartości, zwłaszcza społecznych. Nie jest tak, że wartości istnieją w świecie
„obok” rzeczy, nie są też rzeczami, które ludzka działalność wyposaża w
jakieś cechy dodatkowe, albowiem w stosunku do rzeczy przysługuje im
bezwzględna pierwotność. Świat po prostu jest dany człowiekowi pod
postacią wartości doświadczanie świata nie jest bezpośrednie, lecz oparte na
refleksji. Przy czym człowiek na mocy refleksji dokonuje artykulacji
świata, wiąże jedne treści doświadczenia z innymi i dopiero w tym
powiązaniu przedmioty doświadczenia, a więc rzeczy, zaczynają dlań
istnieć realnie. Liczba takich powiązań (tj. potencjalnych znaczeń każdego
zespołu treści doświadczenia) jest nieograniczona; przedmiot konkretny,
przedmiot taki, jaki istnieje w całej swej treści i znaczeniu, zawiera w sobie
to wszystko, co się do niego włącza, gdy go się ujmuje jako składnik
takiego lub innego systemu. Wobec tego próżne są usiłowania, aby dotrzeć
do jakiejś jednej „istoty rzeczy”. możliwych jest wiele różnych powiązań,
które są jednakowo prawomocne.
32
Niemniej proces nadawania znaczeń, kreowania wartości czy też proces
doświadczania świata nie jest dowolny, a to z tego powodu, że człowiek jest
istotą historyczną, dysponującą różnorodnym doświadczeniem z
przeszłości. Każde doświadczenie zawiera więc sugestię określonych
powiązań, uwarunkowaną historią człowieka, ucieleśnioną w kulturze, która
istnieje poza sferą indywidualnego doświadczenia i w niej znaczenia ulegają
swego rodzaju obiektywizacji. Przekonanie, że nie istnieje rzeczywistość
niezależna od człowieka przetworzył Znaniecki w koncepcję współczynnika
humanistycznego. Potoczna wiedza o teorii Znanieckiego ześrodkowana jest
wręcz wokół tezy, że zalecał on ujmowanie rzeczywistości społecznej ze
współczynnikiem humanistycznym. Należy to rozumieć w ten sposób, iż nie
tylko chodziło mu o zalecanie , ile o to, że rzeczywistość społeczna w żaden
inny sposób ujęta być nie może. Współczynnik humanistyczny jest to
znaczenie, jakie pewnym przedmiotom, czynnościom bądź zjawiskom
nadają ludzie wchodzący w skład określonych zbiorowości społecznych.
Przy czym posiada on dwojaki charakter: ontologiczny bądź
metodologiczny. W wersji ontologicznej współczynnik humanistyczny
oznacza cechę kultury polegającą na tym, że wszelkim przedmiotom,
czynnościom bądź zjawiskom ludzie wchodzący w skład określonych
zbiorowości społecznych nadają pewne znaczenia. Np. określone rytuały
religijne mają wartość (znaczenie) jedynie dla wyznawców danego kultu.
Natomiast w wersji metodologicznej oznacza dyrektywę nakazującą
badaczowi zjawisk kultury uwzględniać znaczenia, jakie pewnym
przedmiotom, czynnościom bądź zjawiskom nadają ludzie wchodzący w
skład określonych zbiorowości społecznych. Np. określone rytuały religijne
są w pełni czytelne jedynie dla uczestników znających całość kontekstu, w
jakim one przejawiają się w danym kulcie.

3. Realistyczna koncepcja – teoria opisuje cechy (ogólne lub szczególne)


rzeczywistości empirycznej (w szczególności: rzeczywistości społecznej);
może być adekwatnym odzwierciedleniem językowym rzeczywistości
obiektywnej, zewnętrznej względem podmiotu poznającego. Teoria tedy – o
ile tylko spełnia wymóg testowalności empirycznej – jest zbiorem zdań
faktualnych: prawdziwych bądź fałszywych.
Wszystkie teorie naturalistyczne nauk społecznych spełniają postulaty
koncepcji realistycznej. N a t u r a l i z m , mówiąc ogólnie, wszystkie
zjawiska i procesy społeczne stara się interpretować na wzór zjawisk i
procesów przyrodniczych. Istnieje wiele teorii naturalistycznych w naukach
społecznych. Do ważniejszych należą: organicystyczne (społeczeństwo na
podobieństwo organizmu biologicznego), darwinistyczne (przeniesienie na
teren społeczny biologicznych kategorii walki o byt i doboru naturalnego),
antropologiczne (tłumaczenie zjawisk społecznych czynnikami rasowymi),
demograficzne (podstawowymi czynnikami determinującymi rozwój
społeczeństwa jest gęstość zaludnienia oraz przyrost naturalny) czy
33
geograficzne (warunki środowiska geograficznego wyznaczają strukturę i
rozwój społeczeństwa).

1.4. Uzasadnianie praw naukowych

Uzasadnianie naukowe należy do najważniejszych procedur naukowych.


Znany jest postulat krytycyzmu, określany tradycyjnie zasadą racji
dostatecznej, sformułowany przez G. W. Leibniza (1646–1716). Głosi on,
że należy przyjmować za prawdziwe tylko takie zdania, które są
dostatecznie uzasadnione. Uzasadnianie może być poprawne bądź
niepoprawne, może być pełne bądź cząstkowe, tzn. zachodzić jedynie w
jakimś stopniu. Wiedza naukowa jest zatem stopniowalna pod względem
mocy uzasadnienia. Co więcej, stopniowaniu, pozostającemu w korelacji z
uzasadnieniem, podlega również pewność, z jaką naukowcy głoszą dowolne
twierdzenia naukowe. Wyrazem tego jest znana w metodologii nauk zasada
racjonalności przekonań, głosząca, że stopień przekonania z jakim głosimy
daną tezę, powinien odpowiadać stopniowi jej uzasadnienia.
Biorąc powyższe pod uwagę należy stwierdzić, iż uzasadnienie naukowe
prawa czy teorii nie musi wcale oznaczać wykazania ich prawdziwości; na
ogół prawa i teorie są potwierdzone jedynie w pewnym zakresie swej
stosowalności. Ustalanie prawdziwości zdań, będących twierdzeniami bądź
wchodzącymi w skład teorii nosi nazwę w e r y f i k a c j i , tzw. całkowite
uzasadnianie pozytywne; ustalanie fałszywości zaś – f a l s y f i k a c j i , tzw.
całkowite uzasadnianie negatywne. Natomiast procedura częściowego
uzasadniania pozytywnego nosi nazwę k o n f i r m a c j i lub koroboracji
(częściowe potwierdzenie czy też wzmocnienie danego twierdzenia), zaś
uzasadniania negatywnego – dyskonfirmacji (częściowe
zmniejszanie stopnia uzasadnienia).
Istnieją dwie podstawowe metody uzasadniania w naukach empirycznych
(w tym również społecznych – przy założeniu, iż uznaje się możliwość
istnienia praw społecznych): indukcyjna (indukcjonizm) i hipotetyczno-
dedukcyjna (hipotetyzm). Jeśli wyobrazimy sobie pewne continuum, na
krańcach którego znajduje się weryfikacja i falsyfikacja, to metoda
indukcyjna postuluje weryfikację, zaś hipotetyczno-dedukcyjna w wersji
skrajnej – falsyfikację, zaś jej wersje umiarkowane – pozostałe warianty, tj.
różne stopnie konfirmacji czy też dyskonfirmacji.

1) I n d u k c j o n i z m – przekonanie, że podstawową metodą nauk


empirycznych jest indukcja (enumeracyjna niewyczerpująca). Wedle
indukcjonizmu punktem wyjścia nauki są zdania obserwacyjne, będące
sprawozdaniem z doświadczenia sensualnego badacza. W oparciu o nie
badacz wypowiada twierdzenia naukowe. Podział twierdzeń na naukowe i
nienaukowe wyznacza tzw. kryterium demarkacji, którym jest właśnie
empiryczna sprawdzalność. Powstaje pytanie, w jaki sposób – na gruncie
34
indukcjonizmu - można uzyskać zdania ogólne (twierdzenia) ze zdań
szczegółowych, bazujących na obserwacji. Odpowiedź jest następująca -
twierdzenia naukowe są wyprowadzane ze skończonej ilości szczegółowych
zdań obserwacyjnych za pomocą tzw. zasady indukcji:

Proponuję następujące sformułowanie zasady indukcji: „Jeżeli duża ilość


przedmiotów A została zaobserwowana i jeżeli wszystkie bez wyjątku
zaobserwowane A posiadały własność B, to wszystkie A mają własność B” (…)
W tym miejscu powstaje oczywiste pytanie – w jaki sposób można uzasadnić
zasadę indukcji? Jeżeli obserwacja dostarcza pewnego zbioru zdań
obserwacyjnych, które stanowią trwały punkt wyjścia do budowy nauki, to w
jaki sposób rozumowanie indukcyjne może prowadzić do niezawodnej, a nawet
prawdziwej wiedzy naukowej? Aby odpowiedzieć na to pytanie, indukcjonista
obiera dwie drogi. Albo stara się uzasadnić tę zasadę przez odwołanie się do
logiki, albo przez odwołanie się do doświadczenia, do czego skłania go
tendencja empirystyczna, leżąca u podłoża całej indukcjonistycznej teorii
nauki29.

Od dawna wielu filozofów występowało z krytyką indukcjonizmu; w


szczególności wiele wątpliwości budziła zasada indukcji. Trudność
związaną z uzasadnieniem indukcji tradycyjnie określa się mianem
problemu indukcji. Po pierwsze – uzasadnianie indukcyjne (indukcja
enumeracyjna niewyczerpująca) nie należy do rozumowań niezawodnych
logicznie. Może bowiem być tak, że przesłanki rozumowania są prawdziwe,
a wniosek fałszywy. Np. Z tego, że wszystkie zaobserwowane łabędzie w
pewnym przedziale czasu są białe, nie wynika logicznie wniosek, że
wszystkie łabędzie są białe; w późniejszym przedziale czasu możliwa jest
wszak obserwacja łabędzi w innym kolorze. Po drugie - odwołanie się do
doświadczenia również nie uprawomocnia zasady indukcji, co wykazał już
szkocki myśliciel D. Hume (1711-1776). Jeżeli więc zasada indukcji
okazała się skuteczna w sytuacji S1 oraz okazała się skuteczna w sytuacji S2
itd., to z tego w żaden sposób nie wynika logicznie to, że zasada indukcji
jest skuteczna w każdej sytuacji. Zdanie ogólne o skuteczności zasady
indukcji jest wnioskiem z pewnej liczby zdań szczegółowych (przesłanek)
stwierdzających jej skuteczność w poszczególnych przypadkach. A tego
typu rozumowanie, jak wiadomo, jest logicznie zawodne. Wedle D. Hume’a
indukcjonizm nie jest możliwy do uzasadnienia ani na gruncie logiki, ani na
gruncie doświadczenia; wiara w prawdziwość twierdzeń naukowych (praw i
teorii) stanowi wyłącznie efekt nawyku psychicznego, który nabywamy
wskutek powtórzeń odpowiednich obserwacji.
Istnieje co prawda jeszcze inna droga ocalenia programu
indukcjonistycznego. Polega ona na przypisywaniu twierdzeniom nauki

29
A. Chalmbers, Czym jest to, co zwiemy nauką? Siedmioróg, Wrocław 1997, s. 35.
35
wartości prawdopodobieństwa30. Wnioski indukcji enumeracyjnej
(niezupełnej) nie uznaje się za pewne, lecz jedynie za prawdopodobne;
wiedza naukowa nie jest wiedzą udowodnioną, jest jedynie wiedzą
prawdopodobnie prawdziwą. Wobec tego należy sformułować
probabilistyczną wersję zasady indukcji:

Jeżeli duża ilość przedmiotów A została zaobserwowana w różnorodnych


okolicznościach i jeżeli wszystkie bez wyjątku zaobserwowane przedmioty A
posiadały własność B, to wszystkie A prawdopodobnie posiadają własność B31.

Jednakże probabilistyczna wersja nie rozwiązuje w żaden sposób


problemu indukcji, ponieważ nadal na podstawie skończonej ilości
obserwacji uzyskuje się konkluzję, która jest prawdziwa tylko z jakimś
stopniem prawdopodobieństwa. Wersja ta jest obciążona dokładnie tym
samym błędem, jakim była obciążona zwykła zasada indukcji. Wielu
metodologów próbowało znaleźć niezawodną metodę obliczania tego
prawdopodobieństwa, czyli opracować tzw. logikę indukcji. Wysiłki te nie
zostały jednak uwieńczone sukcesem w tym sensie, że takiej ogólnej
metody nie znaleziono. Tylko dla niektórych rozumowań indukcyjnych
skonstruowano w miarę zadowalające sposoby obliczania
prawdopodobieństwa konkluzji.
Klasyczny indukcjonizm (F. Bacon, J. S. Mill) nie odróżnia odkrywania
praw od ich uzasadniania. W drodze indukcji odkrywa się prawa i zarazem
je uzasadnia. Później zaczęto jednak odróżniać te kwestie. Tak więc D.
Hume np. uważał, że w nauce dochodzi się do praw w drodze indukcji,
jednakże na tej samej drodze nie można ich uzasadniać; w efekcie
sceptycznie oceniał możliwości osiągania prawdziwego poznania w
naukach empirycznych. I. Kant sformułował dwa pytania: 1. Jak faktycznie
przebiega proces poznania? (Quid facti?) oraz 2. Co może prawa nauki
uprawomocnić? (Quid iuris?). W jego przekonaniu uprawomocnienie tkwi
w pojęciach, kształtowanych przez aprioryczne formy ludzkiego umysłu;
sceptycyzmowi Hume’a przeciwstawił w ten sposób swój aprioryzm.
Na początku XX wieku E. Husserl (1859-1938), twórca fenomenologii,
dowodził, że logiczne uzasadnianie nie ma nic wspólnego z
psychologicznym przekonaniem. Ten antypsychologizm przejęli od
Husserla neopozytywiści z Koła Wiedeńskiego (empiryzm logiczny) w
przekonaniu, że kwestia, na jakiej drodze dochodzi się do twierdzeń należy
raczej do psychologii, aniżeli metodologii. Filozof niemiecki Hans
Reichenbach (1891-1953) - założyciel Koła Berlińskiego, związany też z

30
Do nich należy m.in. tzw. behawiorystyczna interpretacja indukcji, dokonana przez
amerykańskiego matematyka pochodzenia polskiego J. Spława-Neymana (1894 – 1981), w myśl
której reguły indukcji są regułami decyzji dotyczącymi działania, regułami pozwalającymi określić
jedynie stopień prawdopodobieństwa stanu wyjściowego, od którego zależą skutki podjętych działań.
31
A. Chalmbers, Czym jest to, co zwiemy nauką? Siedmioróg, Wrocław 1997, s. 40.
36
Kołem Wiedeńskim - explicite wprowadził rozróżnienie pomiędzy
„kontekstem odkrycia” a „kontekstem uzasadnienia”:

Mistyczna interpretacja metody hipotetyczno-dedukcyjnej jako


irracjonalnego zgadywania wynika z pomieszania kontekstu odkrycia z
kontekstem uzasadniania. Sam fakt odkrycia wymyka się analizie logicznej; nie
istnieją reguły logiczne pozwalające stworzyć „maszynę do odkryć”, która
przejęłaby na siebie twórczy wysiłek umysłu ludzkiego. Ale też nie należy do
zadań logiki opisywanie odkryć naukowych. Zadanie logiki sprowadza się do
analizy związku między danymi faktami i teorią przedstawioną jako ta, która
ma te fakty wyjaśniać. Innymi słowy, logik zajmuje się wyłącznie
zagadnieniem uzasadniania. A uzasadnianie teorii przy pomocy danych
obserwacyjnych jest przedmiotem teorii indukcji32.

Jak pisze H. Feigl:

Zgodnie z szeroko przyjętą terminologią H. Reichenbacha, badania tego


rodzaju (tzn. socjologii, psychologii i historii nauki – W.W.S.) dotyczą
kontekstu odkrycia, natomiast analizy przeprowadzone przez filozofów nauki
dotyczą kontekstu uzasadniania. Czym innym jest pytanie, w jaki sposób
dochodzimy do nowych przekonań naukowych i jakie czynniki społeczno-
kulturowe wpływają na ich akceptację i odrzucenie, a czym innym pytanie,
jakie to ogólne i obiektywne wzorce i reguły rządzą sprawdzaniem,
potwierdzaniem, obalaniem, akceptowanie i odrzucaniem przekonań w nauce33.

Tak więc przez k o n t e k s t o d k r y c i a rozumie się opis tego, jak


faktycznie przebiega proces badań empirycznych, formułowania praw i
teorii naukowych, natomiast przez k o n t e k s t u z a s a d n i a n i a –
wszelkie sposoby uprawomocnienia tego procesu, praw oraz teorii
naukowych, a w konsekwencji formułowanie norm i zaleceń co do tego, jak
należy postępować, aby uzyskać prawdziwe - albo przynajmniej zbliżone do
prawdziwego - poznanie. Podobne podejście co zaawansowany
indukcjonizm (poczynając od neopozytywizmu; pozytywizmu logicznego)
w kwestii kontekstu odkrycia i uzasadniania, prezentuje druga metoda
uzasadniania w naukach empirycznych – hipotetyzm.
Należy zdecydowanie podkreślić, że przeciwstawienie kontekstu
odkrycia i kontekstu uzasadniania jest zdeterminowane
antypsychologistycznym stanowiskiem w logice, którego rzecznikiem był
neopozytywizm. Tak jak prawa (tautologie, tezy) logiki nie mówią nic o
tym, jak faktycznie przebiega proces myślowy, lecz jak powinno się myśleć,
aby myśleć pod względem formalnym poprawnie, tak też filozofia nauki
(metodologia) nie mówi o tym, jak naukowcy uprawiają naukę, lecz o tym,

32
H. Reichenbach, Powstanie filozofii naukowej, KiW, Warszawa 1960, s. 238.
33
H. Feigel, Philosophy of Science [w:] Philosophy, Prentice Hall, 1965, s. 472.
37
jak powinno się ją uprawiać, aby zachowane były postulaty racjonalności w
uprawianiu nauki.

2) H i p o t e t y z m (antyindukcjonizm, dedukcjonizm) – przekonanie, że


podstawową metodą nauk empirycznych jest tworzenie hipotez oraz ich
sprawdzanie. Wszelkie obserwacje i eksperymenty empiryczne zakładają
bowiem formułowanie jakichś hipotez, a ich wyniki zawsze interpretuje się
w świetle pewnych teorii; nie istnieją „czyste dane doświadczenia”, „nagie
fakty” czy też „neutralne spostrzeżenia”. Aby jednak pokazać, że hipoteza
prowadzi do konsekwencji zgodnych z obserwacjami, należy zastosować
wnioskowanie dedukcyjne. Hipotetyczno-dedukcyjna procedura wymaga
tedy, aby z postawionej hipotezy34 wyprowadzić dedukcyjnie z wcześniej
uznanych praw (i ewentualnie faktów) wnioski i poddać je kontroli
doświadczenia.

1. Hipotetyzm falsyfikacyjny K.R. Poppera (1902-1994;


falsyfikacjonizm). Przeciwko indukcjonizmowi wystąpił w 1935 r. K.R.
Popper w swej rozprawie zatytułowanej Logika odkrycia naukowego (Logik
der Forschung). Po pierwsze – występuje w niej przeciwko wszelkim
wyjaśnieniom genetycznym: psychologicznym, historycznym czy
socjologicznym odmawiając tym samym epistemologicznego znaczenia
wszelkim dociekaniom w obrębie „kontekstu odkrycia”. Stawianie hipotez
uważa za proces twórczy; brak tu jakichkolwiek reguł, dopuszczalne są
wszelki pomysły, na jakie pozwala intuicja oraz inwencja badacza. Po
drugie – kwestionuje tezę, iż właściwą metodą nauk empirycznych może
być indukcja. Po trzecie – uznaje za racjonalną metodę, która jest i powinna
być stosowana w nauce – jedynie metodę dedukcyjną: wysuwania i krytyki
hipotez. Z hipotezy wyprowadza się dedukcyjnie konsekwencje, które
następnie są testowane w doświadczeniu. Po czwarte – doświadczenie nie
pozwala na weryfikację hipotezy (wykazanie prawdziwości), ale pozwala na
jej falsyfikację (wykazanie fałszywości); fałszywość wydedukowanej
konkluzji wystarcza bowiem do uznania fałszywości którejś z przesłanek:

Naturalnie tylko wówczas traktuję pewien system jako empiryczny lub


naukowy, gdy poddaje się on sprawdzeniu w doświadczeniu. Z rozważań tych
wynika, że za kryterium demarkacji należy przyjąć nie weryfikowalność, lecz
falsyfikowalność systemu. Innymi słowy, nie wymagam by jakiś system
naukowy można było wybrać raz na zawsze w sensie pozytywnym, wymagam
natomiast, by miał on taką formę logiczną, aby testy empiryczne pozwalały na
decyzję w sensie negatywnym: musi być możliwe obalenie empirycznego
systemu naukowego przez doświadczenie. (Zatem zdania: :Jutro będzie tu
padało lub nie będzie padało” nie uznamy za empiryczne po prostu dlatego, że

34
Hipoteza mogła zawierać – poza terminami empirycznymi – także terminy teoretyczne, które
powinny być wprowadzane w formie tzw. postulatów znaczeniowych.
38
nie można go obalić, natomiast uznamy za empiryczne zdanie „Jutro będzie tu
padało”)35.

Tak więc, wedle Poppera, wszelkie twierdzenia, jakie występują w nauce


(nawet jednostkowe i sprawozdawcze), mają charakter hipotetyczny i jako
takie są odwoływalne. Dla falsyfikacjonisty nauka to zbiór poszczególnych
hipotez, które stawia się po to, aby opisać i wyjaśnić pewien fragment
rzeczywistości. Hipoteza wszakże, jeśli ma być elementem wiedzy
racjonalnej (naukowej), musi spełniać podstawowy warunek, jakim jest
wymóg falsyfikacji. A jest falsyfikowalna wówczas, gdy logicznie możliwe
jest istnienie zdania obserwacyjnego stwierdzającego jakiś fakt, który jej
przeczy. Na tej właśnie podstawie Popper utrzymywał, że psychoanaliza i
marksizm nie spełniają rygorów naukowości – nie ma bowiem takich
faktów, których wymienione teorie nie byłyby w stanie wyjaśnić pozostając
w zgodzie z tezami obowiązującymi w obrębie tych teorii.
Weźmy jako przykład psychoanalizę. Otóż zdaniem jej zwolenników –
jest to metoda umożliwiająca wgląd w podświadomość (nieświadome
rejony ludzkiej psychiki). Jeśli jednak poprosić psychoanalityków o podanie
precyzyjnego kryterium, które rozgranicza świadomość od
podświadomości, to odpowiadają oni natychmiast, że tego rodzaju
krytyczny sceptycyzm wobec istnienia sfery podświadomej jest wyrazem
nieświadomego oporu osoby zadającej owo pytanie. W dalszej kolejności
świadczy to o jej licznych kompleksach i braku odwagi, aby skonfrontować
się z tym wszystkim, co w niej jest nieświadome i wyparte. Tym samym –
jak zauważa Popper – z psychoanalitykami w ogóle nie sposób prowadzić
merytorycznej dyskusji. Na identycznej zasadzie funkcjonują rozliczne
koncepty psychologiczne: (1) X się rozwodzi? – To dlatego, że X pochodzi z
rozbitej rodziny i kompulsywnie powiela negatywne wzorce. X dba o
rodzinę i jest szczęśliwy? – To dlatego, że X pochodzi z rozbitej rodziny i
kompulsywnie odrzuca negatywne wzorce; (2) X jest alkoholikiem? - To
dlatego, że ojciec X-a był alkoholikiem, a X podświadomie powiela
negatywny wzór. X jest abstynentem? – To dlatego, że ojciec X-a był
alkoholikiem, a X podświadomie odrzuca negatywny wzór.

2. Hipotetyzm paradygmalny Th.S. Kuhna (1922-1996). Th.S. Kuhn


kwestionuje po pierwsze - falsyfikacyjną teorię Poppera, głoszącą, że teorię
należy odrzucić, gdy przeczy jej choćby jeden fakt opisany w zdaniu
obserwacyjnym i po drugie – tezę o niezależności kontekstu uzasadnienia
od kontekstu odkrycia; uzasadnianie teorii (praw) nie jest procesem czysto
racjonalnym, ponieważ w jakiejś części warunkuje je sytuacja społeczna czy
kulturowa (kontekst odkrycia). Całokształt twierdzeń nauki i metod
badawczych w pewnej dziedzinie obowiązujący na określonym etapie

35
K.R. Popper, Logika odkrycia naukowego, PWN, Warszawa 1977, s. 39.
39
rozwoju nauki, określa Kuhn mianem p a r a d y g m a t u 36. Jedno ze
sformułowań tego terminu przez Kuhna wygląda następująco:

Termin „nauka normalna” oznacza w niniejszych rozważaniach badania


wyrastające z jednego lub wielu osiągnięć naukowych przeszłości, które dana
społeczność uczonych aktualnie akceptuje i traktuje jako fundament swej
dalszej praktyki. Z tych podstawowych osiągnięć – wprawdzie rzadko w ich
formie oryginalnej – zdają dzisiaj sprawę podręczniki, zarówno elementarne,
jak akademickie (…). Te i liczne inne dzieła wyznaczały w swoim czasie
uprawnione problemy i metody badawcze w danej dziedzinie dla kolejnych
pokoleń uczonych. Nadawały się do tego celu, gdyż miały dwie istotne wspólne
cechy. Reprezentowany w nich dorobek był ostatecznie oryginalny i atrakcyjny,
aby odwrócić uwagę stałej grupy zwolenników danej teorii od konkurencyjnych
sposobów uprawiania nauki. Jednocześnie dorobek ten był na tyle otwarty, że
pozostawał nowej szkole najrozmaitsze problemy do rozwiązania. Osiągnięcia
odznaczające się wskazanymi cechami będę odtąd nazywał paradygmatami37.

Zasadnicze wątpliwości krytyków hipotetyzmu paradygmalnego budziło


kluczowe dla tej koncepcji pojęcie paradygmatu. Po pierwsze –
wskazywano, że podpada ono pod zarzut błędnego koła. Z jednej strony
paradygmat to zbiór wspólnych założeń i przekonań jakiejś grupy badaczy,
a z drugiej ową grupę badaczy definiuje się poprzez założenia i przekonania
naukowe, którymi się kierują. Po drugie – nawet w obrębie jednego
paradygmatu badawczego istnieją kierunki i szkoły kierujące się rozmaitymi
wariantami przyjętych założeń, które w efekcie mogą prowadzić do
diametralnie różnych wyników poznawczych.
Nauka - wedle określenia Kuhna - „normalna” i „dojrzała” jest rządzona
przez jeden paradygmat i w głównej mierze polega na „rozwiązywaniu
łamigłówek”, mających na celu doprowadzenie do zgodności pomiędzy
wszystkimi aspektami obiektu badań a paradygmatem na poziomie
szczegółowych ustaleń. W przypadku, gdy „łamigłówki” nie udaje się
rozwiązać, uznaje się ją za tzw. anomalię, nigdy zaś za falsyfikację teorii, co
umożliwiałoby wyrzucenie jej tym samym z obszaru panującego
paradygmatu. Dopiero w przypadku poważniejszego kryzysu (falsyfikacja
paradygmatu) odrzuca się cały paradygmat (ma miejsce rewolucja), a na
jego miejsce tworzy się nowy. Według Kuhna bowiem, nowa teoria
zastępująca starą, należącą do odmiennego paradygmatu, winna być lepsza,
36
Termin „paradygmat” (gr. paradeigma - wzorzec) wprowadził do filozofii w XVIII w. G.Ch.
Lichtenberg z Getyngi na określenie fundamentalnych wzorców wyjaśnień w naukach fizykalnych,
nad którymi nadbudowane są kompleksowe sieci wyjaśnień. Następnie termin ten wykorzystał L.
Wittgenstein jako zamienny dla terminu „stereotyp filozoficzny”, który funkcjonuje jako wzorzec
kierujący myśl w zamierzonym kierunku. Dopiero jednak pod wpływem koncepcji Kuhna zrobił on
prawdziwą furorę w metodologii w znaczeniu akceptowanych przez uczonych wzorów uprawiania
nauki, z których wyłania się specyficzna, spójna tradycja badań naukowych na określonym szczeblu
jej rozwoju.
37
Th.S. Kuhn, Struktura rewolucji naukowych, Aletheia, Warszawa 2001, s. 33.
40
tj. skuteczniejsza, gdyż winna umożliwiać rozwiązywanie większej liczby
„łamigłówek”; cechować ją musi także prostota, elegancja, spójność
wewnętrzna oraz zgodność z teoriami formułowanymi w obrębie
pokrewnych dyscyplin naukowych.

3. Hipotetyzm heurystyczny I. Lakatosa (1922-1974). Imre Lakatos


zgadza się z Th. Kuhnem, iż uczeni nigdy nie odrzucają teorii tylko dlatego,
że znają jakiś fakt, który jej przeczy. Koniecznym warunkiem odrzucenia
teorii jest pojawienie się nowej, lepszej teorii. W związku z tym odrzuca
dotychczasowy pogląd, że typową jednostką opisu wielkich osiągnięć
naukowych oraz probierzem nauki jest pojedyncza hipoteza. Wprowadza w
to miejsce termin - „naukowy program badawczy”, a ponadto terminy:
„twardy rdzeń” (hard core), „pas ochronny” (protective belt) oraz
„heurystyka”. Sprzeczny z teorią fakt obserwacyjny stwarza – jego zdaniem
- jedynie sytuację problemową, której rozwiązanie zależy od stopnia
falsyfikacji poszczególnych teorii ze zbioru sensownych teorii tworzących
„naukowy program badawczy”, konstruowany w celu przezwyciężenia owej
sytuacji problemowej. Obowiązuje zarazem tzw. heurystyka negatywna –
zakazująca odrzucenie bądź modyfikację „twardego rdzenia” teorii
wyjściowej. Z kolei tzw. heurystyka pozytywna zawiera ogół wskazówek
mówiących o tym, w jaki sposób „naukowy program badawczy” można
rozwijać. Program spełnia wymóg naukowości, o ile przewiduje
wystąpienie określonych zdarzeń i zarazem podaje warunki ich zajścia.

Oddzielnym zagadnieniem, związanym z istnieniem faktów przeczących


danej teorii naukowej, jest kwestia dotycząca tego, czy w ogóle możliwe
jest sprawdzanie teorii w sposób bezpośredni, tj. w doświadczeniu poprzez
obserwację bądź eksperyment. Już na początku XX wieku P. Duhem
uważał, iż ż a d n e j teorii nie da się sprawdzić
w y ł ą c z n i e n a m o c y d o ś w i a d c z e n i a (tzw. teza Duhema), a
więc w nauce nie są możliwe tzw. eksperymenty krzyżowe – doświadczenia
jednoznacznie rozstrzygające, która z konkurencyjnych teorii jest
prawdziwa bądź fałszywa. Wynika to z ugruntowanego przekonania, że
testyfikacja zdań obserwacyjnych wynika nie tylko z doświadczenia, lecz
uwarunkowana jest również przez zastaną wiedzę teoretyczną oraz przez
stosowaną aparaturę pojęciową. Kwestię tę szczegółowo porusza M. Bunge
(1919-). Krytykuje on pogląd, iż teoria jest i może być bezpośrednio
sprawdzana w doświadczeniu (obserwacji, eksperymencie). Z drugiej strony
same dane doświadczalne wymagają odpowiedniej preparacji do takiej
postaci, która umożliwi ich konfrontację z teorią38. Przemawiają za tym
wielorakie względy: po pierwsze – częstą praktyką jest odrzucanie tych

38
Zob. M. Bunge, Theory Meets Experience [in:] Mind, Science and History, ed. by Howard E.
Kiefer, Milton K. Munitz, Albany NY, 1970, s. 140.
41
danych empirycznych, które przeczą przyjętym teoriom; po drugie – wysiłki
badaczy zmierzają ku zdobyciu takich nowych danych oraz takiej
interpretacji istniejących, by służyły obronie ich własnej teorii i po trzecie –
większość teorii skupia się na wyidealizowanych modelach obiektów
badanych, a nie na samych obiektach wraz ze wszystkimi ich aspektami.
Zgodność teorii z empiryczną rzeczywistością jest problemem złożonym
i nie da się go rozwiązać ani na gruncie samej teorii, ani na gruncie samej
empirii. Wzmiankowaną zgodność można konkluzywnie rozstrzygać
jedynie w świetle czterech zespołów badań: metateoretycznych,
interteoretycznych, filozoficznych i empirycznych.
Metateoretyczne badania dotyczą formy i treści teorii. Mają rozstrzygnąć
czy teoria jest wewnętrznie zwarta, sformułowana w sposób jednoznaczny,
oraz czy hipotezy wiążące to, co niemożliwe do zaobserwowania
(przyczyny) z tym, co możliwe (symptomy) są empirycznie uzasadnione.
Interteoretyczne badania mają za cel odpowiedzieć na pytanie czy i pod
jakim względem zachodzi zgodność między daną teorią a innymi, uprzednio
już zaakceptowanymi. Chodzi zwłaszcza o te teorie, które logicznie
warunkują daną teorię.
Filozoficzne badania za przedmiot mają metafizyczne i epistemologiczne
rozważania nad podstawowymi pojęciami i przesłankami teorii w świetle
samej filozofii. Jeśli więc przykładowo psycholog jest zwolennikiem
pozytywistycznej orientacji filozoficznej, to raczej skłonny będzie
akceptować behawioryzm aniżeli psychoanalizę.
Empiryczne badania polegają przede wszystkim na konfrontacji pewnych
logicznych konsekwencji teorii z wynikami obserwacji, eksperymentów i
pomiarów, uzyskanych w oparciu o tę teorię. Następnym krokiem w tych
badaniach winna być budowa modelu teoretycznego w oparciu o niektóre
pojęcia danej teorii oraz teorii ją uzupełniających.
W przekonaniu M. Bunge’go żadna teoria, która by nie była
rozpatrywana w świetle powyższych czterech zespołów badań, nie może
być adekwatna do rzeczywistości empirycznej (w tym, rzecz jasna,
społecznej). Co więcej, w pierwszej kolejności – jego zdaniem - należy
przeprowadzić badania nieempiryczne, a więc: metateoretyczne,
interteoretyczne i filozoficzne a dopiero na sam koniec - badania stricte
empiryczne.

1.5. Charakter rozwoju nauki

Panuje powszechne przekonanie, że naukowe podejście do rozwiązania


jakiegoś problemu czy też uznanie pewnej tezy za naukową nadaje takiemu
podejściu bądź tezie szczególną wartość. Wynika to w znacznej mierze z
uznania, iż nauka jest działalnością racjonalną, gdyż posługuje się
rzetelnymi i rzekomo niezawodnymi procedurami badawczymi. Jednakże
od czasów nowożytnych po dzień dzisiejszy w centrum dyskusji
42
metodologów znalazł się problem określany mianem p r o b l e m u
r a c j o n a l n o ś c i n a u k i . Jego częścią jest zaprezentowana w
poprzednim rozdziale kwestia prawomocności uzasadniania w nauce; inny
aspekt, któremu poświęcony będzie niniejszy porozdział, dotyczy kwestii
racjonalności ewolucji nauki. Wyodrębniły się tutaj trzy podstawowe
stanowiska: kumulatywizm - rozwój wiedzy naukowej jest ciągły;
antykumulatywizm - rozwój wiedzy naukowej jest nieciągły oraz
korespondencjonizm - rozwój wiedzy naukowej zawiera zarówno momenty
ciągłości (korespondencja), jak również momenty nieciągłości (rewolucja).
Z problemem racjonalności ewolucji nauki ściśle wiąże się również
zagadnienie czynników, tj. procesów i wydarzeń mających wpływ na
formułowanie i uzasadnianie twierdzeń nauki (czynników wpływających na
rozwój nauki). Nie należy też zapominać, iż w jakimś zakresie do
czynników tych należy samo nastawienie badacza, który często w sposób
nieuświadomiony oczekuje określonych efektów poznawczych
(experimenter-expectancy effects). Tutaj również pojawiły się dwa
podejścia: internalistyczne (czynniki wewnętrzne) oraz eksternalistyczne
(czynniki zewnętrzne). Historycznie kontrowersja: internalizm –
eksternalizm w ewolucji nauki ma swoje źródło w neopozytywistycznej
(empiryzmu logicznego) dystynkcji między „kontekstem odkrycia” a
„kontekstem uzasadniania”.
Należy jednak sądzić, że jakąś rolę w rozwoju nauki odgrywają zarówno
jedne jak i drugie. Rozstrzygnięcie kwestii proporcji udziału
poszczególnych czynników wymagałoby wszak odrębnych, rzetelnych
badań empirycznych. W każdym bądź razie w obrębie stanowisk
omawianych poniżej akcenty rozkładają się następująco: kumulatywizm,
permanentny rewolucjonizm „młodego” Poppera, metodologia naukowych
programów badawczych Lakatosa – starają się bronić tezy, iż rozwój nauki
odbywa się w efekcie funkcjonowania pewnych uniwersalnych standardów
racjonalności swoistych dla samej nauki (synchroniczne podejście: nacisk
na analizę logicznej struktury nauki). Natomiast rewolucjonizm
paradygmalny Kuhna i anarchizm metodologiczny Feyerabenda powodów
powstawania nowych teorii doszukują się również w czynnikach
zewnętrznych wobec samej nauki: społecznych, historycznych,
kulturowych, psychosocjologicznych, ideologicznych itp. (diachroniczne
podejście: nacisk na analizę przemian w nauce, która umożliwia wgląd w
„istotę nauki”).

1) C z y n n i k i r o z w o j u n a u k i .
1. Czynniki wewnętrzne (poznawcze). Należą do nich wszelkie racje
poznawcze, jakimi kierują się naukowcy prowadząc badania naukowe oraz
wewnętrzna logika badań, polegająca na tym, że pewne osiągnięcia
naukowe warunkują powstanie następnych i jednocześnie stymulują ich
powstanie. W naukach społecznych na czoło wysuwa się dążenie do
43
adekwatnego opisu rzeczywistości społecznej, formułowania takich teorii,
które umożliwiają ich empiryczne sprawdzanie w maksymalnie
różnorodnych warunkach i przy użyciu precyzyjnych metod ilościowych
oraz jakościowych. Niezbędna jest też eliminacja nastawienia
aksjologicznego w wymiarze światopoglądowo-ideologicznym; obecność
motywacji aksjologicznej przesądza o nienaukowym charakterze
prowadzonych badań39. Zarazem doniosłą rolę odgrywają racje czysto
logiczne, a więc niesprzeczność wewnętrzna teorii oraz niesprzeczność
zewnętrzna, tj. zgodność formułowanych teorii z dobrze uzasadnioną
wiedzą w dziedzinach pokrewnych.
2. Czynniki zewnętrzne (społeczne). Należą do nich wszelkie
uwarunkowania pozapoznawcze takie jak: motywy psychologiczne badacza,
racje historyczne czy też potrzeby ekonomiczne społeczeństwa. Do
zewnętrznego otoczenia działalności naukowej należą także grupy
społeczne, które zainteresowane są jej wynikami (lobbing), a także te, które
współdziałają w tworzeniu klimatu intelektualnego, wpływającego na
świadomość badaczy. Całość czynników zewnętrznych jest
charakteryzowana przez kulturę, w ramach której prowadzone są badania.

2) K u m u l a t y w i z m (kontynualizm) – rozwój wiedzy naukowej jest


ciągły; dokonuje się poprzez permanentne gromadzenie wyników
poznawczych oraz doskonalenie metod badawczych; obowiązuje zasada
ciągłości wiedzy naukowej. Stanowisko to panowało (tzn. badacze posiadali
tego rodzaju świadomość metodologiczną) zasadniczo niepodzielnie wśród
uczonych od czasów F. Bacona (1561-1626) do końca XIX wieku.
Zwolennikami kumulatywizmu byli uczeni zarówno o orientacji
empirycznej jak i racjonalistycznej. Ci pierwsi za praktycznie niezawodną i
stanowiącą solidny fundament gmachu nauki poczytywali metodę
indukcyjną; drudzy zaś – od Kartezjusza po neokantystów – sądzili, że
umysł ludzki dochodzi a priori do fundamentalnych zasad rządzących
światem fizycznym i społecznym, które w doświadczeniu empirycznym
jedynie się potwierdza.

3) A n t y k u m u l a t y w i z m (dyskontynualizm) – rozwój wiedzy


naukowej dokonuje się w sposób nieciągły, rewolucyjny (nie obowiązuje
przeto zasada ciągłości wiedzy naukowej, teorii naukowych); polega na
permanentnym zastępowaniu jednych teorii przez inne; obowiązuje zasada
niewspółmierności (incommensurability) teorii naukowych – nowe teorie
przeczą dotychczasowym, prowadząc tym samym do ich eliminacji z obiegu
naukowego.

39
Odmiennego zdania są niektórzy przedstawiciele tzw. badań jakościowych, którzy dopuszczają
uwikłanie badań w sferę wartości [zob. Roz. 3.1.].
44
1. Permanentny rewolucjonizm K.R. Poppera (1902-1994). Z początkiem
XX w. nauki empiryczne (zwłaszcza fizyka) rozwijały się w tempie
dotychczas niespotykanym; jedne teorie naukowe były zastępowane przez
inne. Nic tedy dziwnego, że na plan pierwszy wysunęło się zagadnienie
rozwoju nauki i postępu w stosunku do wcześniejszych okresów. K.R.
Popper (tzw. „młody Popper”40) uważał, iż zachodzi permanentna
rewolucja, czyli nieustanne podważanie i obalanie starych teorii przez
nowe; rewolucje oznaczają zasadnicze zerwanie ciągłości w rozwoju wiedzy
naukowej. W nauce stale dąży się (i powinno się dążyć) do
f a l s y f i k a c j i wysuwanych hipotez (funkcjonujących jakiś czas jako
teorie), po czym hipotezy te odrzuca się, wysuwa się nowe, które
natychmiast poddaje się falsyfikacji itd. Hipotezy (teorie) – mówiąc
obrazowo – prowadzą między sobą ustawiczną walkę na wzór walki o byt w
darwinowskiej teorii ewolucji, w której mocniejsze na pewien czas
wygrywają. Mechanizm rozwoju nauki nie polega na poszukiwaniu faktów
potwierdzających nasze hipotezy (jak sugerował empiryzm logiczny Koła
Wiedeńskiego), takie bowiem zawsze można znaleźć, lecz na wystawianiu
wysuniętych hipotetycznie teorii na możliwie najsurowsze próby ich
obalenia. Popper swój postulat falsyfikacji nie traktuje wszakże jako opis
faktycznego postępowania naukowców, lecz jako zalecenie normatywne
właściwe ze względu na uznawane cele nauki tożsame z jej funkcjami (m.in.
wyjaśnianie, przewidywanie).

2. Rewolucjonizm paradygmalny Th.S. Kuhna (1922-1996). W słynnej


książce Struktura rewolucji naukowych (The Structure of Scientific
Revolution, Chicago 1962) wyróżnia w rozwoju każdej dziedziny wiedzy
naukowej dwa okresy. 1) Okres „nauki normalnej”, czyli panowania
określonego paradygmatu – wówczas zachodzi kumulacja osiągnięć, gdyż
panujący paradygmat umożliwia rozwiązywanie „łamigłówek”, tj.
szczegółowych problemów naukowych. 2) Okres kryzysu starego
paradygmatu a następnie rewolucji, w wyniku której zwycięża nowy
paradygmat. Kuhn podkreśla, że panująca teoria nigdy nie zostaje
odrzucona nawet jeżeli zostają wykryte przeczące jej fakty, dopóki nie ma
lepszej teorii, przy pomocy której sprawniej rozwiązuje się „łamigłówki”.
Teorie, a szerzej: złożone z nich paradygmaty, są „niewspółmierne”, gdyż
języki takich teorii są wzajemnie nieprzekładalne. Odmienność widzenia
świata przez uczonych opierających się na różnych paradygmatach była
przyczyną przyjęcia przez Kuhna kontrowersyjnej t e z y o

40
Poglądy „młodego Poppera” zawarte są w Logice odkryć naukowych. Natomiast poglądy
„dojrzałego Poppera” - w książce Wiedza obiektywna (Objective Knowledge). Rozwój nauki jest
wyznaczony przez stałe zasady „racjonalnego krytycyzmu”, które zapewniają ciągłość wiedzy na
poszczególnych etapach rozwojowych. Zasady owe ukierunkowują naukę na osiąganie wiedzy o
wzrastającym stopniu abstrakcji i generalizacji; rozwój wiedzy prowadzi tym samym do postępu
rozumianego jako powiększanie uniwersalności uzyskiwanych twierdzeń nauki (w tym praw nauki).
45
n i e w s p ó ł m i e r n o ś c i . Zmiana rewolucyjna zastępuje jeden sposób
widzenia świata i praktykowania nauki przez inny; niewspółmierność
oznacza m.in. to, że w różnych paradygmatach te same pojęcia znaczą
zupełnie co innego:

Chodzi jednak o coś więcej niż o niewspółmierność standardów. Skoro nowe


paradygmatu wywodzą się z dawniejszych, to przeważnie przejmują znaczną
część słownictwa i aparatury, zarówno pojęciowej, jak i laboratoryjnej, którą
posługiwał się tradycyjny paradygmat. Rzadko kiedy jednak te przejęte
elementy wykorzystywane są w sposób zupełnie tradycyjny. W ramach nowego
paradygmatu dawne terminy, pojęcia i eksperymenty wchodzą w nowe
wzajemne związki. Nieuniknionym tego rezultatem są – choć nie jest to całkiem
adekwatne określenie – nieporozumienia miedzy współzawodniczącymi
szkołami41.

Nie ma jednak jakiegoś logicznego, podyktowanego wyłącznie przez


reguły metody naukowej, przejścia od starej do nowej wizji świata.
Pojawienie się nowego paradygmatu (rewolucja paradygmalna)
uwarunkowane jest również w znacznej mierze pozametodologicznymi
względami: społecznymi, kulturowymi czy historycznymi. Splot czynników
metodologicznych i pozametodologicznych rodzi napięcie między tradycją
naukową a wymogami współczesności, które jest cechą immanentną nauki,
dynamizującą jej rozwój.

3. Anarchizm metodologiczny P.K. Feyerabenda (1924-1994). Celem


refleksji metodologicznej Feyerabenda była próba odkrycia czynników
przyczyniających się do rozwoju (w sensie postępu) wiedzy naukowej oraz
tych, które ten rozwój hamują. Nawiązywał tym samym do tradycji
metodologicznych badań diachronicznych, w których wysuwa się na plan
pierwszy zagadnienie warunków prawomocności przejścia od starej teorii
naukowej do nowej. Przeciwstawiał się zarazem tradycji pozytywistycznej,
w której nacisk kładziono na warunki prawomocności wiedzy w wymiarze
synchronicznym, statycznym. Feyerabend, podobnie jak Kuhn, przyjmuje
tezę o niewspółmierności teorii naukowych, ale odrzuca zdecydowanie
istnienie okresów – by użyć terminologii Kuhna – „nauki normalnej”, w
których odnotowuje się przyrosty rzetelnej wiedzy naukowej. W sposób
zdecydowany zaostrza tezę o niewspółmierności. Niemożliwe jest – jego
zdaniem – określenie w języku obserwacyjnym wspólnej dziedziny
przedmiotowej dwu teorii. Wynika to stąd, iż każdy język obserwacyjny
zawsze zrelatywizowany jest do jakiejś teorii, w szczególności znaczenie
terminów teoretycznych zdeterminowane jest przez procedury właściwe
danej teorii. Innymi słowy, język obserwacyjny ma sens wyłącznie na

41
Th.S. Kuhn, Struktura rewolucji naukowych, Aletheia, Warszawa 2001, s. 259.
46
gruncie określonej teorii. Nie jest to jednak czymś niepokojącym, ponieważ
wszystkie tezy naukowe wręcz powinny być nieustannie podważane po to,
by skutecznie reagować na aktualne wyzwania naukowe:

Tam, gdzie popiera się spekulację i wymyślanie alternatywnych punktów


widzenia, jest szansa na pojawienie się dużej liczby błyskotliwych idei; idee te
mogą następnie doprowadzić do zmiany nawet najbardziej „podstawowych”
składników naszej wiedzy, tj. do zmiany założeń, które bądź są tak bliskie
obserwacji, że ich prawdziwość wydaje się być dyktowana przez „fakty”, bądź
– tak bliskie powszechnym przesądom, że wydaje się „oczywiste”, a ich negacje
„absurdalne”. Można będzie wówczas zdać sobie sprawę z tego, że ani
„faktów”, ani abstrakcyjnych idei nie da się nigdy wykorzystać do obrony
pewnych zasad, jakiekolwiek by nie były42.

W końcu Feyerabend doszedł do „anarchistycznej”, jak sam ją nazywa,


teorii nauki, w której nie obowiązuje żadna metoda, w której „w s z y s t k o
j e s t d o z w o l o n e ” (anything goes). Bez chaosu – uważał – nie ma
wiedzy; nie ma bowiem takiej idei, choćby najbardziej absurdalnej, która
nie byłaby w stanie udoskonalić naszej wiedzy. Nie istnieją żadne reguły,
które dałoby się rzetelnie uzasadnić, i które skłaniałyby nas do wyboru
takiej czy innej teorii naukowej (sceptycyzm epistemologiczny). Anarchizm
metodologiczny stanowi, zdaniem Feyerabenda, rękojmię wolności nauki,
jej różnorodności prowadzącej do wszechstronnego oglądu świata:

Twierdzi on (Th.S. Kuhn – W.W.S.), że pogląd, według którego teorie są


bez zarzutu przez dziesiątki a nawet setki lat do chwili, gdy nie nastąpi poważne
ich obalenie i wyeliminowanie – jest niczym innym jak mitem. Otóż, jeśli tak
jest, to dlaczego nie mielibyśmy zaczynać od razu mnożenia teorii
alternatywnych i dbania o to, aby czysto normalna nauka nie miała w ogóle
miejsca. I czyż przesadą jest przypuszczenie, że badacze myślą podobnie i że
okresy normalne, nawet jeśli występowały, nie mogły trwać zbyt długo i nie
mogły nigdy rozprzestrzeniać się na dużych obszarach43.

3) K o r e s p o n d e n c j o n i z m – rozwój wiedzy polega na


permanentnym modyfikowaniu jednych teorii przez inne; obowiązuje
zasada korespondencji pomiędzy teoriami naukowymi – prawa starej teorii
naukowej są szczególnym przypadkiem praw nowej teorii naukowej.
Jednym z najbardziej znanych zwolenników stanowiska
korespondencjonizmu jest Imre Lakatos (1922-1974), twórca tzw.
metodologii naukowych programów badawczych, która – w aspekcie
rozwoju nauki - stanowi próbę pogodzenia permanentnego rewolucjonizmu
Poppera z rewolucjonizmem paradygmalnym Kuhna. Dla Lakatosa

42
P.K. Feyerabend, Jak być dobrym empirystą, PWN, Warszawa 1979, s. 55.
43
Tamże, s. 212.
47
podstawową jednostką metodologiczną nie jest pojedyncza teoria, lecz tzw.
naukowy program badawczy, czyli pewien zbiór następujących po sobie
kolejnych teorii.
Następstwem teorii rządzi tzw. z a s a d a k o r e s p o n d e n c j i , będąca
swoistym wyrazem zasady ciągłości wiedzy naukowej. Została ona
formułowana w rozmaitych wariantach przez fizyka Nielsa Bohra w latach
1913-1923. W kwestii ujęcia zasady korespondencji zarysowały się wśród
metodologów dwa podejścia: implikacyjne i eksplanacyjne.
Zgodnie z podejściem implikacyjnym zasada korespondencji oznacza, że
teoria nowsza T2 (korespondowana) wynika z teorii starszej T1
(korespondującej). Innymi słowy, teoria korespondująca stanowi szczególny
przypadek teorii korespondowanej, a ta jest po prostu zwyczajnym
uogólnieniem teorii korespondującej. Teorie naukowe korespondują ze sobą
to znaczy, że ma miejsce przechodzenie od teorii o niższym stopniu
ogólności do teorii o wyższym stopniu ogólności.
Natomiast wedle podejścia eksplanacyjnego zasada korespondencji
oznacza, że teoria nowsza T2 (korespondowana) ma większą moc
eksplanacyjną (wyjaśniającą) w stosunku do teorii starszej T1
(korespondującej), w szczególności może wyjaśnić te sytuacje i problemy,
których nie była w stanie wyjaśnić teoria uprzednia.
Zdaniem Lakatosa dzieje nauki są historią współzawodnictwa
naukowych programów badawczych. Obowiązujący na danym etapie
program badawczy stopniowo traci moc heurystyczną - zdolność do
twórczego rozwiązywania sytuacji problemowych i antycypowania nowych
faktów, co przejawia się głównie w zwiększaniu ilości hipotez
pomocniczych ratujących zagrożony „twardy rdzeń”. Z chwilą, gdy
obowiązujący program badawczy degeneruje się, jego miejsce musi zająć
nowy naukowy program badawczy. Przy czym powinien on wyjaśniać
wszystkie twierdzenia starego programu, a ponadto musi posiadać większą
od niego moc heurystyczną:

Idea współzawodniczących naukowych programów badawczych wiedzie nas


do problemu: w jaki sposób eliminuje się takie programy? Nasze wcześniejsze
rozważania wykazały, że degenerujące się przesunięcie problemowe nie
stanowi wystarczającej racji, by wyeliminować program badawczy, w
większym stopniu niż jakieś staromodne „obalenie” czy kuhnowski „kryzys”.
Czy może istnieć jakaś obiektywna racja (w przeciwieństwie do
socjopsychologicznych wyjaśnień), by odrzucić program, to znaczy, by
wyeliminować jego twardy rdzeń i jego program konstruowania pasów
ochronnych? Nasza odpowiedź, z grubsza rzecz biorąc, brzmi, że takiej
obiektywnej racji dostarcza konkurencyjny program badawczy, który wyjaśnia
wcześniejsze sukcesy swego rywala, a zarazem wypiera go, wykazując się
dalszą mocą heurystyczną44.

44
I. Lakatos, Pisma z filozofii nauk empirycznych, PWN, Warszawa 1995, s. 111.
48
ROZ. 2. PROCEDURA BADAWCZA

2.1. Etapy badania

Badania empiryczne w naukach społecznych przeprowadza się na ogół


według względnie stałego modelu (schematu), który można w pewnym
sensie traktować jako algorytm procesu badawczego. Wskazuje się w nim
kolejne etapy procedury badawczej (projektu badawczego). Wszakże ich
liczba – w zależności od charakteru i celu badań – może być rozmaita, a
także etapy cząstkowe w obrębie głównych etapów mogą ulegać daleko
idącym modyfikacjom. Poniżej zaprezentowane zostaną modele etapów
badań empirycznych w naukach społecznych: M. Bunge’a, A. Góralskiego,
T. Pilcha oraz proponowany własny.

1) M o d e l e t a p ó w b a d a ń M . B u n g e ’ a 45:
Etap 1. Ujęcie problemu:
1. Dokonanie przeglądu faktów (zebranie określonej grupy faktów, ich
wstępna ocena i selekcja z punktu widzenia problemu naukowego).
2. Rozpoznanie problemu (ocena sytuacji i występujących w danej
dziedzinie wiedzy, podlegającej penetracji badacza, nieadekwatności, luk,
niekonsekwencji).
3) Postawienie problemu (sformułowanie pytania; odpowiedź na nie
miałaby wyjaśnić lepiej niż dotychczas dany „skrawek” rzeczywistości).
Etap 2. Zbudowanie modelu teoretycznego:
1. Dokonanie selekcji ważnych czynników (wysunięcie założeń o
zmiennych potencjalnie istotnych).
2. Wysunięcie centralnych hipotez i pomocniczych założeń
(zaproponowanie założeń mówiących o charakterze związków łączących
zmienne, próba sformułowania twierdzeń, które mają wyjaśnić
zaobserwowane fakty).
3. Dokonanie przekładu na język matematyki (wyrażenie – w miarę
możliwości – hipotez w języku matematyki).
Etap 3. Wyprowadzenie szczegółowych konsekwencji:
1. Wyszukanie racjonalnych ujęć (uporządkowanie konsekwencji, jakie
mogą być zweryfikowane).
2. Dokonanie przekładu na język matematyki (wyrażenie hipotez – w
miarę możliwości – w języku matematyki).
Etap 4. Sprawdzanie hipotez:

45
Podaję za: J. Rudniański, Fazy rozwiązywania problemów naukowych [w:] „Zagadnienia
Naukoznawstwa”, Warszawa 1975, s. 20 – 21.
49
1. Zaplanowanie sprawdzenia (zaplanowanie sposobów sprawdzania
prognoz, zaplanowanie różnego typu działań, takich jak: obserwacje,
pomiary, eksperymenty itp.).
2. Wykonanie sprawdzenia (przeprowadzenie danych działań i zebranie
danych).
3. Usystematyzowanie danych (ich klasyfikacja, analiza i ocena ich
wartości, wyeliminowanie z pola rozważań danych zbędnych).
4. Wyprowadzenie wniosków (interpretacja danych w terminach
przyjętego modelu teoretycznego).
Etap 5. Wprowadzenie do teorii wniosków z badań empirycznych:
1. Dokonanie porównania wniosków z prognozami (ocena stopnia, w
jakim uzyskane wyniki potwierdzają lub obalają założony model
teoretyczny).
2. Zmodyfikowanie modelu (wprowadzenie do modelu pewnych zmian
lub nawet zastąpienie go innym).
3. Przedstawienie sugestii dla dalszej pracy (wyszukanie luk i błędów w
całym toku postępowania badawczego, gdy model został obalony oraz
poszukiwanie możliwości rozszerzenia modelu, gdy model został
potwierdzony).

2) M o d e l e t a p ó w b a d a ń A . G ó r a l s k i e g o 46:
Etap 1. Określenie problematyki badań – dajemy w ten sposób wyraz
niepełności naszej wiedzy bądź też dostrzeżenia faktu, iż interesujące nas
tezy uważamy za niedostatecznie uzasadnione bądź po prostu za błędne.
Etap 2. Sformułowanie problemu – należy postawić problem w taki
sposób, aby jego rozumienie zostało zintersubiektywizowane, tj. dostępne
dla osób kompetentnych, przynajmniej w podstawowym zakresie, w
odniesieniu do określonej dziedziny wiedzy.
Etap 3. Analiza problemu – po sformułowaniu problemu należy
doprowadzić go do takiej postaci, by móc dostrzec, o jakie elementy trzeba
uzupełnić wiedzę oraz na jakie pytania można i należy odpowiedzieć.
Etap 4. Przygotowanie i przeprowadzenie badań – na wstępie należy
dokonać właściwych wyborów dotyczących po pierwsze tego, czy będą to
badania wyczerpujący czy też reprezentacyjne; po drugie – określić cechy,
które zostaną poddane badaniu oraz po trzecie – ustalić sposób pomiaru
wybranych cech.
Etap 5. Opracowanie danych – zawiera opis wyników badań (m.in. opis
warunków i czynności obserwacyjnych), opis statystyczny (m.in.
wyznaczenie wartości parametrów statystycznych) oraz wnioskowanie
statystyczne (w przypadku badania reprezentacyjnego), pozwalające na

46
A. Góralski, Metody opisu i wnioskowania statystycznego w psychologii i pedagogice, PWN,
Warszawa 1987, s. 7 – 19.
50
dokonanie kroku indukcyjnego od znanych właściwości próby do
nieznanych właściwości całej populacji.

3) M o d e l e t a p ó w b a d a ń T . P i l c h a 47:

Faza koncepcyjna

Etap 1. Problemy badawcze – problemy mają postać pytań o cechy


przedmiotu, zjawiska, ich własności bądź mogą to być pytania o rodzaj
związków między cechami.
Etap 2. Hipotezy badawcze i dobór próby – hipoteza winna zawierać
informację konkretną wychodzącą poza proste stwierdzenie faktów oraz
powinna być twórcza tzn. inspirować do dociekań. Jeśli chodzi o dobór
próby reprezentatywnej, to nie ma sztywnych reguł w tym względzie.
Generalna reguła domaga się tylko, aby próba reprezentowała możliwie
wszystkie cechy badanej populacji generalnej.
Etap 3. Typologia zmiennych i wskaźników do zmiennych – rejestr
zmiennych winien określać cechy, poprzez które badacz będzie poznawać
istnienie zjawiska, związek między nimi oraz wpływ jednego zjawiska na
inne. Innymi słowy, należy poszukiwać cech (przybierających określone
wartości), które kształtują dane zjawisko, wywołują je bądź wpływają na
jego przebieg.
Etap 4. Metody, techniki i narzędzia badań – ten etap obejmuje
przygotowanie w całości narzędzia badawczego. Nie ma jednak sztywnych
reguł co do tego, jaką metodę i technikę należy przypisać do określonego
typu badań. Jednakże zastosowanie jednej tylko metody czy techniki
badawczej nie pozwala na ogół uzyskać wszechstronnej wiedzy o badanym
zjawisku. Należy tedy stosować takie, które logicznie wzajemnie się
uzupełniają.
Etap 5. Definicje teoretyczne ważniejszych pojęć – zdefiniowanie pojęć
służy w znacznej mierze samemu badaczowi do uświadomienia sobie tego,
co właściwie będzie badał. W badaniach nie można bowiem operować
pojęciami o niewyraźnym znaczeniu i nieostrym zakresie.
Etap 6. Badania pilotażowe – przede wszystkim służą do sprawdzenia
sprawności narzędzi badawczych, jakie wybraliśmy i opracowaliśmy dla
naszych zamierzeń poznawczych.

Faza wykonawcza

Etap 1. Przeprowadzenie badań właściwych – z uwagi na dynamikę


społeczną badania należy przeprowadzać wkrótce po zakończeniu badań
pilotażowych tak by móc zarejestrować pewien stan umiejscowiony w ściśle

47
T. Pilch, Zasady badań pedagogicznych, wyd. „Żak”, Warszawa 1995, s. 171 – 220.
51
określonym czasie i przestrzeni. Należy też starać się, aby okoliczności
badań nie były niczym zakłócone.
Etap 2. Opracowanie klucza kodyfikującego – klasyfikacja odpowiedzi
respondentów według odpowiedniego klucza. Temu etapowi badawczemu
podlegają w zasadzie wszystkie techniki posługujące się zapisem, a więc:
wszelkie kwestionariusze, skale, arkusze obserwacji, wywiady
nieskategoryzowane itp.
Etap 3. Weryfikacja hipotez – w fazie koncepcyjnej na etapie drugim
zostały sformułowane tezy posiadające status hipotez, które tym samym nie
posiadały rangi twierdzeń udowodnionych. A celem badań jest właśnie
potwierdzenie owych hipotez bądź też uzyskanie materiału podważającego
ich słuszność.
Etap 4. Opracowanie teoretyczne – podsumowanie całości badań oraz
przyporządkowanie ich wyników do poszczególnych hipotez zgodnie z
przyjętymi założeniami i celami badawczymi.

4) Proponowany model etapów badań


empirycznych w naukach społecznych:

Etap 1. Opracowanie koncepcji badań (projektu badawczego) – winna


ona zawierać: (1) Sformułowanie problemu. (2) Ustalenia terminologiczne.
(3) Cele i przedmiot badań. (4) określenie zmiennych, wskaźników oraz
hipotez badawczych. (5) dobór osób badanych. (6) Wybór metod i technik
badawczych. (7) Wykaz narzędzi badawczych. Opracowanie koncepcji
badań określać będziemy mianem k o n c e p t u a l i z a c j i p r o b l e m u
b a d a w c z e g o 48.

Etap 2. Realizacja badań (badania pilotażowe i właściwe). Badania


pilotażowe mają na celu: (1) Sprawdzenie poprawności metodologicznej
narzędzia badawczego (rzetelność, trafność). (2) Weryfikację wiedzy
badacza o populacji, jaką zamierza badać. (3) W przypadku badań
reprezentacyjnych weryfikuje się trafność doboru próby badawczej.
Badania właściwe należy przeprowadzić bezpośrednio po zakończeniu
badań pilotażowych. Skuteczność badań zależy bowiem nie tylko od
właściwie opracowanego narzędzia badawczego, ale również od samego
sposobu posługiwania się nim. Dlatego też podczas przeprowadzania badań
należy respektować kilka podstawowych zasad. Należą do nich m.in.
następujące: (1) Stworzenie warunków maksymalnej koncentracji u osób
badanych; w związku z tym muszą oni być na wstępie poinformowani o
naukowych celach prowadzonych badań. (2) Zapewnienie optymalnych

48
Natomiast przez konceptualizacją w znaczeniu węższym (mocniejszym) rozumiemy proces
określania znaczeń używanych terminów, a także proces ustalania relacji pomiędzy tymi terminami.
52
warunków technicznych w trakcie przeprowadzania badania. (3) Dokładne
rejestrowanie wszelkich okoliczności, jakie towarzyszą badaniu.

Etap 3. Analiza danych empirycznych (analiza jakościowa i ilościowa) –


Analiza jakościowa zakłada subiektywny charakter własnej wiedzy jak i
każdego poznania. Przy pomocy metod jakościowych można w sposób
pogłębiony zrozumieć dane zjawisko oraz rozszerzyć perspektywę jego
oglądu w drodze uwzględniania wielu kontekstów, w jakich się ono
pojawia. Analiza ilościowa z kolei zakłada możliwość obiektywnego,
precyzyjnego poznania świata na drodze pomiaru, co umożliwia stosowanie
technik zaawansowanej analizy statystycznej. Bada się więc tylko takie
zjawiska i cechy obiektów czy osób, które poddają się ilościowemu
pomiarowi, dzięki czemu możliwe jest również ścisłe uchwycenie
zależności pomiędzy nimi.

Etap 4. Prezentacja wyników badań – w postaci raportu oraz innego typu


publikacji.

2.2. Koncepcja badań

1) S f o r m u ł o w a n i e p r o b l e m u . Każde badanie naukowe posiada


swoją genezę. Decydują o niej m.in. osobiste preferencje badacza, istniejące
zapotrzebowanie społeczne, a ponadto niemałą rolę odgrywa również tzw.
sytuacja problemowa, tj. sytuacja przeżywania przez badacza pewnego
niepokoju wywołującego twórcze napięcie psychiczne. Przy zaistnieniu tego
rodzaju okoliczności badacz winien sformułować problem, czyli dokładnie
określić napotykane trudności oraz ewentualne sposoby ich usunięcia.
Każdy problem naukowy można sformułować w formie pytania, na które
nauka albo nie zna odpowiedzi, albo też odpowiedź ta jest słabo
uzasadniona. Wprowadza się trzy następujące kryteria kwalifikujące pytanie
jako problem naukowy49:
1. Pytanie musi dotyczyć obiektywnego stanu niewiedzy.
2. Powinno ono być wyrażone w języku naukowym (zawierać pojęcia,
terminy przyjęte w nauce).
3. Powinno być sformułowane w taki sposób, aby można było wskazać
sensowne czynności, które mogą doprowadzą do udzielenia odpowiedzi na
nie.
Problem naukowy formułuje się po pierwsze – za pomocą pytań
rozstrzygnięcia (gramatycznie rozpoczynają się od partykuły „czy”) – czy
istnieje fakt społeczny, zjawisko, zależność pomiędzy X i Y? Po drugie – za
pomocą pytań uzupełnienia czy też dopełnienia (gramatycznie rozpoczynają

49
Por. G. Babiński, Etapy procesu badawczego [w:] Elementy socjologii, Katowice 1999, s. 284.
53
się od partykuł: „dlaczego”, „jaki”, „który”, „gdzie” itp.). – dlaczego istnieje
fakt społeczny, zjawisko, zależność pomiędzy X i Y?
Wybór między pytaniem rozstrzygnięcia a uzupełnienia jest w dużym
stopniu wyznaczony przez naturę samego problemu, który może być
usytuowany bądź w „kontekście odkrywania” (dążenie do zdobywania
wiedzy naukowej), bądź w „kontekście uzasadniania” (dążenie do
uzasadniania wiedzy naukowej). Obydwa te konteksty pozostają zatem w
stanie ustawicznej interakcji w procesie tworzenia i postępu wiedzy
naukowej.
Po wstępnym sformułowaniu głównego (zasadniczego) problemu
badawczego dokonuje się uszczegółowienia problematyki badawczej, tzn.
sporządza w formie pytań listę problemów szczegółowych. Spośród wielu
sensownych, merytorycznie uzasadnionych pytań, wybiera się tylko
niektóre stosując trzy następujące kryteria:
1. Kryterium teoretyczne – wybiera się pytania centralne i takie, w
stosunku do których można sformułować najbardziej precyzyjne hipotezy.
2. Kryterium metodologiczne – wybiera się pytania stosownie do
możliwości udzielenia na nie odpowiedzi przy zastosowaniu planowanych
metod i technik badawczych.
3. Kryterium techniczno-organizacyjne – uwzględnia się koszt badań,
czas realizacji, zasięg badań (np. ogólnokrajowy, lokalny).
W trakcie formułowania problemu naukowego należy zdać sobie jasno
sprawę z tego, co ma być przedmiotem badania, a w szczególności – jakie
są podstawowe jego elementy. Innymi słowy, należy rozstrzygnąć, co
stanowi tzw. jednostkę analizy (w szczególności mogą to być fakty w sensie
wskazanym w Roz. 1.3.). Niektórzy metodolodzy określają to mianem
problemu umiejscowienia:

Problem umiejscowienia można opisać jako wybór podstawowego


przedmiotu badań w naukach behawioralnych, przestrzeni cech do jego opisu i
struktur pojęciowych, w ramach których będą formułowane hipotezy dotyczące
tego przedmiotu. Istnieje wiele możliwych przedmiotów badań i wiele z nich
zostaje wybranych w różnych badaniach: stany świadomości, działania
(elementy istotnych zachowań), role, osoby, osobowości, relacje
interpersonalne, grupy, klasy, instytucje, cechy lub wzorce społeczne,
społeczeństwa i kultury50.

Powyżej wskazane jednostki analizy stanowią jedynie przykłady. W


badaniach społecznych istnieje niemal nieskończona ilość jednostek analizy.
Należy jednak zwracać baczną uwagę na dwa możliwe błędy wnioskowania
popełniane czasami w związku z rozgraniczaniem jednostek analizy. Są one
następujące: b ł ą d e k o l o g i c z n y - wyprowadzanie wniosków na

50
A. Kaplan, The Conduct of Inquiery, New York: Harper& Row 1968, s. 78; cyt. za: Ch. Frankfort-
Nachmias, D. Nachmias, Metody badawcze w naukach społecznych, Zysk i S-ka, Poznań 2001, s. 68.
54
temat niższego poziomu analizy w oparciu o badania wyższego oraz b ł ą d
r e d u k c j o n i z m u czy też indywidualizmu - wyprowadzanie wniosków
na temat wyższego poziomu analizy w oparciu o badania niższego:

Błąd ekologiczny rozumowania jest to założenie, że to, czego dowiadujemy


się o jednostce zbiorowej („ekologicznej”), mówi nam coś także o
pojedynczych elementach, z których się ona składa. (…) Drugim typem
możliwego błędnego rozumowania związanego z jednostkami analizy jest
redukcjonizm. Redukcjonizm oznacza postrzeganie i wyjaśnianie złożonych
zjawisk w kategoriach jednego wąskiego pojęcia lub zbioru pojęć. A zatem
51
„redukujemy” to, co w rzeczywistości jest złożone, do prostego wyjaśnienia .

2) U s t a l e n i a t e r m i n o l o g i c z n e . Na tym etapie badań należy


zastanowić się, do jakich teorii (różnego zasięgu) i jakich terminów należy
odwołać się, aby móc efektywnie rozwiązać zasygnalizowane na
poprzednim etapie problemy. Szczególną wagę przywiązuje się do ścisłego
ustalenia znaczenia i zakresu terminów, które na gruncie poszczególnych
ujęć badawczych mogą być rozumiane rozmaicie (konceptualizacja w
znaczeniu węższym). W tym celu stosuje się zabieg zwany definiowaniem.
Ogólne zorientowanie się w różnego typu definicjach umożliwia poniższa
tabela:

Tabela 2.1. Rodzaje definicji.

KRYTERI RODZAJ PODRODZAJE


UM
Realna – Esencjalna
intrajęzykowa Opisowa (przez
Wyraźna wyliczenie)
Równościowa Zakresowa –
(normalna) Nominalna - stylizacja słownikowa
BUDOWA metajęzykowa Treściowa - stylizacja
semantyczna lub
przedmiotowa
Kontekstowa Sensu stricto
Przez abstrakcję
Warunkowa
Cząstkowa Redukcyjna
Nierównościowa Operacyjna
Zupełna Aksjomatyczna (przez postulaty)
Indukcyjna (rekurencyjna)
Sprawozdawcza (analityczna)
ZADANIA Regulująca

51
E. Babbie, Badania społeczne w praktyce, WN PWN, Warszawa 2003, ss. 119-120.
55
Projektująca (syntetyczna) Konstrukcyjna (arbitralna)
POZIOM Intrajęzykowa (wewnątrzjęzykowa)
JĘZYKA Metajęzykowa

Źródło: W.W. Skarbek, Logika dla humanistów, NWP 2010, s. 183.

3) C e l e i p r z e d m i o t b a d a ń . Każdy problem badawczy, który


stanowi obiekt zainteresowania badacza, podejmuje się ze względu na jakieś
cele, które winny być explicite sformułowane. Na ogół są to c e l e o
charakterze poznawczym - opis faktów i zjawisk czy ich wyjaśnienie bądź
praktyczno-aplikacyjnym - praktyczne zastosowanie osiągniętych efektów
poznawczych (np. w celu poprawy efektywności działania jakiejś
instytucji). Natomiast mówiąc o p r z e d m i o c i e b a d a ń mamy na myśli
nic innego jak tzw. jednostkę analizy.

4) O k r e ś l e n i e zmiennych, wskaźników oraz


h i p o t e z b a d a w c z y c h . Z m i e n n ą nazywać będziemy dowolną
własność (cechę), która przybiera różne wartości (co najmniej dwie) w
zakresie swej stosowalności, tj. w dziedzinie, do której wolno ją z sensem
stosować (np. „płeć” jest zmienną dwuwartościową gdyż przybiera dwie
wartości; M – mężczyzna, K - kobieta). Wyróżnia się następujące
podstawowe rodzaje zmiennych:
1. Zmienna niezależna (wyjaśniająca, predykcyjna) – zmienna, której
określona wartość bezpośrednio oddziałuje na wartości innych zmiennych;
2. Zmienna zależna (wyjaśniana, kryterialna) - zmienna, której wartość
wynika bezpośrednio z wartości zmiennej niezależnej;
3. Zmienna pośrednicząca – zmienna, której wartość wywiera wpływ na
kształt zależności pomiędzy zmienną niezależną a zmienną zależną.
4. Zmienna kontrolna – zmienna wykorzystywana w badaniach
empirycznych do sprawdzania, czy obserwowany związek pomiędzy
zmienną niezależną a zależną jest związkiem istotnym czy tylko pozornym,
tj. takim który można wyjaśnić za pomocą innych zmiennych aniżeli te,
które zostały uwzględnione przez badacza jako istotne.
Otóż w pierwszej kolejności badacza winno interesować to, jakie w ogóle
zmienne niezależne są istotne dla danej zmiennej zależnej oraz to, w jaki
sposób można je zidentyfikować. Bywa tak, że w sposób naturalny można
jednoznacznie określić sens empiryczny poszczególnej zmiennej oraz jej
wartości. Nader często jednak badacz ma do czynienia z tzw. zmiennymi
ukrytymi, odzwierciedlającymi obiekty czy własności zasadniczo
niedostępne bądź trudno dostępne do obserwacji. W takiej sytuacji badacz
zmuszony jest dobrać tzw. wskaźniki (indicators) umożliwiające mu ich
identyfikację.

56
Pojęcie wskaźnika rozpowszechniło się szeroko w metodologii nauk
społecznych. Jako jedno z podstawowych pojęć metodologicznych w
badaniach społecznych zostało wprowadzone po raz pierwszy w
klasycznym dziele pod redakcją Paula F. Lazarsfelda i Morrisa Rosenberga
pt. The Language of Social Research (Glencoe 1955). Nie sformułowano w
nim jednak takiej definicji, która zyskałaby powszechną akceptację.
Pojawiły się z czasem kontrowersje w odniesieniu do niektórych aspektów
rozumienia nazwy „wskaźnik”. Po pierwsze, odpowiedzi wymaga problem,
czy odpowiednik pozajęzykowy tej nazwy stanowi samodzielne zjawisko,
czy też nie jest zjawiskiem samodzielnym. Po wtóre – kontrowersję rodzi
kwestia stosunku, w płaszczyźnie językowej, terminów teoretycznych do
wskaźników: mianowicie czy wskaźnik może funkcjonować jako termin
empiryczny i tym samym nadawać terminom teoretycznym sens
empiryczny. Po trzecie – z poprzednimi problemami wiąże się jeszcze
sprawa podziału wskaźników. Jeżeli by uznać, iż wskaźniki jako nazwy
zawsze odnoszą się do rzeczywistości pozajęzykowej, obojętnie zjawisk
samodzielnych lub nie, które jako jedyne są wskaźnikami sensu stricto, to
wówczas typologia wskaźników winna uwzględniać wyłącznie odniesienia
do owej rzeczywistości pozajęzykowej.
W literaturze polskiej przyjął się pogląd, w myśl którego wskaźnik: po
pierwsze - nie jest zjawiskiem samodzielnym (występuje w związku z
indicatum); po drugie – funkcjonuje jako termin empiryczny i po trzecie –
przyjął się podział wskaźników na definicyjne i rzeczowe (empiryczne oraz
inferencyjne). Koncepcję tego rodzaju zaprezentował Stefan Nowak. Wedle
niego:

Wskaźnikiem zdarzenia (własności) Z nazywamy takie zdarzenie (własność)


W, że stwierdzenie jego (jej) istnienia, pojawienia się lub stopnia intensywności
bądź faktycznie jest wykorzystane jako przesłanka, bądź zasadnie nadaje się na
przesłankę wnioskowania, iż w określonych przypadkach z pewnością, z
określonym prawdopodobieństwem lub przynajmniej z prawdopodobieństwem
wyższym niż przeciętne wystąpiło zdarzenie (własność) Z52.

Przypuśćmy, że sformułowaliśmy taką oto hipotezę: „istnieje związek


pomiędzy metodami kontroli pracy ucznia przez nauczyciela a wynikami
jego (tj. ucznia) nauki”. W tym przypadku zmienną niezależną będą
„metody kontroli pracy ucznia przez nauczyciela” (wskaźnikiem może być
np. ocena nauczyciela dokonana przez nadzór pedagogiczny), zmienną
zależną będą „wyniki w nauce, jakie osiąga uczeń” (wskaźnikiem mogą być
uzyskiwane przez ucznia stopnie), zaś zmienną pośredniczącą – zakłócający
proces nauki „zły stan zdrowia ucznia”, który był przyczyną jego niskiej
frekwencji w szkole.

52
S. Nowak, Metodologia badań społecznych, PWN, Warszawa 1985, s. 165.
57
Zdarzenie czy też zjawisko, do którego odnosi się wskaźnik określa się
mianem indicatum. Relacja pomiędzy wskaźnikiem a indicatum wyznacza
rodzaj wskaźnika. W ujęciu S. Nowaka istnieją trzy rodzaje wskaźników:
definicyjne, empiryczne oraz inferencyjne.
1. W s k a ź n i k i d e f i n i c y j n e – między wskaźnikiem a indicatum
zachodzi relacja tożsamości pojęciowej, ustalana na mocy konwencji
terminologicznych.

Kiedy powiadamy, że ilość posiadanych pieniędzy jest dla nas wskaźnikiem


„zamożności”, to w gruncie rzeczy myślimy, iż termin „zamożność” znaczy
„ilość posiadanych pieniędzy”. Tak samo wskaźnikiem „przestępczości” bywa
liczba rocznie popełnionych przestępstw w jakimś kraju czy regionie”53.

2. W s k a ź n i k i e m p i r y c z n e – między wskaźnikiem a indicatum


zachodzi relacja rzeczowa, w pełni dostępna empirycznej kontroli.

„Ilość pieniędzy na koncie” może być wskaźnikiem „wysokiego poziomu


konsumpcji”, a „liczba spóźnień w roku” może być uznana za wskaźnik
„trudnej sytuacji rodzinnej”. W przypadkach tych wskaźnik stanowi zjawisko
obserwowalne różne niż indicatum, oznaczone przez całkiem inny termin;
związek łączący wskaźnik ze zjawiskiem wskazywanym ma tutaj charakter
statystycznej bądź bezwyjątkowej, uniwersalnej lub historycznej zależności
empirycznej54.

3. W s k a ź n i k i i n f e r e n c y j n e - między wskaźnikiem a indicatum


zachodzi relacja rzeczowa, weryfikowalna pośrednio.

Samo stwierdzenie, iż ktoś „stara się w pracy” jest przykładem obserwacji


zachowania zinterpretowanego w kategoriach psychologiczno-kulturowych.
Widzimy pewne jego ruchy i pewne efekty praktyczne jego działań i one
stanowią dla nas wskaźniki inferencyjny określonej postawy wobec pracy.
Postawa ta plus zachowanie w jego obserwowalnych aspektach to zachowanie
tak pojmowane, iż nazywamy je „staraniem się w pracy”, to z kolei jest dla nas
„wskaźnikiem inferencyjnym” chęci awansu czy wzrostu zarobku55.

Czasami używa się pojęcia wskaźnik w węższym znaczeniu, zamiennym z


pojęciem wskaźnika w sensie inferencyjnym. W s k a ź n i k przy tym ujęciu
to dowolne zdarzenie W wskazujące na występowanie innego zdarzenia Z,
którego nie można bezpośrednio zaobserwować. Na wskaźniki tego typu w
badaniach nadają się:

53
Tamże, s. 166.
54
Tamże, s. 168.
55
Tamże, s. 169.
58
(…) przede wszystkim zjawiska, stany rzeczy i zdarzenia zachowania) łatwo
dostępne obserwacji, i to takie, których właściwa psychologiczno-kulturowa
interpretacja rozumiejąca jest stosunkowo niezawodna56.

Procedurę nadawania empirycznego sensu terminom („pojęciom”)


teoretycznym określamy mianem o p e r a c j o n a l i z a c j i 57. Istnieją dwie
metody nadawania pojęciom sensu empirycznego58: pierwsza polega na
zdefiniowaniu danego pojęcia poprzez podanie operacji (czynności), jakie
należy wykonać, aby otrzymać to, o czym ono mówi. Definicje tzw.
operacyjne wiążą się ze stanowiskiem metodologicznym, zwanym
operacjonizmem59. Natomiast druga metoda sprowadza się właśnie do
procesu wskaźnikowania, czyli określania wskaźnika w znaczeniu
węższym.
Można przyjąć, iż procedura nadawania sensu empirycznego pojęciom
teoretycznym na drodze wskaźnikowania obejmuje trzy etapy:
1. Określanie cech (czynników) charakterystycznych budujących pojęcia
jako zmiennych obserwowalnych. Po pierwsze - cechy mają być zmienne,
tzn. muszą przyjmować pewną określoną wartość z przyjętego zbioru
wartości. Po drugie - cechy mają być obserwowalne zmysłowo. Takie
właśnie cechy (szerzej: dowolne zdarzenia), które są zmienne i
obserwowalne zmysłowo noszą nazwę wskaźników.
2. Określanie zbioru wartości zmiennych, czyli ilości wartości (np.
symbolizowanych liczbowo), jaką może dana zmienna przyjmować.
3. Określanie wartości zmiennej realizowanej. Wartość, która została
zrealizowana i zaobserwowana w trakcie badania empirycznego.
W Tabeli 2.2. zilustrowano, w sposób uproszczony, procedurę nadawania
sensu empirycznego wybranym pojęciom:

Tabela 2.2. Pojęcia (terminy) teoretyczne i wskaźniki.

POJĘCIA ZMIENNA OBSERWOWALNA ZBIÓR WARTOŚCI WARTOŚĆ


(WSKAŹNIK) ZREALIZOWANA
ROLA SPOŁECZNA; płeć mężczyzna, kobieta np.
ZAWÓD; OSOBOWOŚĆ
mężczyzna
DYSCYPLINA SZKOLNA liczba uwag w 1, 2, 3,... np. 2
dzienniku

56
Tamże, 166.
57
Przez operacjonalizację rozumie się też proces wskazywania metod i technik badawczych, za
pomocą których konkretyzuje się ustalone na drodze konceptualizacji (w sensie węższym) terminy
bądź też jako najobszerniejszy etap procedury badawczej obejmujący rozstrzygnięcia co do sposobu
rozumienia pojęć, doboru zmiennych oraz wskaźników a także wybór metod i technik badawczych.
58
W przypadku danych liczbowych operacjonalizacja sprowadzać się będzie głównie do sposobu ich
pomiaru.
59
Zob. W. W. Skarbek, Logika dla humanistów, NWP 2010, s. 188.
59
KONFLIKTOWOŚĆ; ocena z zachowania 1-6 np. poprawne
KONFORMIZM

Bywa też tak, i nie jest to bynajmniej sytuacja odosobniona, iż terminy


teoretyczne bezpośrednio nie sposób przekładać na wskaźniki. Wówczas
należy stosować przekład pośredni, w szczególności trzyetapowy. Na
pierwszym - wstępnie określa się cechy charakterystyczne pojęć (czynniki),
na drugim – konkretyzuje się je jako podcechy (subczynniki) i wreszcie na
trzecim - ustala się wskaźniki. Przypuśćmy, że mamy dobrać wskaźniki do
pojęcia autorytet nauczyciela. Można tego dokonać przykładowo w sposób
zaprezentowany w Tabeli 2.3:

Tabela 2.3. Czynniki, subczynniki i wskaźniki.

AUTORYTET NAUCZYCIELA
CZYNNIKI (CECHY) SUBCZYNNIKI (PODCECHY) WSKAŹNIKI
1. Wykształcenie 1. Dyplomy
KOMPETENCJE 2. Przygotowanie pedagogiczne 2. Świadectwo
ZAWODOWE

1. Wypowiedzi uczniów o nauczycielu 1. Opinie uczniów


SZACUNEK UCZNIÓW 2. Zachowanie uczniów wobec 2. Obserwacja
nauczyciela zachowań uczniów
1. Wypowiedzi nauczycieli 1. Opinie nauczycieli
SZACUNEK 2. Wybór do organów 2. Funkcje, jakie
ŚRODOWISKA przedstawicielskich nauczyciel pełni
NAUCZYCIELSKIEGO
3. Opinie przełożonych 3. Oceny
pohospitacyjne
WYROZUMIAŁOŚĆ I 1. Wypowiedzi uczniów o nauczycieli 1. Opinie uczniów
TOLERANCJA 2. Wypowiedzi rodziców o nauczycielu 2. Opinie rodziców
NAUCZYCIELA
SPRAWIEDLIWOŚĆ W 1. Sprawiedliwość w odczuciu uczniów 1 Opinie uczniów
OCENIANIU UCZNIÓW 2. Sprawiedliwość w odczuciu 2. Opinia nauczyciela
nauczyciela

Ustalenia terminologiczne, określanie zmiennych oraz proces


wskaźnikowania w naukach społecznych ściśle wiążą się z formułowaniem
oraz weryfikacją (potwierdzaniem) bądź falsyfikacją (obalaniem) hipotez
badawczych.
H i p o t e z a to „naukowe przypuszczenie o związku zależności danych
zjawisk od innych lub o związku pojęć o znaczeniu ustalonym”60. Hipotezą w
ścisłym tego słowa znaczeniu jest jednak tylko takie przypuszczenie, które
spełnia pewne wymogi metodologiczne. Hipotezy powinny zatem być:

60
W. Goriszowski, Badania pedagogiczne w zarysie, WSP TWP, Warszawa 1997, s. 32.
60
- o tyle nowe, żeby wskazywały na nieznane aspekty badanych faktów i
zjawisk społecznych,
- na tyle ogólne, żeby obejmowały swoim zakresem (tzn. tłumaczyły w
dostateczny sposób) wszelkie fakty i zjawiska, których dotyczą,
- pojęciowo jasne, tzn. wyrażone w terminach wystarczająco
jednoznacznych i ostrych,
- wolne od sprzeczności wewnętrznych (nie mogą zawierać zdań
wzajemnie sprzecznych),
- możliwe weryfikacji za pomocą metod empirycznych, którymi nauka
aktualnie dysponuje61.
Można też określać m o c h i p o t e z y . W znacznym uproszczeniu
wyróżnia się trzy poziomy mocy hipotezy:
1. Słaby - formułuje się hipotezy tzw. egzystencjalne (o istnieniu) typu:
"Istnieje zdarzenie X" bądź "Istnieje związek między X i Y".
2. Średni - orzeka się o warunkach zajścia zdarzenia.
3. Mocny - hipotezy mają postać propozycji twierdzeń jednoznacznych,
precyzyjnych, z podaniem warunków ich spełnienia.
Szczególnego rodzaju hipotezami są tzw. h i p o t e z y s t a t y s t y c z n e
[zob. Roz. 4.6.3.], czyli takie, które dotyczą parametrów (charakterystyk
liczbowych populacji) albo postaci funkcyjnej rozkładu
prawdopodobieństwa dla określonej populacji. Wstępnie formułuje się tzw.
hipotezę zerową o wartości jakiegoś parametru; hipotezę tę traktujemy jako
prawdziwą, dopóki nie uzyskamy informacji statystycznie wystarczających
do tego, aby zmienić nasze stanowisko. Następnie formułuje się tzw.
hipotezę alternatywną, czyli taką, która przypisuje parametrowi wartość
niezgodną z tą, którą przypisuje mu hipoteza zerowa. Hipoteza alternatywna
i zerowa tworzą łącznie parę hipotez dopełniających się, tzn. że
uwzględniają wszystkie możliwe wartości parametru. W efekcie czynności
sprawdzania hipotezy statystycznej przyjmuje się albo odrzuca hipotezę
zerową (tj. hipotezę testowaną).

5) D o b ó r o s ó b b a d a n y c h . Badanie empiryczne może być


p r o s t e (wyczerpujące) bądź r e p r e z e n t a c y j n e [zob. Roz. 4.6.1.],
do którego dobiera się próby62 badawcze w sposób celowy bądź losowy
(probabilistyczny). O wielkości liczebności próby decydują następujące
kryteria63:

61
Zob. Sztumski J., Wstęp do metod i technik badań społecznych, 1984, s. 43.
62
P r ó b a (populacja próbna – jednostki, które zostaną poddane badaniom)
to część zbiorowości badanej (populacji generalnej) wybrana w celu
zbadania własności całej zbiorowości.
63
Por. Babiński G., Etapy procesu badawczego [w:] Elementy socjologii, red. Maria Bocheńska-
Seweryn, Katowice 1999, s. 292.
61
- wielkość badanej zbiorowości,
- stopień jednorodności tej zbiorowości,
- oczekiwana dokładność wyników,
- dopuszczalny stopień błędu przy uogólnianiu wyników,
- ilość i charakter zmiennych występujących w badaniach,
- zastosowane metody i techniki badań, sposób analizy i wykorzystania
wyników.

6) W y b ó r m e t o d i t e c h n i k b a d a w c z y c h . Należy odróżniać
t y p b a d a ń , czyli pewien planowy i systematyczny sposób postępowania
(szereg operacji poznawczo-metodycznych) zmierzający do rozwiązania
sytuacji problemowej od metod i technik badawczych. M e t o d a b a d a ń
– to planowy i systematyczny sposób gromadzenia danych empirycznych.
Natomiast t e c h n i k a b a d a w c z a – to skonkretyzowany na gruncie
danej metody lub jej wariantu sposób gromadzenia danych empirycznych;
metoda badawcza z reguły obejmuje wiele technik badawczych 64. Od metod
i technik badawczych należy poza tym jasno odróżniać metody i techniki
analizy danych (ilościowe, jakościowe).

7) P r z y g o t o w a n i e n a r z ę d z i b a d a w c z y c h . Badania
empiryczne prowadzi się przy pomocy narzędzi badawczych, czyli
konkretnych przedmiotów, za pomocą których realizuje się wybraną
technikę badawczą. Zalicza się do nich przede wszystkim wszelkiego
rodzaju kwestionariusze (obserwacji, wywiadu, ankiety), klucze
kategoryzacyjne (np. w analizie dokumentów), instrukcje gromadzenia
danych empirycznych (np. instrukcja dla ankietera, respondenta), testy (np.
osiągnięć szkolnych, sprawnościowe). Do narzędzi badawczych zalicza się
także wszelkie urządzenia techniczne służące do realizacji badań (np.
wszelkiego typu nagrywarki – cyfrowe, analogowe, aparaty fotograficzne).

ROZ. 3. WYBRANE METODY I TECHNIKI BADAWCZE

3.1. Wybór metod i technik badawczych

Odróżniamy t y p b a d a ń , czyli pewien planowy i systematyczny


sposób postępowania - skonkretyzowany w szeregu operacji poznawczych,
zmierzający do rozwiązania wybranych aspektów sytuacji problemowej - od
samych metod i technik. M e t o d a b a d a ń – to planowy i systematyczny

64
Oczywiście istnieje szereg innych definicji metod i technik badawczych. Mówi się np. o metodzie
wówczas, gdy określamy powtarzalne sposoby rozstrzygania różnych konkretnych zagadnień
związanych z realizacją badań, a o technice wówczas, gdy mamy na myśli zespół czynności
związanych z różnymi sposobami przygotowania i przeprowadzenia badań.
62
sposób realizacji określonych operacji poznawczych ze względu na
założone cele badawcze oraz zespół środków do tego służących. Natomiast
t e c h n i k a b a d a w c z a – to skonkretyzowany na gruncie danej metody
lub jej wariantu, sposób gromadzenia danych empirycznych (jak również
teoretycznych). Metoda badawcza z reguły obejmuje wiele technik
badawczych65. Ponadto, od metod i technik badawczych należy jasno
odróżniać metody i techniki analizy danych (ilościowe, jakościowe). Te
pierwsze służą bowiem do zbierania - pożądanych z punktu widzenia celów
badawczych - danych empirycznych a także teoretycznych, podczas gdy te
drugie stosuje się do analizy już istniejących danych. Badania empiryczne
prowadzi się przy pomocy n a r z ę d z i b a d a w c z y c h , niezbędnych do
realizacji danej techniki badawczej (wszelkiego rodzaju kwestionariusze,
klucze kategoryzacyjne, instrukcje gromadzenia danych empirycznych,
testy oraz urządzenia techniczne wykorzystywane do realizacji badań).
Należy też zwrócić uwagę na trzy cechy charakterystyczne metod i technik
badawczych, determinujące ich poprawność i skuteczność. Są to
następujące cechy: obiektywność, rzetelność i trafność.
1. Obiektywność – wolność od wartościowań oraz kontekstów
językowych i środowiskowych, w obrębie których prowadzi się badania za
pomocą przyjętej metody oraz techniki.
2. Rzetelność – cecha orzekająca o tym, czy badania przeprowadzone w
oparciu o określone metody i techniki badawcze przeprowadzone zostały
zgodnie z proceduralnymi wymogami tych metod oraz technik. W
przypadku badań ilościowych, opartych na pomiarze, pojęcie rzetelności
odnoszone jest do dokładności pomiaru (rzetelność pomiaru) i oznacza ono
względną stałość wyników dla wielokrotnie (co najmniej dwóch)
powtarzanych operacji pomiarowych wobec tego samego obiektu badań. W
literaturze metodologicznej wymienia się najczęściej trzy sposoby ustalania
rzetelności pomiaru: powtarzanie pomiaru, połówkowy oraz wewnętrznej
zgodności66.
(a) Technika powtarzania pomiaru – dwukrotne powtórzenie badania za
pomocą danej techniki badawczej. Im bardziej zbliżone są do siebie
uzyskane wyniki, tym większą przypisuje się rzetelność pomiarowi
dokonanemu za pomocą wybranej techniki badawczej.
(b) Technika połówkowa – przygotowuje się zestaw złożony z podwójnej
(w porównaniu z wersją standardową) ilość pytań lub poleceń; następnie
dzieli się losowo zestaw na dwie równoliczne części uzyskując w ten sposób
dwa warianty użyte do pomiaru. Stopień rzetelności zastosowanej techniki
badawczej oblicza się na podstawie obliczonego współczynnika obu
65
Oczywiście istnieją inne definicje metod i technik badawczych. Mówi się np. o metodzie wówczas,
gdy określamy powtarzalne sposoby rozstrzygania różnych konkretnych zagadnień związanych z
realizacją badań, a o technice wówczas, gdy mamy na myśli zespół czynności związanych z różnymi
sposobami przygotowania i przeprowadzenia badań.
66
Zob. M. Łobocki, Metody badań pedagogicznych, PWN, Warszawa 1984, s. 44.
63
wariantów; im większa zbieżność (korelacja dodatnia) między nimi, tym
większa jest rzetelność zastosowanej techniki badawczej.
(c) Technika wewnętrznej zgodności – określa rzetelność technik
badawczej poprzez jednorazowe jej zastosowanie do pomiaru (podobnie jak
w technice połówkowej) i ocenie zgodności uzyskanych wyników dla
poszczególnych kategorii pytań czy też poleceń.
3. Trafność - w odniesieniu do badań bazujących na pomiarze pojęcie
trafności odnosi się do ściśle określonych aspektów badanego obiektu
(trafność pomiaru) i oznacza ono ilościowe odwzorowanie tego i tylko tego
aspektu badanego obiektu, który – zgodnie z założonym celem – ma być
mierzony. W literaturze metodologicznej można spotkać cztery typy
trafności: treściową, prognostyczną, kongruencyjną oraz teoretyczną67:
(a) Trafność treściowa – adekwatność treści zdań lub pytań,
wchodzących w skład narzędzia pomiarowego, z treścią cech, które
zamierza się badać.
(b) Trafność prognostyczna – określa możliwość przewidywania – na
podstawie pomiaru - z wysokim prawdopodobieństwem, ściśle określonego
sposobu zachowania się badanych osób w najbliższej przyszłości.
(c) Trafność kongruencyjna – wskazuje na dodatnią korelację pomiędzy
wynikami uzyskanymi w następstwie zastosowanego narzędzia badawczego
a wynikami uzyskanymi w oparciu o inne metody i techniki badawcze.
(d) Trafność teoretyczna – określa stopień zgodności pomiędzy
osiągniętymi wynikami a przewidywaniami teorii dotyczącej badanego
obiektu czy też zjawiska społecznego.

Tabela 3.1. zawiera syntetyczny przegląd wybranych typów badań


mający zastosowanie w naukach społecznych:

Tabela 3.1. Typy badań społecznych.

KRYTERIUM TYP BADAŃ OBJAŚNIENIE


Deskrypcyjne Opis badanych faktów i zjawisk
Znamy objawy i skutki zjawiska -
CEL BADAŃ Diagnostyczne68 poszukujemy odpowiedzi na pytanie
dlaczego, co jest przyczyną, jakie są
uwarunkowania tego zjawiska

67
Tamże, s. 48.
68
Szczególnie popularny jest typ badań zwany sondażem diagnostycznym – polega on na
charakteryzowaniu jakiegoś zjawiska społecznego poprzez określenie jego zasięgu, uwarunkowań,
poziomu, intensywności oraz dokonaniu odpowiedniej oceny, co w efekcie pozwala badaczowi na
zaprojektowanie modyfikacji tego zjawiska stosownie do założonych celów.
64
Sprawdzenie skutków zastosowania
Weryfikujące jakichś rozwiązań oraz odtwarzanie
(indukcyjne, przebiegu jakichś zjawisk. Wiemy, że
sprawozdawcze) istnieje zjawisko, ale nie wiemy jak
przebiega.
Przekrojowe Badanie jednorazowe danej próby i
(transwersalne) wnioskowanie o procesie rozwojowym
CZAS BADAŃ interesującym badacza
Podłużne Badanie danej próby przez względnie
(longitudinalne) długi okres czasu
Półciągłe Badanie danej próby przez pewien czas,
(semilongitudinalne) krótszy jednak niż okres trwania zjawiska
społecznego interesujący badacza
Synchroniczne Jednokrotne wykonanie pomiaru na danej
ILOŚĆ (przekrojowe) próbie
POMIARÓW Wielokrotne (co najmniej dwukrotne)
Diachroniczne wykonanie pomiaru na danej próbie;
badanie trendów; badanie panelowe
SPOSÓB Monograficzne Bada się jednostki w ich naturalnym
PRZEPROWAD (terenowe) kontekście społecznym
ZENIA BADAŃ Laboratoryjne Bada się jednostki analizy tylko w
kontekście zależności pomiędzy
wybranymi zmiennymi
ZAKRES Wyczerpujące Wszystkie interesujące badacza osoby
JEDNOSTEK zostają poddane badaniu
BADANYCH Reprezentacyjne Badacz dobiera w pewien sposób (celowy
bądź losowy) osoby do badania
Ilościowe Oparte na pomiarze; dopuszczają
stosowanie zaawansowanych technik
RODZAJ analizy statystycznej
ZMIENNYCH Bazują głównie na opisie; m.in.:
Jakościowe monograficzne (terenowe, etnograficzne)
- oparte przede wszystkim na tzw.
obserwacji uczestniczącej; studium
przypadku; analiza tekstu. Dopuszczają
stosowanie jedynie prostych technik
analizy statystycznej [zob. Roz. 4.3.1.]

Od czasów A. Comte’a (twórcy socjologii) badania ilościowe odgrywały


znaczną, by nie rzec, dominującą rolę w większości nauk społecznych.
Miały one na celu upodobnić nauki społeczne do - bardziej rozwiniętych
pod względem metodologicznym - nauk przyrodniczych. Sukcesywnie
jednak wielu przedstawicieli nauk społecznych ulegało rozczarowaniu co do
metod ilościowych. Obecnie badania jakościowe osiągnęły znaczną
popularność zwłaszcza w USA, co wiążę się m.in. z upowszechnieniem
postmodernistycznego i feministycznego paradygmatu.

65
W obszernej dwutomowej publikacji Metody badań jakościowych pod
redakcją N.K. Denzin i Y.S. Lincoln czytamy:

Badania jakościowe „odwołują się do interpretacyjnych modeli teorii


konstruktywistycznych, teorii krytycznej, teorii feministycznej, teorii queer,
krytycznej teorii rasowej oraz studiów kulturowych. Umieszczają siebie na
granicy między postpozytywizmem a poststrukturalizmem. Wykorzystują
pewne lub wszystkie strategie badawcze (studium przypadku, etnografia,
fenomenologia, teoria ugruntowana, metoda biograficzna, metoda historyczna,
obserwacja uczestnicząca, metoda kliniczna) (…)
Badacze jakościowi kładą nacisk na społecznie konstruowaną naturę
rzeczywistości, na bliskie stosunki między badaczem a przedmiotem badań, na
sytuacyjne ograniczenia wpływające na badanie. Tacy badacze podkreślają
naturalne uwikłanie badań w wartości. Poszukują odpowiedzi na pytania o to,
jak jest tworzone społeczne doświadczenie i nadawane mu znaczenie”69.

Badania jakościowe dostarczają danych jakościowych, które z reguły nie


dają się sprowadzić do liczb, w przeciwieństwie do metod ilościowych, tak
zaprojektowanych, by generowały dane dla analiz ilościowych. W związku
z tym badacz zawsze winien odpowiedzieć sobie na pytanie, czego chce się
dowiedzieć, aby móc dokonać wyboru właściwych metod badawczych. Co
więcej, zdaniem D. Silvermana:

Nie istnieje neutralny problem badawczy. To, jak ukształtujemy problem


badawczy, w sposób nieuchronny odzwierciedla przywiązanie (jawne bądź
ukryte) do określonego modelu opisującego funkcjonowanie świata.
Tymczasem na gruncie badań jakościowych istnieją złożone, konkurujące ze
sobą modele70.

Poniższa tabela (Tabela 3.2.) zawiera syntetyczny przegląd wybranych


metod i technik badawczych stosowanych w naukach społecznych:

Tabela 3.2. Wybrane metody i techniki badawcze nauk społecznych:

METODA WARIANTY METODY PRZYKŁADOWE TECHNIKI


Niestandaryzowana Obserwacji dorywczej; Dzienniczków
OBSERWACJA (nieuczestnicząca, obserwacyjnych; Obserwacji
uczestnicząca) fotograficznej; Obserwacji próbek
zdarzeń
Standaryzowana Obserwacji skategoryzowanej;
(nieuczestnicząca, Obserwacji próbek czasowych
uczestnicząca)

69
N.K. Denzin, Y.S. Lincoln (red.), Metody badań jakościowych, t.1, WN PWN, Warszawa 2009, s..
9, 34.
70
D. Silverman, Prowadzenie badań jakościowych, WN PWN, Warszawa 2009, s. 28.
66
Zwykły Wywiad: Swobodny; Pogłębiony,
WYWIAD Kwestionariuszowy
(sondaż) Ankieta nadzorowana: audytoryjna;
Ankietowy (ankieta) indywidualna
Ankieta nienadzorowana (samozwrotna):
pocztowa; prasowa; itp.
Panelowy
Klasyczna J.L. Moreno
SOCJOMETRIA Nieklasyczna Np. porównywanie parami;
plebiscyt życzliwości i niechęci

3.2. Obserwacja

Obserwacja należy do podstawowych metod prowadzenia badań w


naukach społecznych. Ze względu na etymologię słowo „obserwacja”
wywodzi się z łacińskiego observatio, co oznacza zwracanie uwagi na coś.
Metoda obserwacji posiada głębokie uzasadnienie teoretyczno-filozoficzne.
Wchodziła mianowicie w skład podstawowych założeń metodologicznych
empiryzmu i pozytywizmu. Według czołowych przedstawicieli filozofii
empirycznej (F. Bacon, J. Locke, D. Hume) jedynie doświadczenie oparte
na obserwacji może być źródłem prawdziwej wiedzy o rzeczywistości
zarówno przyrodniczej jak i społecznej. W ujęciu tradycyjnym metoda
obserwacji w odniesieniu do rzeczywistości społecznej miała na celu przede
wszystkim jakościowy opis zachowania się ludzi w różnych sytuacjach
społecznych. Przy czym starano się nie ograniczać do poznania
indywidualnego zachowania się ludzi, lecz analizować je na tle szerszego
kontekstu – środowiska, w jakim ludzie żyją.
O b s e r w a c j a - jako metoda badawcza - to celowa (ukierunkowana na
wybrane aspekty przedmiotu) planowa (z ustaloną a priori sekwencją
interwałów czasowych stosownie do zmieniających się warunków) oraz
obiektywna (niezafałszowana postawą i oczekiwaniem badacza) percepcja
wybranego przez badacza wycinka rzeczywistości społecznej.
Ze względu na sposób gromadzenia danych wyróżnia się obserwację
niestandaryzowaną – prowadzoną bez narzędzi systematyzujących
(wyłącznie za pomocą opisu, rejestracji dźwiękowej lub fotograficznej) oraz
standaryzowaną – prowadzona z użyciem narzędzi systematyzujących (np.
dzienników obserwacji czy też arkuszy obserwacyjnych). Ze względu na
kryterium udziału badacza w badanej przezeń zbiorowości społecznej
wyróżnia się obserwację uczestniczącą – badacz staje się członkiem badanej
zbiorowości oraz nieuczestniczącą – badacz sytuuje się na zewnątrz badanej
zbiorowości społecznej. Z kolei kryterium jawności postępowania
badawczego wyznacza podział na obserwację jawną – badani wiedzą o tym,
że stanowią przedmiot zainteresowań badacza (w przypadku obserwacji
uczestniczącej są świadomi roli, jaką spełnia nowo dokooptowany członek
67
grupy) oraz niejawną (ukrytą) – badani nie są świadomi tego, że są
obiektem badań (w przypadku obserwacji uczestniczącej nie są świadomi
roli, jaką spełnia nowo dokooptowany członek grupy). Obserwacja
niestandaryzowana w tej samej mierze co i standaryzowana może być
uczestnicząca bądź nieuczestnicząca oraz jawna bądź niejawna.

1) Przykładowe techniki obserwacji


n i e s t a n d a r y z o w a n e j 71:
(a) Technika obserwacji dorywczej – stosuje się opis narracyjny ze
względu na arbitralnie wybrane przez badacza aspekty obiektu badań. W
związku z tym niezupełnie spełnia ona postulat obiektywizmu, wymagany
obserwacji jako metodzie badawczej. Pewnym usprawiedliwieniem dla tej
techniki jest to, że stosuje się ją w odniesieniu do tych sytuacji, dla których
obserwator nie posiada ściśle sformułowanych problemów badawczych. Np.
nauczyciel zapisuje wyłącznie te przejawy zachowań uczniów w klasie,
które – według jego osobistego uznania – na to zasługują ze względu
choćby na to, że mogą mu być pomocne w dalszej pracy dydaktyczno--
wychowawczej.
(b) Technika dzienniczków obserwacyjnych – polega na „(…)
opisywaniu zdarzeń lub zjawisk w ich naturalnym następstwie czasowym i to na
przestrzeni możliwie długiego okresu czasu”72. W przeciwieństwie do techniki
obserwacji dorywczej, technikę tę stosuje się do ściśle określonych
problemów. Z uwagi jednak na to, że obserwator zapisuje głównie swoje
bezpośrednie wrażenia bez jakiegoś wyraźnego planu - jego zapisy bywają z
reguły subiektywne; fakt ten upodabnia technikę dzienniczków
obserwacyjnych do techniki obserwacji dorywczej.

2) Przykładowe techniki obserwacji


standaryzowanej:
(a) Technika obserwacji skategoryzowanej – polega na obserwacji
obiektu badań (w stosunkowo długich interwałach czasowych) nie tylko ze
względu na ogólny cel, lecz także ze względu na poszczególne aspekty
obiektu, czyli jego kategorie. Aby – poza analizą jakościową - móc dokonać
analizy ilościowej zebranych danych należy skonstruować tzw.
s c h e d u ł ę o b s e r w a c y j n ą , tj. zestaw poszczególnych kategorii,
które są istotne z punktu widzenia zainteresowań obserwatora. Np. W
odniesieniu do zachowań prospołecznych uczniów fragment scheduły może
wyglądać następująco73:

71
Zob. M. Łobocki, Metody i techniki badań pedagogicznych, Impuls, Kraków 2000, s. 60 i nast.
72
Tamże, s. 66.
73
H. Muszyński, Wychowanie moralne w zespole, Warszawa 1964, s. 30; cyt. za: M. Łobocki,
Metody i techniki badań pedagogicznych, Impuls, Kraków 2000, s. 61.
68
- Podpowiada źle, aby inni dostali jeszcze gorsze stopnie;
- Pożycza innym swoje przybory;
- Dzieli się z innymi śniadaniem;
- Odmawia pożyczenia swoich przyborów;
- Pomaga innym w pracy szkolnej.

(b) Technika obserwacji próbek czasowych – polega, podobnie jak


technika obserwacji standaryzowanej, na obserwacji obiektu ze względu na
jego poszczególne aspekty (tj. kategorie), ale w stosunkowo krótkich
interwałach czasowych (z reguły kilkuminutowych). Stąd też scheduła
obserwacyjna musi być dostosowana do tak krótkich obserwacji.

3.3. Wywiad

W y w i a d (sondaż) to proces uzyskiwania informacji (danych) przez


badacza od osób badanych, zwanych respondentami. Wyróżnia się wywiad
zwykły, ankietowy i panelowy. W tym pierwszym - kwestionariusz, czyli
formularz zawierający pytania, wypełnia badacz ewentualnie ankieter. W
wywiadzie ankietowym kwestionariusz z reguły wypełnia sam badany
(respondent). Natomiast wywiad panelowy polega na tym, że kilku
badających zadaje pytania jednemu respondentowi na co najmniej dwóch
kolejnych spotkaniach bądź ten sam badający zadaje pytania kilku
respondentom również na co najmniej dwóch kolejnych spotkaniach.
Należy w tym miejscu zauważyć, iż nazwa „ankieta” jest wieloznaczna.
W praktyce administracyjnej np. oznacza ona z reguły formularz
zawierający określone pytania (np. ankieta personalna). W naukach
społecznych istnieją tendencje do utożsamiania ankiety bądź z techniką
zbierania danych empirycznych, w której formularz wypełnia respondent,
bądź z samym formularzem (ang. questionnaire). W związku z tym pojawia
się pewna niedogodność terminologiczna związana ze sposobem użycia
nazwy „ankieter”. Mianowicie ankieter to taka osoba, która przeprowadza
wywiad zwykły w oparciu o mniej lub bardziej wystandaryzowany
kwestionariusz. Podczas gdy wywiad ankietowy nie wymaga w sposób
konieczny zaangażowania w proces zbierania danych osób badających
(badacza bądź ankietera), skoro kwestionariusz wypełniają same osoby
badane (respondenci). W niniejszym opracowaniu termin „ankieta” oznacza
wyłącznie wywiad ankietowy – wariant metody wywiadu, zaś na określenie
formularza wywiadu dowolnego typu używa się konsekwentnie nazwy
„kwestionariusz”.
S t a n d a r y z a c j a w odniesieniu do metod i technik badawczych
oznacza ujednolicenie operacji poznawczych (np. zadawanie takich samych
pytań respondentom) oraz środków technicznych (np. zapis na
znormalizowanych nośnikach informacji) i środków intelektualnych (np.
stosowanie takich samych kategorii pojęciowych dla różnych sytuacji

69
badawczych). Celem standaryzacji jest uzyskanie jednolitych danych, co
umożliwia stosowanie pomiaru i tym samym dokonywanie różnorodnych
operacji liczbowych na uzyskanym materiale, stosownie do mocy
wykorzystywanej skali pomiarowej. W przypadku wywiadu standaryzacja
polega przede wszystkim na posługiwaniu się precyzyjnie opracowanym
kwestionariuszem zawierającym pytania zamknięte. Należy wszakże
zauważyć, iż pojęcie standaryzacji dotyczy pewnego continuum
rozciągającego się w pewnym dość arbitralnie ustalonym przedziale i stąd
niemożliwe jest ścisłe, dychotomiczne rozdzielenie kwestionariuszy
wystandaryzowanych od niewystandaryzowanych. Standaryzacja bowiem
zawsze stanowi miarę określoną na ustalonym przedziale; wobec tego
słuszniej byłoby mówić raczej o kwestionariuszach o różnych stopniach
standaryzacji.
Techniki standaryzowanego wywiadu zwykłego (wywiad
kwestionariuszowy) i ankietowego służą w naukach społecznych (głównie
w socjologii) do realizowania tzw. b a d a ń s u r v e y o w y c h . Badania te
charakteryzują się następującymi cechami74:
1. Pomiędzy badaczem czy też reprezentującym go ankieterem a
badanym (respondentem) zostaje nawiązany kontakt (bezpośredni lub
pośredni) o stosunkowo krótkim czasie trwania.
2. W czasie tego kontaktu wykorzystuje się wystandaryzowany
kwestionariusz zapewniający tym samym (tj. wskutek standaryzacji)
porównywalność uzyskiwanych od respondentów informacji.
3. Przekazywane przez respondenta informacje o jego postawach,
opiniach czy zachowaniach utożsamiane są z jego rzeczywistymi
postawami, opiniami czy zachowaniami.
4. Badane osoby oraz uzyskiwane od nich informacje traktuje się
wyłącznie jako zbiór danych o charakterze statystycznym, bez prób
różnicowania ich w zależności od kontekstu sytuacyjnego osób badanych.

3.3.1. Wywiad zwykły

Wywiad z w y k ł y to wariant metody wywiadu (sondażu)


charakteryzujący się tym, że formularz wywiadu (skategoryzowany lub nie)
wypełnia osoba badająca (badacz, ankieter). Wyróżnić należy następujące
techniki wywiadu zwykłego różniące się miedzy sobą przede wszystkim
stopniem standaryzacji: swobodny, pogłębiony, kwestionariuszowy.
1. Wywiad swobodny – swobodna rozmowa osoby badającej z
respondentem. Ma charakter rozpoznawczy w tym sensie, że pomaga
uporządkować główne wątki przedmiotu badania. Rola osoby badającej
ogranicza się jedynie do zadawania od czasu do czasu pytań z prośbą o

74
Zob. Z. Gostkowski, O poprawę jakości badań surveyowych [w:] „Studia Socjologiczne”,
Warszawa 1976, nr 3, s. 258.
70
bliższe sprecyzowanie wypowiedzi. Co prawda osoba badająca dysponuje
planem zagadnień, jakie ma poruszyć, ale wskazuje on tylko tematy i
ogólny kierunek.
2. Wywiad pogłębiony – ma za podstawę „ustalony schemat wątków
tematycznych, ale same pytania nie są standaryzowane; o kolejności i
sposobie formułowania pytań decyduje osoba prowadząca wywiad, która
może stawiać także pytania dodatkowe75”. Wywiady pogłębione z reguły
prowadzi się z osobami o szczególnych cechach lub kwalifikacjach.
3. Wywiad kwestionariuszowy – przeprowadza go osoba badająca w
oparciu o wystandaryzowany kwestionariusz, który precyzyjnie określa
treść pytań oraz ich kolejność.

3.3.2. Wywiad ankietowy

W y w i a d a n k i e t o w y (krótko: ankietowanie, ankieta) to wariant


metody wywiadu (sondażu), polegający na tym, że – w przeciwieństwie do
wywiadu zwykłego – formularz zawierający pytania, czyli kwestionariusz,
wypełnia sam respondent. Proces wzajemnego porozumiewania się odbywa
się tedy w formie pisemnej, co nie wyklucza jednak obecności badacza czy
ankietera. Wynika stąd wszakże, iż w wywiadzie ankietowym badacz
prezentuje respondentom zestaw pytań od razu w całości, bez możliwości
jego uzupełniania czy modyfikacji w trakcie trwania badania, co jest
możliwe w wywiadzie zwykłym; posiada więc z reguły stopień
standaryzacji porównywalny z kwestionariuszem tzw. wywiadu
kwestionariuszowego.
W obrębie metody wywiadu ankietowego wyróżnia się dwie grupy
technik: ankietę nadzorowaną (audytoryjną, indywidualną) oraz ankietę
nienadzorowaną, inaczej - samozwrotną (pocztową, prasową itp.).
1. Ankieta nadzorowana – proces zbierania danych jest nadzorowany
przez badacza lub ankietera. W ankiecie audytoryjnej osoba badająca
wchodzi w bezpośredni kontakt z grupą osób badanych zgromadzonych w
jednym miejscu. Istotną zaletą takiej ankiety jest stosunkowa łatwość
dotarcia do odpowiednio wyselekcjonowanej grupy badawczej oraz
zapewnienie sobie zwrotu praktycznie wszystkich egzemplarzy
kwestionariuszy. Jeżeli osoba badająca nadzoruje tylko jedną osobę badaną,
to mamy wówczas do czynienia z ankietą indywidualną.
2. Ankieta nienadzorowana (samozwrotna) – proces zbierania danych nie
jest nadzorowany przez badacza lub ankietera. Do tego typu ankiet należą
m.in. następujące: pocztowe – kwestionariusz badacz rozsyła pocztą do
ściśle określonych respondentów z prośbą o zwrot na podany adresu

75
R. Mayntz, K. Holm, P. Hubner, Wprowadzenie do metod socjologii empirycznej, PWN, Warszawa
1985, s. 132.
71
zwrotny; prasowe – kwestionariusz zamieszczany jest w prasie do
wypełnienia przez czytelników i wysłanie na adres badacza.

3.3.3. Wywiad panelowy

Istnieją dwie podstawowe metody badania zmian zachodzących w czasie:


analiza trendu oraz wywiad panelowy. Ta pierwsza, mająca szczególne
zastosowanie w ekonomii, polega na co najmniej dwukrotnym pomiarze
określonej cechy lub kategorii (ogólnie: zmiennej) w pewnych odstępach
czasu i porównywaniu wyników, co pozwala stwierdzić zachodzenie
zmiany. Sens tej zmiany w przypadku badania cechy lub kategorii jakiegoś
obiektu czy też zjawiska sprowadza się do stwierdzenia wzrostu lub
zmniejszenia natężenia tej cechy.
Np. Chcemy dokonać analizy trendu bezrobocia w pewnej osadzie
wiosną i na jesieni w tym samym roku. Wiosną stwierdzamy przykładowo
istnienie 50-u osób zatrudnionych i 10-u bezrobotnych; podobnie wygląda
sytuacja jesienią. Stąd wyciągamy wniosek, że trend bezrobocia nie uległ
zmianie w badanym okresie. Z analizy trendu nie wynika natomiast to, czy
zatrudnieni i bezrobotni to nadal te same osoby, czy też już inne. Informacji
tego typu dostarczyć może druga metoda badania zmian w czasie - wywiad
panelowy.
W y w i a d p a n e l o w y – to badanie, w którym co najmniej
dwukrotnie przeprowadza się wywiad z członkami tej samej zbiorowości
społecznej w pewnych odstępach czasu ze względu na tę samą cechę lub
kategorię (np. opinie, postawy, zachowania, status) w celu stwierdzenia
zmian w jej natężeniu lub brak jakichkolwiek zmian.
Wywiad panelowy pozwala uchwycić zmiany cech poszczególnych
jednostek badanych. Warunkiem wstępnym bowiem tego wariantu wywiadu
jest właśnie to, aby wywiad powtórzony (i kolejne) dotyczył dokładnie tych
samych osób, co pierwsze. Tak więc wywiad panelowy dotyczący
bezrobocia jest możliwy, o ile jesienią objąłby on te same osoby, które
badano wiosną. W związku z powyższym pojawia się kwestia, czy wywiad
panelowy należy stosować w odniesieniu do populacji generalnej (całego
zbioru jednostek) czy też ma on sens również w odniesieniu próby
reprezentacyjnej (części zbioru jednostek)? Otóż zasadniczo ma on sens w
obu przypadkach, jednak ze względów praktycznych (konieczność
zachowania tego samego składu jednostek) łatwiej jest stosować go wobec
populacji generalnej.

3.3.4. Charakterystyka pytań kwestionariusza wywiadu

Kwestionariusz wywiadu (o różnym stopniu standaryzacji czy też


kategoryzacji) to formularz zawierający pytania skierowane do osób
badanych. Spełnia on w procesie badawczym dwie podstawowe funkcje: po
72
pierwsze - konkretyzuje problemy badawcze do postaci precyzyjnych, w
miarę jednoznacznych pytań i po drugie – organizuje materiał badawczy w
taki sposób, aby nadawał się do przewidzianej w koncepcji badań (projekcie
badawczym) analizy jakościowej oraz ilościowej76.

Tabela 3.3. Charakterystyka pytań kwestionariusza wywiadu.

KRYTERIUM PYTANIA
Wprowadzające
O opinie
O fakty
Cel pytań O wiedzę
O źródła informacji
O motywy
O sugestie
Sondujące
Uzupełniające
Obecność partykuły Rozstrzygnięcia
pytajnej „czy” Dopełnienia
Alternatywne
Alternatywne rangowane
Zamknięte
Zakres pytania Ekskluzywne
Dysjunktywne
Koniunktywne rangowane
Otwarte
Połotwarte
Metryczkowe
Funkcje pytania Merytoryczne
Filtrujące
Weryfikujące

1) K r y t e r i u m c e l u p y t a ń 77:

Pytania wprowadzające – ich celem jest umożliwienie badaczowi


przygotowanie respondenta do zagadnień poruszanych w całym
kwestionariuszu. Np. Czy jest Pan (i) zadowolony z pracy w zakładzie X?
Pytania o opinie – odnoszące się do sposobu postrzegania przez
respondentów pewnych faktów, zjawisk, procesów, do oceniania ich i
ewentualnego własnego zachowania się wobec nich. Np. W jakim stopniu,

76
Zob. K. Ajdukiewicz, Zdania pytajne [w:] Język i Poznanie, t. II, s. 278; L.A. Gruszczyński,
Kwestionariusze w socjologii. Budowa narzędzi do badań surveyowych, U. Śl., Katowice 1999, s. 23,
71; W.W. Skarbek, Logika dla humanistów, NWP 2010, s. 215.
77
Por. L.A. Gruszczyński, Kwestionariusze w socjologii. Budowa narzędzi do badań surveyowych,
U. Śl., Katowice 1999, s. 23.
73
Pana (i) zdaniem, organizacje pozarządowe mogą przyczynić się do
rozwiązania problemu bezdomności w Polsce?
Pytania o fakty – dotyczą uzyskania informacji o pewnych zjawiskach,
faktach, a nie opinii o nich czy postaw wobec nich. Np. Czy ma Pan (i)
ulubionych aktorów serialowych?
Pytania o wiedzę – dotyczą one głównie badań z zakresu udziału w
kulturze, życiu politycznym itp.
Pytania o źródła informacji - stosuje je się w celu zidentyfikowania
źródeł, z jakich respondenci czerpią wiedzę na pewien temat. Konstruując
takie pytanie, badacz decyduje się na zaufanie pamięci respondenta. Np. Z
jakich źródeł czerpie Pan (i) informacje o katastrofie samolotu
prezydenckiego pod Smoleńskiem?
Pytania o motywy – ich zamiarem jest ujawnienie subiektywnie
odczuwalnych pobudek do wykonywania tych czy innych zajęć,
podejmowania działań czy wyrażonych sądów. Np. Co zdecydowało o
podjęciu przez Pana (Panią) pracy w zakładzie X?
Pytania o sugestie – zadaje się je wówczas, gdy badacz chce rozpoznać
pewne formułowane przez respondenta zalecenia, dotyczące rozwiązywania
pewnych problemów. Zakłada się, że respondent jest kompetentny w danej
dziedzinie i na tej podstawie może wypowiadać się o pożądanych
działaniach. Np. Proszę wskazać konkretną decyzję, która Pana (i) zdaniem,
pozwoliłaby rozwiązać problem X.
Pytania sondujące – ich zadaniem jest nakłonienie badanych osób do
udzielenia odpowiedzi istotnej wtedy, gdy od ich sformułowania się
uchylają, lub są one zbyt lakoniczne. Np. Czy mógłby Pani (i) rozszerzyć
swoją odpowiedź?
Pytania uzupełniające – ich celem jest uzyskanie od rozmówcy jakichś
dodatkowych informacji przydatnych do interpretowania poprzednio
udzielanych odpowiedzi. Np. Co chciał Pan przez to powiedzieć?

2) K r y t e r i u m o b e c n o ś c i p a r t y k u ł y p y t a j n e j „ c z y ” :

Pytania rozstrzygnięcia – rozpoczynają się od partykuły „czy” i


wyznaczają tylko dwie możliwe odpowiedzi, z których jedna jest
równoważna ze zdaniem, będącym częścią pytania (tak), a druga stanowi
zaprzeczenie tego zdania (nie). Pytania rozstrzygnięcia są zawsze pytaniami
właściwie postawionymi, ponieważ posiadają tylko dwie odpowiedzi
właściwe, będące wypowiedziami nawzajem sprzecznymi, a z tych zawsze
jedno jest prawdziwe, a drugie fałszywe. Np. Na pytanie: Czy Jan był na
miejscu zbrodni? właściwe są tylko odpowiedzi: Tak  Jan był na miejsce
zbrodni albo Nie  Nieprawda, że Jan był na miejscu zbrodni.
Pytania dopełnienia – pozostałe zdania pytajne rozpoczynające się m.in.
od partykuł pytajnych: kto, co, kiedy, gdzie (pytania prostego dopełnienia,
tj. wymagające wyjaśnienia), dlaczego, w jaki sposób (pytania rozwiniętego
74
dopełnienia, tj. wymagające opisu). Np. W jaki sposób Jan przygotowywał
się do egzaminu z metodologii nauk społecznych?
3) Kryterium zakresu odpowiedzi:

▪ Pytania zamknięte – wyznaczają schemat odpowiedzi; zbiór możliwych


odpowiedzi jest określony przez badacza. Lista możliwych odpowiedzi,
przygotowanych przez badacza, nosi nazwę k a f e t e r i i . Spośród
przygotowanych pytań respondent samodzielnie dokonuje wyboru.
Alternatywne – respondent co najmniej jedną odpowiedź z wielu.
Alternatywne rangowane – respondent wybiera co najmniej dwie
odpowiedzi z wielu oraz wskazuje ich kolejność pod względem ważności
czy też wartości, jaką skłonny jest przypisać swoim wyborom.
Koniunktywne rangowane – respondent wybiera wszystkie odpowiedzi
oraz wskazuje ich kolejność pod względem ważności czy też wartości.
Ekskluzywne - dokładnie jedna odpowiedź spośród wielu. Istota tego
pytania polega na tym, że respondent może udzielić tylko jednej z wielu
wchodzących w grę odpowiedzi. Wszakże szczególnym przypadkiem pytań
ekskluzywnych są też takie, na które istnieją tylko dwie wzajemnie
wykluczające się odpowiedzi.
Dysjunktywne – respondent wybiera co najwyżej jedną odpowiedź
spośród wielu, a zatem nie może wybrać dwóch lub więcej.
▪ Pytania otwarte – nie wyznaczają schematu odpowiedzi; zbiór
możliwych odpowiedzi nie jest określony przez badacza. Brak kafeterii;
sformułowanie odpowiedzi pozostawia się samemu respondentowi. Np. Czy
chodzi Pan (i) do opery; jeśli tak, to dlaczego?
▪ Pytania półotwarte – przewiduje się wybór spośród narzuconych z góry
odpowiedzi i zarazem umożliwia swobodną wypowiedź ściśle związaną z
treścią pytania.

4) K r y t e r i u m f u n k c j i :

Pytania metryczkowe – są to pytania dotyczące osoby respondenta, za


pomocą których badacz zbiera dane o charakterze społeczno-
demograficznym badanej populacji. Ze względu na ich osobisty charakter
nie należy zniechęcać respondentów i z tego powodu pytania metryczkowe
powinny znajdować się na samym końcu kwestionariusza. Np. Pytanie o
płeć, wiek, wykształcenie itp.
Pytania merytoryczne – stanowią efekt skonkretyzowania w postaci
pytań kwestionariuszowych ogólnych i szczegółowych pytań badawczych
oraz przyjętych hipotez. Pytania merytoryczne mogą być zwykłe – zadawane
wprost bądź projekcyjne – zadawane w sposób pośredni o przedmiot
zainteresowań badacza (np. zadaje się pytanie studentowi o to, czy - jego

75
zdaniem - koledzy z roku oceniają danego wykładowcę pozytywnie czy
raczej negatywnie).
Pytania filtrujące – stosuje się je wówczas, gdy badacz jest
zainteresowany analizą pewnych problemów dotyczących tylko wybranego
segmentu respondentów. Odpowiedź na pytanie filtrujące rozstrzyga o tym,
kogo dotyczą kolejne pytania kwestionariusza. Np. 1. Czy pracuje Pan (i)
zawodowo? a) Tak, b) Nie. 2. Jeżeli tak, to prosimy określić rodzaj pracy,
jaką Pan (i) wykonuje.
Pytania weryfikujące – spełniają szczególną rolę polegającą na analizie
prawdomówności respondentów. Przy ich pomocy weryfikuje się
odpowiedzi na pytania zamieszczone wcześniej. Pytania weryfikujące
należy konstruować tak, aby pozwalały na przeprowadzenie analizy
wewnętrznej spójności z pytaniami wcześniejszymi; brak takiej spójności
może sugerować jakieś zafałszowania ze strony respondentów. Czyni to się
na ogół w ten sposób, iż stawia się pytania zbieżne merytorycznie z innymi,
lecz odmienne pod względem formy.

3.4. Socjometria

Twórcą socjometrii jest Jacob L. Moreno (1889-1974) austriacko-


amerykański lekarz psychiatra i socjolog, twórca – oprócz socjometrii –
również metody psychologicznej, zwanej psychodramą. Moreno za
podstawową cechę życia społecznego uważał dwa rodzaje stosunków
społecznych: przyciągania i odrzucania (attraction and repulsion).
Głównym celem metody socjometrycznej jest pomiar kierunku oraz siły
tych stosunków. W efekcie badacz uzyskuje odwzorowanie nieformalnej
struktury społecznej małych grup społecznych, tj. układy jednostek
tworzących się spontanicznie w tych grupach pod wpływem emocjonalnego
przyciągania i odrzucania się poszczególnych jednostek oraz konfiguracje
pozycji społecznych zajmowanych w obrębie grupy przez poszczególnych
jej członków.
Przedmiotem zainteresowań socjometrii są tedy wzajemne stosunki
między ludźmi (oficjalne oraz spontaniczne) w małych zbiorowościach
społecznych, a więc takich, gdzie ludzie znają się wzajemnie; mogą to być
takie stosunki jak: sympatie bądź antypatie, zaufanie, popularność czy
przywództwo. W szczególności socjometria może służyć do78:
1. Identyfikowania i selekcjonowania jednostek spełniających określone
role społeczne; np. kto spośród badanych osób jest najbardziej uznawany i
popularny i tym samym może odgrywać rolę przywódcy.
2. Identyfikowania jednostek wymagających specjalnej uwagi; np. kto
spośród badanych osób znajduje się w częściowej bądź nawet całkowitej
izolacji (podział na tzw. gwiazdy, osoby izolowane oraz przeciętne).

78
Por. J. Sztumski, Wstęp do metod i technik badań społecznych, PWN, Warszawa 1984, s. 106.
76
3. Identyfikowania osób w różnych kategoriach, które tworzą podgrupy
(tzw. kliki) w obrębie małej zbiorowości społecznej.
4 Zbierania danych służących do mierzenia takich czynników jak:
stopień wpływu jednych osób na inne, zmiany w sytuacji osób pod
wpływem różnych czynników wewnętrznych (np. zwiększenia się stopnia
integracji grupy) bądź zewnętrznych (np. zagrożenia ze strony osób spoza
grupy).
Głównym narzędziem socjometrii jest tzw. t e s t s o c j o m e t r y c z n y
który w swej podstawowej postaci przyjmuje formę nastawioną na pomiar
wyborów pozytywnych – osobom badanym poleca się wybierać spośród
członków grupy te osoby, z którymi chciałyby mieć do czynienia bądź na
pomiar wyborów negatywnych - osoby badane wybierają tych członków
spośród grupy, wobec których chciałyby zachować jakiś dystans.
Problem konstruowania testu socjometrycznego sprowadza się w
zasadzie do właściwego dobrania typu kryterium socjometrycznego oraz
ilości owych kryteriów. Przez k r y t e r i u m s o c j o m e t r y c z n e
rozumie się ogólnie mówiąc taką sytuację społeczną, której po pierwsze –
uczestniczą wszyscy członkowie małej grupy społecznej i po drugie –
zadaniem każdej z badanych osób musi być jedno lub kilkuelementowy
wybór pozytywny bądź negatywny spośród wszystkich członków danej
grupy.
Istotnym składnikiem metody socjometrycznej jest wykorzystanie
specjalnej formy graficznej, tzw. diagramów
s o c j o m e t r y c z n y c h (socjogramów - nieuporządkowany, kołowy,
hierarchiczny), ułatwiających wgląd w strukturę społeczną badanych grup.
Należy jednak pamiętać, iż socjogram przedstawia jedynie tendencję do
nawiązywania określonych kontaktów pomiędzy członkami grupy
społecznej, a nie prawdziwy obraz struktury tejże grupy. Jeżeli np. osoba X
najchętniej przebywałaby w towarzystwie osoby Y, to wcale nie znaczy, że
de facto z nią przebywa, gdyż może stać temu na przeszkodzie wiele
rozmaitych czynników. Ponadto socjogram odzwierciedla dość wąski,
statyczny wycinek rzeczywistości społecznej, a przecież układ stosunków
wzajemnych pomiędzy członkami grupy to dynamiczny proces społeczny,
stanowiący wypadkową wielu zmiennych.
Po dokonaniu graficznego uporządkowania wyników testu
socjometrycznego materiał socjometryczny poddaje się analizie ilościowej.
Najczęściej oblicza się następujące liczbowe wskaźniki socjometryczne79:

1) Pozytywna pozycja socjometryczna osoby (wskaźnik pozycji danej


osoby ze względu na liczbę pozytywnych wyborów - akceptacji) – miara

79
Zob. R. Mayntz, K. Holm, P. Hubner, Wprowadzenie do metod socjologii empirycznej, PWN,
Warszawa1985, s. 163 i nast. J. Sztumski, Wstęp do metod i technik badań społecznych, PWN,
Warszawa 1984, s. 108 i nast.
77
popularności jednostki w obrębie grupy. Im wskaźnik wyraża się wyższą
liczbę absolutną przypisaną do konkretnej cechy danej osoby, tym wyższą
pozycję w grupie zajmuje ta osoba ze względu na tę cechę.

Liczba uzyskanych wyborów


Liczba członków grupy - 1

2) Negatywna pozycja socjometryczna osoby (wskaźnik pozycji danej


osoby ze względu na liczbę negatywnych wyborów - odrzuceń) – miara
braku popularności jednostki w obrębie grupy. Im większą liczbą wyraża się
uzyskany wynik, tym dana osoba zajmuje niższą pozycję w grupie ze
względu na określoną cechę.

Liczba uzyskanych odrzuceń


Liczba członków grupy - 1

3) Ekspansywność osoby – informuje o wielkości dążenia osoby do


kontaktów z innymi ludźmi; im wskaźnik wyrażony jest wyższą liczbą
absolutną, tym dążenie tego rodzaju jest wyższe.

Liczba wyborów dokonanych przez osobę i


Liczba członków grupy - 1

4) Ekspansywność grupy – wskazuje, jak duże jest zainteresowanie


wzajemne poszczególnych osób w badanej grupie. Wyższa liczba
wskaźnika mówi o wyższym zainteresowaniu.

Ogólna liczba wyborów dokonanych przez grupę


Liczba członków grupy

5) Spoistość grupy – pokazuje częstość odwzajemnionych wyborów


pomiędzy członkami grupy; wyższa liczba oznacza wyższy stopień
spoistości.

Liczba par o odwzajemnionym wyborze


Liczba możliwych wyborów wzajemnych

6) Zwartość grupy – informuje o proporcji wyborów odwzajemnionych


do wyborów nieodwzajemnionych; im większą liczbą wyraża się wskaźnik,
tym większa jest zwartość grupy.

Łączna liczba wszystkich wyborów wzajemnych x q


Łączna liczba wszystkich wyborów nie odwzajemnionych x p

78
dopuszczal na liczba wyborów
gdzie: p  ; q = 1 – p.
liczba czlonków grupy - 1

7) Integracja grupy – pokazuje stopień równomierności wyborów


pomiędzy wszystkimi członkami grupy. Innymi słowy, ujawnia liczbę osób
izolowanych, pozostających poza kręgiem zainteresowań grupy; im niższa
jest liczba osób izolowanych, tym większy stopień integracji.

1
liczba osób izolowanyc h

ROZ. 4. WSTĘP DO ANALIZY STATYSTYCZNEJ

4.1. Podstawowe zagadnienia statystyki

Termin statystyka pochodzi od łacińskiego słowa status, który w


klasycznej łacinie łączenie oznaczał stan prawny bądź szerzej – dowolny
stan rzeczy, a średniowiecznej – polityczny stan rzeczy. Jednym z
pierwszych uczonych używających w nauce terminu statystyka był
niemiecki filozof, ekonomista i prawnik Gottfried Achenwall (1719-1772).
Dla niego statystyka to opis stanu państwa na podstawie danych liczbowych
pozyskiwanych przez administrację państwową w ramach jej kompetencji.
Statystycy w opisie państwa szeroko wykorzystywali zestawienia liczbowe
prezentowane w formie tablic czy wykresów. Z czasem zdano sobie
wyraźnie sprawę z tego, że w obrębie dowolnych zjawisk, pozornie
chaotycznych - zachodzi pewien porządek, określona prawidłowość, pod
warunkiem wszakże, iż owe zjawiska rozpatruje się w odpowiednio dużych
zbiorach. W ten sposób empiryczne zestawienia liczbowe zostały
potraktowane jako baza do uogólnień teoretycznych przy pomocy
precyzyjnej aparatury matematycznej. Szczególnie doniosły wkład w
rozwój statystyki jako nauki o charakterze matematycznym opartej na
rachunku prawdopodobieństwa wnieśli w XIX i XX wieku: Niemiec: J.C.F.
Gauss (1777-1855); Belg G. Quetelet (1796-1874), Anglicy: F. Galton
(1822-1911), K. Pearson (1857-1936), R. Fisher (1890-1962) oraz Rosjanie:
P. Czebyszew (1821-1894), A. Markow (starszy: 1856-1922), A. Lapunow
(1857-1918), A. Kołmogorow (1903-1987).
Podstawowym celem badań statystycznych - niezależnie od tego, w jakiej
dziedzinie są one prowadzone - jest wykrywanie prawidłowości w
dowolnych zdarzeniach występujących w odpowiednio dużej liczbie, a
więc zdarzeniach masowych. Pozwala to z jednej strony określić istotę tych
zdarzeń, a z drugiej – przewidywać ich dalszy przebieg. Celami
cząstkowymi będą natomiast te wszystkie zadania, jakie stawia się badaniu
79
statystycznemu na poszczególnych jego etapach. W szczególności będzie to
liczbowe określenie właściwości badanego zbioru (populacji) bezpośrednio
bądź pośrednio - na mocy wnioskowania statystycznego z części zbioru na
cały zbiór, tj. z próby na populację.
Wyróżnić należy poszczególne etapy badania statystycznego. Są one
następujące: obserwacja statystyczna, opracowanie materiału
statystycznego, prezentacja, analiza statystyczna i wnioskowanie
statystyczne.

1) O b s e r w a c j a s t a t y s t y c z n a – zbieranie informacji o
jednostkach badanej populacji generalnej; krótko: jednostek badania
(jednostek statystycznych), [a więc tego, co stanowi przedmiot
zainteresowania badacza. Jednostkami badania w przypadku socjologa czy
pedagoga będą na ogół osoby (np. nauczyciel, uczniowie) bądź zjawiska
społeczne (np. zachowania dewiacyjne). Przynależność do zbioru np.
uczniów jest cechą stałą – tzn. taką, która umożliwia jednoznaczne
zakwalifikowanie danej osoby do badanej populacji. Badacza interesują
jednak głównie cechy zmienne, tzn. takie, którymi dane osoby różnią się
między sobą, np. cechy osobowościowe, ponieważ tylko wówczas badanie
może mieć istotną wartość poznawczą. Obserwacja statystyczna
uzależniona jest od następujących czynników: celu, przedmiotu, zakresu i
metody badania. Cel badania – określenie sytuacji problemowej, która ma
być rozwiązana w rezultacie przeprowadzonego badania statystycznego.
Przedmiot badania – określenie zbiorowości statystycznej oraz jednostki
statystycznej. Zakres badania – wybór cech statycznych, które będą
podlegały obserwacji statycznej. Metoda badania – głównie chodzi o
decyzję dotyczącą tego, czy ma być przeprowadzone badanie pełne czy też
częściowe (zwłaszcza reprezentacyjne bądź monograficzne). W przypadku
badań częściowych reprezentacyjnych należy rozstrzygnąć kwestię sposobu
doboru jednostek do próby statystycznej. Należy dokonać wyboru spośród
wszystkich jednostek badania tych, które będą poddawane obserwacji
statystycznej, tj. wybór populacji próbnej (krótko: próby). W grę może
wchodzić dobór celowy bądź probabilistyczny [zob. 4.6.1.].

2) O p r a c o w a n i e m a t e r i a ł u s t a t y s t y c z n e g o - materiał
statystyczny otrzymany w wyniku obserwacji statystycznej jest
nieuporządkowanym zbiorem danych o poszczególnych jednostkach
badania. Z uwagi na to, że zawiera informacje właśnie o poszczególnych
jednostkach, nie nadaje się w takiej postaci do analizy. Materiał ten musi
zostać uporządkowany w taki sposób, aby zawierał syntetyczne informacje
o całym zbiorze (zbiorowości) poddanym obserwacji (populacji generalnej
bądź próbnej). Uporządkowanie materiału statystycznego obejmuje:
grupowanie statystyczne – podział zbioru na podzbiory, składające się z
jednorodnych, ze względu na przyjęte kryterium (warianty cechy
80
statystycznej; np. grupowanie ludności wg wykształcenia), jednostek oraz
zliczanie materiału statycznego – ustalanie liczebności poszczególnych
podzbiorów, co pozwala stwierdzić, ile jednostek przypada na określone
warianty cech statystycznych.

3) P r e z e n t a c j a m a t e r i a ł u s t a t y s t y c z n e g o – ma na celu
umożliwienie w sposób syntetyczny zapoznanie się z podstawowymi
własnościami badanej populacji. Jeżeli liczba danych jest stosunkowo mała
stosuje się opisową prezentację, która polega na tym, że uzyskane dane
włącza się do tekstu opisującego prezentowaną obserwację statystyczną.
Podstawowym narzędziem prezentacji są jednak szeregi statystyczne, które
można prezentować graficznie w postaci tablic bądź różnych wykresów.

4) A n a l i z a s t a t y s t y c z n a – jej zadaniem jest wykrycie


prawidłowości oraz zależności pomiędzy jednostkami w badanej
zbiorowości statystycznej. Czytelny ich obraz uzyskuje się w efekcie
obliczenia określonych charakterystyk liczbowych odpowiednio analizy
jednozmiennowej (mierniki statystyczne), analizy dwu- i wielozmiennowej
(współczynniki korelacji oraz współczynniki tendencji rozwojowej). Tak
więc liczbowe określenie właściwości badanego zbioru obejmuje: (1)
poznanie rozkładu wybranej cechy w badanym zbiorze; (2) poznanie
związków (współzależności) pomiędzy wybranymi cechami tego zbioru; (3)
poznanie rozwoju (dynamiki) badanego zbioru zdarzeń w czasie, tzn.
ustalenie, jakim zmianom na linii czasowej podlegają wybrane cechy w tym
zbiorze.

5) W n i o s k o w a n i e s t a t y s t y c z n e – teoria matematyczna
złożona z dwóch części: teorii estymacji – wnioskowanie o postaci rozkładu
populacji generalnej (tzn. o wartości parametrów rozkładu lub jego postaci
funkcyjnej) na podstawie obserwacji uzyskanych w próbie losowej i teorii
weryfikacji hipotez formułowanych na podstawie obserwacji z próby bądź o
kształcie zmiennej losowej (hipoteza nieparametryczna) bądź o nieznanym
parametrze populacji (hipoteza parametryczna).
Dość popularny jest podział statystyki na statystykę opisową i statystykę
indukcyjną (matematyczną). Ta pierwsza określa prawidłowości w
zbiorowości statystycznej poprzez badanie jej struktury (m.in. rozkład
częstości) oraz obliczanie miar, zwanych parametrami statystycznymi.
Druga natomiast stara się wnioskować na podstawie prawidłowości
zaobserwowanych w próbie dobranej losowo o prawidłowościach
występujących w populacji generalnej; innymi słowy, stara się
odpowiedzieć na pytanie, czy ustalenia poczynione w odniesieniu do próby
losowej różnią się w sposób istotny czy tylko przypadkowy w stosunku do
tych, które mają miejsce w populacji generalnej. W sensie czysto
teoretycznym ważna jest tutaj, rzecz jasna, sama procedura postępowania
81
indukcyjnego, a nie konkretne ustalenia poczynione na próbie. Podstawą
teoretyczną wnioskowania statystycznego są metody oferowane przez
rachunek prawdopodobieństwa (probabilistykę).

4.2. Elementy rachunku prawdopodobieństwa

U podstaw statystyki, zwłaszcza tzw. statystyki matematycznej


(indukcyjnej), leży teoria prawdopodobieństwa wyjaśniająca warunki, w
jakich ujawniają się prawidłowości w zjawiskach masowych, a więc takich,
które mogą występować nieograniczoną ilość razy. Z tego też powodu nie
od rzeczy będzie dokonać przeglądu podstawowych pojęć
probabilistycznych.

4.2.1. Pojęcia kombinatoryki

Kombinatoryka pozwala na obliczanie liczby zbiorów, jakie można


tworzyć spośród elementów czy też podzbiorów należących do danego
zbioru skończonego. Można ją zatem nazwać teorią obliczania liczby
elementów zbiorów skończonych. Kombinatoryka jest szczególnie
przydatna w rozwiązywaniu zagadnień rachunku prawdopodobieństwa
(probabilistyki), w których przestrzeń tzw. zdarzeń elementarnych jest
skończona. Wyróżnia się tzw. wariacje, permutacje i kombinacje80.

Wariacje bez powtórzeń Wariacje z powtórzeniami

k
n! Vn  n k
Vn 
k

(n  k )!

1) W a r i a c j ą (rozmieszczeniem, wyborem uporządkowanym) b e z


p o w t ó r z e ń z n elementów nazywamy uporządkowany zbiór składający
się z k różnych elementów, wybranych spośród n różnych elementów.
Innymi słowy, każdy k-wyrazowy ciąg (zbiór), którego wszystkie wyrazy są
różne i należą do n-elementowego zbioru (k  n) nazywamy k-elementową
wariacją bez powtórzeń ze zbioru n-elementowego. W wariacji bez
powtórzeń:
1. Podana jest liczba n elementów danego zbioru.
2. Ze zbioru o n-elementach wybieramy k-razy (podana jest liczba k-
elementów do wyboru).
3. Kolejność (wyboru) elementów jest istotna; ustawia się elementy w
takiej kolejności, w jakiej zostały wybrane.
4. Każdy element może występować co najwyżej raz.
80
Por. T. Gerstenkorn, T. Śródka, Kombinatoryka i rachunek prawdopodobieństwa, PWN, Warszawa
1980, s. 26 i nast.
82
5. Wybrane (wylosowane) elementy nie zostają zwrócone (kolejny wybór
dotyczy mniejszej ilości elementów).

Przykład 4.1. Wybieramy po 2 elementy (k = 2) spośród zbioru 3-


elementowego: a, b, c (n = 3). Wówczas można utworzyć 6 wariacji
dwuelementowych bez powtórzeń: (a b), (a c), (b a), (b c), (c a), (c b):
n! 3! 1 2  3 6
 = V3 
k 2
V n
(n  k )! (3  2)!
=
1!
=
1
= 6.

W a r i a c j ą z p o w t ó r z e n i a m i z n elementów po k nazywamy
uporządkowany zbiór składający się z k elementów różnych lub nie
różniących się między sobą, wybranych spośród n różnych elementów.
Innymi słowy, każdy k-elementowy ciąg (zbiór) o wyrazach należących do
n-elementowego zbioru nazywamy k-elementową wariacją z powtórzeniami
n-elementowego zbioru. Albo jeszcze inaczej – liczba k-wyrazowych
ciągów, jakie można utworzyć z n-elementów danego zbioru. W wariacji z
powtórzeniami:
1. Podana jest liczba n elementów danego zbioru.
2. Ze zbioru o n elementach wybieramy k razy (podana jest liczba k
elementów do wyboru).
3. Kolejność (wyboru) elementów jest istotna; ustawia się elementy w
takiej kolejności, w jakiej zostały wylosowane.
4. Niektóre elementy zbioru mogą, ale nie muszą występować
wielokrotnie, tj. powtarzać się.
5. Po każdym wyborze zwracamy element do zbioru (kolejny wybór
dotyczy wszystkich elementów zbioru).

Przykład 4.2. Wybieramy po 2 elementy (k = 2) spośród zbioru 3-


elementowego: a, b, c (n = 3). Wówczas można utworzyć 9 wariacji z
powtórzeniami: (a a), (a b), (a c), (b a), (b b), (b c), (c a), (c b), (c c):
k
Vn  n k = 32 = 3  3 = 9.

Permutacje bez powtórzeń Permutacje z powtórzeniami

n
.., nk  n!
Pn = n! = V n Pn n
n
,
1 2
,.

n1!, n2 !,..., nk !

2) P e r m u t a c j ą (przemianą, przestawieniem, uporządkowaniem)


nazywamy każde ustawienie wszystkich elementów zbioru (skończonego) w
pewnej kolejności. Innymi słowy, permutacją jest liczba ciągów (możliwych
przestawień), jakie można utworzyć z n elementów zbioru.
P e r m u t a c j a b e z p o w t ó r z e ń zbioru (skończonego) Pn : zbiór
składający się z n elementów uporządkowanych i różnych. Mamy tutaj do
83
czynienia z problemem, na ile sposobów można ustawić n elementy danego
zbioru:
1. Podana jest liczba n elementów danego zbioru.
2. Dwie permutacje są różne, jeśli przynajmniej dwa elementy znajdują
się w każdej z nich na różnych miejscach.
3. Elementy nie mogą się powtarzać.
Np. Zbiór trzyelementowy (a b c) można ustawić na 6 sposobów: (a b c),
(a c b), (b a c), (b c a), (c a b), (c b a): Pn = n! = 1  2  3 = 6.
P e r m u t a c j a z p o w t ó r z e n i a m i z b i o r u (skończonego)
n1,n2,...,nk : zbiór składający się z n elementów uporządkowanych, wśród
P n
których pewne elementy powtarzają się odpowiednio n1, n2,…, nk razy. W
tym przypadku mamy do czynienia z problemem, na ile sposobów można
ustawić n-elementy danego zbioru, spośród których niektóre się powtarzają:
1. Podana jest liczba n elementów danego zbioru.
2. Dwie permutacje są różne, jeśli przynajmniej dwa elementy znajdują
się w każdej z nich na różnych miejscach.
3. Elementy mogą powtarzać się k-razy.

Przykład 4.3. Ile można utworzyć czteroelementowych permutacji wyrazu


t a t a , gdzie elementy t i a (zbiór dwuelementowy) powtarzają się dwa razy?
Czteroelementowa permutacja n = 4; n1 = t = 2; n2 = a = 2. A zatem istnieje 6
czteroelementowych permutacji z powtórzeniami: (t a t a), (t t a a), (t a a t), (a t a t),
(a a t t), (a t t a):
.., nk  n! 4! 1 2  3  4 24
Pn n   6.
, ,. 2, 2
n
1 2

n1!, n2 !,..., nk !
= P 4
=
2!2! 1 2 1 2 4

Kombinacje bez powtórzeń Kombinacje z powtórzeniami

n n! k  n  k  1  n  k  1
C     C      
 k  k!(n  k )!  n 1   k 
n

3) K o m b i n a c j ą (wyborem nieuporządkowanym) z n elementów


branych po k elementów nazywamy zbiory k-elementowe, które można
utworzyć wybierając k dowolnych elementów spośród n danych elementów,
przy czym ich uporządkowanie nie odgrywa roli.
K o m b i n a c j a b e z p o w t ó r z e ń : każdy k-elementowy podzbiór
danego zbioru złożonego z n-elementów różniących się między sobą:
1. Podana jest liczba n elementów danego zbioru.
2. Ze zbioru o n-elementach wybieramy k-razy; podana jest liczba k-
elementów do wyboru.
3. Kolejność elementów nie jest istotna.
84
4. Każdy element może występować co najwyżej raz.

Przykład 4.4. Ze zbioru trójelementowego (a b c), a więc n = 3, można


utworzyć 3 podzbiory dwuelementowe (k = 3), tj. kombinacje bez powtórzeń. Są
one następujące: (a b), (b c), (c a):

n n! 3! 1 2  3 6
C     =   3.
 k  k!(n  k )! 2!(3  2)! 1 2 1 2

Kombinacja z p o w t ó r z e n i a m i : każdy k-elementowy


podzbiór danego zbioru złożonego z n-elementów, które mogą nie różnić się
między sobą (klasa równoważnych wariacji z powtórzeniami):
1. Podana jest liczba n elementów danego zbioru.
2. Kolejność elementów nie jest istotna.
3. Elementy mogą się powtarzać.

Przykład 4.5. Pobieramy próbkę pięcioelementową (k = 5) z populacji


czteroelementowej (n = 4). Kombinacji z powtórzeniami będzie 56:

k 5  n  k  1  8  n! 8!
C  C    =   = = = 56.
 k   5  k!(n  k )! 5!3!
n 4

W kombinatoryce można stosować dwa rodzaje interpretacji, zwłaszcza


w odniesieniu do wariacji i kombinacji; pierwszą z nich jest interpretacja
odwołująca się do sposobów odwzorowywania jednych zbiorów na (w) inne
(tzw. m o d e l r e l a c y j n y ), a druga – odwołuje się do sposobów
losowania obiektów z urny (tzw. m o d e l u r n o w y ). Ta druga, jak się
zdaje, jest bardziej intuicyjna:

SPOSÓB LOSOWANIA KOLEJNOŚĆ WYNIK LOSOWANIA


ELEMENTÓW
bez zwracania istotna wariacja bez powtórzeń
(niepowtarzalność)
ze zwracaniem (powtarzalność) istotna wariacja z
powtórzeniami
bez zwracania nieistotna kombinacja bez
(niepowtarzalność) powtórzeń
ze zwracaniem (powtarzalność) nieistotna kombinacja z
powtórzeniami

Jeżeli k o l e j n o ś ć elementów jest istotna oznacza to, że jeżeli jest (a


b), to również może być (b a), gdyż implikuje to odmienny wynik
losowania. Jeżeli zaś kolejność elementów jest nieistotna oznacza to, że
jeżeli jest (a b), to wynik (b a) nie stanowi odmiennego wyniku losowania.
85
Z kolei p o w t a r z a l n o ś ć oznacza, że na różnych miejscach może być
ten sam element; np. przypadku dwukrotnego wyboru, na pierwszym i na
drugim miejscu może być ten sam element a: (a a). Powtarzalność to,
innymi słowy, wybór wielokrotny; z urny wybieramy dany obiekt i
następnie z powrotem go tam wrzucamy, tak by można było wylosować go
ponownie.

4.2.2. Fundamentalne pojęcia teorii prawdopodobieństwa

W rozmaitych naukach mamy do czynienia nie tylko z zależnościami


ściśle określonymi (deterministycznymi), ale również z zależnościami o
charakterze losowym, których nie można ściśle określić, niemniej można w
odniesieniu do nich podać zbiór możliwych wyników. Rachunek
prawdopodobieństwa (probabilistyka) zajmuje się właśnie opisem i
określaniem prawidłowości w świecie zjawisk masowych.
Teoria prawdopodobieństwa występuje w trzech odmianach jako:

1. Matematyczna teoria prawdopodobieństwa - bazuje na pojęciu


zdarzenia, któremu przypisuje się prawdopodobieństwo; wymaga ona tym
samym budowy określonej teorii zdarzeń.
2. Teoria prawdopodobieństwa logicznego, oparta na logicznym
rachunku zdań; prawdopodobieństwo przypisuje się tutaj nie samym
zdarzeniom jako takim, lecz zdaniom o pewnych zdarzeniach.
3. Teoria prawdopodobieństwa subiektywnego, będąca w gruncie rzeczy
teorią miary stopnia przekonania jednostki ludzkiej o zajściu pewnych
zdarzeń. W sytuacji, gdy nie posiadamy wystarczającej liczby obserwacji
ani też istotnych logicznych przesłanek – dokonujemy oszacowania szans w
sposób subiektywny; np. „moja szansa na zdanie egzaminu ze statystyki
wynosi 75%”.

Obecnie poświęcimy nieco uwagi wyłącznie matematycznej teorii


prawdopodobieństwa81.
Najprostsze wyniki doświadczenia losowego, tj. dającego się powtarzać
dowolnie wiele razy w warunkach zbliżonych, a którego wyniku nie można
przewidzieć jednoznacznie, określamy mianem zdarzeń elementarnych.
Zbiór wszystkich zdarzeń elementarnych danego doświadczenia losowego
nazywamy przestrzenią zdarzeń elementarnych i oznaczamy dużą grecką
literą .
Np. W rzucie kostką  = (1,2,3,4,5,6). Płeć dziecka  = (chłopiec,
dziewczynka).
Zdarzenie losowe z kolei - to każdy podzbiór (w tym także
jednoelementowy) przestrzeni zdarzeń elementarnych. Innymi słowy,
81
Zob. W. Feller, Wstęp do rachunku prawdopodobieństwa, PWN, Warszawa 1977.
86
zdarzenie losowe to takie, które w określonych warunkach może, ale nie
musi nastąpić. Jeśli przestrzeń elementarna ma n elementów, to liczba
zdarzeń losowych wynosi 2n (łącznie ze zdarzeniem pewnym i zdarzeniem
niemożliwym).
Np. W rzucie monetą przestrzeń zdarzeń zawiera dwa zdarzenia
elementarne n = 2: (orzeł, reszka). Liczba zdarzeń losowych: 2n = 22 = 4:
(orzeł), (reszka), (: orzeł, reszka), (zbiór pusty: ).

1) A l g e b r a z d a r z e ń .
(a) Zdarzenie A jest pewne, jeśli A = ; zdarzeniem pewnym jest cała
przestrzeń zdarzeń elementarnych. Występuje zatem przy każdym
powtórzeniu doświadczenia losowego w określonych warunkach.
(b) Zdarzenie A jest niemożliwe, jeśli A = ; zdarzeniem niemożliwym
jest podzbiór pusty  przestrzeni zdarzeń elementarnych .
(c) Zdarzeniem dopełniającym (przeciwnym) do zdarzenia A nazywamy
zdarzenie B składające się z tych wszystkich zdarzeń elementarnych, które
nie są zdarzeniem A; zdarzenie B zachodzi dokładnie wtedy, gdy nie
zachodzi zdarzenie A.
(d) Alternatywą (sumą) zdarzeń A, B nazywamy zdarzenie (A  B),
które zachodzi wtedy i tylko wtedy, gdy zachodzi jedno z wymienionych
zdarzeń lub też gdy obydwa zdarzenia A, B zachodzą równocześnie.
Ogólnie: sumą dowolnej liczby zdarzeń Ai (i = 1, 2, …, n) nazywamy
n
zdarzenie  Ai
i 1
= A, które zachodzi wtedy, gdy zachodzi przynajmniej
jedno ze zdarzeń Ai.
(e) Koniunkcją (iloczynem) dwóch zdarzeń A, B nazywamy zdarzenie (A
 B) polegające na tym, że pojawi się zarówno A jak i B. Ogólnie:
iloczynem dowolnej liczby zdarzeń Ai (i = 1, 2, …, n) nazywamy zdarzenie
n

 Ai
i 1
= A, które zachodzi wtedy, gdy zachodzą jednocześnie wszystkie
zdarzenia Ai.
(f) Różnicą zdarzeń (A – B) nazywamy zdarzenie polegające na tym, że
zdarzenie A zachodzi, ale zdarzenie B nie zachodzi.

2) R e l a c j e m i ę d z y z d a r z e n i a m i .
(a) Inkluzja (zawieranie się zdarzeń): zdarzenie A zawiera się (jest
częścią) w zdarzeniu B (A  B) wtedy i tylko wtedy, gdy każde zdarzenie
elementarne należące do A należy również do B; ilekroć zachodzi zdarzenie
A, zachodzi też zdarzenie B.
(b) Równość zdarzeń: zdarzenie A jest równe zdarzeniu B (A = B) wtedy
i tylko wtedy, gdy zdarzenie A zawiera się w zdarzeniu B i na odwrót –
zdarzenie B zawiera się w zdarzeniu A (A  B  B  A).

87
(c) Rozłączność (wykluczanie się) zdarzeń: zdarzenie A jest rozłączne ze
zdarzeniem B, jeżeli pojawienie się jednego czyni niemożliwym pojawienie
się drugiego; iloczyn zdarzeń A i B jest pusty (A  B = ). Ściślej tego typu
rozłączność nazwać należy rozłącznością (wykluczaniem) wzajemną, co
stanowi szczególnego rodzaju współzależność.
(d) Przez zdarzenia niezależne A i B rozumieć będziemy intuicyjnie
takie, że spośród tych dwóch zdarzeń żadne nie ma wpływu w jakiś sposób
na drugie ani nie są one ze sobą powiązane w taki czy inny sposób.

Przykład 4.6. Jeżeli zdarzenie A polega na wyrzuceniu monetą orła, a zdarzenie


B – na wyrzuceniu szóstki kostką, to są one ewidentnie niezależne; nie ma bowiem
ani od strony ontycznej - pomiędzy procesami, w których się realizują, ani od
stromy epistemicznej – pomiędzy wiedzą obserwatora o zajściu zdarzenia A a
zajściem zdarzenia B czy na odwrót – żadnego związku.

3) K l a s y c z n e k o n c e p c j e p r a w d o p o d o b i e ń s t w a .

1. Definicja klasyczna (Laplace’a). Pierwszą definicję


prawdopodobieństwa, zwaną obecnie klasyczną, podał w 1812 r. P. S.
Laplace. Wedle niej prawdopodobieństwem danego zdarzenia A jest
stosunek liczby m zdarzeń sprzyjających zdarzeniu A do ogólnej liczby 
zdarzeń (przestrzeni zdarzeń), co oznaczamy:

m
P(A) = .

Przykład 4.7. Obliczamy prawdopodobieństwo zdarzenia A polegającego na


wypadnięciu orła w rzucie monetą. W tym doświadczeniu mamy dwa jednakowo
możliwe wyniki ( = 2): (o), (r). Wypadnięciu orła sprzyja jeden wynik (m = 1). A
1
zatem prawdopodobieństwo wypadnięcia orła wynosi P(A) = . A teraz chcemy
2
wyznaczyć prawdopodobieństwo otrzymania przynajmniej raz orła w dwóch
kolejnych rzutach monetą. Otóż możliwe wyniki doświadczenia są następujące (
= 4): (o, o), (r, r), (o, r), (r, o), z których trzy (m = 3) spełniają postawiony
3
warunek. A zatem P(A) = .
4

Prawdopodobieństwo zdarzenia losowego można ilustrować graficznie


za pomocą figur geometrycznych, np. kół Eulera. Jeśli przez n (przestrzeń
zdarzeń elementarnych) oznaczymy powierzchnię większego koła, a przez
m (przestrzeń zdarzeń sprzyjających) – powierzchnię mniejszego koła
zawartego w większym, to ilustracja wyglądać będzie następująco:

88

m

W definicji klasycznej zakłada się, że wszystkie zdarzenia są jednakowo


możliwe (i wykluczające się) - innymi słowy - o takim samym
prawdopodobieństwie. Skoro jednak definicja ma określić, czym jest
prawdopodobieństwo, nie powinna zawierać w definiendum wyrażenia,
które się definiuje; obciążona jest więc wadą błędnego koła w definiowaniu
(cirulus in definiendo). Rzecz jasna nie chodzi tutaj bynajmniej o
teoretyczną równoprawdopodobność zdarzeń elementarnych, gdyż takie
założenie jest wbudowane w model matematycznej koncepcji zdarzeń.
Problem pojawia się z chwilą, gdy chcemy zastosować ten model do opisu
świata rzeczywistego. Wówczas napotyka się na kłopot wynikający z
niemożności podania sensownego kryterium wyróżnienia zdarzeń
rzeczywistych równoprawdopodobnych od tych, które takie nie są. Drugi
zarzut, jaki stawia się wobec definicji Laplace’a dotyczy tego, że wymagana
jest znajomość liczebności zdarzeń sprzyjających i niesprzyjających danemu
zdarzeniu A. Wreszcie okazuje się, że definicja ta może mieć zastosowanie
wyłącznie w odniesieniu do zbiorów skończonych (zdarzeń określonych
liczbami skończonymi), ponieważ tylko w odniesieniu do liczb
skończonych można konstruować ułamek oznaczający prawdopodobieństwo
danego zdarzenia.

2. Definicja geometryczna. Aby można było obliczać


prawdopodobieństwa także w przypadku zbiorów nieskończonych – na co
klasyczne rozumienie prawdopodobieństwa nie pozwala – zaproponowano
interpretację geometryczną. Dopuszcza ona w miejsce liczebności zbiorów
używać miary geometrycznej (mr). Przypuśćmy, że w przestrzeni n-
wymiarowej (np. jednowymiarowej – linia prosta, dwuwymiarowej –
płaszczyzna, trzywymiarowej – objętość) mamy pewien obszar  i zawarty
w nim podobszar m. Niech doświadczenie losowe polega na wyborze
pewnego punktu spośród wszystkich równoprawnych (jednakowo
prawdopodobnych) punktów w obszarze . Wówczas
prawdopodobieństwem zdarzenia A, a więc tego, iż wybrany punkt znajdzie
się w podobszarze m będzie iloraz podobszaru m do całego obszaru :

mr m
P(A) =
mr 

Definicja geometryczna również spotkała się z krytyką, gdyż – podobnie


jak definicja klasyczna – prawdopodobieństwo określa za pomocą
89
równoprawności, czyli wyboru spośród jednakowo prawdopodobnych
punktów w pewnym obszarze.

3. Definicja częstościowa (empiryczna, R. Misesa). Oparta jest na


wynikach doświadczalnych. Konkretny wynik doświadczenia jest
zdarzeniem losowym, a zatem można określić częstość względną
określonego zdarzenia, tj. stosunek liczby doświadczeń kończących się
wystąpieniem danego zdarzenia do ogólnej liczby przeprowadzonych
doświadczeń. Chcemy np. odpowiedzieć na pytanie, jakie jest
prawdopodobieństwo urodzenia się chłopca w danym roku kalendarzowym;
przy pomocy definicji klasycznej czy geometrycznej odpowiedź na to
pytanie jest niemożliwa. W podobnych przypadkach znajduje się więc
względną częstość rozważanego zdarzenia jako stosunek liczby zdarzeń
„sprzyjających” (urodzenie się chłopca) do ogólnej liczby
zaobserwowanych zdarzeń (ogólna liczba urodzeń) w danym roku
kalendarzowym. Aby z względnej częstości oszacować
prawdopodobieństwo interesującego nas zdarzenia, musi być ona obliczona
dla bardzo dużej liczby zdarzeń. Można powiedzieć, że przy dostatecznie
dużej ich liczbie (zmierzającej do nieskończoności) względna częstość
zbliża się do szukanego prawdopodobieństwa dowolnie blisko. Ten opis
słowny ujmuje się formalnie w sposób następujący:

m'
P(A) = lim
  

gdzie m oznacza liczbę doświadczeń sprzyjających zdarzeniu A, zaś  -


liczbę wszystkich doświadczeń. Poważną wadą tej definicji
prawdopodobieństwa jest to, że liczba doświadczeń nie może wzrastać w
sposób nieograniczony i tym samym precyzja oszacowań zawsze będzie
budzić wątpliwości. Okazuje się, że np. przy dostatecznie dużej liczbie
rzutów prawdopodobieństwo wyrzucenia orła w rzucie monetą symetryczną
wynosi 0,5, a prawdopodobieństwo tego, że płeć mającego się urodzić
dziecka będzie żeńska wynosi 0,48. Oczywiście nie wynika to w żaden
sposób z jakichkolwiek rozważań teoretycznych, a tylko z tego, że jest to
zgodne z obserwowalnymi częstościami. Częstościową definicję
prawdopodobieństwa wykorzystuje się wówczas, gdy bądź zbiór zdarzeń
elementarnych jest nieskończony, bądź w sytuacji, gdy nie jesteśmy w
stanie zbadać całej branej pod uwagę populacji.

4. Definicja aksjomatyczna (Kołmogorowa). Uogólnieniem klasycznej i


częstościowej definicji jest aksjomatyczna definicja prawdopodobieństwa

90
sformułowana przez A. Kołmogorowa82. Aksjomaty matematyczne są
podstawowymi niedowodzonymi założeniami, na których opiera się teoria
matematyczna.
Aksjomat 1. Każdemu zdarzeniu A przyporządkowuje się liczbę P(A)
taką, że 0  P(A)  1. Liczbę P(A) nazywamy prawdopodobieństwem
zdarzenia A.
Aksjomat 2. Prawdopodobieństwo zdarzenia pewnego równa się 1.
Aksjomat 3. Prawdopodobieństwo sumy wzajemnie wykluczających się
(parami rozłącznych) zdarzeń losowych jest równe sumie
prawdopodobieństw tych zdarzeń (prawo dodawania prawdopodobieństw):
P(A1  A2  …  An) = P(A1) + P(A2) + … + P(An).

Przykład 4.8. Chcemy oszacować prawdopodobieństwo wyrzucenia jedynki lub


szóstki w rzucie kostką (zdarzeń wykluczających się i niejednoczesnych). Otóż,
1
skoro prawdopodobieństwo uzyskania zarówno jedynki jak i szóstki wynosi , to
6
prawdopodobieństwo uzyskania jednego z tych dwóch sprzyjających zdarzeń
1 1 2 1
wynosi:    .
6 6 6 3

4) Własności prawdopodobieństwa jako


konsekwencje definicji aksjomatycznej.

1. Prawdopodobieństwo sumy dowolnych (nierozłącznych) zdarzeń


losowych – równa się sumie prawdopodobieństwa tych zdarzeń,
pomniejszonej o prawdopodobieństwo ich iloczynu. Dwa zdarzenia
rozłączne należą o sumy to zdarzenie należące do zbioru A oraz zdarzenie
należące do zbioru B; nie ma natomiast takiego zdarzenia, które by zarazem
należało do zbioru A i zbioru B:

P(A  B) = P(A) + P(B) – P(A  B)

2. Prawdopodobieństwo zdarzenia niemożliwego – równa się 0:

P () = 0

3. Prawdopodobieństwo zdarzenia przeciwnego do A – równa się 1


minus prawdopodobieństwo zdarzenia A:

P(A) = 1 – P(A)

82
Zob. L.T. Kubik, Rachunek prawdopodobieństwa. Podręcznik dla kierunków nauczycielskich
studiów matematycznych, PWN, Warszawa 1981, s. 36 i nast.
91
4. Prawdopodobieństwo warunkowe – niech A i B będą dowolnymi
zdarzeniami. Prawdopodobieństwo warunkowe P(AB) (P od A pod
warunkiem B) jest to prawdopodobieństwo wystąpienia zdarzenia A wtedy,
gdy wiadomo, że wystąpiło już zdarzenie B. Zachodzi następujący wzór:

P( A  B)
P(AB) =
P( B)
gdzie P(B)  0. Warunek B podaje, czy jego zaistnienie wpływa na zmianę
szansy zajścia zdarzenia A. Innymi słowy, określa, jaką część zdarzeń
elementarnych sprzyjających zdarzeniu B stanowią zdarzenia elementarne
sprzyjające zdarzeniu A  B. Jeżeli zaś zdarzenia A i B są niezależne, to
zachodzi: P(AB) = P(A).

Przykład 4.9. Przy dwukrotnym rzucie kostką zdarzenie A = {(1,1), (2,2), (3,3),
6
(4,4), (5,5), (6,6)} mamy prawdopodobieństwo . Nastąpiło zdarzenie B – „suma
36
oczek w dwukrotnym rzucie kostką wynosi 4”. Chcemy obliczyć
prawdopodobieństwo A pod warunkiem zaistnienia B. Mamy: P(B) = P(2,2) +
3 1
P(1,3) + P(3,1)) = . Iloczyn zdarzeń A i B: P(A  B) = P (2,2) = .
36 36
Stosujemy teraz wzór na prawdopodobieństwo warunkowe:
1
P(2,2) 1
P(AB) = = 36  .
P( B) 3 3
36

5. Prawdopodobieństwo iloczynu zdarzeń zależnych – ze wzoru na


prawdopodobieństwo warunkowe mamy:

P(A  B) = P(AB) x P(B)

Wzór ten pozostaje także prawdziwy w sytuacji, gdy P(B) = 0. Jeżeli


prawdopodobieństwo jakiegoś zdarzenia wynosi 0, to prawdopodobieństwo
iloczynu tego zdarzenia z jakimś innym również musi być równe zeru.

6. Prawdopodobieństwo iloczynu zdarzeń niezależnych – jeżeli A i B są


wzajemnie niezależne, to wystąpienie jednego z nich nie oddziałuje w żaden
sposób na drugie z nich. Stąd też wzór przyjmuje następującą postać:

P(A  B) = P(A) x P(B)

92
5) P r a w d o p o d o b i e ń s t w o c a ł k o w i t e . Przypuśćmy, że mamy
n wzajemnie wykluczających się (parami rozłącznych) zdarzeń losowych:
H1, H2, …, Hn, zawartych w przestrzeni zdarzeń elementarnych . Niech
n
suma tych zdarzeń będzie zdarzeniem pewnym:  P( H )  1 .
i 1
i Wtedy

prawdopodobieństwo dowolnego zdarzenia A zawartego w przestrzeni


zdarzeń elementarnych (A  ) można obliczyć ze wzoru:

P(A) = P(H1) x P(AH1) + P(H2) x P(AH2) + … + P(Hn) x P(AHn) =


n

 P( H ) x P(AHi)
i 1
i

Zdarzenia: H1, H2, …, Hn traktować można jako hipotezy dotyczące


zdarzenia A, gdyż nie wiemy, które z nich zajdzie. Prawdopodobieństwa
P(Hi) są interpretowane jako prawdopodobieństwa hipotez.

Przykład 4.10. W urnie znajduje się 10 kul: 3 czarne i 7 białych. Losujemy


kolejno bez zwracania dwie kule. Chcemy obliczyć, jakie jest
prawdopodobieństwo tego, że w drugim podejściu wylosujemy kulę białą. Niech:
H1 – wyciągnięcie w pierwszym losowaniu kuli czarnej; H2 – wyciągnięcie w
pierwszym losowaniu kuli białej; A – wyciągnięcie w drugim losowaniu kuli białej.
3 7 7 6
Wtedy: P(H1) = ; P(H2) = ; P(AH1) = ; P(AH2) = . Wykorzystujemy
10 10 9 9
teraz wzór na prawdopodobieństwo całkowite: P(A) = P(H1) x P(AH1) + P(H2) x
3 7 7 6 7
P(AH2) = x + x = .
10 9 10 9 10

6) Twierdzenie Bayesa. Jeśli interesuje nas


prawdopodobieństwo wystąpienia jednego ze zdarzeń wyłączających się H1,
H2, …, Hn, przy założeniu, że zaszło zdarzenie A – wówczas, przy
identycznych założeniach co we wzorze na prawdopodobieństwo całkowite,
stosujemy wzór (twierdzenie) Bayesa:

P( A  H i )  P( H i )
P(HiA) =
P( A  H1 )  P( H1 )  ...  P( A  H n )  P( H n )

Przed przeprowadzeniem doświadczenia, w wyniku którego zaszło


zdarzenie A, szanse zajścia zdarzeń, zwanych hipotezami, H1, H2, …, Hn są
jednakowe, dlatego ich prawdopodobieństwa noszą nazwę
prawdopodobieństw a priori. Podczas gdy prawdopodobieństwa P(HiA)
nazywamy prawdopodobieństwami a posteriori, gdyż są szacowane
dopiero po nastąpieniu zdarzenia A. Jeżeli brak informacji o wartościach
93
prawdopodobieństw a priori, to zakładamy, że są one równe. Takie
założenie nosi nazwę postulatu Bayesa83.

Przykład 4.11. Dwa działa strzelają do tego samego celu. W przeciągu


określonego czasu pierwsze działo może wystrzelić 9 pocisków, a drugie działo 10
pocisków. Celność poszczególnych dział jest następująca: działo pierwsze trafia
średnio 8 razy na 10 strzałów. Działo drugie trafia średnio 7 razy na 10 strzałów.
Okazało się, że jeden pocisk trafił w cel. Nie wiadomo jednak, z którego działa
pochodzi celny strzał. Należy obliczyć prawdopodobieństwo, że celny strzał
pochodzi z drugiego działa.
Oznaczmy przez A zdarzenie, że wystrzelony pocisk trafi w cel. Przez Hi (i = 1,
2) oznaczmy zdarzenie, że wyrzucony pocisk został wystrzelony z działa o
numerze i (tzn. 1 lub 2). Szukamy P(H2A) – prawdopodobieństwa, że pocisk został
wystrzelony z działa o nr. 2 pod warunkiem, że strzał był celny. Stosujemy
twierdzenie Bayesa:
P( A  H 2 )  P( H 2 )
P(H2A) = .
P( A  H1 )  P( H1 )  P( A  H 2 )  P( H 2 )
9 10 8
W naszym przykładzie: P(H1) = ; P(H2) = ; P(AH1) = ; P(AH2) =
19 19 10
7
. A zatem:
10
7 10

P(H2A) = 10 19 = 0,493.
8 9 7 10
  
10 19 10 19

7) S c h e m a t B e r n o u l l i e g o . Doświadczenie o dokładnie dwóch


możliwych wynikach nazywamy próbą Bernoulliego. Oznaczamy te wyniki
przez 1 oraz 0 i nazywamy sukcesem i porażką. Prawdopodobieństwo
sukcesu zwyczajowo znaczymy literą p, a prawdopodobieństwo porażki –
literą q. Stąd oczywiście wynika, że p + q = 1 oraz q = 1 – p. Schematem
Bernoulliego o długości n nazywamy n-krotne, niezależne powtórzenie
próby Bernoulliego. W schemacie n-prób Bernoulliego, w którym
występuje k sukcesów i n – k porażek, prawdopodobieństwo Pn(k)
otrzymania dokładnie k sukcesów wynosi:

n
Pn(k) =    p k  q nk
k 

83
D. Stempell, Rachunek prawdopodobieństwa w ujęciu programowanym, WN-T, Warszawa 1975,
s. 67.
94
Przykład 4.12. Rzucamy 6 razy kostką do gry (n = 6). Chcemy wiedzieć, jakie
jest prawdopodobieństwo, że szóstka wypadnie 3 razy (k = 3). Mamy tutaj do
czynienia ze schematem n = 6 prób Bernoulliego. Prawdopodobieństwo sukcesu,
1
czyli wyrzucenia szóstki wynosi p = , zaś prawdopodobieństwo porażki wynosi
6
5
q = . A zatem w kolejnych przypadkach mamy następujące
6
prawdopodobieństwa:
n 6  1   5 
3 3
125
Pn(k) =    p k  q n k = P6(3) =         = 20   0,0536.
k   3  6   6  46656

4.3. Zmienne statystyczne i ich rozkłady

4.3.1. Charakterystyka zmiennych

W skład zbiorowości statystycznej (populacji i próby) wchodzą elementy


zwane jednostkami statystycznymi (np. poszczególni studenci socjologii),
które muszą być jednorodne, tzn. posiadać co najmniej jedną wspólną cechę
(np. studenci socjologii I roku), ale nie mogą być identyczne, czyli muszą
się jakąś cechą różnić od siebie (np. średnia ocen semestralnych). Te cechy
jednostek statystycznych, które są im wspólne noszą nazwę stałych cech
statystycznych, zaś te, które je różnicują – zmiennych cech statystycznych
(krótko: zmienne statystyczne). W zależności od charakteru zbiorowości
statystycznej wśród cech stałych wyróżnia się: cechy rzeczowe -
przesądzające o tym kto lub co jest przedmiotem badania; cechy
przestrzenne – decydujące o zasięgu terytorialnym jednostek należących do
zbiorowości oraz cechy czasowe – określające z jakiego przedziału
czasowego włączono jednostki w skład zbiorowości statystycznej.

Przykład 4.13. Rozpatrzmy zbiorowość, której jednostkami są wszyscy


uczniowie warszawskich liceów ogólnokształcących w dniu 1 września 2013 r.
Stałą cechą rzeczową będzie to, że są to uczniowie liceów ogólnokształcących;
stałą cechą przestrzenną – to, że uczniowie ci są z warszawskich liceów
ogólnokształcących; stałą cechą czasową – to, że do zbiorowości należą tylko ci,
co byli uczniami warszawskich liceów ogólnokształcących w dniu 1 września 2013
r.

Zmienne statystyczne można podzielić na: niemierzalne (jakościowe),


opisane na skali nominalnej lub porządkowej bądź mierzalne (ilościowe),
opisane na skali interwałowej lub ilorazowej [zob. poniżej]. Zmienne

95
mierzalne dzielą się na skokowe (dyskretne) i ciągłe84. Należy wszakże
zauważyć, iż podział na zmienne skokowe i ciągłe nastręcza często wiele
trudności. Zmienność skokowa o bardzo dużej liczbie możliwych wariantów
zbliżona jest bowiem swym charakterem do zmienności ciągłej. Z tego też
powodu nadaje się jej czasami nazwę zmiennej quasi-ciągłej.

Rys. 4.1. Podział cech statystycznych.

stałe niemierzalne
skokowe

cechy zmienne mierzalne ciągłe

1) Z m i e n n a n i e m i e r z a l n a (jakościowa) – taka własność


jednostki statystycznej (np. płeć, pochodzenie społeczne, kolor oczu,
narodowość), której dany wariant występuje bądź nie występuje; wyrażane
są opisowo (słownie) ewentualnie za pomocą skal numerycznych.
Przykładowo płeć posiada dwa warianty: mężczyzna – kobieta. Badacz
może jedynie stwierdzić, który z tych dwóch wariantów występuje u
konkretnej osoby (jednostki statystycznej); pomiar byłby tu zupełnie
pozbawiony sensu (np. płeć, narodowość, przynależność do pewnej grupy
społecznej).

2) Z m i e n n a m i e r z a l n a s k o k o w a (dyskretna) – taka własność


jednostki statystycznej, której natężenie może przyjmować skończony zbiór
wartości na danej skali liczbowej; wartości są liczbami zmieniającymi się
skokowo, tzn, że brak wartości pośrednich. Innymi słowy, jeśli pomiędzy
dwiema sąsiednimi wartościami zmiennej nie występuje trzecia wartość, to
mamy do czynienia ze zmienną dyskretną (np. liczba dzieci w rodzinie,
liczba studentów w uczelni, liczba pracowników w przedsiębiorstwie).

3) Z m i e n n a m i e r z a l n a c i ą g ł a – taka własność jednostki


statystycznej, której natężenie może przyjmować dowolne wartości
liczbowe z pewnego przedziału liczbowego, tj. nieskończenie wiele
wartości. Innymi słowy, zmienna jest ciągła, jeśli pomiędzy dwiema
sąsiednimi wartościami zmiennej zawsze można znaleźć jakąś inną wartość
(np. wiek, wzrost, waga). Z reguły oczekiwany stopień dokładności
decyduje o tym, jakimi wartościami będzie wyrażana badana własność
jednostki statystycznej. Jeżeli badamy np. wzrost uczniów, to można go
mierzyć w metrach, centymetrach, milimetrach itd.

84
Zob. J. Brzeziński, Elementy metodologii badań psychologicznych, PWN, Warszawa 1980, s. 22.
96
Zgodnie z ustaloną tradycją przyjmujemy, że zbiór wartości zmiennej
przyjmuje postać jednej spośród czterech skal wyróżnionych w 1951 r.
przez S.S. Stevensa: nominalnej, porządkowej, interwałowej oraz
stosunkowej. Przy czym zmienne określane na skali nominalnej i
porządkowej określa się mianem z m i e n n y c h j a k o ś c i o w y c h , a na
skalach: interwałowej oraz ilorazowej – jako z m i e n n e i l o ś c i o w e .

1) S k a l a n o m i n a l n a – wyznacza elementy określone przez


operację równości lub różności; można orzekać, czy dany element jest taki
sam albo inny ze względu na interesującą badacza właściwość. Liczby
używane są tylko jako etykiety dla poszczególnych grup. Całą bowiem
populację można podzielić na tyle grup, ile wartości może dana zmienna
przyjmować (Np. kolor oczu; płeć). W sensie matematycznym dopuszczalne
jest jedynie zliczanie elementów w poszczególnych grupach
(obserwacjach); w sensie statystycznym – obliczanie m.in. liczebności,
proporcji, procentów czy modalnej.

2) S k a l a p o r z ą d k o w a – pozwala na uszeregowanie elementów w


zbiorze; możliwe są więc nie tylko twierdzenia o równości bądź różności
elementów, lecz także twierdzenia typu „większy niż” oraz „mniejszy niż”.
Nie możemy zatem wiedzieć o ile x jest większe od y bądź mniejsze, wiemy
tylko, że x w ogóle jest większe od y. Skala porządkowa pozwala na każdą
monotoniczną i dodatnią transformację przypisanych liczb, ponieważ
różnice liczb nie mają żadnego znaczenia oprócz porządku (kolejności).
Zależnie od rodzaju relacji porządkującej otrzymujemy uporządkowanie
słabe lub mocne. Uporządkowanie nazywamy słabym wtedy, gdy jest ono
generowane przez relację asymetryczną i tranzytywną (przechodnią). Z
kolei uporządkowanie nazywamy mocnym wtedy, gdy jest ono wyznaczone
przez relację asymetryczną, tranzytywną i spójną (Np. Uporządkowanie
osób w grupie ze względu na stopień konformizmu). Skala porządkowa
dopuszcza tylko takie operacje matematyczne, które nie wymagają
jednostek pomiaru oraz operacje statystyczne – poza tymi ze skali
nominalnej – takie jak: obliczanie mediany, kwartyli czy współczynnika
korelacji rangowej Spearmana.

3) S k a l a i n t e r w a ł o w a (przedziałowa) – możliwe są twierdzenia


o równości przedziałów, aczkolwiek bez zera absolutnego; punkt zerowy
można sobie dowolnie wyznaczyć. Obok twierdzeń o równości lub różności
i twierdzeń typu „większy niż” i „mniejszy niż” wypowiada się tezy o
znaczeniu różnic między wynikami obserwacji. Wyniki obserwacji
umieszcza się w pewnym przedziale liczbowym, zaś odległością między
obiektami jest różnica między wynikami obserwacji, wyrażona w
odpowiednich jednostkach. Na skali interwałowej punkt zerowy jest
ustalony arbitralnie. Oznacza to, że każde dodatnie przekształcenie liniowe
97
typu: y = a + bx, gdzie b > 0, x – liczbą wyjściową, zaś y – liczbą
przekształconą, zachowuje właściwości skali (Np. Pomiar temperatury na
skali Celsjusza; czas kalendarzowy). Można zatem określić liczbowo
dystans pomiędzy obserwowanymi zdarzeniami oraz średnie arytmetyczne
dla tych zdarzeń. Oprócz operacji statystycznych z wyżej wymienionych
skal, dopuszczalne jest również m.in. obliczanie wariancji, odchylenia
standardowego czy współczynnika korelacji Pearsona.

4) S k a l a i l o r a z o w a (stosunkowa) – określona jest przez operację,


która pozwala na formułowanie, oprócz twierdzeń z wyżej wymienionych
skal, również twierdzenia o równości stosunków. Liczby odzwierciedlają
odległość od absolutnego zera, co oznacza, że mają sens podstawowe
operacje algebraiczne. Skala ilorazowa pozwala na proporcjonalne
przekształcenie wartości typu: y = bx, gdzie b – pewna dodatnia stała, x –
reprezentuje wartości pierwotne, zaś y – wartości przekształcone. (Np.
Liczebność zbioru; długość; ciężar). Skala ilorazowa jest najmocniejszą
spośród wszystkich skal; dopuszcza stosowanie większości operacji
matematycznych oraz statystycznych.

Szczególnym rodzajem zmiennych statystycznych są z m i e n n e


l o s o w e . Są to mianowicie takie zmienne, które spełniają dwa warunki:
pierwszy – wartość zmiennej nie jest identyczna dla wszystkich jednostek
zbiorowości statystycznej; drugi – warianty (wartości) cech dla
poszczególnych jednostek statystycznych różnią się w sposób losowy. Przez
zmienną losową można zatem intuicyjnie rozumieć taką zmienną, która w
wyniku doświadczenia może przybierać wartości z pewnego zbioru liczb
rzeczywistych z określonym prawdopodobieństwem.

Przykład 4.14. Niech zbiorowością statystyczną będą studenci stacjonarni I roku


kierunku bezpieczeństwo narodowe WNS Filii UJK w roku akademickim 2012/13,
badani z punktu widzenia średniego wyniku osiągniętego w zimowej sesji
egzaminacyjnej, wieku oraz zainteresowań pozanaukowych. W tym przypadku
jednostką statystyczną będzie student; cechy stałe: 1. student kierunku
bezpieczeństwo narodowe; 2. student I roku studiów stacjonarnych; 3. student
WNS Filii UJK; 4. student w roku akademickim 2012/13; zmienne losowe: 1.
średni wynik; 2. wiek; 3. zainteresowania. Ale gdybyśmy do badania wybrali tylko
studentów przejawiających zainteresowania np. piłką nożną, to wówczas cecha
„zainteresowanie” przestałaby być zmienną losową. Podobnie byłoby w
przypadku, gdybyśmy z góry ustalili, ile jednostek o danym wariancie cechy
przyjmiemy do badania (5 studentów zainteresowanych piłką nożną, 4 studentów –
filmem, 3 studentów – turystyką).

Istnieje wiele określeń zmiennej losowej; można ją w szczególności


rozumieć jako swoistego rodzaju cechę statystyczną, jako liczbę
reprezentującą dowolne zdarzenie w przestrzeni zdarzeń elementarnych czy
98
też jako funkcję mierzalną. Poniżej przytoczymy definicję określającą
zmienną losową jako funkcję:

Zmienną losową nazywamy każdą funkcję mierzalną określoną na


przestrzeni zdarzeń elementarnych E i przybierającą wartości ze zbioru liczb
rzeczywistych [X: E  R]. Inaczej: jeśli (E, S, P) jest przestrzenią
probabilistyczną dla danego doświadczenia, to zmienną losową nazywamy
każdą funkcję o wartościach rzeczywistych określoną na zbiorze zdarzeń
elementarnych E, mierzalną względem ciała zdarzeń S, na którym określona jest
miara P85.

Najprościej można powiedzieć, że zmienna losowa X to taka zmienna,


która w wyniku doświadczenia realizuje różne wartości liczbowe x, y, z, …
zmiennej z określonym prawdopodobieństwem. W zależności od tego, jaki
charakter mają liczby rzeczywiste będące realizacjami zmiennej losowej X,
wyróżnia się zmienne losowe skokowe oraz ciągłe. Zmienne losowe
będziemy oznaczać dużymi literami X, Y. Małych liter używać będziemy do
oznaczenia poszczególnych wartości przybieranych przez zmienne losowe:
x1, x2, …, xn; y1, y2, …, yn.
Z m i e n n a l o s o w a s k o k o w a (dyskretna) – to taka zmienna
losowa, której zbiór różnych wartości jest skończony bądź nieskończony,
ale przeliczalny (np. liczba uczniów w klasie; płeć; poziom wykształcenia -
wartość równa dowolnej liczbie naturalnej, nieskończona, przeliczalna).
Z m i e n n a l o s o w a c i ą g ł a – to taka zmienna losowa, której zbiór
różnych wartości jest nieskończony i nieprzeliczalny, tj. mocy continuum
(np. wzrost, waga, odległość).
Dowolne zdarzenia, procesy, zjawiska, rzeczy i osoby mogą stanowić
przedmiot zainteresowań badacza, jednakże nie w całej swej złożoności,
lecz wyłącznie z punktu widzenia pewnych cech oraz ich wzajemnych
oddziaływań. Ze względu na kierunek oddziaływania wyróżnia się zmienne
niezależne i zależne. Należy zwrócić uwagę na to, że podział na zmienne
niezależne i zależne odnosi się jedynie do procesu badawczego. W świecie
realnym bowiem taki podział nie ma sensu; wszystko jest splecione siecią
wzajemnych powiązań. To sam badacz, stosownie do przyjętych założeń i
metod, decyduje o tym, które spośród wyróżnionych zmiennych są
niezależne, a które zależne oraz w jaki sposób należy je interpretować.
Z m i e n n a n i e z a l e ż n a – ta, od której zależą inne zmienne; którą w
procesie badawczym badacz manipuluje tzn. może zmienić jej wartości, siłę
czy kierunek. Przy czym zmienne niezależne mogą oddziaływać na zmienną
zależną z różną siłą. Te, które oddziałują najmocniej zwykło się określać
mianem zmiennych niezależnych głównych, natomiast te, które oddziałują
słabiej – zmiennymi niezależnymi ubocznymi. Na ogół na zmienną zależną

85
M. Sobczyk, Statystyka, PWN, Warszawa 1988, s. 84.
99
oddziałują także inne zmienne niezależne (poza badanymi) tzw. zmienne
zakłócające (interweniujące), które mogą być kontrolowane bądź nie.
Z m i e n n a z a l e ż n a – ta, która stanowi przedmiot badania i badacz
dokonuje jej pomiaru. Wartość zmiennej zależnej zależy od wartości
zmiennej niezależnej; w ujęciu matematycznym określa się ją jako funkcję
zmiennej niezależnej.

4.3.2. Rozkład empiryczny zmiennych

Należy wyróżnić rozkład empiryczny i teoretyczny zmiennych


statystycznych. Ten pierwszy oznacza po prostu zapisane w postaci
tabelarycznej bądź graficznej (wykresy różnego typu) konkretne wyniki
badawcze. Rozkład empiryczny odzwierciedla strukturę badanej
zbiorowości statystycznej z punktu widzenia określonej cechy, czyli
stosunki ilościowe między jej częściami składowymi ze względu na daną
cechę. Tradycyjnie - w odniesieniu do zmiennych nielosowych - wartości
cechy, według której dokonuje się rozkładu, nazywa się często wariantami
cechy, termin wartości rezerwując dla zmiennych losowych, ale nie jest to
konieczne. Generalnie powiemy, że r o z k ł a d e m e m p i r y c z n y m
z m i e n n e j nazywamy przyporządkowanie kolejnych wartości zmiennej
(xi) odpowiadających im liczebności (ni). Natomiast pojęcie r o z k ł a d
t e o r e t y c z n y stosuje się z reguły w odniesieniu do zmiennych losowych
i oznacza ono matematyczny model rozkładu empirycznego w sytuacji,
gdyby był on wynikiem liczby obserwacji zmierzającej ku nieskończoności.
Z uwagi na to, że matematyczna analiza rozkładów teoretycznych dostarcza
więcej informacji niż analiza rozkładów empirycznych, te ostatnie często
uzupełnia się do postaci rozkładów teoretycznych.
Szeregi statystyczne przedstawiają uporządkowany, tj. pogrupowany i
zliczony według pewnego kryterium materiał statystyczny. Kryterium tym
są: wartości (warianty) badanej cechy, uporządkowane malejąco bądź
rosnąco (szereg wyliczający); wartości (warianty) badanej cechy mierzalnej
lub niemierzalnej, którym przyporządkowane są liczebności (szereg
rozdzielczy); rozmieszczenie jednostek według usytuowania geograficznego
(szereg przestrzenny); zmienne czasowe, określane numerem kolejnych
momentów czasowych, przyporządkowanych im w zależności od
następstwa chronologicznego (szereg dynamiczny).

100
Tabela 4.1. Klasyfikacja szeregów statystycznych.

Źródło: M. Sobczyk, Statystyka, PWN, Warszawa 1998, s. 18.

Weźmy pod uwagę szereg rozdzielczy. Otóż dzieli on zbiorowość


statystyczną na jednorodne - z punktu widzenia badanej cechy - części,
których liczba uzależniona jest od wyodrębnionych wartości (wariantów)
cechy. W jednej kolumnie bądź wierszu w sposób uporządkowany
prezentuje się wartości (warianty) cechy, a w drugiej kolumnie bądź wierszu
– liczebność, tj. liczbę jednostek statystycznych, które posiadają określoną
wartość (wariant) danej cechy.

Z szeregu rozdzielczego można odczytać, u jakiej liczby jednostek


statystycznych wystąpił określony wariant cechy. Często jednak istnieje
potrzeba określenia sumy liczebności określonej klasy i klas, które ją
poprzedzają. W tym celu tworzy się szereg rozdzielczy skumulowany. Pierwsza
kolumna szeregu rozdzielczego skumulowanego jest taka sama jak w zwykłym
szeregu rozdzielczym, natomiast w drugiej kolumnie podaje się sumę
liczebności określonej klasy i wszystkich klas ją poprzedzających86.

Z tego powodu, że w pozycji odpowiadającej danej klasie wypisujemy


sumę liczebności tej klasy oraz wszystkich poprzednich, wygodnie jest w
postaci szeregu kumulacyjnego (rozdzielczego skumulowanego)
prezentować strukturę procentową badanej zbiorowości.

Tabela 4.2. Przykłady szeregów rozdzielczych (dane umowne): (a) z cechą


niemierzalną; (b) z cechą mierzalną ze zmiennością skokową; (c) z cechą
mierzalną ze zmiennością ciągłą; (d) szereg skumulowany (kumulacyjny).

86
A. Komosa, J. Musiałkiewicz, Statystyka, Ekonomik 1996, s. 57.
101
(a) Poziom Liczba (b) Ocena z logiki Liczba studentów
wykształcenia pracowników
podstawowe 4 bdb 4
średnie 6 db 5
wyższe 8 dst 6
podyplomowe 2 ndst 5
Ogółem 20 Ogółem 20

(c) Liczba (d) Liczba W liczbach W


Wynagrodzenie pracow Wynagrodzenie pracowników bezwzględn odsetka
w zł ników w zł (1) ych ch
(2) %
1000 - 1500 4 1000 - 1500 4 4 20,00
1500 - 2000 6 1500 - 2000 6 10 50,00
2000 - 3000 8 2000 - 3000 8 18 90,00
3000 - 3500 2 3000 - 3500 2 20 100,00
Ogółem 20 Ogółem 20 20 100,00

1) C h a r a k t e r y s t y k a r o z k ł a d u c e c h y n i e m i e r z a l n e j
(jakościowej). Kolejnym krokiem w analizie zbiorowości statystycznej jest
zastosowanie w odniesieniu do szeregów statystycznych z cechą
niemierzalną (jakościową) pewnych parametrów (charakterystyk
liczbowych), które pozwolą na liczbowe określenie właściwości rozkładu87.
Należy do nich głównie proporcja oraz wskaźnik natężenia.

(a) Proporcja (frakcja) – iloraz liczby obserwacji w określonej klasie ni i


liczebności całkowitej N; innymi słowy – jest to stosunek wybranej części
n
do całości, wyrażony w liczbach bezwzględnych: i bądź w odsetkach:
N
ni
100 .
N

(b) Wskaźnik natężenia – iloraz liczebności zbiorowości A i


NA
zbiorowości B wyrażony w liczbach bezwzględnych: bądź w
NB
NA
odsetkach:  100 . O ile frakcja dotyczy tylko jednej zbiorowości, to
NB
współczynnik natężenia umożliwia porównanie dwóch zbiorowości
pozostających względem siebie w jakimś merytorycznym związku.

87
Zob. L. A. Gruszczyński, Elementy statystyki dla socjologów, U.Śl., Katowice 1986, s. 31 i nast.
102
2) C h a r a k t e r y s t y k a r o z k ł a d u c e c h y m i e r z a l n e j
(ilościowej). Z uwagi na to, że cechy ilościowe opisane są w skali
interwałowej lub ilorazowej, analiza rozkładu takiej cechy jest o wiele
bardziej bogata i precyzyjna aniżeli analiza rozkładu cechy jakościowej.
Uzależniona ona jest od typu rozkładu empirycznego, który wyznaczony
jest przez ilość maksimów, stopień asymetrii oraz stopień koncentracji.
Przykłady zaprezentowane zostały w Tabeli 4.3. Typ rozkładu
empirycznego wpływa na stosowanie konkretnych charakterystyk
liczbowych - parametrów opisowych rozkładu empirycznego, do których
zalicza się następujące miary: 1. tendencji centralnej (średnie, położenia); 2.
dyspersji (rozproszenia, zróżnicowania); 3. asymetrii (skośności) oraz 4.
koncentracji.

103
Tabela 4.3. Przykłady podstawowych typów rozkładu empirycznego.

Źródło: M. Sobczyk, Statystyka, PWN, Warszawa 1998, s. 29.

Obecnie zasygnalizujemy ważniejsze typy rozkładów empirycznych


według trzech kryteriów: ilości maksimów, stopnia asymetrii oraz stopnia
koncentracji:

104
1. I l o ś ć m a k s i m ó w : rozkład jednomodalny – cechuje się jednym
maksimum (szczytem na wykresie) ; rozkład bimodalny - posiada dwa
maksima; rozkład wielomodalny - posiada więcej niż dwa maksima.
2. S t o p i e ń a s y m e t r i i : rozkład symetryczny - występujące w nim
liczebności są rozłożone proporcjonalnie po obu stronach średniej
arytmetycznej (np. rozkładem symetrycznym o jednym maksimum jest tzw.
rozkład normalny); rozkład asymetryczny lewostronny – prostopadła do osi
odciętych poprowadzona z punktu maksimum krzywej liczebności znajduje
się po lewej stronie tego punktu; rozkład asymetryczny prawostronny -
prostopadła znajduje się po prawej stronie punktu maksimum liczebności.
3. S t o p i e ń k o n c e n t r a c j i : rozkład leptokurtyczny (wysmukły) –
cechuje go wysoka koncentracja wokół średniej; rozkład platokurtyczny
(spłaszczony) – mała koncentracja wartości poszczególnych wartości
jednostek wokół średniej.

4.3.3. Rozkład teoretyczny zmiennych

Rozkłady empiryczne są efektem przeprowadzonych badań, zaś rozkłady


teoretyczne to nic innego jak matematyczne modele rozkładów
empirycznych, które w sensie ścisłym odnoszą się do rozkładu
prawdopodobieństwa jako funkcji wartości określonych zmiennych
losowych. Przy czym przyjmuje się, że nazwa „rozkład
prawdopodobieństwa” oznacza bądź funkcję rozkładu masy
prawdopodobieństwa zmiennej losowej skokowej (dyskretnej), bądź funkcję
gęstości prawdopodobieństwa dla zmiennej losowej ciągłej.

F u n k c j a r o z k ł a d u m a s y p r a w d o p o d o b i e ń s t w a P(x) –
funkcja (prezentowana wzorem, wykresem, tablicą) przyporządkowująca
prawdopodobieństwa do każdej możliwej wartości zmiennej X: (x1, x2, …,
xn) = P(x). Innymi słowy – jest to funkcja określająca zależność pomiędzy
daną wartością zmiennej losowej skokowej a prawdopodobieństwem jej
realizacji: P(xi) = P(X = xi), gdzie zapis P(X = xi) oznacza, że zmienna
losowa X przyjęła pewną wartość x.

F u n k c j a g ę s t o ś c i p r a w d o p o d o b i e ń s t w a f(x) – funkcja
przedziałami ciągła określająca średnią ilość prawdopodobieństw
przypadających na jednostkę długości przedziału, przy założeniu, że
długość tego przedziału dąży do zera (przedziałowy rozkład
prawdopodobieństwa zdarzenia losowego):

P( x1  X  x2 )
f(x) = lim , gdzie x = x2 – x1
x 0 x

105
Rozkład zmiennej losowej, zarówno ze zmiennością skokową jak i ciągłą
(dyskretną), można również przedstawić za pomocą tzw. dystrybuanty
(odpowiednik szeregu kumulacyjnego; zob. Tabela 4.2. d) – funkcji wyrażającej
prawdopodobieństwo, iż zmienna losowa X przyjmie wartość mniejszą od
określonej liczby x. Ściślej: dla zmiennej losowej skokowej zaobserwowana
wartość nie przekroczy liczby xi, a dla zmiennej losowej ciągłej -
zaobserwowana wartość jest mniejsza od liczby x. Ponadto, znając funkcję
rozkładu zawsze można znaleźć dystrybuantę, i na odwrót – znając
dystrybuantę można wyznaczyć odpowiednio: funkcję rozkładu masy
prawdopodobieństwa dla zmiennej losowej skokowej i funkcję gęstości
prawdopodobieństwa dla zmiennej losowej ciągłej.

Dystrybuanta zmiennej losowej skokowej F(x) –


funkcja określona wzorem:

F(x) = P(X  xi) = p1 + p2 + … + pi = p


xi x
i

Funkcja rozkładu masy prawdopodobieństwa pokazuje


prawdopodobieństwa przyjęcia przez zmienną określonych wartości.
Natomiast dystrybuanta skokowej zmiennej losowej ukazuje skumulowane
prawdopodobieństwa tj. sumy prawdopodobieństw przypisanych wszystkim
wartościom zmiennej X mniejszym lub równym x. W takim razie
dystrybuanta jest funkcją prawdopodobieństwa dla pewnych przedziałów
wartości skokowej zmiennej losowej X; określa prawdopodobieństwa dla
tych przedziałów. Z tego też powodu graficzna ilustracja dystrybuanty ma
zwykle postać linii schodkowej przerywanej bądź histogramu (szeregu
prostokątów umieszczonych na osi współrzędnych).

D y s t r y b u a n t a z m i e n n e j l o s o w e j c i ą g ł e j F(x) - funkcja
określona wzorem:

x
F(x) = P(X < x) =  f (x) dx


Prawdopodobieństwo realizacji zmiennej losowej ciągłej w dowolnym


przedziale (x1, x2), gdzie x1 < x2, wyznacza się przy pomocy całki
oznaczonej:

x2

P(x1 < X < x2) =  f (x) d(x) = pi


x1

106
Przykład 4.15. Chcemy określić funkcję rozkładu masy prawdopodobieństwa
dla zmiennej losowej skokowej X, jaką jest „liczba ogłoszeń w Gazecie Lokalnej”.
Zmienna X jest zmienną skokową, ponieważ liczba ogłoszeń musi się wyrazić
pewną liczbą naturalną 0, 1, 2, 3, …, . Przypuśćmy, że mamy 6 wartości zmiennej
X oraz pewne odpowiadające im prawdopodobieństwa P(x):

x P(x)
0 0,1
1 0,2
2 0,3
3 0.2
4 0,1
5 0,1
6 1,0

Zauważmy, iż każdej wartości zmiennej X odpowiadają określone


prawdopodobieństwa P(x) ich realizacji (w przykładzie dobrane dowolnie). Zapis P
(X = 2) = 0,3 oznaczać zatem będzie, że prawdopodobieństwo, iż zmienna losowa
przyjmie wartość 2 jest równe 0,3, tj. prawdopodobieństwo zamieszczenia w
jednym dniu dwóch ogłoszeń wynosi 0,3. Taki jest właśnie sens funkcji rozkładu
masy prawdopodobieństwa określonej w powyższej tabelce. Wszystkie
prawdopodobieństwa muszą być rzecz jasna nieujemne i sumować się do jedności.
Ponadto, zdarzenia, jakimi są ogłoszenia gazetowe, wzajemnie się wykluczają;
wobec tego możemy obliczyć łączne prawdopodobieństwo tego, że w danym dniu
ukażą się dwa (X = 2) lub trzy (X = 3) ogłoszenia. Szukane prawdopodobieństwo
będzie sumą P(2) + P(3) = 0,3 + 0,2 = 0,5.

Przykład 4.16. Chcemy określić dystrybuantę dla rzutu jedną kostką88. W tym
przypadku przyporządkowujemy zmiennej losowej skokowej X wyrzucone liczby
oczek (wartości): 1, 2, 3, 4, 5, 6. Następnie poszczególnym wartościom zmiennej X
przyporządkowujemy odpowiednie prawdopodobieństwa:
Dla x  0 nie istnieje żadna wartość rozważanej zmiennej losowej X, która
mogłaby pojawić się z prawdopodobieństwem > 0. Wobec tego F(x) = (X < 0) = 0.
Dla x  1 również nie istnieje wartość zmiennej X z prawdopodobieństwem > 0.
A zatem F(x) = P(X < 1) = 0.
1
Dla 1 < x  2 mamy F(x) = P(X < 2) = , ponieważ można zaobserwować
6
1
wartość X = 1 z prawdopodobieństwem właśnie .
6
2 1
Dla 2 < x  3 mamy F(x) = P(X < 3) = = , co wynika z prawa dodawania
6 3
1 1
prawdopodobieństw, gdyż P(X = 1) = oraz P(X = 2) = .
6 6

88
Zob. D. Stempell, Rachunek prawdopodobieństwa w ujęciu programowanym, WN-T, Warszawa
1975, s. 70.
107
3
Dla 3 < x  4: F(x) = P(X < 4) = .
6
4
Dla 4 < x  5: F(x) = P(X < 5) = .
6
5
Dla 5 < x  6: F(x) = P(X < 6) = .
6
6
Dla x > 6: F(x) = P(X  6) = = 1.
6
Wyniki - zaprezentowane graficznie- znajdują się na poniższym rysunku [Rys.
4.2.]:

Rys. 4.2. Dystrybuanta F(x) zmiennej losowej skokowej X dla rzutu jedną
kostką.

Źródło: D. Stempell, Rachunek prawdopodobieństwa w ujęciu


programowanym, WN-T, Warszawa 1975, s. 71.

Oprócz - zaprezentowanych powyżej - charakterystyk rozkładów


zmiennej losowej, tj. funkcji rozkładu masy prawdopodobieństwa, funkcji
gęstości prawdopodobieństwa i dystrybuanty (dających kompletne
informacje o zmiennej losowej), charakteryzuje się też rozkłady zmiennych
losowych za pośrednictwem tzw. parametrów rozkładu. Ma to miejsce
wówczas, gdy interesują nas tylko niektóre, istotne dla nas cechy rozkładu
dające się opisać za pomocą paru liczb.
P a r a m e t r e m r o z k ł a d u z m i e n n e j l o s o w e j nazywamy
liczbę charakteryzującą zbiór wartości, jakie może przyjmować zmienna
losowa. Analogicznie do parametrów opisowych rozkładu empirycznego
108
wyróżnia się różne parametry rozkładu zmiennej losowej, spośród których
do najważniejszych zalicza się parametry reprezentujące przeciętną
(średnią) wielkość zmiennej losowej – głównie: wartość oczekiwaną
(„nadzieja matematyczna”) oraz parametry dyspersji (rozrzutu) wartości
zmiennej losowej - przede wszystkim: wariancję oraz odchylenie
standardowe. Analogia z parametrami opisowymi rozkładu empirycznego
wynika stąd, iż rozkład prawdopodobieństwa można traktować jako rozkład
częstości w długiej serii obserwacji.

Tabela 4.4. Wybrane parametry rozkładu zmiennej losowej.

parametr Wartość
zmienna oczekiwana Wariancja

n n

Zmienna losowa EX =  xi pi
i 1
D2X =  ( x  EX )
i 1
i
2
 pi
skokowa
 D2X =
Zmienna losowa EX =  xf ( x)dx 

 ( x  EX )
2
ciągła  f ( x)dx


Odchylenie standardowe

n
=  ( x  EX )
i 1
i
2
 pi


=  ( x  EX )
2
f ( x)dx


Przykład 4.17. Chcemy obliczyć wartość oczekiwaną zmiennej losowej


1
skokowej X dla rzutu jedną kostką. Mamy pi = , xi = i dla i = 1, 2, 3, 4, 5, 6.
6
n
1
Wobec tego: EX =  xi pi = x1p1 + x2p2 + … + xnpn = (1, 2, 3, 4, 5, 6)  = 3,5.
i 1 6

Przykład 4.18. Chcemy obliczyć odchylenie standardowe (podające odchylenia


zmiennej losowej skokowej X od wartości oczekiwanej (średniej) EX) dla rzutu
jedną kostką. Z poprzedniego przykładu mamy EX = 3,5. Wobec tego: 
n
=  ( x  EX )
i 1
i
2
 pi =

109
1
[(1  3,5) 2  (2  3,5) 2  (3  3,5) 2  (4  3,5) 2  (5  3,5) 2  (6  3,5) 2 ]  =
6
1,71.

1) R o z k ł a d y zmiennej losowej s k o k o w e j . Do
ważniejszych należą: dwumianowy, Poissona. Szczególnie ważny jest
rozkład dwumianowy zmiennej losowej skokowej (ściślej – zero-
jedynkowy). Wzór opisujący ten rozkład jest taki sam jak wzór na schemat
Bernoulliego [zob. Roz. 4.2.2.] modelujący tzw. doświadczenia (próby)
Bernoulliego. Dzieje się tak z tego powodu, iż warunkiem uzyskania
rozkładu dwumianowego jest właśnie przeprowadzenie doświadczeń
Bernoulliego, tj. ciągów identycznych doświadczeń spełniających trzy
następujące warunki:
1. Wykonujemy doświadczenie, w którym możliwe są tylko dwa wyniki,
nazywane sukcesem i porażką; wyniki te są rozłączne i dopełniające.
2. Prawdopodobieństwo sukcesu, oznaczane przez p, przez cały ciąg
doświadczeń pozostaje takie samo. Prawdopodobieństwo porażki,
oznaczane przez q, równe jest 1 – p.
3. Wszystkie doświadczenia są od siebie niezależne; wynik
poszczególnych doświadczeń nie wpływa więc na wyniki innych
doświadczeń.

2) R o z k ł a d y z m i e n n e j l o s o w e j c i ą g ł e j . Do ważniejszych
należą: normalny, t-studenta, Chi-kwadrat (2), F-Snedecora, wykładniczy.
Rozkłady: t-studenta89 oraz chi-kwadrat charakteryzują się parametrem
zwanym l i c z b ą s t o p n i s w o b o d y df (degree of freedom), czyli
liczbą wartości zmiennej, które mogą się swobodnie zmieniać. Pojęcie
stopni swobody ma interpretację geometryczną. Mianowicie punkt na linii
ma swobodę przesuwania się tylko w jednym wymiarze i ma tym samym
jeden stopień swobody. Punkt na płaszczyźnie ma swobodę przesuwania się
w dwóch wymiarach – ma więc dwa stopnie swobody. Punkt w przestrzeni
trójwymiarowej ma trzy stopnie swobody. Analogicznie punkt w przestrzeni
k-wymiarowej ma k stopni swobody, tzn. posiada swobodę przesuwania się
w k wymiarach. Ogólnie mówiąc, liczba stopni swobody jest zawsze liczbą
wartości, które mogą się swobodnie zmieniać przy ograniczeniach
nałożonych na dane.

89
W.S. Gosset był badaczem zatrudnionym w browarze Guinessa w Dublinie. W 1908 r. odkrył on
Z
rozkład zmiennej losowej określony równaniem df , gdzie Z – zmienna losowa
Χ2
standaryzowana, czyli mająca standardowy rozkład normalny N(0,1), X – zmienna losowa o
rozkładzie chi-kwadrat, df – stopnie swobody, i nazwał go rozkładem t. Wszakże browar Guinessa nie
pozwalał swoim pracownikom publikować pod ich własnymi nazwiskami, dlatego też W.S. Gosset
opublikował charakterystykę odkrytego przez siebie rozkładu pod pseudonimem „Student”:
110
W rozkładzie t-studenta każdej wartości całkowitej df = 1, 2, 3, …
odpowiada inny rozkład t; przypomina on standaryzowany rozkład
normalny [zob. Tabela 4.5.], z tym, że jest bardziej płaski od normalnego. Z
kolei rozkład chi-kwadrat jest rozkładem prawdopodobieństwa sumy
kwadratów niezależnych zmiennych losowych o standardowym rozkładzie
normalnym. A zatem jako suma kwadratów nie może przyjmować wartości
ujemnych, co powoduje, że rozkład ten jest prawostronnie skośny. W
przeciwieństwie do rozkładu t-studenta nie jest więc symetryczny.

Rys. 4.17. Charakterystyka rozkładu t-studenta oraz chi-kwadrat o różnych


stopniach swobody.

Obecnie bliżej przyjrzymy się rozkładowi normalnemu. R o z k ł a d


n o r m a l n y (Gaussa-Laplace’a) należy bowiem do najważniejszych
rozkładów zmiennej losowej ciągłej. Szczególna jego rola bierze się stąd, że
wiele zjawisk społecznych - a zwłaszcza przyrodniczych - kształtuje się
według rozkładu normalnego. W pewnym sensie można powiedzieć, że
odkrycie rozkładu normalnego wpłynęło na wzrost zainteresowania
problemami statystyki. Otóż astronomowie XVIII-wieczni zauważyli, że
błędy popełniane w trakcie obserwacji astronomicznych układają się
zgodnie z krzywą, która na wykresie przybiera kształt dzwonu (tzw. krzywa
dzwonowa); błąd mierzy się na osi poziomej (odciętej: x), a wysokość
krzywej (oś rzędnej: y) oznacza prawdopodobieństwo pojawienia się błędu
o danej wielkości. Okazało się, że małe błędy są wielce prawdopodobne, zaś
wystąpienie dużych błędów jest stosunkowo mało prawdopodobne.
Matematyk i socjolog Adolphe Quetelet (1796–1874) postulował wręcz, by
krzywą dzwonową stosować do modelowania danych dotyczących
społeczeństwa, w szczególności - liczby przestępstw, narodzin i zgonów.
Doszedł bowiem do wniosku, że zdarzenia tego typu, aczkolwiek
nieprzewidywalne w odniesieniu do poszczególnych osób, sprawdzają się
wystarczająco w odniesieniu do całej populacji. Dokonał personifikacji tej
idei tworząc konstrukcję teoretyczną, znaną jako k o n c e p c j a
111
c z ł o w i e k a p r z e c i ę t n e g o ; „człowiek przeciętny” powinien być –
jego zdaniem – celem sprawiedliwości społecznej, realizowanej przez
państwo:

(…) osobnik ma swe szczególne cechy, zależące od wieku i płci i biorąc


przeciętną właściwych im cech, otrzymamy dane, które przypisuję osobie
fikcyjnej, nazywając ją człowiekiem przeciętnym (l’homme moyen) danego
narodu90.

Pomiary rzeczywistości przyrodniczej i społecznej to jeden obszar


zjawisk, do których stosuje się rozkład normalny. Drugi obszar wiąże się z
możliwością szacowania sumy wartości dowolnych rozkładów (normalnych
bądź nienormalnych). Otóż, jeśli będziemy rozważali wiele różnych
zmiennych losowych, wówczas suma ich rozkładów będzie miała zawsze
rozkład normalny. Innymi słowy, jeżeli znamy wartości oczekiwane i
odchylenia standardowe dowolnych zmiennych losowych, to możemy
szacować sumy wartości tych zmiennych, korzystając z tablic rozkładu
normalnego.
O zmiennej losowej ciągłej X mówimy, że ma rozkład normalny, jeśli jej
gęstość określona jest wzorem:

( x m)2
1 2 2
f(x) = e
 2

gdzie:  – odchylenie standardowe zmiennej losowej ciągłej; m = EX –


wartość oczekiwana zmiennej losowej ciągłej X; e = 2,1718 - podstawa
logarytmu naturalnego; x – realizacja zmiennej losowej ciągłej X, określona
w przedziale: -  < X < + .

Rys. 4.18. Rozkłady normalne przy różnych m oraz  .

90
A. Quetelet, Układ społeczny i jego prawa, Warszawa 1984, s. 15.
112
Źródło: M. Sobczyk, Statystyka, PWN, Warszawa1998, s. 102.

Z wykresu funkcji gęstości prawdopodobieństwa zmiennej losowej X


[Rys. 4.19.] - zwanego krzywą normalną, dzwonową lub Gaussa-Laplace’a
– wynika, że rozkład normalny (Gaussa-Laplace’a) charakteryzują dwa
parametry: wartość oczekiwana m i odchylenie standardowe  [krótko:
N(m, )]. Każda zmiana jednego lub obu parametrów zmienia kształt
rozkładu normalnego. Zmiana parametru m powoduje przesuwanie krzywej
normalnej wzdłuż osi odciętych – przy wzroście wartości m rozkład
„przesuwa się” na osi x-ów na prawo, i odwrotnie, przy spadku wartości m –
w lewo. Zmiana zaś parametru  wyznacza poziom spłaszczenia rozkładu -
przesuwanie krzywej wzdłuż osi y-ów; im mniejsza wartość , tym rozkład
jest bardziej wysmukły, i odwrotnie, im większa wartość  , tym rozkład
jest bardziej spłaszczony, poszerzony. Bez względu jednak na konkretne
wartości obydwu parametrów krzywa normalna f(x) zawsze jest
symetryczna, posiada jedno maksimum, dwa punkty przegięcia, a jej pole
obejmuje wszystkie liczby rzeczywiste: x  R. Symetria i jednomodalność
(jedno maksimum) powodują, że średnia, mediana i wartość modalna
krzywej leżą w tym samym punkcie. Krzywa normalna jest asymptotyczna;
zbliża się ona do osi odciętej, lecz nigdy do niej nie dochodzi i rozciąga się
od minus nieskończoności do plus nieskończoności.
W rozkładzie normalnym prawdopodobieństwo pojawienia się zdarzenia
o wartości x, które jest najbliższe wartości oczekiwanej m = EX, jest
najwyższe. W miarę oddalania się od m wartości x stają się coraz mniej
prawdopodobne. Z drugiej strony, im mniejszy jest rozrzut (mniejsza
wartość ) tym bardziej cały rozkład jest skupiony wokół wartości
oczekiwanej m.
Prawdopodobieństwo, że krzywa normalna [X = N(m, )], przyjmie
wartość należącą do pewnego przedziału (x1, x2), gdzie x1 < x2, można
zapisać jako:

x  ( x m )2
1 2
 2 x1
2 2
P(x1 < X < x2) = e dx

Jednakże obliczenie tego prawdopodobieństwa w sposób bezpośredni


napotyka na poważne trudności, ponieważ całka występująca w powyższym
wzorze nie daje się wyrazić przez funkcje elementarne, brak bowiem w
klasie funkcji elementarnych funkcji pierwotnej do danej funkcji. Z uwagi
więc na to, że istnieje nieskończenie wiele normalnych zmiennych
losowych, wybiera się jedną z nich by służyła jako pewien standard. Co
więcej - tylko prawdopodobieństwa związane z wartościami, jakie

113
przyjmuje zmienna normalna standaryzowana - zostały stablicowane (w
wersji funkcji gęstości bądź częściej – dystrybuanty rozkładu normalnego
standaryzowanego). S t a n d a r y z o w a n a n o r m a l n a z m i e n n a
l o s o w a Z o wartościach z1, z2, …, zn – to normalna zmienna losowa Z =
xm
, gdzie wartość oczekiwana m = 0 oraz odchylenie standardowe  = 1

[krótko: Z = N (0, 1)].

Rys. 4.19. Standaryzowana normalna funkcja gęstości.

Na Rys. 4.19. zaprezentowano wykres standaryzowanej normalnej funkcji


gęstości. Natomiast w Tabeli 4.5. ukazano fragment tablicy rozkładu
normalnego standaryzowanego (funkcji gęstości normalnej zmiennej
losowej Z). Są to prawdopodobieństwa związane z przedziałami
zaczynającymi się w punkcie m = 0, a kończące w punkcie z na prawo od 0.
W wierszach podane są wartości z dokładnością do dziesiętnych, zaś w
kolumnach – z dokładnością do setnych. Korzystając z takiej tablicy można
znajdować bezpośrednio prawdopodobieństwa wartości zmiennej losowej
bądź – wartości z przy danym prawdopodobieństwie.

Przykład 4.19. Chcemy znaleźć prawdopodobieństwo, że wartość


standaryzowanej normalnej zmiennej losowej znajdzie się między 0 a 1,56.
Szukamy tedy wartości P(0 < Z < 1,56). W takim razie konkretna wartość z = 1,56.
W Tabeli 4.5. na przecięciu wiersza 1,5 (dziesiętne) i 0,06 (setne) znajdujemy
wartość 0,4406. Tak więc szukanym prawdopodobieństwem rozkładu jest 0,4406.

Przykład 4.20. Chcemy znaleźć taką wartość standaryzowanej zmiennej


losowej, by prawdopodobieństwo tego, że zmienna przyjmie wartość między 0 a z
było równe 0,40. W tym celu należy przeszukać wszystkie zawarte w Tabeli 4.5.
wartości i wskazać wartość równą bądź najbliższą wartości 0,40. Okazuje się , że
jest nią wartość 0,3997 (wiersz: 1,2 i kolumna:0,08). Tak więc wartość 0,3997
odpowiada prawdopodobieństwu tego, że zmienna przyjmie wartość między 0 a z.

114
Tabela 4.5. Rozkład normalny standaryzowany.

z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0000 0040 0080 0120 0159 0199 0239 0279 0319 0359
0,1 0398 0438 0478 0517 0557 0596 0636 0675 0714 0753
0,2 0793 0832 0871 0910 0948 0987 1026 1064 1103 1141
0,3 1179 1217 1255 1293 1331 1368 1406 1443 1480 1517
0.4 1554 1591 1628 1664 1700 1736 1808 1844 1879

0,5 1915 1950 1985 2019 2054 2088 2123 2157 2190 2224
0,6 2257 2291 2324 2357 2389 2422 2454 2487 2518 2459
0,7 2580 2612 2642 2673 2704 2734 2764 2794 2823 2852
0,8 2881 2910 2339 2967 2995 3023 3051 3078 3106 3133
0,9 3159 3186 3212 3238 3264 3289 3315 3340 3365 3389

1,0 3413 3438 3461 3485 3508 3531 3554 3577 3599 3621
1,1 3643 3665 3686 3718 3729 3749 3770 3790 3810 3830
1,2 3849 3869 3888 3907 3925 3944 3962 3980 3997 4015
1,3 4032 4049 4066 4083 4099 4115 4131 4147 4162 4177
1,4 4192 4207 4222 4236 4251 4265 4279 4292 4306 4319

1,5 4332 4345 4357 4370 4382 4394 4406 4418 4430 4441
1,6 4452 4463 4474 4485 4485 4505 4515 4525 4535 4545
1,7 4554 4564 4573 4582 4591 4599 4608 4616 4625 4633
1,8 4641 4649 4656 4664 4671 4678 4696 4693 4699 4706
1,9 4713 4719 4726 4732 4738 4744 4750 4758 4762 4767

2,0 4773 4778 4783 4788 4793 4798 4803 4808 4812 4817
2,1 4821 4826 4830 4834 4838 4842 4846 4850 4854 4857
2,2 4861 4865 4868 4871 4875 4878 4881 4884 4887 4890
2,3 4893 4896 4898 4901 4904 4906 4909 4911 4913 4916
2,4 4918 4920 4922 4925 4927 4929 4931 4932 4934 4936

2,5 4938 4940 4941 4943 4945 4946 4948 4949 4951 4952
2,6 4953 4955 4956 4957 4959 4960 4961 4962 4963 4964
2,7 4965 4966 4967 4968 4969 4970 4971 4972 4973 4974
2,8 4974 4975 4976 4977 4977 4978 4979 4980 4980 4981
2,9 4981 4982 4983 4884 4984 4984 4985 4985 4986 4986

Tabela 4.6. Wartości krytyczne rozkładu normalnego.

 z
0,10 1,64
0,09 1,69
115
0.08 1,75
0,07 1,81
0.06 1,89
0,05 1,96
0.04 2,06
0.03 2,17
0,02 2,32
0,01 2,58

Tabela 4.7. Rozkład t-Studenta.

 0,1 0,05 0,02 0,01 0,001


df

1 6,314 12,706 31,821 63,657 636,619


2 2,920 4,303 6,965 6,925 31,598
3 2,353 3,182 4,541 5,841 12,941
4 2,132 2,776 3,747 4,604 8,610
5 2,015 2,571 3,365 4,032 6,859
6 1,943 2,447 3,143 3,707 5,959
7 1,895 2,365 2,998 3,499 5,405
8 1.860 2,306 2,896 3,355 5,041
9 1,833 2,262 2,821 3,250 4,781
10 1,812 2.228 2,764 3,169 4,587
11 1,796 2.201 2,718 3,106 4,437
12 1,782 2,179 2,681 3,055 4,318
13 1,771 2,160 2,650 3,012 4,221
14 1,761 2,145 2,624 2,977 4,140
15 1,753 2,131 2,602 2.947 4,073
16 1,746 2,120 2,593 2,921 4,015
17 1,740 2,110 2,567 2,898 3,965
18 1,734 2,101 2,552 2,878 3,922
19 1,729 2,093 2,539 2,861 2,883
20 1,725 2,086 2,528 2,845 3,850
21 1,721 2,080 2,518 2,831 3,819
22 1,717 2,074 2,508 2,819 3,792
23 1,714 2,069 2,500 2,807 3,767
24 1,711 2,064 2,492 2,797 3,745
25 1,708 2,060 2,485 2,787 3,725
26 1,706 2,056 2,479 2,779 3,707
27 1,703 2,052 2,473 2,771 3,690

116
28 1,701 2,048 2,467 2,763 3,674
29 1,699 2,045 2,462 2,756 3,659
30 1,697 2,042 2,457 2,750 3,646

Tabela 4.8. Rozkład Chi-kwadrat.

 0,10 0,05 0,02 0,01 0,001


df

1 2,706 3,841 5,412 6.635 10,827


2 4,605 5,991 7,824 9,210 13,815
3 6,251 7,815 9,837 11,345 16,268
4 7,779 9,488 11,668 13,277 18,465
5 9,236 11,070 13,388 15,086 20,517

6 10,645 12,592 15,033 16,812 22,457


7 12,017 14,067 16,622 18,475 24,322
8 13,362 15,507 18,168 20,090 26,125
9 14,684 16,919 19679 21,666 27,877
10 15,987 18,307 21,161 23,209 29,588

11 17,275 19675 22,618 24,725 31,264


12 18,549 21,026 24,954 26,217 32,909
13 19,812 22,362 25,472 27,688 34,528
14 21,064 23,685 26,973 29,141 36,123
15 23,307 24,996 28,259 30,578 37,697

16 23,542 26,296 29,633 32,000 39,252


17 24,769 27,587 30,995 33,409 40,790
18 25,989 28,869 32,346 34,805 42,312
19 27,204 30,144 33,687 36,191 43,820
20 28,412 31,410 35,020 37,566 45,315

21 29,625 32,671 36,343 38,932 46,797


22 30,813 33,924 37,659 40,289 48,268
23 32,007 35,172 38.968 41,638 49,728
24 33,196 36,415 40,270 42.980 51,176
25 34,382 37,652 41.566 44,314 52,620

26 35,563 38,885 42,856 45,642 54,052


27 36,741 40,113 44,140 46,963 55,476

117
28 37,916 41.337 45,419 48,278 56,893
29 39,087 42,557 46,693 49,588 58,302
30 40,256 43,773 47,962 50,892 59,703

3) T e o r i a prawdopodobieństwa a statystyka.
Podstawą teoretyczną statystyki jest teoria prawdopodobieństwa
(probabilistyka, stochastyka). Matematyk szwajcarski Jakub Bernoulli
(1654–1705) w książce Ars Conjectandi (Sztuka przewidywania) wydanej
pośmiertnie w 1713 r. pisze tak oto:

Definiujemy sztukę przewidywania, inaczej sztukę stochastyki, jako sztukę


oceniania z największą możliwą dokładnością prawdopodobieństwa zdarzeń,
tak żebyśmy w naszych osądach i działaniach zawsze mogli opierać się na tym,
co okazało się najlepsze, najodpowiedniejsze, najpewniejsze, najsensowniejsze;
jest to jedyny cel mądrości filozofa i roztropności męża stanu91.

Statystyka wykorzystuje prawdopodobieństwa do analizowania


rzeczywistych danych. Teoria prawdopodobieństwa pozwala bowiem
określić wzorce liczbowe dla zdarzeń losowych, które umożliwiają
przewidywanie możliwości zajścia pewnych zdarzeń. Nie są jednak
pomocne w żaden sposób w ustaleniu, kiedy owe zdarzenia nastąpią.
Pojawiają się one w danych statystycznych wyłącznie jako trendy o mniej
lub bardziej ograniczonym zakresie.
Prekursorzy tej teorii dość wcześnie wprowadzili ideę wyrażania
prawdopodobieństwa danego zdarzenia losowego przez
„równoprawdopodobne przypadki” składające się na to zdarzenie.
Rozważali również konsekwencje odpowiednio długich serii prób, w
których to zdarzenie musi się pojawić. Wszakże dopiero Jakub Bernoulli
(1654–1705) dostrzegł ścisły związek pomiędzy prawdopodobieństwem
(wedle definicji Laplace’a) a obserwowaną częstością zdarzenia losowego w
długich seriach prób. Związek ten w traktacie Ars coniectandi (Sztuka
przewidywania) nazwał p r a w e m w i e l k i c h l i c z b . W dość
swobodnym sformułowaniu brzmi ono jak następuje: w miarę
przeprowadzania coraz to dłuższych serii prób prawdopodobieństwo, że
średnia częstość sukcesów będzie różnić się od prawdopodobieństwa
sukcesu w pojedynczej próbie mniej niż o założoną, dowolnie małą liczbę,
maleje do zera. To bardzo ważne prawo, gdyż kładzie ono podwaliny pod
wnioskowanie statystycznego; stanowi wręcz fundament metody
reprezentacyjnej – losowanie powtórzone wielokrotnie reprodukuje

91
Podaję za: J. Stewart, Oswajanie nieskończoności. Historia matematyki, Prószyński i S-ka,
Warszawa 2010, s. 255.
118
strukturę zbiorowości, z której losujemy, i to z dokładnością tym większą,
im większą ilość razy powtarzamy losowanie.
Współcześnie mówi się o wielu wariantach prawa wielkich liczb, czyli
twierdzeń matematycznych opisujących związek między liczbą
wykonywanych doświadczeń a faktycznym prawdopodobieństwem
wystąpienia zdarzenia, którego te doświadczenia dotyczą. Nazywa się je
granicznymi twierdzeniami dla podkreślenia, iż mówią one o tym, co
zachodzi przy wykonywaniu coraz to dłuższych serii prób, a więc przy
przechodzeniu do granicy, jaką jest wykonanie nieskończenie wielu prób.
Dla zmiennych losowych całkowalnych wprowadza się ponadto warunek
słabego bądź mocnego spełniania.
Prawem wielkich liczb nazywamy każde twierdzenie, które dotyczy
zbieżności stochastycznej do zera ciągu zmiennych losowych. Ze względu
na to, że zbieżność stochastyczna jest równoważna słabej zbieżności
pewnego ciągu dystrybuant do dystrybuanty rozkładu jednopunktowego
omawiane w tym paragrafie prawa wielkich liczb noszą nazwę słabych w
odróżnieniu od tzw. mocnych. Mocnym prawem wielkich liczb nazywamy
każde twierdzenie, które z prawdopodobieństwem równym jedności ocenia
zbieżność (w zwykłym sensie) pewnego ciągu zmiennych losowych:
P ( lim U n  U )  1 92.
n 

Przez statystykę rozumieć należy naukę zajmującą się badaniem zjawisk


masowych (tj. mogących wystąpić nieskończoną ilość razy) w oparciu o
dane empiryczne określające częstości występowania zjawisk
rozpatrywanego typu oraz formułującą tezy dotyczące prawidłowości
matematycznych w obszarze tych zjawisk. W takim razie od razu widać, że
takie pojęcia jak „zjawisko masowe”, „częstość występowania zjawisk” czy
„prawidłowości matematyczne” wyraźnie wskazują na związki statystyki z
teorią prawdopodobieństwa (probabilistyką, stochastyką). W nauce często
zdarza się, że pojęcia kryjące tę samą treść bywają nazywane odmiennie w
różnych dyscyplinach. Poniższe zestawienie - w odniesieniu do teorii
prawdopodobieństwa i statystyki - stanowi tego egzemplifikację:

TEORIA PRAWDOPODOBIEŃSTWA STATYSTYKA


Zmienna losowa Cecha statystyczna
Prawdopodobieństwo Częstość
Rozkład zmiennej losowej Szereg (rozdzielczy) częstości cechy
Wykres rozkładu zmiennej losowej Histogram częstości badanej cechy
Wartość oczekiwana Średnia arytmetyczna

Nie można oczywiście uznać, że teoria prawdopodobieństwa to po


prostu „czysta teoria” zaś statystyka – to nauka stosowana, oparta na teorii

92
Zob. T. Gerstenkorn, T. Śródka, Kombinatoryka i rachunek prawdopodobieństwa, PWN,
Warszawa 1980, s. 392, 399.
119
prawdopodobieństwa. Obydwa działy nauki bowiem po pierwsze uzyskały
w miarę upływu czasu w pewnych obszarach zastosowań duży stopień
autonomii, a po drugie – obydwa działy mają zastosowanie do wielu
sytuacji praktycznych. Jak się zdaje, w ogólnym zarysie dużo bardziej
właściwa interpretacja będzie taka, w myśl której t e o r i a
p r a w d o p o d o b i e ń s t w a na podstawie znajomości populacji
generalnej formułuje prawdopodobne wnioski na temat populacji próbnej
(losowej). Podczas gdy s t a t y s t y k a w oparciu o znajomość populacji
losowej (próbnej) formułuje prawdopodobne wnioski na temat populacji
generalnej.

4.4. Analiza struktury

Podstawowym działem analizy statystycznej w naukach społecznych jest


analiza struktury zbiorowości społecznych. Przy czym przez strukturę
zbiorowości społecznej należy rozumieć po prostu budowę (skład) danej
zbiorowości z punktu widzenia wyróżnionych cech jednostek należących do
tej zbiorowości. Analiza struktury zbiorowości społecznej polega na
wykryciu i zinterpretowaniu prawidłowości istniejących w budowie
zbiorowości społecznych. Od strony matematycznej - przynajmniej w
przypadku cech mierzalnych - prawidłowość określa jednoznacznie rozkład
takiej czy innej cechy. Informacje liczbowe dotyczące cech zbiorowości
występują zwykle w postaci zapisów, które są dokonywane przez
obserwatorów w naturalnej kolejności (tzw. surowy szereg sprawozdawczy).
Taka forma informacji nie pozwala jednak na poznanie struktury zjawiska.
Aby tego dokonać należy owe informacje odpowiednio uporządkować. Na
tym etapie należy zatem pogrupować cechy tak, aby otrzymać zbiorowości
jakościowo jednorodne, ponieważ tylko takie umożliwiają wykrywanie
prawidłowości. Na przykład, jeśli chcemy zbadać wysokość płac
pracowników szkoły, należy podzielić tę zbiorowość według przykładowo
rodzaju wykonywanego zawodu (nauczyciele, administracja, obsługa),
kwalifikacji, czy jeszcze inaczej. Jeśli tego nie dokonamy – wartość
merytoryczna uzyskanych wyników będzie znikoma.
Często bywa tak, że po utworzeniu grup jednorodnych z punktu widzenia
pewnej cechy, dysponujemy tak obfitym materiałem liczbowym, że jego
analiza jest praktycznie niemożliwa. W takiej sytuacji należy pogrupować
jednostki w zbiory według poziomu wartości badanej cechy (np. nauczycieli
według stażu pracy, warunkującego poziom doświadczenia zawodowego,
bądź formalnego zaszeregowania). Grupowanie takie prowadzi do
utworzenia tzw. szeregu rozdzielczego (strukturalnego; zob. 4.3.2.).
Obrazuje on strukturę zbiorowości społecznej według jednej cechy –
mierzalnej bądź niemierzalnej. W odniesieniu przynajmniej do cech
mierzalnych szereg rozdzielczy dość szczegółowo przedstawia strukturę
badanej zbiorowości. Podobną zresztą rolę spełniają wykresy takie jak
120
histogram, wielobok liczebności, krzywa liczebności czy też krzywa
częstości. Istnieje jednak bardziej syntetyczny sposób scharakteryzowania
badanej zbiorowości społecznej. Polega on na obliczeniu pewnych
charakterystyk, czyli p a r a m e t r ó w 93.
Do charakterystyk najczęściej wykorzystywanych przy opisie struktury
dowolnej zbiorowości należą następujące94.
1. Miary tendencji centralnej (położenia, średnie) – określanie tej
wartości zmiennej opisanej przez rozkład, wokół której skupiają się
wszystkie pozostałe wartości zmiennej.
2. Miary zmienności (rozproszenia, zróżnicowania, dyspersji) – badanie
stopnia zróżnicowania wartości zmiennej.
3. Miary asymetrii (skośności) – badanie kierunku zróżnicowania
wartości zmiennej. Określanie asymetrii rozkładu zmiennej pozwala ustalić,
jakich jednostek w badanej zbiorowości jest więcej: jednostek o wartościach
niskich, czy jednostek o wartościach wysokich. Jeżeli miary tendencji
centralnej określają poziom, a miary zmienności zróżnicowanie, to ocena
asymetrii rozkładu pozwala stwierdzić, jakich jednostek w badanej
populacji jest więcej – poniżej czy powyżej średniej arytmetycznej. W
zależności od tego, po której stronie średniej arytmetycznej skupia się
większa liczba jednostek, rozróżnia się asymetrię lewostronną (dodatnią)
bądź asymetrię prawostronną (ujemną). Natomiast rozkłady, w których po
obu stronach średniej arytmetycznej znajduje się jednakowa liczba
jednostek populacji, określane są jako rozkłady symetryczne95.
Podstawowymi miarami są współczynniki skośności, które mogą określać
bądź tylko kierunek skośności, bądź zarówno kierunek jak również siłę
asymetrii.
4. Miary koncentracji – badanie stopnia nierównomierności rozkładu
ogólnej sumy wartości zmiennej pomiędzy poszczególne jednostki
zbiorowości lub do analizy stopnia skupienia poszczególnych jednostek
wokół średniej. W statystyce pojęciem koncentracji określa się fakt
nierównomiernego rozdziału ogólnej sumy wartości pomiędzy poszczególne
jednostki zbiorowości. Przy czym ograniczone ono jest dwoma skrajnymi
przypadkami: brakiem koncentracji oraz koncentracja zupełną. Przypadek
pierwszy występuje wówczas, gdy na każdą jednostkę populacji przypada
taka sama część ogólnej sumy wartości. Przypadek koncentracji zupełnej
zaś ma miejsce, jeżeli cała suma wartości przypada na jedną tylko jednostkę
populacji. Koncentracja jako właściwość rozkłada wiąże się bezpośrednio
ze zróżnicowaniem i asymetrią – im większe jest zróżnicowanie jednostek

93
Charakterystyki z populacji generalnej noszą nazwę parametrów (są to ustalone wartości); podczas
gdy charakterystyki z populacji próbnej (próby losowej) – noszą tradycyjną nazwę statystyk
(zmieniają się one dla kolejnych prób).
94
Zob. M. Sobczyk, Statystyka, PWN, Warszawa 1998, s. 30.
95
W rozkładzie symetrycznym średnia arytmetyczna równa jest medianie i dominancie.
121
populacji oraz większa siłą asymetrii, tym większa jest koncentracja
wartości zmiennej.
Bliżej przyjrzymy się obecnie miarom tendencji centralnej oraz miarom
zmienności.

4.4.1. Miary tendencji centralnej

Miary tendencji centralnej (średnie, przeciętne) ustalają, jaki jest


przeciętny poziom wartości zmiennej (wokół którego skupiają się pozostałe
wartości). Innymi słowy, należy ustalić, w której zbiorowości przeciętny
poziom jest wyższy albo – jeśli porównanie odbywa się w czasie – co się
dzieje z poziomem wartości zmiennej: wzrasta czy maleje. Miary tendencji
centralnej dzielą się na dwie podstawowe grupy: średnie klasyczne (średnia
arytmetyczna, średnia arytmetyczna ważona, średnia harmoniczna, średnia
geometryczna) oraz średnie pozycyjne (modalna i kwantyle, mediana –
kwartyl drugi). Istotą podziału tych miar (na klasyczne i pozycyjne) jest
technika ich obliczania. Przy obliczaniu średnich klasycznych uwzględnia
się wartość zmiennej wszystkich jednostek należących do danej
zbiorowości. Natomiast przy obliczaniu średnich pozycyjnych uwzględnia
się wartość niektórych tylko, odpowiednio wybranych, jednostek
statystycznych, które zajmują odpowiednią pozycję w stosunku do całej
zbiorowości (np. wartość jednostki środkowej – mediana; wartość jednostek
najczęściej występujących – modalna itd.). Do ważniejszych miar tendencji
centralnej należą następujące: średnia arytmetyczna, średnia arytmetyczna
ważona, modalna i mediana.

1) Ś r e d n i a a r y t m e t y c z n a – taka wartość zmiennej, która


powstaje z podzielenia ogólnej sumy wartości zmiennej przez ogólną liczbę
jednostek badanej zbiorowości społecznej. Średnia arytmetyczna rozkłada
ogólną sumę wartości zmiennej równomiernie pomiędzy wszystkie
jednostki zbioru i w ten sposób zaciera różnice pomiędzy poszczególnymi
jednostkami. Treść poznawcza średniej arytmetycznej wiąże się w sposób
ścisły z typem rozkładu empirycznego badanej zmiennej. W rozkładach o
kształcie nieregularnym sprowadza się ona praktycznie do zera. Ponadto,
średnia arytmetyczna ma zastosowanie przede wszystkim dla
indywidualnego materiału statystycznego. Natomiast w przypadku
pogrupowanego materiału statystycznego właściwą miarą jest średnia
arytmetyczna ważona. Gdy chcemy podkreślić, że chodzi nam o średnią
arytmetyczną w populacji generalnej z reguły stosujemy symbol – m, zaś w
odniesieniu do średniej w próbie – używamy symbolu - x .

122
Dla dwóch liczb: x1, x2  R: Dla n liczb x1, x2,…, xn  R:
x1  x2 x1  x2  ...  xn 1 n
x = x = =  xi
2 n n i 1

2) Ś r e d n i a a r y t m e t y c z n a w a ż o n a – liczebności ni
poszczególnych wariantów xi nazywamy wagami96:

Dla dwóch liczb: x1, x2  R Dla n liczb x1, x2,…, xn  R


z wagami n1, n2  R+, z wagami n1, n2, , nk  R+:
x - średnia arytmetyczna. x - średnia arytmetyczna,
k – ilość prób losowych.
n1 x1  n2 x2 k
xw =
n1  n2 n x  n x  ...  nk xk n x
i 1
i i
xw = 1 1 2 2 =
n1  n2  ...  nk k

n
i 1
i

Przykład 4.21. Załóżmy, że hierarchia wartości (wagi) ocen na testach z logiki


przedstawia się następująco:
1) ocena za wiedzę teoretyczną (w.t.) – 1,
2) ocena za stosunki zakresowe (s.z.) – 1,5,
3) ocena za analizę poprawności syntaktycznej (a.p.s.) – 2,5.
4) ocena za sprawdzanie formuł klasycznego rachunku zdań (k.r.z.) – 4.
W oparciu o oceny cząstkowe (na skali ocen: 2 -5) uzyskane przez czterech
studentów S1 S2, S3 oraz przyjmując powyższe wagi – należy ustalić ich średnie
oceny końcowe.

Student Przedmiot oceny wraz z ocenami cząstkowymi


w.t. s.z. a.p.s. k.r.z.
S1 4; 3 5;4;4;3 3;5 4;3;5
S2 4;5 3;2;3;5 4;5;4 4;4
S3 5;5 2;4;3;3 4;3 2;3;5

Rozwiązanie zostanie zaprezentowane w tabeli. W tym celu należy:


1. Obliczyć dla poszczególnych studentów średnią ocen z poszczególnych
zadań: w.t., s.z., a.p.s. oraz k.r.z. (kol. 2, 4, 6, 8),
2. Dla każdego studenta mnożymy uzyskane średnie przez ich wagi (kol. 3, 5, 7,
9),
3. Tworzymy sumę obliczonych iloczynów (kol. 10),
4. Obliczamy sumę wag (1 + 1,5 + 2,5 + 4 = 9)
5. Wyznaczamy średnie ważone poprzez obliczenie ilorazów sumy iloczynów
średnich arytmetycznych ocen cząstkowych i ich wag przez sumę wag ( xw

96
Zob. Cz. Lewicki, Zbiór zadań ze statystyki dla pedagogów, Rzeszów 1998, s.28.
123
(średnia ważona): S1: 34,5 : 9 = 3,83; S2: 35,97 : 9 = 3,99; S3: 29,25 : 9 = 3,25 -
kol. 11).

Przedmiot oceny (zadanie)


Student
w.t. s.z. a.p.s. k.r.z.
x n
i i
xw

1 2 3 4 5 6 7 8 9 10 11
x 1 x 1n1 x 2 x 2n2 x 3 x 3n3 x 4 x 4n4
S1 3,5 3,5 4 6 4 10 3,75 15 34,5 3,83
S2 4,5 4,5 3,25 4,87 4,25 10,6 4 16 35,97 3,99
S3 5 5 3 4,5 3,5 8,75 2,75 11 29,25 3,25

3) M o d a l n a (moda, dominanta, średnia typologiczna) – taka wartość


zmiennej, która występuje najczęściej lub wokół której grupuje się
największa ilość elementów populacji. Pierwsze określenie ma
zastosowanie do sytuacji, gdy ilość wariantów cechy jest stosunkowo
niewielka, a drugie – do sytuacji gdy ilość wariantów jest bardzo duża lub
wręcz nieskończona. Graficzną ilustracją modalnej jest punkt na osi
odciętych, któremu odpowiada maksimum liczebności czy też częstości.
Modalną stosujemy wtedy, gdy chcemy za pomocą jednej liczby wyrazić
najbardziej typową wartość zmiennej dla danej zbiorowości społecznej.
Średnia ta może być wyznaczana jedynie wówczas, gdy:
1. dany jest rozkład empiryczny badanej cechy mierzalnej,
2. w rozkładzie empirycznym występuje jedno, wyraźnie zaznaczone
maksimum,
3. w przypadku rozkładów przedziałowych rozpiętości przedziałów
klasowych są równe,
4. asymetria rozkładu nie jest skrajna97.

4) M e d i a n a (wartość środkowa) – wartość jednostki środkowej w


zbiorowości uporządkowanej, a więc taka wartość zmiennej, która rozdziela
całą zbiorowość na dwie równe części w ten sposób, że połowa jednostek
ma wartości od niej mniejsze, a połowa większe. Innymi słowy jest to
wartość cechy jednostki znajdującej się dokładnie w środku. Mediana dzieli
zbiorowość na dwie jednakowo liczne części tak, że do jednej z nich należą
jednostki o mniejszych wartościach cech niż mediana, a do drugiej -
elementy zbiorowości z większymi wartościami cechy. Gdyby się okazało,
że - z uwagi na parzystą liczbę elementów - takiej jednostki nie ma,
wówczas przyjmuje się, iż mediana równa jest średniej arytmetycznej
dwóch elementów leżących najbliżej środka w uporządkowanej
zbiorowości.

97
Zob. A. Luszniewicz, Statystyka ogólna, PWE, Warszawa 1980, s. 43.
124
W graficznym rozkładzie zmiennej mediana stanowi tę wartość na osi
odciętych, która dzieli obszar pod krzywą liczebności na dwie równe części.
Mediana jest średnią, której wartość poznawcza wzrasta w miarę wzrostu
liczby jednostek obserwacji. Ponadto jest ona mało wrażliwa – w
przeciwieństwie do średniej arytmetycznej – na wartości krańcowe
rozkładu.

Mediana należy do średnich pozycyjnych zwanych ogólnie


k w a n t y l a m i . Obok mediany, dzielącej zbiorowość na dwie części,
należą do nich inne, m.in. kwartyle oraz decyle. Kwartyle (wartości
ćwiartkowe) dzielą uporządkowaną zbiorowość na cztery równe części
(ilość kwartyli – 3; kwartyl drugi jest medianą). Jeśli np. mówimy, że
pierwszy kwartyl w zbiorowości pracowników, badanych ze względu na
płace, wynosi 3.000 PLN, oznacza to tyle, iż 25% pracowników ma płacę
poniżej, a 75% pracowników powyżej 3.000 PLN. Z kolei decyle dzielą
uporządkowaną zbiorowość na dziesięć równych części (ilość decyli – 9;
piąty decyl jest medianą). Wyznaczanie kwantyli ma sens wówczas, gdy
szereg rozdzielczy zawiera wiele wariantów cechy (przedziałów
klasowych), zaś zbiorowość jest stosunkowo liczna.

4.4.2. Miary zmienności

Miary zmienności (rozproszenia, rozrzutu, dyspersji) stwierdzają, w


jakim stopniu porównywane zbiorowości są zróżnicowanie, czy różnice
pomiędzy poszczególnymi jednostkami tej samej zbiorowości są bardzo
duże, umiarkowane czy też nieznaczne oraz – w przypadku zmian
zachodzących w czasie – czy różnice te wzrastają, czy też zmniejszają się.
Miary te, podobnie jak i miary tendencji centralnej (średnie), dzielą się na
klasyczne (wariancja, odchylenie standardowe, odchylenie przeciętne) i
pozycyjne (rozstęp, odchylenie ćwiartkowe). Wariancja, odchylenie
standardowe, odchylenie przeciętne, rozstęp i odchylenie ćwiartkowe są
miarami bezwzględnymi, ponieważ wyrażamy je w takich samych
jednostkach jak wartości badanej zmiennej. W tym celu, aby móc
porównywać zmienność cech o różnych mianach, używa się względnej
miary zróżnicowania, wyrażonej w procentach, zwanej współczynnikiem
zmienności Pearsona. Ze względu na różne techniki obliczania tego
współczynnika, jedne rodzaj współczynnika zalicza się do klasycznych, a
inny – do pozycyjnych miar. Do częściej używanych miar zmienności
należą: rozstęp, wariancja, odchylenie standardowe oraz współczynnik
zmienności Pearsona.

1) R o z s t ę p (empiryczny obszar zmienności) - jest to różnica


pomiędzy największą i najmniejszą wartością w całym obszarze zmiennej.
Opiera się na wartościach najbardziej skrajnych w obszarze zmiennej, a
125
zatem może być stosowana tylko wówczas, gdy jednostki krańcowe nie są
przypadkowe i nietypowe; nie mogą one zbyt znacznie odbiegać od
wartości pozostałych jednostek zbiorowości. Jeśli np. wśród studentów I
roku studiów stacjonarnych, badanych ze względu na wiek, znajdzie się
student w wieku 40 lat, wtedy rozstęp nie będzie dobrą miarą
zróżnicowania, ponieważ typowy wiek studentów I roku studiów
stacjonarnych wynosi 19 - 22 lata.

2) W a r i a n c j a - średnia arytmetyczna z kwadratów odchyleń


poszczególnych wartości zmiennych xi od średniej arytmetycznej,
obliczonej dla całej zbiorowości [zob. Tabela 4.4.]. Wariancja posiada wiele
dogodnych własności matematycznych. Ale jej podstawowym
mankamentem z punktu widzenia praktyki jest to, że mierzy się ją w
jednostkach „kwadratowych”, co dla niektórych wielkości może być
kłopotliwe (np. dla wyrażonych w „zł”). Z tego względu w zastosowaniach
praktycznych wygodniejszy jest pierwiastek z wariancji, czyli tzw.
odchylenie standardowe.

3) O d c h y l e n i e s t a n d a r d o w e – pierwiastek kwadratowy z
wariancji [zob. Tabela 4.4.]. Określa, o ile wszystkie jednostki danej
zbiorowości różnią się średnio ze względu na wartość zmiennej od średniej
arytmetycznej tej zmiennej.

4) W s p ó ł c z y n n i k z m i e n n o ś c i P e a r s o n a - względna miara
zmienności wskazująca na to, ile procent średniej arytmetycznej wynosi
odchylenie standardowe98. Posiada wygodną w obliczeniach wąskość tę
mianowicie, że jest to wielkość niemianowana. Odchylenie standardowe
oraz średnia arytmetyczna wyrażane są zawsze w tych samych jednostkach,
a zatem ich stosunek jest liczbą niemianowaną. Tym samym możliwe jest
porównywanie zmienności także pomiędzy takimi zbiorowościami, które są
badane ze względu na różne cechy, choć pozostające ze sobą w pewnym
logicznym związku. Współczynnik zmienności Pearsona wyraża się
następującym wzorem:

S ( x)
V(x) = 100%
x

gdzie, S(x) – odchylenie standardowe,


x - średnia arytmetyczna.

Przykład 21. Miesięczne pobory menedżerów średniego szczebla o stażu do


pięciu lat, w firmach o kapitale mieszanym, zawierają się w granicach 15 – 22 tys.

98
Zob. Cz. Lewicki, Zbiór zadań ze statystyki dla pedagogów, Fosze, Rzeszów 1998, s. 49 i nast.
126
euro (grupa pierwsza), zaś wynagrodzenie menedżerów o stażu ponad
dwudziestoletnim, w firmach tego samego typu, zawiera się w granicach 23 – 30
tys. euro (grupa druga). Średnia płaca w pierwszej grupie wynosiła x 1 = 18, 5 tys.
euro z odchyleniem standardowym 1,7 tys. euro, zaś w drugiej grupie x 2 = 26,5
tys. euro z odchyleniem standardowym 2,1 tys. euro. Należy obliczyć, w której
grupie menedżerów, pierwszej czy drugiej, jest większe zróżnicowanie płac?
W tym celu, aby porównać dyspersję w obu grupach (przy tej samej zmiennej -
wynagrodzenie), należy obliczyć współczynniki zmienności dla obu grup:
1,7 2,1
V(x1) = 100% = 9,2%, V(x2) = 100% = 7,93%.
18.5 26.5
Na podstawie obliczonych współczynników zmienności należy orzec, że w
pierwszej grupie menedżerów zróżnicowanie płac jest większe niż w grupie
drugiej, mimo iż w grupie drugiej odnotowano mniejszą wartość odchylenia
standardowego.

4.5. Analiza współzależności

W analizach dotyczących struktury były uwzględnione tylko takie


metody statystyczne, które służyły do badania zbiorowości statystycznych
rozpatrywanych przy uwzględnieniu jednej cechy. Bardzo często jednak
poszczególne jednostki populacji badane są jednocześnie ze względu na
dwie lub więcej cech. Sytuacja taka wymaga stosowania odmiennej analizy,
której celem jest stwierdzenie, czy między badanymi zmiennymi w ogóle
zachodzą jakieś zależności, a jeśli tak, to jaka jest ich siła, kształt i kierunek.
Ponadto badanie wzajemnych uwarunkowań dowolnych zdarzeń nie tylko
dostarcza informacji o otaczającym nas świecie w teraźniejszości, ale
również stanowi podstawę do przewidywania przyszłości.

4.5.1. Rodzaje związków współzależnościowych

Analiza współzależności obejmuje trzy rodzaje związków: funkcyjny,


stochastyczny oraz korelacyjny.

1) Z w i ą z e k f u n k c y j n y (prostoliniowy lub krzywoliniowy) –


wyraża się formułą Y = f (X) i oznacza, że każdej wartości jednej zmiennej
niezależnej X odpowiada jedna jednoznacznie określona wartość zmiennej
zależnej Y, tj. każdemu wariantowi zmiennej niezależnej odpowiada jeden i
tylko jeden wariant zmiennej zależnej. Innymi słowy, zmiana wariantu
zmiennej X powoduje zatem ściśle określoną zmianę wariantu zmiennej Y.
Weźmy np. wzór wyrażający prędkość spadania ciał w próżni v w
zależności od czasu t: v = g t, gdzie g – przyśpieszenie grawitacyjne
wynoszące 9,81 m/sek2, to prędkość ta po upływie określonej ilości sekund
będzie miała ściśle określoną, możliwą do obliczenia, wartość. Zależności
typu funkcyjnego z reguły występują w rzeczywistości przyrodniczej
127
doświadczanej bezpośrednio przez człowieka. W rzeczywistości społecznej,
z uwagi na wieloprzyczynowy charakter zjawisk społecznych, zależności
funkcyjnych raczej nie spotyka się. W analizach społecznych należy brać
pod uwagę głównie zależności typu stochastycznego.

2) Z w i ą z e k stochastyczny (probabilistyczny, losowy)


najprościej można zdefiniować jako taki, w którym ściśle określonej jednej
wartości zmiennej niezależnej X odpowiada szereg wartości zmiennej
zależnej Y, tj. konkretnym wariantom zmiennej X odpowiadają różne
warianty zmiennej Y. Innymi słowy, wraz ze zmianą zmiennej X zmienia się
rozkład prawdopodobieństwa zmiennej Y.

3) Z w i ą z e k k o r e l a c y j n y polega na tym, że ściśle określonym


wartościom zmiennej niezależnej X odpowiada ściśle określona średnia
wartość zmiennej zależnej Y. Możemy zatem ustalić jak zmienia się średnia
wartość zmiennej zależnej Y w zależności od wartości zmiennej niezależnej
X. W związku z tym przypadek równości średnich należy traktować jako
zerowy związek korelacyjny (statystyczny). Związek korelacyjny stanowi
szczególny rodzaj związku stochastycznego. W obu przypadkach określona
wartość zmiennej niezależnej X wyznacza pewien przedział wartości
zmiennej zależnej: w przypadku związku stochastycznego – będzie to
rozkład prawdopodobieństw, zaś w przypadku związku korelacyjnego –
będą to średnie wartości.
Istnieje wszakże konieczność zachowania dużej ostrożności przy
formułowaniu wniosków na podstawie zależności korelacyjnej.
Szczególnym przypadkiem formalizmu statystycznego w badaniach
współzależnościowych są „obserwacje korelacji nonsensownych
(iluzorycznych), np. doszukiwanie się zależności pomiędzy liczbą urodzeń a liczbą
przylatujących bocianów czy pomiędzy liczbą radioodbiorników a liczbą
zarejestrowanych chorych umysłowo”99.
Można rozróżnić dwa rodzaje związków korelacyjnych: przyczynowe
oraz wspólne. Związek korelacyjny przyczynowy (zależność bezpośrednia) –
pomiędzy zjawiskami społecznymi istnieje związek przyczynowy
jednostronny (jedna zmienna oddziałuje na drugą) bądź dwustronny
(oddziaływanie zwrotne). Ustala się siłę (skupienie bądź rozproszenie
liczebności), kształt (liniowy, krzywoliniowy) oraz kierunek (rosnąca,
malejąca) współzależności. Związek korelacyjny wspólny (zależność
pośrednia) – pomiędzy zjawiskami społecznymi brak związku
przyczynowego, ale istnieją wspólne przyczyny kształtowania się tych
zjawisk. W takim razie stwierdzić należy, iż samo występowanie korelacji
może być jedynie sygnałem tego, że pomiędzy zjawiskami społecznymi

99
A. Luszniewicz, Statystyka ogólna, PWE, Warszawa 1980, s. 127.
128
zachodzi zależność przyczynowa - bezpośrednia bądź zależność wspólna -
pośrednia.

4.5.2. Analiza regresji

Przypuśćmy, że chcemy teraz zbadać poszczególne jednostki


społeczeństwa jednocześnie ze względu na dwie współzależne cechy: X
(zmienna niezależna, objaśniająca) i Y (zmienna zależna, objaśniana).
Gdyby były one powiązane związkiem funkcyjnym typu Y = f (X), to
znając wartość X można by jednoznacznie przewidzieć wartość Y. Wiemy
jednak, że w rzeczywistości społecznej tego typu związki nie zdarzają się.
Problem jednak istnieje; czy nie można zatem jakoś przewidzieć wielkości
jednej cechy w oparciu o znajomość wielkości drugiej, ocenić stopień
aproksymacji do stanu faktycznego oraz określić kształt współzależności
(prostoliniowa, krzywoliniowa). Otóż ta problematyka stanowi przedmiot
tzw. a n a l i z y r e g r e s j i 100; przy czym regresja może być wieloraka
(między zmienną zależną Y a zbiorem kilku zmiennych niezależnych lub
gdy związek między zmiennymi jest nieliniowy) oraz cząstkowa (liniowa;
między dwiema zmiennymi X i Y). Tak więc w wyniku analizy regresji
można odpowiedzieć na pytanie, jakiej zmiany średniej wartości zmiennej
zależnej należy oczekiwać przy zmianie wartości zmiennej niezależnej o
ustaloną jednostkę. Odmienna problematyka, choć ściśle powiązana z
powyższą, wiąże się z potrzebą oceny i pomiaru siły związku cech. Stanowi
to przedmiot tzw. a n a l i z y k o r e l a c j i , która - podobnie jak analiza
regresji - może być wieloraka bądź cząstkowa.
Jeżeli pod uwagę weźmiemy r e g r e s j ę c z ą s t k o w ą (liniową), to za
model związku między zmiennymi X i Y uznaje się linię prostą. Linia
prosta, o czym wiadomo z algebry, określona jest równaniem Y = A + BX,
gdzie wyraz wolny A oznacza punkt przecięcia linii z osią rzędnych, zwany
punktem przecięcia, a B – nachylenie linii względem osi odciętych, zwane
współczynnikiem kierunkowym. Przyjmując dość rozpowszechnioną notację,
iż parametr przecięcia (wyraz wolny) A = 0 zaś parametr nachylenia
(współczynnik kierunkowy) B = 1 oraz uwzględniając tzw. błąd losowy 
otrzymujemy dla zbiorowości generalnej (populacji) prosty model regresji
liniowej:

100
Termin regresja pochodzi od Francisa Galtona, kuzyna Karola Darwina. W artykule „Naturalna
Dziedziczność” (Natural Inheritance) ogłoszonym w 1889 r. donosił o swoim odkryciu, mianowicie że
rozmiary nasion groszku mają tendencję w kolejnych generacjach do powracania, regresji (to regress)
do swego średniego wzrostu. Odkrył też zależność między wzrostem ojców i synów – wzrost synów
wykazywał, jego zdaniem, odchylenie od wzrostu ojców w kierunku wzrostu przeciętnego; nazwał to
„powracaniem do przeciętnej” (regression to mediocrity). Termin regresja utrwalił się w statystyce
(choć ma niewiele wspólnego z „powracaniem do przeciętnej” w rozumieniu Galtona) i oznacza -
ogólnie mówiąc - przewidywanie wartości jednej cechy w oparciu o znajomość wartości drugiej
cechy.
129
Y =  0 +  1X + 

gdzie Y – zmienna zależna, którą chcemy wyjaśnić bądź przewidzieć, X -


zmienna niezależna (predykator), a  jest błędem losowym. Obowiązuje on
przy następujących założeniach: po pierwsze – związek między X i Y jest
liniowy; po drugie – wartości zmiennej niezależnej X są ustalone, a nie
losowe; po trzecie – błędy losowe  wiązane z kolejnymi obserwacjami są
od siebie niezależne i tym samym nie ujawnia się określona tendencja
kolejnych błędów. Przyjęty model regresji dotyczy dwuwymiarowego
rozkładu zmiennych losowych (X, Y) w populacji generalnej. Nosi on nazwę
modelu regresji I rodzaju101.
Aby oszacować ten nieznany związek w populacji generalnej należy
pobrać losową próbę dla obu zmiennych X oraz Y, a następnie ocenić
parametr przecięcia (wyraz wolny: 0) oraz parametr nachylenia
(współczynniki kierunkowy: 1). W tym celu na ogół korzysta się z tzw.
metody najmniejszych kwadratów, pozwalającej na aproksymację
(dopasowanie) rozkładów teoretycznych do rozkładów empirycznych
zgodnie z postulatem, aby spośród wielu funkcji tej samej klasy (np.
liniowych) wybrać taką, która będzie spełniała warunek minimalizacji
kwadratów różnic wartości empirycznych w stosunku do wartości
teoretycznych.

4.5.3. Analiza korelacji

Jednym z założeń modelu regresji liniowej jest to, iż zmienna niezależna


X jest zmienną o wartościach ustalonych, a nie losowych. Losowość
zmiennej Y pochodzi wyłącznie z oddziaływania na nią składnika losowego
. Jeżeli teraz usuniemy to założenie przyjmując, że obie zmienne X oraz Y
są zmiennymi losowymi, to badanie związku między tymi zmiennymi
będzie właśnie a n a l i z ą k o r e l a c j i (cząstkowej, liniowej). Korelacja
cząstkowa między dwiema zmiennymi losowymi jest bowiem niczym
innym jak miarą siły liniowego związku pomiędzy tymi zmiennymi.
Należy wszakże odróżniać metody wykrywania jakichkolwiek związków
korelacyjnych od metod pozwalających szacować ich siłę (stopień).
Podstawowymi metodami wykrywania związków korelacyjnych są:
1. Metoda porównywania przebiegu szeregów statystycznych
charakteryzujących badane zjawisko.
2. Metoda graficzna.
3. Metoda tablic korelacyjnych.
Natomiast siłę (stopień) korelacji mierzy się najczęściej:
1. Współczynnikiem korelacji liniowej Pearsona.

101
Por. M. Krzysztofiak, D. Urbanek, Metody statystyczne, PWN, Warszawa 1981, s. 282.
130
2. Współczynnikiem korelacji rang Spearmana.
3. W przypadku cech jakościowych można stosować m.in. współczynnik
kontyngencji „C”, oparty na statystyce Chi-kwadrat (2) czy też
współczynnik zbieżności Yule’a ().
Tytułem ilustracji zagadnień związanych z współzależnością krótko
zaprezentujemy metodę porównywania przebiegu szeregów statystycznych,
metodę tablic korelacyjnych, współczynnik korelacji liniowej oraz
współczynnik korelacji rang.

1) Porównywanie przebiegu szeregów


s t a t y s t y c z n y c h . Istota tej metody sprowadza się do zestawienia obok
siebie uporządkowanych (rosnąco lub malejąco) według jednej z badanych
cech. Takie zestawienie pozwala ocenić zgodność tych szeregów, a tym
samym występowanie oraz kierunek związku korelacyjnego. Jeżeli wartości
porównywanych szeregów są zgodne, tzn. mają tendencję rosnącą lub
malejącą, to mamy do czynienia ze związkiem korelacyjnym. W przypadku,
gdy mamy do czynienia jednocześnie ze wzrostem dwóch cech (ten sam
kierunek zmian) – jest to korelacja dodatnia. Natomiast, gdy wzrostowi
wartości jednej cechy towarzyszy spadek wartości drugiej cechy (różny
kierunek zmian) – jest to korelacja ujemna. Jeśli zaś ze wzrostem lub
spadkiem wartości w jednym szeregu, w drugim szeregu nie można
zaobserwować wyraźnej tendencji rosnącej lub malejącej, wówczas
uznajemy, że brak związku korelacyjnego.

Przykład 4.22.

Spółka Zysk Ranga Dywidenda Ranga


X Y
A 10,50 1 2,10 2
B 10,20 2 2,20 1
C 9,80 3 1,90 3
D 9,75 4 1,80 4
E 8,40 5 1,70 5
F 7,90 6 1,55 6
G 7,10 7 1,40 7
H 6,30 8 0,80 8
I 5,20 9 0,40 10
J 5,10 10 0,45 9

Dla każdej pozycji zysku zapisano rangi, tj. liczby od najniższej do najwyższej,
wskazujące na to, jaki zysk wygospodarowały spółki w przeliczeniu na jedną akcję
(1 – największy zysk; 10 – najniższy zysk). Analogicznie ponumerowano spółki z
punktu widzenia wypłaconej dywidendy (1 – największa dywidenda; 10 –
najmniejsza dywidenda). W rezultacie porównania rang można stwierdzić, że
między obu cechami: X oraz Y zachodzi współzależność. W dwóch przypadkach
131
jedynie następuje rozbieżność między osiągniętym zyskiem a wypłaconą
dywidendą (spółki: A i B). W tej sytuacji można stwierdzić, iż między osiągniętym
przez spółki zyskiem a wypłacaną przez nie dywidendą występuje związek
korelacyjny typu dodatniego (korelacja dodatnia): im większy jest zysk osiągnięty
przez daną spółkę, tym wyższa jest dywidenda wypłacana akcjonariuszom.

2) M e t o d a t a b l i c k o r e l a c y j n y c h . Prezentowana powyżej
metoda porównywania przebiegu szeregów statystycznych ma tę wadę, iż w
praktyce może być stosowana tylko do szeregów obejmujących niewiele
obserwacji, charakteryzujących się niewielką liczebnością. W wypadku
szeregów obejmujących większą liczbę obserwacji rozpoznanie
współzależności oraz jej kierunku umożliwiają specjalnie skonstruowane
tablice korelacyjne. W tzw. główce (pierwszy wiersz) tablicy umieszczamy
szereg rozdzielczy zawierający warianty zmiennej X, zaś w tzw. boczku
(pierwsza kolumna) – szereg rozdzielczy zawierający warianty zmiennej Y.
Skrzyżowanie wiersza z kolumną to tzw. – pozycja zapisu, charakteryzująca
jednoczesne występowanie określonej wartości zmiennej X oraz Y.

Przykład 4.23. Na podstawie danych z Przykładu 4.22. w tzw. główce poniższej


tablicy umieszczamy szereg rozdzielczy z wariantami zmiennej X (zysk), zaś w
tzw. boczku – z wariantami zmiennej Y (dywidenda). Zauważamy oczywiście
korelację dodatnią – ze wzrostem zysku przypadającego na jedną akcję, rośnie
wysokość wypłacanej dywidendy.

Dywidenda Zysk przypadający na jedną akcję w zł Razem:


w zł 5,10-6,50 6,51-7,90 7,91-9,30 9,31-10,50
0,40-0,85 3(HIJ) - - - 3
0,86-1,30 - - - - -
1,31—1,75 - 2(FG) 1(E) - 3
1,76-2,20 - - - 4(ABCD) 4
Razem: 3 2 1 4 10

3) W s p ó ł c z y n n i k k o r e l a c j i l i n i o w e j P e a r s o n a (rxy).
Posługując się tym współczynnikiem możemy opisywać związki
prostoliniowe badanych zmiennych cech mierzalnych. Współzależność
liniowa polega na tym, że zwiększenie wartości jednej ze zmiennych
powoduje proporcjonalną zmianę (przyrost lub spadek) średnich wartości
drugiej zmiennej w całym obszarze zmienności. Współczynnik korelacji
liniowej może być określany wzorami na kilka sposobów. Wzory te pod
względem matematycznym są równoważne. O wyborze konkretnego wzoru
do obliczeń decydują na ogół względy praktyczne. W praktyce badań
społecznych często stosuje się wzór o następującej postaci:

132
rxy =
 ( x  x )( y  y )
i i

 (x  x)  ( y  y)
i
2
i
2

gdzie: xi - wartości zmiennej X,


x - średnia arytmetyczna (przeciętny poziom) zmiennej X,
yi - wartości zmiennej Y,
y - średnia arytmetyczna (przeciętny poziom) zmiennej Y.

Współczynnik korelacji rxy jest wielkością niemianowaną, tj. niezależną


od jednostek, w których wyraża się zmienne X oraz Y. Współczynnik
korelacji liniowej Pearsona stanowi miernik kierunku oraz siły zależności
korelacyjnej cech mierzalnych. Przyjmuje on wartości z przedziału <-1, +1>
stanowi więc unormowaną miarę ścisłości. Znak minus oznacza korelację
ujemną, zaś znak plus – dodatnią. Jeżeli rxy = 0, to między zmiennymi nie
ma żadnego związku; przy rxy = -1 zachodzi całkowity (funkcyjny) związek
korelacyjny ujemny; natomiast przy rxy = 1 ma miejsce całkowity
(funkcyjny) związek korelacyjny dodatni102.
Należy jednak mieć na uwadze to, że skala korelacji, tj.
przyporządkowanie konkretnym wartościom współczynnika stopni siły
współzależności ma raczej arbitralny charakter i może być tym samym
rozmaicie ujmowana. Poniżej zaprezentujemy dość rozpowszechnioną skalę
korelacji:

Poziom Siła korelacji Poziom Siła korelacji


współczynnika rxy ujemnej współczynnika rxy dodatniej
rxy = -1 Ujemna korelacja rxy = 0 Brak korelacji
całkowita
(funkcyjna)
-1  rxy  - 0,9 Bardzo wysoka 0  rxy 0,3 Słaba
- 0,9  rxy  - 0,7 Wysoka 0,3  rxy  0,5 Średnia
- 0,7  rxy  - 0,5 Znaczna 0,5  rxy  0,7 Znaczna
- 0,5  rxy  - 0,3 Średnia 0,7  rxy  0,9 Wysoka
- 0,3  rxy  0 Słaba 0,9  rxy  1,0 Bardzo wysoka
rxy = 0 Brak korelacji rxy = 1,0 Dodatnia korelacja
całkowita
(funkcyjna)

4) W s p ó ł c z y n n i k k o r e l a c j i r a n g S p e a r m a n a (Q).
Współczynnik ten stosujemy w sytuacjach, gdy badana zbiorowość jest
nieliczna (w szczególności mniejsza niż 30 jednostek) oraz gdy badane
zmienne są niemierzalne (np. badanie związku między uzdolnieniami
102
Por. L. A. Gruszczyński, Elementy statystyki dla socjologów, U. Śl. Katowice 1986, s. 168.
133
muzycznymi a umiejętnością pracy w zespole). Nic jednak nie stoi na
przeszkodzie temu, aby ten współczynnik był wykorzystywany również do
badania związku między zmienną mierzalną a niemierzalną (np. związek
między temperaturą badanej osoby a ilością spożywanego przez nią białka)
bądź między zmiennymi mierzalnymi, skorelowanymi liniowo (np. związek
między ilością zużywanej benzyny a ilością zarejestrowanych samochodów
w poszczególnych województwach).
Konstrukcja współczynnika korelacji rang opiera się na zgodności rang,
czyli zgodności pozycji, którą zajmuje każda z odpowiadających sobie
wielkości we wzrastającym lub malejącym szeregu wartości swej zmiennej.
Jeżeli rangi (pozycje) w uporządkowanym szeregu jednej zmiennej w
znacznym stopniu odpowiadają rangom (pozycjom) uporządkowanego
szeregu drugiej zmiennej, to stwierdzamy ścisłą z a l e ż n o ś ć
d o d a t n i ą . Jeżeli zaś wzrostowi rang jednej zmiennej towarzyszy
zmniejszanie się rang drugiej zmiennej, to mamy do czynienia z ścisłą
z a l e ż n o ś c i ą u j e m n ą . Natomiast w przypadku braku jakiejkolwiek
zgodności rang, wnioskujemy o b r a k u z w i ą z k u k o r e l a c y j n e g o .
Zgodnie z powyższymi regułami obliczamy współczynnik korelacji
rangowej według następującego wzoru103:

6 d i2
Q = 1-
N ( N 2  1)
gdzie: di – różnica rang: Ry – Rx. Rx – to kolejna ranga badanej jednostki
statystycznej ze względu na nasilenie zmiennej X; Ry – to rangi ze względu
na zmienną Y.
N - liczebność próby.

Wyznaczenie współczynnika korelacji rangowej poprzedzają obliczenia,


które wygodnie jest dokonywać w tabeli. W tym celu należy wykonać
następujące operacje104:
1. Poszczególnym jednostkom przypisać rangi ze względu na wielkość
wartości zmiennej X oraz Y. W przypadku uzyskania identycznych wartości
zmiennych przez różne jednostki statystyczne, jednostkom tym
przypisujemy identyczne rangi.
2. Dla każdej badanej jednostki obliczyć różnicę rang dla zmiennej X
oraz Y.
3. Obliczyć kwadraty różnic.
4. Zsumować kwadraty różnic.
5. Uzyskane wyniki podstawić do wzoru i obliczyć wartość
współczynnika korelacji rangowej Q.

103
Zob. M. Krzysztofiak, D. Urbanek, Metody statystyczne, PWN, Warszawa 1981, s. 304.
104
Zob. Cz. Lewicki, Zbiór zadań ze statystyki dla pedagogów, Fosze, Rzeszów 1998, s. 109.
134
Współczynnik korelacji rang Spearmana interpretuje się analogicznie jak
współczynnik korelacji liniowej Pearsona [zob. skala korelacji]. W sensie
interpretacyjnym współczynnik korelacji Q rang jest więc równoważny ze
współczynnikiem korelacji rxy.

Przykład 4.24. Dwóch wykładowców logiki (WI, WII) badało poziom


sprawności w rozwiązywaniu testów z logiki, na skali 0 – 20 pkt, w tej samej
grupie studenckiej liczącej 15 studentów. W oparciu o uzyskane oceny,
zaprezentowane poniżej, określić wielkość związku korelacyjnego pomiędzy
ocenami poziomu sprawności dokonanych przez dwóch wykładowców.

L.p. 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

WI 17 15 10 14 17 20 8 8 15 5 18 17 13 11 7
WII 15 17 10 14 20 18 10 7 15 5 20 15 15 10 5

Oceny, jakie wystawiali wykładowcy, nie są wielkościami metrycznymi, lecz


liczbami opartymi wyłącznie w głównej mierze na subiektywnych odczuciach
wykładowców. Z tego też względu nie można wykonywać na nich żadnych
operacji matematycznych. Wolno nam jednak na podstawie tych ocen dokonać
hierarchizacji studentów, tzn. nadać im określone rangi. W tej sytuacji, aby
określić wielkość związku korelacyjnego pomiędzy ocenami dokonanymi przez
dwóch różnych wykładowców, należy posłużyć się współczynnikiem korelacji
rangowej Spearmana.
Obliczeń wstępnych dokonuje się w tabeli. W kolumnach: 2 i 3 znajdują się
oceny ze sprawności w rozwiązywaniu przez studentów testów z logiki, zaś
kolumny 4 i 5 zawierają rangi poszczególnych studentów ze względu na otrzymane
od obu wykładowców oceny. Oczywiście, przy identycznych ocenach kilku
studentów, studenci ci otrzymują takie same rangi. Na przykład studenci 2 i 9
otrzymali od WI po 15 pkt; ich ranga wynosi zatem 6,5, ponieważ wynik ten
67
zajmuje miejsca 6 i 7 w hierarchii wszystkich ocen, zatem = 6,5; podobnie
2
studenci 1, 9, 12, i 13 uzyskali po 15 pkt od WII, zatem ich ranga również wynosi
5678
6,5, gdyż = 6,5. W kolumnie 6 zamieszcza się różnicę rang,
4
natomiast w kolumnie 7 – kwadraty tej różnicy. Po zsumowaniu kwadratów
różnicy rang dla poszczególnych studentów (59,5) istnieją już wszystkie dane do
obliczenia współczynnika korelacji rangowej Spearmana.

L.p. Ocena WI Ocena WII R(x) R(y) di = R(y) di2


(xi) (yi) – R(x)
1 2 3 4 5 6 7
1 17 15 4 6,5 2,5 6,25
2 15 17 6,5 4 -2,5 6,25
3 10 10 11 10 -1 1
4 14 14 8 12 4 16
135
5 17 20 4 1,5 -2,5 6,25
6 20 18 1 3 2 4
7 8 10 12,5 10 -2,5 6,25
8 8 7 12,5 13 0,5 0,25
9 15 15 6,5 6,5 0 0
10 5 5 15,0 14,5 -0,5 0,25
11 18 20 2 1,5 -0,5 0,25
12 17 15 4 6,5 2,5 6,25
13 13 15 9 6,5 -2,5 6,26
14 11 10 10 10 0 0
15 7 5 14 14,5 0,5 0,25
59,5

Po dokonaniu zsumowania kwadratów różnicy rang dla poszczególnych


studentów (kol. 7), mamy już wszystkie dane do obliczenia współczynnika
korelacji zgodnie ze wzorem:
6 d i2 6  59,5 6  59,5
1- =1 - =1 - = 1 – 0,106 = 0,894.
N ( N  1)
2
15(15  1)
2
15(225  1)
Wielkość współczynnika korelacji rangowej Spearmana wskazuje zatem na to, że
oceny poziomu sprawności w rozwiązywaniu testów z logiki, dokonane przez
dwóch wykładowców w tej samej grupie studenckiej, korelują ze sobą w stopniu
zasadniczo bardzo wysokim.

4.6. Wnioskowanie statystyczne

Wnioskowanie statystyczne obejmujące teorię estymacji oraz teorię


weryfikacji hipotez statystycznych – punktu widzenia logiki formalnej – jest
wnioskowaniem zawodnym. Teoria estymacji oraz teoria weryfikacji
hipotez statystycznych są szczególnymi przypadkami ogólnego zagadnienia,
jakim jest zagadnienie podejmowania decyzji statystycznych.

4.6.1. Dobór próby losowej

Badanie statystyczne może być w y c z e r p u j ą c e , tj. takie, które


opisuje wszystkie jednostki należące do badanej zbiorowości. Często jednak
przeprowadzenie takiego badania wyczerpującego nie jest możliwe albo nie
jest celowe, bądź dlatego, że zbiorowość jest zbyt wielka i objęcie jej w
całości nie dałoby się przeprowadzić technicznie, bądź dlatego, że w inny
sposób można szybciej uzyskać wynik wystarczająco dokładny. W tej
sytuacji stosuje się badanie częściowe. Korzyść z badania częściowego jest
oczywista - można podejmować zadania, których wykonanie byłoby wręcz
niemożliwe przy badaniu wyczerpującym; można rozszerzać zakres badań
na nowe dziedziny bądź wreszcie pogłębiać badania poprzez bardziej
dogłębne ujęcie zagadnień. Istotną sprawą jest jedynie ustalenie, czy i w
136
jakich warunkach badanie częściowe daje wyniki zadowalające, tzn. kiedy
pozwala ono z wymaganą precyzją wnioskować o całej zbiorowości.
Najważniejszą spośród metod badań częściowych jest m e t o d a
r e p r e z e n t a c y j n a 105. Polega ona na tym, że w celu zbadania własności
całej zbiorowości statystycznej wybiera się do badania tylko pewną ilość
jednostek statystycznych reprezentujących badaną zbiorowość. Znanym
powszechnie pojęciom stosowanym w metodologii ogólnej: „całość” i
„część” w statystyce odpowiadają pojęcia: populacja generalna
(zbiorowość generalna) oraz populacja próbna (zbiorowość próbna; próba).
Wyróżnia się dwa sposoby wyboru jednostek do próby: wybór celowy i
wybór probabilistyczny [Tabela 4.24.]:

Tabela 4.24. Metody doboru populacji próbnej.

DOBÓR PRÓBY WARIANTY OBJAŚNIENIE


Zwykły Dobieramy jednostki, o których sądzimy, że są
reprezentatywne dla całej populacji
CELOWY Określamy populację ze względu na rozkład
Proporcjonalny interesujących nas cech i w oparciu o znane
rozkłady wybiera się odpowiednie kwoty do
badania (próba będzie mieć taką samą
strukturę jak populacja).
Prosty Każdej jednostce w populacji
przyporządkowuje się pewien numer, a
następnie losuje potrzebną ilość elementów
LOSOWY Systematyczny Do próby włącza się co i-tą jednostkę z
populacji
Dzieli się populację na warstwy, a następnie
Warstwowy losuje z każdej z nich w sposób niezależny
określoną liczbę elementów
Do badania losuje się całe zespoły
Zespołowy (pogrupowane według przyjętych kryteriów);
(gronowy) próbę stanowią wszystkie jednostki
wylosowanych zespołów
Quasi-losowy Kwotowy; Sędziów kompetentnych; Sekwencyjny.

D o b ó r c e l o w y (ekspercki) – sprowadza się do tego, że badacz


dobiera jednostki do próby na podstawie ogólnej znajomości badanego
zdarzenia. W rezultacie do próby celowej trafiają jednostki - w
subiektywnym odczuciu badacza - „typowe”, „przeciętne”, czyli
reprezentatywne
D o b ó r p r o b a b i l i s t y c z n y (losowy) – polega na tym, że
jednostki dobiera się do próby losowej przypadkowo, aczkolwiek na ogół

105
Zob. J. Brzeziński, Elementy metodologii badań psychologicznych, PWN, Warszawa 1980, s. 135.
137
stara się określić szanse ich umieszczenia w danej próbie. Teoria pobierania
prób w statystyce opera się bowiem na założeniu o jednakowym
prawdopodobieństwa znalezienia się każdego elementu populacji w próbie.
Badacz decyduje jedynie o stosowanej metodzie losowania próby. Ponadto
bywa i tak, że nie zawsze istnieje nawet czysto teoretyczna możliwość
zbadania populacji generalnej. Dlatego też wstępnie należy ograniczyć
populację do jednostek dających się jednoznacznie zidentyfikować. W ten
sposób tworzy się rejestr wszystkich jednostek, spośród których ma być
wybrana próba. Rejestr ten, będący jednoznacznym odwzorowaniem
jednostek populacji generalnej w zbiór liczb naturalnych 1, …, n, gdzie n –
liczebność populacji, nosi nazwę o p e r a t u l o s o w a n i a .
Do najczęściej stosowanych metod losowania próby przy wyborze
probabilistycznym badania reprezentacyjnego należą następujące: prosty,
systematyczny, warstwowy oraz zespołowy.

1) D o b ó r p r o s t y – każdej jednostce w populacji generalnej


przypisuje się określony numer porządkowy, a następnie losuje spośród nich
próbę. Jeżeli liczba jednostek nie jest zbyt wielka, to losowanie można
przeprowadzić metodą urnową, jeśli zaś liczba jest bardzo duża, to na ogół
korzysta się z tzw. tablic liczb losowych. Przypuśćmy, że losujemy próbę o
liczebności 100 z populacji liczącej 1000 jednostek. Liczba 1000 składa się
z czterech cyfr, należy więc wybrać cztery dowolne kolumny albo wiersze
w tablicy losowej; po dojściu do dołu kolumny bądź prawego brzegu
wiersza wybieramy inne cztery kolumny albo wiersze itd. aż do momentu,
gdy uzyskamy założoną wielkość próby badawczej.

2) D o b ó r s y s t e m a t y c z n y – polega na włączaniu do próby co i-


tej jednostki z populacji generalnej. Ten sposób doboru ma sens w sytuacji,
gdy jednostki w zbiorowości generalnej są w jakiś sposób uporządkowane
(np. alfabetycznie, według numerów porządkowych). Aby wybrać n-
elementową próbę systematyczną spośród N elementów populacji, dzielimy
N elementów na n grup po k elementów każda. Następnie z pierwszych k
elementów populacji wybieramy losowo jeden (tzw. losowy początek) po
czym każdy kolejny k-ty element po nim, aż do uzyskania n-elementowej
próby. Niech przykładowo: k = 20; n = 30. Pierwszy element wybiera się
losowo spośród liczb całkowitych: {1 – 20}. Jeśli np. będzie to liczba 8, to
próba systematyczna zawierać będzie elementy: 8, 28 (8 + 20), 48 (48 + 20),
68 (48 + 20) itd. aż do uzyskania n = 30.

3) D o b ó r w a r s t w o w y – populacja generalna dzielona jest na


warstwy wewnętrznie jednorodne, ale różniące się wzajemnie pod
względem pewnych cech; ważne jest, aby podział populacji na warstwy był
rozłączny i wyczerpujący. Następnie dobiera się, oddzielnie z każdej z
poszczególnych warstw, losowo wybrane jednostki. Procedura pobierania
138
losowych prób warstwowych wymaga uprzedniej wiedzy o liczbie bądź
proporcji elementów populacji należących do różnych warstw. Dobór
warstwowy może proporcjonalny albo nieproporcjonalny.

4) D o b ó r z e s p o ł o w y (gronowy, grupowy) – do badania losuje się


całe zespoły jednostek; wszystkie jednostki w zespole stanowią próbę
badawczą. Populacja generalna, podobnie jak w doborze warstwowym,
dzielona jest na odrębne zespoły jednostek wedle przyjętego kryterium. W
przeciwieństwie jednak do doboru warstwowego, gdzie losowanie dotyczy
jednostek z każdej warstwy, w doborze zespołowym losuje się poszczególne
zespoły jednostek. Tak więc dobierając warstwowo ewentualny błąd z
próby wynika ze zróżnicowania wewnątrz danej warstwy, podczas gdy
dobierając zespołowo ewentualny błąd z próby wynika ze zróżnicowania
pomiędzy zespołami. Dobór zespołowy może być jednostopniowy – losuje
się zespoły, a następnie bada wszystkie jednostki w wybranych zespołach
oraz wielostopniowy – losuje się zespoły, a następnie z poszczególnych
zespołów losuje się poszczególne jednostki.

5) D o b ó r q u a s i - l o s o w y – nie są to typowo losowe techniki


doboru próby, ale posiadają tę zaletę, iż są stosunkowo ekonomiczne. Dobór
kwotowy (quota sampling) – polega na podziale operatu losowania na
rozłączne grupy (kwoty), z których wybiera się poszczególne elementy w
odpowiedniej proporcji; wymaga znajomości profilu czy też struktury
badanej populacji generalnej ze względu na badane cechy. Dobór próby
złożonej z sędziów kompetentnych (judgment sampling) – polega na
wyszukaniu osób posiadających dużą wiedzę merytoryczną, leżącą w sferze
zainteresowań badacza. Dobór sekwencyjny (sequential sampling) –
sukcesywnie dobiera się nowe jednostki do istniejącej już próby losowo
wybranych respondentów i porównuje uzyskane rezultaty poznawcze z
poprzednimi, przed uzupełnieniem próby. Nowe jednostki dobiera się do
momentu, aż badacz osiągnie próbę o takiej reprezentatywności, jaka go
satysfakcjonuje ze względu na określone aspekty (np. zakres wartości,
strukturę zmiennych, rozkłady pewnych cech).

4.6.2. Estymacja parametrów jednej zmiennej

Teoria estymacji106 w swym podstawowym zarysie stanowi zbiór metod


pozwalających na szacowanie (wnioskowanie o charakterze zawodnym)
wartości parametrów populacji generalnej na podstawie ich wartości

106
Twórcą podstaw teorii estymacji jest K. Pearson (1867-1936). Do uczonych rozwijających jej
klasyczną postać należy zaliczyć przede wszystkim R.A. Fishera (1890-1962) oraz J. Neymana
(1894-1981).
139
uzyskanych w populacji próbnej (próbie losowej)107. Mierniki statystyczne
charakteryzujące zbiorowość generalną tradycyjnie określa się mianem
p a r a m e t r ó w , zaś mierniki charakteryzujące próbę losową –
s t a t y s t y k a m i . W teorii estymacji statystyki z próby noszą nazwę
e s t y m a t o r ó w . Parametry są na ogół ustalonymi wartościami (stałe) i z
reguły są nieznane. Podczas gdy statystyki (estymatory) zmieniają się dla
kolejnych prób i, w przeciwieństwie do parametrów, ich wartości są dla
danej próby znane.
Estymatorom (optymalnym) przypisuje się następujące własności:
zgodność, nieobciążoność, efektywność oraz adekwatność. Estymator
zgodny – prawdopodobieństwo, że jego wartość będzie bliska wartości
szacowanego parametru, wzrasta wraz ze wzrostem liczebności próby
losowej; nieobciążony – jego wartość oczekiwana jest równa parametrowi
populacji, do oszacowania którego służy; efektywny – ma niewielką
wariancję i tym samym niewielkie odchylenie standardowe; adekwatny – do
jego konstrukcji zostały wykorzystane wszystkie informacje o szacowanym
parametrze, które są zawarte w danych z próby losowej.
Możliwe są dwa podejścia w szacowaniu wartości parametrów:
punktowe albo przedziałowe. Istota e s t y m a c j i p u n k t o w e j polega na
tym, że spośród wszystkich możliwych estymatorów (przybliżających
wartość szacowanego parametru) wybiera się estymator optymalny, tj.
zgodny, nieobciążony, efektywny i adekwatny. W efekcie uzyskuje się
konkretną liczbę dla szacowanego parametru. Z kolei e s t y m a c j a
p r z e d z i a ł o w a polega na skonstruowaniu pewnego przedziału
liczbowego (tzw. przedziału ufności) na podstawie wyników uzyskanych z
próby losowej, w obrębie którego, z określonym prawdopodobieństwem,
znajduje się wartość szacowanego parametru108.
P r z e d z i a ł e m u f n o ś c i (Neymana) nazywamy więc taki przedział
liczbowy, który z określonym prawdopodobieństwem zawiera w sobie
nieznany parametr zbiorowości generalnej. Związana jest z nim miara
pewności (ufności), iż ten przedział w rzeczy samej zawiera szukany
parametr, zwana poziomem ufności109. Przedział ufności (ściślej: długość
przedziału ufności) P wyraża się formułą:

107
Jeżeli szacowanie ogranicza się tylko do parametrów, to mówimy o estymacji parametrycznej.
Jeżeli zaś procedura szacowania dotyczy także postaci funkcyjnej rozkładu populacji generalnej, to
wówczas mamy do czynienia z estymacją nieparametryczną. W praktyce procedura estymacji
dotyczy najczęściej szacowania wartości parametrów. Natomiast kwestię postaci funkcyjnej rozkładu
rozstrzyga się wygodniej przy pomocy metod stosowanych w trakcie weryfikacji hipotez
statystycznych.
108
Z uwagi na to, że estymacja punktowa obwarowana jest sferą błędów, które prowadzą w efekcie
do ustalania nie pojedynczej wartości parametru, ale ich zbioru, to często rozróżnienie pomiędzy
estymacją punktową i przedziałową jest pomijane.
109
W teorii weryfikacja hipotez statystycznych miara ta nosi nazwę miary istności, zaś poziom
ufności – poziomu istotności. Można spotkać też ujęcie, w myśl którego poziom ufności to
współczynnik ufności pomnożony przez 100, czyli współczynnik ufności wyrażony procentowo: (1 -
140
P {(a - W) x D  p  (b + W) x D} = (1 - )

gdzie: p – szacowany parametr;


(a – b) (tj. od a do b) – granice przedziału ufności, wyznaczane przez
rodzaj szacowanych parametrów (np. średnią arytmetyczną, frakcję itd.).
 - p o z i o m u f n o ś c i (istotności) to, najogólniej mówiąc,
prawdopodobieństwo dopuszczalnej częstości wystąpienia wyników
niezgodnych z przyjętymi założeniami na skutek losowego charakteru
próby. Przykładowo, poziom ufności (istotności) 0,05 oznacza, że w 5
przypadkach na 100 możemy popełnić błąd; analogicznie poziom 0,99
oznacza, iż tylko raz na 100 przypadków możemy popełnić błąd.
(1 - ) (tj. 1 minus ) - w s p ó ł c z y n n i k u f n o ś c i to
prawdopodobieństwo tego, że przedział ufności (a - b) pokrywa szacowany
parametr p, tzn. że mieści się on w danym przedziale ufności. Tak więc,
jeśli przyjmiemy poziom ufności  = 0,05, to współczynnik ufności wynosi,
rzecz jasna, (w interpretacji procentowej): 100 – 0,05 = 0,95. Oznacza to, że
na 100 wylosowanych z populacji generalnej prób losowych, w 95
przypadkach wartość interesującego nas parametru p populacji generalnej
faktycznie znajdzie się w obrębie danego przedziału ufności.
W - w a r t o ś ć k r y t y c z n a , będąca zmienną standaryzowaną,
odczytywana z tablic (np. dla rozkładu normalnego) dla danego poziomu
ufności (istotności) ;
D – b ł ą d s t a n d a r d o w y - miara służąca do oszacowania
wielkości i prawdopodobieństwa możliwej różnicy pomiędzy wartością
statystyki z próby (estymatora) a wartością parametru p w zbiorowości
generalnej.
Zauważmy, iż parametr p jest wielkością stałą (nie losową) podczas gdy
liczby a i b, wyznaczające granice przedziału ufności, są zmiennymi
losowymi. Oznacza to, że przy wielokrotnym pobieraniu próby losowej
położenie oraz długość przedziałów losowych może ulegać zmianie.
Zachodzi bowiem zależność pomiędzy poziomem ufności ,
współczynnikiem ufności (1 - ) a rozpiętością przedziału ufności (a – b)
polegająca na tym, że im mniejszy jest poziom ufności , tym większy jest
współczynnik ufności (1 - ) i zarazem tym dłuższy jest przedział ufności (a
– b), co w konsekwencji powoduje mniejszą precyzję oszacowania
parametru p. Ponadto zachodzi zależność pomiędzy przedziałem ufności P,
współczynnikiem ufności (1 - ) oraz błędem standardowym D.
Mianowicie. im większy jest błąd standardowy estymowanego parametru p,
tym mniejszy jest współczynnik ufności (1 - ) lub tym większa jest

) x 100% bądź wręcz utożsamia się poziom ufności ze współczynnikiem ufności. Właściwa
interpretacja tych pojęć na ogół wynika z kontekstu, w jakim się ich używa.
141
długość przedziału ufności (a – b), mieszczącego szacowany parametr z
określonym z góry prawdopodobieństwem. Skądinąd wiadomo, iż błąd
standardowy D maleje wraz ze wzrostem liczebności N próby losowej.
Dlatego też można kształtować współczynnik ufności oraz długość
przedziału ufności poprzez zmianę liczebności próby.
W naukach społecznych stosuje się najczęściej następujące wartości dla:
, (1 - ) oraz Z110:

Poziom ufności Współczynnik ufności Wartość krytyczna


(istotności) 1- Z

0,01 0,99 2,58


0,05 0,95 1,96
0.10 0,90 1,64
0,50 0,50 0,67

Analizę estymacji parametrów rozkładu jednej zmiennej ograniczymy do


estymacji średniej arytmetycznej, częstości względnej (frakcji – odsetek, w
jakim reprezentowane jest analizowane zjawisko w próbie) oraz odchylenia
standardowego (rozproszenie wyników wokół jakiejś wartości środkowej).

1) E s t y m a t o r e m ś r e d n i e j a r y t m e t y c z n e j parametru m
populacji generalnej jest średnia arytmetyczna z próby losowej x o
rozkładzie normalnym (Gaussa-Laplace’a) w przypadku dużej próby i o
rozkładzie t-Studenta w przypadku małej próby.
Tak więc przedział ufności P dla średniej arytmetycznej wyznacza się w
sposób następujący:
(a) Dla dużej próby (N  30):

P {( x - Z) x D x  m  ( x + Z) x D x } = (1 - )

gdzie: m –szacowana wartość parametru średniej arytmetycznej w


populacji generalnej; x - średnia arytmetyczna z próby losowej; Z -
wartość krytyczna zmiennej standaryzowanej rozkładu normalnego; D x -
błąd standardowy wyznaczany ze wzoru:

D( x)
Dx =
N

(b) Dla małej próby (N  30):

110
Por. L. A. Gruszczyński, Elementy statystyki dla socjologów, Katowice 1986, s. 115.
142
P {( x - t) x D x  m  ( x + t) x D x } = (1 - )

gdzie: m –szacowana wartość parametru średniej arytmetycznej w


populacji generalnej; x - średnia arytmetyczna z próby losowej; t -
wartość krytyczna zmiennej standaryzowanej rozkładu t-Studenta; D x -
błąd standardowy wyznaczany ze wzoru:

D( x)
Dx =
N 1

2) E s t y m a t o r e m c z ę s t o ś c i w z g l ę d n e j (frakcji) parametru
pi w populacji generalnej jest częstość względna z próby losowej p0 o
rozkładzie normalnym w przypadku dużej próby i o rozkładzie
dwumianowym Bernoulliego w przypadku małej próby.

3) E s t y m a t o r e m o d c h y l e n i a s t a n d a r d o w e g o parametru
 w populacji generalnej jest odchylenie standardowe S(X) o rozkładzie
normalnym w przypadku dużej próby. Natomiast w przypadku małej próby
założenie o normalności rozkładu estymatora wymagałoby spełnienia
pewnych dodatkowych warunków, co jest kłopotliwe. Dlatego też
przyjmuje się na ogół, że estymowanym parametrem dla małej próby jest
wariancja D2X, a estymatorem wariancja z próby losowej S2(X) o
rozkładzie chi-kwadrat.
Zestawienie zbiorcze estymacji wybranych parametrów rozkładu jednej
zmiennej zawiera poniższa tabela111:

Tabela 4.24. Estymacja parametrów.

Rozkład estymatora
Parametr Estymator
Duża próba Mała próba

m x normalny t-Studenta

pi p0 normalny lub dwumianowy


Poissona

 S(X) normalny -

D2X S2(X) - chi-kwadrat

111
Por. A. Luszniewicz, Statystyka ogólna, PWE, Warszawa 1980, s. 88.
143
Estymacja przedziałowa parametrów w populacji generalnej przebiega na
następujących etapach112:
1. Obliczenie wartości danego estymatora przede wszystkim jako
nieobciążonej i zgodnej oceny parametru p na podstawie wyników z próby
losowej.
2. Przyjęcie z góry poziomu ufności (istotności)  i określenie
odpowiadającej mu wartości krytycznej W (zmiennej standaryzowanej) na
podstawie tablic.
3. Obliczenie błędu standardowego D ze względu na wielkość próby N
(duża, mała) i odpowiednio do rodzaju szacowanego parametru (np. średnia
arytmetyczna, frakcja itd.).
4. Wyznaczenie przedziału ufności według odpowiedniego wzoru.
5. Interpretacja otrzymanych wyników.

Przykład 4.25. W wyniku badań 150 studentów w pewnej uczelni


pedagogicznej stwierdzono, że poświęcają oni na naukę własną tygodniowo
średnio 10,5 godziny z odchyleniem standardowym S(x) = 2,8 godziny. Załóżmy, iż
rozkład czasu poświęconego na naukę własną jest rozkładem normalnym, a badana
próba jest reprezentatywna dla studentów uczelni pedagogicznych. Należy -
korzystając z powyższych danych - przy współczynniku ufności 1 -  = 0,95,
zbudować przedział ufności dla średniej tygodniowego czasu przeznaczonego na
naukę własną przez studentów uczelni pedagogicznych.
Z uwagi na to, że badana próba jest większa od 30 (N > 30), w celu
wyznaczenia przedziału ufności zastosujemy wzór: P {( x - Z) x D x  m  ( x +
Z) x D x } = (1 - ).
(1) Estymator wynosi: x = 10,5 godz.
(2) Jeżeli 1 -  = 0,95, to  = 0,05. Dla tej wartości  wartość krytyczna
rozkładu normalnego wynosi: z = 1.96 [zob. Tabela 4.6.
D( x) 10,5
(3) Obliczenie błędu standardowego: Dx    0,86.
N 150
(4) Wyznaczenie przedziału ufności:
P {10,5 – 1,96 x 0,86  m  10,5 + 1,96 x 0,86} = 0,95
P {10,5 – 1,68  m  10,5 + 1,68} = 0,95
P {8,82 m  11,36} = 0,95
(5) Interpretacja wyniku: z prawdopodobieństwem 0,95 przyjmujemy, że
średnia czasu tygodniowego przeznaczonego na naukę własną przez studentów
uczelni pedagogicznych, zawiera się w granicach od 8,82 do 11,36 godziny.

4.6.3. Weryfikacja hipotez statystycznych

Drugim, obok teorii estymacji, działem wnioskowania statystycznego jest


teoria weryfikacji hipotez statystycznych. Przez hipotezę

112
Zob. Cz. Lewicki, Zbiór zadań ze statystyki dla pedagogów, Fosze, Rzeszów1998, s. 55.
144
s t a t y s t y c z n ą rozumieć będziemy dowolne przypuszczenie co wartości
parametrów bądź rozkładu zmiennej w populacji generalnej. Jeżeli to
przypuszczenie dotyczy nieznanych wartości parametrów, to hipoteza nosi
nazwę hipotezy parametrycznej, jeśli zaś dotyczy nieznanej postaci rozkładu
zmiennej losowej w zbiorowości generalnej (tj. przyjmuje postać funkcyjną)
– wtedy hipoteza taka przyjmuje miano hipotezy nieparametrycznej. W
przeciwieństwie do różnorodnych hipotez funkcjonujących w obrębie nauki,
które mogą mieć charakter intuicyjny i niezbyt precyzyjny, hipotezy
statystyczne winne być formułowane w sposób ścisły i jednoznaczny, gdyż
tylko wtedy można poddawać je weryfikacji, a wszak właśnie w tym celu są
formułowane. W określeniu hipotezy statystycznej zawarte jest
sformułowanie o „dowolnym przypuszczeniu”, ale oczywiście należy je
rozumieć jako „przypuszczenie sensowne”. Tym bardziej, jeśli wstępnie
dysponujemy już pewnymi informacjami na temat populacji generalnej. Np.
interesuje nas z pewnych względów ciągła zmienna losowa. W tej sytuacji
pozbawiona sensu byłaby weryfikacja hipotezy o rozkładzie Poissona w
populacji generalnej, gdyż charakteryzuje on wyłącznie skokową zmienną
losową. Tak więc w grę zawsze winien wchodzić wyłącznie zbiór hipotez
dopuszczalnych wyznaczonych przez informacje a priori dane o populacji
generalnej.
Z natury rzeczy, jeśli wysuwamy jakąś hipotezę, to zawsze istnieje
domniemanie, iż możliwe również są inne hipotezy. W związku z tym
wprowadza się pojęcie hipotezy zerowej oraz alternatywnej.
H i p o t e z a z e r o w a (sprawdzana) – oznaczana jako H0 jest hipotezą
o wartości nieznanych parametrów bądź nieznanej postaci rozkładu
zmiennej losowej; traktuje się ją jako prawdziwą, dopóki nie uzyska się
informacji statystycznych, które zmuszą nas do rewizji przyjętego
stanowiska.
H i p o t e z a a l t e r n a t y w n a – oznaczana przez H1 jest hipotezą
przypisującą parametrom bądź rozłąkom zmiennej losowej wartości
niezgodne z przypisanymi im przez hipotezę zerową.
Hipoteza zerowa i alternatywna tworzą parę hipotez dopełniających się
tzn. takich, że przebiegają zbiór wszystkich możliwych wartości. Koncepcja
weryfikacji hipotez statystycznych (Neymana – Pearsona) dostarcza
podstawę do rozstrzygnięcia, czy wysuniętą - w oparciu o przebadaną
empirycznie próbę losową - hipotezę, należy przyjąć (tj. uznać za
prawdziwą), czy też należy ją odrzucić (tj. uznać za fałszywą). Przy czym, z
uwagi na to, że hipotezy weryfikujemy właśnie na podstawie wiedzy o
próbie, w obu przypadkach możemy podjąć błędne decyzje. W grę wchodzą
dwa rodzaje błędów tzw. błąd pierwszego rodzaju oraz błąd drugiego
rodzaju.
B ł ą d I r o d z a j u – polega na odrzuceniu hipotezy zerowej, która
jest de facto prawdziwa.

145
B ł ą d I I r o d z a j u – polega na przyjęciu hipotezy zerowej, która jest
de facto fałszywa.
Ryzyko podjęcia błędnych decyzji weryfikacyjnych określa
prawdopodobieństwo błędu I rodzaju (P = ) oraz drugiego rodzaju (P =
)113:

HIPOTEZA ZEROWA PRAWDZIWA FAŁSZYWA


Przyjęta Decyzja poprawna Decyzja błędna: błąd II
rodzaju
Odrzucona Decyzja błędna: błąd I Decyzja poprawna
rodzaju

Podjęcie decyzji o przyjęciu lub odrzuceniu weryfikowanej hipotezy


umożliwia tzw. test statystyczny - reguła wnioskowania na podstawie próby
o hipotezie. W postępowaniu weryfikacyjnym przy pomocy testów
statycznych dąży się do tego, aby prawdopodobieństwo popełnienia błędów
I i II rodzaju było jak najmniejsze. Im ono jest mniejsze, tym większe jest
prawdopodobieństwo tego, że decyzja odrzucenia bądź przyjęcia hipotezy
zerowej jest słuszna. Uznaje się popełnienie błędu I rodzaju za bardziej
niebezpieczne niż popełnienie błędu II rodzaju. W związku z tym ustala się
a priori tzw. p o z i o m i s t o t n o ś c i (margines ryzyka) -
prawdopodobieństwo popełnienia błędu I rodzaju (), czyli odrzucenia
prawdziwej hipotezy. W naukach społecznych najczęściej przyjmuje się  =
0,01 (1%); 0,05 (5%) oraz 0,10 (10%), co np. w przypadku  = 0,01
oznacza, iż na 100 przypadków zdarzyć się może jeden błąd odrzucenia
hipotezy prawdziwej.
Z pojęciem poziomu istotności łączy się pojęcie obszaru akceptacji
(ufności, przyjmowania) i obszaru krytycznego (odrzucania). O b s z a r
a k c e p t a c j i to taki zbiór wartości statystyki, których realizacja nie daje
podstaw do odrzucenia hipotezy zerowej. O b s z a r k r y t y c z n y z kolei
to taki zbiór wartości statystyki, których realizacja jest mało
prawdopodobna przy danej hipotezie zerowej; prawdopodobieństwo, że
statystyka przyjmie wartość z obszaru krytycznego hipotezy zerowej równa
się założonemu poziomowi istotności . Jeśli np. założony poziom
istotności  = 0,05, to możemy hipotezę zerową uznać za odrzuconą,
ponieważ na to, że jest ona prawdziwa istnieje tylko 5% szans114. Tak więc
test statystyczny sprowadza się do podzielenia przestrzeni prób na dwa
zbiory zwane obszarem akceptacji oraz obszarem krytycznym; w
pierwszym każdej próbie przypisana jest decyzja przyjęcia hipotezy, a w
drugim – jej odrzucenia.

113
Zob.
A. Luszniewicz, Statystyka ogólna, PWE, Warszawa 1980, s. 106.
114
Wnioski nazywa się na ogół istotnymi statystycznie, jeżeli u ich podstaw leży
prawdopodobieństwo w stopniu wynoszącym 95%.
146
Testy uwzględniające poziom istotności oraz pozwalające na odrzucenie
hipotezy zerowej (ewentualnie stwierdzające brak podstaw do odrzucenia),
ale nie dające żadnych podstaw do przyjęcia hipotezy alternatywnej, noszą
nazwę testów istotności. Stosuje się je wówczas, gdy interesuje nas pytanie,
czy hipotezę zerową można odrzucić. Testy, które przy danym poziomie
prawdopodobieństwa błędu I rodzaju pozwalają na zminimalizowanie błędu
II rodzaju uważa się za testy mocne. M o c t e s t u s t a t y s t y c z n e g o
oznacza prawdopodobieństwo P = 1 - , przy pomocy którego sprawdzamy
hipotezę, a więc prawdopodobieństwo odrzucenia hipotezy zerowej wtedy,
kiedy jest ona fałszywa. Jeżeli, przy ustalonej wielkości próby, chcemy
zmniejszyć prawdopodobieństwo błędu jednego rodzaju, to tym samym
zwiększamy prawdopodobieństwo błędu drugiego rodzaju (tj. rodzaju
dopełniającego). Przy budowie testu statystycznego nie można dążyć do
minimalizacji prawdopodobieństw błędów obu rodzajów, gdyż – zgodnie z
teorią Neymana-Pearsona - jest to niemożliwe. Spośród wszystkich testów
zapewniających ustalony a priori poziom istotności (prawdopodobieństwo
popełnienia błędu I rodzaju ) najlepszy będzie taki test, który posiada
największą moc (prawdopodobieństwo odrzucenia hipotezy zerowej, gdy
jest ona fałszywa).
Weryfikacja hipotez zarówno parametrycznych jak i nieparametrycznych
przebiega na następujących etapach:
1. Sformułowanie hipotezy zerowej oraz hipotezy bądź hipotez
alternatywnych.
2. Wybór testu do weryfikacji hipotezy zerowej.
3. Przyjęcie poziomu istotności oraz wyznaczenie obszaru krytycznego
hipotezy zerowej.
4. Obliczenie na podstawie badanej próby wartości statystyki testu (np.
statystyki z, t-Studenta, 2).
5. Podjęcie z określonym prawdopodobieństwem decyzji o przyjęciu
bądź odrzuceniu hipotezy zerowej oraz sformułowanie wniosku.
Analogicznie do podziału hipotez wyróżnia się dwa rodzaje testów
statystycznych: testy parametryczne - odnoszące się do hipotez o
parametrach oraz testy nieparametryczne - odnoszące się do hipotez o
kształcie rozkładu populacji. Przy weryfikacji hipotez parametrycznych
dość powszechnie wykorzystuje się dla dużej próby (N  30) statystykę z
(zmienną standaryzowaną); dla małej próby – statystykę t Studenta.
Natomiast przy weryfikacji hipotez nieparametrycznych – test Chi-kwadrat
(2).

1) T e s t y p a r a m e t r y c z n e . W większości przypadków wymagają


spełnienia warunku normalności rozkładu badanej zmiennej oraz
niezależności pomiaru. W naukach społecznych duże zastosowanie znajdują
m.in. testy dla różnicy dwóch średnich nieskorelowanych z dużych i małych

147
prób, dla wielu średnich, dla dwóch wskaźników struktury (frakcji) –
weryfikuje się hipotezy o procencie elementów w populacji posiadających
wyróżniony wariant zmiennej oraz dla dwóch wariancji – na podstawie prób
pochodzących z populacji o rozkładach normalnych sprawdzamy hipotezę o
równości wariancji.
Rozważmy test dla różnicy dwóch średnich i dużych prób115. Test ten
służy m.in. do porównywania średnich uzyskanych przed i po
wprowadzeniu jakiegoś czynnika. Jeśli mamy dwie duże (N  30)
niezależne próby o liczebnościach N1 i N2 pochodzących z populacji
generalnej o rozkładzie normalnym i znanych odchyleniach standardowych
S(X)1 i S(X)2, to wówczas dla weryfikacji hipotezy zerowej o równości
średnich: H0: X 1 = X 2 wykorzystuje się statystykę obliczaną według
formuły:

| X1  X 2 |
z=
2 2
S ( X )1 S ( X )2

N1 N2

Przykład 4.25. Można założyć, że koedukacja w procesie dydaktyczno-


wychowawczym sprzyja osiąganiu lepszych wyników w nauce. Przypuśćmy, że
średnia ocen w pewnym teście z matematyki dla 52 dziewcząt uczęszczających do
klas żeńskich wynosi 36,4 punktów z odchyleniem standardowym 1 = 4,78, zaś
średnia ocen tego testu dla 37 dziewcząt klas koedukacyjnych wynosi 41,8
punktów z odchyleniem standardowym 2 = 3,43. Przyjmując poziom istotności 
= 0,05 zweryfikować hipotezę o niezależności wyników tego testu od koedukacji.
Posiadamy następujące dane: X 1 = 36,4; S(X)1 = 4,78; N1 = 52;
X 2 = 41,8; S(X)2 = 3,43; N2 = 37;
 = 0,005.
Wskaźnikiem niezależności wyników testu od koedukacji będą takie same
średnie arytmetyczne ocen dla obu badanych grup: klas żeńskich i
koedukacyjnych. Wstępna analiza danych liczbowych wskazuje, że dziewczęta z
klas koedukacyjnych uzyskały w teście z matematyki lepsze oceny. Uzyskana
przez nie średnia jest wyższa, przy jednoczesnym mniejszym odchyleniu
standardowym. Oznacza to, że grupa ta jest bardziej jednorodna pod względem
uzyskiwanych wyników niż grupa porównywana.
(1) Sformułowanie hipotez: zerowej H0 i alternatywnej H1.
H0: X 1 = X 2 – zakłada się, że koedukacja nie ma wpływu na wyniki
nauczania matematyki; dziewczęta z klas żeńskich osiągają takie same wyniki w
testach matematycznych, jak dziewczęta z klas koedukacyjnych.

115
Zob. Leszek A. Gruszczyński, Elementy statystyki dla socjologów, U. Śl. Katowice 1986, s. 129;
Cz. Lewicki, Zbiór zadań ze statystyki dla pedagogów, Fosze, Rzeszów 1998, s. 70.
148
H1: X 1  X 2 – zakłada się, że koedukacja wpływa pozytywnie na wyniki
nauczania matematyki; dziewczęta z klas żeńskich uzyskują niższe wyniki w
testach matematycznych niż ich koleżanki z klas koedukacyjnych.
(2) Wybór testu do weryfikacji hipotezy zerowej. Weryfikacji H0 dokonujemy za
pomocą testu dla dwóch średnich.
(3) Z danych zawartych w zadaniu wynika, że  = 0,05, przyjęta statystyka z
ma rozkład normalny, zatem wartość krytyczna wynosi: za = 1,96 [zob. Tabela
4.5.].
(4) W celu obliczenia wartości statystyki testu, dokonujemy podstawień:

| X1  X 2 | | 36,4  41,8 | 5,4


z= =   6,207.
S ( X )1
2
S ( X )2
2
(4,78) 2 (3,43) 2 0,439  0,318
 
N1 N2 52 37

(5) Wniosek: Stwierdzamy, że z = 6,207 > z = 1,96, zatem nie ma podstaw do


przyjęcia H0. Z prawdopodobieństwem 0,95 przyjmujemy H1, zgodnie z którą
wyniki testu matematycznego dziewcząt z klas koedukacyjnych są istotnie lepsze
niż wyniki dziewcząt z klas żeńskich.

2) T e s t y n i e p a r a m e t r y c z n e . Są one uniezależnione od
rozkładu zmiennej w badanej zbiorowości a ponadto można je stosować
również w dziedzinie danych, co do których nie wiadomo, czy spełniają
założenia niezbędne dla testów parametrycznych. Do najczęściej używanych
testów należy test zgodności Chi-kwadrat (2) oraz test niezależności chi-
kwadrat (2). Zmienna losowa o rozkładzie Chi-kwadrat (2) jest całkowicie
określona przez tzw. liczbę s t o p n i s w o b o d y (df – degree of freedom)
– liczbę wartości zmiennej, które mogą się swobodnie zmieniać116. Liczbę
stopni swobody obliczamy według wzoru: df = (k – 1) x (w – 1), gdzie k –
liczba kolumn, a w – liczba wierszy. Np. dla tablicy 4 x 4: df = (4 – 1) x (4 –
1) = 9.
Rozważmy test niezależności Chi-kwadrat (2). Otóż jest to test
istotności - wymagający dużej liczebności próby - który pozwala sprawdzić,
czy dwie interesujące nas zmienne (mierzalne bądź niemierzalne) są
niezależne117. Test ten wyrażony jest wzorem:

116
Pojęcie stopni swobody (df) posiada interpretację algebraiczną oraz geometryczną. W interpretacji
algebraicznej oznacza ono ilość niewiadomych nieobjętych równaniami w danym układzie równań.
Jeśli np. mamy pięć niewiadomych, a układ zawiera tylko trzy równania, to istnieją dwa stopnie
swobody, ponieważ pozostałym dwóm niewiadomym możemy arbitralnie przypisać dowolne
wartości. W interpretacji geometrycznej oznacza ono liczbę wartości, które mogą się zmieniać przy
ograniczeniach nałożonych na dane. Jeśli np. rozpatrujemy punkt, to na linii ma on swobodę
przesuwania się tylko w jednym wymiarze i tym samym posiada jeden stopień swobody; ten sam
punkt na płaszczyźnie posiada dwa stopnie swobody, ponieważ może przesuwać się w dwóch
wymiarach; w przestrzeni – punkt ma trzy stopnie swobody, zaś w przestrzeni k-wymiarowej – punkt
posiada k-stopnie swobody.
117
Zob. Cz. Lewicki, Zbiór zadań ze statystyki dla pedagogów, Rzeszów 1998, s. 93 i nast.
149
k w ( f eij  f 0ij ) 2
 = 
2

i1 j 1 f 0ij

gdzie: f eij - liczebności empiryczne dla i-tej kolumny oraz j-tego


wiersza,
f 0ij - liczebności oczekiwane dla i-tej kolumny oraz j-tego
wiersza.

Aby obliczyć wartości 2 należy sporządzić tablicę kombinowaną


(macierz) złożoną z dwóch cech, która zawiera liczebności empiryczne oraz
liczebności oczekiwane. Liczebności oczekiwane oblicza się mnożąc w
każdym poszczególnym przypadku (f0) sumę kolumny przez sumę wiersza,
a następnie dzieląc uzyskany iloczyn przez liczebność badanej próby
według wzoru:

f0 =
 f  f w k

Nk

gdzie: f w - suma liczebności w wierszu,


f k - suma liczebności w kolumnie,
N k liczebność próby losowej.

Przykład 4.26. Załóżmy, że studenci pierwszego roku pedagogiki zapoznają się


z tekstami filozoficznymi na trzy sposoby: A – słuchając interpretacji wykładowcy;
B – słuchając nagrania tekstu na MP3; C – czytając samodzielnie zeskanowane
teksty. Następnie załóżmy, że przeprowadzono badania sprawdzające poziom
zrozumienia tekstu filozoficznego. Wyniki badań (dane umowne) zawiera poniższa
tabela dziewięciopolowa (3 x 3): 3 wiersze - poziom zrozumienia tekstu (słaby,
przeciętny, wysoki) x 3 kolumny - sposoby zapoznania się z tekstem (A, B, C).
Otóż chcemy poznać odpowiedź na pytanie: czy sposób zapoznania się z tekstem
wpływa na poziom zrozumienia tekstu, przy założonym poziomie istotności  =
0,01.

Poziom Sposoby zapoznania się z tekstem


zrozumienia 
tekstu A B C
Słaby 12 9 3 24
Przeciętny 11 15 9 35
Wysoki 7 16 23 46
Razem 30 40 35 105
150
Wstępna analiza danych z tabeli wskazuje na istnienie pewnej zależności
pomiędzy sposobem zapoznania się z tekstem a poziomem jego zrozumienia.
Wydaje się, że najbardziej skuteczny jest sposób C (23 wyniki na poziomie
wysokim). Należałoby wszakże wykazać, że zależność ta jest istotna statystycznie
przy założonym poziomie istotności  = 0,01.
(1) Sformułowanie hipotez: zerowej H0 i alternatywnej H1.
H0: Poziom zrozumienia tekstu filozoficznego przez studentów I roku
pedagogiki nie jest uzależniony od sposobu poznawania jego treści.
H1: Poziom zrozumienia tekstu filozoficznego przez studentów I roku
pedagogiki jest uzależniony od sposobu poznawania jego treści. Badania
empiryczne wskazują na to, że samodzielne ich czytanie (sposób C) jest najbardziej
skutecznym sposobem.
(2) Wybór testu do weryfikacji hipotezy zerowej. Zastosujemy test niezależności
k w ( f eij  f 0ij ) 2
2 wyrażony wzorem:  = 2

i1 j 1 f 0ij
.

(3) Wyznaczenie wartości Chi-_kwadrat (2). Dane empiryczne zawarte są w


tablicy 3 x 3, zatem df = (3 -1) x (3 – 1) = 4. W tabeli rozkładu 2 [zob. Tabela
4.8.] odczytujemy dla df = 4 i  = 0,01 2 = 13,277.
(4) Obliczenie wartości Chi-_kwadrat (2) dla danych empirycznych:
Konstruujemy tablicę kombinowaną, w której obok liczebności empirycznych

wypisujemy liczności oczekiwane wedle wzoru: f0 =


 f  f w k
.
Nk
24x30 24x 40 24x35
Poziom słaby: = 6,8; = 9,1; = 8.
105 105 105
35x30 35x 40 35x35
Poziom przeciętny: = 10; = 13,3; = 11,7.
105 105 105
46x30 46x 40 46x35
Poziom wysoki: = 13,1; = 17,5; = 15,3.
105 105 105

Poziom Sposoby zapoznania się z tekstem


zrozumienia 
tekstu A B C
Słaby 12 6,8 9 9,1 3 8 24
Przeciętny 11 10 15 13,3 9 11,7 35
Wysoki 7 13,1 16 17,5 23 15,3 46
Razem 30 40 35 105

Następnie obliczamy według wzoru na test Chi-kwadrat: 2 =


k w ( f eij  f 0ij ) 2
(12  6,8) 2
(9  9,1) 2
(3  8) 2
(11  10) 2


i1 j 1 f 0ij
=
6,8
+
9,1
+
8
+
10
+

151
(15  13,3) 2 (9  11,7) 2 (7  13,1) 2 (16  17,5) 2 (23  15,3) 2
+ + + + =
13,3 11,7 13,1 17,5 15,3
3,976 + 0,001 + 3,5 + 0,1 + 0,217 + 0,623 + 2,84 + 0,128 + 2,432 = 13,819.
(5) Wniosek: Z uwagi na to, że 2 = 13,819  2 = 13,2777, z
prawdopodobieństwem 0,9999 (ponieważ  = 0,01) stwierdzamy, iż brak podstaw
do przyjęcia H0. W takim razie należy odrzucić H0 i przyjąć H1, która głosi, że
poziom zrozumienia tekstu filozoficznego przez studentów I roku pedagogiki jest
uzależniony od sposobu poznawania jego treści.

Bibliografia

A b e l l P ., Modele w socjologii, PWN, Warszawa 1975.


A j d u k i e w i c z K ., Język i Poznanie, t. I, PWN, Warszawa 1985.
A j d u k i e w i c z K ., Logika pragmatyczna, PWN, Warszawa 1974.
B a b b i e E ., Badania społeczne w praktyce, WN PWN, Warszawa
2003.
B l a l o c k H . M ., Statystyka dla socjologów, PWN, Warszawa 1977.
B r z e z i ń s k i J . , Elementy metodologii badań psychologicznych,
PWN, Warszawa 1980.
B u n g e M ., Theory Meets Experience [in:] Mind, Science and History,
ed. by Howard E. Kiefer, Milton K. Munitz, Albany NY, 1970.
C h a l m b e r s A ., Czym jest to, co zwiemy nauką? Siedmioróg,
Wrocław 1997.
D e n z i n N . K . , Y . S . L i n c o l n Y . S . (red.), Metody badań
jakościowych, t.1, WN PWN, Warszawa 2009.
F e l l e r W ., Wstęp do rachunku prawdopodobieństwa, PWN,
Warszawa 1977.
F e y e r a b e n d P . K ., Jak być dobrym empirystą, PWN, Warszawa
1979.
Frankfurt-Nachmias Ch., Nachmias D ., Metody
badawcze w naukach społecznych, Zysk i S-ka, Poznań 2001.
G e r s t e n k o r n T . , Ś r ó d k a T ., Kombinatoryka i rachunek
prawdopodobieństwa, PWN, Warszawa 1980.
G i l s o n E . , L a n g a n T . , M a u r e r A . A . , Historia Filozofii
Współczesnej. Od czasów Hegla do czasów najnowszych, IW PAX,
Warszawa 1977.
G o r i s z o w s k i W ., Badania pedagogiczne w zarysie, WSP TWP,
Warszawa 1997.
G o s t k o w s k i Z ., O poprawę jakości badań surveyowych [w:]
„Studia Socjologiczne”, Warszawa 1976, nr. 3.

152
G ó r a l s k i A ., Metody opisu i wnioskowania statystycznego w
psychologii i pedagogice, PWN, Warszawa 1987.
G r u s z c z y ń s k i L . A . , Kwestionariusz w socjologii. Budowa
narzędzi do badań surveyowych, U.Śl. Katowice 1999.
G u n t e r C . , H e i n e E ., Podstawy statystyki dla pedagogów i
socjologów, PZWSiP, Warszawa 1972.
H a m m e r s l e y M . , A t k i n s o n P ., Metody badań terenowych,
Zysk i S-ka, Poznań 2000.
H e m p e l C . G . , O p p e n h e i m e r P . , The Logic of Explanation
[in:] Readings in the Philosophy of Science, ed. by H. Feigel and M.
Brodbeck, New York 1953.
K o m o s a A., M u s i a ł k i e w i c z J., Statystyka, Ekonomik 1996.
Krajewski W ., Prawa nauki. Przegląd zagadnień
metodologicznych, KiW, Warszawa 1982.
K u h n T h . S ., Struktura rewolucji naukowych, Aletheia, Warszawa
2001.
K r z y s z t o f i a k M . , U r b a n e k D . , Metody statystyczne, PWN,
Warszawa 1981.
L a k a t o s I ., Pisma z filozofii nauk empirycznych, PWN, Warszawa
1995.
L e w i c k i Czesław, Zbiór zadań ze statystyki dla pedagogów, Fosze,
Rzeszów 1998.
L o s e e J . , Wprowadzenie do filozofii nauki, Prószyński i S-ka,
Warszawa 2001.
L u s z n i e w i c z A ., Statystyka ogólna, PWE, Warszawa 1980.
Ł o b o c k i M . , Metody i techniki badań pedagogicznych, Impuls,
Kraków 2000.
M a k a r c z y k W., Studia nad aparaturą pojęciową socjologii, PAN
IFiS, Warszawa 1991.
M a y n t z R . , H o l m K . , H u b n e r P ., Wprowadzenie do metod
socjologii empirycznej, PWN, Warszawa 1985.
M o k r z y c k i E ., Filozofia nauki a socjologia, PWN, Warszawa 1980.
N a g e l E ., Struktura nauki, PWN, Warszawa 1970.
N o w a k S . , Metodologia badań społecznych, PWN, Warszawa 1985.
O s s o w s k i S ., Dzieła, t. IV, O nauce, PWN, Warszawa 1967.
P i l c h T ., Zasady badań pedagogicznych, wyd. „Żak”, Warszawa
1995.
P o p p e r K . R ., Logika odkrycia naukowego, PWN, Warszawa 1977.
R e i c h e n b a c h H ., Powstanie filozofii naukowej, KiW, Warszawa
1960.
R u d n i a ń s k i J ., Fazy rozwiązywania problemów naukowych [w:]
„Zagadnienia Naukoznawstwa”, Warszawa 1975.
S i l v e r m a n D . , Prowadzenie badań jakościowych, WN PWN,
Warszawa 2009.
153
S k a r b e k W . W ., Elementy filozofii, NWP, Piotrków Tryb. 2000.
S k a r b e k W . W . , Wybrane zagadnienia socjologii ogólnej i
socjologii edukacji, NWP. Piotrków Tryb. 2003.
S k a r b e k W . W ., Logika dla humanistów, NWP, Piotrków Tryb.
2010.
S k a r b e k W . W . , Wprowadzenie do aksjoewentystycznej teorii
wartości, NWP, Piotrków Tryb. 2010.
S o b c z y k M . , Statystyka, PWN, Warszawa 1988.
S t e w a r t J . , Oswajanie nieskończoności. Historia matematyki,
Prószyński i S-ka, Warszawa 2010.
S u c h J . , Problemy weryfikacji wiedzy. Studium metodologiczne,
PWN, Warszawa 1975.
S u c h J . , S z c z e ś n i a k M ., Filozofia nauki, UAM, Poznań 1997.
Stempell D., Rachunek prawdopodobieństwa w ujęciu
programowanym, WN-T, Warszawa 1975.
S z t u m s k i J . , Wstęp do metod i technik badań społecznych, PWN,
Warszawa 1984
S z u l z B . , Statystyka dla ekonomistów, PWE, Warszawa 1969.
T u r n e r H ., Struktura teorii socjologicznej, WN PWN, Warszawa
2004.
W i t t g e n s t e i n L . Tractatus logico-philosophicus, PWN, Warszawa
1970.
W ó j c i c k i R ., Wykłady z metodologii nauk, PWN, Warszawa 1982.
Q u e t e l e t A . , Układ społeczny i jego prawa, Warszawa 1984.

154

You might also like