Professional Documents
Culture Documents
SKARBEK
WYBRANE ZAGADNIENIA
METODOLOGII NAUK SPOŁECZNYCH
UWAGI WSTĘPNE
3
Uwagi wstępne
1
S. Ossowski, Nauka o nauce [w:] Dzieła, t. IV, O nauce, PWN, Warszawa 1967, s. 91.
4
fikcji w naukowym poznaniu, analizy takich pojęć, jak pojęcie prawa
naukowego, hipotezy itp.2
4
Tamże, s. 176.
6
ROZ. 1. ZAGADNIENIA OGÓLNOMETODOLOGICZNE
5
Por. J. Such, M. Szcześniak, Filozofia nauki, UAM, Poznań 1997, s. 35 i nast.
7
Do w i e d z y r a c j o n a l n e j zaliczamy wiedzę potoczną oraz
artystyczno-literacką, spełniające dwie pierwsze zasady (intersubiektywnej
komunikowalności i sprawdzalności) oraz wiedzę naukową spełniającą
wszystkie trzy zasady (intersubiektywnej komunikowalności i
sprawdzalności oraz racjonalnego uznawania przekonań).
8
względu na działania, nosi nazwę „intuicji”. Jest bezużyteczny dla działania, u
samych swych źródeł bowiem jest mu obcy.
Intuicja podniesiona do roli metody jest samym poznaniem filozoficznym.
Filozofia może wychodzić od nauki, kontynuować poznanie naukowe i
uogólniać jego konkluzje. Jest to rodzaj filozofii w sposób naturalny uprawiany
przez uczonych, gdy doszedłszy do kresu swej dyscypliny podejmują
filozofowanie6.
7
I. Lakatos, Pisma z filozofii nauk empirycznych, PWN, Warszawa 1995, s. 361.
10
mówiące coś o transcendencji w rozumieniu ontologicznym jako pewnym
bycie wykraczającym poza rzeczywistość dostępną doświadczeniu
empirycznemu, racjonalnemu czy też intuicyjnemu (w sensie epikurejsko-
leibnizowskim)8.
8
Na przykład „krasnologia” rozumiana jako „nauka o poglądach ludzi na krasnali” należeć będzie do
wiedzy racjonalnej (artystyczno-literackiej lub naukowej), ponieważ poglądy ludzi mogą być badane
metodami naukowymi. Natomiast rozumiana jako ”nauka o krasnalach” – należy do wiedzy
spekulatywnej lub tzw. pseudonauki (termin „nauka” użyty jest tutaj w sensie metaforycznym).
Podobnie „teologia” rozumiana jako „nauka o poglądach ludzi na Boga czy też bogów” należeć
będzie do wiedzy racjonalnej (artystyczno-literackiej lub naukowej), a rozumiana jako „nauka o Bogu
czy też bogach” – do wiedzy spekulatywnej, irracjonalnej lub tzw. pseudonauki (termin „nauka”
użyty jest tutaj również w sensie metaforycznym).
11
przyrodoznawstwu, w klasyfikacjach nauk. Znamiennym przykładem może
być w tym względzie klasyfikacja zaproponowana przez F. Bacona (1561-
1626). Przyjął on mianowicie za kryterium podziału udział „władz
umysłowych” w danym typie nauk. Tak więc dla nauk teoretycznych
(logika, matematyka, przyrodoznawstwo) dominująca jest aktywność
poznawcza; dla nauk historycznych – pamięć, zaś dla sztuk pięknych –
wyobraźnia. Stąd też dla F. Bacona najwyższą rangę posiadały nauki
teoretyczne.
Szczególną rolę odegrała klasyfikacja zaproponowana, w obrębie nurtu
pozytywistycznego, przez A . C o m t e ’ a (1798–1857). Zastosował on
dwa główne kryteria podziału: stopień abstrakcji i ogólność. Wedle
pierwszego nauki mogą być: abstrakcyjne (teoretyczne) mówiące o
ogólnych prawidłowościach w świecie faktów bądź konkretne (opisowe)
zajmujące się faktami jednostkowymi. Drugie kryterium, wedle malejącego
stopnia ogólności, ma zastosowanie do nauk abstrakcyjnych (matematyka,
astronomia, fizyka, chemia, fizjologia i socjologia) oraz do nauk
konkretnych (kosmografia, geologia, mineralogia, zoologia, botanika,
medycyna i inne).
Należy też zwrócić uwagę na klasyfikację dokonaną przez W .
W i n d e l b a n d a (1848-1915), w której silnie kontrastuje się nauki
humanistyczne z naukami przyrodniczymi. Windelband podzielił nauki na:
nomotetyczne (gr. nomos – prawo, thetos – ustanowiony), badające
zdarzenia powtarzające się, w celu wykrycia prawidłowości jakim one
podlegają; są to przede wszystkim nauki przyrodnicze, wyjaśniające oraz
idiograficzne (gr. idios – swoisty, graphein - pisać) badające zdarzenia
jednostkowe, niepowtarzalne; są to głównie nauki humanistyczne,
rozumiejące. Windelband zakwestionował tym samym pozytywistyczną
redukcję metod humanistyki do metod przyrodoznawstwa w tej samej
mierze co i forsowaną przez humanistów przełomu XIX i XX wieku
odrębność nauk o podmiocie świadomym (Geisteswissenschaften) od nauk
o przyrodzie (Naturwissenschaften). Kryterium wyróżniania nauk
nomologicznych i idiograficznych nie jest bowiem zasadnicza odmienność
przedmiotu poznania, lecz odmienność celów poznawczych. Nauka
nomologiczna zmierza do uchwycenia prawidłowości zmian zachodzących
w rzeczywistości empirycznej podczas gdy nauka idiograficzna opisuje
podłoże tych zmian, zdarzenia, które zaistniały i więcej się nie powtórzą.
Nic nie stoi więc na przeszkodzie temu, aby opis dotyczył zarówno zdarzeń
przyrodniczych jak również zdarzeń humanistycznych. Ze względów
poznawczych dla opisu bardziej interesujące są jednak zdarzenia
humanistyczne i stąd to one właśnie stanowią główny przedmiot nauk
idiograficznych.
Interesującej syntezy klasyfikacji nauk z obu punktów widzenia:
przyrodniczego i humanistycznego dokonał K. A j d u k i e w i c z w
12
rozprawie Metodologiczne typy nauk9. Wyróżnia w niej trzy następujące
grupy nauk: I. Nauki aprioryczne (matematyka i logika formalna). II. Nauki
empiryczne (aposterioryczne: nauki przyrodnicze badające przyrodę
nieożywioną i ożywioną). III. Nauki humanistyczne: (a) typ nomologiczny
(wyjaśniający, np. psychologia, socjologia); (b) typ idiograficzny
(sprawozdawczy, np. historia); (c) typ aksjologiczny (wartościujący, np.
literaturoznawstwo).
I. N a u k i a p r i o r y c z n e – korzystają jedynie z twierdzeń
apriorycznych (pewników i postulatów) tj. takich, które przyjmuje się jako
ostateczne przesłanki, nie wywodzone z innych twierdzeń. Pewnikiem
będzie każde zdanie, któremu nie można zaprzeczyć tzn. uznać za fałszywe,
jeśli jego wyrażenia składowe posiadają ściśle określone na gruncie danego
języka, znaczenia (np. „każda kula jest okrągła”). Drugi rodzaj twierdzeń,
które można przyjmować bez uzasadnienia, to postulaty, które ustalają
znaczenia pewnych wyrażeń języka.
II. N a u k i empiryczne (aposterioryczne) – korzystają
alternatywnie z twierdzeń apriorycznych lub twierdzeń bezpośrednio
opartych na doświadczeniu zmysłowym (introspekcja lub ekstraspekcja). Te
drugie nie zawsze posiadają gwarancję swej prawdziwości i dlatego mogą w
zasadzie ulegać korekcie albo wręcz obalone również na drodze
doświadczenia.
III. N a u k i h u m a n i s t y c z n e – w charakterze ostatecznych
przesłanek dopuszczone są, obok twierdzeń apriorycznych i opartych na
doświadczeniu zmysłowym, również twierdzenia oparte na rozumieniu
wypowiedzi językowych; nauki humanistyczne mają bowiem do czynienia z
psychiką jednostek ludzkich i jej wytworami. Świat humanistyki tworzą
cztery dziedziny, w obrębie których znajdują się przedmioty badań nauk
humanistycznych:
9
K. Ajdukiewicz, Metodologiczne typy nauk [w:] Język i Poznanie, t. I, PWN, Warszawa 1985, s. 287
i nast.
13
prawdomówności, punktem wyjścia dla tej krytyki jest jednak przeważnie
odczytanie i zrozumienie sensu źródła10.
10
Tamże, s. 308.
11
Zob. J. Such, M. Szcześniak, Filozofia nauki, UAM, Poznań 1997, s. 52.
14
formułowanych problemów, zadań i celów czy stopnia abstrakcji. Dość
rozpowszechniony na gruncie metodologii jest następujący podział nauk12:
I. Nauki matematyczne (np. logika, teoria mnogości, topologia,
geometria, teoria liczb).
II. Nauki fizyczne (nauki o przyrodzie nieożywionej).
III. Nauki biologiczne (nauki o przyrodzie ożywionej).
IV. Nauki społeczne (filozofia, socjologia, psychologia, historia,
językoznawstwo, prawo, nauki polityczne).
V. Nauki stykowe (pograniczne; powstające na pograniczu kilku nauk
pokrewnych, np. biofizyka, chemia fizyczna).
VI. Nauki kompleksowe (poszukujące powiązań między naukami bardzo
odległymi od siebie, np. cybernetyka, teoria informacji, synergetyka, teoria
komunikacji, ogólna teoria układów).
VII. Nauki stosowane (techniczne, rolnicze, ekonomiczne, medyczne,
pedagogiczne czy rekreacyjne).
Dla celów niniejszej pracy przyjmujemy podział nauk na:
(a) t e o r e t y c z n e : formalne (matematyka, logika) i empiryczne:
przyrodnicze oraz humanistyczne w sensie K. Ajdukiewicza (nomologiczne
– w tym: s p o ł e c z n e , idiograficzne, aksjologiczne);
(b) s t o s o w a n e – służące do rozwiązywania praktycznych,
konkretnych problemów pojawiających się w życiu społecznym.
12
Tamże, s. 52.
15
faktów aktualnych; trafne przewidywanie stanowiłoby zarazem weryfikację
tez formułowanych w oparciu o zbiór faktów. Pouczająca w tym względzie
jest dyskusja toczona przez neopozytywistów w kręgu Koła Wiedeńskiego.
Podziałowi zdań na empiryczne i teoretyczne nadali oni postać ostrej
dychotomii: zdania mogą być wyłącznie wypowiadane bądź w odniesieniu
do faktów (empiryczne), bądź jako tautologie. Pośród zdań empirycznych
szczególną rolę spełniają tzw. zdania elementarne (spostrzeżeniowe,
protokolarne, atomowe), które zdają sprawę z bezpośrednich doznań
zmysłowych odwzorowujących fakty. Logiczny schemat opisujący
całościowy zbiór faktów, dający się w ostatecznej instancji zredukować do
zbioru zdań elementarnych, tworzy teorię naukową. Było to rozwinięcie
koncepcji L. Wittgensteina, od którego neopozytywiści czerpali inspiracje,
zawartej w tezie 4.25 i 4.26 Traktatu:
4.25. Jeżeli zdanie elementarne jest prawdziwe, to stan rzeczy istnieje; jeżeli
jest fałszywe, to stan rzeczy nie istnieje.
4.26. Podanie wszystkich prawdziwych zdań elementarnych opisuje świat
całkowicie. Świat jest całkowicie opisany przez podanie wszystkich zdań
elementarnych wraz ze wskazaniem, które z nich są prawdziwe, a które
fałszywe13.
13
L. Wittgenstein, Tractatus logico-philosophicus, PWN, Warszawa 1970.
16
integrującego (wartości, idei, wspólnych celów). Podział faktów
społecznych będzie zatem wyglądał następująco14:
14
Zob. W.W. Skarbek, Wybrane zagadnienia socjologii ogólnej i socjologii edukacji, NWP 2003, s.
22 i nast.
17
słowy, są to takie zespoły czynności osoby X, które zmierzają do
zmodyfikowania zachowań osobnika Y, zaś jej reakcje zwrotnie modyfikują
zachowania osoby X.
Stosunki społeczne – to systemy unormowanych wzajemnych
oddziaływań między jednostkami, określonych przez system wartości, na
gruncie szczególnej sytuacji łączącej te jednostki.
Para (dwójka) – zbiorowość złożona z dwóch osób tej samej lub różnej
płci połączonych więzią osobistą.
Krąg społeczny – niewielka zbiorowość, nie oparta na wyraźnej zasadzie
odrębności, o słabej więzi instytucjonalnej (np. stycznościowy, koleżeński,
przyjacielski).
Grupa społeczna – zbiór osób powiązanych systemem stosunków
uregulowanych przez instytucje, posiadających pewne wspólne wartości i
oddzielonych od innych zbiorowości wyraźną zasadą odrębności.
Społeczność – zbiorowość terytorialna umożliwiająca jednostkom ją
tworzącym zaspokajanie podstawowych potrzeb ekonomicznych i
kulturalnych.
Zbiorowości oparte na podobieństwie zachowań – zbiorowości nie
posiadające zinstytucjonalizowanej więzi społecznej, ale determinujące
podobne zachowania ludzkie w określonych sytuacjach społecznych
(zbiegowisko, audytorium, tłum).
Zbiorowości oparte na wspólnej kulturze – zbiorowości etniczne, których
podstawą wyróżnienia jest zazwyczaj wspólny język, czasami odrębna
gwara, czy też pewien kompleks kulturowy (ród, klan, plemię, lud).
18
c) swoiste wczuwanie się badającego w określone sytuacje społeczne, czyli
wysuwanie przez niego wniosków na podstawie własnych doświadczeń
życiowych i wykorzystywanie umiejętności tworzenia trafnych domysłów15.
18
Zob. J. Such, Problemy weryfikacji wiedzy. Studium metodologiczne, PWN, Warszawa 1975, s. 37 i
nast.
20
reguły zrelatywizowany do dziedziny badań (większy np. w naukach
przyrodniczych, a mniejszy w społecznych) oraz historycznie zmienny.
2. Funkcja eksplanacyjna (wyjaśniająca) – prawo nauki wyjaśnia relacje
pomiędzy pewną sekwencją zdarzeń. Sam termin „wyjaśniać” wymaga
wszakże komentarza. W języku potocznym „wyjaśnić x” oznacza tyle, co
„uczynić x zrozumiałym dla przeciętnego podmiotu”. Takie rozumienie
terminu „wyjaśnienie” jest jednak całkiem nieokreślone wskutek tego, iż
odwołuje się ono do aspektu czysto subiektywnego; coś co jest
niezrozumiałe dla jednego przeciętnego podmiotu, może być - w podobnych
okolicznościach - zrozumiałe dla innego. W tradycji filozoficznej,
wywodzącej się od Arystotelesa, funkcjonuje podział wiedzy na:
demonstratywną - odpowiadającej na pytanie „jak” oraz teoretyczną –
odpowiadającej na pytanie „dlaczego”. Otóż charakterystyczną właściwość
wyjaśniania naukowego upatruje się w tym, że odpowiada ono na pytanie
„dlaczego”. A zatem można przyjąć w dużym przybliżeniu, iż „wyjaśnić x”
znaczy tyle, co odpowiedzieć na pytanie: „dlaczego zachodzi x?”.
3. Przynależność do teorii naukowej – teoria naukowa, o ile uzyskała
potwierdzenie obserwacyjne nie związane bezpośrednio z danym prawem
nauki, stanowiącym jej składnik –dostarcza eo ipso temu prawu
uzasadnienia o charakterze teoretycznym.
21
Ścisłe zdefiniowanie prawa naukowego nie jest możliwe; wszelkie
określenia mają jedynie ograniczony, historyczny charakter,
zrelatywizowany do osiągniętego szczebla rozwoju nauki. Poza tym
współcześnie, znacznie częściej niż sposób definiowania prawa nauki,
dyskutowana jest w metodologii ogólnej kwestia roli poszczególnych typów
praw oraz wiążący się z tym problem klasyfikacji praw nauki. Do często
spotykanych podziałów należą następujące podziały dychotomiczne praw
nauki na: jakościowe – ilościowe; empiryczne teoretyczne; dynamiczne –
statystyczne; synchroniczne – diachroniczne; strukturalne – funkcjonalne19.
19
Por. W. Krajewski, Prawa nauki. Przegląd zagadnień metodologicznych, KiW, Warszawa 1982, s.
312 i nast.
20
P. Abell, Modele w socjologii, PWN, Warszawa 1975, s. 125.
22
jednak wszystkie powyższe zależności mają charakter funkcyjny, o ile
funkcję rozumie się szeroko jako pewien rodzaj przyporządkowania
(jednoznaczny bądź nie) wartości jednej zmiennej wartościom innej. Innymi
słowy, zależności funkcyjne opisują , w jaki sposób miary liczbowe jednej
wielkości zależą od miar liczbowych innej wielkości. W przypadku dwóch
zmiennych naturalnym sposobem określania związku pomiędzy nimi jest
właśnie uznanie jednej z nich za funkcję drugiej. Przy czym:
Należy wszakże cały czas mieć na uwadze to, że prawo ilościowe ze swej
natury związane jest z jakąś skalą liczbową. Tak więc wypowiadając tezę
„Świadomość klasowa rośnie ze wzrostem konfliktu klasowego” (A rośnie
wraz z B; A koreluje dodatnio z B) bądź „Świadomość klasowa maleje ze
wzrostem konfliktu klasowego” (A maleje wraz ze wzrostem B; A koreluje
ujemnie z B) – wypowiadamy tezę jakościową (będącą prawem
jakościowym, o ile zostanie uzasadniona). Dopiero wskazanie, o ile
jednostek – na przyjętej skali liczbowej – następuje przyrost bądź ubytek
owej świadomości klasowej powoduje to, że teza jakościowa staje się tezą
ilościową (i eo ipso prawem ilościowym, o ile zostanie dostatecznie
uzasadniona).
21
Tamże, s. 131.
23
nieobserwacyjne; podstawową metodą ich odkrywania jest metoda
hipotetyczno-dedukcyjna (stawianie hipotez, wyciąganie konsekwencji i
konfrontacja z danymi doświadczalnymi).
Synchroniczne Strukturalne
Empiryczne Funkcjonalne
JAKOŚCIOWE Diachroniczne Strukturalne
(inkluzyjne, Funkcjonalne
porządkowe)
Teoretyczne Synchroniczne Strukturalne
Diachroniczne Funkcjonalne
Jednoznaczne Synchroniczne
Empiryczne Diachroniczne
ILOŚCIOWE Statystyczne Synchroniczne
(funkcyjne, Diachroniczne
probabilistyczne) Jednoznaczne Synchroniczne
Teoretyczne Diachroniczne
Statystyczne Synchroniczne
Diachroniczne
22
Należy zwrócić uwagę na odmienność znaczenia pojęć: „zależność funkcyjna” (nauki formalne) –
jednoznaczna bądź w sensie szerokim – niejednoznaczna, określająca istotę praw ilościowych oraz
„zależność funkcjonalna” (nauki empiryczne), tj. „funkcja spełniana przez x w celu podtrzymania
wyróżnionego stanu układu”, określająca istotę praw funkcjonalnych. Można powiedzieć, iż
wyrażenie „funkcją stanu rzeczy S2 jest stan rzeczy S1” oznacza, iż „stan rzeczy S1 determinuje
funkcjonalnie stan rzeczy S2”. Struktura funkcjonalna jest bowiem takim systemem relacyjnym, który
utrzymuje pewien wyróżniony stan dzięki temu, że odpowiednie jego składniki zachowują
odpowiadające im stany cząstkowe – zdeterminowane funkcjonalnie przez stan globalny.
25
Powyżej zaprezentowano podział praw na jakościowe i ilościowe oraz
ich dalsze związki z wybranymi typami praw. Przy czym:
23
W. Krajewski, Prawa nauki. Przegląd zagadnień metodologicznych, KiW, Warszawa 1982, s.326.
26
L1,L2,…,Ln
C1,C2,…,Cn
E
24
Zob. J. Such, M. Szcześniak, Filozofia nauki, UAM, Poznań 1997, s. 67.
25
C.G. Hempel, P. Oppenheimer, The Logic of Explanation [in:] Readings in the Philosophy of
Science, ed. by H. Feigel and M. Brodbeck, New York 1953, p. 323.
27
Istnienie wzmiankowanej mocy przewidywania, która nadaje procedurze
wyjaśniania metodologiczny sens uzasadnia się następująco. Prawo nauki
(szerzej: teoria naukowa) wyjaśnia pewne zdarzenia należące do
nieskończonej dziedziny przedmiotowej. Natomiast część tej dziedziny,
która dostępna jest poznaniu empirycznemu, z natury rzeczy zawsze jest
skończona. Z tego wynika, że dla każdego ustalonego prawa nauki (szerzej:
teorii) istnieje nieobserwowalna część wyjaśnianej dziedziny przedmiotowej
i właśnie w stosunku do tej części prawo nauki posiada potencjalną moc
przewidywania.
Istnieje tyle rodzajów przewidywania, co rodzajów praw nauki, na
podstawie których dokonuje się prognozowania. Każdy rodzaj praw nauki
umożliwia bowiem określony rodzaj prognozy, np. prognozy ilościowe są
możliwe wyłącznie w oparciu o prawa ilościowe. Z kolei prawa strukturalne
pozwalają przewidywać istnienie określonych zdarzeń oraz ich własności w
dowolnym punkcie czy przedziale na osi czasu, a więc zarówno w
przyszłości (prognoza w sensie węższym), jak w teraźniejszości (diagnoza
pośrednia) i w przeszłości (postgnoza). Najbardziej jednak oczywisty rodzaj
przewidywania, to przewidywanie na podstawie zależności kauzalnych
(praw przyczynowych). Nie należy wszakże stawiać znaku równości między
przyczynowością a przewidywalnością, ponieważ sugerowałoby to,
poniekąd w zgodzie z pozytywistyczną koncepcją wiedzy, do utożsamienie
prawa nauki z prawem przyczynowym - co w świetle zaprezentowanych
powyżej rozmaitych typów praw nauki – byłoby absurdalne.
Odrębny rodzaj prognoz to przewidywanie statystyczne, oparte na
wnioskowaniu uprawdopodobniającym, które dotyczy ogółu zdarzeń
danego typu, a nie każdego z nich z osobna. Prognozowanie statystyczne
szczególnie doniosłą rolę odgrywa w naukach społecznych. Oczywiście
polega ono na przewidywaniu ogólnych tendencji rozwojowych,
wyznaczonych przez zdarzenia o charakterze masowym. Przy czym, aby
prognoza miała naukową legitymizację, nie może wykraczać poza obszar
ważności prawa nauki, na podstawie którego jest formułowana; w
przeciwnym bowiem razie nie byłaby to naukowa prognoza, lecz proroctwo.
26
Zob. E. Nagel, Struktura nauki, PWN, Warszawa 1970; E. Kałuszyńska, Modele nauk
empirycznych, Warszawa 1994; J. H. Turner, Struktura teorii socjologicznej, WN PWN, Warszawa
2004.
27
E. Nagel, Struktura nauki, PWN, Warszawa 1970, s. 112.
29
przyjmuje się osłabiony warunek, zgodnie z którym danemu zdaniu
teoretycznemu odpowiada nie pojedyncze zdanie faktualne, lecz pewien
zbiór równoważnych z nim logicznie zdań faktualnych.
Przykładem teorii ilustrującej koncepcję deskryptywną może być
p o z y t y w i z m . Wiąże się on ściśle z ogólnometodologicznymi
postulatami A. Comte’a (1789-1857). Są to następujące postulaty:
1. Nauka winna dążyć do zdobycia wiedzy pozytywnej, tj. pewnej,
ścisłej, pożytecznej, konstruktywnej.
2. Nauka może badać tylko to, co ujawnia się w doświadczeniu
(empirycznym – możliwe jest do zaobserwowania); w przypadku nauk
społecznych – tzw. fakty społeczne. Badacz powinien unikać problemów o
charakterze metafizycznym (filozoficznym).
3. Poznanie rzeczywistości winno być neutralne z punktu widzenia
sporów o wartości; nauka nie może formułować sądów wartościujących.
Badacz zjawisk społecznych musi zajmować postawę aksjologicznie
neutralną wobec poznawanej rzeczywistości.
4. Nauka zobowiązana jest dostarczać podstaw do przewidywania (mieć
charakter prognostyczny); nauki społeczne winna dostarczać wiedzę
niezbędną do kontroli procesów społecznych. Rezultaty badawcze winny
mieć wartość użytkową.
W tym celu, aby możliwa była realizacja powyższych postulatów - nauka
społeczna winna upodobnić swój warsztat badawczy do przyrodnika i
posługiwać się następującymi metodami badawczymi: obserwacją,
eksperymentem, analizą porównawczą, a ponadto stosować specyficzną dla
nauk społecznych metodę – analizę historyczną.
Do metodologii A. Comte’a nawiązuje XX-wieczna odmiana
pozytywizmu, zwana neopozytywizmem albo Kołem Wiedeńskim. Do
głównych przedstawicieli tego kierunku w dziedzinie nauk społecznych
należy zaliczyć Otto Neuretha (1882-1945), George’a Andrew Lundberga
(1895-1966) i Paula Felixa Lazarsfelda (1901-1976). Neopozytywizm
akceptuje wszystkie tezy postulaty pozytywizmu, a ponadto głosi
dodatkowe:
Stosowanie właściwych metod i technik jest sprawą fundamentalną w
badaniach społecznych; metodologia swą rangą przewyższa teorię zjawisk
społecznych.
1. Wyłącznie wiedza skwantyfikowana (wyrażona w formie jednostek
pomiaru ilościowego) może być uznana za wiedzę naukową, rzetelną,
prawomocną. W związku z tym w każdym badaniu należy wykorzystywać
takie metody, które umożliwiają pomiar badanych zjawisk społecznych z
matematyczną precyzją.
2. Badacz powinien precyzyjnie formułować definicje pojęć, jakimi się
posługuje (np. definicja osobowości społecznej).
3. Poznawanie zjawisk społecznych powinno być upodobnione do badań
prowadzonych przez fizyków (tzw. fizykalizm - przeciwieństwo
30
organicyzmu, w myśl którego poszczególne podsystemu społeczeństwa
działają na wzór podsystemów organizmu biologicznego).
Wzorując się na metodologii nauk fizykalnych Georg A. Lundberg
sformułował taki oto wniosek: w n a u k a c h s p o ł e c z n y c h k a ż d y
przedmiot badań winien podlegać pomiarowi, w
przeciwnym bowiem razie stanowi tylko byt pozorny, którym nie warto się
zajmować. A zatem cokolwiek nie podlega pomiarowi, po prostu nie
istnieje. Ponadto przedmiotem badań nauk społecznych powinny być
zachowania konkretnych jednostek, a nie jakaś bliżej nieokreślona całość
społeczna. Z tego wynika, że materiały, które dotyczą przeszłości, nie są
przydatne w badaniu teraźniejszości; pogląd taki nosi nazwę ahistoryzmu. Z
kolei zjawiska świadomości konkretnych jednostek (np. opinie,
przekonania) mogą być przedmiotem badań pod warunkiem, że zostaną
uzewnętrznione przez jednostkę (np. w formie wypowiedzi).
28
Tamże, s. 122.
31
wywarła doniosły wpływ na nauki społeczne. Punktem wyjścia rozważań
zawartych w omawianej pracy było pytanie – czy możliwa jest ścisła nauka
o zjawiskach społecznych? Odpowiedź autorów jest pozytywna, ale z
zastrzeżeniem, że uzna się metody badań społecznych za specyficzne,
odmienne od metod poznawczych stosowanych w naukach przyrodniczych.
Swoistość metodologiczną nauk społecznych, w szczególności
socjologii, można ująć w następujące tezy:
1. W naukach społecznych należy łączyć teorię z praktyką, tj. tezy
teoretyczne na temat rzeczywistości społecznej z badaniami empirycznymi.
Zajmowanie się samą teorią byłoby uprawianiem tzw. socjologii
gabinetowej. Z kolei poprzestawanie na samych badaniach empirycznych -
bez próby budowania teorii - czyni je prostym opisem zjawisk społecznych.
2. Badania empiryczne winny opierać się w tej samej mierze na
tradycyjnych metodach (np. obserwacja, eksperyment) jak również na
dokumentach osobistych (np. autobiografie, listy, pamiętniki, dzienniki,
wspomnienia); metoda ta znalazła zastosowanie w tzw. case study method
(studium przypadku) i dokumentach urzędowych (np. księgi kościelne, akta
sądowe, zapisy notarialne, programy nauczania, zarządzenia). metody te
stanowią istotny rys metodologii na gruncie socjologii humanistycznej.
3. Wszelkie zjawiska społeczne należy rozpatrywać w kontekście
całokształtu kultury danego społeczeństwa. w szczególności zachowanie
jednostek czy grup społecznych należy analizować w powiązaniu z
warunkami, w jakich one mają miejsce.
4. W naukach społecznych winno się badać nie tylko fakty społeczne (jak
postulowali pozytywiści i neopozytywiści), lecz również znaczenia tych
faktów dla całokształtu życia społecznego.
Kulturalizm to teoria czynności i wartości postulująca rozpatrywanie
zjawisk społecznych na tle całokształtu kultury z uwzględnieniem tzw.
współczynnika humanistycznego. Kulturę rozumie Znaniecki jako zbiór
wartości, zwłaszcza społecznych. Nie jest tak, że wartości istnieją w świecie
„obok” rzeczy, nie są też rzeczami, które ludzka działalność wyposaża w
jakieś cechy dodatkowe, albowiem w stosunku do rzeczy przysługuje im
bezwzględna pierwotność. Świat po prostu jest dany człowiekowi pod
postacią wartości doświadczanie świata nie jest bezpośrednie, lecz oparte na
refleksji. Przy czym człowiek na mocy refleksji dokonuje artykulacji
świata, wiąże jedne treści doświadczenia z innymi i dopiero w tym
powiązaniu przedmioty doświadczenia, a więc rzeczy, zaczynają dlań
istnieć realnie. Liczba takich powiązań (tj. potencjalnych znaczeń każdego
zespołu treści doświadczenia) jest nieograniczona; przedmiot konkretny,
przedmiot taki, jaki istnieje w całej swej treści i znaczeniu, zawiera w sobie
to wszystko, co się do niego włącza, gdy go się ujmuje jako składnik
takiego lub innego systemu. Wobec tego próżne są usiłowania, aby dotrzeć
do jakiejś jednej „istoty rzeczy”. możliwych jest wiele różnych powiązań,
które są jednakowo prawomocne.
32
Niemniej proces nadawania znaczeń, kreowania wartości czy też proces
doświadczania świata nie jest dowolny, a to z tego powodu, że człowiek jest
istotą historyczną, dysponującą różnorodnym doświadczeniem z
przeszłości. Każde doświadczenie zawiera więc sugestię określonych
powiązań, uwarunkowaną historią człowieka, ucieleśnioną w kulturze, która
istnieje poza sferą indywidualnego doświadczenia i w niej znaczenia ulegają
swego rodzaju obiektywizacji. Przekonanie, że nie istnieje rzeczywistość
niezależna od człowieka przetworzył Znaniecki w koncepcję współczynnika
humanistycznego. Potoczna wiedza o teorii Znanieckiego ześrodkowana jest
wręcz wokół tezy, że zalecał on ujmowanie rzeczywistości społecznej ze
współczynnikiem humanistycznym. Należy to rozumieć w ten sposób, iż nie
tylko chodziło mu o zalecanie , ile o to, że rzeczywistość społeczna w żaden
inny sposób ujęta być nie może. Współczynnik humanistyczny jest to
znaczenie, jakie pewnym przedmiotom, czynnościom bądź zjawiskom
nadają ludzie wchodzący w skład określonych zbiorowości społecznych.
Przy czym posiada on dwojaki charakter: ontologiczny bądź
metodologiczny. W wersji ontologicznej współczynnik humanistyczny
oznacza cechę kultury polegającą na tym, że wszelkim przedmiotom,
czynnościom bądź zjawiskom ludzie wchodzący w skład określonych
zbiorowości społecznych nadają pewne znaczenia. Np. określone rytuały
religijne mają wartość (znaczenie) jedynie dla wyznawców danego kultu.
Natomiast w wersji metodologicznej oznacza dyrektywę nakazującą
badaczowi zjawisk kultury uwzględniać znaczenia, jakie pewnym
przedmiotom, czynnościom bądź zjawiskom nadają ludzie wchodzący w
skład określonych zbiorowości społecznych. Np. określone rytuały religijne
są w pełni czytelne jedynie dla uczestników znających całość kontekstu, w
jakim one przejawiają się w danym kulcie.
29
A. Chalmbers, Czym jest to, co zwiemy nauką? Siedmioróg, Wrocław 1997, s. 35.
35
wartości prawdopodobieństwa30. Wnioski indukcji enumeracyjnej
(niezupełnej) nie uznaje się za pewne, lecz jedynie za prawdopodobne;
wiedza naukowa nie jest wiedzą udowodnioną, jest jedynie wiedzą
prawdopodobnie prawdziwą. Wobec tego należy sformułować
probabilistyczną wersję zasady indukcji:
30
Do nich należy m.in. tzw. behawiorystyczna interpretacja indukcji, dokonana przez
amerykańskiego matematyka pochodzenia polskiego J. Spława-Neymana (1894 – 1981), w myśl
której reguły indukcji są regułami decyzji dotyczącymi działania, regułami pozwalającymi określić
jedynie stopień prawdopodobieństwa stanu wyjściowego, od którego zależą skutki podjętych działań.
31
A. Chalmbers, Czym jest to, co zwiemy nauką? Siedmioróg, Wrocław 1997, s. 40.
36
Kołem Wiedeńskim - explicite wprowadził rozróżnienie pomiędzy
„kontekstem odkrycia” a „kontekstem uzasadnienia”:
32
H. Reichenbach, Powstanie filozofii naukowej, KiW, Warszawa 1960, s. 238.
33
H. Feigel, Philosophy of Science [w:] Philosophy, Prentice Hall, 1965, s. 472.
37
jak powinno się ją uprawiać, aby zachowane były postulaty racjonalności w
uprawianiu nauki.
34
Hipoteza mogła zawierać – poza terminami empirycznymi – także terminy teoretyczne, które
powinny być wprowadzane w formie tzw. postulatów znaczeniowych.
38
nie można go obalić, natomiast uznamy za empiryczne zdanie „Jutro będzie tu
padało”)35.
35
K.R. Popper, Logika odkrycia naukowego, PWN, Warszawa 1977, s. 39.
39
rozwoju nauki, określa Kuhn mianem p a r a d y g m a t u 36. Jedno ze
sformułowań tego terminu przez Kuhna wygląda następująco:
38
Zob. M. Bunge, Theory Meets Experience [in:] Mind, Science and History, ed. by Howard E.
Kiefer, Milton K. Munitz, Albany NY, 1970, s. 140.
41
danych empirycznych, które przeczą przyjętym teoriom; po drugie – wysiłki
badaczy zmierzają ku zdobyciu takich nowych danych oraz takiej
interpretacji istniejących, by służyły obronie ich własnej teorii i po trzecie –
większość teorii skupia się na wyidealizowanych modelach obiektów
badanych, a nie na samych obiektach wraz ze wszystkimi ich aspektami.
Zgodność teorii z empiryczną rzeczywistością jest problemem złożonym
i nie da się go rozwiązać ani na gruncie samej teorii, ani na gruncie samej
empirii. Wzmiankowaną zgodność można konkluzywnie rozstrzygać
jedynie w świetle czterech zespołów badań: metateoretycznych,
interteoretycznych, filozoficznych i empirycznych.
Metateoretyczne badania dotyczą formy i treści teorii. Mają rozstrzygnąć
czy teoria jest wewnętrznie zwarta, sformułowana w sposób jednoznaczny,
oraz czy hipotezy wiążące to, co niemożliwe do zaobserwowania
(przyczyny) z tym, co możliwe (symptomy) są empirycznie uzasadnione.
Interteoretyczne badania mają za cel odpowiedzieć na pytanie czy i pod
jakim względem zachodzi zgodność między daną teorią a innymi, uprzednio
już zaakceptowanymi. Chodzi zwłaszcza o te teorie, które logicznie
warunkują daną teorię.
Filozoficzne badania za przedmiot mają metafizyczne i epistemologiczne
rozważania nad podstawowymi pojęciami i przesłankami teorii w świetle
samej filozofii. Jeśli więc przykładowo psycholog jest zwolennikiem
pozytywistycznej orientacji filozoficznej, to raczej skłonny będzie
akceptować behawioryzm aniżeli psychoanalizę.
Empiryczne badania polegają przede wszystkim na konfrontacji pewnych
logicznych konsekwencji teorii z wynikami obserwacji, eksperymentów i
pomiarów, uzyskanych w oparciu o tę teorię. Następnym krokiem w tych
badaniach winna być budowa modelu teoretycznego w oparciu o niektóre
pojęcia danej teorii oraz teorii ją uzupełniających.
W przekonaniu M. Bunge’go żadna teoria, która by nie była
rozpatrywana w świetle powyższych czterech zespołów badań, nie może
być adekwatna do rzeczywistości empirycznej (w tym, rzecz jasna,
społecznej). Co więcej, w pierwszej kolejności – jego zdaniem - należy
przeprowadzić badania nieempiryczne, a więc: metateoretyczne,
interteoretyczne i filozoficzne a dopiero na sam koniec - badania stricte
empiryczne.
1) C z y n n i k i r o z w o j u n a u k i .
1. Czynniki wewnętrzne (poznawcze). Należą do nich wszelkie racje
poznawcze, jakimi kierują się naukowcy prowadząc badania naukowe oraz
wewnętrzna logika badań, polegająca na tym, że pewne osiągnięcia
naukowe warunkują powstanie następnych i jednocześnie stymulują ich
powstanie. W naukach społecznych na czoło wysuwa się dążenie do
43
adekwatnego opisu rzeczywistości społecznej, formułowania takich teorii,
które umożliwiają ich empiryczne sprawdzanie w maksymalnie
różnorodnych warunkach i przy użyciu precyzyjnych metod ilościowych
oraz jakościowych. Niezbędna jest też eliminacja nastawienia
aksjologicznego w wymiarze światopoglądowo-ideologicznym; obecność
motywacji aksjologicznej przesądza o nienaukowym charakterze
prowadzonych badań39. Zarazem doniosłą rolę odgrywają racje czysto
logiczne, a więc niesprzeczność wewnętrzna teorii oraz niesprzeczność
zewnętrzna, tj. zgodność formułowanych teorii z dobrze uzasadnioną
wiedzą w dziedzinach pokrewnych.
2. Czynniki zewnętrzne (społeczne). Należą do nich wszelkie
uwarunkowania pozapoznawcze takie jak: motywy psychologiczne badacza,
racje historyczne czy też potrzeby ekonomiczne społeczeństwa. Do
zewnętrznego otoczenia działalności naukowej należą także grupy
społeczne, które zainteresowane są jej wynikami (lobbing), a także te, które
współdziałają w tworzeniu klimatu intelektualnego, wpływającego na
świadomość badaczy. Całość czynników zewnętrznych jest
charakteryzowana przez kulturę, w ramach której prowadzone są badania.
39
Odmiennego zdania są niektórzy przedstawiciele tzw. badań jakościowych, którzy dopuszczają
uwikłanie badań w sferę wartości [zob. Roz. 3.1.].
44
1. Permanentny rewolucjonizm K.R. Poppera (1902-1994). Z początkiem
XX w. nauki empiryczne (zwłaszcza fizyka) rozwijały się w tempie
dotychczas niespotykanym; jedne teorie naukowe były zastępowane przez
inne. Nic tedy dziwnego, że na plan pierwszy wysunęło się zagadnienie
rozwoju nauki i postępu w stosunku do wcześniejszych okresów. K.R.
Popper (tzw. „młody Popper”40) uważał, iż zachodzi permanentna
rewolucja, czyli nieustanne podważanie i obalanie starych teorii przez
nowe; rewolucje oznaczają zasadnicze zerwanie ciągłości w rozwoju wiedzy
naukowej. W nauce stale dąży się (i powinno się dążyć) do
f a l s y f i k a c j i wysuwanych hipotez (funkcjonujących jakiś czas jako
teorie), po czym hipotezy te odrzuca się, wysuwa się nowe, które
natychmiast poddaje się falsyfikacji itd. Hipotezy (teorie) – mówiąc
obrazowo – prowadzą między sobą ustawiczną walkę na wzór walki o byt w
darwinowskiej teorii ewolucji, w której mocniejsze na pewien czas
wygrywają. Mechanizm rozwoju nauki nie polega na poszukiwaniu faktów
potwierdzających nasze hipotezy (jak sugerował empiryzm logiczny Koła
Wiedeńskiego), takie bowiem zawsze można znaleźć, lecz na wystawianiu
wysuniętych hipotetycznie teorii na możliwie najsurowsze próby ich
obalenia. Popper swój postulat falsyfikacji nie traktuje wszakże jako opis
faktycznego postępowania naukowców, lecz jako zalecenie normatywne
właściwe ze względu na uznawane cele nauki tożsame z jej funkcjami (m.in.
wyjaśnianie, przewidywanie).
40
Poglądy „młodego Poppera” zawarte są w Logice odkryć naukowych. Natomiast poglądy
„dojrzałego Poppera” - w książce Wiedza obiektywna (Objective Knowledge). Rozwój nauki jest
wyznaczony przez stałe zasady „racjonalnego krytycyzmu”, które zapewniają ciągłość wiedzy na
poszczególnych etapach rozwojowych. Zasady owe ukierunkowują naukę na osiąganie wiedzy o
wzrastającym stopniu abstrakcji i generalizacji; rozwój wiedzy prowadzi tym samym do postępu
rozumianego jako powiększanie uniwersalności uzyskiwanych twierdzeń nauki (w tym praw nauki).
45
n i e w s p ó ł m i e r n o ś c i . Zmiana rewolucyjna zastępuje jeden sposób
widzenia świata i praktykowania nauki przez inny; niewspółmierność
oznacza m.in. to, że w różnych paradygmatach te same pojęcia znaczą
zupełnie co innego:
41
Th.S. Kuhn, Struktura rewolucji naukowych, Aletheia, Warszawa 2001, s. 259.
46
gruncie określonej teorii. Nie jest to jednak czymś niepokojącym, ponieważ
wszystkie tezy naukowe wręcz powinny być nieustannie podważane po to,
by skutecznie reagować na aktualne wyzwania naukowe:
42
P.K. Feyerabend, Jak być dobrym empirystą, PWN, Warszawa 1979, s. 55.
43
Tamże, s. 212.
47
podstawową jednostką metodologiczną nie jest pojedyncza teoria, lecz tzw.
naukowy program badawczy, czyli pewien zbiór następujących po sobie
kolejnych teorii.
Następstwem teorii rządzi tzw. z a s a d a k o r e s p o n d e n c j i , będąca
swoistym wyrazem zasady ciągłości wiedzy naukowej. Została ona
formułowana w rozmaitych wariantach przez fizyka Nielsa Bohra w latach
1913-1923. W kwestii ujęcia zasady korespondencji zarysowały się wśród
metodologów dwa podejścia: implikacyjne i eksplanacyjne.
Zgodnie z podejściem implikacyjnym zasada korespondencji oznacza, że
teoria nowsza T2 (korespondowana) wynika z teorii starszej T1
(korespondującej). Innymi słowy, teoria korespondująca stanowi szczególny
przypadek teorii korespondowanej, a ta jest po prostu zwyczajnym
uogólnieniem teorii korespondującej. Teorie naukowe korespondują ze sobą
to znaczy, że ma miejsce przechodzenie od teorii o niższym stopniu
ogólności do teorii o wyższym stopniu ogólności.
Natomiast wedle podejścia eksplanacyjnego zasada korespondencji
oznacza, że teoria nowsza T2 (korespondowana) ma większą moc
eksplanacyjną (wyjaśniającą) w stosunku do teorii starszej T1
(korespondującej), w szczególności może wyjaśnić te sytuacje i problemy,
których nie była w stanie wyjaśnić teoria uprzednia.
Zdaniem Lakatosa dzieje nauki są historią współzawodnictwa
naukowych programów badawczych. Obowiązujący na danym etapie
program badawczy stopniowo traci moc heurystyczną - zdolność do
twórczego rozwiązywania sytuacji problemowych i antycypowania nowych
faktów, co przejawia się głównie w zwiększaniu ilości hipotez
pomocniczych ratujących zagrożony „twardy rdzeń”. Z chwilą, gdy
obowiązujący program badawczy degeneruje się, jego miejsce musi zająć
nowy naukowy program badawczy. Przy czym powinien on wyjaśniać
wszystkie twierdzenia starego programu, a ponadto musi posiadać większą
od niego moc heurystyczną:
44
I. Lakatos, Pisma z filozofii nauk empirycznych, PWN, Warszawa 1995, s. 111.
48
ROZ. 2. PROCEDURA BADAWCZA
1) M o d e l e t a p ó w b a d a ń M . B u n g e ’ a 45:
Etap 1. Ujęcie problemu:
1. Dokonanie przeglądu faktów (zebranie określonej grupy faktów, ich
wstępna ocena i selekcja z punktu widzenia problemu naukowego).
2. Rozpoznanie problemu (ocena sytuacji i występujących w danej
dziedzinie wiedzy, podlegającej penetracji badacza, nieadekwatności, luk,
niekonsekwencji).
3) Postawienie problemu (sformułowanie pytania; odpowiedź na nie
miałaby wyjaśnić lepiej niż dotychczas dany „skrawek” rzeczywistości).
Etap 2. Zbudowanie modelu teoretycznego:
1. Dokonanie selekcji ważnych czynników (wysunięcie założeń o
zmiennych potencjalnie istotnych).
2. Wysunięcie centralnych hipotez i pomocniczych założeń
(zaproponowanie założeń mówiących o charakterze związków łączących
zmienne, próba sformułowania twierdzeń, które mają wyjaśnić
zaobserwowane fakty).
3. Dokonanie przekładu na język matematyki (wyrażenie – w miarę
możliwości – hipotez w języku matematyki).
Etap 3. Wyprowadzenie szczegółowych konsekwencji:
1. Wyszukanie racjonalnych ujęć (uporządkowanie konsekwencji, jakie
mogą być zweryfikowane).
2. Dokonanie przekładu na język matematyki (wyrażenie hipotez – w
miarę możliwości – w języku matematyki).
Etap 4. Sprawdzanie hipotez:
45
Podaję za: J. Rudniański, Fazy rozwiązywania problemów naukowych [w:] „Zagadnienia
Naukoznawstwa”, Warszawa 1975, s. 20 – 21.
49
1. Zaplanowanie sprawdzenia (zaplanowanie sposobów sprawdzania
prognoz, zaplanowanie różnego typu działań, takich jak: obserwacje,
pomiary, eksperymenty itp.).
2. Wykonanie sprawdzenia (przeprowadzenie danych działań i zebranie
danych).
3. Usystematyzowanie danych (ich klasyfikacja, analiza i ocena ich
wartości, wyeliminowanie z pola rozważań danych zbędnych).
4. Wyprowadzenie wniosków (interpretacja danych w terminach
przyjętego modelu teoretycznego).
Etap 5. Wprowadzenie do teorii wniosków z badań empirycznych:
1. Dokonanie porównania wniosków z prognozami (ocena stopnia, w
jakim uzyskane wyniki potwierdzają lub obalają założony model
teoretyczny).
2. Zmodyfikowanie modelu (wprowadzenie do modelu pewnych zmian
lub nawet zastąpienie go innym).
3. Przedstawienie sugestii dla dalszej pracy (wyszukanie luk i błędów w
całym toku postępowania badawczego, gdy model został obalony oraz
poszukiwanie możliwości rozszerzenia modelu, gdy model został
potwierdzony).
2) M o d e l e t a p ó w b a d a ń A . G ó r a l s k i e g o 46:
Etap 1. Określenie problematyki badań – dajemy w ten sposób wyraz
niepełności naszej wiedzy bądź też dostrzeżenia faktu, iż interesujące nas
tezy uważamy za niedostatecznie uzasadnione bądź po prostu za błędne.
Etap 2. Sformułowanie problemu – należy postawić problem w taki
sposób, aby jego rozumienie zostało zintersubiektywizowane, tj. dostępne
dla osób kompetentnych, przynajmniej w podstawowym zakresie, w
odniesieniu do określonej dziedziny wiedzy.
Etap 3. Analiza problemu – po sformułowaniu problemu należy
doprowadzić go do takiej postaci, by móc dostrzec, o jakie elementy trzeba
uzupełnić wiedzę oraz na jakie pytania można i należy odpowiedzieć.
Etap 4. Przygotowanie i przeprowadzenie badań – na wstępie należy
dokonać właściwych wyborów dotyczących po pierwsze tego, czy będą to
badania wyczerpujący czy też reprezentacyjne; po drugie – określić cechy,
które zostaną poddane badaniu oraz po trzecie – ustalić sposób pomiaru
wybranych cech.
Etap 5. Opracowanie danych – zawiera opis wyników badań (m.in. opis
warunków i czynności obserwacyjnych), opis statystyczny (m.in.
wyznaczenie wartości parametrów statystycznych) oraz wnioskowanie
statystyczne (w przypadku badania reprezentacyjnego), pozwalające na
46
A. Góralski, Metody opisu i wnioskowania statystycznego w psychologii i pedagogice, PWN,
Warszawa 1987, s. 7 – 19.
50
dokonanie kroku indukcyjnego od znanych właściwości próby do
nieznanych właściwości całej populacji.
3) M o d e l e t a p ó w b a d a ń T . P i l c h a 47:
Faza koncepcyjna
Faza wykonawcza
47
T. Pilch, Zasady badań pedagogicznych, wyd. „Żak”, Warszawa 1995, s. 171 – 220.
51
określonym czasie i przestrzeni. Należy też starać się, aby okoliczności
badań nie były niczym zakłócone.
Etap 2. Opracowanie klucza kodyfikującego – klasyfikacja odpowiedzi
respondentów według odpowiedniego klucza. Temu etapowi badawczemu
podlegają w zasadzie wszystkie techniki posługujące się zapisem, a więc:
wszelkie kwestionariusze, skale, arkusze obserwacji, wywiady
nieskategoryzowane itp.
Etap 3. Weryfikacja hipotez – w fazie koncepcyjnej na etapie drugim
zostały sformułowane tezy posiadające status hipotez, które tym samym nie
posiadały rangi twierdzeń udowodnionych. A celem badań jest właśnie
potwierdzenie owych hipotez bądź też uzyskanie materiału podważającego
ich słuszność.
Etap 4. Opracowanie teoretyczne – podsumowanie całości badań oraz
przyporządkowanie ich wyników do poszczególnych hipotez zgodnie z
przyjętymi założeniami i celami badawczymi.
48
Natomiast przez konceptualizacją w znaczeniu węższym (mocniejszym) rozumiemy proces
określania znaczeń używanych terminów, a także proces ustalania relacji pomiędzy tymi terminami.
52
warunków technicznych w trakcie przeprowadzania badania. (3) Dokładne
rejestrowanie wszelkich okoliczności, jakie towarzyszą badaniu.
49
Por. G. Babiński, Etapy procesu badawczego [w:] Elementy socjologii, Katowice 1999, s. 284.
53
się od partykuł: „dlaczego”, „jaki”, „który”, „gdzie” itp.). – dlaczego istnieje
fakt społeczny, zjawisko, zależność pomiędzy X i Y?
Wybór między pytaniem rozstrzygnięcia a uzupełnienia jest w dużym
stopniu wyznaczony przez naturę samego problemu, który może być
usytuowany bądź w „kontekście odkrywania” (dążenie do zdobywania
wiedzy naukowej), bądź w „kontekście uzasadniania” (dążenie do
uzasadniania wiedzy naukowej). Obydwa te konteksty pozostają zatem w
stanie ustawicznej interakcji w procesie tworzenia i postępu wiedzy
naukowej.
Po wstępnym sformułowaniu głównego (zasadniczego) problemu
badawczego dokonuje się uszczegółowienia problematyki badawczej, tzn.
sporządza w formie pytań listę problemów szczegółowych. Spośród wielu
sensownych, merytorycznie uzasadnionych pytań, wybiera się tylko
niektóre stosując trzy następujące kryteria:
1. Kryterium teoretyczne – wybiera się pytania centralne i takie, w
stosunku do których można sformułować najbardziej precyzyjne hipotezy.
2. Kryterium metodologiczne – wybiera się pytania stosownie do
możliwości udzielenia na nie odpowiedzi przy zastosowaniu planowanych
metod i technik badawczych.
3. Kryterium techniczno-organizacyjne – uwzględnia się koszt badań,
czas realizacji, zasięg badań (np. ogólnokrajowy, lokalny).
W trakcie formułowania problemu naukowego należy zdać sobie jasno
sprawę z tego, co ma być przedmiotem badania, a w szczególności – jakie
są podstawowe jego elementy. Innymi słowy, należy rozstrzygnąć, co
stanowi tzw. jednostkę analizy (w szczególności mogą to być fakty w sensie
wskazanym w Roz. 1.3.). Niektórzy metodolodzy określają to mianem
problemu umiejscowienia:
50
A. Kaplan, The Conduct of Inquiery, New York: Harper& Row 1968, s. 78; cyt. za: Ch. Frankfort-
Nachmias, D. Nachmias, Metody badawcze w naukach społecznych, Zysk i S-ka, Poznań 2001, s. 68.
54
temat niższego poziomu analizy w oparciu o badania wyższego oraz b ł ą d
r e d u k c j o n i z m u czy też indywidualizmu - wyprowadzanie wniosków
na temat wyższego poziomu analizy w oparciu o badania niższego:
51
E. Babbie, Badania społeczne w praktyce, WN PWN, Warszawa 2003, ss. 119-120.
55
Projektująca (syntetyczna) Konstrukcyjna (arbitralna)
POZIOM Intrajęzykowa (wewnątrzjęzykowa)
JĘZYKA Metajęzykowa
56
Pojęcie wskaźnika rozpowszechniło się szeroko w metodologii nauk
społecznych. Jako jedno z podstawowych pojęć metodologicznych w
badaniach społecznych zostało wprowadzone po raz pierwszy w
klasycznym dziele pod redakcją Paula F. Lazarsfelda i Morrisa Rosenberga
pt. The Language of Social Research (Glencoe 1955). Nie sformułowano w
nim jednak takiej definicji, która zyskałaby powszechną akceptację.
Pojawiły się z czasem kontrowersje w odniesieniu do niektórych aspektów
rozumienia nazwy „wskaźnik”. Po pierwsze, odpowiedzi wymaga problem,
czy odpowiednik pozajęzykowy tej nazwy stanowi samodzielne zjawisko,
czy też nie jest zjawiskiem samodzielnym. Po wtóre – kontrowersję rodzi
kwestia stosunku, w płaszczyźnie językowej, terminów teoretycznych do
wskaźników: mianowicie czy wskaźnik może funkcjonować jako termin
empiryczny i tym samym nadawać terminom teoretycznym sens
empiryczny. Po trzecie – z poprzednimi problemami wiąże się jeszcze
sprawa podziału wskaźników. Jeżeli by uznać, iż wskaźniki jako nazwy
zawsze odnoszą się do rzeczywistości pozajęzykowej, obojętnie zjawisk
samodzielnych lub nie, które jako jedyne są wskaźnikami sensu stricto, to
wówczas typologia wskaźników winna uwzględniać wyłącznie odniesienia
do owej rzeczywistości pozajęzykowej.
W literaturze polskiej przyjął się pogląd, w myśl którego wskaźnik: po
pierwsze - nie jest zjawiskiem samodzielnym (występuje w związku z
indicatum); po drugie – funkcjonuje jako termin empiryczny i po trzecie –
przyjął się podział wskaźników na definicyjne i rzeczowe (empiryczne oraz
inferencyjne). Koncepcję tego rodzaju zaprezentował Stefan Nowak. Wedle
niego:
52
S. Nowak, Metodologia badań społecznych, PWN, Warszawa 1985, s. 165.
57
Zdarzenie czy też zjawisko, do którego odnosi się wskaźnik określa się
mianem indicatum. Relacja pomiędzy wskaźnikiem a indicatum wyznacza
rodzaj wskaźnika. W ujęciu S. Nowaka istnieją trzy rodzaje wskaźników:
definicyjne, empiryczne oraz inferencyjne.
1. W s k a ź n i k i d e f i n i c y j n e – między wskaźnikiem a indicatum
zachodzi relacja tożsamości pojęciowej, ustalana na mocy konwencji
terminologicznych.
53
Tamże, s. 166.
54
Tamże, s. 168.
55
Tamże, s. 169.
58
(…) przede wszystkim zjawiska, stany rzeczy i zdarzenia zachowania) łatwo
dostępne obserwacji, i to takie, których właściwa psychologiczno-kulturowa
interpretacja rozumiejąca jest stosunkowo niezawodna56.
56
Tamże, 166.
57
Przez operacjonalizację rozumie się też proces wskazywania metod i technik badawczych, za
pomocą których konkretyzuje się ustalone na drodze konceptualizacji (w sensie węższym) terminy
bądź też jako najobszerniejszy etap procedury badawczej obejmujący rozstrzygnięcia co do sposobu
rozumienia pojęć, doboru zmiennych oraz wskaźników a także wybór metod i technik badawczych.
58
W przypadku danych liczbowych operacjonalizacja sprowadzać się będzie głównie do sposobu ich
pomiaru.
59
Zob. W. W. Skarbek, Logika dla humanistów, NWP 2010, s. 188.
59
KONFLIKTOWOŚĆ; ocena z zachowania 1-6 np. poprawne
KONFORMIZM
AUTORYTET NAUCZYCIELA
CZYNNIKI (CECHY) SUBCZYNNIKI (PODCECHY) WSKAŹNIKI
1. Wykształcenie 1. Dyplomy
KOMPETENCJE 2. Przygotowanie pedagogiczne 2. Świadectwo
ZAWODOWE
60
W. Goriszowski, Badania pedagogiczne w zarysie, WSP TWP, Warszawa 1997, s. 32.
60
- o tyle nowe, żeby wskazywały na nieznane aspekty badanych faktów i
zjawisk społecznych,
- na tyle ogólne, żeby obejmowały swoim zakresem (tzn. tłumaczyły w
dostateczny sposób) wszelkie fakty i zjawiska, których dotyczą,
- pojęciowo jasne, tzn. wyrażone w terminach wystarczająco
jednoznacznych i ostrych,
- wolne od sprzeczności wewnętrznych (nie mogą zawierać zdań
wzajemnie sprzecznych),
- możliwe weryfikacji za pomocą metod empirycznych, którymi nauka
aktualnie dysponuje61.
Można też określać m o c h i p o t e z y . W znacznym uproszczeniu
wyróżnia się trzy poziomy mocy hipotezy:
1. Słaby - formułuje się hipotezy tzw. egzystencjalne (o istnieniu) typu:
"Istnieje zdarzenie X" bądź "Istnieje związek między X i Y".
2. Średni - orzeka się o warunkach zajścia zdarzenia.
3. Mocny - hipotezy mają postać propozycji twierdzeń jednoznacznych,
precyzyjnych, z podaniem warunków ich spełnienia.
Szczególnego rodzaju hipotezami są tzw. h i p o t e z y s t a t y s t y c z n e
[zob. Roz. 4.6.3.], czyli takie, które dotyczą parametrów (charakterystyk
liczbowych populacji) albo postaci funkcyjnej rozkładu
prawdopodobieństwa dla określonej populacji. Wstępnie formułuje się tzw.
hipotezę zerową o wartości jakiegoś parametru; hipotezę tę traktujemy jako
prawdziwą, dopóki nie uzyskamy informacji statystycznie wystarczających
do tego, aby zmienić nasze stanowisko. Następnie formułuje się tzw.
hipotezę alternatywną, czyli taką, która przypisuje parametrowi wartość
niezgodną z tą, którą przypisuje mu hipoteza zerowa. Hipoteza alternatywna
i zerowa tworzą łącznie parę hipotez dopełniających się, tzn. że
uwzględniają wszystkie możliwe wartości parametru. W efekcie czynności
sprawdzania hipotezy statystycznej przyjmuje się albo odrzuca hipotezę
zerową (tj. hipotezę testowaną).
61
Zob. Sztumski J., Wstęp do metod i technik badań społecznych, 1984, s. 43.
62
P r ó b a (populacja próbna – jednostki, które zostaną poddane badaniom)
to część zbiorowości badanej (populacji generalnej) wybrana w celu
zbadania własności całej zbiorowości.
63
Por. Babiński G., Etapy procesu badawczego [w:] Elementy socjologii, red. Maria Bocheńska-
Seweryn, Katowice 1999, s. 292.
61
- wielkość badanej zbiorowości,
- stopień jednorodności tej zbiorowości,
- oczekiwana dokładność wyników,
- dopuszczalny stopień błędu przy uogólnianiu wyników,
- ilość i charakter zmiennych występujących w badaniach,
- zastosowane metody i techniki badań, sposób analizy i wykorzystania
wyników.
6) W y b ó r m e t o d i t e c h n i k b a d a w c z y c h . Należy odróżniać
t y p b a d a ń , czyli pewien planowy i systematyczny sposób postępowania
(szereg operacji poznawczo-metodycznych) zmierzający do rozwiązania
sytuacji problemowej od metod i technik badawczych. M e t o d a b a d a ń
– to planowy i systematyczny sposób gromadzenia danych empirycznych.
Natomiast t e c h n i k a b a d a w c z a – to skonkretyzowany na gruncie
danej metody lub jej wariantu sposób gromadzenia danych empirycznych;
metoda badawcza z reguły obejmuje wiele technik badawczych 64. Od metod
i technik badawczych należy poza tym jasno odróżniać metody i techniki
analizy danych (ilościowe, jakościowe).
7) P r z y g o t o w a n i e n a r z ę d z i b a d a w c z y c h . Badania
empiryczne prowadzi się przy pomocy narzędzi badawczych, czyli
konkretnych przedmiotów, za pomocą których realizuje się wybraną
technikę badawczą. Zalicza się do nich przede wszystkim wszelkiego
rodzaju kwestionariusze (obserwacji, wywiadu, ankiety), klucze
kategoryzacyjne (np. w analizie dokumentów), instrukcje gromadzenia
danych empirycznych (np. instrukcja dla ankietera, respondenta), testy (np.
osiągnięć szkolnych, sprawnościowe). Do narzędzi badawczych zalicza się
także wszelkie urządzenia techniczne służące do realizacji badań (np.
wszelkiego typu nagrywarki – cyfrowe, analogowe, aparaty fotograficzne).
64
Oczywiście istnieje szereg innych definicji metod i technik badawczych. Mówi się np. o metodzie
wówczas, gdy określamy powtarzalne sposoby rozstrzygania różnych konkretnych zagadnień
związanych z realizacją badań, a o technice wówczas, gdy mamy na myśli zespół czynności
związanych z różnymi sposobami przygotowania i przeprowadzenia badań.
62
sposób realizacji określonych operacji poznawczych ze względu na
założone cele badawcze oraz zespół środków do tego służących. Natomiast
t e c h n i k a b a d a w c z a – to skonkretyzowany na gruncie danej metody
lub jej wariantu, sposób gromadzenia danych empirycznych (jak również
teoretycznych). Metoda badawcza z reguły obejmuje wiele technik
badawczych65. Ponadto, od metod i technik badawczych należy jasno
odróżniać metody i techniki analizy danych (ilościowe, jakościowe). Te
pierwsze służą bowiem do zbierania - pożądanych z punktu widzenia celów
badawczych - danych empirycznych a także teoretycznych, podczas gdy te
drugie stosuje się do analizy już istniejących danych. Badania empiryczne
prowadzi się przy pomocy n a r z ę d z i b a d a w c z y c h , niezbędnych do
realizacji danej techniki badawczej (wszelkiego rodzaju kwestionariusze,
klucze kategoryzacyjne, instrukcje gromadzenia danych empirycznych,
testy oraz urządzenia techniczne wykorzystywane do realizacji badań).
Należy też zwrócić uwagę na trzy cechy charakterystyczne metod i technik
badawczych, determinujące ich poprawność i skuteczność. Są to
następujące cechy: obiektywność, rzetelność i trafność.
1. Obiektywność – wolność od wartościowań oraz kontekstów
językowych i środowiskowych, w obrębie których prowadzi się badania za
pomocą przyjętej metody oraz techniki.
2. Rzetelność – cecha orzekająca o tym, czy badania przeprowadzone w
oparciu o określone metody i techniki badawcze przeprowadzone zostały
zgodnie z proceduralnymi wymogami tych metod oraz technik. W
przypadku badań ilościowych, opartych na pomiarze, pojęcie rzetelności
odnoszone jest do dokładności pomiaru (rzetelność pomiaru) i oznacza ono
względną stałość wyników dla wielokrotnie (co najmniej dwóch)
powtarzanych operacji pomiarowych wobec tego samego obiektu badań. W
literaturze metodologicznej wymienia się najczęściej trzy sposoby ustalania
rzetelności pomiaru: powtarzanie pomiaru, połówkowy oraz wewnętrznej
zgodności66.
(a) Technika powtarzania pomiaru – dwukrotne powtórzenie badania za
pomocą danej techniki badawczej. Im bardziej zbliżone są do siebie
uzyskane wyniki, tym większą przypisuje się rzetelność pomiarowi
dokonanemu za pomocą wybranej techniki badawczej.
(b) Technika połówkowa – przygotowuje się zestaw złożony z podwójnej
(w porównaniu z wersją standardową) ilość pytań lub poleceń; następnie
dzieli się losowo zestaw na dwie równoliczne części uzyskując w ten sposób
dwa warianty użyte do pomiaru. Stopień rzetelności zastosowanej techniki
badawczej oblicza się na podstawie obliczonego współczynnika obu
65
Oczywiście istnieją inne definicje metod i technik badawczych. Mówi się np. o metodzie wówczas,
gdy określamy powtarzalne sposoby rozstrzygania różnych konkretnych zagadnień związanych z
realizacją badań, a o technice wówczas, gdy mamy na myśli zespół czynności związanych z różnymi
sposobami przygotowania i przeprowadzenia badań.
66
Zob. M. Łobocki, Metody badań pedagogicznych, PWN, Warszawa 1984, s. 44.
63
wariantów; im większa zbieżność (korelacja dodatnia) między nimi, tym
większa jest rzetelność zastosowanej techniki badawczej.
(c) Technika wewnętrznej zgodności – określa rzetelność technik
badawczej poprzez jednorazowe jej zastosowanie do pomiaru (podobnie jak
w technice połówkowej) i ocenie zgodności uzyskanych wyników dla
poszczególnych kategorii pytań czy też poleceń.
3. Trafność - w odniesieniu do badań bazujących na pomiarze pojęcie
trafności odnosi się do ściśle określonych aspektów badanego obiektu
(trafność pomiaru) i oznacza ono ilościowe odwzorowanie tego i tylko tego
aspektu badanego obiektu, który – zgodnie z założonym celem – ma być
mierzony. W literaturze metodologicznej można spotkać cztery typy
trafności: treściową, prognostyczną, kongruencyjną oraz teoretyczną67:
(a) Trafność treściowa – adekwatność treści zdań lub pytań,
wchodzących w skład narzędzia pomiarowego, z treścią cech, które
zamierza się badać.
(b) Trafność prognostyczna – określa możliwość przewidywania – na
podstawie pomiaru - z wysokim prawdopodobieństwem, ściśle określonego
sposobu zachowania się badanych osób w najbliższej przyszłości.
(c) Trafność kongruencyjna – wskazuje na dodatnią korelację pomiędzy
wynikami uzyskanymi w następstwie zastosowanego narzędzia badawczego
a wynikami uzyskanymi w oparciu o inne metody i techniki badawcze.
(d) Trafność teoretyczna – określa stopień zgodności pomiędzy
osiągniętymi wynikami a przewidywaniami teorii dotyczącej badanego
obiektu czy też zjawiska społecznego.
67
Tamże, s. 48.
68
Szczególnie popularny jest typ badań zwany sondażem diagnostycznym – polega on na
charakteryzowaniu jakiegoś zjawiska społecznego poprzez określenie jego zasięgu, uwarunkowań,
poziomu, intensywności oraz dokonaniu odpowiedniej oceny, co w efekcie pozwala badaczowi na
zaprojektowanie modyfikacji tego zjawiska stosownie do założonych celów.
64
Sprawdzenie skutków zastosowania
Weryfikujące jakichś rozwiązań oraz odtwarzanie
(indukcyjne, przebiegu jakichś zjawisk. Wiemy, że
sprawozdawcze) istnieje zjawisko, ale nie wiemy jak
przebiega.
Przekrojowe Badanie jednorazowe danej próby i
(transwersalne) wnioskowanie o procesie rozwojowym
CZAS BADAŃ interesującym badacza
Podłużne Badanie danej próby przez względnie
(longitudinalne) długi okres czasu
Półciągłe Badanie danej próby przez pewien czas,
(semilongitudinalne) krótszy jednak niż okres trwania zjawiska
społecznego interesujący badacza
Synchroniczne Jednokrotne wykonanie pomiaru na danej
ILOŚĆ (przekrojowe) próbie
POMIARÓW Wielokrotne (co najmniej dwukrotne)
Diachroniczne wykonanie pomiaru na danej próbie;
badanie trendów; badanie panelowe
SPOSÓB Monograficzne Bada się jednostki w ich naturalnym
PRZEPROWAD (terenowe) kontekście społecznym
ZENIA BADAŃ Laboratoryjne Bada się jednostki analizy tylko w
kontekście zależności pomiędzy
wybranymi zmiennymi
ZAKRES Wyczerpujące Wszystkie interesujące badacza osoby
JEDNOSTEK zostają poddane badaniu
BADANYCH Reprezentacyjne Badacz dobiera w pewien sposób (celowy
bądź losowy) osoby do badania
Ilościowe Oparte na pomiarze; dopuszczają
stosowanie zaawansowanych technik
RODZAJ analizy statystycznej
ZMIENNYCH Bazują głównie na opisie; m.in.:
Jakościowe monograficzne (terenowe, etnograficzne)
- oparte przede wszystkim na tzw.
obserwacji uczestniczącej; studium
przypadku; analiza tekstu. Dopuszczają
stosowanie jedynie prostych technik
analizy statystycznej [zob. Roz. 4.3.1.]
65
W obszernej dwutomowej publikacji Metody badań jakościowych pod
redakcją N.K. Denzin i Y.S. Lincoln czytamy:
69
N.K. Denzin, Y.S. Lincoln (red.), Metody badań jakościowych, t.1, WN PWN, Warszawa 2009, s..
9, 34.
70
D. Silverman, Prowadzenie badań jakościowych, WN PWN, Warszawa 2009, s. 28.
66
Zwykły Wywiad: Swobodny; Pogłębiony,
WYWIAD Kwestionariuszowy
(sondaż) Ankieta nadzorowana: audytoryjna;
Ankietowy (ankieta) indywidualna
Ankieta nienadzorowana (samozwrotna):
pocztowa; prasowa; itp.
Panelowy
Klasyczna J.L. Moreno
SOCJOMETRIA Nieklasyczna Np. porównywanie parami;
plebiscyt życzliwości i niechęci
3.2. Obserwacja
71
Zob. M. Łobocki, Metody i techniki badań pedagogicznych, Impuls, Kraków 2000, s. 60 i nast.
72
Tamże, s. 66.
73
H. Muszyński, Wychowanie moralne w zespole, Warszawa 1964, s. 30; cyt. za: M. Łobocki,
Metody i techniki badań pedagogicznych, Impuls, Kraków 2000, s. 61.
68
- Podpowiada źle, aby inni dostali jeszcze gorsze stopnie;
- Pożycza innym swoje przybory;
- Dzieli się z innymi śniadaniem;
- Odmawia pożyczenia swoich przyborów;
- Pomaga innym w pracy szkolnej.
3.3. Wywiad
69
badawczych). Celem standaryzacji jest uzyskanie jednolitych danych, co
umożliwia stosowanie pomiaru i tym samym dokonywanie różnorodnych
operacji liczbowych na uzyskanym materiale, stosownie do mocy
wykorzystywanej skali pomiarowej. W przypadku wywiadu standaryzacja
polega przede wszystkim na posługiwaniu się precyzyjnie opracowanym
kwestionariuszem zawierającym pytania zamknięte. Należy wszakże
zauważyć, iż pojęcie standaryzacji dotyczy pewnego continuum
rozciągającego się w pewnym dość arbitralnie ustalonym przedziale i stąd
niemożliwe jest ścisłe, dychotomiczne rozdzielenie kwestionariuszy
wystandaryzowanych od niewystandaryzowanych. Standaryzacja bowiem
zawsze stanowi miarę określoną na ustalonym przedziale; wobec tego
słuszniej byłoby mówić raczej o kwestionariuszach o różnych stopniach
standaryzacji.
Techniki standaryzowanego wywiadu zwykłego (wywiad
kwestionariuszowy) i ankietowego służą w naukach społecznych (głównie
w socjologii) do realizowania tzw. b a d a ń s u r v e y o w y c h . Badania te
charakteryzują się następującymi cechami74:
1. Pomiędzy badaczem czy też reprezentującym go ankieterem a
badanym (respondentem) zostaje nawiązany kontakt (bezpośredni lub
pośredni) o stosunkowo krótkim czasie trwania.
2. W czasie tego kontaktu wykorzystuje się wystandaryzowany
kwestionariusz zapewniający tym samym (tj. wskutek standaryzacji)
porównywalność uzyskiwanych od respondentów informacji.
3. Przekazywane przez respondenta informacje o jego postawach,
opiniach czy zachowaniach utożsamiane są z jego rzeczywistymi
postawami, opiniami czy zachowaniami.
4. Badane osoby oraz uzyskiwane od nich informacje traktuje się
wyłącznie jako zbiór danych o charakterze statystycznym, bez prób
różnicowania ich w zależności od kontekstu sytuacyjnego osób badanych.
74
Zob. Z. Gostkowski, O poprawę jakości badań surveyowych [w:] „Studia Socjologiczne”,
Warszawa 1976, nr 3, s. 258.
70
bliższe sprecyzowanie wypowiedzi. Co prawda osoba badająca dysponuje
planem zagadnień, jakie ma poruszyć, ale wskazuje on tylko tematy i
ogólny kierunek.
2. Wywiad pogłębiony – ma za podstawę „ustalony schemat wątków
tematycznych, ale same pytania nie są standaryzowane; o kolejności i
sposobie formułowania pytań decyduje osoba prowadząca wywiad, która
może stawiać także pytania dodatkowe75”. Wywiady pogłębione z reguły
prowadzi się z osobami o szczególnych cechach lub kwalifikacjach.
3. Wywiad kwestionariuszowy – przeprowadza go osoba badająca w
oparciu o wystandaryzowany kwestionariusz, który precyzyjnie określa
treść pytań oraz ich kolejność.
75
R. Mayntz, K. Holm, P. Hubner, Wprowadzenie do metod socjologii empirycznej, PWN, Warszawa
1985, s. 132.
71
zwrotny; prasowe – kwestionariusz zamieszczany jest w prasie do
wypełnienia przez czytelników i wysłanie na adres badacza.
KRYTERIUM PYTANIA
Wprowadzające
O opinie
O fakty
Cel pytań O wiedzę
O źródła informacji
O motywy
O sugestie
Sondujące
Uzupełniające
Obecność partykuły Rozstrzygnięcia
pytajnej „czy” Dopełnienia
Alternatywne
Alternatywne rangowane
Zamknięte
Zakres pytania Ekskluzywne
Dysjunktywne
Koniunktywne rangowane
Otwarte
Połotwarte
Metryczkowe
Funkcje pytania Merytoryczne
Filtrujące
Weryfikujące
1) K r y t e r i u m c e l u p y t a ń 77:
76
Zob. K. Ajdukiewicz, Zdania pytajne [w:] Język i Poznanie, t. II, s. 278; L.A. Gruszczyński,
Kwestionariusze w socjologii. Budowa narzędzi do badań surveyowych, U. Śl., Katowice 1999, s. 23,
71; W.W. Skarbek, Logika dla humanistów, NWP 2010, s. 215.
77
Por. L.A. Gruszczyński, Kwestionariusze w socjologii. Budowa narzędzi do badań surveyowych,
U. Śl., Katowice 1999, s. 23.
73
Pana (i) zdaniem, organizacje pozarządowe mogą przyczynić się do
rozwiązania problemu bezdomności w Polsce?
Pytania o fakty – dotyczą uzyskania informacji o pewnych zjawiskach,
faktach, a nie opinii o nich czy postaw wobec nich. Np. Czy ma Pan (i)
ulubionych aktorów serialowych?
Pytania o wiedzę – dotyczą one głównie badań z zakresu udziału w
kulturze, życiu politycznym itp.
Pytania o źródła informacji - stosuje je się w celu zidentyfikowania
źródeł, z jakich respondenci czerpią wiedzę na pewien temat. Konstruując
takie pytanie, badacz decyduje się na zaufanie pamięci respondenta. Np. Z
jakich źródeł czerpie Pan (i) informacje o katastrofie samolotu
prezydenckiego pod Smoleńskiem?
Pytania o motywy – ich zamiarem jest ujawnienie subiektywnie
odczuwalnych pobudek do wykonywania tych czy innych zajęć,
podejmowania działań czy wyrażonych sądów. Np. Co zdecydowało o
podjęciu przez Pana (Panią) pracy w zakładzie X?
Pytania o sugestie – zadaje się je wówczas, gdy badacz chce rozpoznać
pewne formułowane przez respondenta zalecenia, dotyczące rozwiązywania
pewnych problemów. Zakłada się, że respondent jest kompetentny w danej
dziedzinie i na tej podstawie może wypowiadać się o pożądanych
działaniach. Np. Proszę wskazać konkretną decyzję, która Pana (i) zdaniem,
pozwoliłaby rozwiązać problem X.
Pytania sondujące – ich zadaniem jest nakłonienie badanych osób do
udzielenia odpowiedzi istotnej wtedy, gdy od ich sformułowania się
uchylają, lub są one zbyt lakoniczne. Np. Czy mógłby Pani (i) rozszerzyć
swoją odpowiedź?
Pytania uzupełniające – ich celem jest uzyskanie od rozmówcy jakichś
dodatkowych informacji przydatnych do interpretowania poprzednio
udzielanych odpowiedzi. Np. Co chciał Pan przez to powiedzieć?
2) K r y t e r i u m o b e c n o ś c i p a r t y k u ł y p y t a j n e j „ c z y ” :
4) K r y t e r i u m f u n k c j i :
75
zdaniem - koledzy z roku oceniają danego wykładowcę pozytywnie czy
raczej negatywnie).
Pytania filtrujące – stosuje się je wówczas, gdy badacz jest
zainteresowany analizą pewnych problemów dotyczących tylko wybranego
segmentu respondentów. Odpowiedź na pytanie filtrujące rozstrzyga o tym,
kogo dotyczą kolejne pytania kwestionariusza. Np. 1. Czy pracuje Pan (i)
zawodowo? a) Tak, b) Nie. 2. Jeżeli tak, to prosimy określić rodzaj pracy,
jaką Pan (i) wykonuje.
Pytania weryfikujące – spełniają szczególną rolę polegającą na analizie
prawdomówności respondentów. Przy ich pomocy weryfikuje się
odpowiedzi na pytania zamieszczone wcześniej. Pytania weryfikujące
należy konstruować tak, aby pozwalały na przeprowadzenie analizy
wewnętrznej spójności z pytaniami wcześniejszymi; brak takiej spójności
może sugerować jakieś zafałszowania ze strony respondentów. Czyni to się
na ogół w ten sposób, iż stawia się pytania zbieżne merytorycznie z innymi,
lecz odmienne pod względem formy.
3.4. Socjometria
78
Por. J. Sztumski, Wstęp do metod i technik badań społecznych, PWN, Warszawa 1984, s. 106.
76
3. Identyfikowania osób w różnych kategoriach, które tworzą podgrupy
(tzw. kliki) w obrębie małej zbiorowości społecznej.
4 Zbierania danych służących do mierzenia takich czynników jak:
stopień wpływu jednych osób na inne, zmiany w sytuacji osób pod
wpływem różnych czynników wewnętrznych (np. zwiększenia się stopnia
integracji grupy) bądź zewnętrznych (np. zagrożenia ze strony osób spoza
grupy).
Głównym narzędziem socjometrii jest tzw. t e s t s o c j o m e t r y c z n y
który w swej podstawowej postaci przyjmuje formę nastawioną na pomiar
wyborów pozytywnych – osobom badanym poleca się wybierać spośród
członków grupy te osoby, z którymi chciałyby mieć do czynienia bądź na
pomiar wyborów negatywnych - osoby badane wybierają tych członków
spośród grupy, wobec których chciałyby zachować jakiś dystans.
Problem konstruowania testu socjometrycznego sprowadza się w
zasadzie do właściwego dobrania typu kryterium socjometrycznego oraz
ilości owych kryteriów. Przez k r y t e r i u m s o c j o m e t r y c z n e
rozumie się ogólnie mówiąc taką sytuację społeczną, której po pierwsze –
uczestniczą wszyscy członkowie małej grupy społecznej i po drugie –
zadaniem każdej z badanych osób musi być jedno lub kilkuelementowy
wybór pozytywny bądź negatywny spośród wszystkich członków danej
grupy.
Istotnym składnikiem metody socjometrycznej jest wykorzystanie
specjalnej formy graficznej, tzw. diagramów
s o c j o m e t r y c z n y c h (socjogramów - nieuporządkowany, kołowy,
hierarchiczny), ułatwiających wgląd w strukturę społeczną badanych grup.
Należy jednak pamiętać, iż socjogram przedstawia jedynie tendencję do
nawiązywania określonych kontaktów pomiędzy członkami grupy
społecznej, a nie prawdziwy obraz struktury tejże grupy. Jeżeli np. osoba X
najchętniej przebywałaby w towarzystwie osoby Y, to wcale nie znaczy, że
de facto z nią przebywa, gdyż może stać temu na przeszkodzie wiele
rozmaitych czynników. Ponadto socjogram odzwierciedla dość wąski,
statyczny wycinek rzeczywistości społecznej, a przecież układ stosunków
wzajemnych pomiędzy członkami grupy to dynamiczny proces społeczny,
stanowiący wypadkową wielu zmiennych.
Po dokonaniu graficznego uporządkowania wyników testu
socjometrycznego materiał socjometryczny poddaje się analizie ilościowej.
Najczęściej oblicza się następujące liczbowe wskaźniki socjometryczne79:
79
Zob. R. Mayntz, K. Holm, P. Hubner, Wprowadzenie do metod socjologii empirycznej, PWN,
Warszawa1985, s. 163 i nast. J. Sztumski, Wstęp do metod i technik badań społecznych, PWN,
Warszawa 1984, s. 108 i nast.
77
popularności jednostki w obrębie grupy. Im wskaźnik wyraża się wyższą
liczbę absolutną przypisaną do konkretnej cechy danej osoby, tym wyższą
pozycję w grupie zajmuje ta osoba ze względu na tę cechę.
78
dopuszczal na liczba wyborów
gdzie: p ; q = 1 – p.
liczba czlonków grupy - 1
1
liczba osób izolowanyc h
1) O b s e r w a c j a s t a t y s t y c z n a – zbieranie informacji o
jednostkach badanej populacji generalnej; krótko: jednostek badania
(jednostek statystycznych), [a więc tego, co stanowi przedmiot
zainteresowania badacza. Jednostkami badania w przypadku socjologa czy
pedagoga będą na ogół osoby (np. nauczyciel, uczniowie) bądź zjawiska
społeczne (np. zachowania dewiacyjne). Przynależność do zbioru np.
uczniów jest cechą stałą – tzn. taką, która umożliwia jednoznaczne
zakwalifikowanie danej osoby do badanej populacji. Badacza interesują
jednak głównie cechy zmienne, tzn. takie, którymi dane osoby różnią się
między sobą, np. cechy osobowościowe, ponieważ tylko wówczas badanie
może mieć istotną wartość poznawczą. Obserwacja statystyczna
uzależniona jest od następujących czynników: celu, przedmiotu, zakresu i
metody badania. Cel badania – określenie sytuacji problemowej, która ma
być rozwiązana w rezultacie przeprowadzonego badania statystycznego.
Przedmiot badania – określenie zbiorowości statystycznej oraz jednostki
statystycznej. Zakres badania – wybór cech statycznych, które będą
podlegały obserwacji statycznej. Metoda badania – głównie chodzi o
decyzję dotyczącą tego, czy ma być przeprowadzone badanie pełne czy też
częściowe (zwłaszcza reprezentacyjne bądź monograficzne). W przypadku
badań częściowych reprezentacyjnych należy rozstrzygnąć kwestię sposobu
doboru jednostek do próby statystycznej. Należy dokonać wyboru spośród
wszystkich jednostek badania tych, które będą poddawane obserwacji
statystycznej, tj. wybór populacji próbnej (krótko: próby). W grę może
wchodzić dobór celowy bądź probabilistyczny [zob. 4.6.1.].
2) O p r a c o w a n i e m a t e r i a ł u s t a t y s t y c z n e g o - materiał
statystyczny otrzymany w wyniku obserwacji statystycznej jest
nieuporządkowanym zbiorem danych o poszczególnych jednostkach
badania. Z uwagi na to, że zawiera informacje właśnie o poszczególnych
jednostkach, nie nadaje się w takiej postaci do analizy. Materiał ten musi
zostać uporządkowany w taki sposób, aby zawierał syntetyczne informacje
o całym zbiorze (zbiorowości) poddanym obserwacji (populacji generalnej
bądź próbnej). Uporządkowanie materiału statystycznego obejmuje:
grupowanie statystyczne – podział zbioru na podzbiory, składające się z
jednorodnych, ze względu na przyjęte kryterium (warianty cechy
80
statystycznej; np. grupowanie ludności wg wykształcenia), jednostek oraz
zliczanie materiału statycznego – ustalanie liczebności poszczególnych
podzbiorów, co pozwala stwierdzić, ile jednostek przypada na określone
warianty cech statystycznych.
3) P r e z e n t a c j a m a t e r i a ł u s t a t y s t y c z n e g o – ma na celu
umożliwienie w sposób syntetyczny zapoznanie się z podstawowymi
własnościami badanej populacji. Jeżeli liczba danych jest stosunkowo mała
stosuje się opisową prezentację, która polega na tym, że uzyskane dane
włącza się do tekstu opisującego prezentowaną obserwację statystyczną.
Podstawowym narzędziem prezentacji są jednak szeregi statystyczne, które
można prezentować graficznie w postaci tablic bądź różnych wykresów.
5) W n i o s k o w a n i e s t a t y s t y c z n e – teoria matematyczna
złożona z dwóch części: teorii estymacji – wnioskowanie o postaci rozkładu
populacji generalnej (tzn. o wartości parametrów rozkładu lub jego postaci
funkcyjnej) na podstawie obserwacji uzyskanych w próbie losowej i teorii
weryfikacji hipotez formułowanych na podstawie obserwacji z próby bądź o
kształcie zmiennej losowej (hipoteza nieparametryczna) bądź o nieznanym
parametrze populacji (hipoteza parametryczna).
Dość popularny jest podział statystyki na statystykę opisową i statystykę
indukcyjną (matematyczną). Ta pierwsza określa prawidłowości w
zbiorowości statystycznej poprzez badanie jej struktury (m.in. rozkład
częstości) oraz obliczanie miar, zwanych parametrami statystycznymi.
Druga natomiast stara się wnioskować na podstawie prawidłowości
zaobserwowanych w próbie dobranej losowo o prawidłowościach
występujących w populacji generalnej; innymi słowy, stara się
odpowiedzieć na pytanie, czy ustalenia poczynione w odniesieniu do próby
losowej różnią się w sposób istotny czy tylko przypadkowy w stosunku do
tych, które mają miejsce w populacji generalnej. W sensie czysto
teoretycznym ważna jest tutaj, rzecz jasna, sama procedura postępowania
81
indukcyjnego, a nie konkretne ustalenia poczynione na próbie. Podstawą
teoretyczną wnioskowania statystycznego są metody oferowane przez
rachunek prawdopodobieństwa (probabilistykę).
k
n! Vn n k
Vn
k
(n k )!
W a r i a c j ą z p o w t ó r z e n i a m i z n elementów po k nazywamy
uporządkowany zbiór składający się z k elementów różnych lub nie
różniących się między sobą, wybranych spośród n różnych elementów.
Innymi słowy, każdy k-elementowy ciąg (zbiór) o wyrazach należących do
n-elementowego zbioru nazywamy k-elementową wariacją z powtórzeniami
n-elementowego zbioru. Albo jeszcze inaczej – liczba k-wyrazowych
ciągów, jakie można utworzyć z n-elementów danego zbioru. W wariacji z
powtórzeniami:
1. Podana jest liczba n elementów danego zbioru.
2. Ze zbioru o n elementach wybieramy k razy (podana jest liczba k
elementów do wyboru).
3. Kolejność (wyboru) elementów jest istotna; ustawia się elementy w
takiej kolejności, w jakiej zostały wylosowane.
4. Niektóre elementy zbioru mogą, ale nie muszą występować
wielokrotnie, tj. powtarzać się.
5. Po każdym wyborze zwracamy element do zbioru (kolejny wybór
dotyczy wszystkich elementów zbioru).
n
.., nk n!
Pn = n! = V n Pn n
n
,
1 2
,.
n1!, n2 !,..., nk !
n1!, n2 !,..., nk !
= P 4
=
2!2! 1 2 1 2 4
n n! k n k 1 n k 1
C C
k k!(n k )! n 1 k
n
n n! 3! 1 2 3 6
C = 3.
k k!(n k )! 2!(3 2)! 1 2 1 2
k 5 n k 1 8 n! 8!
C C = = = = 56.
k 5 k!(n k )! 5!3!
n 4
1) A l g e b r a z d a r z e ń .
(a) Zdarzenie A jest pewne, jeśli A = ; zdarzeniem pewnym jest cała
przestrzeń zdarzeń elementarnych. Występuje zatem przy każdym
powtórzeniu doświadczenia losowego w określonych warunkach.
(b) Zdarzenie A jest niemożliwe, jeśli A = ; zdarzeniem niemożliwym
jest podzbiór pusty przestrzeni zdarzeń elementarnych .
(c) Zdarzeniem dopełniającym (przeciwnym) do zdarzenia A nazywamy
zdarzenie B składające się z tych wszystkich zdarzeń elementarnych, które
nie są zdarzeniem A; zdarzenie B zachodzi dokładnie wtedy, gdy nie
zachodzi zdarzenie A.
(d) Alternatywą (sumą) zdarzeń A, B nazywamy zdarzenie (A B),
które zachodzi wtedy i tylko wtedy, gdy zachodzi jedno z wymienionych
zdarzeń lub też gdy obydwa zdarzenia A, B zachodzą równocześnie.
Ogólnie: sumą dowolnej liczby zdarzeń Ai (i = 1, 2, …, n) nazywamy
n
zdarzenie Ai
i 1
= A, które zachodzi wtedy, gdy zachodzi przynajmniej
jedno ze zdarzeń Ai.
(e) Koniunkcją (iloczynem) dwóch zdarzeń A, B nazywamy zdarzenie (A
B) polegające na tym, że pojawi się zarówno A jak i B. Ogólnie:
iloczynem dowolnej liczby zdarzeń Ai (i = 1, 2, …, n) nazywamy zdarzenie
n
Ai
i 1
= A, które zachodzi wtedy, gdy zachodzą jednocześnie wszystkie
zdarzenia Ai.
(f) Różnicą zdarzeń (A – B) nazywamy zdarzenie polegające na tym, że
zdarzenie A zachodzi, ale zdarzenie B nie zachodzi.
2) R e l a c j e m i ę d z y z d a r z e n i a m i .
(a) Inkluzja (zawieranie się zdarzeń): zdarzenie A zawiera się (jest
częścią) w zdarzeniu B (A B) wtedy i tylko wtedy, gdy każde zdarzenie
elementarne należące do A należy również do B; ilekroć zachodzi zdarzenie
A, zachodzi też zdarzenie B.
(b) Równość zdarzeń: zdarzenie A jest równe zdarzeniu B (A = B) wtedy
i tylko wtedy, gdy zdarzenie A zawiera się w zdarzeniu B i na odwrót –
zdarzenie B zawiera się w zdarzeniu A (A B B A).
87
(c) Rozłączność (wykluczanie się) zdarzeń: zdarzenie A jest rozłączne ze
zdarzeniem B, jeżeli pojawienie się jednego czyni niemożliwym pojawienie
się drugiego; iloczyn zdarzeń A i B jest pusty (A B = ). Ściślej tego typu
rozłączność nazwać należy rozłącznością (wykluczaniem) wzajemną, co
stanowi szczególnego rodzaju współzależność.
(d) Przez zdarzenia niezależne A i B rozumieć będziemy intuicyjnie
takie, że spośród tych dwóch zdarzeń żadne nie ma wpływu w jakiś sposób
na drugie ani nie są one ze sobą powiązane w taki czy inny sposób.
3) K l a s y c z n e k o n c e p c j e p r a w d o p o d o b i e ń s t w a .
m
P(A) = .
88
m
mr m
P(A) =
mr
m'
P(A) = lim
90
sformułowana przez A. Kołmogorowa82. Aksjomaty matematyczne są
podstawowymi niedowodzonymi założeniami, na których opiera się teoria
matematyczna.
Aksjomat 1. Każdemu zdarzeniu A przyporządkowuje się liczbę P(A)
taką, że 0 P(A) 1. Liczbę P(A) nazywamy prawdopodobieństwem
zdarzenia A.
Aksjomat 2. Prawdopodobieństwo zdarzenia pewnego równa się 1.
Aksjomat 3. Prawdopodobieństwo sumy wzajemnie wykluczających się
(parami rozłącznych) zdarzeń losowych jest równe sumie
prawdopodobieństw tych zdarzeń (prawo dodawania prawdopodobieństw):
P(A1 A2 … An) = P(A1) + P(A2) + … + P(An).
P () = 0
P(A) = 1 – P(A)
82
Zob. L.T. Kubik, Rachunek prawdopodobieństwa. Podręcznik dla kierunków nauczycielskich
studiów matematycznych, PWN, Warszawa 1981, s. 36 i nast.
91
4. Prawdopodobieństwo warunkowe – niech A i B będą dowolnymi
zdarzeniami. Prawdopodobieństwo warunkowe P(AB) (P od A pod
warunkiem B) jest to prawdopodobieństwo wystąpienia zdarzenia A wtedy,
gdy wiadomo, że wystąpiło już zdarzenie B. Zachodzi następujący wzór:
P( A B)
P(AB) =
P( B)
gdzie P(B) 0. Warunek B podaje, czy jego zaistnienie wpływa na zmianę
szansy zajścia zdarzenia A. Innymi słowy, określa, jaką część zdarzeń
elementarnych sprzyjających zdarzeniu B stanowią zdarzenia elementarne
sprzyjające zdarzeniu A B. Jeżeli zaś zdarzenia A i B są niezależne, to
zachodzi: P(AB) = P(A).
Przykład 4.9. Przy dwukrotnym rzucie kostką zdarzenie A = {(1,1), (2,2), (3,3),
6
(4,4), (5,5), (6,6)} mamy prawdopodobieństwo . Nastąpiło zdarzenie B – „suma
36
oczek w dwukrotnym rzucie kostką wynosi 4”. Chcemy obliczyć
prawdopodobieństwo A pod warunkiem zaistnienia B. Mamy: P(B) = P(2,2) +
3 1
P(1,3) + P(3,1)) = . Iloczyn zdarzeń A i B: P(A B) = P (2,2) = .
36 36
Stosujemy teraz wzór na prawdopodobieństwo warunkowe:
1
P(2,2) 1
P(AB) = = 36 .
P( B) 3 3
36
92
5) P r a w d o p o d o b i e ń s t w o c a ł k o w i t e . Przypuśćmy, że mamy
n wzajemnie wykluczających się (parami rozłącznych) zdarzeń losowych:
H1, H2, …, Hn, zawartych w przestrzeni zdarzeń elementarnych . Niech
n
suma tych zdarzeń będzie zdarzeniem pewnym: P( H ) 1 .
i 1
i Wtedy
P( H ) x P(AHi)
i 1
i
P( A H i ) P( H i )
P(HiA) =
P( A H1 ) P( H1 ) ... P( A H n ) P( H n )
n
Pn(k) = p k q nk
k
83
D. Stempell, Rachunek prawdopodobieństwa w ujęciu programowanym, WN-T, Warszawa 1975,
s. 67.
94
Przykład 4.12. Rzucamy 6 razy kostką do gry (n = 6). Chcemy wiedzieć, jakie
jest prawdopodobieństwo, że szóstka wypadnie 3 razy (k = 3). Mamy tutaj do
czynienia ze schematem n = 6 prób Bernoulliego. Prawdopodobieństwo sukcesu,
1
czyli wyrzucenia szóstki wynosi p = , zaś prawdopodobieństwo porażki wynosi
6
5
q = . A zatem w kolejnych przypadkach mamy następujące
6
prawdopodobieństwa:
n 6 1 5
3 3
125
Pn(k) = p k q n k = P6(3) = = 20 0,0536.
k 3 6 6 46656
95
mierzalne dzielą się na skokowe (dyskretne) i ciągłe84. Należy wszakże
zauważyć, iż podział na zmienne skokowe i ciągłe nastręcza często wiele
trudności. Zmienność skokowa o bardzo dużej liczbie możliwych wariantów
zbliżona jest bowiem swym charakterem do zmienności ciągłej. Z tego też
powodu nadaje się jej czasami nazwę zmiennej quasi-ciągłej.
stałe niemierzalne
skokowe
84
Zob. J. Brzeziński, Elementy metodologii badań psychologicznych, PWN, Warszawa 1980, s. 22.
96
Zgodnie z ustaloną tradycją przyjmujemy, że zbiór wartości zmiennej
przyjmuje postać jednej spośród czterech skal wyróżnionych w 1951 r.
przez S.S. Stevensa: nominalnej, porządkowej, interwałowej oraz
stosunkowej. Przy czym zmienne określane na skali nominalnej i
porządkowej określa się mianem z m i e n n y c h j a k o ś c i o w y c h , a na
skalach: interwałowej oraz ilorazowej – jako z m i e n n e i l o ś c i o w e .
85
M. Sobczyk, Statystyka, PWN, Warszawa 1988, s. 84.
99
oddziałują także inne zmienne niezależne (poza badanymi) tzw. zmienne
zakłócające (interweniujące), które mogą być kontrolowane bądź nie.
Z m i e n n a z a l e ż n a – ta, która stanowi przedmiot badania i badacz
dokonuje jej pomiaru. Wartość zmiennej zależnej zależy od wartości
zmiennej niezależnej; w ujęciu matematycznym określa się ją jako funkcję
zmiennej niezależnej.
100
Tabela 4.1. Klasyfikacja szeregów statystycznych.
86
A. Komosa, J. Musiałkiewicz, Statystyka, Ekonomik 1996, s. 57.
101
(a) Poziom Liczba (b) Ocena z logiki Liczba studentów
wykształcenia pracowników
podstawowe 4 bdb 4
średnie 6 db 5
wyższe 8 dst 6
podyplomowe 2 ndst 5
Ogółem 20 Ogółem 20
1) C h a r a k t e r y s t y k a r o z k ł a d u c e c h y n i e m i e r z a l n e j
(jakościowej). Kolejnym krokiem w analizie zbiorowości statystycznej jest
zastosowanie w odniesieniu do szeregów statystycznych z cechą
niemierzalną (jakościową) pewnych parametrów (charakterystyk
liczbowych), które pozwolą na liczbowe określenie właściwości rozkładu87.
Należy do nich głównie proporcja oraz wskaźnik natężenia.
87
Zob. L. A. Gruszczyński, Elementy statystyki dla socjologów, U.Śl., Katowice 1986, s. 31 i nast.
102
2) C h a r a k t e r y s t y k a r o z k ł a d u c e c h y m i e r z a l n e j
(ilościowej). Z uwagi na to, że cechy ilościowe opisane są w skali
interwałowej lub ilorazowej, analiza rozkładu takiej cechy jest o wiele
bardziej bogata i precyzyjna aniżeli analiza rozkładu cechy jakościowej.
Uzależniona ona jest od typu rozkładu empirycznego, który wyznaczony
jest przez ilość maksimów, stopień asymetrii oraz stopień koncentracji.
Przykłady zaprezentowane zostały w Tabeli 4.3. Typ rozkładu
empirycznego wpływa na stosowanie konkretnych charakterystyk
liczbowych - parametrów opisowych rozkładu empirycznego, do których
zalicza się następujące miary: 1. tendencji centralnej (średnie, położenia); 2.
dyspersji (rozproszenia, zróżnicowania); 3. asymetrii (skośności) oraz 4.
koncentracji.
103
Tabela 4.3. Przykłady podstawowych typów rozkładu empirycznego.
104
1. I l o ś ć m a k s i m ó w : rozkład jednomodalny – cechuje się jednym
maksimum (szczytem na wykresie) ; rozkład bimodalny - posiada dwa
maksima; rozkład wielomodalny - posiada więcej niż dwa maksima.
2. S t o p i e ń a s y m e t r i i : rozkład symetryczny - występujące w nim
liczebności są rozłożone proporcjonalnie po obu stronach średniej
arytmetycznej (np. rozkładem symetrycznym o jednym maksimum jest tzw.
rozkład normalny); rozkład asymetryczny lewostronny – prostopadła do osi
odciętych poprowadzona z punktu maksimum krzywej liczebności znajduje
się po lewej stronie tego punktu; rozkład asymetryczny prawostronny -
prostopadła znajduje się po prawej stronie punktu maksimum liczebności.
3. S t o p i e ń k o n c e n t r a c j i : rozkład leptokurtyczny (wysmukły) –
cechuje go wysoka koncentracja wokół średniej; rozkład platokurtyczny
(spłaszczony) – mała koncentracja wartości poszczególnych wartości
jednostek wokół średniej.
F u n k c j a r o z k ł a d u m a s y p r a w d o p o d o b i e ń s t w a P(x) –
funkcja (prezentowana wzorem, wykresem, tablicą) przyporządkowująca
prawdopodobieństwa do każdej możliwej wartości zmiennej X: (x1, x2, …,
xn) = P(x). Innymi słowy – jest to funkcja określająca zależność pomiędzy
daną wartością zmiennej losowej skokowej a prawdopodobieństwem jej
realizacji: P(xi) = P(X = xi), gdzie zapis P(X = xi) oznacza, że zmienna
losowa X przyjęła pewną wartość x.
F u n k c j a g ę s t o ś c i p r a w d o p o d o b i e ń s t w a f(x) – funkcja
przedziałami ciągła określająca średnią ilość prawdopodobieństw
przypadających na jednostkę długości przedziału, przy założeniu, że
długość tego przedziału dąży do zera (przedziałowy rozkład
prawdopodobieństwa zdarzenia losowego):
P( x1 X x2 )
f(x) = lim , gdzie x = x2 – x1
x 0 x
105
Rozkład zmiennej losowej, zarówno ze zmiennością skokową jak i ciągłą
(dyskretną), można również przedstawić za pomocą tzw. dystrybuanty
(odpowiednik szeregu kumulacyjnego; zob. Tabela 4.2. d) – funkcji wyrażającej
prawdopodobieństwo, iż zmienna losowa X przyjmie wartość mniejszą od
określonej liczby x. Ściślej: dla zmiennej losowej skokowej zaobserwowana
wartość nie przekroczy liczby xi, a dla zmiennej losowej ciągłej -
zaobserwowana wartość jest mniejsza od liczby x. Ponadto, znając funkcję
rozkładu zawsze można znaleźć dystrybuantę, i na odwrót – znając
dystrybuantę można wyznaczyć odpowiednio: funkcję rozkładu masy
prawdopodobieństwa dla zmiennej losowej skokowej i funkcję gęstości
prawdopodobieństwa dla zmiennej losowej ciągłej.
D y s t r y b u a n t a z m i e n n e j l o s o w e j c i ą g ł e j F(x) - funkcja
określona wzorem:
x
F(x) = P(X < x) = f (x) dx
x2
106
Przykład 4.15. Chcemy określić funkcję rozkładu masy prawdopodobieństwa
dla zmiennej losowej skokowej X, jaką jest „liczba ogłoszeń w Gazecie Lokalnej”.
Zmienna X jest zmienną skokową, ponieważ liczba ogłoszeń musi się wyrazić
pewną liczbą naturalną 0, 1, 2, 3, …, . Przypuśćmy, że mamy 6 wartości zmiennej
X oraz pewne odpowiadające im prawdopodobieństwa P(x):
x P(x)
0 0,1
1 0,2
2 0,3
3 0.2
4 0,1
5 0,1
6 1,0
Przykład 4.16. Chcemy określić dystrybuantę dla rzutu jedną kostką88. W tym
przypadku przyporządkowujemy zmiennej losowej skokowej X wyrzucone liczby
oczek (wartości): 1, 2, 3, 4, 5, 6. Następnie poszczególnym wartościom zmiennej X
przyporządkowujemy odpowiednie prawdopodobieństwa:
Dla x 0 nie istnieje żadna wartość rozważanej zmiennej losowej X, która
mogłaby pojawić się z prawdopodobieństwem > 0. Wobec tego F(x) = (X < 0) = 0.
Dla x 1 również nie istnieje wartość zmiennej X z prawdopodobieństwem > 0.
A zatem F(x) = P(X < 1) = 0.
1
Dla 1 < x 2 mamy F(x) = P(X < 2) = , ponieważ można zaobserwować
6
1
wartość X = 1 z prawdopodobieństwem właśnie .
6
2 1
Dla 2 < x 3 mamy F(x) = P(X < 3) = = , co wynika z prawa dodawania
6 3
1 1
prawdopodobieństw, gdyż P(X = 1) = oraz P(X = 2) = .
6 6
88
Zob. D. Stempell, Rachunek prawdopodobieństwa w ujęciu programowanym, WN-T, Warszawa
1975, s. 70.
107
3
Dla 3 < x 4: F(x) = P(X < 4) = .
6
4
Dla 4 < x 5: F(x) = P(X < 5) = .
6
5
Dla 5 < x 6: F(x) = P(X < 6) = .
6
6
Dla x > 6: F(x) = P(X 6) = = 1.
6
Wyniki - zaprezentowane graficznie- znajdują się na poniższym rysunku [Rys.
4.2.]:
Rys. 4.2. Dystrybuanta F(x) zmiennej losowej skokowej X dla rzutu jedną
kostką.
parametr Wartość
zmienna oczekiwana Wariancja
n n
Zmienna losowa EX = xi pi
i 1
D2X = ( x EX )
i 1
i
2
pi
skokowa
D2X =
Zmienna losowa EX = xf ( x)dx
( x EX )
2
ciągła f ( x)dx
Odchylenie standardowe
n
= ( x EX )
i 1
i
2
pi
= ( x EX )
2
f ( x)dx
109
1
[(1 3,5) 2 (2 3,5) 2 (3 3,5) 2 (4 3,5) 2 (5 3,5) 2 (6 3,5) 2 ] =
6
1,71.
1) R o z k ł a d y zmiennej losowej s k o k o w e j . Do
ważniejszych należą: dwumianowy, Poissona. Szczególnie ważny jest
rozkład dwumianowy zmiennej losowej skokowej (ściślej – zero-
jedynkowy). Wzór opisujący ten rozkład jest taki sam jak wzór na schemat
Bernoulliego [zob. Roz. 4.2.2.] modelujący tzw. doświadczenia (próby)
Bernoulliego. Dzieje się tak z tego powodu, iż warunkiem uzyskania
rozkładu dwumianowego jest właśnie przeprowadzenie doświadczeń
Bernoulliego, tj. ciągów identycznych doświadczeń spełniających trzy
następujące warunki:
1. Wykonujemy doświadczenie, w którym możliwe są tylko dwa wyniki,
nazywane sukcesem i porażką; wyniki te są rozłączne i dopełniające.
2. Prawdopodobieństwo sukcesu, oznaczane przez p, przez cały ciąg
doświadczeń pozostaje takie samo. Prawdopodobieństwo porażki,
oznaczane przez q, równe jest 1 – p.
3. Wszystkie doświadczenia są od siebie niezależne; wynik
poszczególnych doświadczeń nie wpływa więc na wyniki innych
doświadczeń.
2) R o z k ł a d y z m i e n n e j l o s o w e j c i ą g ł e j . Do ważniejszych
należą: normalny, t-studenta, Chi-kwadrat (2), F-Snedecora, wykładniczy.
Rozkłady: t-studenta89 oraz chi-kwadrat charakteryzują się parametrem
zwanym l i c z b ą s t o p n i s w o b o d y df (degree of freedom), czyli
liczbą wartości zmiennej, które mogą się swobodnie zmieniać. Pojęcie
stopni swobody ma interpretację geometryczną. Mianowicie punkt na linii
ma swobodę przesuwania się tylko w jednym wymiarze i ma tym samym
jeden stopień swobody. Punkt na płaszczyźnie ma swobodę przesuwania się
w dwóch wymiarach – ma więc dwa stopnie swobody. Punkt w przestrzeni
trójwymiarowej ma trzy stopnie swobody. Analogicznie punkt w przestrzeni
k-wymiarowej ma k stopni swobody, tzn. posiada swobodę przesuwania się
w k wymiarach. Ogólnie mówiąc, liczba stopni swobody jest zawsze liczbą
wartości, które mogą się swobodnie zmieniać przy ograniczeniach
nałożonych na dane.
89
W.S. Gosset był badaczem zatrudnionym w browarze Guinessa w Dublinie. W 1908 r. odkrył on
Z
rozkład zmiennej losowej określony równaniem df , gdzie Z – zmienna losowa
Χ2
standaryzowana, czyli mająca standardowy rozkład normalny N(0,1), X – zmienna losowa o
rozkładzie chi-kwadrat, df – stopnie swobody, i nazwał go rozkładem t. Wszakże browar Guinessa nie
pozwalał swoim pracownikom publikować pod ich własnymi nazwiskami, dlatego też W.S. Gosset
opublikował charakterystykę odkrytego przez siebie rozkładu pod pseudonimem „Student”:
110
W rozkładzie t-studenta każdej wartości całkowitej df = 1, 2, 3, …
odpowiada inny rozkład t; przypomina on standaryzowany rozkład
normalny [zob. Tabela 4.5.], z tym, że jest bardziej płaski od normalnego. Z
kolei rozkład chi-kwadrat jest rozkładem prawdopodobieństwa sumy
kwadratów niezależnych zmiennych losowych o standardowym rozkładzie
normalnym. A zatem jako suma kwadratów nie może przyjmować wartości
ujemnych, co powoduje, że rozkład ten jest prawostronnie skośny. W
przeciwieństwie do rozkładu t-studenta nie jest więc symetryczny.
( x m)2
1 2 2
f(x) = e
2
90
A. Quetelet, Układ społeczny i jego prawa, Warszawa 1984, s. 15.
112
Źródło: M. Sobczyk, Statystyka, PWN, Warszawa1998, s. 102.
x ( x m )2
1 2
2 x1
2 2
P(x1 < X < x2) = e dx
113
przyjmuje zmienna normalna standaryzowana - zostały stablicowane (w
wersji funkcji gęstości bądź częściej – dystrybuanty rozkładu normalnego
standaryzowanego). S t a n d a r y z o w a n a n o r m a l n a z m i e n n a
l o s o w a Z o wartościach z1, z2, …, zn – to normalna zmienna losowa Z =
xm
, gdzie wartość oczekiwana m = 0 oraz odchylenie standardowe = 1
[krótko: Z = N (0, 1)].
114
Tabela 4.5. Rozkład normalny standaryzowany.
z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0000 0040 0080 0120 0159 0199 0239 0279 0319 0359
0,1 0398 0438 0478 0517 0557 0596 0636 0675 0714 0753
0,2 0793 0832 0871 0910 0948 0987 1026 1064 1103 1141
0,3 1179 1217 1255 1293 1331 1368 1406 1443 1480 1517
0.4 1554 1591 1628 1664 1700 1736 1808 1844 1879
0,5 1915 1950 1985 2019 2054 2088 2123 2157 2190 2224
0,6 2257 2291 2324 2357 2389 2422 2454 2487 2518 2459
0,7 2580 2612 2642 2673 2704 2734 2764 2794 2823 2852
0,8 2881 2910 2339 2967 2995 3023 3051 3078 3106 3133
0,9 3159 3186 3212 3238 3264 3289 3315 3340 3365 3389
1,0 3413 3438 3461 3485 3508 3531 3554 3577 3599 3621
1,1 3643 3665 3686 3718 3729 3749 3770 3790 3810 3830
1,2 3849 3869 3888 3907 3925 3944 3962 3980 3997 4015
1,3 4032 4049 4066 4083 4099 4115 4131 4147 4162 4177
1,4 4192 4207 4222 4236 4251 4265 4279 4292 4306 4319
1,5 4332 4345 4357 4370 4382 4394 4406 4418 4430 4441
1,6 4452 4463 4474 4485 4485 4505 4515 4525 4535 4545
1,7 4554 4564 4573 4582 4591 4599 4608 4616 4625 4633
1,8 4641 4649 4656 4664 4671 4678 4696 4693 4699 4706
1,9 4713 4719 4726 4732 4738 4744 4750 4758 4762 4767
2,0 4773 4778 4783 4788 4793 4798 4803 4808 4812 4817
2,1 4821 4826 4830 4834 4838 4842 4846 4850 4854 4857
2,2 4861 4865 4868 4871 4875 4878 4881 4884 4887 4890
2,3 4893 4896 4898 4901 4904 4906 4909 4911 4913 4916
2,4 4918 4920 4922 4925 4927 4929 4931 4932 4934 4936
2,5 4938 4940 4941 4943 4945 4946 4948 4949 4951 4952
2,6 4953 4955 4956 4957 4959 4960 4961 4962 4963 4964
2,7 4965 4966 4967 4968 4969 4970 4971 4972 4973 4974
2,8 4974 4975 4976 4977 4977 4978 4979 4980 4980 4981
2,9 4981 4982 4983 4884 4984 4984 4985 4985 4986 4986
z
0,10 1,64
0,09 1,69
115
0.08 1,75
0,07 1,81
0.06 1,89
0,05 1,96
0.04 2,06
0.03 2,17
0,02 2,32
0,01 2,58
116
28 1,701 2,048 2,467 2,763 3,674
29 1,699 2,045 2,462 2,756 3,659
30 1,697 2,042 2,457 2,750 3,646
117
28 37,916 41.337 45,419 48,278 56,893
29 39,087 42,557 46,693 49,588 58,302
30 40,256 43,773 47,962 50,892 59,703
3) T e o r i a prawdopodobieństwa a statystyka.
Podstawą teoretyczną statystyki jest teoria prawdopodobieństwa
(probabilistyka, stochastyka). Matematyk szwajcarski Jakub Bernoulli
(1654–1705) w książce Ars Conjectandi (Sztuka przewidywania) wydanej
pośmiertnie w 1713 r. pisze tak oto:
91
Podaję za: J. Stewart, Oswajanie nieskończoności. Historia matematyki, Prószyński i S-ka,
Warszawa 2010, s. 255.
118
strukturę zbiorowości, z której losujemy, i to z dokładnością tym większą,
im większą ilość razy powtarzamy losowanie.
Współcześnie mówi się o wielu wariantach prawa wielkich liczb, czyli
twierdzeń matematycznych opisujących związek między liczbą
wykonywanych doświadczeń a faktycznym prawdopodobieństwem
wystąpienia zdarzenia, którego te doświadczenia dotyczą. Nazywa się je
granicznymi twierdzeniami dla podkreślenia, iż mówią one o tym, co
zachodzi przy wykonywaniu coraz to dłuższych serii prób, a więc przy
przechodzeniu do granicy, jaką jest wykonanie nieskończenie wielu prób.
Dla zmiennych losowych całkowalnych wprowadza się ponadto warunek
słabego bądź mocnego spełniania.
Prawem wielkich liczb nazywamy każde twierdzenie, które dotyczy
zbieżności stochastycznej do zera ciągu zmiennych losowych. Ze względu
na to, że zbieżność stochastyczna jest równoważna słabej zbieżności
pewnego ciągu dystrybuant do dystrybuanty rozkładu jednopunktowego
omawiane w tym paragrafie prawa wielkich liczb noszą nazwę słabych w
odróżnieniu od tzw. mocnych. Mocnym prawem wielkich liczb nazywamy
każde twierdzenie, które z prawdopodobieństwem równym jedności ocenia
zbieżność (w zwykłym sensie) pewnego ciągu zmiennych losowych:
P ( lim U n U ) 1 92.
n
92
Zob. T. Gerstenkorn, T. Śródka, Kombinatoryka i rachunek prawdopodobieństwa, PWN,
Warszawa 1980, s. 392, 399.
119
prawdopodobieństwa. Obydwa działy nauki bowiem po pierwsze uzyskały
w miarę upływu czasu w pewnych obszarach zastosowań duży stopień
autonomii, a po drugie – obydwa działy mają zastosowanie do wielu
sytuacji praktycznych. Jak się zdaje, w ogólnym zarysie dużo bardziej
właściwa interpretacja będzie taka, w myśl której t e o r i a
p r a w d o p o d o b i e ń s t w a na podstawie znajomości populacji
generalnej formułuje prawdopodobne wnioski na temat populacji próbnej
(losowej). Podczas gdy s t a t y s t y k a w oparciu o znajomość populacji
losowej (próbnej) formułuje prawdopodobne wnioski na temat populacji
generalnej.
93
Charakterystyki z populacji generalnej noszą nazwę parametrów (są to ustalone wartości); podczas
gdy charakterystyki z populacji próbnej (próby losowej) – noszą tradycyjną nazwę statystyk
(zmieniają się one dla kolejnych prób).
94
Zob. M. Sobczyk, Statystyka, PWN, Warszawa 1998, s. 30.
95
W rozkładzie symetrycznym średnia arytmetyczna równa jest medianie i dominancie.
121
populacji oraz większa siłą asymetrii, tym większa jest koncentracja
wartości zmiennej.
Bliżej przyjrzymy się obecnie miarom tendencji centralnej oraz miarom
zmienności.
122
Dla dwóch liczb: x1, x2 R: Dla n liczb x1, x2,…, xn R:
x1 x2 x1 x2 ... xn 1 n
x = x = = xi
2 n n i 1
2) Ś r e d n i a a r y t m e t y c z n a w a ż o n a – liczebności ni
poszczególnych wariantów xi nazywamy wagami96:
n
i 1
i
96
Zob. Cz. Lewicki, Zbiór zadań ze statystyki dla pedagogów, Rzeszów 1998, s.28.
123
(średnia ważona): S1: 34,5 : 9 = 3,83; S2: 35,97 : 9 = 3,99; S3: 29,25 : 9 = 3,25 -
kol. 11).
1 2 3 4 5 6 7 8 9 10 11
x 1 x 1n1 x 2 x 2n2 x 3 x 3n3 x 4 x 4n4
S1 3,5 3,5 4 6 4 10 3,75 15 34,5 3,83
S2 4,5 4,5 3,25 4,87 4,25 10,6 4 16 35,97 3,99
S3 5 5 3 4,5 3,5 8,75 2,75 11 29,25 3,25
97
Zob. A. Luszniewicz, Statystyka ogólna, PWE, Warszawa 1980, s. 43.
124
W graficznym rozkładzie zmiennej mediana stanowi tę wartość na osi
odciętych, która dzieli obszar pod krzywą liczebności na dwie równe części.
Mediana jest średnią, której wartość poznawcza wzrasta w miarę wzrostu
liczby jednostek obserwacji. Ponadto jest ona mało wrażliwa – w
przeciwieństwie do średniej arytmetycznej – na wartości krańcowe
rozkładu.
3) O d c h y l e n i e s t a n d a r d o w e – pierwiastek kwadratowy z
wariancji [zob. Tabela 4.4.]. Określa, o ile wszystkie jednostki danej
zbiorowości różnią się średnio ze względu na wartość zmiennej od średniej
arytmetycznej tej zmiennej.
4) W s p ó ł c z y n n i k z m i e n n o ś c i P e a r s o n a - względna miara
zmienności wskazująca na to, ile procent średniej arytmetycznej wynosi
odchylenie standardowe98. Posiada wygodną w obliczeniach wąskość tę
mianowicie, że jest to wielkość niemianowana. Odchylenie standardowe
oraz średnia arytmetyczna wyrażane są zawsze w tych samych jednostkach,
a zatem ich stosunek jest liczbą niemianowaną. Tym samym możliwe jest
porównywanie zmienności także pomiędzy takimi zbiorowościami, które są
badane ze względu na różne cechy, choć pozostające ze sobą w pewnym
logicznym związku. Współczynnik zmienności Pearsona wyraża się
następującym wzorem:
S ( x)
V(x) = 100%
x
98
Zob. Cz. Lewicki, Zbiór zadań ze statystyki dla pedagogów, Fosze, Rzeszów 1998, s. 49 i nast.
126
euro (grupa pierwsza), zaś wynagrodzenie menedżerów o stażu ponad
dwudziestoletnim, w firmach tego samego typu, zawiera się w granicach 23 – 30
tys. euro (grupa druga). Średnia płaca w pierwszej grupie wynosiła x 1 = 18, 5 tys.
euro z odchyleniem standardowym 1,7 tys. euro, zaś w drugiej grupie x 2 = 26,5
tys. euro z odchyleniem standardowym 2,1 tys. euro. Należy obliczyć, w której
grupie menedżerów, pierwszej czy drugiej, jest większe zróżnicowanie płac?
W tym celu, aby porównać dyspersję w obu grupach (przy tej samej zmiennej -
wynagrodzenie), należy obliczyć współczynniki zmienności dla obu grup:
1,7 2,1
V(x1) = 100% = 9,2%, V(x2) = 100% = 7,93%.
18.5 26.5
Na podstawie obliczonych współczynników zmienności należy orzec, że w
pierwszej grupie menedżerów zróżnicowanie płac jest większe niż w grupie
drugiej, mimo iż w grupie drugiej odnotowano mniejszą wartość odchylenia
standardowego.
99
A. Luszniewicz, Statystyka ogólna, PWE, Warszawa 1980, s. 127.
128
zachodzi zależność przyczynowa - bezpośrednia bądź zależność wspólna -
pośrednia.
100
Termin regresja pochodzi od Francisa Galtona, kuzyna Karola Darwina. W artykule „Naturalna
Dziedziczność” (Natural Inheritance) ogłoszonym w 1889 r. donosił o swoim odkryciu, mianowicie że
rozmiary nasion groszku mają tendencję w kolejnych generacjach do powracania, regresji (to regress)
do swego średniego wzrostu. Odkrył też zależność między wzrostem ojców i synów – wzrost synów
wykazywał, jego zdaniem, odchylenie od wzrostu ojców w kierunku wzrostu przeciętnego; nazwał to
„powracaniem do przeciętnej” (regression to mediocrity). Termin regresja utrwalił się w statystyce
(choć ma niewiele wspólnego z „powracaniem do przeciętnej” w rozumieniu Galtona) i oznacza -
ogólnie mówiąc - przewidywanie wartości jednej cechy w oparciu o znajomość wartości drugiej
cechy.
129
Y = 0 + 1X +
101
Por. M. Krzysztofiak, D. Urbanek, Metody statystyczne, PWN, Warszawa 1981, s. 282.
130
2. Współczynnikiem korelacji rang Spearmana.
3. W przypadku cech jakościowych można stosować m.in. współczynnik
kontyngencji „C”, oparty na statystyce Chi-kwadrat (2) czy też
współczynnik zbieżności Yule’a ().
Tytułem ilustracji zagadnień związanych z współzależnością krótko
zaprezentujemy metodę porównywania przebiegu szeregów statystycznych,
metodę tablic korelacyjnych, współczynnik korelacji liniowej oraz
współczynnik korelacji rang.
Przykład 4.22.
Dla każdej pozycji zysku zapisano rangi, tj. liczby od najniższej do najwyższej,
wskazujące na to, jaki zysk wygospodarowały spółki w przeliczeniu na jedną akcję
(1 – największy zysk; 10 – najniższy zysk). Analogicznie ponumerowano spółki z
punktu widzenia wypłaconej dywidendy (1 – największa dywidenda; 10 –
najmniejsza dywidenda). W rezultacie porównania rang można stwierdzić, że
między obu cechami: X oraz Y zachodzi współzależność. W dwóch przypadkach
131
jedynie następuje rozbieżność między osiągniętym zyskiem a wypłaconą
dywidendą (spółki: A i B). W tej sytuacji można stwierdzić, iż między osiągniętym
przez spółki zyskiem a wypłacaną przez nie dywidendą występuje związek
korelacyjny typu dodatniego (korelacja dodatnia): im większy jest zysk osiągnięty
przez daną spółkę, tym wyższa jest dywidenda wypłacana akcjonariuszom.
2) M e t o d a t a b l i c k o r e l a c y j n y c h . Prezentowana powyżej
metoda porównywania przebiegu szeregów statystycznych ma tę wadę, iż w
praktyce może być stosowana tylko do szeregów obejmujących niewiele
obserwacji, charakteryzujących się niewielką liczebnością. W wypadku
szeregów obejmujących większą liczbę obserwacji rozpoznanie
współzależności oraz jej kierunku umożliwiają specjalnie skonstruowane
tablice korelacyjne. W tzw. główce (pierwszy wiersz) tablicy umieszczamy
szereg rozdzielczy zawierający warianty zmiennej X, zaś w tzw. boczku
(pierwsza kolumna) – szereg rozdzielczy zawierający warianty zmiennej Y.
Skrzyżowanie wiersza z kolumną to tzw. – pozycja zapisu, charakteryzująca
jednoczesne występowanie określonej wartości zmiennej X oraz Y.
3) W s p ó ł c z y n n i k k o r e l a c j i l i n i o w e j P e a r s o n a (rxy).
Posługując się tym współczynnikiem możemy opisywać związki
prostoliniowe badanych zmiennych cech mierzalnych. Współzależność
liniowa polega na tym, że zwiększenie wartości jednej ze zmiennych
powoduje proporcjonalną zmianę (przyrost lub spadek) średnich wartości
drugiej zmiennej w całym obszarze zmienności. Współczynnik korelacji
liniowej może być określany wzorami na kilka sposobów. Wzory te pod
względem matematycznym są równoważne. O wyborze konkretnego wzoru
do obliczeń decydują na ogół względy praktyczne. W praktyce badań
społecznych często stosuje się wzór o następującej postaci:
132
rxy =
( x x )( y y )
i i
(x x) ( y y)
i
2
i
2
4) W s p ó ł c z y n n i k k o r e l a c j i r a n g S p e a r m a n a (Q).
Współczynnik ten stosujemy w sytuacjach, gdy badana zbiorowość jest
nieliczna (w szczególności mniejsza niż 30 jednostek) oraz gdy badane
zmienne są niemierzalne (np. badanie związku między uzdolnieniami
102
Por. L. A. Gruszczyński, Elementy statystyki dla socjologów, U. Śl. Katowice 1986, s. 168.
133
muzycznymi a umiejętnością pracy w zespole). Nic jednak nie stoi na
przeszkodzie temu, aby ten współczynnik był wykorzystywany również do
badania związku między zmienną mierzalną a niemierzalną (np. związek
między temperaturą badanej osoby a ilością spożywanego przez nią białka)
bądź między zmiennymi mierzalnymi, skorelowanymi liniowo (np. związek
między ilością zużywanej benzyny a ilością zarejestrowanych samochodów
w poszczególnych województwach).
Konstrukcja współczynnika korelacji rang opiera się na zgodności rang,
czyli zgodności pozycji, którą zajmuje każda z odpowiadających sobie
wielkości we wzrastającym lub malejącym szeregu wartości swej zmiennej.
Jeżeli rangi (pozycje) w uporządkowanym szeregu jednej zmiennej w
znacznym stopniu odpowiadają rangom (pozycjom) uporządkowanego
szeregu drugiej zmiennej, to stwierdzamy ścisłą z a l e ż n o ś ć
d o d a t n i ą . Jeżeli zaś wzrostowi rang jednej zmiennej towarzyszy
zmniejszanie się rang drugiej zmiennej, to mamy do czynienia z ścisłą
z a l e ż n o ś c i ą u j e m n ą . Natomiast w przypadku braku jakiejkolwiek
zgodności rang, wnioskujemy o b r a k u z w i ą z k u k o r e l a c y j n e g o .
Zgodnie z powyższymi regułami obliczamy współczynnik korelacji
rangowej według następującego wzoru103:
6 d i2
Q = 1-
N ( N 2 1)
gdzie: di – różnica rang: Ry – Rx. Rx – to kolejna ranga badanej jednostki
statystycznej ze względu na nasilenie zmiennej X; Ry – to rangi ze względu
na zmienną Y.
N - liczebność próby.
103
Zob. M. Krzysztofiak, D. Urbanek, Metody statystyczne, PWN, Warszawa 1981, s. 304.
104
Zob. Cz. Lewicki, Zbiór zadań ze statystyki dla pedagogów, Fosze, Rzeszów 1998, s. 109.
134
Współczynnik korelacji rang Spearmana interpretuje się analogicznie jak
współczynnik korelacji liniowej Pearsona [zob. skala korelacji]. W sensie
interpretacyjnym współczynnik korelacji Q rang jest więc równoważny ze
współczynnikiem korelacji rxy.
L.p. 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
WI 17 15 10 14 17 20 8 8 15 5 18 17 13 11 7
WII 15 17 10 14 20 18 10 7 15 5 20 15 15 10 5
105
Zob. J. Brzeziński, Elementy metodologii badań psychologicznych, PWN, Warszawa 1980, s. 135.
137
stara się określić szanse ich umieszczenia w danej próbie. Teoria pobierania
prób w statystyce opera się bowiem na założeniu o jednakowym
prawdopodobieństwa znalezienia się każdego elementu populacji w próbie.
Badacz decyduje jedynie o stosowanej metodzie losowania próby. Ponadto
bywa i tak, że nie zawsze istnieje nawet czysto teoretyczna możliwość
zbadania populacji generalnej. Dlatego też wstępnie należy ograniczyć
populację do jednostek dających się jednoznacznie zidentyfikować. W ten
sposób tworzy się rejestr wszystkich jednostek, spośród których ma być
wybrana próba. Rejestr ten, będący jednoznacznym odwzorowaniem
jednostek populacji generalnej w zbiór liczb naturalnych 1, …, n, gdzie n –
liczebność populacji, nosi nazwę o p e r a t u l o s o w a n i a .
Do najczęściej stosowanych metod losowania próby przy wyborze
probabilistycznym badania reprezentacyjnego należą następujące: prosty,
systematyczny, warstwowy oraz zespołowy.
106
Twórcą podstaw teorii estymacji jest K. Pearson (1867-1936). Do uczonych rozwijających jej
klasyczną postać należy zaliczyć przede wszystkim R.A. Fishera (1890-1962) oraz J. Neymana
(1894-1981).
139
uzyskanych w populacji próbnej (próbie losowej)107. Mierniki statystyczne
charakteryzujące zbiorowość generalną tradycyjnie określa się mianem
p a r a m e t r ó w , zaś mierniki charakteryzujące próbę losową –
s t a t y s t y k a m i . W teorii estymacji statystyki z próby noszą nazwę
e s t y m a t o r ó w . Parametry są na ogół ustalonymi wartościami (stałe) i z
reguły są nieznane. Podczas gdy statystyki (estymatory) zmieniają się dla
kolejnych prób i, w przeciwieństwie do parametrów, ich wartości są dla
danej próby znane.
Estymatorom (optymalnym) przypisuje się następujące własności:
zgodność, nieobciążoność, efektywność oraz adekwatność. Estymator
zgodny – prawdopodobieństwo, że jego wartość będzie bliska wartości
szacowanego parametru, wzrasta wraz ze wzrostem liczebności próby
losowej; nieobciążony – jego wartość oczekiwana jest równa parametrowi
populacji, do oszacowania którego służy; efektywny – ma niewielką
wariancję i tym samym niewielkie odchylenie standardowe; adekwatny – do
jego konstrukcji zostały wykorzystane wszystkie informacje o szacowanym
parametrze, które są zawarte w danych z próby losowej.
Możliwe są dwa podejścia w szacowaniu wartości parametrów:
punktowe albo przedziałowe. Istota e s t y m a c j i p u n k t o w e j polega na
tym, że spośród wszystkich możliwych estymatorów (przybliżających
wartość szacowanego parametru) wybiera się estymator optymalny, tj.
zgodny, nieobciążony, efektywny i adekwatny. W efekcie uzyskuje się
konkretną liczbę dla szacowanego parametru. Z kolei e s t y m a c j a
p r z e d z i a ł o w a polega na skonstruowaniu pewnego przedziału
liczbowego (tzw. przedziału ufności) na podstawie wyników uzyskanych z
próby losowej, w obrębie którego, z określonym prawdopodobieństwem,
znajduje się wartość szacowanego parametru108.
P r z e d z i a ł e m u f n o ś c i (Neymana) nazywamy więc taki przedział
liczbowy, który z określonym prawdopodobieństwem zawiera w sobie
nieznany parametr zbiorowości generalnej. Związana jest z nim miara
pewności (ufności), iż ten przedział w rzeczy samej zawiera szukany
parametr, zwana poziomem ufności109. Przedział ufności (ściślej: długość
przedziału ufności) P wyraża się formułą:
107
Jeżeli szacowanie ogranicza się tylko do parametrów, to mówimy o estymacji parametrycznej.
Jeżeli zaś procedura szacowania dotyczy także postaci funkcyjnej rozkładu populacji generalnej, to
wówczas mamy do czynienia z estymacją nieparametryczną. W praktyce procedura estymacji
dotyczy najczęściej szacowania wartości parametrów. Natomiast kwestię postaci funkcyjnej rozkładu
rozstrzyga się wygodniej przy pomocy metod stosowanych w trakcie weryfikacji hipotez
statystycznych.
108
Z uwagi na to, że estymacja punktowa obwarowana jest sferą błędów, które prowadzą w efekcie
do ustalania nie pojedynczej wartości parametru, ale ich zbioru, to często rozróżnienie pomiędzy
estymacją punktową i przedziałową jest pomijane.
109
W teorii weryfikacja hipotez statystycznych miara ta nosi nazwę miary istności, zaś poziom
ufności – poziomu istotności. Można spotkać też ujęcie, w myśl którego poziom ufności to
współczynnik ufności pomnożony przez 100, czyli współczynnik ufności wyrażony procentowo: (1 -
140
P {(a - W) x D p (b + W) x D} = (1 - )
) x 100% bądź wręcz utożsamia się poziom ufności ze współczynnikiem ufności. Właściwa
interpretacja tych pojęć na ogół wynika z kontekstu, w jakim się ich używa.
141
długość przedziału ufności (a – b), mieszczącego szacowany parametr z
określonym z góry prawdopodobieństwem. Skądinąd wiadomo, iż błąd
standardowy D maleje wraz ze wzrostem liczebności N próby losowej.
Dlatego też można kształtować współczynnik ufności oraz długość
przedziału ufności poprzez zmianę liczebności próby.
W naukach społecznych stosuje się najczęściej następujące wartości dla:
, (1 - ) oraz Z110:
1) E s t y m a t o r e m ś r e d n i e j a r y t m e t y c z n e j parametru m
populacji generalnej jest średnia arytmetyczna z próby losowej x o
rozkładzie normalnym (Gaussa-Laplace’a) w przypadku dużej próby i o
rozkładzie t-Studenta w przypadku małej próby.
Tak więc przedział ufności P dla średniej arytmetycznej wyznacza się w
sposób następujący:
(a) Dla dużej próby (N 30):
P {( x - Z) x D x m ( x + Z) x D x } = (1 - )
D( x)
Dx =
N
110
Por. L. A. Gruszczyński, Elementy statystyki dla socjologów, Katowice 1986, s. 115.
142
P {( x - t) x D x m ( x + t) x D x } = (1 - )
D( x)
Dx =
N 1
2) E s t y m a t o r e m c z ę s t o ś c i w z g l ę d n e j (frakcji) parametru
pi w populacji generalnej jest częstość względna z próby losowej p0 o
rozkładzie normalnym w przypadku dużej próby i o rozkładzie
dwumianowym Bernoulliego w przypadku małej próby.
3) E s t y m a t o r e m o d c h y l e n i a s t a n d a r d o w e g o parametru
w populacji generalnej jest odchylenie standardowe S(X) o rozkładzie
normalnym w przypadku dużej próby. Natomiast w przypadku małej próby
założenie o normalności rozkładu estymatora wymagałoby spełnienia
pewnych dodatkowych warunków, co jest kłopotliwe. Dlatego też
przyjmuje się na ogół, że estymowanym parametrem dla małej próby jest
wariancja D2X, a estymatorem wariancja z próby losowej S2(X) o
rozkładzie chi-kwadrat.
Zestawienie zbiorcze estymacji wybranych parametrów rozkładu jednej
zmiennej zawiera poniższa tabela111:
Rozkład estymatora
Parametr Estymator
Duża próba Mała próba
m x normalny t-Studenta
S(X) normalny -
111
Por. A. Luszniewicz, Statystyka ogólna, PWE, Warszawa 1980, s. 88.
143
Estymacja przedziałowa parametrów w populacji generalnej przebiega na
następujących etapach112:
1. Obliczenie wartości danego estymatora przede wszystkim jako
nieobciążonej i zgodnej oceny parametru p na podstawie wyników z próby
losowej.
2. Przyjęcie z góry poziomu ufności (istotności) i określenie
odpowiadającej mu wartości krytycznej W (zmiennej standaryzowanej) na
podstawie tablic.
3. Obliczenie błędu standardowego D ze względu na wielkość próby N
(duża, mała) i odpowiednio do rodzaju szacowanego parametru (np. średnia
arytmetyczna, frakcja itd.).
4. Wyznaczenie przedziału ufności według odpowiedniego wzoru.
5. Interpretacja otrzymanych wyników.
112
Zob. Cz. Lewicki, Zbiór zadań ze statystyki dla pedagogów, Fosze, Rzeszów1998, s. 55.
144
s t a t y s t y c z n ą rozumieć będziemy dowolne przypuszczenie co wartości
parametrów bądź rozkładu zmiennej w populacji generalnej. Jeżeli to
przypuszczenie dotyczy nieznanych wartości parametrów, to hipoteza nosi
nazwę hipotezy parametrycznej, jeśli zaś dotyczy nieznanej postaci rozkładu
zmiennej losowej w zbiorowości generalnej (tj. przyjmuje postać funkcyjną)
– wtedy hipoteza taka przyjmuje miano hipotezy nieparametrycznej. W
przeciwieństwie do różnorodnych hipotez funkcjonujących w obrębie nauki,
które mogą mieć charakter intuicyjny i niezbyt precyzyjny, hipotezy
statystyczne winne być formułowane w sposób ścisły i jednoznaczny, gdyż
tylko wtedy można poddawać je weryfikacji, a wszak właśnie w tym celu są
formułowane. W określeniu hipotezy statystycznej zawarte jest
sformułowanie o „dowolnym przypuszczeniu”, ale oczywiście należy je
rozumieć jako „przypuszczenie sensowne”. Tym bardziej, jeśli wstępnie
dysponujemy już pewnymi informacjami na temat populacji generalnej. Np.
interesuje nas z pewnych względów ciągła zmienna losowa. W tej sytuacji
pozbawiona sensu byłaby weryfikacja hipotezy o rozkładzie Poissona w
populacji generalnej, gdyż charakteryzuje on wyłącznie skokową zmienną
losową. Tak więc w grę zawsze winien wchodzić wyłącznie zbiór hipotez
dopuszczalnych wyznaczonych przez informacje a priori dane o populacji
generalnej.
Z natury rzeczy, jeśli wysuwamy jakąś hipotezę, to zawsze istnieje
domniemanie, iż możliwe również są inne hipotezy. W związku z tym
wprowadza się pojęcie hipotezy zerowej oraz alternatywnej.
H i p o t e z a z e r o w a (sprawdzana) – oznaczana jako H0 jest hipotezą
o wartości nieznanych parametrów bądź nieznanej postaci rozkładu
zmiennej losowej; traktuje się ją jako prawdziwą, dopóki nie uzyska się
informacji statystycznych, które zmuszą nas do rewizji przyjętego
stanowiska.
H i p o t e z a a l t e r n a t y w n a – oznaczana przez H1 jest hipotezą
przypisującą parametrom bądź rozłąkom zmiennej losowej wartości
niezgodne z przypisanymi im przez hipotezę zerową.
Hipoteza zerowa i alternatywna tworzą parę hipotez dopełniających się
tzn. takich, że przebiegają zbiór wszystkich możliwych wartości. Koncepcja
weryfikacji hipotez statystycznych (Neymana – Pearsona) dostarcza
podstawę do rozstrzygnięcia, czy wysuniętą - w oparciu o przebadaną
empirycznie próbę losową - hipotezę, należy przyjąć (tj. uznać za
prawdziwą), czy też należy ją odrzucić (tj. uznać za fałszywą). Przy czym, z
uwagi na to, że hipotezy weryfikujemy właśnie na podstawie wiedzy o
próbie, w obu przypadkach możemy podjąć błędne decyzje. W grę wchodzą
dwa rodzaje błędów tzw. błąd pierwszego rodzaju oraz błąd drugiego
rodzaju.
B ł ą d I r o d z a j u – polega na odrzuceniu hipotezy zerowej, która
jest de facto prawdziwa.
145
B ł ą d I I r o d z a j u – polega na przyjęciu hipotezy zerowej, która jest
de facto fałszywa.
Ryzyko podjęcia błędnych decyzji weryfikacyjnych określa
prawdopodobieństwo błędu I rodzaju (P = ) oraz drugiego rodzaju (P =
)113:
113
Zob.
A. Luszniewicz, Statystyka ogólna, PWE, Warszawa 1980, s. 106.
114
Wnioski nazywa się na ogół istotnymi statystycznie, jeżeli u ich podstaw leży
prawdopodobieństwo w stopniu wynoszącym 95%.
146
Testy uwzględniające poziom istotności oraz pozwalające na odrzucenie
hipotezy zerowej (ewentualnie stwierdzające brak podstaw do odrzucenia),
ale nie dające żadnych podstaw do przyjęcia hipotezy alternatywnej, noszą
nazwę testów istotności. Stosuje się je wówczas, gdy interesuje nas pytanie,
czy hipotezę zerową można odrzucić. Testy, które przy danym poziomie
prawdopodobieństwa błędu I rodzaju pozwalają na zminimalizowanie błędu
II rodzaju uważa się za testy mocne. M o c t e s t u s t a t y s t y c z n e g o
oznacza prawdopodobieństwo P = 1 - , przy pomocy którego sprawdzamy
hipotezę, a więc prawdopodobieństwo odrzucenia hipotezy zerowej wtedy,
kiedy jest ona fałszywa. Jeżeli, przy ustalonej wielkości próby, chcemy
zmniejszyć prawdopodobieństwo błędu jednego rodzaju, to tym samym
zwiększamy prawdopodobieństwo błędu drugiego rodzaju (tj. rodzaju
dopełniającego). Przy budowie testu statystycznego nie można dążyć do
minimalizacji prawdopodobieństw błędów obu rodzajów, gdyż – zgodnie z
teorią Neymana-Pearsona - jest to niemożliwe. Spośród wszystkich testów
zapewniających ustalony a priori poziom istotności (prawdopodobieństwo
popełnienia błędu I rodzaju ) najlepszy będzie taki test, który posiada
największą moc (prawdopodobieństwo odrzucenia hipotezy zerowej, gdy
jest ona fałszywa).
Weryfikacja hipotez zarówno parametrycznych jak i nieparametrycznych
przebiega na następujących etapach:
1. Sformułowanie hipotezy zerowej oraz hipotezy bądź hipotez
alternatywnych.
2. Wybór testu do weryfikacji hipotezy zerowej.
3. Przyjęcie poziomu istotności oraz wyznaczenie obszaru krytycznego
hipotezy zerowej.
4. Obliczenie na podstawie badanej próby wartości statystyki testu (np.
statystyki z, t-Studenta, 2).
5. Podjęcie z określonym prawdopodobieństwem decyzji o przyjęciu
bądź odrzuceniu hipotezy zerowej oraz sformułowanie wniosku.
Analogicznie do podziału hipotez wyróżnia się dwa rodzaje testów
statystycznych: testy parametryczne - odnoszące się do hipotez o
parametrach oraz testy nieparametryczne - odnoszące się do hipotez o
kształcie rozkładu populacji. Przy weryfikacji hipotez parametrycznych
dość powszechnie wykorzystuje się dla dużej próby (N 30) statystykę z
(zmienną standaryzowaną); dla małej próby – statystykę t Studenta.
Natomiast przy weryfikacji hipotez nieparametrycznych – test Chi-kwadrat
(2).
147
prób, dla wielu średnich, dla dwóch wskaźników struktury (frakcji) –
weryfikuje się hipotezy o procencie elementów w populacji posiadających
wyróżniony wariant zmiennej oraz dla dwóch wariancji – na podstawie prób
pochodzących z populacji o rozkładach normalnych sprawdzamy hipotezę o
równości wariancji.
Rozważmy test dla różnicy dwóch średnich i dużych prób115. Test ten
służy m.in. do porównywania średnich uzyskanych przed i po
wprowadzeniu jakiegoś czynnika. Jeśli mamy dwie duże (N 30)
niezależne próby o liczebnościach N1 i N2 pochodzących z populacji
generalnej o rozkładzie normalnym i znanych odchyleniach standardowych
S(X)1 i S(X)2, to wówczas dla weryfikacji hipotezy zerowej o równości
średnich: H0: X 1 = X 2 wykorzystuje się statystykę obliczaną według
formuły:
| X1 X 2 |
z=
2 2
S ( X )1 S ( X )2
N1 N2
115
Zob. Leszek A. Gruszczyński, Elementy statystyki dla socjologów, U. Śl. Katowice 1986, s. 129;
Cz. Lewicki, Zbiór zadań ze statystyki dla pedagogów, Fosze, Rzeszów 1998, s. 70.
148
H1: X 1 X 2 – zakłada się, że koedukacja wpływa pozytywnie na wyniki
nauczania matematyki; dziewczęta z klas żeńskich uzyskują niższe wyniki w
testach matematycznych niż ich koleżanki z klas koedukacyjnych.
(2) Wybór testu do weryfikacji hipotezy zerowej. Weryfikacji H0 dokonujemy za
pomocą testu dla dwóch średnich.
(3) Z danych zawartych w zadaniu wynika, że = 0,05, przyjęta statystyka z
ma rozkład normalny, zatem wartość krytyczna wynosi: za = 1,96 [zob. Tabela
4.5.].
(4) W celu obliczenia wartości statystyki testu, dokonujemy podstawień:
2) T e s t y n i e p a r a m e t r y c z n e . Są one uniezależnione od
rozkładu zmiennej w badanej zbiorowości a ponadto można je stosować
również w dziedzinie danych, co do których nie wiadomo, czy spełniają
założenia niezbędne dla testów parametrycznych. Do najczęściej używanych
testów należy test zgodności Chi-kwadrat (2) oraz test niezależności chi-
kwadrat (2). Zmienna losowa o rozkładzie Chi-kwadrat (2) jest całkowicie
określona przez tzw. liczbę s t o p n i s w o b o d y (df – degree of freedom)
– liczbę wartości zmiennej, które mogą się swobodnie zmieniać116. Liczbę
stopni swobody obliczamy według wzoru: df = (k – 1) x (w – 1), gdzie k –
liczba kolumn, a w – liczba wierszy. Np. dla tablicy 4 x 4: df = (4 – 1) x (4 –
1) = 9.
Rozważmy test niezależności Chi-kwadrat (2). Otóż jest to test
istotności - wymagający dużej liczebności próby - który pozwala sprawdzić,
czy dwie interesujące nas zmienne (mierzalne bądź niemierzalne) są
niezależne117. Test ten wyrażony jest wzorem:
116
Pojęcie stopni swobody (df) posiada interpretację algebraiczną oraz geometryczną. W interpretacji
algebraicznej oznacza ono ilość niewiadomych nieobjętych równaniami w danym układzie równań.
Jeśli np. mamy pięć niewiadomych, a układ zawiera tylko trzy równania, to istnieją dwa stopnie
swobody, ponieważ pozostałym dwóm niewiadomym możemy arbitralnie przypisać dowolne
wartości. W interpretacji geometrycznej oznacza ono liczbę wartości, które mogą się zmieniać przy
ograniczeniach nałożonych na dane. Jeśli np. rozpatrujemy punkt, to na linii ma on swobodę
przesuwania się tylko w jednym wymiarze i tym samym posiada jeden stopień swobody; ten sam
punkt na płaszczyźnie posiada dwa stopnie swobody, ponieważ może przesuwać się w dwóch
wymiarach; w przestrzeni – punkt ma trzy stopnie swobody, zaś w przestrzeni k-wymiarowej – punkt
posiada k-stopnie swobody.
117
Zob. Cz. Lewicki, Zbiór zadań ze statystyki dla pedagogów, Rzeszów 1998, s. 93 i nast.
149
k w ( f eij f 0ij ) 2
=
2
i1 j 1 f 0ij
f0 =
f f w k
Nk
i1 j 1 f 0ij
=
6,8
+
9,1
+
8
+
10
+
151
(15 13,3) 2 (9 11,7) 2 (7 13,1) 2 (16 17,5) 2 (23 15,3) 2
+ + + + =
13,3 11,7 13,1 17,5 15,3
3,976 + 0,001 + 3,5 + 0,1 + 0,217 + 0,623 + 2,84 + 0,128 + 2,432 = 13,819.
(5) Wniosek: Z uwagi na to, że 2 = 13,819 2 = 13,2777, z
prawdopodobieństwem 0,9999 (ponieważ = 0,01) stwierdzamy, iż brak podstaw
do przyjęcia H0. W takim razie należy odrzucić H0 i przyjąć H1, która głosi, że
poziom zrozumienia tekstu filozoficznego przez studentów I roku pedagogiki jest
uzależniony od sposobu poznawania jego treści.
Bibliografia
152
G ó r a l s k i A ., Metody opisu i wnioskowania statystycznego w
psychologii i pedagogice, PWN, Warszawa 1987.
G r u s z c z y ń s k i L . A . , Kwestionariusz w socjologii. Budowa
narzędzi do badań surveyowych, U.Śl. Katowice 1999.
G u n t e r C . , H e i n e E ., Podstawy statystyki dla pedagogów i
socjologów, PZWSiP, Warszawa 1972.
H a m m e r s l e y M . , A t k i n s o n P ., Metody badań terenowych,
Zysk i S-ka, Poznań 2000.
H e m p e l C . G . , O p p e n h e i m e r P . , The Logic of Explanation
[in:] Readings in the Philosophy of Science, ed. by H. Feigel and M.
Brodbeck, New York 1953.
K o m o s a A., M u s i a ł k i e w i c z J., Statystyka, Ekonomik 1996.
Krajewski W ., Prawa nauki. Przegląd zagadnień
metodologicznych, KiW, Warszawa 1982.
K u h n T h . S ., Struktura rewolucji naukowych, Aletheia, Warszawa
2001.
K r z y s z t o f i a k M . , U r b a n e k D . , Metody statystyczne, PWN,
Warszawa 1981.
L a k a t o s I ., Pisma z filozofii nauk empirycznych, PWN, Warszawa
1995.
L e w i c k i Czesław, Zbiór zadań ze statystyki dla pedagogów, Fosze,
Rzeszów 1998.
L o s e e J . , Wprowadzenie do filozofii nauki, Prószyński i S-ka,
Warszawa 2001.
L u s z n i e w i c z A ., Statystyka ogólna, PWE, Warszawa 1980.
Ł o b o c k i M . , Metody i techniki badań pedagogicznych, Impuls,
Kraków 2000.
M a k a r c z y k W., Studia nad aparaturą pojęciową socjologii, PAN
IFiS, Warszawa 1991.
M a y n t z R . , H o l m K . , H u b n e r P ., Wprowadzenie do metod
socjologii empirycznej, PWN, Warszawa 1985.
M o k r z y c k i E ., Filozofia nauki a socjologia, PWN, Warszawa 1980.
N a g e l E ., Struktura nauki, PWN, Warszawa 1970.
N o w a k S . , Metodologia badań społecznych, PWN, Warszawa 1985.
O s s o w s k i S ., Dzieła, t. IV, O nauce, PWN, Warszawa 1967.
P i l c h T ., Zasady badań pedagogicznych, wyd. „Żak”, Warszawa
1995.
P o p p e r K . R ., Logika odkrycia naukowego, PWN, Warszawa 1977.
R e i c h e n b a c h H ., Powstanie filozofii naukowej, KiW, Warszawa
1960.
R u d n i a ń s k i J ., Fazy rozwiązywania problemów naukowych [w:]
„Zagadnienia Naukoznawstwa”, Warszawa 1975.
S i l v e r m a n D . , Prowadzenie badań jakościowych, WN PWN,
Warszawa 2009.
153
S k a r b e k W . W ., Elementy filozofii, NWP, Piotrków Tryb. 2000.
S k a r b e k W . W . , Wybrane zagadnienia socjologii ogólnej i
socjologii edukacji, NWP. Piotrków Tryb. 2003.
S k a r b e k W . W ., Logika dla humanistów, NWP, Piotrków Tryb.
2010.
S k a r b e k W . W . , Wprowadzenie do aksjoewentystycznej teorii
wartości, NWP, Piotrków Tryb. 2010.
S o b c z y k M . , Statystyka, PWN, Warszawa 1988.
S t e w a r t J . , Oswajanie nieskończoności. Historia matematyki,
Prószyński i S-ka, Warszawa 2010.
S u c h J . , Problemy weryfikacji wiedzy. Studium metodologiczne,
PWN, Warszawa 1975.
S u c h J . , S z c z e ś n i a k M ., Filozofia nauki, UAM, Poznań 1997.
Stempell D., Rachunek prawdopodobieństwa w ujęciu
programowanym, WN-T, Warszawa 1975.
S z t u m s k i J . , Wstęp do metod i technik badań społecznych, PWN,
Warszawa 1984
S z u l z B . , Statystyka dla ekonomistów, PWE, Warszawa 1969.
T u r n e r H ., Struktura teorii socjologicznej, WN PWN, Warszawa
2004.
W i t t g e n s t e i n L . Tractatus logico-philosophicus, PWN, Warszawa
1970.
W ó j c i c k i R ., Wykłady z metodologii nauk, PWN, Warszawa 1982.
Q u e t e l e t A . , Układ społeczny i jego prawa, Warszawa 1984.
154