You are on page 1of 20

Zmienna

✓ W matematyce abstrakcy jne wielkości, którym można przypisać różne wartości liczbowe (np. x i y)
✓ W metodologii cechy, właściwości, stany badanych obiektów oraz sytuacji (o ile wykazują zróżnicowanie,
czyli przy jmują różne wartości)

Rodzaj operacji Skutek operacji Przykłady

Manipulacja Zmiana wartości zmiennej Rodzaj interwencji terapeutycznej, informacja o sukcesie

Pomiar Przypisanie wartości obserwowanej zmiennej Czas reakcji, poziom pobudzenia emocjonalnego, typ
zgodnie z określonymi regułami osobowości, płeć, schizofrenia

Rodzaje zmiennych:
1) Niezależne (którymi manipulujemy) i zależne (których pomiaru dokonujemy)
2) Kontrolowane i zakłócające
3) Jakościowe (kategorialne) i ilościowe

Efekt - relacja między zmiennymi badana poprzez obserwację zmiany zmiennych zależnych spowodowaną
zmianami zmiennych niezależnych. Najczęściej stanowią je różnice między średnimi albo korelacje. Teorie
przewidują istnienie określonych efektów.

Wariancja
✓ W statystyce jest to miara zmienności, czyli zróżnicowania.
✓ Jest to przeciętny kwadrat odchyłki od średniej
✓ Zwiększa wagę dużych odchyłek i zmniejsza wagę małych odchyłek
✓ Jest addytywna, jeśli czynnik A wy jaśnia 40% zmienności, a B 10%, to do wy jaśnienia pozostaje
50%

Wy jaśnianie wariancji - ustalanie przyczyn zjawisk poprzez identyfikowanie źródeł ich zmienności. Procent
wariancji wy jaśnianej przez każdą zmienną jest miarą znaczenia tej zmiennej. Wariancja niewy jaśniona ma
swoje źródło w czynnikach niezidentyfikowanych. Im mniej niewy jaśnionej wariancji, tym pełniejsze
poznanie i lepszy model badanego zjawiska.

Operacjonalizacja - procedura konstruowania sensu empirycznego terminów teoretycznych, która polega na


tworzeniu wielkości zmiennej teoretycznej oraz dobieraniu do niego wskaźników zmiennej, jako
zoperacjonalizowanego obrazu wielkości. Jakość operacjonalizacji decyduje o jego trafności.

Definicja operacy jna - określanie (wymyślanie) czynności praktycznych, czyli operacji prowadzących do
przypisywania zmiennym takich, a nie innych wartości. Dotyczy zarówno pomiaru, jak i manipulowania
zmiennymi.
Teoria pomiaru musi definiować jego reguły, właściwości uzyskanych skal oraz zakres operacji statystycznych dostępnych dla
każdej skali.
1. Mocniejsze skale➞większy pomiar
2. Sposób pomiaru zmiennej określa możliwe sposoby analizowania wyników.

Rodzaj skal (zmiennych)


Rodzaj Definicja Przykład Statystyki
zmiennej (skali)

Nominalna Odnosi się jedynie do nazw - pozwala rozróżniać obiekty Płeć, wyznanie, Częstości
grupa, kolor Liczebności
Proporcje

Miary położenia: Modalna

Miary związku:
Współczynnik zgodności
Współczynnik Fi

Porządkowa Rangowanie to przypisywanie rang (kolejnych numerów) Wykształcenie, Miary zmienności: Rozstęp
uporządkowanym wartościom. Jednakowym wartościom miejsce w
przypisuje się średnie odpowiednich rang. Pozwala rankingu Miary położenia:
rozróżniać obiekty oraz porządkować (numerować) je Mediana
Inne n-tye

Miary związku:
Korelacja rang (rho)

Przedziałowa Skala odległości; posiada umowny punkt zerowy. Pozwala Poziom Miary zmienności:
(interwałowa) rozróżniać, porządkować obiekty oraz wyznaczać neurotyzmu, odchylenie standardowe
odległość depresji,
samooceny; Miary położenia:
skala Celsjusza Średnia

Miary związku:
Współczynnik korelacji

Stosunkowa Skala krotności; posiada bezwzględne zero Czas reakcji, Miary zmienności:
(ilorazowa) Pozwala rozróżniać, porządkować obiekty, a także średnia liczba odchylenie standardowe
stwierdzać odległość i krotność błędów,
przewaga prawej Miary położenia:
ręki nad lewą; Średnia
skala Kelvina
Miary związku:
Współczynnik korelacji

Dychotomizowanie według mediany - sposób redukcji skali wyższego rzędu do skali niższego rzędu. Jest to podzielenie zbioru otrzymanych
wartości według mediany: np. 1, 2, 3, 4, 5 redukujemy do mało (<3) i dużo (>3). Zwiększa to zrozumiałość i łatwość prezentacji graficznej.
Typy podejść naukowych
1. Podejście idiograficzne - skoncentrowanie na opisie indywidualnego przypadku i jego unikalnej historii z
uwzględnieniem wymiaru subiektywnego. Metody głównie jakościowe, studia przypadku.
2. Podejście nomotetyczne - skoncentrowanie na ustanowieniu praw ogólnych rządzących obiektywnie
obserwowalnymi zjawiskami. Metody głównie ilościowe, badanie większych zbiorowości.

Rodzaje badań
Typ badania Zastosowanie Metody Przykłady Zalety Wady

Jakościowe Wstępna eksploracja ✓ Obserwacja Dynamika zmian ✓ Otwartość ✓ Bardzo


Generowanie hipotez ✓ Wywiad w psychoterapii ✓ Możliwość pracochłonne
Opis zjawisk trudno ✓ Analiza Charakterystyka eksploracji obszarów ✓ Trudno osiągnąć
poddających się wytworów kontaktu trudno dostępnych wysoką rzetelność
klarownej definicji i Istota dojrzałości dla badań ✓ Niebezpieczeństwo
mechanicznej i samorealizacji ilościowych subiektywizmu i
obserwacji ✓ Łatwiejsze tendency jności
zrozumienie zjawiska

Ilościowe Weryfikacja hipotez, ✓ Eksperyment Jaka jest ✓ Rzetelność i ✓ Słabo nadają się do
teorii i modeli ✓ Pomiar najskuteczniejsza obiektywizm wstępnej eksploracji
Badania aplikacy jne terapia fobii? ✓ Ograniczenie do
pytań
rozstrzygnięcia
✓ Kłopoty z trafnością

✓ Badania opisowe - opis wartości przy jmowanych przez zmienne (charakterystyka etapu rozwojowego
dziecka, opis objawów zaburzenia psychicznego, przebiegu interakcji społecznej, wyniki sondażu opinii)
✓ Korelacy jne - badają współzmienność (Czy dojrzałość szkolna zależy od wieku? Czy efektywność
psychoterapii zależy od jakości kontaktu i motywacji pacjenta? Jaki typ osobowości sprzy ja sukcesowi
w biznesie? Czy ludzie inteligentni ży ją dłużej? Czy i jak nastrój zależy od pory roku?)
✓ Eksperymentalne - manipulacja co najmniej jedną zmienną niezależną - ich kontrola pozwala na
identyfikację przyczyn zmienności zmiennych zależnych

Badania eksperymentalne
Ich celem jest ustalenie relacji przyczynowej między zmiennymi, co osiąga się poprzez manipulację
zmiennymi niezależnymi oraz obserwację (pomiar) zmiennych zależnych.

1. Plan z powtarzanymi pomiarami - każdy uczestnik badania jest testowany wszystkimi badanymi
zmiennymi, ale w odstępie czasu.
2. Procedura ślepa - badany nie wie, co na niego wpływa
3. Procedura podwójnie ślepa - badany ani eksperymentator nie wie, co na niego wpływa
Zmienne
✓ Niezależne - podlegające manipulacji (predyktory, czyli ilościowe, oraz czynniki, czyli kategorialne)
✓ Zależne (wy jaśniane, obserwowane, mierzone)
✓ Zakłócające - niekontrolowane zmienne niezależne wywierające niekorzystny wpływ na zmienną zależną
(brak kontroli grozi artefaktem)

Eliminacja wpływu zmiennych zakłócających


✓ Randomizacja I stopnia - losowy obór osób badanych do próby
✓ Randomizacja II stopnia - losowy dobór osób badanych do warunków eksperymentalnych

Plany eksperymentalne
1. Jednoczynnikowe - 1 kategorialna zmienna niezależna
2. Wieloczynnikowe - wiele kategorialnych zmiennych niezależnych
3. Quasi-eksperymentalne - główna zmienna niezależna nie jest zrandomizowana
4. Eksperymentalne - główna zmienna niezależna zrandomizowana

Sposób manipulacji zmiennymi

Czułość - zdolność wykrywania słabych efektów

1. Manipulacja międzygrupowa - zmienna niezależna przy jmuje różne wartości u różnych grup osób, a
wyniki pomiarów są niezależne (nieskorelowane). Daje to lepszą porównywalność warunków oraz
większą, bardziej zróżnicowaną grupę - a w konsekwencji lepszą reprezentatywność. Jednak różnice
między osobami pojawiające się w przy manipulacji wewnątrzgrupowej zwiększają wariancję błędu, a
także wymaga dużych grup (jest mało czuła).

2. Manipulacja wewnątrzgrupowa - zmienna niezależna przy jmuje różne wartości u tych samych grup
osób. Tym samym wyniki pomiarów są zależne (skorelowane). Jest czuła, więc nie wymaga dużych
grup, a różnice indywidualne nie zwiększają wariancji błędu. Jednak różnice między warunkami
obciążone są czynnikiem czasu lub pomiaru, jest też bardziej wrażliwa na skład próby, co daje jej
gorszą reprezentatywność.

Rzetelność - powtarzalność powtarzanych pomiarów

Trafność - celność testu

1. Wewnętrzna - poprawność oceny zmiennej zależnej jako przyczyny zmienności zmiennych


niezależnych. Zagraża jej manipulacja więcej niż jedną zmienną naraz (błędna identyfikacja źródeł
zmienności) oraz efekty społeczne jak oczekiwania badanych, eksperymentatora czy lęk przed oceną.
W planie grupowym, aby nie naruszyć trafności wewnętrznej należy uważać na efekt następstwa
(zmęczenie, trening, dojrzewanie, śmiertelność) czy powtórzenia (znajomość zadania, oczekiwania); w
wielogrupowym - niezamierzone różnice między grupami.

2. Teoretyczna (konstruktowa) - trafność operacjonalizacji. Szczególnie zagrożona przez nieadekwatne


narzędzia pomiarowe, zły poziom pomiaru czy operacjonalizacja chybiona. Należy zoperacjonalizować
zgodnie z tradycją badawczą w dziedzinie (aby móc porównać z innymi badaniami) oraz zachować
wielostronność (większość operacjonalizacji oddaje tylko jeden aspekt bardziej złożonej całości).

3. Zewnętrzna - możliwość uogólnienia wyników badań na inne grupy osób; w tym: ekologiczna (wielkość
efektu w środowisku naturalnym a laboratory jnym); populacy jna (reprezentatywność próby). Aby
zachować trafność zewnętrzną, należy poprawnie określić populację i zastosować poprawną
procedurę losowania próby. Zagrożeniem dla trafności zewnętrznej jest zbyt silna kontrola zmiennych
zakłócających, która powoduje sztuczność.

Maksymalizowanie mocy planu eksperymentalnego


✓ Moc statystyczna - prawdopodobieństwo wykrycia efektu (o ile ten istnieje). Wpływa na nią stosunek
wariancji związanej z efektem eksperymentalnym do wariancji błędu. Moc maksymalizuje się,
zwiększając wariancję związaną z efektem eksperymentalnym, a zmniejszając wariancję błędu.
✓ Wielkość efektu - zwiększa się ją poprzez zwiększanie wariancji związanej z efektem eksperymentalnym.
Istnieją metody specyficzne (zależne od mierzonej wielkości) oraz niespecyficzne (zwiększenie osób
badanych tudzież powtórzeń pomiaru, więcej pozycji w teście)

Skąd się bierze wariancja błędu?


✓ Różnice indywidualne
✓ Niska rzetelność pomiaru
✓ Niespecyficzne zmienne zakłócające
Miary położenia i dywersj

1. Miary położeni

Miary tendencji centralnej (miary położenia) -zamiast całego zbioru pokazują jednego, typowego
reprezentanta: (x̅ = 383,8 lub typowy student psychologii=kobieta o wzroście 163,5cm).
Opis zbiorowości przez wskazanie typowego reprezentanta jest wskazany tylko, gdy
(a) Zysk poznawczy z abstrahowania od różnic jest większy, niż koszta
(b) Opisywana zbiorowość jest względnie jednorodna
(c) Zróżnicowanie ma charakter losowy

1.1 Modalna (moda, dominata) - najczęstsza.


Właściwości
(a) Jest to jedyna miara położenia właściwa dla zmiennych nominalnych
(b) Daje się też użyć w przypadku zmiennych o wyższym poziomie pomiaru
(c) nie wymaga przyjmowania żadnych założeń odnośnie poziomu pomiaru.
Modalna jest niewłaściwa, gdy
(a) Żadna wartość nie występuje wyraźnie częściej od innych
(b) W zbiorze obserwacji dominuje nie jedna, lecz więcej wartości
(c) Nie istnieje egzemplarz, który zasadnie można uznać za typowy

1.2 Mediana - wartość środkowa, dzieli zbiór obserwacji na dwie równe połowy. Stosowana w
przypadku zmiennych porządkowych, przedziałowych i ilorazowych.
Zalety mediany
(a) Jest odporna na występowanie skrajnych wartości
(b) Pokazuje wartość typową lepiej niż średnia w przypadku rozkładów skośnych
Ograniczenia
(a) Jest bardziej od niej podatna na uktuacje losowe, szczególnie, gdy zmienna przyjmuje
niewiele wartości
(b) Ma bardzo ograniczone zastosowanie we wnioskowaniu statystycznym

1.3 Średnia arytmetyczna - stosuje się ją do zmiennych przedziałowych i ilorazowych.


Zalety
(a) Jest najlepszą podstawą do przewidywania wartości w populacji
(b) Jest najmniej podatna na przypadkowe uktuacje.
Ograniczenia średniej arytmetycznej
(a) Wymaga symetrycznego rozkład
(b) Jest nieodporną na skrajne wartośc
(c) Jest niedoskonała w przypadku danych, które przyjmują wyłącznie wartości całkowite, (tj.
liczba dzieci czy samochodów w rodzinie)

Miary położenia w rozkładach symetrycznych – Mo = Me =


Miary położenia w rozkładach niesymetrycznych – Mo > Me > x̅

2. Miary zmienności - pozwalają sprawdzić, na ile typowy dla zbioru obserwacji jest jego
reprezentant wskazany przez miary tendencji centralnej. Pozwalają mierzyć zmienność, czyli
zróżnicowanie dla niego samego i tym samym są przydatne w wyjaśnianiu przyczyn złożonych
zjawisk

fl
u

fl
.

2.1 Rozstęp (xmin–xmax) i zakres zmienności (xmin, xmax) są jasne i zrozumiałe, a także nie wymagają
obliczeń oraz wskazują na rzeczywiście zaobserwowane wartości. Są jednak bardzo wrażliwe na
odstając wartości i silnie zależą od przypadkowych uktuacji

2.2 Odchylenie przeciętne - łatwe w interpretacji, lecz nieprzydatne i nieużywane we wnioskowaniu


statystycznym.

2.3 Wariancja - najważniejsza we wnioskowaniu statystycznym; addytywna.Wyniki bardziej


oddalone od średniej ważą więcej

2.4 Odchylenie standardowe - najczęstsza miara zmienności w opisie statystycznym; jednostka w


standaryzowanym rozkładzie normalnym. Wyniki bardziej oddalone od średniej ważą więcej.

2.5 Nierówność Czebyszew

W przedziale ±k odchyleń standardowych od średniej mieści się conajmnie

100 – 100/k2
% obserwacji

Zmienna Pomiar rozróżnia Przykład Miara położenia

Nominalna Tożsamość wartości Płeć, kolor, warunek badania Modalna

Porządkowa Porządek wartości Miejsce na mecie, wykształcenie Mediana, modalna

Przedziałowa Odległość między Poziom samooceny, lęku Mediana, średnia


(interwałowa) wartościami arytmetyczna, modalna
Stosunkowa Stosunek wartości Czas reakcji, procent poprawnych Mediana, średnia
(ilorazowa) odpowiedzi arytmetyczna, modalna
.

fl
.

Rozkład normaln

(1) Pierwszy opisał go i zastosował w teorii pomiaru Karl Friedrich Gauss - matematyk niemiecki,
stąd nazywamy go także rozkładem Gaussa
(2) Bardzo wiele cech wykazuje rozkład normalny: cechy zyczne, zdolności umysłowe,
dyspozycje psychologiczne czy postawy
(3) Rozkład normalny jest modelem charakterystycznego rozproszenia, które jest efektem
kumulacji zdarzeń losowych. Czynniki losowe powodują pojawianie się odchyłek od głównych
tendencji i są najczęściej małe, rzadziej - duże, najrzadziej - bardzo duże
(4) Do zdarzeń losowych należą mutacje oraz modulacja ekspresji genów przez czynniki
środowiskowe (w tym w pewnym sensie różnice psychologiczne powstające na skutek
interakcji czynników biologicznych z doświadczeniami indywidualnymi

Zniekształcenia rozkładu normalneg


(1) Wiele testów statystycznych zakłada, że rozkłady zmiennych są normalne. Przed
przystąpieniem do analizy wyników należy sprawdzić, czy założenie to jest spełnione
(2) Zgodność rozkładu empirycznego z teoretycznym wykazują statystyczne testy normalności oraz
analiza jakościowa wykresu
(3) Jeśli rozkład jest normalny, test nie jest istotny
(4) Test normalności potra wykryć odchyłki od normalności dopiero przy dużych próbach
(5) Negatywny wynik testu nie dowodzi normalności

1. Kurtoza - spiczastość; miara koncentracji, skupienia (spłaszczenia

2. Skośność - miara asymetrii

Jeśli zmienna nie spełnia założeń, można próbować ją znormalizować za pomocą np. transformacji
logarytmicznej lub testów nieparametrycznych
y

fi
.

fi
)

Właściwości rozkładu normalneg


Zmienna losowa ξ o wartości oczekiwanej μ i wariancji σ2 ma rozkład normaln

N(μ, σ2

Jeżeli ξ ma rozkład N(μ, σ2), to zmienna losowa x = (ξ–μ)/σ ma rozkład N(0, 1

1. Gęstość prawdopodobieństw

2. Dystrybuanta - jej wartość informuje o prawdopodobieństwie zaobserwowania wartości


mniejszej lub równej x. Wartość ta odpowiada powierzchni pod krzywą rozkładu normalnego, od
–∞ do x. Powierzchnia ta jest często interpretowana jako oczekiwany procent obserwacji
mniejszych lub równych x.

Interpretacja rozproszenia normalnego w badaniac

(1) Jeśli zmienne mają rozkład normalny, to rozproszenie wyników wokół ich średnich jest
wypadkową działania losowych czynników, nieinteresująca wariancją błędu
(2) Średnie wykazują główne tendencje - są modelem zjawiska pomijającym czynniki losowe.
Różnica między średnimi w grupie eksperymentalnej i kontrolnej odzwierciedla czysty wpływ
manipulacji eksperymentalnej
)

Porównywalność wynikó
(1) Wyniki są porównywalne tylko wtedy, gdy mają ten sam rozkład, średnie oraz odchylenia
standardowe
(2) Ten warunek rzadko jest spełniony, dlatego porównań dokonuje się korzystając ze standardowej
skali z o ujednoliconej średniej (0) i jednostce (1). Jednostką jest odchylenie standardowe
(3) Wartość z mówi, ile odchyleń standardowych powyżej lub poniżej średniej leży dany wynik

Norm
Reguła trzech sigm - w rozkładzie normalnym praktycznie nie występują obserwacje oddalone od
średniej o więcej, niż trzy odchylenia standardowe

Kwantyle (n-tyle
Zbiór n–1 wartości zmiennej losowej dzielących ogólną liczebność próby (lub prawdopodobieństwo
w rozkładzie teoretycznym) na n równych części.
y

Wnioskowanie statystyczne (indukcja statystyczna) - metody wnioskowania o populacji (parametrów) na


podstawie badania reprezentatywnej próby (statystyk). Jako, że próba, którą pobieramy i badamy, jest tylko
jedną z wielu prób losowych, które potencjalnie moglibyśmy pobrać, nie możemy wnioskować z niej na
temat populacji bezpośrednio, lecz używać różnych metod wnioskowania statystycznego.
✓ Populacja stanowi zbiorowość generalną, której element (próbę) badamy. W psychologii jest to ogół ludzi,
w psychometrii zaś ogół potencjalnie możliwych wyniku testu czy pomiaru.

1. Parametry - właściwości populacji: μ; σ; ρ


2. Statystyki - właściwości próby: x̅ , s, r

✓ Błąd próby - losowa odchyłka wartości statystyki w próbie od podpowiadającej jej wartości w populacji
będąca naturalną konsekwencją badania próby zamiast populacji.
✓ Próba losowa - próba wybrana metodą doboru losowego (przy którym każda jednostka losowania ma
stałe i określone prawdopodobieństwo wyboru). Definicja szeroka - obejmuje próby warstwowe
stosowane w socjologii.
✓ Próba losowa prosta - ideał próby, do której każdy element populacji może trafić z takim samym
prawdopodobieństwem. Wymaga operatu losowania - listy wszystkich elementów populacji. Często on nie
istnieje, albo jest trudno dostępny dla badacza, co sprawia że w praktyce jest bardzo trudna do
utworzenia.
✓ Próba reprezentatywna - typowa pod względem pewnych charakterystyk niezależnie od metody, za
pomocą której została wybrana. W psychologii stosunkowo rzadko stosuje się próby losowe proste, co
zwykle jest źródłem większego lub mniejszego błędu, lecz w miarę pobierania kolejnych próļ, uzyskiwane
rozkłady mierzonych cech zbliżają się do rozkładu w populacji.
✓ Próba nielosowa (próba systematyczna, ad-hoc, okazjonalna) - tworzone na podstawie doboru
arbitralnego (celowego). Powstaje, gdy dobieramy jedną, skonkretyzowaną próbę osób (np. studentów
psychologii) i próbujemy na jej podstawie wnioskować o populacji, Będzie dobra w przypadku badaniu
progów zmysłowych lub reaktywności na bodźce, zła - w przypadku badania osobowości, inteligencji itd.

✓ Daje odpowiedź na pytanie, jak mają się się próby do populacji?

Jeśli w populacji o średniej µ i odchyleniu standardowym σ pobieramy próby o liczebności N, to jeśli N➞∞,
✓ Rozkład średnich tych prób dąży do rozkładu normalnego (rozkład średnich z prób jest normalny nawet
wtedy, gdy rozkład cechy w populacji nie jest),
✓ Średnia rozkładu średnich z prób jest równa µ,
✓ Odchylenie standardowe rozkładu średniej z prób (błąd standardowy średniej) sM=σ/√N
1. Punktowa - ocena szukanego parametru populacji (np. µ) w postaci jednej wartości. Rzadko stosowana w
praktyce badawczej ze względu na nieokreślony poziom błędu, najlepsze wyniki daje użycie estymatorów
nieobciążonych o najmniejszej wariancji (np. x
̅)
σ2 = s2 +
σ=s+
μ = x̅ +
ε ma rozkład normalny o średniej 0 i wariancji odwrotnie proporcjonalnej do liczebności próby.
2. Przedziałowa (obliczanie przedziałów ufności)
✓ Ufność określa pewność szacunku, pokrewna poziomowi istotności: u=1-α
✓ 95% przedział ufności, to przedział, w którym z 95% ufnością mieści się szacowany parametr
populacji
✓ Określa stopień, w jakim badacz może ufać swojej prognozie
✓ Z centralnego twierdzenia granicznego wynika, że w 95% osób ich średnie leżą w odległości nie
większej niż 1,96 odchylenia standardowego od szukanej średniej w populacji.

α=1–

μ ∈ (x̅ − t sM; x̅ + t sM
sM - błąd standardowy; sM=σ/√
t - odległość od x̅ (0,00) wyrażona w błędach standardowych na rozkładzie t student

lu

μ ∈ (x̅ − z σx̅ ; x̅ + z σx̅


σx̅ - odchylenie standardowe średnich; σx̅ =σx/√
z - odległość od x̅ (0,00) wyrażona w odchyleniach standardowych na rozkładzie normalnym (dla
u=0,95 z=1,96

Weryfikacja polega na obliczeniu, jak bardzo prawdopodobne jest, że uzyskaliśmy taki, a nie inny wynik
przez przypadek. Jeżeli ocenimy, że jest to wystarczająco nieprawdopodobne (jest to system arbitralny,
najczęściej przy jmuje się 1% lub 5%), to możemy z większym przekonaniem stwierdzić o zaistnieniu
jakiegoś efektu.
b

Problem: Chcemy sprawdzić, czy średnie IQ studentów pierwszego roku psychologii odbiega od średniego
IQ innych ludzi.

Krok 1 - Stawianie hipotez


a. Formułujemy pytanie badawcze: Czy średnie IQ studentów 1 roku psychologii odbiega od średniego IQ
innych ludzi (100)?
b. Formułujemy hipotezę zerową (H0), czyli taką, którą będziemy weryfikować: Średnie IQ studentów nie
odbiega od IQ innych ludzi (µx=100). Litera „µ” określa średnią populacji (studenci pierwszego roku
psychologii).
c. Formułujemy hipotezę alternatywną (H1), która stanowi zaprzeczenie hipotezy zerowej. Jeśli hipoteza
zerowa okaże się nieprawdziwa, przy jmiemy jako tą prawidłową hipotezę alternatywną: IQ studentów
odbiega od IQ innych ludzi (µ≠100).

Krok 2 - Badanie
✓ Wybieramy próbę losową z badanej przez nas populacji. W naszym przypadku populacją będą studenci 1
roku psychologii, a próbą losową - losowo wybrana grupa o liczebności n. Mierzymy poszczególne wyniki
w teście IQ studentów (xi), i wyliczamy średnią wyników dla tej próby (x̅ ). Na podstawie wyniku próby
(statystyki, x̅ ) będziemy wnioskować o tej wartości dla całej populacji (parametrze, μx). Taki rodzaj
wnioskowana stanowi istotę wnioskowania statystycznego.
✓ Zakładamy, że mamy grupę 26 studentów spośród całej populacji studentów 1 roku psychologii i po
przetestowaniu ich IQ obliczyliśmy średnią, która wyniosła x̅=115 IQ).

Krok 3 - Utworzenie losowego rozkładu wartości x (wynik testu IQ) z próby


Zastanawiamy się, jak wyglądałby rozkład wyników średnich w teście IQ (x̅ i), gdyby zmierzyć cała
populację studentów 1 roku psychologii, przy założeniu, że hipoteza zerowa jest prawdziwa. Tu z pomocą
przychodzi nam centralne twierdzenie graniczne, które mówi, że
a. jeżeli z populacji pobieramy w nieskończoność kolejne próby, to rozkład średnich tych prób (x̅ i) dążyłby
do rozkładu normalnego.
b. Średnia średnich z prób (czyli średnia tego rozkładu) jest równa średniej populacji, która zgodnie z
hipotezą zerową jest równa 100.

W tym przypadku wyglądałby on zatem mniej więcej tak:


75 9 10 11 115*

*Wartości 75-115 in odpowiadające im słupki są tutaj umieszczone wyłącznie obrazowo i nie wchodzą w
skład rozkładu normalnego.. W rozkładzie normalnym średnia wynosi 0, ponieważ jest on przesunięty.

Mówi nam to, że najwięcej prób pobranych z populacji osiągnęło średnią 100, a im dalej oddalona wartość
od średniej, tym mniej prób ją osiągnęło.

Wariant a: znamy wartość odchylenia standardowego populacji

Krok 4 - Weryfikacja hipotezy na podstawie rozkładu z


W uproszczeniu musimy zdecydować o tym, jak bardzo prawdopodobne jest to, że wyciągniemy daną
średnią z badania, jeżeli hipoteza zerowa jest prawdziwa. Zatem w tym przypadku chcemy sprawdzić, jak
bardzo prawdopodobne jest, że jeżeli faktycznie średnia IQ studentów nie odbiega od średniej ogółu ludzi,
czyli wynosi 100IQ, to akurat w naszej grupie średnia wynosi 115IQ. Jeżeli to okaże się mało
prawdopodobne, to odrzucimy hipotezę zerową i przy jmiemy hipotezę alternatywną, a jeśli takie zdarzenie
będzie prawdopodobne, to utrzymamy hipotezę zerową. Oczywiście żaden z tych scenariuszy nie mówi
nam, że na pewno H0 lub H1 jest prawdziwa - odrzucenie hipotezy zerowej znaczy tylko, że wiara w nią
wydaje się nieuzasadniona, a podtrzymanie jej, że może być prawdziwa.

Co jednak decyduje o poziomie prawdopodobieństwa prawdziwości albo fałszywości danej hipotezy? To


poziom istotności oznaczany jako α. Jego wartość wyznacza, jaka część rozkładu losowych wartości x
stanie się obszarem odrzucenia. Lokalizujemy wartość x̅ na rozkładzie i jeśli znajdzie się on w obszarze
odrzucenia, to odrzucamy hipotezę zerową. Pozostała część rozkładu stanowi obszar nieodrzucenia i jeśli
̅ na nim nie jest, to nie odrzucamy hipotezy zerowej, lecz ją podtrzymujemy. Wartości, które oddzielają
x
obszar odrzucenia od obszaru nieodrzucenia nazywamy wartościami krytycznymi.

Wartość α jest arbitralna i możemy przy jmować różne poziomy istotności, jednak najczęściej używanymi
są 0,05 i 0,01. Jeśli przy jmiemy 0,05 - do obszaru odrzucenia trafia 5% rozkładu, po 2,5% z każdej
strony. Jeśli przy jmiemy 0,01 - 1%, czyli 0,5% z każdej strony.
0
0
0
Jednak to nie wystarcza nam do wyznaczenia, w jakim obszarze znajduje się x̅ . Aby to sprawdzić, musimy
przekształcić x̅ na wystandaryzowane z, które wyznacza odległość, w jakiej znajduje się ono od średniej µ,
która w rozkładzie normalnym zlokalizowana jest w punkcie 0,00.

Robimy to za pomocą wzoru:

x̅ – μ x̅ –
z= ––––– = –––––
σx̅ σx/√n

*Zabieg przekształcenia σx̅ na σx/√n jest niezbędny z tego powodu, że odchylenie standardowe średnich
nie jest równe odchyleniu standardowemu populacji (tylko jest od niego odpowiednio mniejsze), w
przeciwieństwie do średniej średnich, która jest równa średniej populacji. To czyni odchylenie standardowe
średnich (σx̅) estymatorem obciążonym, zaś średnią średnich estymatorem nieobciążonym.
Zakładamy, że wiemy, iż odchylenie standardowe populacji wynosi 15.

115–110 1 15√2
z= ––––– = –––––– = –––––– = √26 =+ 5,0
σx̅ 15/√2 1

✓ Teraz sprawdzamy, jaka jest odległość wartości krytycznej od średniej. Odczytujemy to z tablicy
opracowanej dla krzywej normalnej i wynosi ona 1,96.
✓ 5,09>1,96, zatem x̅ jest zlokalizowane w obszarze odrzuceń i musimy odrzucić hipotezę zerową oraz
przy jąć alternatywną. To oznacza, że średnie IQ studentów 1 roku psychologii odbiega od średniej ogółu
ludzi.
μ

5
*

6
5

Wariant b: nie znamy wartości odchylenia standardowego populacji

Krok 4 - Weryfikacja hipotezy na podstawie rozkładu t


Jako, że w tym przypadku nie znamy odchylenia standardowego populacji, musimy je oszacować.
Oszacowana wartość nazywa się błędem standardowym średniej (sx̅)
sx
sx̅ = –––––– ∑(x–x̅ )2
= √ (––––––––) ÷ √
√n. n–

Następnie podmieniamy we wzorze na z odchylenie standardowe średniej (σ÷√n) wzorem na błąd


standardowy średniej (sx̅). Wówczas powstaje nowa statystyka, t:

x̅ – μ x̅ –
t= ––––– = –––––
sx̅ sx/√

Załóżmy, że błąd standardowy (sx) wynosi 13. Wówczas:

115 – 100 1 15√26


t= –––––––––= –––––––– = –––––– = 5,8
sx̅ 13/√26. 1

Teraz analogicznie jak w punkcie 4 wariantu a będziemy odczytywać odległości średniej (100IQ), czyli
0,00 na rozkładzie od wartości krytycznych, jednak nie możemy już posługiwać się tablicą dla rozkładu
normalnego, a tablicą dla rozkładu t studenta. Jest tak, gdyż pomimo tego, że rozkład x̅ cały czas
pozostaje normalny, to rozkład t, w przeciwieństwie do rozkładu z, normalny nie jest - charakteryzuje się
on rozkładem t studenta.

Znaczącą różnicą w tej procedurze jest to, że będziemy potrzebować liczby n studentów biorących udział
w badaniu. Liczba n-1 stanowi liczbę stopni swobody (df), czyli liczby uczestników próby-1, która wpływa na
kształt rozkładu. Rozkład t studenta nie stanowi zatem jednego, konkretnego rozkładu, lecz rodzinę
rozkładów, które zmieniają się w zależności od liczby stopni swobody.

Rozkład t studenta jest w dużej mierze podobny do rozkładu normalnego, a przy dużych wartościach n,
przybiera on nawet zbliżone wartości, co rozkład normalny. Przy jrzy jmy się zatem pozostałym różnicom i
podobieństwom:

Podobieństwa: Różnice:

Oba rozkłady mają średnią równą 0,00 Rozkład t jest platykurtyczny, czyli ma bardziej wysmukły
wierzchołek, niż rozkład normalny oraz większą niż on
częstość występowania wartości na peryferiach.

Oba rozkłady są symetryczne Podczas gdy σ rozkładu normalnego równe jest 1, to σ


rozkładu t studenta może się zmieniać i zawsze jest większe.
n

5
3

Oba rozkłady są jednomodalne (mają jedną modalną, czyli Rozkład t studenta, w przeciwieństwie do rozkładu
najczęściej występującą wartość) normalnego, zależy od stopni swobody (df=n-1)

Graficzne porównanie rozkładów:

Zatem odległość wartości krytycznej od x̅ , dla α=0,05 i df=25 wynosi +2,060. Ponieważ t>2,060,
analogicznie, jak w wariancie a, wykroczy on poza obszar nieodrzucenia i znajdzie się w obszarze
odrzucenia.

+5,88
-2,06 +2,06

Gdy wspominamy o teście istotności w badaniach, używamy zazwyczaj statystyki p. P określa


prawdopodobieństwo wystąpienia takiej średniej, jaka wyszła w badaniach zakładając, że hipoteza zerowa
jest prawdziwa. Przykładowo, jeżeli odległość z od krańca rozkładu wynosi 0,03; to p=0,03, a
zapiszemy, że p<0,05.
T

Niebezpieczeństwa
1. α określa prawdopodobieństwo popełniania błędu I rodzaju - takiego, że odrzuciliśmy prawdziwą hipotezę zerową.
Jest ono stricte związane z poziomem istotności: α=0,05 mówi, że na 5% popełnimy błąd pierwszego rodzaju.
Przy badaniu studentów mogliśmy popełnić właśnie błąd I rodzaju - choć średnia wynikała czysto z losowości
próby, a populacja studentów w rzeczywistości ma IQ na poziomie 100, to my uznaliśmy inaczej.
2. β określa prawdopodobieństwo popełnienia błędu II rodzaju - takiego, że utrzymaliśmy błędną hipotezę. Może on
wynikać z fałszywych założeń na temat średniej populacji z hipotezy: mimo, że x̅ jest na tyle odległa od
prawdziwej μ, że znajduje się w obszarze odrzucenia, to w rozkładzie o średniej hipotetyzowanej x̅ wpada w
obszar nieodrzucenia.

Poziom istotności czy statystyka p nie określa mocy efektu, a jedynie to, z jakim prawdopodobieństwem on w ogóle
występuje. Badanie o wysokim poziomie istotności, lecz niewielkiej różnicy między średnią hipotetyczną zakładaną
przez hipotezę zerową, a faktyczną średnią, nie będzie ważne.

Do określania badania niezbędny nam jest wzór na d (jeżeli znamy odchylenie standardowe) lub g (jeżeli szacujemy
odchylenie standardowe). D jest różnicą między x̅ , a średnią hipotetyczną wyrażoną przez odchylenia standardowe, a
g, analogicznie, przez błędy standardowe. Zatem:

d = (x̅ – μx) ÷ σ
g = (x̅ – μx) ÷ sx

Wartość d lub jego oszacowania, g, wyznacza odległość między średnimi w rozkładzie. Odległość 0,2 oznacza
małą wielkość efektu, 0,5 - średnią, zaś 0,8 dużą. W naszym przypadku zarówno wynik wariantu a , jak i wariantu
b okazuje się być bardzo dużym efektem.

Dla wariantu a: d = (115 – 100) ÷ 15 =


Dla wariantu b: g = (115 – 100) ÷ 13 = 1,

Wyraża się w 1 – β . Jest od β ściśle zależna: wraz z pomniejszaniem się prawdopodobieństwa popełnienia błędu II
rodzaju (β) zwiększa się moc testu; jest również odwrotna do β: jest to prawdopodobieństwo odrzucenia
nieprawidłowej hipotezy zerowej

Czynniki wpływające na moc testu:


Czynnik Efekt Wy jaśnienie

Wielkość efektu Im większa wielkość efektu, tym x̅ należy do rzeczywistego rozkładu badanej zmiennej, którego średnią stanowi µ
większa moc testu prawdziwa. Duża rozbieżność pomiędzy średnią hipotetyczną, a średnią
prawdziwą czyni bardziej prawdopodobne to, że x̅ znajdzie się w obszarze
odrzuceń rozkładu hipotetycznego.
1

Liczebność próby Im większa liczebność próby, tym Zwiększanie się liczebności próby powoduje zmniejszanie się odchylenia
większa moc testu standardowego, a tym samym - zmniejszenie się obszarów wspólnych rozkładu
rzeczywistego i hipotetycznego, co, podobnie jak przy wielkości efektu zwiększa
szansę na to, że x̅ znajdzie się w obszarze odrzuceń rozkładu hipotetycznego.

Zmienność Im mniejsza zmienność (wariancja Niespójność wewnętrzna, czyli brak rzetelności testu, powoduje zwiększenie się
pomiarów czy odchylenie standardowe), tym wartości odchylenia standardowego, które to bezpośrednio wpływa na obniżenie
większa moc testu się wartości statystyki z.

Poziom istotności Im większy poziom istotności, tym Testy konserwatywne, czyli te o niskim α (wysokim poziomie istotności),
większa moc testu. powodują, że obszar odrzuceń jest bardzo nieduży - zwiększenie liberalności
testów prowadzi do rozszerzenia obszaru odrzuceń, a tym samym zwiększenia
prawdopodobieństwa odrzucenia hipotezy nieprawidłowej.
KORELACJA
(1) Podobieństwo zmiennośc
(2) Współzależność między danymi o charakterze ilościowym lub jakościowy
(3) Bezkierunkowa zależność między zmiennymi losowymi mierzalnymi lub rangami (zależność jest obecna
wtedy, gdy prawdopodobieństwo zajścia jednego zdarzenia zależy do zajścia drugiego
(4) Miara siły związk
(5) Kowariancja sprowadzona do zakresu (-1, 1

OBLICZANIE KORELACJI

Metodą najmniejszych kwadratów dokonuje się regresji y na x oraz x na y na wykresie rozproszenia


(korelacji). Korelacja stanowi funkcję kąta między liniami regresji. Im ostrzejszy kąt, tym wyższa korelacja
(kąt prosty oznacza korelacje zerową, a pokrycie się lini korelacje wynosząca 1). Oprócz funkcji obliczania
siły związku, regresja służy także do przewidywania wartości jednej zmiennej na podstawie drugiej

Regresja wieloraka - pozwala budować złożone modele opisujące wiem wpływ zmiennych niezależnych
(predyktorów) na zmienną zależną (wyjaśniana)

Współczynnik korelacji r Pearson

∑x
r = ––––
√ ∑x2 ∑y

(a) Przyjmuje wartości z przedziału (-1, 1


(b) Wartość bezwzględna określa siłę wartości, a znak kierune

Korelacja semi-cząstkowa - korelacja X i Y przy wyłączeniu wpływu Z na


Korelacja cząstkowa - korelacja X i Y przy wyłączeniu wpływu Z na X i Y

INNE WSPÓŁCZYNNIKI

1. Współczynnik ρ Spearmana
(a) Współczynnik Pearsona obliczany dla ran
(b) Stosowany do danych porządkowych oraz o danych o nieznanych lub nierównomiernych rozkładac

2. Korelacja punktowo-dwuseryjna (dwuszeregowa punktowa)


Współczynnik Pearsona obliczany dla zmiennej ilościowej Y i kategorialnej X o wartościach 0, 1

3. Zgodność sędziów kompetentnych


(a) Sposób pomiaru trudno wymiernych wielkośc
(b) Wynikiem x̅ niezależnych ocen kilku ekspertó
(c) Dla dwóch sędziów kappa κ Cohena, dla większej - poszerzony wspolczynik kappa κ Fleissa lub
współczynnik zgodności rang W Kednalla
2

You might also like