You are on page 1of 101

Analiza czynnikowa - wprowadzenie

Zaawansowana analiza danych, semestr letni


mgr Maria Flakus
Modele cechy ukrytej
Wprowadzenie
Cecha ukryta - definicja
Niektóre zjawiska/cechy psychologiczne = cechy ukryte (latentne):

• nieobserwowalne bezpośrednio

• hipotetyczne

• możliwe do wyrażenia na kontinuum.

Konsekwencja dla pomiaru:

• nie mogą być mierzone wprost, tylko pośrednio - na podstawie


obserwowalnych wskaźników
Pozycja testowa = jej treść może odzwierciedlać
• rzadko mają tylko jeden wskaźnik potencjalne obszary manifestacji cechy ukrytej

• wszystkie te wskaźniki mają jednak pewne wspólne źródło w postaci


cechy ukrytej (Raykov, Marcoulides, 2011).
Analiza czynnikowa

Jedna z najstarszych metod badania relacji między


wskaźnikami a cechami ukrytymi.

Cel główny: określenie liczby, charakteru i


znaczenia zmiennych ukrytych, odpowiadających
za współzmienność występującą w zbiorze
wskaźników (Brown, 2006).
Analiza czynnikowa - typy
Dwa typy analizy czynnikowej:

• eksploracyjna analiza czynnikowa (exploratory factor analysis, EFA) - w


której nie nakłada się ograniczeń na strukturę relacji między zmiennymi
obserwowalnymi i ukrytymi; służy poszukiwaniu struktury czynnikowej,
której jeszcze nie znamy lub względem której nie mamy założeń
wstępnych

• konfirmacyjna analiza czynnikowa (confirmatory factor analysis, CFA) - w


której nakłada się (często dość szczegółowe) ograniczenia i założenia
dotyczące liczby zmiennych ukrytych, a także ich powiązań ze
wskaźnikami; wymaga posiadania mocnych empirycznych i
teoretycznych podstaw, służących do zdefiniowania modelu
czynnikowego.

W praktyce (często, lecz nie zawsze): EFA jako analiza poprzedzająca CFA.
Analiza czynnikowa - porównanie

Eksploracyjna analiza czynnikowa Konfirmacyjna analiza czynnikowa

odtworzenie relacji między grupami zmiennych obserwowalnych a mniejszą


liczbą zmiennych ukrytych
redukcja zmiennych obserwowalnych do mniejszej liczby zmiennych latentnych
(czynników, np. skal)
• brak założeń co do struktury • założenia co do hipotetycznej
zmiennych oraz liczby zmiennych struktury czynnikowej oraz liczby
latentnych czynników
• dekompozycja układu zmiennych • oparcie na modelu teoretycznym
na podstawie ich wartości własnych lub empirycznym

szukamy czynników testujemy strukturę czynnikową


Analiza czynnikowa - zasada
działania
Główny mechanizm działania: dekompozycja wariancji.

• wariancję wspólną (common variance) - wariancja wspólna dla


wszystkich wskaźników w macierzy, związana z oddziaływaniem
cechy ukrytej

• wariancję swoistą (unique variance) - pozostała część wariancji,


niewspółdzielonej z pozostałymi wskaźnikami, w skład której
wchodzi:

✴ wariancja specyficzna dla danego wskaźnika, której


źródłem jest inna cecha ukryta

✴ wariancja błędu - związana z błędem pomiaru i


nierzetelnością narzędzia (zob. Brown, 2006).
O co cały ten szum?
Czyli w jakich sytuacjach wykorzystujemy analizę czynnikową
Trafność teoretyczna
Trafność teoretyczna:

• oceniana w ramach teorii

• pokazuje związek narzędzia z konstruktem teoretycznym - w


tym: czy oczekiwana struktura teoretyczna konstruktu
pokrywa się ze strukturą narzędzia

• ocenia stopień, w jakim wnioski wyprowadzone na podstawie


wyników testowych odzwierciedlają pozycję osoby badanej
na pewnym teoretycznym kontinuum (konstruktu).

Badanie trafności nigdy nie odbywa się w jednym badaniu!


Przykład - narzędzie badające
postawę wobec statystyki
Zgodnie z teorią: narzędzie powinno badać postawę wobec
statystyki, a więc jeden konstrukt teoretyczny.

Zmienna latentna („czynnik”):


ξ postawa wobec statystyki

λ1 λ3
λ2
Wskaźniki:
x1 x3 pozycje testowe - item 1, item 2, item 3 itd.
x2
ξ1 [xi] - zmienna latentna
δ1 δ3 λ1 [lambda] - ładunek czynnikowy
δ2 δ1 [delta] - wariancja swoista
Przykład - narzędzie badające
postawę wobec statystyki
Jednym z aspektów badania trafności teoretycznej może być
sprawdzenie, na ile struktura teoretyczna faktycznie będzie
jednoczynnikowa.

Postawa
wobec
statystyki

Pozycje testowe w różnym stopniu


λ1 λ3 „powiązane” będą z czynnikiem teoretycznym
- stąd również zróżnicowane będą ich ładunki

λ2 czynnnikowe (czym one są - o tym za chwilę)

Item 1 Item 3
Item 2

δ1 δ3
δ2
Cecha ukryta - model teoretyczny
ALE: również zgodnie z teorią postawy manifestować się mogą na trzech
poziomach: behawioralnym, afektywnym, poznawczym. Zatem może:
ξ1 [xi] - zmienna latentna
Φ12 Φ13 Φ23
λ1 [lambda] - ładunek czynnikowy
δ1 [delta] - wariancja swoista
Φ12 [fi] - kowariancja ładunków

ξ1 ξ2 ξ3
λ1 λ3 λ4 λ6 λ7 λ9
λ2 λ5 λ8
x1 x3 x4 x6 x7 x9
x2 x5 x8
δ1 δ3 δ4 δ6 δ7 δ9
δ2 δ5 δ8
Cecha ukryta - model teoretyczny
ALE: również zgodnie z teorią postawy manifestować się mogą na trzech
poziomach: behawioralnym, afektywnym, poznawczym. Zatem może:
Czynniki mogą być
z sobą powiązane.
Φ12 Φ13 Φ23

Komponenta Komponenta Komponenta


behawioralna afektywna poznawcza
postawy postawy postawy

λ1 λ3 λ4 λ6 λ7 λ9
λ2 λ5 λ8
Item 1 Item 3 Item 4 Item 6 Item 7 Item 9
Item 2 Item 5 Item 8

δ1 δ3 δ4 δ6 δ7 δ9
δ2 δ5 δ8
Jedno- vs wielowymiarowość

Przyjęcie obu rozwiązań może mieć istotne konsekwencje


dla rozumienia i posługiwania się wynikami testowymi:

• jednowymiarowość konstruktu =
uprawomocnienie posługiwania się wynikiem
ogólnym (sumarycznym) w teście

• wielowymiarowość konstruktu =
uprawomocnienie posługiwania się wynikami w
podskalach lub czynnikach.
Czy jednowymiarowe jest zawsze tylko
jednowymiarowe, a wielowymiarowe
jest zawsze tylko wielowymiarowe?
Bo przecież nie może być zbyt łatwo…
Jednowymiarowość zasadnicza

Jednowymiarowość zasadnicza (essential


unidimensionality; zob. Stout, 1990):

• dopuszcza się istnienie zarówno


głównego wymiaru, jak i wymiarów
pobocznych

• zakłada, że czynnik główny dominuje


(Reise, Moore, Haviland, 2010).
Model czynnika wyższego rzędu

Model czynnika wyższego rzędu


(hierarchiczny, higher-order factor
models) - relacje między
wskaźnikami a czynnikiem
wyższego, tj. drugiego rzędu (ξ1)
są zapośredniczone przez czynniki
niższego, tj. pierwszego rzędu (η1 i
η2); analizowana jest nie tylko
macierz korelacji między
wskaźnikami, ale także macierz
korelacji między zmiennymi
ukrytymi.
Model podwójnego czynnika
Model podwójnego czynnika
(bifactor; in. modele bezpośrednio
hierarchiczne - direct hierarchical) -
czynnik główny (ξg) jest definiowany
przez ładunki czynnikowe
wszystkich pozycji skali, a czynniki
poboczne - tj. specyficzne (ξS1 i ξS2) są
wyodrębnione na podstawie analizy
mniejszych grup pozycji; w ujęciu
tym pojawia się więcej niż jedno
źródło wspólnej wariancji ξg
wpływającej na oszacowanie.
Czy któryś jest lepszy?
Modele struktury wyższego rzędu (hierarchiczne) Modele podwójnego czynnika (bifactor)

ZALETY

oszędność oraz możliwość redukcji dużej liczby zmiennych do mniejszej liczby

uproszczenie złożonych struktur pomiarowych

możliwość pomiaru głównej cechy, która interesuje badacza oraz cech bardziej szczegółowych

MODELE HIERARCHICZNE VS BIFACTOR

problem z interpretacją czynnika drugiego rzędu poprawna separacja czynnika głównego od


specyficznego
założenie pełnej mediacji czynników pierwszego rzędu analiza relacji pośrednich między zmiennymi
między czynnikiem drugiego rzędu a zmiennymi obserwowalnymi a latentnymi
obserwowalnymi
łatwość w wychwytywaniu błędów w definicji
czynnika specyficznego
potencjalne użyteczne przy tworzeniu (skracaniu)
narzędzi
A co jeśli nie mamy teoretycznego
założenia dotyczącego struktury
czynnikowej?
Eksploracyjna analiza
czynnikowa (EFA)
Eksploracyjna analiza czynnikowa

Analiza wstępna - eksploracja wskaźników (poszukiwanie czynników


ukrytych i określanie ich optymalnej liczby).

Często na dalszych etapach wymaga potwierdzenia w postaci innych analiz


(np. CFA).

Wskaźnik 1 (item 1)

wariancja wspólna
(common variance)

Wskaźnik 2 (item 2)
Eksploracyjna analiza czynnikowa

Analiza wstępna - eksploracja wskaźników.

Wymaga potwierdzenia w postaci innych analiz (np. CFA).

Wskaźnik 1 (item 1)

wariancja specyficzna
(common variance)

Wskaźnik 2 (item 2)
Źródła wariancji wspólnej = korelacja
między pozycjami testowymi
item 1 item 2 item 3 item 4 item 5 item 6 item 7 item 8 item 9 item 10 item 11 item 12 item 13
item 1 -
item 2 ,270** -
item 3 ,517** ,326** -
item 4 ,224** ,253** ,355** -
item 5 ,252** ,656** ,334** ,410** -
item 6 ,257** ,627** ,283** ,467** ,671** -
item 7 ,171* ,236** ,171* ,471** ,257** ,313** -
item 8 ,287** 0,101 ,328** ,158* 0,036 0,133 0,014 -
item 9 ,439** ,172* ,599** ,255** ,222** ,280** ,169* ,452** -
item 10 0,109 ,302** ,214** ,433** ,328** ,403** ,344** -0,004 ,176* -
item 11 ,158* ,343** 0,126 ,365** ,336** ,357** ,327** -0,027 0,059 ,512** -
item 12 ,165* ,231** ,235** 0,058 ,144* ,171* -0,009 ,191** ,168* 0,029 0,015 -
item 13 ,322** ,604** ,474** ,446** ,707** ,612** ,321** ,192** ,349** ,280** ,311** ,247** -

Powiązanie miedzy wskaźnikami =

Czynnik 1? Czynnik 2? Czynnik 3? pozycjami testowymi skali stanowić może


sygnał na istnienie czynnika ukrytego, który
odpowiada za powiązanie tych pozycji
Założenia techniczne dla EFA

1. Przynajmniej raczej nie analizujemy zmiennych


nominalnych (problem z
porządkowy poziom kowariancją/korelacją)
pomiaru wskaźników.
mocno uznaniowe i niemożliwe
2. Normalność wskaźników do spełnienia jeśli zmienne są
(itemów). porządkowe (PSYCHOLOGIA)

3. Odpowiednio duża próba.

4. Korelacje między
zmiennymi są różne od
zera.
Założenia techniczne dla EFA

1. Przynajmniej
porządkowy poziom
pomiaru wskaźników.
za Nunnallym (1978) - 10 razy
2. Normalność wskaźników więcej osób badanych niż
wskaźników
(itemów).
za Fieldem (2013) - 10-15 osób na
każdą z zanalizowanych
3. Odpowiednio duża próba. zmiennych

za Tabachnick i Fidell (1992) -


4. Korelacje między przynajmniej 300 osób

zmiennymi są różne od za Comreyem i Lee (1992) -


podział na N = 100 jako próby
zera. małej, N = 300 jako wystarczającej
i N = 1000 jako znakomitej
Założenia techniczne dla EFA

1. Przynajmniej
porządkowy poziom
pomiaru wskaźników.

2. Normalność wskaźników ZASADA GENERALNA:


• niskie korelacje między
(itemów).
wskaźnikami -
3. Odpowiednio duża próba. konieczność zbadania
dużej próby
• wysokie korelacje
4. Korelacje między
między wskaźnikami -
zmiennymi są różne od
mniejsza próba może
zera. być wystarczająca
Założenia techniczne dla EFA

1. Przynajmniej
porządkowy poziom
pomiaru wskaźników.

2. Normalność wskaźników
(itemów).
Test Bartletta jako
3. Odpowiednio duża próba.
metoda weryfikacji
4. Korelacje między
GWARANCJA
zmiennymi są różne od
SENSOWNOŚCI EFA
zera.
Test sferyczności Bertletta

Wyznacznik macierzy - dzięki niemu wiadomo, czy dany zbiór


zmiennych obserwowalnych można sprowadzić do mniejszego
rozmiaru:

jeśli równy 1 - zmienne są słabo skorelowane ze sobą (tzw.


macierz jednostkowa - brak możliwości redukcji danych)

H0: Wyznacznik macierzy jest równy 1. p < 0,05 - zmienne


są skorelowane
Inne testy tego samego typu: miara Kaisera-Meyera-Olkina
(KMO) - wartości referencyjne: najlepsze wartości to te bliskie 1;
min wart. dopuszczalna: 0,5 uwaga: niska wartość może sugerować po
prostu to, że należy zwiększyć próbę
EFA - know how
Etapy EFA

Wykonując eksploracyjną analizę czynnikową przyjąć


można następujące kroki:

1. określenie optymalnej liczby czynników

2. określenie metody obliczania ładunków


czynnikowych

3. określenie metody rotacji ładunków czynnikowych


- w sytuacji, gdy proponowane rozwiązanie składa
się z kilku czynników (Brown, Moore, 2012).
Etapy EFA

Wykonując eksploracyjną analizę czynnikową przyjąć


można następujące kroki:

1. określenie optymalnej liczby czynników

2. określenie metody obliczania ładunków


czynnikowych

3. określenie metody rotacji ładunków czynnikowych


- w sytuacji, gdy proponowane rozwiązanie składa
się z kilku czynników (Brown, Moore, 2012).
Określenie optymalnej liczby
czynników
Najpopularniejsze metody określania liczby czynników:

kryterium wartości własnej Kaisera


metody
analiza wykresu osypiska (metoda Cattella) stosowane
najczęściej

analiza równoległa (paralel analysis)

kryterium procenta wariancji wyjaśnionej

kryterium połowy.
Metoda 1: wartość własna
Wartość własna - odzwierciedla siłę powiązań między korelacjami skali silnie z
sobą korelującymi i tworzącymi konkretny czynnik:

• im wyższa wartość własna, tym silniejsze powiązanie między wskaźnikami


(tym bardziej znaczący czynnik)

• informuje o tym, jaka część całkowitej zmienności jest tłumaczona przez dany
czynnik.

Kryterium Kaisera: wyodrębnij wszystkie czynniki,


których wartość własna jest większa od 1,00

… lub większe od 0,70 (zob. Jolliffe, 1986).


Metoda 1: wartość własna
Słabe strony metody:
• ma tendencję do przeszacowywania liczby czynników

Warunki sensowności:
• liczba wskaźników jest mniejsza iż 30, a zasoby zmienności wspólnej
po wyodrębnieniu są większe niż 0,70
• liczność próby jest większa iż 250, a przeciętne zasoby zmienności
wspólnej są większe lub równe 0,60 (Field, 2013, s. 677-679).
Kryterium Kaisera: wyodrębnij wszystkie czynniki,
których wartość własna jest większa od 1,00

rzadziej
… lub większe od 0,70 (zob. Jolliffe, 1986). stosowana
interpretacja
Metoda 2: wykres osypiska
Metoda 2: wykres osypiska

ZASADA INTERPRETACJI: Wyodrębnij


wszystkie czynniki powyżej punktu, za którym
wykres się spłaszcza
Metoda 2: wykres osypiska

Kiedy stosować?
• duża próba (N > 200)
• klarowna struktura
czynnikowa
Metoda 3: analiza równoległa
Opracowana: Horn (1965); udoskonalona: Green i in. (2012)

Polega na wyodrębnianiu takiej liczby


czynników, dla których wartości własne będą
nie mniejsze niż 95. centyl wartości własnej
oczekiwanej, otrzymanej w wyniku analizy
zbiorów testowych (Green i in., 2012).
Metoda 3: analiza równoległa

W PRAKTYCE: porównanie dwóch wykresów


osypiska - dla danych (data) i dla sytuacji, w
której wartości własne będą nie mniejsze niż 95.
centyl wartości własnej oczekiwanej
(simulations)
Metoda 3: analiza równoległa
Zaleta: daje najlepsze rezultaty spośród wszystkich metod
bazujących na wartościach własnych czynników (Zwick, Velicer,
1986; Schmitt, 2011)

Wada: nie jest ona domyślnie dostępna w większości pakietów


statystycznych (np. SPSS, Statistica) - ale jest w JASP i JAMOVI
Metoda 4: procent wariancji
wyjaśnionej

Polega na wyborze takiej liczby czynników,


która gwarantuje pewien arbitralnie
określony procent wariancji wyjaśnionej
przez zmienne.

Kryterium abstrahuje od wartości własnych i


jego restrykcyjność leży w gestii badacza
(Bedyńska, Cypryańska, 2013, s. 248).
Metoda 5: kryterium połowy

Liczba wyodrębnionych czynników powinna


być mniejsza niż połowa liczby wskaźników
włączanych do analizy (Stanisz, 2007).
Które kryterium wybrać?
Takie, które daje rozwiązanie:

najsensowniejsze

najlepiej uzasadnione teoretycznie

najlepiej pokrywające się z treściową zawartością pozycji


testowych

łączące itemy w faktyczne czynniki, a nie grupy itemów


wyodrębnione na podstawie wspólnej warstwy
gramatycznej lub leksykalnej
Lepiej wyodrębnić mniej czy wiecej
czynników?
Wood, Tataryn i Gorsuch (1996):

bardziej negatywne konsekwencje przynosi wyodrębnianie zbyt


małej liczby czynników (underfactoring) niż wyodrębnienie zbyt
dużej liczby czynników (overfactoring):

• underfactoring często prowadzi do błędnej interpretacji


czynnika

• część pozycji posiadać może znaczące ładunki na innych


czynnikach, które pominięte zostały w rozwiązaniu, co
powoduje wzrost wielkości błędu modelu.
Etapy EFA

Wykonując eksploracyjną analizę czynnikową przyjąć


można następujące kroki:

1. określenie optymalnej liczby czynników

2. określenie metody obliczania ładunków


czynnikowych

3. określenie metody rotacji ładunków czynnikowych


- w sytuacji, gdy proponowane rozwiązanie składa
się z kilku czynników (Brown, Moore, 2012).
Etapy EFA

Wykonując eksploracyjną analizę czynnikową przyjąć


można następujące kroki:

1. określenie optymalnej liczby czynników

2. określenie metody obliczania ładunków


czynnikowych

3. określenie metody rotacji ładunków czynnikowych


- w sytuacji, gdy proponowane rozwiązanie składa
się z kilku czynników (Brown, Moore, 2012).
Metody obliczania ładunków
czynnikowych
Metoda Zalety Wady

Metoda osi głównych Maksymalizuje wariancję wspólną dla Raczej metoda dla opisu cechy latentnej w próbie -
(principal axis factoring, czynnika głównego. bez zamiaru generalizacji rezultatu poza próbę.
PAF)
Nie wymaga spełnienia założenia o Brak wskaźników dotyczących dopasowania do
normalności rozkładu wskaźników. „modelu zerowego” (idealnego).

Brak możliwości wyliczania przedziałów ufności


(np. dla ładunków).

Metoda największej Raportowany jest poziom istotności dla Wymaga spełnienia założenia o normalności
wiarygodności różnicy między strukturą modelową a rozkładu wskaźników.
(maximum likelihood, ML) empiryczną.
Często wskazuje na błędy w zakresie specyfikacji
Można wyliczać przedziały ufności dla modelu.
ładunków.

Pozwala testować istotność ładunków.

Metoda składowych
głównych (principal NIE JEST METODĄ ANALIZY CZYNNIKOWEJ!
component analysis, PCA)
Metody obliczania ładunków
czynnikowych
Metoda Zalety Wady

Metoda osi głównych Maksymalizuje wariancję wspólną dla Raczej metoda dla opisu cechy latentnej w próbie -
(principal axis factoring, czynnika głównego. bez zamiaru generalizacji rezultatu poza próbę.
PAF)
Nie wymaga spełnienia założenia o Brak wskaźników dotyczących dopasowania do
normalności rozkładu wskaźników. „modelu zerowego” (idealnego).

Brak możliwości wyliczania przedziałów ufności


(np. dla ładunków).

Metoda największej Raportowany jest poziom istotności dla Wymaga spełnienia założenia o normalności
wiarygodności różnicy między strukturą modelową a rozkładu wskaźników.
(maximum likelihood, ML) empiryczną.
Często wskazuje na błędy w zakresie specyfikacji
Można wyliczać przedziały ufności dla modelu.
PCA wyznacza czynniki tylko w oparciu o wspólną
ładunków.
wariancję poszczególnych pozycji testowych, zaś EFA
Pozwala testować istotność ładunków.
uwzględnia zarówno wariancję wspólna jak i swoistą
Metoda składowych
głównych (principal NIE JEST METODĄ dla każdejANALIZY
pozycji testowej.
CZYNNIKOWEJ!
component analysis, PCA)
Metody obliczania ładunków
czynnikowych
Metoda Zalety Wady

Metoda osi głównych Maksymalizuje wariancję wspólną dla Raczej metoda dla opisu cechy latentnej w próbie -
(principal axis factoring, czynnika głównego. bez zamiaru generalizacji rezultatu poza próbę.
PAF)
Nie wymaga spełnienia założenia o Brak wskaźników dotyczących dopasowania do
normalności rozkładu wskaźników. „modelu zerowego” (idealnego).

Brak możliwości wyliczania przedziałów ufności


(np. dla ładunków).

Metoda największej Raportowany jest poziom istotności dla Wymaga spełnienia założenia o normalności
wiarygodności różnicy między strukturą modelową a rozkładu wskaźników.
(maximum likelihood, ML) empiryczną.
Często wskazuje na błędy w zakresie specyfikacji
Można wyliczać przedziały ufności dla modelu.
ładunków.
Metoda redukcji dużej ilości danych, nie
Pozwala testować istotność ładunków.
stanowiąca modelu cechy ukrytej!
Metoda składowych
głównych (principal NIE JEST METODĄ ANALIZY CZYNNIKOWEJ!
component analysis, PCA)
EFA a PCA

EFA i PCA dają również inne rezultaty, stąd też


stawianie znaku równości między obiema
metodami jest NIEWŁAŚCIWE

Źródło: https://statystykawpsychologii.blogspot.com/2018/02/efa-i-pca.html
EFA a PCA
Fabrigar i wsp. (1999):
• wyniki uzyskiwane w ramach PCA i EFA różnią się od siebie znacząco,
głównie w zakresie:
wyliczonych zasobów zmienności wspólnej
ilości wskaźników wchodzących w skład składowej/czynnika.

Field (2013, s. 676):


• różnice te nie są aż tak duże w sytuacji, gdy:
analizowanych jest 30 lub więcej zmiennych
zasoby zmienności wspólnej są większe od 0,70.

Floyd, Widaman (1995):


• wyniki uzyskiwane w EFA mają większą szansę na potwierdzenie przy
zastosowaniu CFA.
Poszczególne etapy

Wykonując eksploracyjną analizę czynnikową przyjąć


można następujące kroki:

1. określenie optymalnej liczby czynników

2. określenie metody obliczania ładunków


czynnikowych

3. określenie metody rotacji ładunków czynnikowych


- w sytuacji, gdy proponowane rozwiązanie składa
się z kilku czynników (Brown, Moore, 2012).
Poszczególne etapy

Wykonując eksploracyjną analizę czynnikową przyjąć


można następujące kroki:

1. określenie optymalnej liczby czynników

2. określenie metody obliczania ładunków


czynnikowych

3. określenie metody rotacji ładunków czynnikowych


- w sytuacji, gdy proponowane rozwiązanie składa
się z kilku czynników (Brown, Moore, 2012).
Ładunki czynnikowe
Ładunek czynnikowy - stopień, w jakim poszczególne wskaźniki
ładują czynniki latentne.

Im wyższy jest ładunek czynnikowy, tym silniej wskaźnik


„powiązany jest” z czynnikiem.

Na poziomie (bardziej) matematycznym:

X = a · F1 + b · F2 + ... + k · Fk

Wskaźnik jako liniowa kombinacja czynników ukrytych


Ładunki czynnikowe
Ładunek czynnikowy - stopień, w jakim poszczególne wskaźniki
ładują czynniki latentne.

Im wyższy jest ładunek czynnikowy, tym silniej wskaźnik


„powiązany jest” z czynnikiem.

Na poziomie (bardziej) matematycznym:

X = a · F1 + b · F2 + ... + k · Fk
Ładunki czynnikowe
Ładunek czynnikowy - stopień, w jakim poszczególne wskaźniki
ładują czynniki latentne.

Im wyższy jest ładunek czynnikowy, tym silniej wskaźnik


„powiązany jest” z czynnikiem.

Na poziomie (bardziej) matematycznym:

X = a · F1 + b · F2 + ... + k · Fk

czynniki teoretyczne
ładunki czynnikowe
Interesują nas te najwyższe (> 0,50 lub > 0,30)
Ładunki czynnikowe
Możliwe - lecz niekonieczne i rzadko raportowane - jest określenie istotności
statystycznej dla ładunków czynnikowych, która będzie pochodną wielkości próby, jaka
została przebadana.

Stevens (2002) proponuje przyjęcie następujących orientacyjnych wartości, przy


przyjęciu poziomu alfa równego 0,01:

dla N = 50 ładunki powinny być większe od 0,722;

dla N = 100 ładunki powinny być większe od 0,512;

dla N = 200 ładunki powinny być większe od 0,364;

dla N = 300 ładunki powinny być większe od 0,298;

dla N = 600 ładunki powinny być większe od 0,210;

dla N = 1000 ładunki powinny być większe od 0,162.


Dalej o ładunkach czynnikowych…

Zależy nam na tym, aby jedna zmienna obserwowalna


X nie ładowała więcej niż jednego czynnika na raz.
No ale przecież…

Na poziomie (bardziej) matematycznym:

X = a · F1 + b · F2 + ... + k · Fk

najwyższy ładunki krzyżowe (crossloadings) -


ładunek na ładunki na pozostałych czynnikach
czynniku
Staramy się maksymalizować ładunek na jednym z czynników,
minimalizując ładunki na pozostałych czynnikach
Rotacja czynników

Metoda (metody) służąca maksymalizacji wielkości


ładunku czynnikowego na jednym z czynników,
przy minimalizacji ładunków na innych.

Ułatwia interpretację czynników.

Stosujemy głównie wtedy, gdy wyróżniamy więcej niż


jeden czynnik.
Rotacja czynników
ORTOGONALNE UKOŚNE

Varimax Promax
Equamax Oblimin
EFA - PRZYKŁADOWA
ANALIZA
International Personality Item Pool

Baza: IPIP_dataset.sav

Program: jamovi
International Personality Item Pool

Określenie optymalnej liczby czynników i określenie metody obliczania ładunków


czynnikowych:
Analizowano zbiór 25 pozycji testowych wchodzących w skład
testu IPIP. Test sferyczności Bartletta sugerował istnienie
niezerowych korelacji między pozycjami testowymi, skłaniając
do poszukiwania rozwiązania wieloczynnikowego dla
badanego kwestionariusza: χ2 (300) = 2204,28; p < 0,001. Test
KMO wskazywał na adekwatną wielkość badanej próby dla
EFA: KMO = 0,81. Do estymacji ładunków czynnikowych
modelu wykorzystano metodę osi głównych (principal axis
factoring, PAF) - ze względu na brak normalności rozkładów
analizowanych itemów.

Liczbę czynników określono za pomocą metody równoległej


(parallel analysis), która wskazała na możliwość wyodrębnienia
pięciu czynników ukrytych. Na możliwość przyjęcia
rozwiązania pięcioczynnikowego wskazywała również analiza
tradycyjnego wykresu osypiska (rysunek 1). Analiza wartości
własnych z kolei wskazała, że cztery z nich przyjmowały Rysunek 1. Wykres osypiska i wykres symulacyjny dla analizy
wartości wyższe niż 1,00 (kolejno: 4,64; 2,07; 1,39, 1,02), przy równoległej - test IPIP
czym piąta z wartości własnych przyjmowała wartość bliską
1,00 (odpowiednio: 0,90), sugerując możliwość wyodrębnienia
również piątego czynnika.
International Personality Item Pool
Tabela 1. Ładunki czynników dla skali IPIP

Czynnik 1 Czynnik 2 Czynnik 3 Czynnik 4 Czynnik 5


Określenie metody rotacji ładunków A1 -0.52

czynnikowych i interpretacja wyników: A2 0.69


A3 0.67
W związku z tym wyliczono ładunki czynników dla rozwiązania A4 0.41
pięcioczynnikowego, które przedstawiono w tabeli 1. Ładunki wyliczono z A5 0.52
wykorzystaniem rotacji ukośnej promax. W tabeli zaprezentowano ładunki C1 0.72
czynników wyższe niż 0,30. C2 0.70
C3 0.52

Analiza wskazała na czytelne rozwiązanie pięcioczynnikowe, w ramach C4 -0.61


którego każda z pozycji testowych charakteryzowała się najwyższym C5 -0.55
ładunkiem czynnikowim na tylko jednym czynniku ukrytym, przy E1 -0.59
stosunkowo niskich ładunkach krzyżowych na pozostałych czynnikach (z E2 -0.75
nielicznymi pozycjami o ładunkach krzyżowych równych lub wyższych od E3 0.65
0,30). E4 0.65 0.32
E5 0.51
N1 0.81
Biorąc pod uwagę treści pozycji, pierwszy z czynników zinterpretowano
N2 0.80
jako neurotyczność. Czynnik ten tłumaczył 10,97% wariancji wyników we
N3 0.72
wszystkich pozycjach. Drugi z czynników zinterpretowano jako
ekstrawertyczność - czynnik ten tłumaczył 11,15% wariancji wyników w N4 0.56 -0.38

itemach. Trzeci z czynników zidentyfikowano jako sumienność. Czynnik N5 0.49

ten tłumaczył 8,67% wariancji. Czwarty z czynników zinterpretowano jako O1 0.52

ugodowość - czynnik te wyjaśniał 8,50% wariancji wyników w zakresie O2 -0.52

pozycji testowych. Piąty z czynników stanowiła otwartość na O3 0.31 0.61

doświadczenia. Czynnik ten tłumaczył 6,48% wariancji wyników w O4 0.32


itemach. Sumarycznie, wyodrębnionych pięć czynników wyjaśniało 45,76% O5 -0.54
wariancji wyników.
Adnotacje. Do wyliczenia ładunków czynnikowych wykorzystano metodę osi głównych.
Wykorzystano rotację promax.
A co jeśli mamy teoretyczne
założenia dotyczącego struktury
czynnikowej?
Konfirmacyjna analiza
czynnikowa (CFA)
Konfirmacyjna analiza czynnikowa

Konfirmacyjna analiza czynnikowa (confirmatory factor analysis, CFA)


stanowi odmianę analizy czynnikowej, stosowną w sytuacji, gdy
istnieją uzasadnione podstawy do postawienia hipotez o strukturze
badanego konstruktu, a tym samym - relacji występujących między
wskaźnikami a czynnikami latentnymi.

(1) TEORIA STRUKTURA CFA

(2) EFA STRUKTURA CFA

TEORIA
Podobieństwa między EFA i CFA

Eksploracyjna analiza czynnikowa Konfirmacyjna analiza czynnikowa


(exploratory factor analysis, EFA) (confirmatory factor analysis, CFA)
odtworzenie relacji między grupami zmiennych obserwowalnych a mniejszą liczbą
zmiennych ukrytych
redukcja zmiennych obserwowalnych do mniejszej liczby zmiennych latentnych
(czynników, np. skal)
• brak założeń co do struktury • założenia co do hipotetycznej
zmiennych oraz liczby zmiennych struktury czynnikowej oraz liczby
latentnych czynników
• dekompozycja układu zmiennych na • oparcie na modelu teoretycznym lub
podstawie ich wartości własnych empirycznym

szukamy czynników testujemy strukturę czynnikową


Modele cechy latentnej w CFA

CFA pozwala na
weryfikowanie teoretycznych
założeń dotyczących badanego
konstruktu lub tworzonego
narzędzia (rozumianych jako
element trafności teoretycznej),
w szczególności zaś udzielenie
odpowiedzi na pytanie o to, na
ile badany konstrukt traktować
można jako jednowymiarowy
bądź też postulować jego
wielowymiarowość.
Modele cechy latentnej w CFA

CFA pozwala na
weryfikowanie teoretycznych
założeń dotyczących badanego
konstruktu lub tworzonego
narzędzia (rozumianych jako
element trafności teoretycznej),
w szczególności zaś udzielenie
odpowiedzi na pytanie o to, na
ile badany konstrukt traktować
można jako jednowymiarowy
bądź też postulować jego
wielowymiarowość.
Jednowymiarowość w EFA
Drasgow & Hulin (1990):
jednowymiarowość można
stwierdzić, gdy mamy w zbiorze
danych jeden główny,
dominujący czynnik

Reckase (1979):
pierwszy czynnik powinien
wyjaśniać co najmniej 20%
wariancji wyników, by być
stabilnym

Morizot, Ainsworth & Reise


(2007):
stosunek czynnika pierwszego
do drugiego powinien wynosić
powyżej 3,0
Jednowymiarowość w EFA
Drasgow & Hulin (1990):
jednowymiarowość można
stwierdzić, gdy mamy w zbiorze
danych jeden główny,
dominujący czynnik

Reckase (1979):
pierwszy czynnik powinien
wyjaśniać co najmniej 20%
wariancji wyników, by być
stabilnym

Morizot, Ainsworth & Reise


(2007):
stosunek czynnika pierwszego
do drugiego powinien wynosić
powyżej 3,0
Jednowymiarowość w EFA
Drasgow & Hulin (1990):
jednowymiarowość można
stwierdzić, gdy mamy w zbiorze
danych jeden główny,
dominujący czynnik

Reckase (1979): 28,9% 20,4%


pierwszy czynnik powinien
wyjaśniać co najmniej 20%
wariancji wyników, by być
stabilnym

Morizot, Ainsworth & Reise


(2007):
stosunek czynnika pierwszego
do drugiego powinien wynosić
powyżej 3,0
Jednowymiarowość w EFA
Drasgow & Hulin (1990):
jednowymiarowość można
stwierdzić, gdy mamy w zbiorze
danych jeden główny,
dominujący czynnik

Reckase (1979): 3,85


pierwszy czynnik powinien
wyjaśniać co najmniej 20%
wariancji wyników, by być
stabilnym

Morizot, Ainsworth & Reise


(2007):
stosunek czynnika pierwszego
do drugiego powinien wynosić
powyżej 3,0
Jednowymiarowość w EFA
Drasgow & Hulin (1990):
jednowymiarowość można
stwierdzić, gdy mamy w zbiorze
danych jeden główny,
dominujący czynnik
NIE ZAWSZE MUSIMY
Reckase (1979):
pierwszy czynnik powinien UPRASZCZAĆ
wyjaśniać co najmniej 20%
STRUKTURĘ
wariancji wyników, by być
stabilnym CZYNNIKOWĄ
Morizot, Ainsworth & Reise
(2007):
stosunek czynnika pierwszego
do drugiego powinien wynosić
powyżej 3,0
Jednowymiarowość vs
wielowymiarowość w CFA

ξg

Model czynnika wyższego Model podwójnego


rzędu (hierarchiczny) czynnika (bifactor)
Jednowymiarowość vs
wielowymiarowość w CFA

ξg

Modele te trudniej testować w EFA - stąd też przewaga CFA


w sytuacji, gdy struktura naszego konstruktu nie jest prosta.
CFA - know how
Korki w CFA

Identyfikacja modelu

Estymacja modelu

Ocena dopasowania modelu


Korki w CFA

Identyfikacja modelu

Estymacja modelu

Ocena dopasowania modelu


Identyfikacja modelu

Model jest zidentyfikowany wtedy, gdy


bazując na znanych informacjach (macierzy
wariancji-kowariancji w próbie) możliwe jest
uzyskanie unikalnego zestawu estymatorów
dla każdego z parametrów modelu, którego
wartość jest nieznana (np. wielkości
ładunków czynnikowych, kowariancje
między czynnikami itd.).
Zasady identyfikacji modelu
ZASADA 1:

niezależnie od stopnia złożoności modelu, zmienne latentne muszą


zostać wyskalowane poprzez przyporządkowanie wskaźników lub
określenie wariancji czynnika (najczęściej do wartości 1,0).

ZASADA 2:

niezależnie od stopnia złożoności modelu, liczba informacji w


macierzy wejściowej musi równać się lub przekraczać liczbę
swobodnie estymowanych parametrów modelu (np. wielkości
ładunków czynnikowych).
Zasady identyfikacji modelu
ZASADA 3:

w przypadku modeli jednoczynnikowych, wymagane jest wprowadzenie przynajmniej


trzech wskaźników czynnika latentnego, co zapewnia dokładne (zaledwie)
zidentyfikowanie modelu (ang. just lub under-identified model), a tym samym -
oszacowanie estymatorów parametrów modelu, przy jednoczesnym braku możliwości
testowania jego dopasowania (możliwe jest to w sytuacji, gdy wskaźników jest więcej
niż 3 - wtedy model jest nadmiernie zidentyfikowany, ang. over-identified model)
Zasady identyfikacji modelu
ZASADA 4:

w sytuacji, gdy model zawiera dwa lub więcej czynników latentnych i dwa wskaźniki
przyporządkowane każdemu z nich, rozwiązanie będzie nadmiernie zidentyfikowane
pod warunkiem, że każda ze zmiennych latentnych będzie skorelowana z przynajmniej
jedną inną zmienną latentną, przy niezależności błędów wskaźników; jakkolwiek jednak
w sytuacji takiej istnieje zawsze ryzyko zaledwie dokładnego zidentyfikowania modelu
(np. w przypadku braku korelacji między czynnikami latentnymi), rekomendowane jest
użycie minimum trzech wskaźników dla każdej zmiennej latentnej (Brown, 2006).
Korki w CFA

Identyfikacja modelu

Estymacja modelu

Ocena dopasowania modelu


Korki w CFA

Identyfikacja modelu

Estymacja modelu

Ocena dopasowania modelu


Estymacja modelu
Celem tego etapu jest znalezienie zbioru wartości
parametrów modelu (np. wielkości ładunków),
który maksymalnie zreprodukuje otrzymaną
macierz kowariancji. Efektem finalnym jest
oszacowanie parametrów, pozwalające na
ocenienie dopasowania modelu do postulowanego.

Do szacowania parametrów modelu wykorzystuje


się różnorodne funkcje dopasowania (zob.
Konarski, 2009).
Metody estymacji parametrów
Nazwa Charakterystyka Ograniczenia

• Najcześciej stosowany

• Prowadzi do uzyskania estymacji


maksymalizującej prawdopodobieństwo, że
• W warunkach znacznego
macierz empiryczna kowariancji pochodzi z
naruszenia założenia o
populacji, w której postulowana w modelu
normalności prowadzi do
macierz jest prawdziwa
błędnego szacowania
Estymator największej
parametrów, w szczególności
wiarygodności • Wymaga spełnienia założenia o normalności
błędów i testów dopasowania
(maximum likelihood, ML) analizowanych zmiennych

• Nie nadaje się do analizowania


• Stosowany w sytuacjach relatywnie dużej próby
wskaźników wyrażonych na
(N > 200), w której założenie o normalności
skalach Likerta (dyskretnych)
może być spełnione

• Możliwy do zastosowania dla analizy zmiennych


interwałowych i ilorazowych, ciągłych
Metody estymacji parametrów
Nazwa Charakterystyka Ograniczenia
• Właściwości zbliżone do ML, w idealnych
warunkach testowania doprowadza do • Staje się coraz bardziej
podobnych wyników obciążony wraz ze wzrostem
• Jest odporny na błędy w próbach o skośności i kurtyczności
Estymator uogólnionych średniej wielkości analizowanych danych
najmniejszych kwadratów • Wymaga spełnienia założenia o • Aby jego dokładność w
(generalized least squares, GLS) normalności analizowanych zmiennych warunkach naruszenia
• Stosowany w warunkach naruszenia założenia o normalności była
założenia o normalności, pod warunkiem, porównywalna do ML, wymaga
że próba jest odpowiednio duża (N > wykorzystania większej próby
500)
• Stosowany w sytuacji poważnego
naruszenia założenia o normalności • Wymaga wykorzystania
Estymator ważonych najmniejszych
zmiennych relatywnie dużej próby (N >
kwadratów (weighted least squares,
• Odpowiedni dla zmiennych dyskretnych, 500 dla małych modeli, N =
WLS)
także porządkowych (ale również dla 5000 dla dużych modeli)
zmiennych ciągłych)
Estymator diagonalnie ważonych
• Modyfikacja WLS
najmniejszych kwadratów (diagonally
• Wymaga mniejszej próby niż WLS
weighted least squares, DWLS)
Korki w CFA

Identyfikacja modelu

Estymacja modelu

Ocena dopasowania modelu


Korki w CFA

Identyfikacja modelu

Estymacja modelu

Ocena dopasowania modelu


Wskaźniki dopasowania
Trzy grupy:

wskaźniki bezwzględnego dopasowania (absolute fit indices) - ich


wielość nie zależy od porównania z innymi alternatywnymi modelami

wskaźniki przyrostowe (relatywnego dopasowania modelu lub miary


względnego dopasowania; incremental fit indices, comparative fit indices,
relative fit indices) - wskazują na dopasowanie modelu w porównaniu z
modelem zerowym

wskaźniki oszczędności modelu (parsimony indices) - miary walidacji


krzyżowej, polegającej na podzieleniu próby na dwie podgrupy:
kalibracyjną i walidacyjną, w ramach których kolejno poszukuje się
odpowiedniego modelu, a następnie stara się go skonfirmować.
Wskaźniki bezwzględnego
dopasowania modelu
Nazwa Cechy charakterystyczne Interpretacja

• Porównuje model o danej liczbie czynników do modelu idealnego na podstawie wartości


funkcji dopasowania
Jeżeli p < 0,05 - występuje istotna
• Testuje hipotezę o braku różnic między obserwowaną i odtworzoną macierzą kowariancji
różnica między modelem
Test chi kwadrat • Uzależnienie od liczebności próby (dla dużych prób często jest istotny statystycznie -
obserwowalnym i idealnym, model jest
zob. Byrne, 2012)
zatem źle dopasowany
• Dla niektórych estymatorów (np. DWLS) może stanowić podstawę do pewniejszego
wnioskowania o jakości dopasowania modelu (Nye, Drasgow, 2011)

• Wskazuje na poziom rozbieżności między macierzą korelacji obserwowanych i korelacji


Wystandaryzowany szacowanych
pierwiastek średniego • Określany mianem „miary słabości dopasowania” (ang. badness-of-fit)
kwadratu reszt • Zależny od liczności próby - dla dużych prób może być nadmiernie konserwatywny < 0,08 - dobre dopasowanie modelu
(standardized root mean • Jest pochodną innej miary - pierwiastka średniego kwadratu reszt (RMR), który jest jego
square residual, SRMR) wersją niestandaryzowaną (a tym samym uzależnioną od skali pomiarowej i trudniejszą
do interpretacji)
<= 0,05 - dobre dopasowanie modelu
Pierwiastek średniego
kwadratu błędu • Maleje w sytuacji, gdy dodatkowe parametry modelu polepszają jego dopasowanie
pomiędzy 0,05 a 0,08 - słabe
przybliżenia (root mean • Posługiwanie się tą miarę sprzyja uzyskiwaniu modeli „oszczędnych” i mało złożonych
dopasowanie modelu
square error of • Dla zwiększenia dokładności, często podawana jest wraz z 90% przedziałem ufności
powyżej 0,08 - nieakceptowalne
approximation, RMSEA)
dopasowanie modelu
• Miara niezależna od wielkości próby (lecz nie w pełni)
• Informuje o tym, na ile model jest dobrze dopasowany, porównując go z sytuacją
Indeks dobroci
zupełnego braku modelu (tzw. model zerowy) >= 0,95 - dobre dopasowanie modelu do
dopasowania (goodness of
• Jego pochodną jest skorygowany indeks dobroci dopasowania (adjusted goodness of fit danych
fit index, GFI)
index, AGFI), który skorygowany jest o stopnie swobody modelu
• Może stanowić zbyt liberalny wskaźnik dla oceny dopasowania modelu
Wskaźniki przyrostowe
Nazwa Cechy charakterystyczne Interpretacja

• Czasem nazywany także indeksem Bentlera i Bonetta (BBI)


• Mierzy przyrost dopasowania modelu w odniesieniu do modelu zerowego
• Może prowadzić do wyboru zbyt złożonego modelu, gdyż maleje wraz z
Znormalizowany indeks uwalnianiem parametrów modelu >= 0,95 - dobre dopasowanie modelu
dopasowania (normed fit index, NFI) • Nie jest w pełni uniezależniony od wielkości próby (ma tendencję wzrostową w do danych
większych próbach)
• Jest pochodną nieznormalizowanego wariantu (nonnormed fit index, NNFI; in.
Tucker-Lewis Index, TLI)

• Niecentralna miara dobroci dopasowania


Relatywna miara dopasowania • Pochodna od NFI, posiadająca podobne do niego ograniczenia >= 0,95 - dobre dopasowanie modelu
(relative fit index, RNI; BL96) • Może sygnalizować nadmierne dopasowanie modelu lub błędy próby, jeżeli do danych
wartości statystyki przekroczą 1,0

• Miara pochodna względem RNI, „uodporniona” na nadmierne dopasowanie


Względny indeks dopasowania modelu (wartości powyżej 1,0 zastępowane są wartością 1,0) >= 0,95 - dobre dopasowanie modelu
(comparative fit index, CFI) • Tradycyjnie przyjmowana wartość graniczna dla małych prób może być zbyt do danych
restrykcyjna (propozycja przyjęcia granicy 0,90)
Wskaźniki oszczędności modelu
Nazwa Cechy charakterystyczne Interpretacja

• Miara nienormowana, a więc możliwa do interpretacji tylko przy


porównaniu kilku modeli konkurencyjnych
Im niższa wartość, tym większa szansa
Kryterium informacyjne Akaike’a
modelu na zreplikowanie w niezależnym
(Akaike information criterion, AIC) • Im większa liczność próby, tym bardziej złożony model będzie w
zbiorze danych
jej świetle preferowany. Stąd też rekomendowany jest dla
mniejszych prób

• Miara pochodna względem AIC, uniezależniona od wpływu


Bayesowskie kryterium
wielkości próby Im niższa wartość, tym większa szansa
Schwarza (Schwarz’s Bayesian
modelu na zreplikowanie w niezależnym
Criterion, SBC; in. Bayesian
• Częściej umożliwia przyjęcie modelu z mniejszą liczbą zbiorze danych
information criterion, BIC)
parametrów niż w przypadku posługiwania się AIC
CFA - przykładowa analiza
International Personality Item Pool

Baza: IPIP_dataset.sav

Program: jasp
International Personality Item Pool

BIG 5 (model teoretyczny)

Ugodowość

Sumienność 

Ekstrawersja 

Neurotyczność

Otwartość
International Personality Item Pool
Tabela 1. Ładunki czynników dla testu IPIP - wyniki CFA
Czynnik Wskaźnik λ SE λ Z p
Określenie i estymacja modelu: Ugodowość A1 0.256 0.055 4.658 < 0.001
A2 -0.690 0.055 -12.485 < 0.001
A3 -0.976 0.065 -15.071 < 0.001
A4 -0.835 0.062 -13.453 < 0.001
Wychodząc z koncepcji Wielkiej Piątki założono, że
A5 -1.073 0.068 -15.899 < 0.001
struktura testu winna być pięcioczynnikowa. W Sumienność C1 0.763 0.053 14.449 < 0.001
celu weryfikacji struktury wykorzystano C2 0.699 0.056 12.552 < 0.001
konfirmacyjną analizę czynników (CFA). Do C3 0.437 0.052 8.417 < 0.001
C4 -1.130 0.066 -17.000 < 0.001
estymacji parametrów modelu wykorzystano
C5 -1.230 0.073 -16.904 < 0.001
diagonalnie ważony estymator najmniejszych Ekstrawertyczność E1 0.796 0.060 13.364 < 0.001
kwadratów (DWLS) - ze względu na brak E2 1.319 0.067 19.665 < 0.001
normalności wyników w pozycjach testowych oraz E3 -0.915 0.055 -16.748 < 0.001

porządkowy charakter skali pomiarowej, na jakiej E4 -1.039 0.059 -17.534 < 0.001
E5 -0.805 0.051 -15.842 < 0.001
badani ustosunkowywali się do twierdzeń testu. Neurotyczność N1 1.234 0.075 16.379 < 0.001
N2 1.006 0.068 14.849 < 0.001
N3 1.242 0.074 16.675 < 0.001
Wielkości uzyskanych ładunków czynnikowych, N4 1.228 0.074 16.556 < 0.001
wraz z ich istotnością przedstawiono w tabeli 1. N5 0.887 0.070 12.594 < 0.001

Wszystkie ładunki czynników poza ładunkiem O5 0.123 0.062 1.982 0.047


Otwartość O1 0.727 0.058 12.451 < 0.001
czynnikowim dla pozycji O4 były istotne O2 -0.617 0.074 -8.294 < 0.001
statystycznie. O3 1.032 0.076 13.616 < 0.001
O4 0.037 0.051 0.723 0.470
O5 -0.456 0.066 -6.951 < 0.001
International Personality Item Pool
Tabela 1. Ładunki czynników dla testu IPIP - wyniki CFA

Ocena dopasowania modelu:


Czynnik Wskaźnik λ SE λ Z p
Ugodowość A1 0.256 0.055 4.658 < 0.001
A2 -0.690 0.055 -12.485 < 0.001
A3 -0.976 0.065 -15.071 < 0.001
A4 -0.835 0.062 -13.453 < 0.001
A5 -1.073 0.068 -15.899 < 0.001
Model uzyskał graniczne dopasowanie do Sumienność C1 0.763 0.053 14.449 < 0.001
danych: χ2 (264) = 576,36; p < 0,001; RMSEA = C2 0.699 0.056 12.552 < 0.001

0,07 [95% CI: 0,061; 0,077]; SRMR = 0,09; TLI: C3 0.437 0.052 8.417 < 0.001
C4 -1.130 0.066 -17.000 < 0.001
0,89; CFI = 0,90. C5 -1.230 0.073 -16.904 < 0.001
Ekstrawertyczność E1 0.796 0.060 13.364 < 0.001
E2 1.319 0.067 19.665 < 0.001
E3 -0.915 0.055 -16.748 < 0.001
E4 -1.039 0.059 -17.534 < 0.001
E5 -0.805 0.051 -15.842 < 0.001
Neurotyczność N1 1.234 0.075 16.379 < 0.001
N2 1.006 0.068 14.849 < 0.001
N3 1.242 0.074 16.675 < 0.001
N4 1.228 0.074 16.556 < 0.001
N5 0.887 0.070 12.594 < 0.001
O5 0.123 0.062 1.982 0.047
Otwartość O1 0.727 0.058 12.451 < 0.001
O2 -0.617 0.074 -8.294 < 0.001
O3 1.032 0.076 13.616 < 0.001
O4 0.037 0.051 0.723 0.470
O5 -0.456 0.066 -6.951 < 0.001

You might also like