You are on page 1of 33

Indholdsfortegnelse

Korrelation............................................................................................................................................3
Scatterplot i SPSS:............................................................................................................................3
Korrelation i SPSS:..........................................................................................................................5
Rapport af resultater:........................................................................................................................6
Reliabilitet............................................................................................................................................7
Reliabilitet i SPSS............................................................................................................................7
Validitet................................................................................................................................................8
Faktor analyse.......................................................................................................................................9
SPSS...............................................................................................................................................10
Simpel lineær regression....................................................................................................................11
Regression i SPSS:.........................................................................................................................11
Rapport af resultater:......................................................................................................................12
Multipel lineær regression..................................................................................................................13
Multipel regression i SPSS:............................................................................................................13
Rapport af resultater:......................................................................................................................13
One-Way ANOVA.............................................................................................................................14
SPSS...............................................................................................................................................15
Opsummering.................................................................................................................................16
Factorial ANOVA..............................................................................................................................18
SPSS...............................................................................................................................................18
Opsummering.................................................................................................................................19
ANCOVA...........................................................................................................................................20
SPSS...............................................................................................................................................20
Opsummering.................................................................................................................................21
EMA-Guideline..................................................................................................................................22
Repeated Measures ANOVA.............................................................................................................23
SPSS...............................................................................................................................................23
Opsummering.................................................................................................................................25
Factorial Repeated Measures ANOVA..............................................................................................26
SPSS...............................................................................................................................................26

Side 1 af 33
Opsummering.................................................................................................................................27
Logistisk regression............................................................................................................................28
Logistisk regression i SPSS............................................................................................................29
Rapport af resultater:......................................................................................................................29

Valg af test
For at kunne skelne mellem de forskellige tests er det væsentligt at kende forskellen på kategoriske
variable (som i SPSS hedder ”nominal”) og kontinuerte variable (som i SPSS hedder ”scale”):

Side 2 af 33
- Kategoriske (nominal): Kan antage et begrænset antal værdier såsom køn (mand/kvinde),
behandlingsgruppe (Kontrol/CBT/Family Treatment) og outcome (succes/fiasko)
- Kontinuerte (scale): Kan antage principielt alle eller i praksis bare mange værdier (fx
højde, vægt, alder, IQ, HAMD, stuttering, score)

Ud fra nedenstående beslutningstræ kan man så finde den rigtige test med 3 trin:
1) Hvad er skalatypen for den afhængige variabel? (Venstre kolonne)
2) Er der én eller flere uafhængige variable? (Højre kolonner)
3) Hvad er skalatypen for den/de uafhængige variabel/variable?

Afhængig Én uafhængig variabel Flere uafhængige variable


variabel
Kontinuer Kategorisk Kontinuert Kategoriske Både/og
t e
Flere Gentagn Flere Gentagn
grupper e grupper e
målinger målinger
Kontinue Korrelatio One-way Repeated Multipel Factorial Factorial ANCOVAb/
rt n/ ANOVA Measure lineær ANOVA/ Repeated Multipel lineær
Simpel s regression ANCOVAa Measure regression
lineær ANOVA s
regression ANOVA
Binær Logistisk regression
Spørgeske
-ma Reliabilitet/Validitet + Faktoranalyse
(items)

Bemærkninger til beslutningstræet:


a) ANCOVA skal bruges, hvis den kategoriske variabel (fx køn) udelukkende fungerer som en
kovariat, dvs. er brugt til fx stratificering (jf. EMA Guideline).
b) ANCOVA skal bruges, hvis den kontinuerte uafhængige variabel fungerer som kovariat, fx i
form af en baseline performance/måling (jf. EMA Guideline).

Side 3 af 33
Korrelation

Hvornår bruger man denne test: Korrelation bruges, når data er kontinuerlig, og der ledes efter
graden af sammenhæng mellem den uafhængige og afhængige variabel. Vi kan kun sammenligne to
variable af gangen.

Korrelation: Undersøgelsen mellem to kontinuerte variable. Vi kigger på sammenhænge og ikke


kausalitet.

Korrelation koefficient: Et mål på sammenhængen mellem variablerne.


Pearson correlation (r): Data kan være interval/ratio
Går ud fra at data er normalfordelt
Spearman's rank correlation (rs): Data kan være ordinal og interval/ratio
Behøver IKKE at være normalfordelt
Pearson korrelationkoefficient beregnet på baggrund af
ranked data
Spearman's rs er mindre påvirkelig over for outliers

Graden af sammenhæng: Størrelsen på r indikerer graden af sammenhæng.


- .1 = svag korrelation
- .3 = middel korrelation
- .5 = stærk korrelation

Sammenhængens retning: Angiver hvorvidt korrelation er negativ eller positiv


- -1 = perfekt negativ korrelation (højere værdier af X er associeret med lavere værdier af Y)
- 0 = ingen korrelation
- 1 = perfekt positiv korrelation (højere værdier af X er associeret med højere værdier af Y)

Scatterplot: Grafisk fremstilling af korrelationen mellem X og Y


Scatterplot i SPSS: Graphs → Chart Builder → Gallery: Scatter/Dot → Simple Scatter

Side 4 af 33
Predictor variable: Uafhængig variabel
Criterion variable: Afhængig variable
Regression linje: Den bedste rette linje; den linje der passer bedst på den givne data

Kovarians: Kovariansen giver et tal for graden, hvorved to variable varierer sammen

- Formel: co v XY =
∑ ( X −X ) (Y −Y )
N−1
o X: Den uafhængige variabels scorer
o Y: Den afhængige variabels scorer
o X : Gennemsnittet af den uafhængige variabel
o Y : Gennemsnittet af den afhængige variabel
o N : Antal forsøgspersoner

Pearson product-moment correlation coefficient (r): Korrelationskoefficient


co v XY
- r=
s X sY
o s X : Standardafvigelse for variabel X
o sY : Standardafvigelse for variabel Y

Slå op i Tabel E.2 for at finde den kritiske r-værdi

Side 5 af 33
Korrelation i SPSS:
Analyze → Correlate → Bivariate → Variable til Variables → Vælg Pearson eller Spearman → OK

Side 6 af 33
Rapport af resultater:
Korrelationen: r(df) = ?, p = ?

Eksempel
En korrelationsanalyse viste en stærk positiv korrelation mellem stress og depression, r(4) = .87, p
< .05

Side 7 af 33
Reliabilitet

Reliabilitet: Hvor akkurat måler testen? Kan vi få samme resultater på forskellige tidspunkter?

True score: Den sande score er det tal, som ville opnås, hvis testen var 100% præcis og uden
diverse errors, bias etc.
Obtained score: Den observerede værdi, f.eks. fra et spørgeskema.
Error: Afvigelsen mellem true score og obtained score.

Test-retest reliability: Korrelationen mellem to tidspunkter

Alternate and parallel-forms reliability: Korrelationen mellem to udgaver af samme test

Measures of test homogeneity / Split-half reliability: Tester ensartetheden i en test. Korrelationen


mellem første og anden halvdel af testen (de skal helst måle det samme).
k⋅R
- reliability =
1+ ( k−1 ) ⋅ R
o k: Antallet af halve
o R: Korrelationskoefficienten

Inter-rater reliability: Intern konsistens, subjektivitet indgår i testen – hvor stor korrelation er der
mellem alle scorernes scorer.

Konfidensinterval for den sande score: I et interval hvor vi kan være 95% sikre på, at den sande
score findes, er konfidensintervallet:
- C I .95=score ± 1.96⋅ SEM
Hvor SEM er:
- SEM =SD ⋅ √ 1−reliability

Reliabilitet i SPSS
For retest: Analyze → Correlate → Bivariate
For split-half eller Cronbach's alpha: Analyze → Scale → Reliability
- Under model: Vælg enten Split-half eller Alpha

For konklusion:
- Test-retest: Kig på korrelation (Pearson)
- Split-half test: Spearman-Brown correction
- Internal test: Cronbach's alpha

Side 8 af 33
Validitet

Validitet: Måler testen det, man gerne vil måle?


- Dette er umuligt, da modeller er uperfekte
- Korrelationskoefficienter kan give en ide om det.

Content-related validity: Hvor repræsentativ er testen ift. det, der måles (domænet)?

Criterion-related validity: Korrelation mellem en score og andre kilder - er der en sammenhæng?

Construct-related validity: Måler testen, det korrekte konstrukt?

Side 9 af 33
Faktor analyse

Hvornår bruger vi testen: Vi bruger testen, når vi har en masse variable, som vi gerne vil reducere
ned til nogle overordnede kategorier. Man ”kollapser” dermed sine variable ind under nogle
overordnede overskifter.
Man har fx benyttet faktoranalyse til udarbejdelse af Big Five og HEXACO modellen.

Definition af begreber
Factor: En faktor er en samling af komponenter, der korrelerer meget med hinanden. Det gælder, at
man kan udregne lige så mange faktorer, som der er observerede variable (items).

Factor loading: Faktorvægte angiver, hvor meget hver af de udtrukne faktorer korrelerer med hver
af de observerede variable.

Factor matrix / Component matrix: Det er i denne matrix (boks), hvor faktorvægtene bliver
præsenteret i SPSS.

Communality: Hvor meget varians i et item, der forklares af de udvundne faktorer.


2 2
- Kommunalite t X =r fakto r variabel +r fakto r variabe l +…
n X n X

Eigenvalue: Hvor meget de enkelte faktorer forklarer af den totale varians for alle observerede
variable. Det er summen af de kvadrerede korrelationer.
2 2
- Eigenværdi=r fakto r variabe l + r faktor variabel + …
n n n n

Scree plot: En grafisk afbildning af faktorerne i SPSS. Her kan man se antallet af faktorerne, der
skal udtrækkes.

Kaiser’s criterion: Kaisers kriterium siger, at man kun beskæftiger sig med faktorer med en
eigenværdi over 1.

Side 10 af 33
Rotation: Akserne roteres for at få det bedst mulige match. Man vil gerne have, at de forskellige
items ”passer” godt til faktoren. Når man roterer, reduceres kovariationen mellem klyngerne af
variable.
- Orthogonal rotation: (Den vi benytter) Items er uafhængige – ingen korrelation
- Oblique rotation: Komponenterne må gerne korrelere.

SPSS
Analyze → Dimension Reduction → Factor

Alle variabler, som vi er interesserede i, skal over i ”Variables”. Der skal ikke noget i ”Selection
variable”.

Under ”Extractions” kan man både få et scree plot, men man kan også vælge at basere sin analyse
på Eigenværdien eller på et bestemt antal faktorer (det sidste er dog primært, hvis der bliver spurgt
til det i opgaven).

Under ”Rotation” vælges ”Varimax” for at få en orthogonal rotation.

Under ”Options” kan man sortere faktorvægte efter størrelse, og man kan frasortere alle faktorvægte
under en bestemt værdi (udgangspunkt er som regel 0,4).

Aflæsning af resultater
- Communalities: Kommunalitet aflæses her
- Total Variance Explained: Eigenværdierne bliver vist her
- Component matrix: Her kan man se faktorvægtene før rotation
- Rotated component matrix: Faktorvægte efter rotation. Hvis man har lavet rotation, så
skal man aflæse i denne boks og ikke i component matrix

Side 11 af 33
Simpel lineær regression

Hvornår bruges denne test: Statistisk model, der kan prædiktere værdien af en kontinuerlig
afhængig variabel ud fra værdien af en uafhængig variabel.
Regressionslinjen er den bedste rette linje for sammenhængen mellem variablerne.
Kan anvendes som hypotesetest, hvor der testes, hvorvidt den uafhængige variabel signifikant kan
forudsige den afhængige variabel.

Regression:
- Y^ =b1 X 1+ b0
o Y ^ : Den prædikterede værdi af den afhængige variabel. En model, dvs. at den er
udregnet og ikke en absolut værdi.
o b 1: Hældningskoefficienten for den uafhængige variabel
o X : Den uafhængige variabel
o b 0: Skæringspunktet med Y-aksen
Slope: b1: Hældningen
co v XY
- b 1= 2
sx

o co v XY : Kovariansen mellem X og Y (co v XY =


∑ ( X −X ) (Y −Y )
)
N−1
o s2x: Standardafvigelsen for X i anden
Intercept: b0: Skæringspunktet med Y-aksen
- b 0=Y −b1 X

Residual: Forskellen mellem de observerede og forventede værdier. Den bedste rette linje mindsker
residualerne mest muligt (der skal være så lille forskel som mulig, så er modellen så godt som
muligt).

R2: Fortæller hvor meget variation modellen kan forklare.

Regression i SPSS:
Analyze → Regression → Linear → Indsæt variablerne i Dependent og Independent

Side 12 af 33
For at finde b-værdierne kigger man under B
- Constant er interceptet/skæringspunktet
For at finde ud af, hvilke af de uafhængige variable, der har en signifikant indflydelse på den
afhængige variabel, kigger man under Sig.
- Her er Age signifikant, og det betyder, at den afhængige variabel stiger med alderen og altså
ikke er horisontal.

Rapport af resultater:
Rapport af b-værdierne: b = ?, t(df) = ?, p = ?
Rapport af regressionslinjen: Y^ =b1 X 1+ b0
Rapporter R2

Side 13 af 33
Multipel lineær regression

Hvornår bruger man denne test: Statistisk model, der kan prædiktere værdien af en kontinuerlig
afhængige variabel ud fra værdien af flere uafhængige variable.
- Alt er magen til ved simpel lineær regression → der er bare flere uafhængige variable

Multipel regression:
- Y^ =b0 +b1 X 1 +b 2 X 2 …+b n X n

Multiple correlation coefficient (R): Sammenhængen/korrelationen mellem Y og Y-hat

Squared correlation coefficient (R2): Hvor meget af variansen kan de uafhængige variable
tilsammen forklare

Multicollinearity: Hvor meget prædiktorerne (de uafhængige variable) korrelerer med hinanden.
Hvis variablene korrelerer meget → ustabil regression

Multipel regression i SPSS:


Analyze → Regression → Linear

Rapport af resultater:
Rapport af b-værdierne: b = ?, t(df) = ?, p = ?
Rapport af regressionslinjen: Y^ =b1 X 1+ b0
Rapporter R2

Side 14 af 33
One-Way ANOVA

Hvornår bruger man denne test: Når man har én uafhængige variabel, men flere end 2 grupper.
Eksempel: Behandling som uafhængig variabel med de 3 niveauer: CBT, Psykoanalyse og FT.
ANOVA sammenligner variansen mellem grupperne med variansen inden for grupperne.

Hvorfor ikke bruge en t-test: t-testen kan kun undersøge forskellen mellem de to grupper, og vi
ville derfor skulle lave 3 t-tests for at undersøge forskellen mellem de 3 grupper.
Jo flere tests vi bruger, des større sandsynlighed for Type 1 fejl. Type 1 fejl = at forkaste nul-
hypotesen, i de tilfælde hvor der faktisk ikke er nogen forskel på populationerne.
Ved 3 t-tests i stedet for 1 ANOVA ville family-wise error rate være:
1 – (.95)3 = .143 = 14.3 %
Vores error rate ville altså være alt for høj, da den som udgangspunkt ikke må overstige 5% for
gængs forskning.

Udregning af one-way ANOVA i hånden:

Nulhypotese: Der er ikke en forskel mellem gennemsnittene.


Alternative hypotese: Mindst et af gennemsnittene er forskellige.

Sums of Squares (SS): Estimate af den totale variabilitet i data


SStotal: (angivet på forhånd) Estimat af den totale variabilitet/spredning
- S S total=∑ ( X− X gm )
2

- df =N−1
SSgroup: Summen af kvadrerede afvigelser i gruppen (dvs. en bestemt gruppe). For at finde ud af,
hvor meget der varieres inden i en gruppe.
- S S groups =∑ n ( X group− X gm )
2

o n: Antal forsøgspersoner i gruppen


o X gm forstås som det overordnede gennemsnit for alle grupperne, altså ”grand mean”.
- df =k −1
o k: Antal grupper
SSerror: Spredningen inde i grupperne.
- S S error =S S total −S S groups
- df =N−k
o N: Den totale sum af deltagere
o k: Antal grupper

Mean Squares (MS): Estimat af populationens varians


MSgroup: Variansen mellem grupperne
S S groups
- M S groups =
d f groups

Side 15 af 33
MSerror: Variansen indenfor grupperne
S S error
- M S error=
d f error

F statistic: F er variansen imellem grupperne delt med variansen indenfor grupperne


M S groups
- F=
M Serror

Finde den kritiske F-værdi og hypotesetestning: Tabel E.3 under frihedsgraderne for Groups og
Error. F.05(dfgroups, dferror)
Den udregnede F-værdi skal være højere end den kritiske værdi for at kunne forkaste nulhypotesen

Effektstørrelse: Hvor stor en effekt er forskellen i grupperne.


2 S S Groups
- η=
S STotal

Lille effekt = .01


Mellem effekt = .06
Stor effekt = .14

Pooled variance:
s21 ( n1−1 ) + s 22 ( n 2−1 )
2
Pooled variance for 2 grupper er: s = p
n1 +n2−2
2 2 2
s1 ( n1−1 ) + s 2 ( n 2−1 ) + s3 ( n3−1 )
2
Det kan udvides til flere grupper: s = p og ja så fortsætter den med 4
n 1+ n2+ n3−3
og 5 osv osv.
2 2 2
s1 + s2 + s3
Hvis n1 =n2=n 3 gælder så kan formlen reduceres til dette: s p= 2
3

Beskyttet t-test: Bruger til at teste hvor forskellen ligger efter at have fået en signifikant F-værdi.
X i− X j
t=
-
√ 1 1
M S error ⋅( + )
ni nj
Ved sammenligning af 3 grupper med t-test – virker ikke med flere end 3 grupper.
Testen forudsætter, at F-testen er signifikant.
Den beskyttede t-test sikrer, at familywise error rate ikke overstiger 5%.

Bonferonni Procedure: Bonferroni proceduren korrigerer signifikansniveauet for antallet af tests,


' α
der udføres ved at udregne det nye signifikansniveau: α =
antal tests

Side 16 af 33
.05
Eksempel: Hvis vi har α = .05 og udfører 3 tests, bliver det nye signifikansniveau: =.0167
3

SPSS
Analyze → General linear model → Univariate
- Options: Estimates of effect size
- Plots: Mean plots
- Post hoc: Vælg LSD for den beskyttede t-tests

Hvis F-værdien er signifikant, ved man, at der mindst er en gruppe, der er signifikant forskellig fra
de andre, men vi kender ikke fordelingen. Vi bruger Fishers LSD-test til at teste dette.

Man kan nu se de forskellige gruppers sammenligning af mean difference og signifikansniveau, og


på den måde aflæse mellem hvilke grupper, der er signifikant forskel, og hvor meget forskellen er.
Mean difference
- Til konklusion skal t-værdien med, som udregnes: t=
Std . error

Opsummering
ANOVA: F(dfGroups, dfError) = ?, p = ?, η2 = ?
LSD t-test: t(dfError) = ?, p = ?, CI.95: ? ≤ µ ≤ ?

Side 17 af 33
Eksempel
24 studerende blev tilfældigt inddelt i tre grupper og sat til at studere en tekst i 20 minutter,
hvorefter de skulle besvare 10 multiple choice spørgsmål. Grupperne studerede teksten med hhv.
konstant, varierende eller ingen baggrundsstøj. En one-way ANOVA viste en signifikant effekt af
baggrundsstøj på antal korrekte spørgsmål (F(2, 21) = 3.5, p = .048, η2 = .25. Posthoc analyse
(Fishers LSD test) viste, at gruppen med konstant baggrundsstøj havde signifikant flere spørgsmål
korrekt (M = 6) end gruppen med ingen baggrundsstøj (M = 3.5) (t(21) = 2.5, p = .021).

Side 18 af 33
Factorial ANOVA

Hvornår bruger man denne test: Estimat af forskellen mellem 2 eller flere gennemsnit på tværs af
2 eller flere uafhængige variable.

Eksempel: Hvor godt et mor-barn forhold, der er mellem mor og barn


- Afhængig variabel: Score på mor-barn forhold
- Uafhængig variabel A: Hvor mange man før har været mor
- Uafhængig variabel B: Barnets fødselsvægt

Der testes altså for 3 ting, og vi får derfor 3 F-værdier og p-værdier.


1. Er der generel forskel i variabel A
2. Er der generel forskel i variabel B
3. Er der interaktion mellem variabel A og variabel B (AxB)

Factor: Uafhængig variabel

Factorial design: Fortæller om niveauerne i de to uafhængige variable (f.eks. et 2x2-design betyder


at begge de to uafhængige variable, har to niveauer).

Interaktion: Om den ene uafhængige variabel påvirker den anden, dvs. om der er en form for
sammenhæng. Effekten af en forklarende variabel afhænger af niveauet på den anden forklarende
variabel.
- Man fortolker interaktionen ud fra en graf. Er linjerne parallelle, er der ingen interaktion (p
> .05). Hvis linjerne skærer hinanden, er der interaktion (p < .05).

Main effect eller hovedeffekt: Den gennemsnitlige effekt af en forklarende variabel på tværs af
flere niveauer af en anden forklarende variabel.

Side 19 af 33
Formel for Partial Eta-Square
SS Variabel
η2p =
SSVariabel + SS Error
Man får SPSS til give værdierne. Du kan dog også bare udregne det med SPSS ved krydse
Estimates of effects

SPSS
Analyze → General Linear Model → Univariate
Dependent variable (indsæt afhængig variabel)
Fixed Factor (indsæt uafhængige variable)
- Plot: Plots → Horizontal Axis; Seperate lines (det er lige meget, hvor de uafhængige
variable placeres) → Add
- Options: Effektstørrelse og deskriptiv statistik

Resultaterne aflæses i nedenstående billede (3 F-værdier og 3 p-værdier):

Opsummering
Opsummeringen skal indeholde deskriptiv statistik (M, SD) og resultaterne for ANOVAen
(F(dfGroups, dfError) = ?, p = ?, ηp2 = ?).

Eksempel
Et studie der undersøgte mødres og børns relation på en skala fra 0-12 ift. om mødrene var
førstegangsfødende (primo) eller flergangsfødende (multi) og om barnets vægt var undervægtig
(LBW) eller normalvægtig (LB). En faktorial analyse af varians viste følgende:
Det viste sig at fødselsvægten (F(1, 36) = 3.032, p = .090 og ηp2 = .78) var over signifikansniveauet
på 5% og denne havde altså ikke en signifikant påvirkning på forholdet mellem mor og barn.

Side 20 af 33
For om mødrene var førstegangsfødende eller flergangsfødende var signifikant F(1, 36), p = .019,
ηp2 = .145, da p-værdien er under signifikansniveauet, kan vi bekræfte at om moderen har født før
har en påvirkning på om relationen mellem barn og moderen er god. Dette kan også ses på grafen
da førstegangsfødende ligger signifikant lavere end flergangsfødende (MFT=6,4, MLBW=5,3).

Interaktionen viste at F(1, 36), p = .885 og ηp2 = .001, da signifikansniveauet er over 5% kan vi
forkaste at der er en signifikant interaktion mellem barnets vægt og moderens fødselsstatus. Dette
kan ses på grafen da linjerne er parallelle.

Side 21 af 33
ANCOVA

Hvornår bruger man denne test: En ANCOVA anvendes, når man ønsker at sammenligne
forskelle, fx imellem behandlingsmetoder, men hvor man ønsker at korrigere for en kovariat – ofte
er denne kovariat baseline. ANCOVA er kendetegnet ved:
- Der er 2 eller flere grupper
- Der er 2 eller flere uafhængige variable (kovariaten tæller som en uafhængig variabel)
- Der antages uafhængighed mellem målingerne
- Man kan analysere interaktion, men ønskes sjældent
- Designet af between-subjects (man sammenligner forskelle imellem grupper)

Hvorfor bruger ANCOVA og ikke t-test: Årsagen til, at man anvender en ANCOVA, er, at man
kan korrigere for en kovariat (baseline). Dette reducerer støj i form af "confounders" og øger graden
af power.

Kovariat: En kovariat er en variabel, som ikke er en del af den eksperimentelle manipulation, men
som influerer den afhængige variabel
- Fx baseline-scorer som påvirker end-of-treatment scorer, hvorfor man korrigerer for
baseline.

Stratificering: Når man på forhånd forsøger at udligne kovariater - fx hvis man ved, at køn vil have
en indflydelse på resultaterne, vil man inddele i lige store grupper (altså lige mange drenge/piger i
hver gruppe).

Interaktion: Vi medtager kun interaktioner, hvis vi vil udføre en sekundær eksplorativ analyse
- Hvis der er en interaktion mellem den uafhængige variabel og kovariaten, er undersøgelsen
gyldig => ANCOVA kan IKKE udføres.

SPSS
Analyze → General linear model → Univariate
Vælg ”Dependent” og ”Fixed factor” og ”Covariate”
- Plot: Hvis plot ønskes. Vælg ”horizontal akse”. Hvis flere variable, vælg også for ”seperate
lines”
- Options: ”Estimates of effect size” for partial eta-square. For at lave pairwise comparisons
for sammenligne forskellen i de justerede gennemsnit: Flyt variable over i ”Display means
for” og ”Compare main effects”

Resultaterne aflæses fra dialogboksene:


- Tests of Between-Subjects Effects for ANCOVA
- Pairwise Comparisons for forskellen i de justerede gennemsnit

Side 22 af 33
Opsummering
ANOVA: F(dfGroups, dfError) = ?, p = ?, ηp2 = ?

Eksempel
En en-vejs ANCOVA (two-tailed, α = .05) med baseline som kovariat viste en signifikant lavere
HAMA-angst score for PA behandling sammenlignet med CBT behandling efter et endt
behandlingsforløb (F(1, 75) = 24.716, p < .001, ηp2 = .248). Forskellen i de justerede gennemsnit var
5.383 (95% konfidensinterval fra 3.226 til 7.539).

Side 23 af 33
EMA-Guideline

Covariat
Definition af baseline kovariat (EMA):
- Kendt inden randomisering og har indflydelse på den afhængige variabel
- Kan være kategorisk (fx køn) såvel som kontinuert (fx alder)
- Variable brugt til stratificering skal indgå som kovariater (og opfølges af sekundær analyse
af interaktion)
EMA Guideline om baseline performance:
- Hvis baseline performance er målt, så skal den med som kovariat (sektion 1 og 5.6)
- Argument: Baseline performance er en god ”proxy” for alle relevante kovariater, fordi den
vil påvirke både ved T0 og T1
- Man kan så nøjes med denne, da det frarådes at have for mange kovaraiter med (sektion 6.1
og 6.2). Hvis man har for mange kovariater, bliver det en dårligere statistisk model med
mindre power
- OBS: Variable brugt til stratificering skal altid medtages som kovariater, også selvom
baseline performance er med (jf. Stevens eksempel fra forelæsningen)

Interaktion: Undersøgelse af interaktion er en undersøgelse for en signifikant interaktion mellem


kovariaten og de uafhængige variable. Hvis der en signifikant interaktion, er en ANCOVA-test ikke
gyldig. Hvis der ingen interaktion er, så kan man udføre en ANCOVA.
- Bruges næsten aldrig i primær kliniske studier (de fleste af vores studier). Kan undersøges i
en sekundær eksplorativ analyse.

Stratificering: Indsamlingsmetode baseret på grupper


- Fx sørger man for, at der er lige mange drenge i begge de eksperimentelle grupper.

Side 24 af 33
Repeated Measures ANOVA

Hvornår bruger man denne test: Når de samme deltagere måles flere gange – altså er målingerne
afhængige. Enten over tid eller ved forskellige mål (intelligens, hukommelse).
- God da den reducerer en stor mængde error ved at sortere de individuelle forskelle fra.
- Individet frem for gruppen
- Svarer til en paired samples t-test
- Ulempe: Carry-over effekt (fejlene/misklassifikationer vil gå igen i alle målinger).

Forudsætninger: Forudsætninger for testen er samme som ved andre parametriske tests:
- Normalfordeling
- Homogenitet af varianserne (antager vi altid)
- Sfæricitet (se afsnit om sfæricitet)

Sfæricitet: Alle niveauer af within-variablen skal have ækvivalente korrelationer. Det vil sige, at
alle patienter udvikler sig i samme sfæriske mønster (der er ens udvikling over tid).
- Hvis Mauchly's test of Sphericity ikke er signifikant, så er der sfæricitet → Kig under
Sphericity Assumed
- Hvis Mauchlys test er signifikant, er der ikke sfæricitet → Kig under Huynh-Feldt
o Frihedsgraderne bliver mindre og dermed bliver de kritiske værdier større → mere
konservativ

SPSS
Analyze → General linear model → Repeated measures → Number of levels: antal niveauer for
målingen → Add.
Indsæt variablerne i kronologisk rækkefølge.

Side 25 af 33
Options: Få effektstørrelser og parvise sammenligninger (LSD t-test)

Aflæsning af resultater
Hvis Mauchly’s test ikke er signifikant, er der sfæricitet – aflæser under sphericity assumed:

Side 26 af 33
Hvis Mauchly’s test er signifikant, er der ikke sfæricitet – aflæser under Huynh-Feldt:

Opsummering
ANOVA: F(dfGroups, dfError) = ?, p = ?, ηp2 = ?
LSD t-test: t(dfError) = ?, p = ?, CI.95: ? ≤ µ ≤ ?

Eksempel
5 personer fik målt deres stressniveau med Perceived Stress Scale (score fra 0-40, lav score er godt)
før (baseline) og efter 1 månede mindfulness-terapi og ved 6 måneders follow-up. En repeated
measures ANOVA viste en signifikant effekt af mindfulness-terapi over tid (F(2, 8) = 47.91, p
< .001, ηp2 = .923). Planlagte parvise sammenligninger viste et signifikant fald af stress-score fra
baseline (M = 24) til post test (M = 13) (t(8) = 12.3, p < .001) og fra baseline til follow-up test (M =

Side 27 af 33
15) (t(8) = 6.71, p = .003), men ingen signifikant forskel fra post til follow-up test (t(8) = -1.53, p
= .200).

Side 28 af 33
Factorial Repeated Measures ANOVA

Hvornår bruger man denne test: Hvis der er mere end en uafhængig variabel, og hvis vi måler de
samme personer flere gange. Vi undersøger signifikansen af flere main effects for de uafhængige
variable, samt interaktionen mellem variablerne.

Hovedeffekt: Hovedeffekterne er om de uafhængige variable enkeltvis har indflydelse på den


afhængige variabel.

Interaktionseffekt: Om de uafhængige variable har en indflydelse på hinanden ift. den afhængige


variabel.

Sfærcitet: Alle niveauer af within-variablen skal have ækvivalente korrelationer. Det vil sige, at
alle patienter udvikler sig i samme sfæriske mønster (der er ens udvikling over tid). En uafhængig
variabel skal have 3 eller flere niveauer, for at Mauchly’t test laves.
- Hvis Mauchly's test of Sphericity ikke er signifikant, så er der sfæricitet → Kig under
Sphericity Assumed
- Hvis Mauchlys test er signifikant, er der ikke sfæricitet → Kig under Huynh-Feldt

SPSS
Analyze → General Linear Model → Repeated Measures
Dialog 1: Angiv antallet af faktorer samt antallet af niveauer under den givne faktor.
I eksemplet ville size har 2 levels, da der enten kan være 3 eller 5 bogstaver - ligeledes vil quality
have 2 levels, da der enten kan være maskerede eller ikke-maskerede bogstaver.

Dialog 2: Her er det vigtigt at parre de korrekte variable ud fra datasættet. Her er det (Size, Quality),
hvor du vælger, at Size3 = 1 og Easy = 1, mens Size5 = 2 og Diff = 2. Kombiner variablerne med
hinanden.
- Plot of means kan tilføjes under plots
- Descriptives, effect size og compare main effect findes under options

Side 29 af 33
Resultater
Tjek Mauchlys test
- Hvis den ikke er signifikant, er der sfæricitet → Sphericity Assumed
- Hvis den er signifikant, er der ikke sfæricitet → Huynh-Feldt

Opsummering
Der skal være for hver hovedeffekt og en for interaktionen (3 konklusioner)
- ANOVA: F(dfGroups, dfError) = ?, p = ?, ηp2 = ?

Eksempel
En faktoriel repeated measures ANOVA af de gennemsnitlige reaktionstider med Memory (3 vs. 5
bogstaver) og Quality (umaskeret vs. maskeret) viste en signifikant hovedeffekt af Memory (F(1,
141) = 139.68, p < .001, ηp2 = .498) og Quality (F(1, 141) = 23.11, p < .001, ηp2 = .141), men ingen
signifikant interaktion (F(1, 76) = 1.54, p = .216, ηp2 = .011).

Side 30 af 33
Logistisk regression

Hvornår bruger man denne test: Når man har en kategorisk, binær afhængig variabel, samt en
eller flere uafhængige variable. Kan fx forudsige barnets køn (kategorisk afhængig variabel) ud fra
morens alder og depressionsscore (uafhængige variable).

Sigmoid curve: Fordi den afhængige variabel er kategorisk, får vi ikke en ret linje. Vi får en
sigmoidkurve (bruger den ikke til noget her på Statistik 2).

Regressionsformel:
- log odds=b 0 +b1 X 1 +b2 X 2
o Bruger ikke denne, hvis vi kan have den anden
X1 X2
- odds=odd sb 0 ⋅ O R b 1 ⋅ O R b 2

Probabilities: Sandsynlighed kvantificeres som et nummer mellem 0 og 1


succes
- p ( succes )=
N
- p ( succes )=1− p ( fiasko )
odds
- prob=
1+ odds

Odds: Forholdet mellem sandsynlighederne


p ( succes )
- odds (succes)=succes/fiasko => odds ( succes )=
p ( fiasko )
prob
- odds=
1− prob

Side 31 af 33
Odds er en anden måde at udtrykke en grad af sikkerhed om, at en event vil forekomme. Her er vi
ikke interesserede i sandsynligheden for en event forekommer, men vi er interesserede i ratioen af
sandsynligheden af succes over sandsynligheden for fiasko.

Odds ratio: Når man udregner odds ratio kan man sige noget om sammenhængen mellem faktorer
odd s2
- ¿=
odd s1

OR < 1 betyder det, at gruppe 2 har dårligere odds end gruppe 1.


OR = 0.5 betyder, at gruppe 2 har halvt så gode odds som gruppe 1.
OR > 1 betyder det, at gruppe 2 har bedre odds end gruppe 1.
OR = 2 betyder at gruppe 2 har dobbelt så gode odds som gruppe 1.
OR = 1 betyder at gruppe 1 og 2 har lige gode odds.

Nagelkerke R2: Fortolkes præcis som R2 ved lineær regression. Hvor god er vores model.

Logistisk regression i SPSS


Analyze → Regression → Binary Logistics
Den afhængige variabel skal i ”dependent”, og den/de uafhængige variable skal i ”covariates”
- Options: Vælg CI for Exp(B)

- "B": Angiver b-værdierne i den log odds regressionsformlen. Det angiver OR.
- Exp(B): Angiver odds ratioerne for de uafhængige variable
- Sig.: p-værdien for de uafhængige variable
- 95% CI for EXP(B): Konfidensintervallet for odds ratioen

Nagelkerke R2 findes i outputtet "Model Summary"

Side 32 af 33
Rapport af resultater:
OR: OR = ?, p = ?, CI.95: ? ≤ OR ≤ ?

Side 33 af 33

You might also like