Beroende anova Flashcards

1
Q

Annat ord för mellangruppsvarians?

A

systematisk varians

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

annat ord för inomgruppsvarians

A

felvarians

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Vad är idealet i en anova analys?

A

Ett högt SSb och ett lågt SSw –> vilket ger ett högt F-värde

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Vilka förutsättnignar finns för att unna använda oberoende anova dvs vilka antaganden måste gälla?

A
  1. Normalfördelade populationer
  2. Homogen populationsvarians
  3. oberoende data
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Vad är skillnaden mellan oberoende och beroende anova?

A

OBEROENDE anova mäter i skillnaden MELLAN individer

BEROENDE anova mäter vi skillnader INOM individer
–> kräver sfärisitet
–> icke-systematisk variation kallas residual
–> man kan mäta individmedelvärdet
–> Högre F pga lägre felvarians
–> högre Fkrit pga minskat antal frihetsgrader

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Vad finns det för fördelar och nackdelar med beroende mätningar?

A

FÖRDELAR:
1. Man minskar slump fel och fel som är länkade till att man undersöker olika typer av människor och att de kan skilja sig åt eftersom man istället udersöker samma människor
2. Man räknar som att individerna har samma “grundvärde”. VArje individ blirsin egen kontroll
3. Lägre felvarians (inomgruppsvarians)
4. Beroende anova ger högre power dvs man har större möjlighet att upptäcka eventuella skillnader

NACKDELAR:
1. Man kan få effekter av t.ex. ordningsföljder (utträttningseffekt eller inlärningseffekt)
2. Färre frihetsgrader –> lägre F-värde

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Hur uttrycks felvarians när man har beroende ANOVA?

A

Felvariansen uttrycks i residualer SSab

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

vad innebär eta^2?

A

andelen förklarad varians

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Hur räknar man ut frihetsgrader i beroendeanova?

A

(Totalt antal personer-1)* (Antal mätningar-1)
(N-1)*(J-1)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Vad innebär residualen?

A

Den varians som finns kvar när individvariansen är bortplockad

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Vilka antaganden måste gälla vid beroende anova?

A
  1. Normalfördelade populationer
  2. Sfärisitet:
    –> man måste ha homogena populationsvarianser (inom nivåer)
    –> måste ha homogena populationsKOvarianser (mellan nivåer)

Om antagandet om sfärisitet ej uppfylls (Om mauchlys test ger p<0.05) Kan man använda sig av korrelationer
–> greenhouse-geisser
–> Huynh-Feldt

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Hur testas sfärisitet?

A

Med Mauchlys test
–>Ett ICKE-signifikant Mauchlyäs test innebär att vi kan anta sfärisitet
–> Dvs p>0.05
–> läs från “spherity assumed” i SPSS

OM Mauchly’s test är signifikant
1. Använd Greenhuose-Geisser
–> om GG &HF <0.75
–> läs från GG i SPSS
2. Huyn-Feldts
–> om GG & HF >0.75
–> Läs från HF i SPSS

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Hur beräknas residualen?

A

SSab= Summan av(oberverade värdet-individens medelvärde-observationstillfällets medelvärde+totalmedelvärdet)^2

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Hur beräknas F värdet i beroende anova?

A

F= MSB/MSab=(SSb/Df)/(SSab/df)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Vad är nästa steg i beroende anova när man räknar fram ett F-värde?

A
  1. Man slår upp Fkrit i en tabell
  2. OM F>Fkrit –> förkasta H0 vi har signifikant resultat
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Skriv exempeltest på hur man kan rapportera resultat

A

En beroende anova med ångestnivå vid tre olika tillfällan visade att det sanns en signifikant huvudeffekt. F(2,8)=15, p=0.02, n^2=0.79. Bonferroni korregerade jämförelser visade signifikant lägre ångestnivå vid tillfälle 3 (M=4, std=0,71) jämfört med tillfälle 2 (M=6, std=1.4) p=0.03 d=?) Inga övriga jämförelser visade statistisk signifikans (p>0.05). En trendanalys visade att visade att resultaten bäst förklaras med kvadratisk effekt (p=0.01).