Kvantitativ Metod Flashcards

1
Q

Parameter

A

Sammanfattande kvantitet (en siffra) som beskriver populationen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Statistiska (Statistic)

A

En sammanfattande kvantitet (siffra) som beskriver stickprovet.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Deskriptiv statistik

A

Beskrivning av stickprovsdata utifrån olika statistika. T.ex. medelvärde, standardavvikelse, formen på fördelning.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Inferensstatistik

A

Stickprovsdata används för att dra slutsatser om populationen. T.ex. hypotesprövning - gör en gissning utifrån stickprov.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Parametrisk statistik

A

Försök till att estimera parametrar, dvs populationens medelvärde och standardavvikelse utifrån ett stickprov.
Krav:
- Data på kvot eller intervallskala
- Normalfördelning vid mindre stickprov.
- Homogen varians

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Skaltyper

A

Kvotskala - Lika avstånd, angiven nollpunkt
Intervallskala - Rangordnade med specifika avstånd, ingen given nollpunkt.
Ordinalskala - Rangordnade, avstånd kan ej avgöras
Nominalskala - Kategorisk indelning utan rangordning.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Snedfördelning (skewness)

A

—>
….*.
Negativ snedfördelning……….
……. Medelvärdet på stickprovet har försjkutits framåt/blivit större/Åt höger.
<—
.
…….
Positiv snedfördelning. …
*……. Medelvärdet på stickprovet har förskjutits bakåt/blivit mindre/åt vänster.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Kurtosis

A

Hur toppig fördelningen är.
Positiv kurtosis — Spetsig
Negativ kurtosis - Rund

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Standardfel SE

A

Den estimerade avvikelsen för populationen. Avvikelsen mellan medelvärden (om vi hade upprepat testet på många stickprov).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Centrala gränsvärdessatsen

A

Även om populationen inte är normalfördelad kommer stickprovsfördelningen att bli det. När vi tar ut medelvärden från våra stickprov och fördelar dessa under en kurva kommer det att bli normalfördelat. Desto större stickprov —> desto mer normalfördelat

Spelar ingen roll om populationen är normalfördelad eller ej. Vi kan ändå beräkna inferentiell statistik.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Inferenstestning

A

Om vi antar att H0 är sant, vad är sannolikheten att erhålla ett resultat som är minst så osannolikt i fördelningen för H0? Om vårt resultat är högst osannolikt/extremt i fallet där vi antar att H0 är sant, kan vi förkasta H0 som hypotes eftersom vårt resultat (H1) inte passar in där.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Fishers signifikanstest

A

Introducerade P-värdet. Såg det som ett kontinuerligt index där ju lägre p-värde, desto starkare stöd MOT H0.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Neyman-Pearson

A

Frekventistisk utgångspunkt. Dikotomt där datan säger ja/nej. Involverar inget p-värde.
”We are inclined to think that as far as a
particular hypothesis is concerned, no
test based upon the theory of probability
can by itself provide any valuable
evidence of the truth or falsehood of that
hypothesis” Neyman & Pearson, 1933, p
291

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

NHST - Null hypothesis significance testing

A

Jämför mot alfanivå. Alfanivå är ett frekventistiskt mått på den förväntade frekvensen av typ 1-fel i det långa loppet. Om p-värdet är mindre än alfanivån har vi ett signifikant resultat.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Vanliga misstolkningar om P-värdet

A

Att p-värdet är:
Sannolikheten att erhålla resultatet om H0 vore sann jämför med den sanna definitionen:
(Sannolikheten att erhålla ett resultat som är minst så extremt som det faktiskt erhållna resultatet, om H0 vore sann)

Sannolikheten att H0 är sann

Ett mått på sannolikhet för framtida replikation

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Power

A

Sannolikheten att finna en sann effekt. Power ökar med
- alfanivå (på bekostnad av typ 1 fel)
- Effektstorlek
- Stickprovsstorlek

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Olika typer av inferenstest

A

T-test
Anova
Korrelationer

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Effektstorlek

A

Hur stor är skillnaden, hur starkt är sambandet?

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

3 standardiserade effektstorlekar och tumregler för tolkning

A

Cohens d (t-test)
- 0,2; 0,5; 0,8

Eta2 (ANOVA)
- 0,01; 0,06; 0,14

Pearsons r (Korrelationer)
-0,1; 0,3; 0,5

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Frekventiskt perspektiv (Neyman & pearson)

A

Objektiv sanning. P-värde, t-test etc ?
Hur stor andel av upprepade test skulle leda till fel stlutsats? En hypotes är antingen sann eller falsk. Detta går inte att avgöra utifrån ett test eller en studie.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Bayesian

A

Subjektiv sannolikhet. Utgår från det man vet. Vad är mest sannolikt H1 eller H0? Ej sant eller falskt, mer vad det lutar åt…

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Bayes teorem

A

Ett optimalt sätt att dra slutsatser utifrån osäker information.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Bayesfaktorn

A

Ett direkt mått på stödet FÖR eller EMOT en statistisk hypotes. Tolkning: Hur mycket mer sannolikt, eller mindre sannolikt, är resultatet givet H0 relativt H1.

Tolkning: 1=mitten <1 talar för H0 och >1 talar för H1

Exempel korrelationer: ANtingen H0 eller H1. Vilken av mina hypoteser H1 eller H0 kan förklara mitt resultat bäst?

???

24
Q

Skillnader mellan p-värde och BF

A

BF har en direkt tolkning som kvoten mellan sannolikheter att erhålla resultatet givet de två hypoteserna, medan p-värdet inte har en enkel tolkning.

BF kan variera mellan noll och oändlighet. P-värde mellan noll och ett.

25
Q

BF - Pros n cons

A

?

26
Q

Icke-parametrisk inferens

A

Metoder för data som inte uppfyller kraven. T.ex.:
- data på nominalskalenivå eller ordinalskalenivå.
- Extremvärden
- Små stickprov
- Ej normalfördelat
- Stora variansskillnader

27
Q

Icke-parametrisk inferens - pros n cons

A

Fördelar
- Kan nästan alltid användas
- Okänsligt för extremvärden
- Fungerar vid små stickprov och skeva fördelningar

Nackdelar
- Mindre power

28
Q

CHi2

A

Testar icke-parametriskt om det finns en skillnad mellan grupper på nominal data nivå. Alltså finns det en skillnad mellan psykolog och läkare i om det gillar glass eller inte (Ja/nej)

29
Q

Wilcoxon signed rank test

A

Inomgruppsdesign

?

30
Q

Replikationskrisen

A

50% av publicerat resultat inom psykologisk forskning kan ej replikeras.

?

31
Q

Bivariat korrelation

A

Samband mellan två variabler.

32
Q

Varians

A

Variation runt medelvärdet. Variansen = summan av alla kvadrater / antalet mätvärden = Medelkvadratens yta. Stor kvadrat = stor varians.
(Om man bara subtraherar variationen tar dessa ut varandra)

Två innebörder

  1. Varians = varians av observationer
  2. Varians = specifikt mått på variation s^2
33
Q

Standardavvikelse

A

Är ett mått på variansen. Roten ur medelvadratens yta (variansen).

34
Q

Kovarians

A

Hur två variabler samvarierar. Likt korrelation men med specifika måttenheter. T.ex. meter eller sekunder.
Beräknas likadant som varians men med tillägget av att medelvärdet av både variabel X och Y ingår i beräkningen. Man beräknar i två led. Värdets skillnad gentemot både medelvärdet i X och i Y.

Hur en förändring i X påverkar Y och vice versa. Påverkas av måttenheter.
Kovariansen blir negativ eller positiv beroende av hur dessa multipliceras.

35
Q

Pearsons R

A

Mäter korrelation. Varierar mellan -1 och +1. Kovarians omgjord till standardvärden för att kunna jämföra korrelationer mellan varandra.

Korrelationer = effektstorlek

Både r och r2 används som mått på effektstorlek
Tumregel för bedömning:
r r2 Delad varians
– Liten 0.1 0.01. 1%
– Måttlig 0.3 0.09 9%
– Stor >0.5 0.25 25%

36
Q

Delad varians (R^2)

A

Hur stor andel av variationen som förklaras av variation i den ena variabeln. Ej samma som kausal koppling.
Syfte: Kan uttala sig om att andra saker än det man studerat skulle kunna förklara resultatet.

37
Q

När kan R bli missvisande

A

Ickelinjära samband
Outliers
För begränsad variationsvidd - T.ex. mäter åldrarna 10-30 men borde mäta alla åldrar för att få korerlation
Två populationer

Viktigt att alltid göra scatter plot för att se dessa

38
Q

Enkel regression

A

Prediktor —> Kriterievariabel

39
Q

Sum of squares

A

Kan använda sig av för att se hur stor variationen är inom grupperna.

40
Q

F-värdet

A

Avänds likt T-värdet. Påverkas av medelvärdesskillnader mellan grupper och avvikelser inom gruppen. Kan sägas vara en typ av effektstorlek. Värdet beskriver hur stor skillnader det finns mellan grupper eller observationstillfällen.
Skillnaden mellan gruppernas medelvärden, delat på avvikelsemåttet. Påminner mycket om t-test.

Högt värde om summan av avvikelserna mot medelvärdet är så lågt som möjligt. Alla värden är sums of squares! (Annars tar värdena ut varandra). F-värden över 3 är ofta signifikanta.
Större sannolikhet att man hittat en statistiskt signifikant skillnad.

F= förklarad varians / Felvarians.

Kan öka F-värdet genom större manipulation (Höja elstöten) eller använda bra och valida metoder och instrument. Minska felvariansen.

41
Q

Felvarians

A

Variansen från observationer till medelvärdet. Extremvärden bidrar mer till felvarians än de värden som ligger nära.

42
Q

Förklarad varians/systematisk varians

A

Skillnad mellan gruppers medelvärden.

43
Q

3 typer av varians

A

Total varians - utgår från 1 medelvärden och tittar på summan av avståndet från observationerna till medelvärdet. När man beräknar total varians gör man antagande om H0 - att det endast är felvarians. Allt beräknas till samma medelvärde.

Systematisk varians - förklarad varians - skillnaden mellan gruppernas medelvärde. Mellangruppsvarians.

Felvarians - Summan av avstånden mellan observation och linje. Beräknas till gruppernas egna medelvärde. Vill se om avståndet blir kortare än vid den totala variansen. Inomgruppsvarians.

44
Q

ANOVA

A

Jämför flera variabler. Kan modellen övertyga oss om att det inte bara är felvarians. Får fram F-värde. F = Förklarad varians/Felvarians.

För att en ANOVA ska vara lämpligt
- Beroende variabeln ska vara på ”minst” intervallskala. (Möjligtvis ordinalskala - om det är hyfsat normalfördelat)
- Homogen varians - Inte för olika standardavvikelser mellan grupperna.
- Normalfördelat data
- Datapunkterna ska vara oberoende. Den ena gruppen ska inte påverka resultaten i den andra gruppen.

En ANOVA ger oss ingen information om mellan vilka grupper skillnaden finns. Detta måste utforskas med kontraster (a priori eller post hoc).
Viktigt att göra i följande steg
- Illustrera data grafiskt
- Genomför ANOVA
- (eftertest)

45
Q

Frihetsgrader df

A

Hur många värden som har frihet att variera. Om du ska göra en beräkning och har fått ett slutvärde kan du lägga till alla värden utom 1 och vi vet om slutresultatet så är det sista värdet Tvunget att vara ett visst värde för att passa in. Det har alltså inte friheten att variera.

1+1+X=3 X har ej frihet att variera. Har man 150 individer är det 1 värde som ej kan variera —> 149 frihetsgrader. När man kollar på grupper är det 1 värde per grupp som ej kan variera. Vid 3 grupper med totalt 150 får vi 147 frihetsgrader. Jämför man tre grupper så har 2 av grupperna frihetsgrader =df2.

Frihetsgrader används för att beräkna Mean square och F-värde i ANOVA. Sum of squares / df = Mean square.

46
Q

Eftertest

A

Kontrasttest - post hoc, a priori
Trendtest - Något om att se form på kurvan. T.ex. se linjär trend, kvadratisk trend, cubic trend, quartic trend.
Simple effects - Testa olika betingelsers effekt på beroendevariabeln i en annan variabel.

47
Q

Kontrasttest

A

A priori/planerade/contrasts

Post hoc

48
Q

A priori (planerade) kontraster

A

Kan användas när du har en hypotes bestämd på förhand (åt ett håll). Viktigt att ha mycket gott om teori och empiri som tyder på att resultaten bör gå i en viss riktning. Är liberala pga risken att begå ett Typ 1 fel är förhöjd och relativt låg risk att begå ett typ 2 fel.

Används i vissa områden av praktiska skäl, t.ex. neuroimaging.

49
Q

Post hoc kontraster/test

A

T.ex. Bonferronis t-test. Finns många! Olika default i olika program. Används när man Inte har en a priori/riktad hypotes. Måste i princip alltid göra post hoc för att publiceras.

Parvisa jämförelser av medelvärden mellan olika grupper. Lite som att man först gör ANOVA och sedan t-test mellan grupperna. Problem med multipla jämförelser —> massignifikansproblemet.

50
Q

Massignifikansproblemet

A

Ju fler t-test desto större sannolikhet att hitta slumpmässigt signifikanta resultat. Sannolikheten är från början 5%.

51
Q

Bonferroni correction

A

Tar sin grundalfanivån och dividerar på antalet jämförelser vi gör. Det gör att vi undviker massignifikansproblemet. Får istället problemet att ju fler analyser vi gör desto lägre blir vårt kritiska värde, desto starkare manipulation måste vi ha för att få ett signifikant resultat. Bonferroni kan därmed ”döda” din data.

52
Q

Olika typer av ANOVA

A

N-way ANOVA - envägs, tvåvägs etc. Antalet oberoende variabler man räknar.
EnvägsANOVA har 1 OBV men flera betingelser/grupper.

Faktoriella designer
Oberoende eller beroende (mellan/inomgruppsdesign). Repeated measures. Mixade faktoriella designer. Designer med fler än 1 OBV, en mäts inom och en mellan. T.ex. behandlingsstudier.

53
Q

Sfäricitet

A

? (”Ni behöver ej ge exempel på tentan men ni bör känna till det”)

Beräknar variansen mellan olika gruppjämförelser. SD^2. Standardavvikelser mellan skillnaderna på grupperna. Sfäricitet existerar om ingen av dessa varianser r signifikant större eller mindre än de andra. Det är alltså inte gruppmedelvärderna som inte får vara för långt ifrån varandra utan själva variationen.

54
Q

Tvåvägsanova

A

Två oberoende variabler: oberoende eller mixad design.

Huvudeffekter
Varians förklarad av OBV1
Varians förklarad av OBV 2

Interaktionseffekter
Varians förklarad interaktionen mellan OBV1 och OBV2.

55
Q

Simple effect analysis

A

Följer en av betingelserna. Gör t-test mellan de olika nivåerna. Ser om interaktioner är signifikanta.