Kvantitativ forskning Flashcards
Vilka skaltyper/datanivåer finns det och vad kännetecknar dem, snabbt?
Nominalskala - ingen egentlig skala, frekvensräkning går
Ordinalskala - finns styrka men inget intervall, kan rangordnas
Intervallskala - finns styrka och lika intervall men ingen absolut nollpunkt, kan adderas och subtraheras
Kvotskala - finns styrka, lika intervall och absolut nollpunkt, kan divideras och multipliceras
Vilka typer av centraltendens finns det?
Typvärde (vanligaste värdet), median (det som ligger i mitten), medelvärde (summan av alla värden dividerat med antal värden)
Beskriv kort tre fördelningsformer och hur dessa påverkar val av centraltendens att rapportera
Normalfördelning - symmetriskt runt mittenvärdet - typvärde = median = medelvärde
Bimodalfördelning - två toppar - typvärdet bra för att beskriva att det finns två fördelningar, median/medelvärde är i en “dal”
Skev fördelning - en svans som sträcker sig mot höga (positivt skev) eller låga (negativt skev) värden. Median är generellt sett bättre beskrivningsmått här då medelvärdet dras upp av extremvärden
Tre spridningsmått och vad de är, kort
Variationsbredd (skillnaden mellan högsta och lägsta värdet, intervallet), varians (den kvadrerade genomsnittliga spridningen kring medelvärdet), standardavvikelse (den genomsnittliga spridningen kring medelvärdet)
z-poäng är vad?
Ett mått på var en individ/en mätning befinner sig i en distribution. Värdet minus medelvärdet delat på standardavvikelse. Läses på tabell.
Vad är nollhypotes och alternativ hypotes?
Nollhypotesen är att det inte finns något samband, effekt eller skillnad. Alternativhypotesen är att det gör det.
Vad är en samplingsfördelning?
Teoretiska samplingsfördelningar?
En frekvensfördelning över någon stickprovsegenskap, exempelvis en samling medelvärden av x antal mätningar. Blir mer centrerad runt normalfördelningen än populationen och blir mer normalfördelad än populationen.
Teoretiska samplingsfördelningar är teoretiskt beräknade fördelningar som hjälper oss förstå vart vårt stickprov hamnar, ex t-fördelning, z-fördelning (inte z-poäng), chi-fördelning etc. Hjälper oss att avgöra hur trolig nollhypotesen är.
Olika typer av t-test? (3+1)
T-test för ett stickprovsmedelvärde (Skiljer sig en grupp från genomsnitt? Krävs att man jämför med normdata med medelvärde i population)
Oberoende t-test, mellan två grupper med oberoende mätningar (Skiljer sig dessa två grupper mellan varann? Ex PDT eller KBT på kliniken)
Beroende t-test, mellan två tillfällen, samma grupp (Har gruppen förändrats över tid?)
Z-test (När man känner till medelvärde/standardavvikelse för populationen, används inte)
Standardfelet?
Ett mått på hur mycket medelvärdet på ett enskilt sample/stickprov skiljer sig från medelvärdet i populationen. (Lite som ett z-poäng för stickprovet)
Är det man räknar ut vid t-tester.
Förutsättningar för ett t-test? (2)
Data måste vara normalfördelad
Varianserna inom de två grupperna måste vara lika stora (homogena)
Diagnostiskt test för att kontrollera att varianser mellan två grupper är normalfördelade vid t-test?
Levene’s test, om det visar signifikant skillnad är equal variances not assumed och då läser man av lägre raden i ex SPSS.
Typ I fel och typ II fel?
Typ I fel = förkasta en nollhypotes som egentligen stämmer, d.v.s. hitta en skillnad som inte finns
Typ II fel = förkasta en alternativhypotes som egentligen stämmer, d.v.s. inte hitta en skillnad som faktiskt finns
Hur minska risken för typ I och typ II fel? (4 st)
Minska risk för typ I: Skärp alphanivån (signifikanströskel), ökar dock risk för typ II fel
Minska risk för typ II: Öka styrkan på oberoende variabeln
Minska risk för typ II: Minska felvarians genom beroende mätningar
Minska risk för båda: Öka antalet deltagare
Parametriska vs icke-parametriska test?
Parametriska test bygger på att data är minst intervall-nivå (eller lämpligt bra ordinalskala), och att data är normalfördelad.
Icke-parametriska test är designade för att kunna användas när data är kategorisk och ej normalfördelad (ex när antalet deltagare är lågt).
Exempel på parametriska vs icke-parametriska test? (4 st)
Parametriskt: t-test
Icke-parametriskt: Chi-två (för nominaldata), Mann-Whitney (som ett oberoende t-test), Wilcoxon (som ett beroende t-test)
Viktig sak att veta om Mann-Whitney och Wilcoxon vad gäller hur man räknar (+2 implikationer av detta)?
Det räknas via rangordning av värden - detta innebär att extremvärden spelar mycket mindre roll. Vilket också innebär att det blir dålig power, känsligheten i datan försvinner.
Chi-två testet är till för vad, och ger vad, och räknas ut hur?
Att testa nominalvariabler, och ger frekvenser fördelade över ett antal kategorier samt att vi kan se kritiska värden för fördelningen. Räknas ut via en korstabell (så kan max vara två kategorier av variabler, men kan vara många variabler).
Varianter av Chi-två? (två)
Chi-två med en variabel (är den observerade fördelningen av variabeln inom ramen för slumpvariation?)
Chi-två med två variabler (finns det ett samband eller en skillnad mellan två variabler?)
Vad betyder Cohens d?
Hur stor skillnaden mellan medelvärden av två grupper är, räknat i z-poäng. d = +1 = +1 SD i skillnad.
Hur stora effekter kan vi förvänta oss inom psykologisk forskning?
Väldigt sällsynt med större än d = 1.0. De flesta är mindre än 0.5.
Formel för statistisk power?
Vad är ett bra power-mått?
Vad betyder ett sådant power-mått?
1 - beta (d.v.s risken att göra ett typ II-fel).
Man strävar ofta efter power på 0.8.
Power = 0.8 = att om H1 gäller i populationen har vi en 80% chans att hitta den signifikanta effekten.
Förutsättningar för ANOVA gällande OV/BV?
OV kan vara nominal eller ordinal
BV ska vara intervall eller kvot (annars får man göra icke-parametriska test)
Vad är ANOVA (variansanalys) ett mått på? Vad används ANOVA till?
Om mellangruppsvariansen är större än inomgruppsvariansen. Detta använder vi för att besvara huruvida grupperna signifikant skiljer sig åt eller inte. Ofta är H0 att datan är en grupp med ett medelvärde och H1 att datan är flera grupper med flera medelvärden.
Vad är F-värdet vid ANOVA?
Hur räknar man ut det?
Hur använder man det?
Huruvida två olika grupper skiljer sig åt signifikant (eller är samma, vid beroende).
Mellangruppsvarians (mean square between) /inomgruppsvarians (mean square within) (vid oberoende ANOVA, vid beroende är det tvärtom).
Man läser av F-värdet i en tabell och jämför om det är över eller under.
Olika typer av experimentell design? Kort resonemang kring varje? (3 st)
1 Inomgruppsdesign; (BVa, OV, BVb). Kan jämföra före och efter manipulation, men förmätning kan ha påverkat eftermätning, förändringen kan också ha skett av någon annan orsak.
2a Kvasi-experimentell design (mellangruppsdesign); OVa -> BV, OVb -> BV). Vi kan mäta effekt av manipulation och har möjlighet att jämföra mellan grupper. Men hur uppstod/valdes dessa grupper?
2b Mellangruppsdesign mer experimentell; tre grupper (manipulering, icke, och kontrollgrupp) och randomisering före. Här kan vi mäta effekt av manipulation och grupperna är randomiserade, dessutom finns en kontrollgrupp för att se vad som händer om OV ej blir manipulerad. Men vi vet inte om grupperna skiljde sig åt innan intervention.
3 Mixed design både inom och mellan; randomisering, kontroll, manipulation och förmätning (en typ av faktoriell design). Här är det samma som mellangruppsdesign men vi kan kontrollera att grupperna inte skiljde sig innan experimentet.
När används en faktoriell design?
När en effekt har multipla orsaker och man vill kontrollera för dessa.