kvantitativ metod Flashcards
Vad är skillnaden mellan ett parametriskt och ett icke-parametriskt test?
Parametriska tester används när:
- Data är kvantitativ (intervall- eller kvotskala)
- Data är normalfördelad
- Grupper har liknande varians (homogen varians)
Fördelar: starkare statistisk kraft (färre observationer behövs för att hitta en effekt). Kan ge mer exakta resultat om antaganden är uppfyllda
Nackdelar: Fungerar dåligt om datan inte uppfyller normalfördelningskravet
Parametriska tester: ex Pearsons korrelation, t-test, z-test
Icke-parametriska tester används när:
- Data inte är normalfördelad
- Data är ordinal (rangordnad) eller har extremvärden
- Variansen är olik mellan grupper
Fördelar: Kräver färre antaganden om data, fungerar bra vid små stickprov
Nackdelar: Mindre statistisk kraft (kan kräva fler observationer för att hitta en effekt). Ger ofta endast en rangordning snarare än exakta värden
Icke-parametriska tester: Mann-Whitney U-test, Wilcoxon och Spearmans korrelation
Vad är statistik?
Statistik är ett sätt att bearbeta och analysera numerisk data (data som på något sätt kan uttryckas i siffror). Statistik är en stomme (en grundläggande komponent) inom den kvantitativ metodiken eftersom det används för att analysera data (analysmetod).
Det finns i huvudsak två sorters statistik:
Beskrivande (deskriptiv) statistik är vi använder statistiska mått (medelvärde, frekvenser etc) för att beskriva en grupps egenskaper
Inferentiell statistik där vi använder statistiska jämförelser för att dra slutsatser om en populations egenskaper - man utgår från stickprov
Vad är en variabel?
En egenskap, beteende, känsla m.m. hos personer eller saker som kan variera.
Exempelvis kan egenskapsvariabeln “kön”variera mellan “man” och “kvinna” eller “annat”. Känslovariabeln “lycka” kan variera mellan “inte alls lycklig” till “extremt lycklig”.
När vi i forskning använder oss av variabler refererar vi alltså till det vi mäter. Användandet av variabler istället för “beteende”, “känsla” standardiserar vårt språk och underlättar forskningsprocessen.
Vi delar upp variabler på olika sätt beroende på dess funktion. När vi vill veta mer om sambandet mellan två variabler kallar vi den variabeln som vi tror orsakar förändring för den andra variabeln (för den beroende) för oberoende variabel och den som påverkas för beroende variabel
Skillnaden mellan kvanitativa och kvalitativa varibeler?
Kvantitativa variabler: variabler vi kan uttrycka numeriskt, ex ålder
Kvalitativa variabler: Variabler vi inte kan uttrycka numeriskt, ex kön
Beskriv de fyra olika skalnivåerna
En skalnivå beskriver den typ av data som samlas in och hur dessa data kan mätas eller rangordnas. Det finns fyra huvudsakliga skalnivåer, och de styr vilken typ av statistiska analyser som är möjliga att göra:
- Nominalskala - klassificerar händelser utifrån kategorisering, saknar rangordning
- Ordinalskala - möjligheten att rangordna men avstånden mellan svarsalternativen kan inte avgöras (t.ex betyg, kategorivariabler: aldrig, sällan, ofta) Ingen absolut nollpunkt
- Intervallskala - svarsalternativen är rangordnade och har specifika avstånd till varandra, men det finns ingen given nollpunkt. Exempelvis celsius eller fahrenheit (t.ex. 0°C är inte “ingen temperatur”, det är bara en specifik punkt på skalan).
- Kvotskala: svarsalternativen är rangordnade med specifika avstånd till varandra och det finns en given nollpunkt - det gör det möjligt att jämföra värden genom att bilda kvoter (t.ex “detta är dubbelt så mycket som det andra”) Exempel på kvotskalor: längd, tid, vikt, snödjup.
- Absolut nollpunkt: en punkt som motsvarar värdet 0 av det som mäts: (ex. längd och tid)
Beskriv de tre centralmått som finns
Typvärde: Det vanligaste mätvärdet i en uppsättning. Används på alla skalnivåer.
Fallgropar:
- Kan vara känsligt för slumpen och variera - mycket mellan stickprov.
Kan finnas flera typvärden i en mätning ⇒ bimodala fördelningar
Median: Det mittersta värdet i en ordnad uppsättning siffror. Används på alla skalor utom nominalskala.
Fallgropar:
- Bra för att visa “typisk” individ men påverkas av slumpen.
- Kan inte användas för att beräkna sammanlagd median från olika grupper.
Medelvärde: Summan av alla observationer delat med antalet observationer. Bra för att vi kan generalisera från våra resultat, det är ett väntevärdesriktigt estimat, d.v.s. att om vi tar medelvärdet av många olika grupper och beräknar medelvärdet av dessa värden så tar varje felaktighet ut varandra.
Fallgropar:
- Påverkas mycket av extremvärden och kan bli missvisande om det finns stora variationer.
- Bättre vid enhetliga grupper, men mindre bra när åsikterna varierar kraftigt.
Förklara varför vi bör använda medelvärdet istället för medianen vid statistiska parametriska analyser
I en normalfördelad population är medelvärdet den bästa skattningen av central tendens eftersom det ligger i mitten av fördelningen. Medelvärdet gör det möjligt att generalisera resultaten och dra slutsatser om populationens medelvärde. Dessutom används medelvärdet vid beräkning av standardavvikelse och varians, vilket är en viktig komponent i parametriska analyser.
När bör vi använda median istället för medelvärdet vid en statistisk analys. Ge ett eller flera exempel.
- Vi bör använda medianen istället för medelvärdet när datan är snedfördelad, innehåller extremvärden eller är på ordinalskalenivå. Alltså när gruppen tycker väldigt olika.
- När vi vill ha den “typiska” individens resultat
- När det är stora extremvärden, outliers som påverkar resultatet mycket vid medelvärde
Vilken information ger oss ett spridningsmått? Förklara med enkla ord.
Spridningsmått ger oss en uppfattning om hur säkert ett centralmått är och hur de enskilda individernas testresultat sprider sig kring detta centralmått. Det finns tre olika typer av spridningsmått, ett för varje centralmått:
- Spridningen kring typvärde kallas variationsbredd (range)
- Spridningen kring median kallas kvartilavstånd eller kvartilavvikelse
- Spridningen kring medelvärdet kallas varians eller standardavvikelse
Vad är skillnaden mellan stickprovets och populationens varians och standardavvikelse?
Stickprovets estimat: Varians (s²) och standardavvikelse (s) används för att uppskatta populationens parametrar.
Populationens parametrar: Varians (σ²) och standardavvikelse (σ) är teoretiska värden som är okända och inte kan beräknas direkt.
Stickprovets värden används för att göra uppskattningar om populationens egenskaper
Varför görs korrigeringen n-1 vid standardavvikelse?
Samplets standardavvikelse (s) är inte så bra skattning på populationens standardavvikelse (σ)
Eftersom spridningen är känslig för hur stort stickprovet är (storleken på n), därmed korrigering
Vad är fördelningar?
En fördelning av mätvärden visar hur människors mätvärden (kan vara attityder, beteenden m.m.) frekvensmässigt faller ut längs en skala. Fördelningen kan exempelvis vara normalfördelad, där samtliga centralmått är i mitten av fördelningen.
Andra fördelningsformer kan vara: bimodal fördelning, positiv snedfördelning och negativ snedfördelning
Vad är normalfördelning?
Den teoretiska normalfördelningen har en rad speciella egenskaper
- den är klockformad, ser likadan ut på båda sidorna (symmetriskt)
- den har alltis största värdet i mitten
- eftersom den är symmetrisk kan man alltid hitta samma proportioner av observationer mellan två punkter på x-axeln
Vad finns på y-axeln i en normalfördelning?
Y-axeln beskriver en frekvensfördelning och benämner därmed alltid ANTAL
Vad innebär en z-transformering?
Att z-transformera mätvärden är som att översätta olika språk till ett. Vi kan plötsligt jämföra variabler mätta med olika skalor eller kanske till och med helt olika natur. Vi kan till exempel jämföra en persons längd med en annan persons vikt.
Vad vi gör när vi z-transformerar (gör om våra testpoäng till z-poäng) är att vi byter skala från antal poäng till antal standardavvikelser från medelvärdet.
En z-transformerad variabel får medelvärdet 0 och standardavvikelsen 1.
Hur fungerar Z-poäng (standardpoäng)?
När vi beräknar z-poäng (standardpoäng) vill vi veta hur mycket en individ avviker från medelvärdet i gruppen uttryckt i standardavvikelser. Detta gör att vi kan använda vilken skala som helst då vi ändå
”översätter” mätresultaten till avvikelse från medelvärdet uttryckt i antal
standardavvikelser
En z-transformerad variabel får medelvärdet 0 och standardavvikelsen 1. Därmed:
Z = 0 → Värdet är exakt vid medelvärdet.
Z = +1 → Värdet är en standardavvikelse över medelvärdet.
Z = -1 → Värdet är en standardavvikelse under medelvärdet.
Z = +2 → Två standardavvikelser över medelvärdet (ovanligt högt värde).
Z = -2 → Två standardavvikelser under medelvärdet (ovanligt lågt värde)
När använder vi korrelationer?
När vi vill hitta ett samband mellan två variabler eller egenskaper. Om något förändras beroende av varandra så säger vi att det finns en korrelation. De samband vi undersöker måste vara linjära. Hur stark korrelationer är mäts med en korrelationskoefficient ⇒ R
R talar om hur mycket den ena variabeln förändras i förhållande till den andra
Två olika korrelationskoefficienter (R) = Pearsons och Spearmans
r varierar mellan -1 och 1 där -1 är ett komplett negativt samband
(När x ökar så minskar y) och 1 är ett komplett positivt samband
(När x ökar så ökar y). Om r är 0 finns inget samband och vi kan då
inte säga att det finns ett mätbart samband mellan x och y.
Vad är en hög/bra korrelation?
Ju närmare 0 desto svagare samband
Ju närmare 1 eller -1 desto starkare samband
Cohens riktlinjer för tolkning av samband:
- Svag r = 1.0
- Medelstark r = 3.0
- Starkt r = 5.0
Det finns en stor godtycklighet i dessa siffror och hur viktigt eller bra en korrelation är bestäms av studiens upplägg och frågeställning