Forskningsmetod kognition Flashcards
Vad är statistik? Teoretiskt synsätt
En del inom tillämpad matematik som fokuserar på insamling, analys och presentation av data eller information
Vad är statistik? Tillämpat synsätt
Statistik ger oss en mängd olika verktyg som vi kan använda för att besvara frågor om världen omkring oss
Ofta används statistik för att dra generella slutsatser om en population från begränsade datamängder (stickprov)
Statistiska modeller
Mycket statistik går ut på att skapa modeller om verkligheten.
Modeller är aldrig perfekta presentationer men kan hjälpa oss dra användbara slutsatser. Statistiska modeller innefattar ofta en del osäkerhet.
Statistik klargör syftet (1)
- Kan vara kopplat till en forskningshypotes men måste inte vara det
- Ju tydligare syfte desto tydligare svar
- Handlar om att dra slutsatser med hjälp av data
Definiera mått/skala och statistiskt verktyg (2)
- Statistik kräver data som på något sätt rangordnad, kategoriserad eller kvantifierad
- Vilken mätmetod man väljer påverkar vilka statistiska verktyg man har tillgång till
- Skalnivåer är användbara för att koppla mått/skala till statistiska verktyg
Applicera statistiska verktyget på data (3)
- Statistiska verktyg inkluderar bl.a deskriptiv statistik och statistiska test
- Olika verktyg har olika regler för hur de kan användas
- Matematiken sköts ofta av datorer, dock viktigt att veta hur matten fungerar
Tolkning av resultat (4)
- Ju bättre man skött tidigare steg desto lättare blir tolkningen
- Tolkningar av statistiska test kräver att man förstår både resultatens praktiska och tekniska betydelser
- En viktig färdighet för att förstå statistiska undersökningar??
Tolkning av resultat (4)
- Ju bättre man skött tidigare steg desto lättare blir tolkningen
- Tolkningar av statistiska test kräver att man förstår både resultatens praktiska och tekniska betydelser
- En viktig färdighet för att förstå statistiska undersökningar??
Population
Teoretiskt begrepp, de vi är intresserade av, ex alla läkare i Sveriga
Stickprov
Praktiskt begrepp, den grupp som vi mätt, exempelvis alla läkare i vår undersökning
Parameter
Värde som beskriver populationen
Estimat
Värde som vi mätt eller beräknat från stickprovet
Observation
Enskild mätning, rangordning eller kategorisering
Variabel
Ett antal observationer som är mätta, rangordnade eller kategoriserade på samma sätt
Centralmått
Olika mått på centraltendenser i data, medelvärde, median och typvärde.
Om fördelningen av värden är symmetriskt fördelade tenderar dessa centralmått att vara ungefär samma.
Om fördelningen är skev tenderar de att vara olika och därmed missvisande.
Medelvärde
- Vanligt centralmått eftersom det har många praktiska egenskaper
- Väntevärdesriktigt, ju större n desto närmare hamnar m den populationsvärdet
Spridningsmått
- Olika mått på hur data är fördelad
- Variationsbredd
- percentiler och kvartiler
- varians och standardavvikelse
Variationsbredd
Skillnaden mellan högsta och lägsta värdet
Percentiler och kvartiler
Värde som en viss andel av fördelningen befinner sig under
Varians och standardavvikelse
Genomsnittlig variation
- Standardavvikelse, spridningsmått inom statistik och används inom statistiska test
Normalfördelning
- Teoretisk fördelning av data med många användbara egenskaper.
- Väldigt många typer av data är ungefär normalfördelade, ex längd och reaktionshastighet.
- Många statistiska test kräver, ungefär, normalfördelad data
- Beskriver inte vilka värden data har utan endast hur datan är fördelad
- I en ideal normalfördelning sammanfaller alltid standardavvikelser med specifika percentiler
- Man vet därför exakt hur en normalfördelning ser ut från medelvärde och standardavvikelse
Z-värden
- Ett sätt att skriva om data så att varje värde beskriver hur många standardavvikelser det är från medelvärdet
- Ändrar enheten inte värdet
- En standardisering av data så man enklare kan jämföra de med varandra
- När vi pratar om hur långt ett värde är från medelvärdet brukar vi använda z-värden
- Normalfördelning och Z-värden är väldigt viktiga för inferentiell statistik
- Mellan z 1.96 och -1.96 avgränsar man 95% av normalfördelningen VIKTIGT
Korrelation
- Mått på samvariation
- Kan vara positiv eller negativ
- Betyder inte kausalt samband
Pearsons produktmomentkorrelationskoefficient
- Standardiserat mått på samvarians, mellan 1 o -1
- Z- värden för en variabel är alltid både positiva och negativa
- Påvisar endast linjära korrelationer
- Påverkas mycket av extremvärden
- Kräver tillräcklig mängd variation hos båda variablerna
Pearsons r - tolkning
- Enligt Cohen är 0.1 svag korrelation, 0.3 medelstark korrelation och 0.5 en stark korrelation
- Detta är dock rätt godtyckligt och en korrelations praktiska betydelse beror mer av vilka variabler som mäts
- Även relevant om korrelationen är statistiskt signifikant
Spearmans rangkorrelationskoefficient
- Baserat på observationens rangordning istället för deras Z-värden
- Används exempelvis när data är på ordinalnivå, när det inte är normalfördelat eller när det förekommer extremvärden
- Kan även användas för monotona icke-linjära samband
Regression
- Används för att förutsäga värdet på en variabel baserat på värden för en annan
- Innefattar en eller flera regressionskoefficienter och ett intercept
- Tillskillnad från korrelation är det viktigt att avgöra vilken variabel som är beroende och vilken som är oberoende
Enkel linjär regressionsnalys
Vanligtvis beräknas regression med minsta kvadratavvikelse, (ex i statistik-program)
Räknar man för hand finns det mer praktiska formler
Regressionsanalys tolkning, ta hänsyn till? varje variabel?
- Intercept kan ses som basnivå och rk som mått på hur mycket den beroende variabeln beror av den oberoende
- Viktigt att ta hänsyn till variabelns begränsningar och inte försöka räkna ut värden som inte existerar
- Ofta undersöker man om varje enskild variabel är statistiskt signifikant, syftet med en multipel regression är ofta för att ta reda på vilka oberoende variabler som påverkar den beroende variabeln
Samplingsfördelning
- Oftast har vi inte tillgång till hela den population vi vill undersöka, därför stickprov/samples
- Medelvärde från stickprovet är sällan exakt samma som för populationen
- Samplingsfördelningen är en teoretisk fördelning som beskriver hur medelvärden från stickprov är fördelade
- Samplingsfördelningen är i princip alltid normalfördelad
Hur medelvärden från stickprov sprider sig kring populationens, normalfördelningen
Standardfelet (SE) (och påverkas av?)
- Standardavvikelsen för samplingsfördelningen
- Mått på hur mycket våra stickprov varierar
- Påverkas av stickprovsstorleken (n) och standardavvikelsen i populationen som uppskattas med standardavvikelsen för stickprovet
Samplingsfördelningens egenskaper
- Eftersom den är normalfördelad har den samtliga egenskaper som en normalfördelning har
- Standardfelet avgränsar alltså specifika percentiler
- Vi vet hur stor andel av värden (stickprov) som hamnar över och under vissa värden därmed vet vi också sannolikheten att få ett stickprov som är över eller under ett visst värde
Sammanfattning samplingsfördelning, uppskattning, variation och hur nära?
- Samplingsfördelning är en uppskattning för hur mycket stickprov av en viss storlek från en viss population varierar.
- Går att uppskatta variationen av samplingsfördelningen (SE) med hjälp av variationen i vårt stickprov (standardavvikelsen, s)
- Kan användas för att uppskatta hur nära ett par stickprov hamnar medelvärdet, ju mindre standardfel desto närmare befinner sig stickproven populationens medelvärde
Konfidensintervall
- Sätt att använda samplingfördelningen för att skapa ett intervall där vi kan vara ganska säkra att populationens medelvärde ligger
- Vi skapar konfidensintervall baserat på att om vi tog fler stickprov skulle en viss andel av stickprovens konfidensintervall innefatta populationens medelvärde (oftast 95%)
- Kan även användas för hypotesprövning
Konfidensintervall utförande
Vi skapar ett 95% konfidensintervall baserat på antagandet att om vi om vi skapade flera intervall baserade på olika stickprov skulle 95% av de inkludera populationens medelvärde
- Detta innebär att antingen innefattar intervallen det sanna värdet eller så har något väldigt ovanligt hänt
- Innebär INTE att ett sådant intervall har 95% säkerhet att inkludera sanna medelvärdet
Beräkna konfidensintervall
- Har både undre och övre gräns
Gränsvärdena baseras på: - medelvärdet
- standardfelet
- Z-värde som avgränsar vår valda proportion, 95% = 1.96z
- Men när man uppskattar standardfelet med stickprovets standardavvikelse kan man inte använda z-värden utan måste använda t-värden istället
𝑥+𝑧× 𝜎
𝑛
T-fördelningen
- När vi använder stickprovets standardavvikelse för att för att uppskatta standardfelet är samplingsfördelningen inte längre normal
- Vi använder då istället t-fördelningen som har samma form som normalfördelningen men högre osäkerhet (lägre topp, bredare)
- T-fördelningens exakta form bestäms av antalet frihetsgrader, ju fler frihetsgrader desto mer lik blir den normalfördelningen
T-värdestabellen, hitta rätt t-värde
För att hitta rätt t-värde behöver vi:
- Vår konfidensgrad (oftas 95%)
- Våra frihetsgrader (df = n-1)
- För konfidensintervall använder man kolumner för tvåsidig prövning
T-värdestabellen, använda, t-värden större än?
- Vi letar upp det t-värde vi vill använda och inkluderar det i beräkningen istället för z
- t-värden är större än motsvarande z-värden för att representera högre osäkerhet
Sammanfattning konfidensintervall
- Konfidensintervall avgränsar ett intervall inom vilket vi kan vara ganska säkra att populationens medelvärde ligger
- Den absolut vanligaste konfidensnivån är 95%
- Vilket innebär att om vi skapade 100 konfidensintervall från samma population så skulle ungefär 95 av de innefatta populationens medelvärde
- Innebär inte att ett enskilt konfidensintervall har 95% sannolikhet att innefatta medelvärdet
Nollhypotestestning
Ett sätt att avgöra om resultat från ett statistiskt test är rimliga att generalisera till populationen
Effekt
Ett vanligt samlingsbegrepp för skillnader, samband etc
Nollhypotes
Det finns ingen effekt, studenter i Uppsala och Stockholm är lika duktiga
Allternativhypotes
Det finns en effekt, studenter i Uppsala och Stockholm är olika duktiga
Logik bakom nollhypotestestning
- Antingen så finns en effekt eller inte
- I brist på evidens förutsätter vi att effekt inte finns
- Vi kan beräkna hur (o)sannolikt att få vårt resultat givet att det inte finns någon effekt
- Om våra resultat är tillräckligt osannolika givet H0, brukar man säga att våra resultat är statistiskt signifikanta
- Om vårt resultat är statistiskt signifikant förkastar vi H0
Nollhypotestestning och samplingsfördelning
Vi vill ta reda på om medelvärdet för populationen är högre eller lägre än noll. H1 medelvärdet är skilt från noll. H0 medelvärdet är 0.
- Vi antar att H0 gäller
- Med hjälp av standardfelet som vi uppskattat med hjälp av stickprovet, får vi samplingsfördelningen
- Med samplingsfördelningen kan vi beräkna hur sannolikt vårt stickprov är givet att H0 gäller.
Ensidig prövning
- Innebär att vi vill veta om det finns effekt i en specifik riktning, H1 det finns ett positivt samband mellan tentaplugg och resultat. H0 det finns inget positivt samband.
- Har lättare krav på statistisk signifikans eftersom den bara gör det möjligt att förkasta H0 för resultat i en specifik riktning
Tvåsidig prövning
- Innebär att vi vill veta om det finns en effekt eller inte, H1 det finns ett samband mellan studietid och tentaresultat, H0 det finns inget samband mellan studietid och tentaresultat
- Tvåsidig prövning anses oftast som standard
Nollhypotestestning i praktiken, 2 sätt
- Innan man utför en testning bör man välja en gräns för hur osannolika våra resultat ska vara för att förkasta H0 (oftast 5% och känt som alfanivån)
- Två sätt att undersöka om ens resultat är statistiskt signifikanta eller inte beroende på om man räknar för hand eller med statistikprogram
- Om för hand, jämför testvärden kritiska värden i en tabell
- Om med statistikprogram jämför p-värden med alfanivån
Nollhypotestestning via tabell
Om vi ex utför ett t-test:
Vi behöver veta:
- Om vi utför ensidigt eller tvåsidigt test
- Vilken alfanivå vi använder
- Hur många frihetsgrader vi har
Vi jämför t-värdet vårt t-test gett oss med motsvarande värde i tabellen
Om vårt t-värde är större än det i tabellen har vi statistisk signifikans
Nollhypotestestning via p-värde
- Ett p-värde är en exakt beräkningen av sannolikheten att våra resultat skulle uppstå hade H0 varit sant.
- Statistikprogram beräknar p-värdet automatiskt för de flest test
- Är p-värdet mindre än alfanivån har vi statistisk signifikans
Typ 1 fel
- Att förkasta nollhypotesen fast den gäller
- Sannolikheten att göra detta = p-värdet
- Att sänka alfanivån gör typ 1 fel mindre sannolika men gör typ 2 fel mer sannolika
Typ 2 fel
- Behålla H0 trots att H1 gäller
- Sänka alfa-nivån gör dessa mer sannolika
- Sannolikheten för typ 2 fel påverkas av stickprovsstorlek, effektstorlek, felvarians och beroende mätningar
Nackdelar nollhypoteser
- Bakvänd logik, vi vet bara hur sannolikt H0 är beroende av våra resultat men inte hur sannolikt att varken H1 eller H0 gäller.
- Binärt tänkande, fokus är endast på statistisk signifikans vilket kan göra det svårt att tolka tvetydiga resultat
- Metodologiska begränsningar, för att nollhypotestestning ska fungera som det är tänkt måste vi bestämma en alfanivå, stickprovsstorlek etc, innan man samlar in data och får inte samla in och får inte samla in mer data efter man utfört sin analys
T-test, beroende och oberoende
- Sätt att avgöra hur medelvärdet skiljer sig från ett specifikt värde
- Används oftast för att avgöra om 2 variabler skiljer sig från varandra
- t-test för oberoende mätningar används för att jämföra olika grupper, t-test för beroende mätningar används för att jämföra olika mätningar i samma grupp
Oberoende t-test, större och mindre
Om vi vill jämföra 2 olika grupper
- T blir större ju större skillnaden mellan de 2 grupperna är
- Ju störra standardavvikelsen i de 2 grupperna är desto mindre blir t
- Ju större stickproven är desto större blir t
- ju större t är desto mer osannolikt att H0 gäller för våra resultat
- om t-värde är större en kritiskt värde från tabellen är resultatet statistiskt signifikant
- df = n1 + n2 - 2
Beroende t-test
- Om vi vill jämföra 2 olika mätningar inom samma grupp
- Formeln liknar den för oberoende men använder differensernas medelvärde och standardavvikelse
- df = n - 1
- eftersom vi slipper en del brus pga individuella variationer brukar man säga att beroende är mer kraftfulla (högre power) än oberoende
Tolkning av t-test, kritiskt tänkande
- Statistiskt signifikant t-test betyder inte att observationerna vore osannolika om det inte finns en skillnad egentligen
- Vet inte hur sannolikt att skillnad inte finns
- Skillnaden måste inte vara praktiskt signifikant
- viktigt att titta på hur stor skillnaden är, antingen genom att jämföra siffrorna eller mäta effektstorlek
Antaganden statistiska test
- Statistiska teest gör alltid vissa antaganden gällande data
- Eftersom statistiska test är baserade på dessa antaganden kan resultaten bli missvisande om man bryter mot dem
- Datasimulering har dock visat att många test är ganska robusta mot att frångå vissa antaganden
Pearsons korrelationskoefficient antaganden
- intervall eller kvotskala
- relaterade par
- normalfördelade populationsvärden
- linjärt samband
- inga extremvärden
Oberoende t-test antaganden
- intervall eller kvotskala
- oberoende mätningar
- normalfördelade populationsvärden
- homogena populationsvarianser
Beroende t-test, kriterier
- Intervall eller kvotskala
- beroende mätningar
- normalfördelade populationsvärden
Antaganden skalnivåer, parametriska test
- De flesta test man använder är så kallade parametriska test
- Parametriska test förutsätter att data är på antingen intervall eller kvotnivå
- Inom psykologi används dock parametriska test ofta för ordinaldata också
Antaganden normalfördelning, statistiska test
- Många test antar att populationens värden är normalfördelade
- Ofta vet vi inte säkert om det är så eller inte, stickprov av tillräcklig storlek ger ofta en god uppskattning
- De flesta test ganska robusta mot icke-normalfördelad data
Antaganden homogen populationsvarians
- Test som undersöker skillnader mellan grupper eller variansanalys antar ofta att värdena för alla variabler varierar ungefär lika mycket
- Tumregel att variansen för en grupp får vara max 3 gånger så stor som den andra
- De flesta test är ganska robusta mot detta om: om grupperna är lika stora och stickprovet tillräckligt stort
Antaganden sammanfattning
Överlag är test robusta från viss avvikande från antaganden, avvikande från ett kan vara okej så länge vi följer de andra antagandena.
- Hur mycket avvikande från antaganden som är okej att göra är en bedömningsfråga
- Om inte tillräckligt med antaganden går att göra kan en lösning vara icke-parametriska test
Icke-parametriska test motsvarigheter
Spearmans korrelationskoefficient och pearsons korrelationskoefficient
Mann-Whitney U och oberoende t-test
Wilcoxon och beroende t-test
Icke-parametriska test
Ofta går det ut på att räkna på datavärdenas inbördes rank.
Pga av detta går det att använda dessa test när krav som intervall/kvot, normalfördelning och homogen varians inte uppfylls
Icke-parametriska test för och nackdelar
- Parametriska test anses ofta vara standard
- Icke-parametriska test har högre power när datan inte är normaldfördelad, men lägre power när den är det
- Alla test har inte icke-parametriska motsvarigheter, ex vissa varianter på ANOVA
Effekstorlek
- Standardiserade mått på effekters storlek
- Användbart när tolkning av variabler inte är uppenbar
- För det mesta har olika test olika metoder att beräkna och tolka effektstorlek
Effektstorlek korrelationskoefficient
Eftersom r är ett standardiserat mått fungerar det för att mäta effektstorlek.
0.1 svag, 0.3 medelstark, 0.5 stark
Kvadraten av koefficienten är ett mått på förklarad varians
Mäta Effektstorlek t-test
- Effektstorlek för skillnader kan vi använda cohens d.
- För oberoende mätningar baseras s på “poolade” variansen
- 0.2 liten effekt, 0.5 måttlig och 0.8 stark
Statistisk power
Power kan tolkas som sannolikhet att få statistisk signifikans då H0 är falsk
Sannolikhet beror av många olika faktorer och kan inte styras lika bra som alfanivån
Test kan ha hög power givet vissa antaganden, vilket ska tolkas som testet har goda odds att finna effekt
Faktorer som påverkar statistisk power
- Alfanivå
- Faktiska effektstorleken (okänd)
- Storleken på stickprovet
- standardavvikelsen i populationen
- Experimentell design
Eftersom vi inte känner till alla faktorer kan vi inte beräkna en exakt SP men vet vi vilken power vi vill ha kan vi räkna ut vad som kan krävas för att nå den
Powerberäkningar
Powerberäkning används oftast för att beräkna hur stort stickprov man behöver för att uppnå en viss power givet förbestämda värden för:
- typ av test
- alfanivå
- effektstorlek
Eftersom effektstorlek mäts olika beroende på test används en hjälpvariabel som kallas delta
Powerberäkningar med tabell
- tabellen visar vilket deltavärde som motsvarar en viss power givet en viss alfanivå
Extremvärden
- Kan ofta ha väldigt stor påverkan på statistiska test
- Vanlig tumregel att sätta gräns vid 3 standardavvikelser från medelvärdet
- Möjliga lösningar, ta bort värdena eller använd icke-parametetriska test
Massignifikans
Undersöker vi varje färg på gelebönor och om de påverkar akne kommer vi tillslut finna statistisk signifikans för en av dem trots att det kanske inte finns.
- En viss sannolikhet för typ 1 fel är inbyggd i nollhypotestestning
- När man utför många tester i samma undersökning blir sannolikheten för typ 1 fel mycket högre
- Går att kompensera för med ex bonferronikorrigering, proportionerligt sänka alfa-nivån
Små och stora stickprov, effekter
- Med små stickprov blir endast väldigt stora effekter statistiskt signifikanta, vilket kan leda till överskattning av effektstorlek
- Med stora stickprov blir även väldigt små effekter statistiskt signifikanta vilket kan leda till vilket innebär att man måste vara noga med att kontrollera praktisk signifikans, ex genom effektstorlek
Invers sannolikhet och nollresultat
- p-värde är exempel på betingad sannolikhet (sannolikhet för data givet H0)
- Lätt att förväxla betingad sannolikhet med dess invers
- Om vi inte får ett statistiskt signifikant resultat har vi inte bevisat att nollhypotesen är sann