Biostatistik 2 Flashcards
Vad menas med slumpmässighet?
Slumpmässighet= där ett utfall inte kan förutsägas i förhand utan följer en sannorlikhetsfördelning.
* Bygger på oberoende händelser eller mätningar och följer en fördelning (ex. normalfördelning)
Exempel på slumpmässighet?
Exempel på slumpmässighet:
* Tärningskast: När du kastar en vanlig tärning finns det en slumpmässighet i vilket nummer som kommer upp. Trots att alla resultat är möjliga, är varje kast oberoende av de tidigare, och varje tärningens sida har en lika sannolikhet att visas.
* Exempel hästens hull: Två hästar får samma typ av Behandling (Behandling A), men den ena hästen går ner i vikt och den andra gör det inte. Vad det beror på vet vi inte (kan finnas flera orsaker till det) och kan därför anses som en slumpmässighet eftersom vi inte på förhand vet hur hästen kommer att reagera.
Vad menas med utfall?
- Refererar till det specifika resultatet av en slumpmässig händelse eller ett experiment.
- Varje gång en slumpmässig process eller studie genomförs, observeras ett specifikt resultat (utfall), och detta utfall kan vara ett av många möjliga.
- Olika typer av utfall:
- Kvantitativa utfall (kontinuerliga): Dessa utfall kan anta ett oändligt antal värden inom ett visst intervall. Exempel: Vikt
- Kvalitativa utfall (kategoriska): Dessa utfall tillhör olika kategorier eller grupper. Exempel kan vara ”sto” eller ”valack”, “svar på en undersökning” (ja eller nej), eller ”effekt/ icke effekt”.
- Diskreta utfall: Dessa är också kvantitativa men begränsas till ett bestämt antal möjliga värden. Exempel kan vara antalet hästar som får behandling A under en bestämd behandlingsperiod.
Vad menas med statistisk osäkerhet?
=Den variation och osäkerhet som finns i resultaten från en statistisk analys, och hur mycket vi kan lita på att de slutsatser vi drar från data faktiskt speglar verkligheten.
- Det finns alltid en viss grad av osäkerhet om hur väl resultaten (genomsnitt, samband mellan variabler) från urvalet representerar/speglar den verkliga populationen eftersom vi samlar data från ett urval
Vad menas med konfidensintervall och konfidensnivå – statistisk felmarginal?
- Ett statistiskt verktyg som ger oss ett spann av möjliga värden för en parameter, där vi med en viss konfidensnivå (vanligtvis 95%) kan vara säkra på att det sanna värdet för populationen ligger inom detta intervall. Konfidensnivån representerar sannolikheten att intervallet kommer att innehålla det sanna värdet om vi upprepar mätningen många gånger.
Dvs. om vi genomförde många stickprov från samma population och beräknade konfidensintervall för varje stickprov, så skulle 95% av dessa intervall inkludera det verkliga parameter-värdet (t.ex. det sanna medelvärdet eller proportionen).
Varför är konfidensintervall viktigt?
- Osäkerhet i uppskattning: Konfidensintervall ger oss en bättre förståelse för osäkerheten i våra resultat. Istället för att bara ange ett punktestimat (t.ex. ett medelvärde), får vi också en uppskattning av variationen och den möjliga osäkerheten i vårt resultat.
- Tydligare resultat: Genom att ge ett intervall istället för ett enskilt värde kan vi kommunicera resultat på ett mer nyanserat sätt. Om ett konfidensintervall för ett medelvärde inte inkluderar noll, kan vi dra slutsatsen att effekten är statistiskt signifikant.
Beräkning av konfidensintervall?
- För att beräkna ett konfidensintervall kan man säga (lite förenklat) att man behöver inkludera ett punktestimat, ett kritiskt värde och ett standardfel/ medelfel i beräkningen.
Vad är punktestimat?
Det beräknade värdet från stickprovet (tex. medelvärdet)
Vad är kritiskt värde?
Inhämtas från en statistisk fördelning (tex. t-fördelning, tabell), beroende på konfidensnivån och stickprovets storlek.
Vad är standardfel?
Detta är ett mått på hur mycket det uppskattade medelvärdet (eller annan parameter) varierar mellan olika stickprov
Vad menas med standarsfel (SE)/medelfel?
- Ett mått på hur mycket ett stickprovs medelvärde (eller en annan statistisk uppskattning) sannolikt kommer att variera från det sanna värdet i en population. Det beskriver med andra ord spridningen av stickprovets medelvärden kring det sanna populationens medelvärde.
- Används för att beräkna konfidensintervall och p-värden och är en central komponent i många statistiska tester
- Låg standardfel innebär att stickprovets medelvärde är nära det sanna medelvärdet för populationen, vilket betyder att våra uppskattningar är mer exakta.
- Högt standardfel innebär att medelvärdet för vårt stickprov kan vara mer osäkert och spridda från det sanna medelvärdet i populationen.
Vad är skillnaden mellan SD och SE?
- Standardavvikelsen (SD eller s): variation i data. Spridningsmått för att visa på den variation som finns i datamaterialet/ mätpunkterna och är alltså en skattning av variationen som också finns i den större målpopulationen
- Standardfelet (SE): Osäkerhet i ett uppskattat värde (ex. medelvärde) Beskriver precisionen av skattningen av populationsmedelvärdet. SE är alltså en ytterligare beskrivning av SD.
- Formeln för standardfel (SE) beror på vilken statistisk uppskattning vi använder:
Hur ser formeln för SD ut för på population?
Hur ser formeln ut för SD stickprov?
Konfidensintervall för medelvärde (när populationens standardavvikelse är känd)?
Observera! Skillnader i formlerna skrivs mellan bok och föreläsning, men de säger samma sak! Skillnaden är att saker benämns på lite olika sätt. Det är formlerna i föreläsningarna som kommer finnas i formelsamlingen (till räkneövning och tenta, gäller alla formler!)
Konfidensintervall för medelvärde (när populationens standardavvikelse är känd) Exempel?
Exempel (vikt hästar)
* x̄= 500 kg
* Z= 1.96 (konstant för konfidensgrad på 95%)
* σ/s = 5.32
* n=10 (10 hästar) 500±1.96(5.32/√10)= 500±1.961.87=500±3.7(496.3- 503.7 kg) Slutsats: Det 95 % konfidensintervall för medelvärdet av hästarnas vikt är (496.3- 503.7 kg). Detta innebär att vi är 95 % säkra på att den sanna genomsnittliga vikten för alla hästar i populationen ligger mellan 496.3- 503.7 kg.
Konfidensintervall för medelvärde (när populationens standardavviklese INTE ÄR KÄND)?
Konfidensintervall för medelvärde (när populationens standardavviklese INTE ÄR KÄND) Exempel?
Exempel (vikt hästar)
* x̄= 500 kg
* Z= 1.96 (konstant för konfidensnivå på 95%)
* s= 4.08
* n=10 (10 hästar= 10 vikter) 500±1.96(4.08/√10)= 500±1.961.87=500±2.52 (497.47- 502.52 kg) Slutsats: Det 95 % konfidensintervall för medelvärdet av hästarnas vikt är (497,47 -502,53 kg). Detta innebär att vi är 95 % säkra på att den sanna genomsnittliga vikten för alla hästar i populationen ligger mellan 497,47 kg och 502,53 kg.
Konfidensintervall för proportioner?
Konfidensintervall för proportioner exempel?
Exempel (biverkning hästar hos de med Behandling A)
* p̂= 80%
* Z= 1.96 (konstant för konfidensnivå på 95%)
* n=10 (10 hästar= 10 vikter) 0,8±1.96√ (0,8(1-0,8)/10= 0,8±1.960.126= 0,8±0.248 (0,552- 1,048) Slutsats: Det 95 % konfidensintervall för andelen hästar som visar biverkningar är (0,552, 1,048). Eftersom konfidensintervallet sträcker sig över 1 (dvs. andelen inte kan vara större än 1) är det viktigt att notera att det här resultatet inte är helt meningsfullt utan ytterligare justeringar och använda en metod som bättre hanterar små stickprov.
Konfidensintervall för skillnad mellan två medelvärden (oberoende grupper)?
Konfidensintervall för skillnad mellan två medelvärden (oberoende grupper) exempel?
Exempel (vikt efter behandling mellan fall och kontroll)
* Grupp 1: x̄1= 477.5, s1=8.58, n1=10
* Grupp 2: : x̄2= 497.5, s2=11.365, n1=10
* t= 1.96 (konstant för konfidensnivå på 95%) -20 ±1.96*√ ((8.58²/10)+ 11.365²/10))= -20±8.83 (-28.83, -11,17) Slutsats: 95 % säkra på att den verkliga skillnaden mellan medelvärdena i hela populationen ligger mellan - 28,83 och -11,17. Eftersom hela konfidensintervallet är negativt, indikerar det att grupp 2 (medelvärde = 497,5) tenderar att ha ett högre medelvärde än grupp 1 (medelvärde = 477,5).
Vad menas med referensintervall?
- Intervallet där majoriteten av friska individer förväntas hamna inom när vi gör en analys av en hälsomarkör (normalt, avvikelse=sjukdom/ risk?)
- Används ofta för bedömning av provsvar, diagnostik: Hur förhåller sig värdet till en given gräns?
- Vid en normalfördelning så utgår man vanligtvis att referensintervallet innefattar 95 % av alla uppmätta värden (i normalpopulationen hamnar 5 % utanför referensintervallet för ett givet test)
Arbetsgång för statistiska analyser av data?
- Förutsättning: signifikansnivån är p=0.05 (den vanligaste nivån)
- Formulera nollhypotes: Ho
- Antar att nollhypotesen är sann i det här stadiet
- Samla in data - för att se om dessa data stöder nollhypotesen
- Statistiska beräkningar steg 1: först får man ofta fram tex medelvärden, proportioner, andra punktestimat som relativ risk: dessa skattade värden vill man komplettera med ett konfidensintervall, vanligen 95%
- Sedan görs ett statistiskt test som ger ett p-värde
- Baserat på p-värdet behåller eller förkastar vi vår nollhypotes
Vad är skillnaden på standardavvikelse (SD) och konfidensintervall (KI)?
Standardavvikelse:
* mäter variationen i en datamängd,
* beskriver hur data varierar kring medelvärdet
* Standardavvikelse beräknas direkt från data, Konfidensintervall:
* Ger ett intervall för en parameter (t.ex. ett medelvärde) i en population baserat på ett stickprov.
* medan konfidensintervallet beskriver osäkerheten i en uppskattning av en parameter.
* Beräkning: medan konfidensintervall beräknas från ett stickprov och tar hänsyn till både variation i data och stickprovsstorlek
Vad är skillnaden mellan strandarsavvikelse (SD) och varians?
- Varians: Varians är det genomsnittliga kvadrerade avståndet mellan varje enskilt värde (datapunkt) och medelvärdet. Redovisas sällan.
- Standardavvikelse: Standardavvikelse är kvadratroten av variansen. Likt variansen mäter också spridningen av data. Redovisas vanligtvis.
Innebär att om vi vet variansen så kan ni enkelt räkna ut standardavvikelsen.
Vad menas med signifikansnivå?
Ett annat sätt att hantera statistisk osäkerhet
* Signifikansnivå (ofta betecknad som α/alfa) är ett begrepp inom statistisk hypotesprövning som anger den maximala risken för att felaktigt förkasta nollhypotesen (dvs. att begå ett typ I-fel) när den faktiskt är sann.
Vad menas med p-värde?
Ett mått på osäkerheten i hypotesprövningen. Ett lågt p-värde (t.ex. under 0,05) indikerar att det är osannolikt att resultatet beror på slumpen, medan ett högre p-värde tyder på större osäkerhet om resultatets statistiska signifikans.
Vad är en hypotesprövning?
- En statistisk metod som används för att testa om en hypotes om en population är sann eller inte, baserat på ett urval av data. Det handlar om att använda data för att bedöma om det finns tillräckligt med bevis för att stödja eller förkasta en specifik hypotes.
1. Formulera en nollhypotes (H0) och en alternativhypotes (H1) * Nollhypotes (H0): Detta är det antagande som vi testar mot. Det innebär ofta att det inte finns någon effekt eller skillnad. Exempel: “Det finns ingen skillnad i medelvikten mellan behandlings- och kontrollgrupperna.” * Alternativhypotes (H1): Detta är det antagande som vi vill bevisa. Det innebär vanligtvis att det finns en effekt eller skillnad. Exempel: “Det finns en skillnad i medelvikten mellan behandlings- och kontrollgrupperna.”
Vad är nollhypotes (Ho)
- Nollhypotesen är ett antagande om att det inte finns något samband, ingen effekt eller ingen skillnad mellan de variabler som studeras. Det är den hypotes som testas i statistiska analyser för att avgöra om vi kan förkasta den till förmån för den alternativa hypotesen.
- Formulering: Nollhypotesen formuleras oftast som ett påstående om att det inte finns någon skillnad, inget samband eller ingen effekt.
- Exempel: Det finns ingen skillnad i medelvikten mellan två grupper hästar.
Vad är alternativhypotes? (H1)?
- Alternativhypotesen är den hypotes som man vill bevisa, dvs. den föreslår att det finns en skillnad, ett samband eller en effekt mellan variabler. När man testar nollhypotesen, vill man ofta bevisa att alternativhypotesen är sann.
- Formulering: Alternativhypotesen uttrycks som ett påstående om att det finns en skillnad, ett samband eller en effekt.
- Exempel: Det finns en skillnad i medelvikten mellan två grupper hästar.
Faktorer att ta hänsyn till i valet av statistiska tester?
- Typ av utfallsvariabel:
- Kategorisk (nominal, ordinal, binär): ex. hull- och muskel, eller biverkning
- Kvantitativ (kontinuerlig eller diskret) ex. vikt - Antal grupper:
- En grupp: medelvärde i en grupp vs. Bestämt värde: T-test för ett prov (konternuerliga variabler), binomialtest (för binära variabler).
- Två grupper: Om du jämför två grupper används test som t-test för oberoende grupper (för kvantitativa data) eller Mann-Whitney U-test (icke-parametriskt): ex. behandling A och kontroll
- Fler än två grupper: Fler än två grupper: Om du jämför mer än två grupper används exempelvis ANOVA (för kontinuerliga variabler) eller Kruskal-Wallis test (icke-parametriskt).
Vad är parametriska vs icke-parametriska tester?
- Parametriska test (som t-test, ANOVA) gör antaganden om data, såsom att de är normalfördelade och har samma varians (homogenitet). Dessa test används om: - Data är kontinuerliga - Normalfördelning kan antas och en homogenitet av varians kan antas
- Icke-parametriska test (som Mann-Whitney U-test, Kruskal-Wallis test) används när data inte uppfyller parametriska antaganden, till exempel när:
- Data är ordinala eller inte normalfördelade (ex. vikt)
- Data innehåller outliers eller avvikelser från normalfördelningen.
Vad menas ned oberoende eller beroende observationer?
- Om observationerna i grupperna inte påverkar varandra kallas de oberoende. Exempelvis om du jämför en behandlingsgrupp och en kontrollgrupp ex. den egna datan iom att hästar med behandling A jämförs med hästar utan behandling (kontroll).
- Om observationerna är relaterade (t.ex. samma individer före och efter behandling) kallas de beroende. Här används test som parat t-test (för kvantitativa data) eller Wilcoxon tecken rangtest (för ordinala data).
Exempel på val av test för den egna datan (baserat på typ av data och situation):
Jämförelse av medelvärde (två grupper):
* Parametriska test: Om data är normalfördelade, använd t-test för oberoende grupper.
* Icke-parametriska test: Om data inte är normalfördelade, använd Mann-Whitney U-test (för kvantitativa eller ordinala data). Jämförelse av proportioner:
* Binär (kategorisk variabel): Om du har två grupper och en binär utfallsvariabel (t.ex. biverkning, ja/nej), använd Chi-två-test eller Fisher’s exact test (om gruppstorlekarna är små). Förändring i medelvärde inom en grupp (före och efter behandling):
* Parametriskt test: Om data är normalfördelade, använd parat t-test.
* Icke-parametriskt test: Om data inte är normalfördelade, använd Wilcoxon tecken rangtest.
Statistiska test för medelvärdesjämförelser?
När vi jämför medelvärden mellan de två grupperna, måste vi välja lämpliga tester beroende på datatyp och förutsättningar.
* För vikt (kontinuerlig variabel): Använd t-test för oberoende grupper om data är normalfördelad, annars använd Mann-Whitney U-test.
* För hullpoäng och muskelpoäng (rangordnade variabler): Använd MannWhitney U-test för att jämföra medelrangs.
* För biverkningar (binär variabel): Använd chi-två-testet för att jämföra proportionerna av hästar med biverkningar i de två grupperna.
- T-test för oberoende grupper (oberoende t-test):
- Användning: Används för att jämföra medelvärdena mellan två oberoende grupper, t.ex. fall och kontroll.
- Antaganden:
- Data är normalfördelad.
- Oberoende grupper (de två grupperna är inte relaterade till varandra).
- Homogen varians (eller lika spridning i båda grupperna).
- Exempel: Om du vill jämföra medelvikten mellan en grupp hästar som fått behandling A och en kontrollgrupp.
- Teststatistik: t-värde beräknas och jämförs med en kritisk t-tabell för att hitta p-värdet. Lämpligt att använda för vår data och vid jämförelse mellan grupp Behandling A och kontroll, förutsatt att data är normalfördelad
- Parat t-test:
- Användning: Används när du har beroende grupper (dvs. samma enheter i båda grupperna) och vill jämföra medelvärdena innan och efter en intervention, eller vid mätningar av samma individer i två olika tillstånd.
- Antaganden:
- Data är normalfördelad.
- Beroende grupper (t.ex. samma individer före och efter behandling).
- Exempel: Om du har mätt hästars vikt både före och efter behandling A och vill jämföra medelvärdena för vikt före och efter behandlingen.
- Teststatistik: t-värde beräknas för att jämföra medelvärdena för de två mätningarna. Lämpligt att använda för vår data och vid jämförelse mellan tex. hästarnas vikt innan och efter behandling, förutsatt att data är normalfördelad
- ANOVA (Variansanalys):
- Användning: Används för att jämföra medelvärdena mellan tre eller fler grupper. Om du till exempel har fler än två behandlingsgrupper och vill jämföra deras medelvärden.
- Antaganden:
- Data är normalfördelad.
- Oberoende grupper.
- Homogen varians (lika spridning mellan grupperna).
- Exempel: Om du har tre eller fler behandlingsgrupper och vill jämföra medelvikten mellan grupperna.
- Teststatistik: F-värde beräknas och jämförs med en F-fördelning för att hitta p-värdet. Inte lämpligt att använda för denna analys då vi inte har flera faktorer som vi vill titta på samtidigt
- Kruskal-Wallis test (icke-parametriskt alternativ till ANOVA):
- Användning: Används för att jämföra medelrankningar mellan tre eller fler grupper när data inte är normalfördelad (eller när varians inte är homogen).
- Antaganden:
- Ingen specifik fördelning av data (används när data inte är normalfördelad).
- Oberoende grupper.
- Exempel: Om du har tre behandlingsgrupper och inte kan anta att data är normalfördelad.
- Teststatistik: H-värde beräknas och jämförs med en Chi-två-fördelning för att hitta p-värdet. Inte lämpligt att använda för vår data eftersom vi endast har två grupper
- Mann-Whitney U-test (Wilcoxon rank-sum test):
- Användning: Används för att jämföra medelrankningar mellan två oberoende grupper när data inte är normalfördelad eller när du har ordinal data.
- Antaganden:
- Data behöver inte vara normalfördelad.
- Oberoende grupper.
- Exempel: Om du vill jämföra två grupper som inte är normalfördelade (t.ex. fall och kontroll).
- Teststatistik: U-värde beräknas och jämförs med en fördelning för att hitta p-värdet. Lämpligt att använda för vår data och vid jämförelse mellan tex. hästarnas vikt innan och efter behandling, om det skulle vara så att data inte är normalfördelad
Fördelar med medelvärde?
- Effektivt vid normalfördelade data: Medelvärdet är ett bra mått när data är normalfördelade, eftersom det utnyttjar hela datamängden och gör full användning av informationen.
- Statistiska test: Medelvärdet är särskilt användbart när du vill använda parametriska test (t.ex. ttest eller ANOVA) som ofta bygger på antagandet om normalfördelning.
Nackdelar med medelvärde?
- Känslighet för extremvärden (outliers): Om data har extremvärden (outliers), kan medelvärdet bli snedvridet och ge en missvisande bild av det centrala värdet.
Utöver medelvärde så är det också vanligt att jämföra proportioner
Om både utfall och riskfaktor är 1/0 :
* Fisher’s exact test (för mindre datamängder/observationer, litet stickprov) eller * chi-squared test= chi2 test =χ2 test (för fler observationer, större stickprov) Fishers exact test är lämpligt att använda för vår data och vid jämförelse mellan tex. andelen hästar med biverkningar i de olika grupperna (fall och kontroll), förutsatt att data inte är normalfördelad
Vad menas med medianjämförelser?
Det går även bra att genomföra medianjämförelser
* Genomförs då förutsättningar för t-test inte är uppfyllda (dvs. inte normalfördelad data och inga stora grupper)
* Medianjämförelser (icke-parametriska test) utförs för: - En grupp (Teckentest) - Parade mätningar (Teckentest, Wilcoxons teckenrangtest) - Två eller flera oberoende grupper (Mann-Whitney test) - Tre eller flera oberoende grupper (Kruskal-Wallis test) ….förutsatt att data inte är normalfördelad
Vad menas med Wilcoxon Signed-rank test: parade mätningar?
- Användning: Används när du vill jämföra medianer i beroende grupper, t.ex. före och efter en behandling på samma individer eller enheter.
- Antaganden:
- Beroende grupper (t.ex. samma individer före och efter behandling).
- Data behöver inte vara normalfördelad.
- Exempel: Om du har mätt smärtbedömning hos samma personer före och efter behandling och vill jämföra deras medianer.
- Hypoteser:
- H0: Medianerna är lika före och efter behandlingen.
- H1: Medianerna skiljer sig före och efter behandlingen. Lämpligt att använda för vår data och vid jämförelse mellan före och efter behandling inom grupperna (fall och kontroll) för rangordnad data tex. hull och muskel eftersom testet fungerar oberoende av att data är normalfördelad eller inte.
Vad menas med Wilcoxon Signed-rank test: oberoende grupper?
- Användning: Används för att jämföra medianer mellan två oberoende grupper, särskilt när data är ordinal eller inte är normalfördelad.
- Antaganden:
- Oberoende grupper (t.ex. fall och kontroll).
- Data behöver inte vara normalfördelad.
- Exempel: Om du vill jämföra medianerna för vikt eller smärtbedömning mellan två grupper (t.ex. behandlade vs. kontroll).
- Hypoteser:
- H0 (nollhypotes): Medianerna är lika mellan grupperna.
- H1 (alternativhypotes): Medianerna är olika mellan grupperna. Lämpligt att använda för vår data och vid jämförelse mellan grupperna (fall och kontroll) för eftersom testet fungerar oberoende av att data är normalfördelad eller inte.
Vad menas med Mann-Whitney U-test (Wilcoxon rank-sum test): Oberoende grupper?
- Användning: Används för att jämföra medianer mellan två oberoende grupper, särskilt när data är ordinal eller inte är normalfördelad.
- Antaganden:
- Oberoende grupper (t.ex. fall och kontroll).
- Data behöver inte vara normalfördelad.
- Exempel: Om du vill jämföra medianerna för vikt eller smärtbedömning mellan två grupper (t.ex. behandlade vs. kontroll).
- Hypoteser:
- H0 (nollhypotes): Medianerna är lika mellan grupperna.
- H1 (alternativhypotes): Medianerna är olika mellan grupperna. Lämpligt att använda för vår data och vid jämförelse mellan grupperna (fall och kontroll) för eftersom testet fungerar oberoende av att data är normalfördelad eller inte.
Vad menas emed Kruskal-Wallis test: eller fler oberoende grupper?
- Användning: Används för att jämföra medianer mellan tre eller fler oberoende grupper när data inte är normalfördelad eller när variabler är ordinala.
- Antaganden:
- Oberoende grupper (t.ex. olika behandlingsgrupper).
- Data behöver inte vara normalfördelad.
- Exempel: Om du vill jämföra medianerna för vikt mellan tre olika behandlingsgrupper.
- Hypoteser:
- H0: Medianerna är lika mellan grupperna.
- H1: Medianerna är olika mellan grupperna. Inte lämplig att använda för vår data eftersom det används för att jämföra mellan tre eller fler grupper.
Fördelar med median?
- Robust mot outliers: Medianen är inte känslig för extremvärden, eftersom den endast påverkas av placeringen av värdena i mitten av datasetet. Det gör medianen särskilt användbar när du har asymmetriska fördelningar eller extremvärden.
- Användbar för snedfördelad data: Om data är snedfördelad (t.ex. om den är kraftigt skev åt ena hållet), kan medianen ge en mer representativ bild av det centrala värdet än medelvärdet.
Nackdelar med median?
- Mindre användbar vid normalfördelning: Om data är normalfördelade, är medelvärdet och medianen vanligtvis lika eller mycket nära varandra, så medianen ger inte mer information än medelvärdet.
- Begränsad information: Medianen är inte lika effektiv som medelvärdet när det gäller att få ut full information från data, särskilt om fördelningen är symmetrisk och utan extremvärden.
När ska du använda medelvärde eller median?
- Om data är normalfördelad (symmetrisk fördelning utan outliers):
* Medelvärde är ofta det bästa valet för att jämföra grupper eller för att beskriva det centrala värdet, eftersom det utnyttjar all information i datasetet.
* Statistiska test som t-test och ANOVA är baserade på medelvärdet och förutsätter att data är normalfördelade. - Om data är snedfördelad (asymmetrisk fördelning):
* Medianen är oftast bättre för att beskriva det centrala värdet eftersom den inte påverkas av extremvärden eller snedvridning.
* Icke-parametriska test som Mann-Whitney U-test (för två oberoende grupper) eller Kruskal- Wallis test (för flera grupper) använder medianen för att jämföra grupper när data inte är normalfördelad. - Om det finns extremvärden (outliers):
* Medianen ger en mer rättvisande bild av det centrala värdet i närvaro av extremvärden. Det gör medianen till ett bättre alternativ när datasetet innehåller outliers. - Om du har ordinaldata (rangordnade kategorier):
* Medianen är det bästa valet eftersom medelvärdet inte är meningsfullt för rangordnade data. Till exempel, för att jämföra rangordnade poäng som “hullpoäng” eller “muskelpoäng”, är det mer meningsfullt att använda medianen än medelvärdet
Vad är normalfördelning?
- Normalfördelad data: Kännetecknas av att de flesta observationer ligger kring medelvärdet och att antalet observationer minskar med ökat avstånd från medelvärdet.
- Möjliggör beräkning av hur stor andel av alla observationer som finns inom ett visst antal standardavvikelser från medelvärdet
- Vanlig förutsättning för statistiska test av konternuerliga data
Vad är symmetrisk fördelning?
- Spridningen under och över medianen är lika
- Medelvärdet ≈ Median
- Både medel och median kan användas vid analys beroende på hur data ser ut, vanligast med medel
Vad är positiv snedfördelning?
Positiv snedfördelning
* Större spridning över än under medianen
* Medelvärdet > Median
* Använd median vid analys
Vad är negativ snedfördelning?
Negativ snedfördelning*
* Större spridning under än över medianen
* Medelvärdet < Median
* Använd median vid analys
Är data normalfördelad eller inte?
För att kunna använda vissa statistiska tester, som t-test och ANOVA, krävs att data följer en normalfördelning. Vi börjar med att kontrollera om våra kontinuerliga och rangordnade variabler följer en normalfördelning.
- Vikt: Eftersom vikt är en kontinuerlig kvantitativ variabel, bör vi kontrollera om denna är normalfördelad. Vi kan använda ett histogram eller statistiskt test för normalfördelning-> ej symmetrisk-> icke-parametriska tester.
- Hullpoäng och muskelpoäng: Dessa är rangordnade kvalitativa variabler och följer sällan en strikt normalfördelning. För dessa variabler kommer vi att använda icke-parametriska tester.
- Biverkningar: Eftersom detta är en binär variabel (0 eller 1), kräver det också en särskild behandling, till exempel chi-två-testet.
Vad säger p-värdet (signifikansnivån)?
- Ett mått på sannolikheten att observera ett resultat lika extremt som det som erhölls i en statistisk test, givet att nollhypotesen är sann.
- Ett verktyg som används för att avgöra om resultaten i en studie eller experiment är statistiskt signifikanta.
- Under signifikansnivån (< 0,05):
- Innebär det att det finns tillräckligt med bevis för att förkasta nollhypotesen, resultatet anses vara statistiskt signifikant.
- Exempel: Om p-värdet är 0,03, betyder det att det finns en 3% sannolikhet att det aktuella resultatet eller ett mer extremt resultat om nollhypotesen var sann. Därför kan vi förkasta nollhypotesen.
- Över signifikansnivå (> 0,05): * Innebär det att det inte finns tillräckligt med bevis för att förkasta nollhypotesen, resultatet inte är statistiskt signifikant.
- Exempel: Om p-värdet är 0,08, betyder det att det finns en 8% sannolikhet att observera resultatet om nollhypotesen är sann. Eftersom detta är större än signifikansnivån (0,05), kan vi inte förkasta nollhypotesen.
Resultat av analys: Redovisning av p-värden?
- Enstjärnig signifikans (*): Oftast används för att indikera signifikans vid en 0,05-nivå, dvs. p-värdet är mindre än eller lika med 0,05.
- Tvåstjärnig signifikans (**): Kan användas för att indikera signifikans vid en 0,01-nivå, dvs. p-värdet är mindre än eller lika med 0,01.
- Trestjärnig signifikans (***): Kan användas för att indikera signifikans vid en ännu striktare nivå, t.ex. 0,001.
Men är statistisk signifikans samma sak som klinisk relevans?
- NEJ! För att en behandlingseffekt skall vara kliniskt intressant (och därmed relevant), krävs att effekten är tillräckligt stor för att det skall vara intressant för patient och behandlande läkare att sätta in den aktuella behandlingen eller byta behandling
Vad menas med statistisk styrka?
- Statistisk styrka (eller power på engelska) är sannolikheten att korrekt förkasta nollhypotesen (H0) när den faktiskt är falsk, dvs. att upptäcka en verklig effekt om den finns. En hög statistisk styrka innebär att testet har en hög sannolikhet att hitta en verklig skillnad eller effekt om den existerar.
- I praktiken är statistisk styrka ett mått på hur känsligt ett statistiskt test är. Om styrkan är låg kan det hända att testet missar en verklig effekt (det ger ett typ II-fel, där man inte förkastar en falsk nollhypotes).
Faktorer som påverkar testets statistisk styrka?
- Effektstorlek: Ju större den verkliga effekten är (effekt= skillnaden eller sambandet du försöker mäta ex. effekt av behandling), desto lättare är det att upptäcka den, vilket ökar styrkan.
- Provstorlek (n): Ju större provstorlek, desto större chans att upptäcka en verklig effekt. Ett större urval ger mer pålitliga resultat och minskar risken för att missa en effekt.
- Signifikansnivå (α): Detta är tröskelvärdet för att förkasta nollhypotesen (vanligtvis satt till 0,05). Om signifikansnivån är högre (t.ex. 0,1), ökar styrkan, men samtidigt ökar risken för att begå ett typ I-fel.
- Variabilitet i data: Om det finns mycket variabilitet i data, blir det svårare att upptäcka en effekt, vilket minskar styrkan.
- Testets design: Olika typer av statistiska tester har olika nivåer av styrka beroende på hur de är utformade och vilken typ av data de använder
Exempel på statistisk styrka (det egna datasetet)?
Vi genomför ett test för att undersöka om en behandling har en effekt på hästens hull:
* Om testet har en hög statistisk styrka innebär att testet har en hög sannolikhet att korrekt identifiera en verklig effekt om den finns. Dvs om det finns en skillnad mellan behandling A och kontroll gällande effekt på hull så har det statistiska testet vi valt en hög sannolikhet att påvisa denna skillnad.
* Om testet har en låg statistisk styrka innebär en högre risk för att missa verkliga effekter och därmed dra felaktiga slutsatser (typ II-fel). Dvs om det finns en skillnad mellan behandling A och kontroll gällande effekt på hull så har det statistiska testet vi valt en låg sannolikhet att påvisa denna skillnad. Viktigt att välja lämpligt test beroende på vilken data vi har!
Typer av fel i hypotesprövning?
- Typ I-fel (falskt positivt resultat): Förkasta nollhypotesen när den egentligen är sann. Detta sker om pvärdet är mindre än α, men det verkliga resultatet inte visar någon direkt skillnad.
- Typ II-fel (falskt negativt resultat): Acceptera nollhypotesen när den egentligen är falsk. Detta sker om pvärdet är större än α, men det verkliga resultatet visar en skillnad.
Exempel gällande Typ 1-fel och typ II-fel?
- Förutsättning: Alla fall som fått biverkning har fått det av behandling A (förutsättning: att vi är helt säkra på att biverkningen beror på behandling A) Totalt 20 hästar
- 10 som är kontroller: 2 med biverkning (falskt positiva, typ-I fel) och 8 utan biverkning (sanna negativa)
- 10 som fått behandling A: 8 med biverkning (sanna positiva) och 2 utan biverkning (falska negativa, typ-II fel)
Vad menas med Prediktiva värden –Sant positiva och Prediktiva värden –Sant negativa?
Prediktiva värden –Sant positiva
* Undersöka andelen av de med biverkningar som faktiskt fått behandling
* Beräknas: 8/10= 80% (hög sannolikhet) Prediktiva värden –Sant negativa
* Undersöka andelen av de utan biverkningar som inte har fått behandling (kontroller)
* Beräknas: 8/10= 80% (hög sannolikhet)