Extra begrippen Thema 6-9 Flashcards
Afhankelijke of gepaarde meting
Een afhankelijke steekproef heb je
• Als je binnen dezelfde steekproef vaker een meting doet.
• Wanneer je een voor- en een nameting doet in dezelfde steekproef.
• Als je twee mensen een beoordeling laat doen over dezelfde variabele
Bij bovenstaande voorbeelden kan de gepaarde t-toets worden gebruikt.
Gepaarde t-toets
Een t-toets waarbij twee datareeksen vergelijken worden waarin elk datapunt in de ene datareeks te koppelen is aan één datapunt in de andere datareeks. Dit gebeurt als beide datareeksen afhankelijk/gepaard zijn, of als de onderzoekseenheden in de twee datareeksen met elkaar in verband gebracht kunnen worden.
Voordelen van de gepaarde t-toets
- Door op individueel niveau verschilscores uit te rekenen, elimineer je de individuele verschillen.
- Door de ene score van elk persoon te vergelijken met de andere score van die persoon elimineer je persoonlijkheidskenmerken. Als dezelfde persoon vaker gemeten wordt is dat within-subjects design.
De power van de afhankelijke t-toets
Er zijn bij een afhankelijke t-toets veel minder deelnemers nodig om tot een bepaalde power te komen. Deze deelnemers moeten dan dus wel tweemaal gemeten worden.
one-way ANOVA
ANOVA staat voor Analysis of Variance, oftewel: de varantieanalyse. Met one-way ANOVA kunnen meer dan twee groepsgemiddelden met elkaar worden vergeleken. De nulhypothese bij ANOVA is dat de twee groepsgemiddelden gelijk zijn. De term one-way betekent dat er in deze analyse maar een enkele predictor variabele en een enkele afhankelijke variabele worden betrokken. De afhankelijke variabele is altijd een numerieke (kwantitatieve) variabele en de predictor geeft een groepsindeling aan.
F-toets/exacte f-test
De f-toets toetst of de gemiddelden van een kwantitatieve variabele in meerdere groepen van elkaar verschillen. Het gaat bij de variantieanalyse dus om de analyse van de verschillen tussen gemiddelden. De f-toets lijkt daarmee erg op de t-toets en de z-toets maar het verschil zit hem in dat de f-toets meerdere groepsgemiddelden kan vergelijken.
Significante f-toets
Een significante f-toets geeft aan dat niet alle gemiddelden aan elkaar gelijk zijn, zonder te specificeren welke gemiddelden precies van elkaar verschillen. Een significante F-waarde geeft aan dat een model waarin alle groepsgemiddelden gelijk zijn, of specifieker waarin alle groepsgemiddelden gelijk zijn aan het algemeen gemiddelde, een model is wat verworpen mag worden. De vraag die dan ontstaat, is welke groepen dan van elkaar verschillen. Hiervoor moet dan alsnog een t-toets worden gedaan.
Verschil t-toets en ANOVA
ANOVA kan gezien worden als een toets van de homogeniteit van gemiddelden. In ANOVA worden dus geen verschillende populaties vergeleken, zoals wel gebeurt bij de t-toets. Iedere groep is eigenlijk een subgroep. De subgroep-gemiddelden uit de populatie worden vergelijken met de globale populatiegemiddelde. Bij ANOVA is dus niet zozeer de vraag hoe je meer dan twee populatiegemiddelden kunt vergelijken (daarvoor kun je meer t-toetsen doen). ANOVA toetst of het mogelijk is om de subgroepengemiddelde van de populatie in één populatiegemiddelde uit te drukken, of dat een model waarin subgroepen verschillende gemiddelden hebben beter is.
Overeenkomst t- en f-waarde
De t- of F-waarde geeft aan hoe goed de categorische variabele de spreiding in scores op de continue variabele kan voorspellen ten opzichte van hoe goed de categorische variabele deze spreiding niet kan voorspellen. Hoe beter de voorspelling, des te groter de waarden van t en F, wat weer correspondeert met lagere p-waarden
F-waarde
Wordt ook wel de omnibus-toets genoemd. De F-waarde kan gezien worden als een signaal-ruisverhouding. Daarbij is het signaal hetgeen wat de onderzoeker wil oppikken, dus hoeveel de groepsgemiddelden bij elkaar opgeteld afwijken van het algemene populatiegemiddelde. Het signaal wordt ook wel de tussengroepenvariantie genoemd. De ruis is de individuele variatie die in de subgroepen aanwezig is die niet verklaard kan worden. De F-waarde is de tussengroepenvariantie (signaal) gedeeld door de binnengroepenvariantie (ruis). Bij een verhouding groter dan 1 is er meer signaal dan ruis en bij kleiner dan 1 is er meer ruis dan signaal. Hoe groter de F-waarde, des te duidelijker iser een signaal waarneembaar.
aannames ANOVA
- De residuen zijn normaal verdeeld
- Er is sprake van homogeniteit van de varianties. Dit betekent dat de varianties in de verschillende groepen (ongeveer) gelijk zijn. Als de varianties ongelijk zijn, moet er een aangepaste toets gedaan worden, de Welch’s F.
- De scores op de afhankelijke variabele zijn onafhankelijk van elkaar.
- Er zijn geen verstorende uitbijters in de data. Controleer dus eerst op uitbijters.
Welch’s F
De Welch’s F houdt rekening met ongelijke varianties. Als de varianties toch gelijk blijken te zijn, is het resultaat vergelijkbaar met de standaard F-toets. Daarom kan het beste altijd de Welch’s F gebruikt worden.
Effectmaat van ANOVA
De effectmaat van de variantieanalyse geeft de grootte van het effect van een experimentele manipulatie weer. Een hoge waarde geeft aan dat de manipulatie effect heeft gehad op de afhankelijke variabele. Het R2 geeft de verhouding aan tussen de kwadratensom tussen groepen en de totale kwadratensom. R2 wordt meestal aangeduid met η2. η2is echter een onzuivere waarde. Daarom wordt meestal het omega-kwadraat gebruikt. w2 is een zuivere schatting van het effect in de populatie. Boven de .01 wordt er gesproken van een
klein effect, boven de .06 van een middelsterk effect en boven de .14 van sterk effect
post-hoc analyses
Een one-way ANOVA toetst of er een verschil is tussen meerdere categorieën. Als er een verschil gevonden wordt, weet je nog niet precies welke categorieën van elkaar verschillen. Daarvoor moet je de one-way ANOVA opvolgen met een post-hoc-test. Een post-hoc-test voer je alleen uit als het effect van de ANOVA-toets (de zogenaamde omnibustoets) significant is. Als er namelijk geen verschil tussen de categorieën is, is het ook niet nodig te onderzoeken waarin dit verschil precies zit. Een post-hoc-test is uiteraard alleen zinvol (en mogelijk) bij meer dan twee categorieën. Als er maar twee categorieën zijn, zijn het dus deze twee categorieën die van elkaar verschillen. Een post-hoc analyse is dat je achteraf toch nog alle data met elkaar gaat vergelijken, dit doe je wel voorzichtig om onnodige type 2 fouten te voorkomen. Voorbeelden van post-hoc analyses zijn:
• Least-Squared Difference (LSD) Gebruik nooit LSD.
• Bonferonni-correctie.
• Tukey-kramer (Honestly Significant Difference) test
• Dunnett’s t-test
• Games-Howell test
Bonferonnie-correctie
De makkelijkste maar ook de strengste correctiefactor. Meestal wordt dit uitgelegd als het delen van de gewenste alpha door het aantal paarsgewijze vergelijkingen. De bonferonni-correctie kan gebruikt worden als het aantal observaties per groep gelijk is en als de varianties tussen de groepen gelijk zijn.