thema 2 Flashcards

1
Q

homogeniteit van variantie (Levene’s test)

A

zoals met elk lineair model nemen we aan dat de variantie van de uitkomst stabiel bliojft als de predictor wijzigt. in dit verband betekent dit dat de varianties in groepen gelijk zijn. Als de groepen verschillen van omvang kan schending van deze assumptie/aanname homogeniteit van variantie ernstige gevolgen hebben. Deze aanname kan getoetst worden met Levene’s test.

> vaker hetzelfde aspect meten

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

type 1 fout, false positive

A

Iedere keer dat er een hypothese wordt getoetst, accepteert men een kans gelijk aan alpha om een significant resultaat te vinden, terwijl dit effect niet in de populatie aanwezig is. In de sociale wetenschappen wordt doorgaans een alpha van 5% gekozen. Deze kans op een false positive, de kans dat onterecht de nulhypothese wordt verworpen, wordt de type-I-fout genoemd. In het geval van een t-toets wordt daarom een uitspraak gedaan met 95% betrouwbaarheid (1 - 0.05). Maar wat er als meer t-toetsen nodig zijn, omdat er meer dan een (paarsgewijze) waarneming wordt vergeleken? Iedere t-toets heeft steeds weer een 5% kans op type-I-fout. Hypothesetoetsing heeft daarmee veel weg van een dobbelspel waarbij men ‘af’ is als men een zes gooit. Naarmate het spel vordert en er steeds meer dobbelstenen gegooid zijn, is de kans per worp niet verandert, maar uiteindelijk wordt de kans dat er minstens eenmaal een zes gegooid wordt bijna 100%. als er 3 groepen moeten worden vergeleken, zijn er al 3 t-toetsen nodig (1 en 2, 1 en 3, 2 en 3)De toename van type 1 fout wordt kanskapitalisme genoemd

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

betrouwbaarheid

als je 10 t-toetsen doet , rekening houdend met kans kapitalisatieen een alpha van 0.01 dan is de betrouwbaarheid 0,99<10=0,9044

A

De afname van betrouwbaarheid is exponentieel; de nieuwe betrouwbaarheid is gelijk aan de initiële betrouwbaarheid tot de macht van het aantal toetsen. Bij een alpha van 5% is de betrouwbaarheid bijvoorbeeld 95% (.95) en als er drie toetsen worden gedaan is de nieuwe betrouwbaarheid als men start met een betrouwbaarheid van 95%:

.95tot de macht 3=0.857

en is de type-I-fout dan niet meer 5%, maar:

1−.95 tot de macht3=0.143

Bij het vergelijken van drie groepen in drie t-toetsen is de type-I-fout toegenomen van 5% tot ruim 14%. Als er vier groepen zouden worden vergeleken waren er zes toetsen nodig, waardoor de nieuwe type-I-fout al ruim 26% zou zijn:

1−.95 tot de macht 6=0.264

En bij vijf vergeleken groepen, waar tien toetsen nodig zijn is de type-I-fout, dus de kans dat er in minstens één toets onterecht de nulhypothese wordt verworpen, al opgelopen tot ruim 40%!

1−.95tot de macht 10=0.401

Een onderzoeker heeft twee manieren om deze toename van type-I-fout op te lossen:

1 Het aantal uit te voeren toetsen te verminderen; en dit kan door:
A. contrasten op te stellen: a-priori te bedenken welke vergelijkingen van belang zijn, en welke niet. Als je de keuze hebt heeft dit meer power dan post-hoc. In de statistiek , met name bij de analyse van variantie en lineaire regressie, is een contrast een lineaire combinatie van variabelen (parameters of statistieken) waarvan de coefficienten optellen tot nul waardoor verschillende behandelingen kunnen worden vergeleken.
B. omnibustoetsen; kies een toets die eerst een algemeen effect toetst, en toets specifieke vergelijkingen pas als de omnibustoets aangeeft dat er ergens verschil is (bijvoorbeeld, One-way ANOVA (zie Field hoofdstuk11) of Factorial ANOVA (zie Field hoofdstuk 13)

2 De alpha strenger te maken; dit kan door het kiezen van een post-hoc-correctiefactor (significantie bepalen). De bekendste hiervan is de Bonferroni: de alpha wordt dan gedeeld door het aantal getoetste vergelijkingen.
Als er uitgegaan wordt van een alpha van 0.01 en tien t-toetsen nodig zijn om alle verschillen te toetsen, wat zou met de bonferoni-correctie de nieuwe alpha moeten zijn om kans kapitalisme te voorkomen? 0.01/10=0.001

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

bonferroni correctie

A

Gezien de relatief grote toename van type-1-fouten besluiten de onderzoekers om alle t-toetsen uit te voeren met een correctie op de alpha, zodat verschillen minder snel significant zijn. Zij gebruiken hiertoe de bonferroni-correctie, een zeer strenge correctiefactor: de nieuwe alpha waarmee de kans op type-1 fout weer rond de bedoelde alpha moet brengen wordt berekend door de alpha te delen door het aantal uit te voeren toetsen. alfa 0.01 :10 t toetsen maakt een alpha van 0.001.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

manipulatiechecks

A

Manipulatiechecks zijn een manier om interne validiteit van een experiment te waarborgen. Manipulatiechecks zijn variabelen die gemeten zijn om de onderzoeker de mogelijkheid te geven te toetsen of de beoogde manipulatie geslaagd is. Belangrijke vragen waar de onderzoeker antwoord op probeert te zoeken zijn:

  • Heeft de manipulatie het beoogde effect gehad?
  • Heeft de manipulatie onbedoeld een effect gehad op andere variabelen dan de beoogde?

Het is van belang om te benadrukken dat de manipulatiechecks niet bedoeld zijn om te evalueren of de manipulatie een effect heeft gehad op de afhankelijke variabele. Manipulatiechecks gaan altijd over verbanden met variabelen die niet de afhankelijke variabele zijn. Er wordt namelijk nog geen hypothese getoetst; een manipulatiecheck wordt meestal uitgevoerd om te verifiëren dat een experimentele manipulatie een preliminair effect heeft gehad, of in andere woorden: of de manipulatie is geslaagd.

Bijvoorbeeld: een onderzoeker wil weten of het kijken naar een verdrietige of grappige film invloed heeft op de prestaties op een moeilijke puzzel na het zien van de film. De preliminaire vragen die de onderzoeker eerst beantwoord wil hebben, zijn:

Hebben de films de beoogde stemming geïnduceerd? Voelden mensen zich verdrietig na het kijken naar een verdrietige film, en voelden mensen zich vrolijk na het kijken naar een grappige film?
Hebben de films alleen de beoogde stemming geïnduceerd? Voelden mensen zich niet vrolijk na het kijken naar een verdrietige film, of verdrietig na het kijken naar een grappige film?
In dit geval zal de onderzoeker twee manipulatiechecks uitvoeren. Er zal na vertoon van de film (verdrietig of grappig afhankelijk van de toegewezen conditie) aan de proefpersonen worden gevraagd in welke mate zij zich vrolijk voelen en in welke mate zij zich verdrietig voelen.

Als de proefpersonen geen verandering in de beoogde stemming laten zien dan weet de onderzoeker dat de manipulatie niet sterk genoeg was, of om andere redenen niet heeft gewerkt. Als de proefpersonen een verandering op de ‘verkeerde’ stemming laten zien, dan weet de onderzoeker dat de manipulatie verkeerd is uitgevoerd; misschien was de verdrietige film zo over-the-top dat het een parodie leek, of waren er andere verstorende factoren waardoor de manipulatie anders werkte dan bedoeld. Wanneer een manipulatie in een conditie zich gedraagt alsof het een manipulatie was in de andere conditie, zoals het grappig vinden van een verdrietige film, dan spreekt men van een cross-overeffect.

In sommige experimenten worden proefpersonen voorgelogen over de aard van het experiment. Een manipulatiecheck kan in zulke experimenten dan ook vaak een vraag zijn of de proefpersoon het voorgelogen verhaal überhaupt heeft geloofd. In dit geval dient de manipulatiecheck als een filter: alle respondenten die niet in het verhaaltje van de onderzoeker zijn getrapt, zijn problematisch voor de interne validiteit.

Toetsen van manipulaties
De manipulatiechecks zijn variabelen die ter controle aan de experimentele metingen zijn toegevoegd. Het kiezen van de juiste toets hangt daarom af van het meetniveau van variabelen. Als er twee condities zijn (een nominale onafhankelijke variabele, met twee niveaus) en de manipulatiecheck is een variabele op intervalniveau of hoger (bijvoorbeeld hoe vrolijk iemand zich voelt op een schaal van 1 tot 100), dan is een t-toets geschikt (Field, hoofdstuk 9); bij meer condities een one-way ANOVA (Field, 5th edition Hoofdstuk 12). Als er meer onafhankelijke variabelen zijn, zoals in 2 x 2 factoriële designs, dan kan een factoriele ANOVA meer geschikt zijn (Field, 5th edition Hoofdstuk 14).

Een voorbeeld van hoe een manipulatiecheck in de praktijk getoetst zou kunnen worden, is als volgt:

In de eerdere uitleg is een situatie besproken van een onderzoeker die wil weten of het kijken van een verdrietige of grappige film invloed heeft op de prestaties op een moeilijke puzzel na het zien van de film. De afhankelijke variabele in dit onderzoek is de prestatie op de puzzel. Echter, wilde de onderzoeker ook weten of de manipulaties goed waren, dus of de grappige film ook daadwerkelijk grappig werd gevonden, en de verdrietige film ook daadwerkelijk als verdrietig werd ervaren. Dit zijn congruente effecten. Wat de onderzoeker niet hoopt, is dat de grappige film (ook) als verdrietig werd ervaren, en de verdrietige film (ook) als grappig. Dit zijn incongruente effecten, de zogenoemde cross-overeffecten.

De onderzoeker heeft om dit inzichtelijk te maken voor afname van de puzzel twee vragen voorgelegd aan de proefpersonen: (1) Geef op een schaal van 1 tot 10 aan hoe grappig u de film vond; en (2) geef op een schaal van 1 tot 10 aan hoe verdrietig u de film vond.

Voor het toetsen van de manipulatie zijn de volgende variabelen aanwezig:

Er is een onafhankelijke variabele, gemeten op nominaal meetniveau met twee niveaus:

conditie (grappige film, verdrietige film)
Er zijn twee afhankelijke variabelen, gemeten op interval meetniveau:

ervaren grappigheid (1-10)
ervaren verdrietigheid (1-10).
Omdat conditie nominaal is op twee niveaus kiest de onderzoeker hier voor twee t-toetsen: een t-toets om te toetsen of mensen in conditie grappige film meer grappigheid ervaarden dan mensen in de conditie verdrietige film en dat mensen die de grappige film zagen minder verdrietigheid ervaarden dan mensen in de verdrietige-filmconditie.

In de eerste t-toets met de onafhankelijke variabele conditie en afhankelijke variabele ervaren grappigheid is de manipulatie geslaagd als conditie grappige film een signficant hogere ervaren grappigheid heeft dan de conditie verdrietige film.

In de tweede t-toets met onafhankelijke variabele conditie en afhankelijke variabele ervaren verdrietigheid is er geen cross-overeffect, als conditie grappige film een signficant lagere ervaren verdrietigheid heeft dan de conditie verdrietige film.

Als er in de eerste of tweede t-toets geen significant verschil is tussen de condities dan is de manipulatie niet geslaagd; om een of andere reden leken de films niet het beoogde affect te induceren.

Als in een van de t-toetsen de verkeerde groep (incongruent) significant hoger is, bijvoorbeeld conditie grappige film heeft een significant lagere ervaren grappigheid dan de verdrietige-filmconditie, dan is er een incongruent effect, dus een cross-overeffect. Dit betekent dat er een besmetting is, de film induceert het verkeerde affect, en dit verstoort de interne validiteit. Als prestatie op de puzzel wordt vergeleken tussen de condities is het niet meer zondermeer mogelijk om een eventueel effect toe te schrijven aan het affect, want deze is niet meer het natuurlijke gevolg van de vertoonde film.

In onderzoeken met meerdere onafhankelijke variabelen, bijvoorbeeld als naast type film, ook smaak popcorn wordt gemanipuleerd, blijft het proces van toetsing steeds hetzelfde. Er wordt steeds getoetst of de beoogde manipulatie het beoogde effect heeft op een congruente variabele, en het liefst geen effect heeft op een onbedoelde variabele. Smaak popcorn hoort bijvoorbeeld geen invloed te hebben op de ervaren grappigheid van de film. Als mensen die zoete popcorn eten films significant grappiger vinden dan mensen die zoute popcorn eten, dan is dat ook een cross-overeffect.

Hoe om te gaan met cross-overeffecten, of niet-geslaagde manipulaties? In de discussiesectie van een paper is ruimte om te reflecteren op mogelijke verklaringen. Misschien is een verdrietige film dusdanig overdreven dat veel mensen dat komisch kunnen vinden. De kunst is om na te denken over goede redenenen waarom een cross-over gevonden is, of dat een manipulatie niet het beoogde effect had. Soms kan er geen goede reden bedacht worden, en ook dat kan dan besproken worden in een discussie. Schrijf daarom niet slechts op dat een interne validiteit bedreigd is, maar probeer uit te pluizen waarom, en hoe dat de conclusies nuanceert, en wat eventuele alternatieve interpretaties van de resultaten zijn.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

cross over effect: wanneer een manipulatie in een conditie zich gedraagt alsof het een manipulatie was in een andere conditie, spreekt men van een cross-over effect.

A

In onderzoeken met meerdere onafhankelijke variabelen, bijvoorbeeld als naast type film, ook smaak popcorn wordt gemanipuleerd, blijft het proces van toetsing steeds hetzelfde. Er wordt steeds getoetst of de beoogde manipulatie het beoogde effect heeft op een congruente variabele, en het liefst geen effect heeft op een onbedoelde variabele. Smaak popcorn hoort bijvoorbeeld geen invloed te hebben op de ervaren grappigheid van de film. Als mensen die zoete popcorn eten films significant grappiger vinden dan mensen die zoute popcorn eten, dan is dat ook een cross-overeffect.

Hoe om te gaan met cross-overeffecten, of niet-geslaagde manipulaties? In de discussiesectie van een paper is ruimte om te reflecteren op mogelijke verklaringen. Misschien is een verdrietige film dusdanig overdreven dat veel mensen dat komisch kunnen vinden. De kunst is om na te denken over goede redenenen waarom een cross-over gevonden is, of dat een manipulatie niet het beoogde effect had. Soms kan er geen goede reden bedacht worden, en ook dat kan dan besproken worden in een discussie. Schrijf daarom niet slechts op dat een interne validiteit bedreigd is, maar probeer uit te pluizen waarom, en hoe dat de conclusies nuanceert, en wat eventuele alternatieve interpretaties van de resultaten zijn.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

De effectgrootte

A

In onderzoek wordt vaak volstaan met nulhypothesetoetsen. Dit houdt in dat er steeds getoetst wordt of de kans op een in het onderzoek gedane observatie klein is, gegeven dat de nulhypothese waar zou zijn. Hierbij wordt over het algemeen de regel gehanteerd dat als de uitgerekende kans (p-waarde) kleiner is dan .05, de nulhypothese kan worden verworpen. Nulhypothesetoetsing is daarmee een ja/nee-spelletje: zodra de p-waarde kleiner is dan het gestelde criterium (bijvoorbeeld .05) dan maakt het niet uit hoe klein de p-waarde is; de observatie wordt onwaarschijnlijk geacht als de nulhypothese zou kloppen. Er is aan de grootte van de p-waarde verder geen enkele conclusie te ontlenen. Toetsingsgrootheden en overschrijdingskansen melden niets over de grootte van verschillen of voor de mate waarin een afhankelijke factor bijdraagt aan de variantie van de afhankelijke variabele. Daarom moet statistische significantie worden onderscheiden van ‘praktische significantie’. Hoeveel ‘boeit’ het gevonden significante effect? Deze vraag wordt mede versterkt door de wijze waarop significantie geforceerd kan worden: omdat toetsstatistieken, en daarmee p-waarden, afhankelijk zijn van de steekproefgrootte kunnen de meest triviale verschillen nog als significant gevonden worden als de steekproefgrootte maar voldoende groot is. Daarom is het nodig om naast de significantie ook de grootte van een effect vast te stellen, of de mate waarin gemiddelden van elkaar verschillen. Dit wordt in de statistiek de effectgrootte genoemd. Iedere statistische toets heeft een eigen effectgrootte.

2 benaderingen:

  • de sterkte van een effect uitgedrukt in proportie verklaarde variantie, analoog aan een gekwadrateerde correlatiecoefficient bij regressieanalyse R2, partieel n2 en w2
  • een gestandaardiseerde mate waarin gemiddelde van elkaar verschillen. De belangrijkste varianten zijn Cohens d (t-toets) en Cohens f

Partieel n2, de effectgrootten kunnen in ANOVA, ANCOVA en repeated measures ANOVA zo worden uitgedrukt. Voordeel; SPSS kan dit desgewenst weergeven.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

iedere statistische toets heeft een eigen effect grootte bepalen op 2 manieren

A

1 uitdrukken in een proportie verklaarde variantie, analoog aan een gekwadrateerde correlatiecoefficient bij regressie analyse R2

2 uitdrukken in een partieel etakwadraat (partial n2p), dit is niet optimaal dus vervangen door omegakwadraat (w2) die met de hand wordt berekend.
Een gestandaardiseerde mate waarin gemiddelden van elkaar verschillen; de belangrijkste varianten zijn cohens d en cohens f.

Cohen vuistregels voor interpretaties van percentages verklaarde variantie uitgedrukt in omegakwadraat
1% geringe associatie tussen de variantiebron en de afhankelijke variabele
6% middelmatig sterke
14% of meer is een sterke samenhang.

SPSS measures of effect size

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

T-toets/independent t- toets.

A

nominale onafhankelijke variabele met 2 niveaus met de manipulatiecheck een interval afhankelijke met 2 niveaus (Cohen’s d)
Als in 1 van de t-toetsen de verkeerde groep (incongruent) significant hoger is dan is er een incongruent effect dus een cross-over effect. Dit betekent dat er een besmetting is en dit verstoort de interne validiteit.

Indepentsamples:

  • 2 verschillende ‘‘populaties ‘’ ( strikt verschillende groepen ) : alias tussen groepen
  • Xis categorie met 2 categorieën (dichotoom) y is interval of hoger.

Dependent samples (alias paired t-test/binnen groepen:

  • meerdere metingen binnen proefpersonen, of gematchte paren (bijvoorbeeld gehuwde kopplels)
  • er is strikt genomen geen x, slechts 2 maal y op interval niveau of hoger.conditie heeft twee niveaus (controle, experimenteel) en de afhankelijke variabele is interval/ratio meetniveau.

De t-toets is de beste keus bij asch omdat ook robuust kan zijn tegen de schending van assumpties van homogene varianties. Het klopt dat de variabele conditie nominaal meetniveau is en de afhankelijke variabele is interval/ratio. De eenweg-ANOVA zal een identiek antwoord opleveren als de t-toets, omdat de variabele conditie bestaat uit twee niveaus. Echter, bij een schending van de assumptie van gelijke varianties heeft de eenweg-ANOVA weinig middelen om deze schending op te lossen. In het geval van een enkele categorische onafhankelijke variabele met twee niveaus is de t-toets de betere (en robuustere) keus.

Een t-toets is een lijnfunctie met een intercept (snijpunt met de y-as bij x=0 en een hellingshoek. Omdat in een t-toets 2 groepen worden vergeleken kan x maar 2 waarden aannemen 0 en 1 .
Dat betekent dan dat het intercept het gemiddelde van groep 0 is en de hellingshoek dan aangeeft hoeveel groep 1 van groep 0 verschilt.
Er zijn 2 varianten van de t-toets, welke je gebruikt hangt ervan af of de onafhankelijke variabele is gemanipuleerd met dezelfde deelnemers of met verschillende.

Achter beide t-toetsen zit dezelfde gedachtengang:
-in 2 steekproeven worden data verzameld en de gemiddelde berekend-
-als de steekproeven uit dezelfde populatie komen verwachten we dat de gemiddelden ongeveer gelijk zijn en onder de nulhypothesen verwachten we dat de experimentele manipulatie geen effect heeft.
-we vergelijken het verschil tussen de gevonden steekproefgemiddelden met het verschil tussen de verwachte steekproefgemiddelden als er geen effect is.
- we gebruiken de standaardfout als maatstaf vor de spreiding tussen streekproefgemiddelden. Als de standaardfout klein is verwachten we dat de meeste steekproeven vergelijkbaar zijn en andersom.
Als het verschil groter is dan we op grond van de standaardfout zouden verwachten kunnen daar 2 redenen voor zijn:
1 er is geen effect maar de steekproefgemiddelden verschillen sterk
2 de steekproeven komen uit verschillende populaties.
Hoe groter het verschil tussen de steekproefgemiddelden hoe waarschijnlijker de tweede reden is.

De meeste test statistieken zijn een signal-to-noise ratio: effect gedeeld door error
bij vergelijking van 2 groepsgemiddelden kunnen de gemiddelden varieren van sample tot sample (sample variation), de standaardfout kan gebruikt worden als een maat waarin die gemiddelden fluctueren (oftewel fout in de schatting van het gemiddelde). Dit is het model voor het effect.
De standaardfout van de verschillen tussen 2 gemiddelden kan dan gebruikt worden als schatting van de fout in het model. De t-statistiek kan uitgedrukt worden als:

t = geobserveerde verschil tussen steekproef gemiddelden - het verwachte verschil tussen tussen steekproefgemiddelden als de H0 waar is (meestal 0)
/ de standaardfout van het verschil tussen steekproefgemiddelden.

Het verschil tussen 2 gemiddelden is groter dan het verwachtte verschil onder de H0, het effect.
Gedeeld door de ‘fout’

Independent Samples Test
Vervolgens wordt de t-waarde (-4,343) genoemd met de bijbehorende vrijheidsgraden (d = 28). Ten slotte volgt de p-waarde in kolom “Sig. (2-tailed)”. Bij een p-waarde kleiner dan .05, moet de nulhypothese worden verworpen en kun je concluderen dat er significante verschillen zijn tussen de gemiddelden van de twee groepen.

T-test resultaten rapporteren
De resultaten van je t-test rapporteer je in het resultatenhoofdstuk van je scriptie. In het geval van onafhankelijke steekproeven (independent samples t-test) vermeld je minstens:

Het gemiddelde en de standaarddeviatie van beide groepen;
De t-waarde met het aantal vrijheidsgraden;
De significantie (p-waarde) van de t-test.
Voorbeeldzinnen: Rapportage

t= het geobeserveerde verschil tussen de 2 steekproefgemiddelden - het verwachte verschil tusssen de populatie gemiddelde (als de nul hypothese waar zou zijn) gedeeld door de schatting van de standaardfout van het verschil van de 2 steekproefgemiddelden

!! field gaat er altijd vanuit dat varianties tussen groepen verschillen niet homogeen zijn, daarom wordt in de voorbeelden van field altijd naar de rij equal variances not assumed gekeken, ongeacht de significantie van de levene’s test voor equality of variances. wij doen dit ook bij dit practicum.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

the paired samples t-test equation explained

A

de gepaarde t-toets wordt gebruikt om het verschil tussen 2 herhaalde metingen te toetsen oftewel de gemiddelde verschilscore tussen gepaarde waarnemingen, dit houdt geen chronologie in, kan ook een binnenproefpersonen ontwerp zijn bijv vader en moeder of tweelingen.
de paired t-test vergelijkt niet de gemiddelde van 2 groepen maar de gemiddelde verschilscore tussen gepaarde waarnemingen.

De afhankelijke variabele wordt gemeten op interval- of rationiveau (scale).
De personen binnen de twee groepen zijn onafhankelijk van elkaar. Je kunt hiervoor werken met aselecte steekproeven.
Als je steekproef minder dan 30 observaties telt, moet de afhankelijke variabele normaal verdeeld zijn. Dit kun je controleren in SPSS met de Shapiro-Wilk- of Kolmogorov-Smirnov-toets. Als de variabele niet normaal verdeeld is, kun je beter de Wilcoxon- of de Mann-Whitney-toets gebruiken.

Levene’s test
De tweede tabel, “Independent Samples Test”, weergeeft het resultaat van de t-test. Het eerste (meest linkse) deel is Levene’s Test. De Levene’s Test analyseert of de variantie van beide groepen gelijk is. Dit bepaalt of je naar de bovenste of onderste rij moet kijken.

Als de significantie van de Levene’s Test onder de gebruikelijke .05 ligt, wordt de nulhypothese van gelijke variantie verworpen. In het voorbeeld is de waarde .551, dus we mogen aannemen dat de varianties in beide groepen gelijk zijn. We kijken dus naar de bovenste rij van de output.

In het meest ideale geval is Levene’s test niet significant.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

the simon effect

A

In hun onderzoek beschrijven Simon en Rudell (1967) dat mensen verward kunnen raken wanneer ze bijvoorbeeld in hun linkeroor een instructie krijgen om aan hun rechterkant wat uit te voeren. Een congruent stimulus-respons, zoals iemand die links van je staat en vraagt (stimulus) om links van je iets te pakken (respons) zouden we redelijk snel oppikken, en verwart ons niet zo. In de cognitieve psychologie is dit fenomeen het Simon-effect gaan heten. Het Simon-effect houdt in dat reactietijden sneller en accurater zijn wanneer een stimulus in dezelfde algemene locatie is als de verwachte respons, zelfs als de stimulus irrelevant is voor de uit te voeren taak.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

the paired sampled t test/dependent t-test/matched pairs t-test

A

vergelijkt niet de gemiddelde van 2 groepen, maar de gemiddelde verschilscore tussen gepaarde waarnemingen.

Een herhaalde metingen toets heeft meer power in het geval van herhaalde metingen.

De gepaarde t-toets wordt gebruikt om het verschil tussen twee ‘herhaalde metingen’ te toetsen. Het is van groot belang om te onthouden dat ‘herhaalde meting’ niet noodzakelijkerwijs een chronologie inhoudt. Een voor- en nameting is een klassiek voorbeeld van een herhaalde meting, maar een herhaalde meting is bijvoorbeeld ook de observatie van een moeder en een vader van het gedrag van hun kind. Kortom: in een binnenproefpersoonontwerp kan een gepaarde t-toets uitkomst bieden.

Kern van de paragraaf is dat de paired t-test niet de gemiddelde van twee groepen vergelijkt, maar de gemiddelde verschilscore tussen gepaarde waarnemingen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

de F ratio

A

De toetsstatstiek: de F-waarde wordt conceptueel toegelicht. De kern is dat de F-waarde een verhoudingsmaat is tussen de variantie tussen groepen (hoeveel de gemiddelden van de groepen verschillen) en de variantie binnen groepen (hoeveel individuen binnen de groepen verschillen). De F-toets wordt groter als de groepsgemiddelden verder uit elkaar liggen, en/of wanneer waarnemingen binnen groepen homogener zijn.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

post hoc correcties

A

Een vergelijking van de verschillende post-hoccorrecties die SPSS biedt. De bonferroni-correctie is de strengste correctiefactor. Wat de beste correctiefactor is hangt van de situatie af. REGWQ is goed, behalve wanneer de groepen ongelijke n hebben. Bonferroni en Tukey zijn ook goed. LSD wordt afgeraden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

effectgrootte anova

A

n het boek van Field wordt erop gewezen dat de effectgrootte die SPSS geeft teveel op de steekproef gebaseerd is, en niet goed generaliseerd naar de populatie. Field geeft daarom de formule voor het berekenen van de omega-kwadraat: de effectgrootte die in Field als belangrijk wordt bestempeld.

Belangrijk: In latere hoofdstukken wordt de partial eta-squared gebruikt. Belangrijk is om te weten dat in een one-way ANOVA geen partiele eta-squared bestaat, ondanks dat SPSS deze wel zo kan noemen, omdat ‘partieel’ slaat op ‘de unieke correlatie tussen een gegeven X en een Y’. Wanneer een model meerdere X’en bevat, (meerdere independent variabeles) dan kan door correlatie tussen de independent variables soms onduidelijk zijn welke correlatie tussen een X en Y uniek is tussen die twee, en niet gedeeld wordt door een andere X. Als er geen andere X’en in het model aanwezig zijn, zoals in een one-way ANOVA, dan is de effectgrootte niet partieel, maar ‘gewoon’ de proportie verklaarde variantie tussen X en Y. Dat wordt in een ANOVA uitgedrukt in r2 wat ook eta genoemd wordt. Dus: Eta2 is de effectgrootte wanneer er maar 1 independent variable in het model is. Als er meerdere independent variables in het model zijn opgenomen (zie hoofdstuk 14, factorial designs), dan moet er per independent variable een Eta2 berekend worden weten (in plaats van over het geheel), en dan wordt het voor iedere independent variabele een partiele Eta2

Het is mogelijk om de Eta2 met de hand te berekenen. Field beschrijft op blz 567 de procedure om Eta2 (r2) te berekenen. De Eta2 wordt berekend door SSM te delen door SST. erond ongeveer Eta2 = 0.46 betekent.

Als de one-way ANOVA wordt uitgevoerd middels Analyse -> General Linear Model -> Univariate, dan is er onder Options de mogelijkheid om het vakje Estimates of Effect Size aan te vinken. Dit levert een door SPSS berekende (partial) Eta2 op in de output.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

systematische manipulatie vn de onafhankelijke variabele (predictor) is een krachtig gereedschap om een stap verder te gaan dan het gewoon observeren van variabelen

A

Het simpelste scenario 2 groepen, we willen 2 gemiddelden vergelijken. verschillende entiteiten aan verschillende experimentele condities blootstellen. (a between groups of independent design) Of 1 groep op verschillende tijdstippen (a repeated measures of within subject-design) NB onderzoekers vallen vaak in de verleiding om kunstmatig gecreerde groepen te vergelijken door bijvoorbeeld mensen te scheiden in groepen gebaseerd op een mediaanscore, voorkom dit. Kan de originele info goed veranderen, effect groote wordt kleiner want 1 variabele, en meer kans op het vinden van niet van toepassing zijnde effecten.
Als het echt dichotoom kan: theoretisch rationeel of distincte categorieen, dan kan het vaak wel.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

mediaanscore

A

de midddelste score als de scores op volgorde staan

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Descriptives SPSS

A

M is mean is gemiddelde
CI Confidence interval
In beide groepen zijn de scores normaal verdeeld volgens de KS test (Golmagorov Smirrnovv) De sig die daaruit komt .118 is groter dan 0.05 en dus normaal verdeeld.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Alle toetsen in onderzoekspractica zijn eigenlijk varianten van het lineaire model

A

regressie t-toets en anova zijn dus aan elkaar verwant. Alle toetsen zijn lineaire lijnschattingen.
De eenvoudige samenvatting is dat een t-toets een lijnfunctie is met een intercept (snijpunt met de y-as bij x=0) en een hellingshoek.
Omdat in een t-toets twee groepen worden vergeleken kan x maar twee waarden aannemen (0 en 1). Dat betekent dan dat het intercept het gemiddelde van ‘groep’ 0 is, en de hellingshoek aangeeft hoeveel ‘groep’ 1 van groep 0 gemiddeld verschilt.
Y= ax +b
a= richtingscoefficient/hellingshoek
b= intercept/snijpunt y as x=0

lineair model t-toets test of b 0 is

T statistics coefficients SPSS
constant B0 is 3.750
onafhankelijke variabele B1 = 1.250 dit is het verschil tussen de 2 gemidelden van de groepen, trek je van elkaar af 5-3.75 dit is groter dan p 0.05 dus het verschil tussen groepen is niet significant verschillend van nul en de nulhypothese kan niet worden verworpen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

steekproevenverdeling

A

Het zegt ons welk verschil we kunnen verwachten tussen gemiddelden van 2 of meer steekproeven onder de nulhypothese.
Het gemiddelde van de meeste steekproeven wordt verwacht gelijk te zijn aan de populatie gemiddelde er is wel variantie en dat is de standaardfout/deviatie van de steekproevenverdeling.
De standaardfout zegt ons hoe aannemelijk verschillen tussen steekproefgemiddelden zijn. Bij een grote standaardfout kunnen grote verschillen tussen steekproefgemiddelden verwacht worden en andersom.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

one way-anova

A

Bij meer condities;
x onafhankelijke variabele op nominaal meetniveau, met minimaal 2 categorieen en een afhankelijke variabele y op interval meetniveau of hoger.
nb echter, bij een schending van de assumptie van gelijke varianties heeft de eenweg ANOVA weinig middelen om deze schending op te lossen,. In het geval van een enkele categorische onafhankelijke variabele met 2 niveaus is de t-toets de betere en robuustere keus.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

factoriële ANOVA

A

Als er meer onafhankelijke variabelen zijn, zoals bij 2x2 factorial designs, kan een factoriële ANOVA meer geschikt zijn. 2 maal x
Identiek aan de one-way ANOVA maar je hebt meer dan 1 onafhankelijke variabele, allen op nominaal meetniveau.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Mixed-design ANOVA

A

In de statistiek is een herhaalde meting eigenlijk meerdere afhankelijke variabelen. Deze kunnen chronologisch zijn, als in ‘klassiek herhaald’, zoals voor-nameting-follow up, maar ook alles wat bij alle respondentgroepen is gemeten, zoals reactiesnelheid en accuratesse. De kern is dus een mixed design ANOVA heeft zowel beteween en within-factors.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

within subjects design

A

gepaard/afhankelijk

een onderzoeksontwerp waarbij men tijdens het gelhele onderzoek de gegevens van dezelfde groep mensen achterhaald

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Q

between-subjects design

A

onafhankelijk/niet gepaard
Een experiment waarbij men kijkt naar de invloed van verschillende factoren op 2 of meerdere groepen. De uitkomsten van between subjects effecten hebben uitsluitend betrekking op de gemiddelde waarde voor within subject factoren.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
26
Q

lineair model met een dichotome predictor

A

als we de verschillen tussen de gemiddelden van 2 groepen bestuderen, is het ons te doen om het voorspellen van een uitkoms op basis van de groep waartoe iemand behoort.
We spreken dan over een lineair model met een dichotome predictor. De b in het model staat voor het verschil tussen gemiddelden, en de resulterende t-toets maakt duidelijk of dit verschil ongelijk is aan 0.
De dichotome predictor X1 wordt gecodeerd tot een dummy variabele, met waarden 0 en 12.
In dit linaire model is b0 gelijk aan het gemiddelde van de groep gecodeerd als 0 en staat b1 voor het verschil tissen de gemiddelden van de groepen.
De t-waarde wordt gebruikt om na te gan of b1 gelijk is aan 0.
In deze contect betekent dit dat wordt getoetst of het verschil tussen de gemiddelen van de groepen ongelijk is aan 0

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
27
Q

standaardfout van de verschillen

A

Voorziet ons van een maat om te bepalen hoe aannemelijk het is dat een waargenomen veschil tussen steekproefgemiddelden het product is van het nemen van 2 willekeurige steekproeven uit dezelfde populatie.
Een kleine standaardfout verteld ons dat de meeste paren samples van een populatie zeer vergelijkbare middelen zullen hebben. Een grote standaardfout verteld ons dat steekproefgemiddelden vrij veel kunnen afwijken van de populatie middlen en dus kunnen verschillen tussen paren steekproeven erg groot zijn.
De standaardfout is de de standaarddeviatie delen door de wortel van n (de steekproefgrootte)
De standaardfout van de verschillen is de standaardeviatie van de verschillen delen door de wortel van de n (steekproefgrootte)
t is dus de signaal -ruis verhouding, de effectgrootte in de context van de variantie van de populatie (ruis). Allebei gelijk t-waarde is 1, je wilt dat t groter is dan 1 dat het signaal/ effect groter is dan de ruis. de p waarde van t>vastgestelde alpha 0.05 dan is er significant effect

28
Q

T-waarde model delen door error, P-waarde berekenen

A

Is de verhouding tussen effect en ruis. Als we effect van een manipulatie verwachten, moet het effect groter zijn dan de ruis en minimaal goter dan 1 zijn.
We kunnen de waarde van t nu gebruiken om een p-waarde te bepalen en die vervolgens vergelijken met het significantieniveau.
Is de p-waarde kleiner dan alpha, dan kan worden aangenomen dat de populatie effect had.
Er zijn geen ruwe data nodig om t te berekenen. Alleen de groepsgemiddelden, standdaardeviaties en steekproefgroottes zijn daarvoor nodig.

t= verschil tussen steekproefgem-verwachte verschil tussen populatiegem gedeeld door de schatting van de standaardfout van het verschil tussen 2 steekproefgemiddelden.

Bij de onafhankelijke t-toets werken we niet met verschil waarden, omdat er geen realtie is tussen de waarden in de 2 condities die we vergelijken. De spreiding in de data is in dit geval niet alleen een gevolg van experimentele manipulatie, maar ook van andere oorzaken. Omdat de 2 condities geen connectie hebben, vergelijken we de gemiddelden op per condition bias, door de verschillen tussen 2 streekproefgemiddelden te bereken (en niet tussen afzonderlijke scores)
Bij het gebruik van de onafhankelijke t-test kunnen de resultaten heel anders uitpakken dan bij de afhankelijke t-test ook al zijn de deelnemers en data hetzelfde. De verklaring hiervoor is dat de power van een design met herhaalde metingen groter is. De errorvariantie vermindert sterk, waardoor de systematische variante gemakkelijker opgespoord kan worden.

We kijken naar de verschillen tussen de totale gemiddelden van de 2 samples en vergelijken deze met de verschillen die we verwachten te krijgen tussen de gemiddelden van de 2 populaties waaruit de samples afkomstig zijn. Als de nulhypothese waar is,zijn de samples uit dezelfde populatie getrokken.

Zoals eerder verteld, zegt de standaardafwijking van de samplingverdeling (de standaardfout) hoe variabel de steekproefgemiddelden alleen bij toeval zijn. Als de standaarddeviatie hoog is kunnen grote verchillen tussen steekproefgemiddelden bij toeval optreden. als het smal is worden worden alleen kleine verschillen tussen de streekproefgemiddelden verwacht. Het is daarom logisch dat we de standaardfout van de steekproeven verdeling gebruiken om te beoordelen of de verschillen tussen 2 steekproeven statistisch significant zijn/zinvol of eenvoudig een toeval resultaat.

Concreet delen we het verschil tussen steekproefgemiddelden door de standaardafwijking van de steekproevenverdeling.

29
Q

Variance sum law(de variantie is de standaardafwijking/standaardfout j in het kwadraat)

A

Op grond van de variance sum law is de variantie van het verschil tussen 2 onafhankelijke variabele gelijk aan de som van hun varianties. Deze som kan weer worden omgezet naar de standaardfout door de wortel ervan te nemen.

30
Q

Twee groepen van verschillende grootte te vergelijken

vrijheidsgraden

A

Om 2 groepen van verschilende grootte te vergelijken, gebruiken we een samengevoegde variantie die rekening houdt met het verschil in steekproefgrootte door de variantie van elke steekproef te wegen. Deze weging is nodig omdat grotere steekproeven de populatie meer benaderen dan kleinere. De weging gebeurt aan de hand van steekproefgrootte -1, de vrijheidsgraden. Elke variantie wordt vermenigvuldigt met zijn vrijheidsgraden en vervolgens delen we door de som van de gewichten.

31
Q

10.9.2 exploring repeated measures data

A

In een t-toets wordt de verschiltoets niet gedaan op 2 vergeleken scores maar op de verschilscore van de twee vergeleken scores, deze en niet de 2 losse scores moet normaal verdeeld zijn.

32
Q

simon effect

A

houdt in dat reactietijden sneller en accurater zijn wanneer een stimulus in dezelfde algemene locatie is als de verwachte respons, zelfs als de stimulus irrelevant is voor de uit te voeren taak.

33
Q

missing values

A

in statistieken treden ontbrekende gegevens of ontbrekende waarden op wanneer er geen gegevens waarde is opgeslaen voor de variabele in een waarneming. Missing valuea kunnen een significant effect hebben op de conclusies die je kunt trekken op basis van de data.

34
Q

analysis of variance/ANOVA

(Na het uitvoeren van een ANOVA is het noodzakelijk om verdere analyse uit te voeren om erachter te komen welke groepen verschillen)

A

Het statistische model dat we gebruiken voor het analyseren van situaties waarin we meer dan 2 onafhankelijke gemiddelden willen vergelijken.
Het is een variant op het lineaire model. Het is een uitbouw van een t-test. Onafh variabele op nominaal meetniveau, met minimaal 2 categorieën, en een afhankelijke variabele op interval meetniveau of hoger.

*Waarom uberhaupt ANOVA?
-iedere extra t-toets is steeds meer weer 5% kans riskeren om onterecht significant te noemen.
-betrouwbaarheid neemt exponentieel af.
-liever zoveel mogelijk in 1 toets stoppen.
Anova biedt geen specifieke info over welke groepen werden getroffen. Om deze reden wordt ANOVA soms de omnibus-test genoemd.

35
Q

Baseline Categorie (b0)

A

Bij het gebruik van dummy variabelen is steeds 1 groep de baseline categorie en krijgen alle dummyvariabelen van de groep een waarde 0 toegkend. De vaseline is de controle categorie waarmee e de andere gropen wilt vergelijken.

36
Q

F-waarde
F is in werkelijkheid nooit robuust
verhouding verklaarde en onverklaarde variantie

A

een verhoudingsmaat tussen de variantie tussen groepen (hoeveel de gemiddelden van de groepen verschillen) en de variantie binnen groepen (hoeveel individuen binnen de groepen verschillen).
De F toets wordt groter als de groepsgemiddelden verder uit elkaar liggen/wanneer waarnemingen binnen groepen homogener zijn. In dat geval kunnen we beter voorspellingen doen op basis van groep.

37
Q

Model sum of squares (SSm)

Variatie

A

Geeft aan hoeveel van de totale variatie in de uitkomst kan worden verklaard door het feit dat verschillende scores uit verschillende groepen afkomstig zijn. Met andere woorden SSm gebruikt de verschillen tussen het gemiddelde van de uitkmst en de groepsgemiddelden.
SSm geeft de totale variatie weer die het model verklaart (bijvoorbeeld de experimentele manipulatie) Hangt af van het aantal groepen.

38
Q

Residual sum of squares (SSr)

A

Maakt duidelijk hoeveel van de totale variatie niet wordt verklaard door het model, maar door meetfouten en andere afwijkingen. SSR wordt berekend door het verschil te berekenen tussen een datapunt van een deelnemer en ht gemiddelde van de groep waartoe de de deelnemer behoort en kan worden uitgedrukt als SSgroep1+ SSgroep2 +…+SSgroepk
SSr geeft de totale variatie ten gevolge van andere factoren weer. Hangt af van het totale aantal datapunten.

39
Q

Mean squares (MSm) Variantie

A

Variantie verklaard door het model

MSR is een maat voor variatie, verklaard door andere factoren

40
Q

F-ratio/variability ratio

A

Geeft de verhouding weer tussen de verklaarde en de onverklaarde variantie (in een afhankelijke variabele)
Net als bij andere toetsen gaat het om een verhoudingsgetal van signaal en ruis. In experimenteel onderzoek geeft het de verhouding aan van het experimentele effect tov de individuele verschillen. Bij waarden kleiner dan 1 is er meer onverklaarde dan verkaarde variantie. In experimenteel onderzoek betekent dit dat het effect als gevolg van gewone variatie groter is dan de verschillen als gevolg van het experiment. Op basis van een waarde van F kan ook een p-waarde berekend worden, waarna de significantie bepaald kan worden door vergelijking met de gekozen alpha.
F evalueert alleen of er, over het geheel genomen, verschillen tussen de gemidddelden van de afzonderlijke condities zijn, maar niet welk gemiddelde van welk ander gemiddelde verschilt.
Als de uitkomst hoger is, is er meer signaal dan ruis. Dit sorrespondeert in beide gevallen met extreme waarden van t en F, wat weer correspondeert met een lagere p.
De f-toets is gebaseerd op het splitsen van de variatie in 2 delen: variatie die door het model (de experimentele manipulatie) wordt verklaard SSM, en de variatie door error SSR
Dus in een experiment verteld de F-ratio on alleen dat de experimentele manipulatie enig effect heeft maar het verteld ons niet specifiek wat het effect was.

41
Q

omnibus test

A

zijn een soort statistische tests. Ze testen of de verklaarde variantie in een set gegevens significant groter is dan de verklaarde variantie in het algemeen. Een voorbeeld is de F-toes in de variantieanalyse.
Kies een toets die eerst een algemeen effect toetst en toets specifieke vergelijkingen pas als de omnibus test aangeeft dat er ergens verschil is.

42
Q

Levene’s test:

Levene–> p,0.05–> varianties significant verschillend–> aanpassen heterogeniteit

A

We kunnen de Levene’s test gebruiken om te zien of verschillen in groepen verschillen.
Als de uitkomst van deze test significant is (als p<0.05). Zijn de varianties significant verschillend en is er volgens de conventionele benadering reden voor aanpassingen. De heterogeniteit kan echter gecorrigeerd worden door F aan te passen. Zulke correcties zijn mogelijk met Brown-Forythe F en Welch’s F
Zoals met elk lineair model is er een aanname dat de variantie van de uitkomst stabiel is als de voorspeller verandert (varianties zijn gelijk). Deze aanname kan worden getest met Levene’s test, die de nulhy[pothese test, dat de varianties an de groepen hetzelfde zijn. bKort gezegd is het een ANOVA test die wordt uitgevoerd op basis van de absolute verschillen tussen de waargenomen scores en het gemiddelde of de mediaan van de groep waaruit elke sccore is gekomen. Als de Levene’s test significant is kunnen we zeggen dat de arianties aanzienelijk verschillen. Dit zou beteken dat we stappen moeten ondernemen om deze kwestie te reciteren.

43
Q

geplande contrasten

A

Worden gebruikt om specifieke hypothesen te testen.
Contrast coderen in plaats van dummycoderen. Hierbij worden gewichten aan groepen toegekend op een zodanige manier dat de contrasten onafhankelijk zijn en de hoeveeelheid type 1 fouten onder controle is.
Splitst SSm verder op. De precieze contrasten hangen af van de hypothese die getest wordt. Er zijn 3 vuistregels voor het uitwerken hiervan:
1 als je een controle groep hebt wil je die meestal vergelijken met een anderen groep.
2 elk contrast moet slechts 2 brokken variatie vergelijken
3 als een groep eenmaal is gekozen als contrast, kan hij niet meer voor een ander contrast gebruikt worden.

44
Q

post-hoc test

A

Wordt gebruikt wanneer er geen specifieke hypotheses zijn.
van belang wanneer meer dan 2 groepen worden vergeleken in het geval van een onafhankelijke variabele of in het geval van interacties.
Bij post hoc tests worden alle herhaalde metingen met elkaar vergeleken waardoor te zien is welke signigicant van elkaar verschillen.Post hoc-testen bestaan uit paarsgewijze vergelijkingen die zijn ontworpen om alle verschillende combinaties van de behandelinggroepen te vergelijken. Elk groepsgemiddelde vergelijken met alle anderen, maar met strikter criteria om de family wise error op 0.05 te houden.
Een post- hoc test moet de type 1 fout onder controle brengen, maar ook de type II fout. Type I fout en power zijn aan elkaar gelinkt. Als een test conservatief is en de type I fout klein houdt, is de power waarschijnlijk klein en de kans op een type II fout groot. Het is daarom belangrijk dat paarsgewijze vergelijiingen de typeI fout controleren zonder een substantieel verlies aan power.

45
Q

contrasten

A

In statistieken, in het bijzonder in variantie analyse en lineaireregressie, is een contrast een lineaire combinatie van variableen (parameters of statistieken) waarvan de coefficienten oplopen tot 0, waardoor verschillende behandelingen kunnen worden vergeleken
b1 =contrast 1 vertegenwoordigt de verschillen tussen het gemiddelde van de 2 experimentele groepen)
b2 = contrast 2 representeerd verschillen tussen het gemiddelde van de experimentele groep en de controle groep
b0= totale gemiddelde
Het is belangrijk dat de som van de gewichten van een cntrast op 0 uitkomt, omdat dit garandeert dat je 2 unieke brokken vergelijkt.

Bij geplade contrasten vergelijken we brokken variantie en die bestaan vaak uit meerdere groepen. Als je contrasten bedenkt die verschillende groepen met 1 andere groep vergelijken, vergelijk je het gemiddelde van de enen brok met dat van de andere. Om uit te sluiten dat er een situatie ontstaat waarin;
1 de controlegroep en de experimentele groep significant verschillen en
2 de experimentele groepen onderling sterk verschillen, maar
3 1 van de experimentele groepen desondanks niet significant verschilt van de controlegroep, is een post hoc test nodig.

Om contrasten uit te voeren moeten we de dummyvariabelen zo coderen dat we b’s overhouden die de de brokken vergelijken. In plaats van 0 en 1 kennen we andere waarden toe aan b, die we gewichtennoemen, aan de hand van de volgende regels
1 kies verstandige contrasten;
2groepen met een positief gewicht worden vergeleken met groepen met een ngeatief gewicht. Als de ene brok een positief gewicht krijgt, moet de andere dan ook ee n negatief gewicht krijgen;
3 bij het optellen van de gewichten in een contrast moet het resultaat 0 zijn;
4 als een groep geen onderdeel uitmaakt van een contrast, krijgt hij het gewicht 0, waardoor hij uit het contrast wegvalt;
5 in een contrast moeten de gewichten van elk van de groep(en) in 1 brok gelijk zijn aan het aantal groepen in het andere brok.

46
Q

Orthogonaal (‘onafhankelijk’)

A

Het is belangrijk dat vermenigvuldiging van de gewichten in een bepaalde groep bij elkaar opgeteld ook op 0 uitkomt. De contrasten zijn in dat geval onafhankelijk of orthogonaal.
Orthogonale contrasten zijn noodzakelijk om de family wise error in en t-test onder controle te houden. Als de contrasten onafhankelijk zijn, zijn de t-test voor de b-waarden dat ook en zijn de reulterende p-waarden niet gecorreleerd.

47
Q

paarsgewijze vergelijingen

A

post-hoc tests bestaan uit paarsgewijze vergelijkingen om alle verschillende combinaties van de experimentele groepen te vergelijken. Paarsgewijze vergelijkingen controleren die error door het significantieniveau voor elke test zodanig te corrigeren dat alpha bezien over alle vergelijkingen 0 blijft.

48
Q

Er zijn verschillende manieren om op uitbijters te controleren. Het volgende antwoord probeert de meeste methoden te dekken. Het is voldoende als een van ondergenoemde technieken gebruikt is.

A

Geen van de z-scores van fouten zijn groter dan 3 of -3 (notatie hiervoor is z > |3|)
Geen van de fouten zijn groter dan 1.5 IQR.
Als boxplots per conditie zijn gedraaid, dan lijken bv case 36 en 37 uitbijters, maar deze zijn nog binnen de marge.
Er valt op dat dit case 36 en case 37 de enige twee cases zijn in de controlegroep die fouten gemaakt hebben (of beter gezegd: een fout gemaakt hebben). De scores van deze twee cases zijn dus niet extreem hoog, maar vallen alleen maar op omdat verder niemand in de controlegroep een fout gemaakt heeft.

49
Q

ash experiment

A

De dataset bevat de exacte verdeling van het aantal foute antwoorden per conditie, zoals beschreven in het originele artikel van Asch. In het onderzoek werden 160 mensen random verdeeld over vier condities, waarvan drie experimentele die samengevoegd zijn tot één experimentele conditie (N = 123), net als in het Asch-experiment, en een controlegroep (N = 37). In de dataset zijn de volgende variabelen te vinden:

CONDITIE: 0 = controlegroep. In de controlegroep was er geen meerderheid van rolspelers die expres een verkeerd antwoord gaven om de proefpersoon te beïnvloeden. 1 = experimentele groep. In de experimentele groep is telkens een persoon werkelijk proefpersoon geweest in aanwezigheid van een meerderheid van personen onder instructie van de experimentleider.

FOUTEN: Het aantal incorrect ingeschatte matches, dus hoe vaak er in de 12 te maken vergelijkingen een lijn onjuist als vergelijkbaar met de standaard werd geïdentificeerd. De range van fouten loopt van 0 (geen fouten) tot 12 (alle figuren fout).

Geef een schematische weergave van dit onderzoek, er rekening mee houdend dat drie experimentele groepen samen zijn gevoegd tot één. Geef ook de naam voor dit experimentele ontwerp.

Het betreft een zuiver posttest-only control (alleen nameting met controlegroep) experiment.
R X1 O1
R O2

R staat voor randomisatie, o voor observatie y en x voor experimentele conditie

de variabele conditie is nominaal
de variabele fouten is ratio/interval

Formuleer een hypothese voor dit onderzoek.

Een voorbeeld van een mogelijke formulering van de hypothese is:

Personen die in de aanwezigheid zijn van een meerderheid die foute antwoorden geeft zullen meer fouten maken dan personen die niet in de aanwezigheid zijn van een meerderheid die foute antwoorden geeft.

Alternatieve formuleringen zijn ook acceptabel. Belangrijk is dat de twee condities benoemd worden, en dat de richting van het verband helder is (welke groep maakt meer of minder fouten dan de andere), en dat de formulering niet onnodig technisch is.

Welke toets is het best geschikt om de hypothese te toetsen?

een onafhankelijke t-toets voor conditie (X), en fouten (Y)
een eenweg-ANOVA voor conditie (X), en fouten (Y)
een gepaarde t-toets voor conditie (X), en fouten (Y)

Het juiste antwoord is onafhankelijke t -toets voor conditie x en fouten y.
Heel goed: conditie heeft twee niveaus (controle, experimenteel) en de afhankelijke variabele is interval/ratio meetniveau. De t-toets is de beste keus, omdat deze ook robuust kan zijn tegen de schending van assumpties van homogene varianties.
De eenweg-anova is niet het juiste antwoord. Het klopt dat de variabele conditie nominaal meetniveau is en de afhankelijke variabele is interval/ratio. De eenweg-ANOVA zal een identiek antwoord opleveren als de t-toets, omdat de variabele conditie bestaat uit twee niveaus. Echter, bij een schending van de assumptie van gelijke varianties heeft de eenweg-ANOVA weinig middelen om deze schending op te lossen. In het geval van een enkele categorische onafhankelijke variabele met twee niveaus is de t-toets de betere (en robuustere) keus.
De gepaarde t-toets gaat uit van within-subject-metingen. Omdat dit een between-subjects-design is, zijn er derhalve geen herhaalde metingen. Er zijn twee populaties (een populatie onder meerderheidsdruk, en een populatie zonder meerderheidsdruk) waar steekproeven uit getrokken zijn. De juiste keus is dan de onafhankelijke t-toets.

50
Q

The simon effect

A

In hun onderzoek beschrijven Simon en Rudell (1967) dat mensen verward kunnen raken wanneer ze bijvoorbeeld in hun linkeroor een instructie krijgen om aan hun rechterkant wat uit te voeren. Een congruent stimulus-respons, zoals iemand die links van je staat en vraagt (stimulus) om links van je iets te pakken (respons) zouden we redelijk snel oppikken, en verwart ons niet zo. In de cognitieve psychologie is dit fenomeen het Simon-effect gaan heten. Het Simon-effect houdt in dat reactietijden sneller en accurater zijn wanneer een stimulus in dezelfde algemene locatie is als de verwachte respons, zelfs als de stimulus irrelevant is voor de uit te voeren taak.

51
Q

12.10. Calculating the effect size (blz: 567)

A

In het boek van Field wordt erop gewezen dat de effectgrootte die SPSS geeft teveel op de steekproef gebaseerd is, en niet goed generaliseerd naar de populatie. Field geeft daarom de formule voor het berekenen van de omega-kwadraat: de effectgrootte die in Field als belangrijk wordt bestempeld.

Belangrijk: In latere hoofdstukken wordt de partial eta-squared gebruikt. Belangrijk is om te weten dat in een one-way ANOVA geen partiele eta-squared bestaat, ondanks dat SPSS deze wel zo kan noemen, omdat ‘partieel’ slaat op ‘de unieke correlatie tussen een gegeven X en een Y’. Wanneer een model meerdere X’en bevat, (meerdere independent variabeles) dan kan door correlatie tussen de independent variables soms onduidelijk zijn welke correlatie tussen een X en Y uniek is tussen die twee, en niet gedeeld wordt door een andere X. Als er geen andere X’en in het model aanwezig zijn, zoals in een one-way ANOVA, dan is de effectgrootte niet partieel, maar ‘gewoon’ de proportie verklaarde variantie tussen X en Y. Dat wordt in een ANOVA uitgedrukt in r2 wat ook eta genoemd wordt. Dus: Eta2 is de effectgrootte wanneer er maar 1 independent variable in het model is. Als er meerdere independent variables in het model zijn opgenomen (zie hoofdstuk 14, factorial designs), dan moet er per indepndent variable een Eta2 berekend worden weten (in plaats van over het geheel), en dan wordt het voor iedere independent variabele een partiele Eta2

Het is mogelijk om de Eta2 met de hand te berekenen. Field beschrijft op blz 567 de procedure om Eta2 (r2) te berekenen. De Eta2 wordt berekend door SSM te delen door SST. erond ongeveer Eta2 = 0.46 betekent.

Als de one-way ANOVA wordt uitgevoerd middels Analyse -> General Linear Model -> Univariate, dan is er onder Options de mogelijkheid om het vakje Estimates of Effect Size aan te vinken. Dit levert een door SPSS berekende (partial) Eta2 op in de output.

52
Q

effectgroottes

A

De sterkte van een effect uitgedrukt in een proportieverklaarde variantie, analoog aan een gekwadrateerde correlatiecoëfficiënt bij regressieanalyse; R2, partieel eta-kwadraat (partial η2
, of η2p
) en omegakwadraat (ω2
). Een gestandaardiseerde mate waarin gemiddelden van elkaar verschillen; de belangrijkste varianten zijn Cohen’s d en Cohen’s f. In de praktijk betekent dit dat bij een t-toets een Cohen’s d een geschikte maat is. Helaas wordt deze niet in SPSS gegeven en zal deze middels de formule te vinden in Field (blz 474-475) met de hand worden berekend.

De effectgrootten kunnen in ANOVA, ANCOVA, en repeated measures ANOVA worden uitgedrukt met een partieel ètakwadraat (η2p
).

Het voordeel van partial η2
is dat SPSS dit desgewenst kan weergeven. Field benadrukt echter dat deze effectgrootte niet optimaal is, en beschrijft in zijn boek hoe met de hand de omegakwadraat (ω2
) kan worden uitgerekend. Het maakt in deze cursus niet uit welke effectgrootte u kiest. SPSS geeft bij alle ANOVA’s de optie tot het opvragen van ‘measures of effect size’. SPSS zal bij het aanvinken van deze optie altijd de η2p
geven. Deze kunt u interpreteren volgens de richtlijnen die Field geeft bij de ω2
. Om het berekenen van de ω2
te vergemakkelijken kunt u in de cursusbronnen een omegakwadraatcalculator vinden.

Hoe interpreteer ik een effectgrootte?
In het boek van Field wordt per hoofdstuk een effectgrootte berekend en geïnterpreteerd.

Tabel 1: De effectgrootten die in Field worden besproken

TOETS EFFECTGROOTTE

T-toets:
r en Cohen’s d

sterk effect = 18.96

One-way ANOVA:
ω2; r
1% geringe associatie tussen de variantiebron en de afhankelijke variabele
6% middelmatig sterke samenhang
14% of meer sterke samenhang

ANCOVA:
partial η2; r

Factorial ANOVA:
ω2; r

One-way repeated measures ANOVA:
ω2; r

Mixed effect ANOVA:
r

53
Q

omega kwadraat calculator

A

Een onderzoeker wil toetsen of prestatie afhankelijk is van beloning en feedback De onderzoeker hanteert een 3 x 4 factorieel ontwerp met beloning en feedback als de onafhankelijke variabelen en prestatie als de afhankelijke variabele. De resultaten van de factoriële ANOVA, zoals SPSS deze weergeeft staan in tabel 2. In iedere groep zitten vier deelnemers.

Tabel 2: ANOVA-tabel voor de prestatie (R2=.314
, [R2adjusted=.104
])

SOURCE TYPE III OF SQUARES DF MEAN SQUARES F SIG. PARTIAL ETA SQUARED
Corrected Model 238.917a 11 21.720 1.495 .176 .314
lntercept 41890.083 1 41890.083 2883.447 .000 .988
BELONING 32.667 2 18.333 1.124 .336 .059
FEEDBACK 121.583 3 40.528 2.790 .054 .189
BELONING *FEEDBACK 84.667 6 14.111 .971 .458 .139
Error 523.000 36 14.528
Total 42652.000 48
Corrected Total 761.917 47
Partiële omegakwadraat (ω2
)
Het vergt wat rekenwerk om de varianties te berekenen, daarom is er een omegacalculator gemaakt. In de calculator vindt u instructies per toets.

Open de calculator.
Klik op de werkmap ‘Factorial ANOVA’ (twee tab).
Vul bij ‘a’ het aantal groepen in van het eerste hoofdeffect.
Vul bij ‘b’ het aantal groepen in van het tweede hoofdeffect.
Vul bij MSA de ‘Mean Squares’ in van het eerste hoofdeffect.
Vul bij MSB de ‘Mean Squares’ in van het tweede hoofdeffect.
Vul bij MSAxB de ‘Mean Squares’ in van interactie-effect.
Vul bij MSR de ‘Mean Squares’ in van de error.
Vul bij ‘n’ de hoeveel observaties in per groep.
Het invullen van de n kan een probleem zijn als niet iedere groep evenveel observaties bevat. Dit maakt het berekenen van de omegakwadraat daarom in veel realistische situaties onpraktisch.

Als deze stappen worden doorlopen dan hebt u als het goed is de volgende informatie ingevoerd:

PARAM WAARDE
a 3
b 4
MSA 18,333
MSB 40,528
MSAxB 14,111
MSR 14,528
n 4
Als deze wordt gebruikt dan zijn dit de gevonden effectgrootten:

Hoofdeffect beloning: ω2
= 0.0098

Hoofdeffect feedback: ω2
= 0.0999

Interactiebeloning*feedback: ω2
= -0.0032

Een negatieve gekwadrateerde variantie is een wiskundig artefact en kunt u als een ‘nul’ interpreteren. In APA zou ω2<.001
een geschikte notatie zijn.

Cohen (1988) geeft de volgende vuistregels voor de interpretatie van percentages verklaarde variantie uitgedrukt in omegakwadraat: 1% wijst op een geringe associatie tussen de variantiebron en de afhankelijke variabele, 6% is een middelmatig sterke samenhang, en 14% of meer wijst op een sterke samenhang.

Te concluderen valt dat het effect van beloning op prestatie minimaal is.

54
Q

Het betreft een zuiver posttest-only control (alleen nameting met controlegroep) experiment.
R X1 O1
R O2
Formuleer een hypothese voor dit onderzoek.

A

Een voorbeeld van een mogelijke formulering van de hypothese is:

Personen die in de aanwezigheid zijn van een meerderheid die foute antwoorden geeft zullen meer fouten maken dan personen die niet in de aanwezigheid zijn van een meerderheid die foute antwoorden geeft.

Alternatieve formuleringen zijn ook acceptabel. Belangrijk is dat de twee condities benoemd worden, en dat de richting van het verband helder is (welke groep maakt meer of minder fouten dan de andere), en dat de formulering niet onnodig technisch is.

Welke toets is het best geschikt om de hypothese te toetsen?

een onafhankelijke t-toets voor conditie (X), en fouten (Y)
een eenweg-ANOVA voor conditie (X), en fouten (Y)
een gepaarde t-toets voor conditie (X), en fouten (Y)
Klik hier voor de terugkoppeling.
Het juiste antwoord is a. Heel goed: conditie heeft twee niveaus (controle, experimenteel) en de afhankelijke variabele is interval/ratio meetniveau. De t-toets is de beste keus, omdat deze ook robuust kan zijn tegen de schending van assumpties van homogene varianties. Antwoord b is niet het juiste antwoord. Het klopt dat de variabele conditie nominaal meetniveau is en de afhankelijke variabele is interval/ratio. De eenweg-ANOVA zal een identiek antwoord opleveren als de t-toets, omdat de variabele conditie bestaat uit twee niveaus. Echter, bij een schending van de assumptie van gelijke varianties heeft de eenweg-ANOVA weinig middelen om deze schending op te lossen. In het geval van een enkele categorische onafhankelijke variabele met twee niveaus is de t-toets de betere (en robuustere) keus. Antwoord c is ook niet het juiste antwoord. De gepaarde t-toets gaat uit van within-subject-metingen. Omdat dit een between-subjects-design is, zijn er derhalve geen herhaalde metingen. Er zijn twee populaties (een populatie onder meerderheidsdruk, en een populatie zonder meerderheidsdruk) waar steekproeven uit getrokken zijn. De juiste keus is dan de onafhankelijke t-toets.

55
Q

outliers

A

Nee, er zijn geen uitbijters.
Er zijn verschillende manieren om op uitbijters te controleren. Het volgende antwoord probeert de meeste methoden te dekken. Het is voldoende als een van ondergenoemde technieken gebruikt is.

Geen van de z-scores van fouten zijn groter dan 3 of -3 (notatie hiervoor is z > |3|)
Geen van de fouten zijn groter dan 1.5 IQR.
Als boxplots per conditie zijn gedraaid, dan lijken case 36 en 37 uitbijters, maar deze zijn nog binnen de marge.
Er valt op dat dit case 36 en case 37 de enige twee cases zijn in de controlegroep die fouten gemaakt hebben (of beter gezegd: een fout gemaakt hebben). De scores van deze twee cases zijn dus niet extreem hoog, maar vallen alleen maar op omdat verder niemand in de controlegroep een fout gemaakt heeft.

Een video van hoe de uitbijters in SPSS kunnen worden opgevraagd kunt u hier vinden. Deze video toont de methode van de z-scores

In tekst samengevat:

analyse -> descriptive statistics -> descriptives
Voeg ‘fouten’ toe aan “Variable’s”
vink ‘save standardized variabele’ aan
Paste
Selecteer relevante syntax (DESCRIPTIVES ... MAX.)
Run -> Selection
analyse -> descriptive statistics -> frequencies
Voeg ‘Zscore(fouten)’ toe aan Variable(s)
Statistics ->
Vink ‘Minimum’ aan
Vink ‘Maximum’ aan
Continue
Paste
Selecteer relevante syntax (FREQUENCES ... ANALYSIS.)
Run -> Selection
In de tabel is te zien dat geen van de waarden in de tabel lager is dan -3.29, of hoger is dan 3.29

rapportage
Het aan fouten dat deelnemers maakten was gecontroleerd op univariate uitbijters. Het aantal fouten bevatte geen extreem hoge (z > 3.29, p < .001) of extreem lage scores (z < 3.29, p < .001).

56
Q

assumptie t-toets: homogeniteit van varianties, levene’s test

A

De assumptie van homogeniteit van varianties was geschonden. Uit de Levene’s test of equality of error variances blijkt dat varianties niet homogeen waren tussen groepen F = 110.53, p < .001.

SPSS output ter verduidelijking van het antwoord. Deze output wordt in een APA-manuscript niet weergegeven.

Syntax:

T-TEST GROUPS=conditie(0 1)
/VARIABLES=fouten.

Dus reultaat t- toets aflezen in rij equal variances not assumed

Zeer belangrijk!
Altijd van ongelijke varianties uitgaan
Field gaat er altijd vanuit dat varianties tussen groepen verschillen (niet-homogeen zijn). Dus daarom wordt in de voorbeelden van Field altijd naar de rij ‘equal variances not assumed’ gekeken, ongeacht de significantie van de Levene’s test voor the equality of variances. Ook in dit onderzoekspracticum zult u deze lijn volgen.

57
Q
A

Hypothesetoetsing

U hebt nu de data bekeken en assumpties van de onafhankelijke t-toets getoetst. U gaat nu verder met het uitvoeren van de data-analyse.

Vraag 2.3.12 Rapporteer het effect van de variabele conditie op fouten in APA-stijl. Geef aan of het effect significant is. Bereken de cohen’s d of r (effect size) en interpreteer het effect.

Klik hier voor de terugkoppeling.

Een voorbeeld van een APA-stijl antwoord:

Gemiddeld maakten proefpersonen die onder druk van een meerderheid stonden meer fouten (M = 4.41, SD = 3.84) dan proefpersonen die niet onder druk van een meerderheid stonden (M = 0.05, SD = 0.23). Dit verschil (-4.35, 95% CI [-5.04, -3.66]) was significant, t(124.86) = -12.50, p < .001;dit was een sterk effect, d = 18.96.

Een berekening van Cohen’s d gebaseerd op Field blz 475:

d=4.41−0.050.23=18.95652

Mocht je r berekend hebben dan zou dit:

= 0.75 zijn, wat een zeer sterk effect is.

De conclusies suiten aan bij de hypothese.
De hypothese stelde dat wanneer personen geconfronteerd worden met een meerderheid die een onjuist antwoord geeft, er grote druk zou worden ervaren om te conformeren en ook maar een onjuist antwoord te geven. In het experiment werd dit overweldigend gedaan. In de controlegroep werden vrijwel geen fouten gemaakt (veruit de meesten hadden geen fout, slechts een enkeling had een enkele fout gemaakt). In de experimentele groep werden redelijk veel fouten gemaakt, zeker in verhouding. Dit lijkt erop te wijzen dat onder groepsdruk er toch een sterke neiging is om (uiteindelijk) te conformeren aan de groep.

58
Q

alle toetsen in de onderzoekspractica zijn eigenlijk allen varianten van linear models.

A

De eenvoudige samenvatting is dat een t-toets een lijnfunctie is met een intercept (snijpunt met de y-as bij x=0) en een hellingshoek. Omdat in een t-toets twee groepen worden vergeleken kan x maar twee waarden aannemen (0 en 1). Dat betekent dan dat het intercept het gemiddelde van ‘groep’ 0 is, en de hellingshoek aangeeft hoeveel ‘groep’ 1 van groep 0 gemiddeld verschilt.

twee typen t-testen die in het hoofdstuk besproken worden, een between-subjects variant (de independent samples t-test) en een within-subjects variant (paired-samples t-test).
Kern van de paragraaf is dat de paired t-test niet de gemiddelde van twee groepen vergelijkt, maar de gemiddelde verschilscore tussen gepaarde waarnemingen.

Een belangrijk punt wordt gemaakt over de assumptie van normaliteit: “[…] if you want to test for normality before a paired-samples t-test then what you should do is compute the differences between scores, and then check if this new variable is normally distributed […]”. (nadruk toegevoegd).

Wat hier staat is: in een t-toets (in dit geval de gepaarde) wordt de verschiltoets niet gedaan op de twee vergeleken scores, maar op de verschilscore van de twee vergeleken scores. Deze, en niet de twee losse scores, moet normaal verdeeld zijn.

De formules van de twee gehanteerde effectmaten voor t-toetsen worden gegeven. Dit wordt gevolgd door een uitleg hoe deze maten te interpeteren.Het maakt niet uit welke u kiest; zowel r als d zijn goede effectgrootten. Helaas zijn deze niet in SPSS te berekenen. Deze moeten ‘met de hand’ berekend worden.

59
Q

arbritair nulpunt

Wat is het meetniveau van de variabele reactietijd?

a ratio/interval
b ordinaal
c nominaal

A

Het juiste antwoord is a. Reactietijd is in milliseconden gescoord. Deze getallen zijn betekenisvol en hebben geen arbitrair nulpunt. Antwoord b is onjuist. Ondanks dat de getallen van laag naar hoog geordend zijn, zijn de afstanden tussen de getallen betekenisvol: het zijn niet slechts indicatoren van relatieve rangorde. Antwoord c is ook onjuist. De getallen duiden hier geen categorieën op willekeurige volgorde aan: reactietijd is in milliseconden gescoord. Deze getallen zijn betekenisvol en hebben geen arbitrair nulpunt.

60
Q

twee weg anova

A

een tweeweg-ANOVA voor oor (X1), commando (X2) en reactietijd (Y)

Hoewel er twee onafhankelijke variabelen zijn, is het inefficiënt om deze in twee losse t-toetsen te toetsen. Los van het risico op kanskapitalisatie is het met twee t-toetsen niet mogelijk om een interactie-effect te toetsen.

Datascreening

Voer de volgende opdrachten uit door in SPSS analyses te doen op de data
Zijn er missing values?
Zijn er uitbijters
Is reactietijd normaal verdeeld?
Wat zijn de gemiddelde reactietijden per conditie en hun standaarddeviaties?
Beschrijf de assumptie van homogeniteit van varianties. Is hieraan voldaan (Noteer relevante statistieken in APA-stijl
Hypothesetoetsing

U hebt nu de data bekeken en assumpties van de factoriële ANOVA getoetst. U gaat nu verder met het uitvoeren van de data-analyse.

Rapporteer het hoofdeffect van de variabele oor in APA-stijl. Geef aan of het significant is en interpreteer het effect.

Rapporteer het hoofdeffect van de variabele commando in APA-stijl. Geef aan of het significant is en interpreteer het effect.

Rapporteer het interactie-effect tussen de variabelen oor en commando in APA-stijl. Geef aan of het significant is en interpreteer het effect.

Sluiten de conclusies aan bij de hypothese?

61
Q

effect sizes voor 2 onafhankelijke gemiddelden

A

Het feit dat de t-statistiek niet statistisch relevant is, wil niet zeggen dat het effect onbelangrijk is. Het is de moeite waard om dit in effect size te kwantificeren. Deze berekening dient handmatig te gebeuren. De t-waarde kan in een r-waarde omgerekend worden ahv volgende vergelijking

r= de wortel van tkwadraat gedeeld door t kwadraat +df

effect size van 2 gepaarde gemiddelde kan ook r zijn, maar Cohen’s d is beter

d= gemiddelde 1 -gemiddelde 2 gedeeld door s

62
Q

Is reactietijd normaal verdeeld?

A

Ja. Er zijn verschillende manieren om dit vast te stellen. Een methode is voldoende. Bijvoorbeeld:

Histogram op reactietijd laat die afwijkingen van normaliteit zien.
Skewness scheefheid tussen -1en 1en Kurtosis de staartdikte tussen -3 en 3, vallen dan binnen de norm, dus normaal verdeeld
Zowel Kolmogorov-Smirnov en Shapiro-Wilk’s tests zijn significant, als de sig kleiner is dan p kleiner is dan 0.05 dan wil dat zeggen dat het niet significant verschillend is van een normale verdeling. H0 is de normale verdeling !!! ???????

63
Q
A

Wat zijn de gemiddelde reactietijden per conditie en hun standaarddeviaties?

De tabel is verkregen door onder univariate anova de descripritives op te vragen. Zie bijvoorbeeld syntax onder:

UNIANOVA reactietijd BY oor commando
/METHOD=SSTYPE(3)
/INTERCEPT=INCLUDE
/PLOT=PROFILE(oorcommando)
/EMMEANS=TABLES(OVERALL)
/EMMEANS=TABLES(oor)
/EMMEANS=TABLES(commando)
/EMMEANS=TABLES(oor
commando)
/PRINT=ETASQ HOMOGENEITY DESCRIPTIVE
/CRITERIA=ALPHA(.05)
/DESIGN=oor commando oor*commando.

64
Q

homogeniteit van varianties assumptie

A

Aan de homegeniteit van varianties is voldaan als levene’s test (bij anova output) de sig groter dan p is, je kijkt in het rijtje van based on mean dan zijn varianties homogeen

65
Q

hoofdeffect

A

kijk naar f en vrijheidsgraden dan naar significantie nieveau, significantie niveau kleiner dan p, dus significant, dus verschil, wat veerschilt? boeit verschil? kijk naar partiele eta spure hoeveel 5 van erschilen in effect kunnen we toeschrijven aan factor. boven 14% is een groot effect.

Groter dan p geen significant hoofdeffect.

Rapporteer het hoofdeffect van de variabele commando in APA-stijl. Geef aan of het significant is en interpreteer het effect.

de terugkoppeling.
Er was geen significant hoofdeffect van commando op reactijd. Proefpersonen die het commando kregen om de rechterknop in te drukken (M = 367.68; SE = 18.65) hadden een vergelijkbare reactietijd met proefpersonen die het commando kregen om de linkerknop in te drukken (M = 375.63; SE = 18.65), F(1,60) = 0.09, p = .76, partial η2 = .002.

66
Q

de standaardfout SE

A

De standaardfout is de standaarddeviatie van een steekproevenverdeling van deze parameter.
De standaardfout geeft aan hoe zeker je bent van een geschatte waarde. Formeel geeft de waarde de spreiding (standaarddeviatie) van de schatting weer als er meeerdere samples zouden zijn, waarbij er bij iedere sample opnieuw een schatting wordt gemaakt.

67
Q

F

A

Logic of the F-ratio

De toetsstatstiek: de F-waarde wordt conceptueel toegelicht. De kern is dat de F-waarde een verhoudingsmaat is tussen de variantie tussen groepen (hoeveel de gemiddelden van de groepen verschillen) en de variantie binnen groepen (hoeveel individuen binnen de groepen verschillen). De F-toets wordt groter als de groepsgemiddelden verder uit elkaar liggen, en/of wanneer waarnemingen binnen groepen homogener zijn.

Total sum of squares (SST)

De totale variantie op de afhankelijke variabele en wat de rol daarvan is in een ANOVA.

Model sum of squares (SSM)
De tussengroepenvariantie en wat de rol daarvan is in een ANOVA

Residual sum of squares (SSR)
De binnengroepenvariantie en wat de rol daarvan is in een ANOVA

Mean squares
Uitleg over hoe door het delen van de Sum of Squares door de vrijheidsgraden de mean square kan worden berekend en wat die means squares betekenen. Samengevat: de sum of squares is de variatie (de optelling van alle gekwadrateerde afwijkingen van het gemiddelde), en de mean square is de variantie (al die gekwadrateerde afwijkingen gedeeld door het aantal waarnemingen aangepast voor vrijheidsgraden).

The F-statistic

Uitleg over de F-waarde, de toetsstatistiek van de ANOVA, en hoe deze kan worden berekend en hoe deze zich verhoudt tot p

Paragrafen 12.2.2 t/m 12.2.6 laten zich globaal samenvatten als:

TYPE VARIATIE VRIJHEIDSGRADEN (DF) SUM OF SQUARES (SS) MEAN SQUARE (MS) F
Tussengroepen (model) k – 1 SSM SSM/dfM MSM/MSR
Binnengroepen (residual, error) N-k SSR SSR/dfR
Totaal N-1 SST
N = totale steekproefgrootte k = aantal groepen