Cours 7 Flashcards
L’[…] ([…]) est la technique statistique la plus utilisée en psychologie
L’analyse de variance (ANOVA) est la technique statistique la plus utilisée en psychologie
L’ANOVA permet de tester quoI?
1) L’ANOVA permet de tester des différences de moyennes (comme le test-t), mais sans restriction quant au nombre de moyennes testées.
2) L’ANOVA permet de tester les effets de plusieurs variables indépendantes (facteurs ou critères de classification) et de vérifier les interactions
Quels sont les hypothèses statistiques de l’ANVOA?
H0 : u1 = u2 = … = uk
H1 : Au moins une égalité fausse / au moins une moyenne qui est fausse
Lorsqu’on utilise plusieurs variables indépendantes, on utilise l’ANOVA à […]
Lorsqu’on utilise plusieurs variables indépendantes, on utilise l’ANOVA à plans factoriels
Quel est le problème principal des ANOVA?
On ne sait pas quelle moyenne est différente des autres
L’analyse de variance (ANOVA) vise à déterminer si la […] (variabilité d’erreur ou effet du […]) permet d’expliquer la variabilité observée entre les échantillons (ou les mesures)
L’analyse de variance (ANOVA) vise à déterminer si la variabilité naturelle (variabilité d’erreur ou effet du hasard) permet d’expliquer la variabilité observée entre les échantillons (ou les mesures)
** Par exemple, pour un facteur de groupe, il s’agit de vérifier si la variabilité entre les groupes (variabilité inter groupe) est plus grande que la variabilité naturelle (variabilité intra groupe) ou si autre chose que le hasard explique les différences de moyennes
Décrivez le principe de base de l’analyse de variance (ANOVA)
Quand je regarde la variabilité autour de la grande moyenne (Moyenne des moyennes), je peux regarder la variabilité échantillonnale (Intra) ainsi que la variabilité entre les groupes. Si c’est juste le hasard qui joue la variabilité intraéchantillonnalle devrait être la même que la variabilité interéchantillonnalle.
Si ma variabilité interéchantillonnale est plus grande que intra alors ce n’est pas juste la hasard. C’est pour ça qu’on parle d’analyse de variance et qu’on quantifie la variailité à l’intérieur et entre les échantillons.
Si seulement le hasard joue, le test F devrait être presque de 1.
Nous utilisons un test […] ([…]) pour comparer deux sources de variance
Nous utilisons un test F (F de Fisher) pour comparer deux sources de variance
Selon le test F, sous l’hypothèse nulle – c’est-à-dire pas d’effet autre que le hasard – la valeur du test devrait être près de […]
Selon le test F, sous l’hypothèse nulle – c’est-à-dire pas d’effet autre que le hasard – la valeur du test devrait être près de 1
Lorsque le test F […] une valeur critique, nous rejetons l’hypothèse nulle et concluons à une différence significative de moyenne, car la variabilité entre les échantillons est plus grande que la variabilité naturelle
Lorsque le test F dépasse une valeur critique, nous rejetons l’hypothèse nulle et concluons à une différence significative de moyenne, car la variabilité entre les échantillons est plus grande que la variabilité naturelle
Avec l’ANOVA, nous comparons deux estimations des variances. Quelles sont-elles?
Une variance inter échantillon
Une variance intra échantillon
Le calcul des variances des ANOVA est basé sur quoi?
Le calcul des variances des ANOVA est basé sur une somme des carrés (SC)
Selon l’ANOVA, la variabilité inter échantillon est identifiée comme la variabilité dû au […] et nous parlons de la somme des carrés attribuable au […] : SCtrait
Selon l’ANOVA, la variabilité inter échantillon est identifiée comme la variabilité dû au traitement et nous parlons de la somme des carrés attribuable au traitement : SCtrait
Selon l’ANOVA, la somme des carrés attribuable au hasard (variabilité […]) est appelé somme des carrés de l’[…]
Selon l’ANOVA, la somme des carrés attribuable au hasard (variabilité intra) est appelé somme des carrés de l’erreur
Selon l’ANOVA, la variabilité totale (la somme des carrés de toutes les observations) est la somme des carrés attribuable au […] ainsi que la somme des carrées attribuable à l’[…]
Selon l’ANOVA, la variabilité totale (la somme des carrés de toutes les observations) est la somme des carrés attribuable au traitement ainsi que la somme des carrées attribuable à l’erreur
La somme de carré totale sera la somme de carrée de chaque unité d’observation par rapport à la […]. Donc si je veux la calculer, je prends la première valeur de la première unité d’observation jusqu’à la dernière unité. Je mets ça au carré. Cette somme sera la variabilité de toutes les unités
La somme de carré totale sera la somme de carrée de chaque unité d’observation par rapport à la grande moyenne. Donc si je veux la calculer, je prends la première valeur de la première unité d’observation jusqu’à la dernière unité. Je mets ça au carré.
Cette somme sera la variabilité de toutes les unités
Si nous voulons comparer les sommes de carrés (SC), il faut les transformer en […] pour prendre en compte le nombre d’éléments qui entre dans chacun des calculs. Pour ce faire, nous divisons le […] par les degrés de […]
Si nous voulons comparer les sommes de carrés (SC), il faut les transformer en carré moyen (CM) pour prendre en compte le nombre d’éléments qui entre dans chacun des calculs. Pour ce faire, nous divisons le carré moyen (CM) par les degrés de liberté
Décrivez les différents degrés de libertés dans l’ANOVA
dltotal = N -1 dltrait = k -1 dlerreur = N – k – 1 N : Nombre d’observations k : Nombre de groupes
Le ratio F est le ratio entre la variabilité attribuable au […] ([…]) et la variabilité attribuable à l’[…] ([…])
Le ratio F est le ratio entre la variabilité attribuable au traitement (inter) et la variabilité attribuable à l’erreur (intra)
Ce Ratio devrait être près de 1 si les deux sources de variances sont égales, c’est-à-dire s’il n’y a pas d’effet significatif – s’il y a un effet, le F sera plus grand que 1
La distribution F permet de calculer la probabilité d’observer une valeur […] si l’hypothèse nulle est vraie
La distribution F permet de calculer la probabilité d’observer une valeur F si l’hypothèse nulle est vraie
Nous fixons un niveau alpha (souvent 0.05) et regardons dans une table F pour trouver la valeur F critique – cette valeur dépend du niveau alpha choisi et des degrés de liberté utilisés pour calculer F
Selon l’ANOVA si F dépasse le F critique, nous […] H0 et concluons à un […]
Selon l’ANOVA si F dépasse le F critique, nous rejetons H0 et concluons à un effet significatif
Quelles sont les conditions d’application de l’ANOVA? (3)
1) Homogénéité des variances
2) Normalité
3) Indépendance des observations
Décrivez le postulat d’homogénéité des variances de l’ANOVA
1) La principale condition de l’ANOVA
2) Les variances des populations doivent être égales. Les variances d’erreur doivent être égales
Décrivez le postulat de normalité de l’ANOVA
Les scores de chacune des conditions doivent se distribuer suivant une distribution normale
- > L’erreur de mesure doit aussi suivre une distribution normale
- > Notez que l’ANOVA est assez robuste même lorsque les données ne respectent pas pleinement ce postulat
Décrivez le postulat de l’indépendance des observations de l’ANOVA
Les mesures faites sur une unité d’observation sont indépendantes des mesures faites sur une autre unité d’observation (les participants ne s’influencent pas les uns les autres)
-> Cette condition est assurément respectée lorsque l’échantillon est pleinement aléatoire. C’est pour ça que ce n’est pas bon d’avoir un couple dans son étude car leurs résultats (unité d’observation) seront souvent dépendants de l’autre
Pourquoi dit-on que l’ANOVA est robuste?
Car même si elle est appliqué dans des situations ne respectant pas complètement les postulats de base, il est possible d’avoir des résultat avec une signification forte
Il existe plusieurs commandes SPSS permettant d’effectuer des ANOVA. Nommez les (5)
1) ANOVA
2) ONEWAY
3) UNIANOVA
4) GLM
5) MANOVA
SPSS : ANOVA et ONEWAY permettent de réaliser des analyses […] (une variable dépendante)
SPSS : ANOVA et ONEWAY permettent de réaliser des analyses univariées (une variable dépendante)
SPSS : ONEWAY permet de réaliser des comparaisons multiples de […] a […]
SPSS : ONEWAY permet de réaliser des comparaisons multiples de moyennes a posteriori
SPSS : UNIVANOVA permet d’obtenir des […]
SPSS : UNIVANOVA permet d’obtenir des tailles d’effet
SPSS : GLM et MANOVA permettent de réaliser des modèles plus […], y compris des analyses […]
SPSS : GLM et MANOVA permettent de réaliser des modèles plus complexes, y compris des analyses multivariées