Séance 10.2 : Tests de comparaison multiples Flashcards
Pour quel type d’ANOVA on fait des tests de comparaisons multiples?
ANOVA à plan simple
À quoi servent les tests de comparaison multiples?
permettent de
savoir quelles paires de moyennes diffèrent
significativement parmi l’ensemble de moyennes.
Quels sont les 2 types de comparaisons multiples complémentaires à une analyse de variance?
Les comparaisons multiples a priori; (planifiées avant la collecte)
Les comparaisons multiples a posteriori (ou « posthoc
»). (suite à la collecte et l’analyse du résultat obtenu, on décide d’aller plus loin)
Compare les 2 types p/r à la planification.
A priori :
Les comparaisons sont planifiées
avant la cueillette de données,
donc avant l’examen des résultats.
A posteriori :
Les comparaisons ne sont pas
planifiées, elles sont décidées
après l’examen des résultats.
Compare les 2 types p/r à l’ANOVA.
A priori :
Pas nécessaire que l’ANOVA soit
significative pour faire les
comparaisons prévues (desfois certains la font m pas)
A posteriori:
Important que l’ANOVA soit
significative pour effectuer les
comparaisons.
Compare les 2 types p/r au choix.
A priori:
Le choix des comparaisons est
basé sur des raisons théoriques. (tester une théorie déjà existante, se base sur ce qu’on s’attend selon la littérature)
A posteriori:
Pas de justifications théoriques
avant la collecte des données.
Compare les 2 types p/r au type d’analyse.
A priori : Analyse confirmatoire
A posteriori: Analyse confirmatoire
Compare les 2 types p/r au nombre de comparaisons.
A priori:
Le chercheur ne s’intéresse qu’à
un nombre plutôt restreint de
comparaisons. (ceux qu’il s’attend à trouver une diff)
A posteriori:
Le chercheur veut effectuer
toutes les comparaisons pairées
possibles (k * (k - 1)/2 possibilités).
Compare les 2 types p/r à la mécanique du test utilisé.
A priori:
Effectuer plusieurs tests t avec une correction du niveau alpha en
fonction du nombre de comparaisons effectuées
(p. ex., Bonferroni).
A posteriori: Effectuer un test statistique qui tient compte du nombre de comparaisons effectuées (p. ex., Tukey).
Que permet le test de Bonferroni et comment le fait-il?
L’ajout de la correction de Bonferroni permet d’éviter
l’inflation de l’erreur alpha:
• On divise le niveau α global par le nombre de tests
effectués.
• Ex: α global = .05 et 3 tests:
α pour chacun des tests = .05/3 = .0167.
• Plus il y a de tests, plus le niveau α par test diminue.
• Moins de risque d’erreur alpha, mais aussi moins de
chance d’être significatif (perte de puissance statistique).
Comment trouver le niveau alpha pour chaque test dans Bon?
Niveau alpha = alpha global / nombre de
comparaisons effectuées.
V ou F : l’alpha est toujours unilatéral dans Bon.
Faux, toujours bilatéral.
Quels sont les dl utiisés pour Bon? (ex: pour aller dans la table)
dl = dl intra de l’ANOVA (k (n -1))
Comment aller chercher la valeur critique dans le test de Bon?
Dans la table de Bonferroni:
- Une table par alpha global (.05 ou .01);
- Choisir la colonne selon le nombre de comparaisons
effectuées.
-Choisir la ligne selon le dl intra (k(n-1))
Que faire quand on a juste 1 comparaison à faire avec Bon?
Ne pas faire de correction et utiliser la table du T.
Comment faire l’étape 6 dans Bon à la main?
Test de comparaisons multiples à priori : Le test t avec correction de Bonferroni
- Ici on veut faire deux test T :
- Comparer la moyenne du groupe 1 avec groupe 2
Tobs(15) = donné T crit(15) => table
Tobs(15) = 7 < T crit(15) = 8. On conclut qu’il n’y a pas de différence significative
entre la 1ère moyenne et la 2e moyenne.
-Comparer la moyenne du groupe 1 avec groupe 3
Tobs(15)= donné Tcrit(15) = même
T(obs) = -8,46 < T(crit) = -8. On conclut qu’il y a une différence significative entre la
1ère moyenne et la 3e moyenne.
zone de rejet BON?
BACK BABY
H0 ?
NON, JUSTE RéSULTAT + ON CONCLUT…
Qu’est-ce que donne le test de Tukey?
Nous donne une différence à laquelle
on compare nos différences de moyennes (en valeur
absolue).
V ou F : Juste Bon réduit l’inflation de alpha.
Faux, Tukey aussi, la différence qui nous donne est ajustée selon le nombre de
groupes, en réduisant l’inflation de l’erreur alpha.
Quand conclut t’on que la différence entre les 2 moyennes est significative dans Tukey?
Si la différence entre nos moyennes est plus grande ou
égale à la différence critique
Qu’est-ce que qT? comment on le calcule?
qt = différence critique
qt = q x racine(CM intra/n)
Qu’est-ce que q? comment on le calcule?
q = valeur obtenue dans la table écart studentisé
On le calcule pas, on le prend dans la table.
en haut = k (nbr de niveaux de traitement)
sur le côté : dl ERREUR
Quel dl on se sert pour chaque test et c’est quoi sa formule?
Intra les 2
k(n-1)
Calcul du nbr de comparaisons à faire
(k(k-1))/2
Étape 6 avec Tukey à la main
Test de comparaisons multiples a posteriori : le test de Tukey
qT = 7,66 (donné)
Traitement A vs Traitement B
|17.17 – 22.17| = 5 < 7.66 (qT) donc non significatif
Traitement A vs Traitement C
|17.17 – 42.17| = 25 > 7.66 (qT) donc significatif
Traitement B vs Traitement C
• |22.16 – 42.16| = 20 > 7.66 (qT) donc significatif
On conclut que la seule différence qui n’est pas significative
se situe entre le traitement A et le traitement B.
Dans SPSS, quand la différence entre 2 moyennes est significative?
Quand sig < alpha global (OU TJ 0,05???)
V ou F : on divise la probablité que spss nous donne par le nombre de comparaisons.
Faux, la probabilité a déjà été corrigée.
Comment interpréter le 2e tableau de spss pour tukey?
Ce tableau indique aussi les différences significatives, mais sous une autre forme: Les moyennes se retrouvant dans une même colonne ne diffèrent pas significativement
AVANTAGE : ON VOIT LES MOYENNES, ON SAIT LEQUEL, SINON RETOURNER DANS DONNÉES DESCRIPTIVES
Comment interpéter le 1er tableau de spss pour tukey?
Quand * il y a diff significative.
Tout est dupliqué, attention.
le signe + ou - indique la direction