4 - Phase 3 Flashcards
2 types d’AF
- exploratoire (phase 2)
- confirmative (phase 3)
Fiabilité des scores
dans quelle mesure les scores au test sont constant et stables dans le temps
Renvoie à la part de la variance du score attribuable au score vrai
Parle de fiabilité des scores, pourquoi ?
car la variabilité pas imputable u’à l’erreur les gens changent
le score brut approximatif-t-il la vraie performance ?
On ne connaitra jamais le score vrai, d’ou l’interet d’estimer l’erreur type de mesure (intervalle de confiance ou score vrai a de forte chance de se trouver)
Erreur de mesures
- erreur aléatoire (fatigue, humeur)
- erreur systématique (DS, auto-duperie)
2 sources d’erreur de mesure
- dues à la mesure elle même (formulation items)
- dues à la procédure du testing et conditions d’administration
- reliées aux répondants (style de réponse , biais de distorsion de réponse)
comment controler l’erreur
A priori (item binaire, sélectionner item non sensible à la DS)
A posteriori (inclure échelle DS)
Peut-on calculée la fiabilité ?
la fiabilité des scores est estimée mais pas calculée (purement théorique)
méthode version parallèles
créer 2 versions du même test
Corrélation >.80 indique bonne fiabilité
méthode test-retest
faire repasser le test
corrélation intra-classe (fort pour trait mais pas pour état)
méthodes des moitiés
diviser test en deux
>.80 indique bonne fiabilité
limite méthode des moitiés
fiabilité dépend du critère de séparation des deux parties + sous estimée car porte sur qu’une moitié des items
Mais corrélation de Spearman-Brown permet d’estimer fiabilité si on prenait tous les items ou alpha de rho
méthode partitionnement multiple
autant de parties que d’items, suppose items interchangeables
=> appelé consistance interne
Alpha de cronbach
alpha de cronbach mesure
alpha = [(k/k-1)] x [1- (Eσi^2/σt^2) ]
alpha de cronbach interprétation
a > .90 = excellente fiabilité
a > .80 = bonne fiabilité
a > .70 = fiabilité acceptable
… f discutable, f faible , inacceptable
Nunnally préconisation
une valeur seuil de .80 pour mesure en recherche et .90 pour pratique institutionnelles et pro
Attention si alpha dépasse .95
Forte cohérence interne peut indiquer une forte redondance des items
selon Nunally et Bernstein
racine carré de alpha donne une estimation de la corrélation entre score observé et score vrai
SI on élève au carré la corrélation = part de variance partagé
Interprétation = score observé et score vrai partagent 74% de la variance
Récapitulatif alpha
- sensible au nombre d’item (+ item = + élevé)
- peut augmenter si item redondant (sacrifie diversité au profit fiabilité)
- “paradoxe d’atténuation” augmentation fiabilité entraine détérioration validité de contenu
limite de l’alpha
- requiert unidimentionnalité de la mesure
- pas le seul coef de fiabilité
- un alpha élevé n’indique pas forcement l’unidimentionnalité
=> alpha ne dit rien sur dimentionnalité d’un test , unique AF
Coef pour item binaire
Kuder-Richardson 20 : KR-20