COURS7-psy2003 Flashcards
Écart à la moyenne?
Score - Moyenne
Variance?
Moyenne des carrés des écarts à la moyenne (Sx2)
Écart-type?
Distance moyenne des données p.r. à la moyenne (Sx)
Covariance
Mesure du niveau d’association entre 2 variables (cousine de la corrélation)
Corrélation?
Covariance standardisée entre -1 à +1 (Rxy)
OBJECTIFS (stabilité)
Fidélité
- Vérifier ampleur de l’erreur
- Établir cohérence interne + stabilité temporelle
MOYENS (stabilité)
Erreur-type de mesure (ETM)
Analyses corrélationnelles
Analyse d’items
Approche hypothético-déductive
Accord inter-juge
ERREUR DE MESURE (indices et explication) : 3 indices de stabilité
Score vrai = Score observé - Erreur
(test à l’infini : erreur = 0, moyenne erreur aléatoire)
- Cohérence interne
- Stabilité test-retest
- Accord interjuges
Comment calculer fidélité test-retest? (2)
- Corrélation test-retest
V1 —-> V1 (effet mémoire…)
*intervalle de temps - Corrélation test-retest avec formes parallèles
V1/V2 —-> V1/V2 (sans effet mémoire!)
*critères d’un bon parallélisme (5)
*intervalle de temps
–> 2 stabilités temporelles en un!
:( = + d’items/job à faire et doit être bien fait…
Critères d’un bon parallélisme :
- Nb items pareil
- Items similaires
- Résultats similaires (V1/V2) X et Sx
- Mêmes directives d’administration
- Structure dimensionnelle pareil
–Comment calculer cohérence interne? (2)
- CORRÉLATION SPLIT-HALF
- ALPHA CRONBACH
CORRÉLATION SPLIT-HALF
Séparer test en 2 –> corrélées = mesurent même chose:)
Surestime erreur de mesure (car moins items)
–> Corrélation Spearman-Brown : correction (r = +)
*Formule de prophétie = combien d’items à ajouter pour avoir « r = …? » ? Je veux une fiabilité de 0,85.
Rd : r désiré
Ro : r observé
K : nb items
= «n» (nb items voulus)
ALPHA CRONBACH
À quel point items mesurent la même chose?
K : nb items (influence)
R* : moyenne des intercorrélations entre paires items (influence ++)
Alpha de Cronbach est-il un indice de corrélation ?
NON. À ne pas utiliser comme « r » dans les formules!! Juste stabilité temporelle ou split-half!
–Comment calculer l’accord inter-juges?
- Corrélation entre les cotes (r = fort entre score du juge A et B)
- Kappas sur catégorisation/fréquence faite par les juges
–> % accord entre A et B à chaque question, par exemple)
*Enlève l’influence du hasard!