Stabilité Flashcards
Suis-je normal?
- Pour savoir si on est « normal » on veut l’écart à la moyenne (diff entre les deux nbrs) = score – moyenne > base de la variance
La variance
La variance est la moyenne des carrés des écarts à la moyenne du score de tous les individus
Mesure qui sert à déterminer la distance moyenne (au carré) des données par rapport à la moyenne.
* racine carrée est l’écart type et c’est plus facile à analyser (distance moyenne)
La covariance
- comment deux variables se comportent ensemble, à quel point il y a une association, plus difficile à interpréter (lb et cm) > corrélation
- La covariance est une mesure du degré d’association entre deux variables.
À quel point une donnée occupe la même position dans deux distributions de variables différentes.
À quel point les variables changent ensemble.
La corrélation
covariance mais standardisé!!! Alors on peut bien interpréter le lien entre les variables
* entre -1 et 1
* rxy
La stabilité (objectifs et moyens) - Vert
Objectifs:
> Vérifier la nature et l’ampleur de l’erreur
> Établir la stabilité interne et temporelle
Moyens:
> Erreur-type de mesure
> Analyses d’items
> Analyses corrélationnelles
> Approche hypothético-déductive
> Accord inter-juges
- Important d’utiliser plusieurs outils pour vérifier nos données pour assurer le plus de fidélité possible
- On veut obtenir de la constance et de la reproductibilité
- test non-fidèle ne peut pas être valide
Questions dans la stabilité
le test comporte-il de l’erreur de mesure? combien?
Théorie classique - erreur de mesure
Score Observé = Score Vrai + erreur de mesure (bruit)
problème est erreur aléatoire
- aucun instrument n’a aucune erreur de mesure
- si on refaisait le score à l’infini, on pourrait obtenir un jour le score vrai
- plus on instrument contient d’items, plus l’erreur aléatoire va diminuer
Principe de base de la psychométrie
Le phénomène que l’on veut mesurer est relativement stable dans le temps.
3 moyens d’estimer l’erreur de mesure
- utiliser des indices chiffrés et les interpréter pour voir cb d’erreurs nous avons
1- Stabilité temporelle
2- Cohérence interne/consistance interne
3- Accord interjuges
Stabilité temporelle ou fiabilité test-retest
Si le phénomène est stable, deux mesures prises à l’intérieur d’un délai devraient se ressembler
Moyens:
- Corrélation test-retest : contexte d’administration pas changé aux deux temps, intervalle de temps importante + temps = + faible, éliminer l’effet de mémoire, mais trop long peut avoir des changements chez l’individu
* qualité de l’estimation dépend de l’intervalle entre les 2 passations
- Corrélation test-retest avec formes parallèles : permet d’enlever l’effet de mémoire, dépend de la similarité des deux formes
- qualité estimation dépend intervalle + qualité du parrallélisme
Qualité du parallélisme
- items très similaires, meme nbr, structure et administration pareilles, moyennes et écarts équivalents
> Avantages : pas effet mémoire, peuvent être administrées en même temps
désavantages : 2x plus écrire, validation supplémentaire, s’assurer que reste parallèle
Cohérence interne ou consistance interne ou stabilité interne
si le construit existe de manière stable, il se manifestera de la même manière (stable) à travers toutes les réponses d’un participant, répondus de la même façon
Moyens :
> Corrélation « Split-half» / bissection / corrélation moitié-moitié : corrélation élevée entre les deux moitiés du test si on le coupe en deux > ça diminue le nbr d’item alors on mesure pas vraiment la fiabilité du test entier (pas recommandé de l’utiliser comme T-R)
- corrélation Spearman-brown aide à rectifier le split half en l’ajustant = meilleur estimation et permet la formule de prophétie
> Alpha de Cronbach (a): comment une mini forme du test est cohérent avec toutes les formes si on séparait différentes versions du test, à quel point les items ne mesurent qu’une seule chose ?, 1 = meilleur
formule de la prophétie
combien items faut-il ajouter pour avoir un coefficient de fiabilité désiré? (total - ce qu’on a)
* vraiment savoir cb d’items seraient idéal, arrondi tjrs à la hausse
* k nb items ( (rd désirée(1-ro)) / (ro (1-rd)) )
* que les items qui sont ajoutés mesurent la même chose que les items initiaux et que la moyenne des intercorrélations entre les items initiaux soit égale à la moyenne des intercorrélations du total des items (soit les items ajoutés + les items initiaux )
Ce qui influence l’alpha de Cronbach
1- Plus le nombre d’item est grand et 2- plus la corrélation moyenne est grande (+ effet), car variabilité entre les items
> plus l’Alpha sera élevé
- Comme l’Alpha est fondé sur la moyenne de toutes les corrélations possibles entre les scores d’items, l’Alpha est aussi très affecté par la quantité de variance dans les scores d’items
Accord interjuges
Si le phénomène se manifeste avec régularité, tous les juges devraient donc observer le même phénomène > tous les juges voient les mêmes choses, doivent travailler séparément (si formation bonne, compétence, cpts bien définis, mêmes opportunités observations)
Moyens :
1. Corrélations effectuées sur des cotes : corrélation entre les deux résultats est élevée
2. Kappas K effectués sur la catégorisation ou la fréquence faite par les juges : pourcentage d’accord est élevé > Kappa prend en compte le degré d’accord entre les juges, mais aussi le degré de hasard d’un accord