Psychométrie Flashcards
Modèle intégratif d’évaluation (MCÉ)
Multidimensionnel
Multiniveau
Dynamique
MCÉ - Multidimensionnel
On évalue les multiples dimensions de l’adaptation de l’individu en question selon une approche holistique (biologie, cognitions, personnalité, fonctions exécutives, émotions…)
MCÉ- Multiniveau
On évalue les multiples contextes dans lequel l’individu en question évolue, importance accordée à l’environnement. On s’intéresse aux contextes proximaux et distaux de l’individu.
MCÉ - Dynamique
On s’intéresse aux interactions entre les dimensions individuelles et environnementales pour l’individu en particulier, formant un tout cohérent, une adaptation.
Aspects méthodologiques du MCÉ
Multi-informateur
Multi-méthode
MCÉ - Multi-informateur
Étant donné que tous les informateurs peuvent être biaisés, il est important d’aller chercher les informations de plusieurs informateurs, idéalement dans différents contextes.
MCÉ - Multi-méthode
Utilisation de différents moyens / instruments (ex: entrevues, observations, échelles d’évaluation, questionnaires, tâches expérimentales)
Types de fidélité
Fidélité inter-juges Stabilité temporelle Cohérence interne Formes parallèles Moitié-moitié
Fidélité moitié-moitié
On sépare les items d’un test en 2 sections (de façon semi-aléatoire) et on estime les corrélations entre les 2 moitiés.
Attention: si l’échelle a peu d’items, on s’attend à une moins bonne corrélation, on peut alors appliquer la transformation de Spearman-Brown.
Fidélité: formes parallèles (ou équivalence)
On construit 2 formes équivalentes du même instrument (similaires conceptuellement, mais avec différents items = échantillonnage de contenu est crucial) et on compare les résultats obtenus auprès du même individu.
Fidélité: Stabilité temporelle (ou test-retest)
On évalue le même individu à 2 moments différents (intervalle court, de 2 semaines à 1 mois) et on compare les résultats. Attention: modifications peut être reliées à des changements réels, ou un phénomène d’apprentissage. Une corrélation de 0,70 et plus est fiable.
Fidélité inter-juges (ou accord inter-juge)
On fait évaluer un même individu au même moment par 2 évaluateurs différents, puis on corrèle les résultats. On s’attend à des résultats plus faibles que les autres types de fidélité. Meilleur accord si les 2 individus ont une bonne connaissance de l’enfant et s’ils proviennent du même contexte d’évaluation (ex: 2 parents, ou 2 enseignants)
Fidélité: cohérence interne
On vérifie l’homogénéité des items d’une échelle pour déterminer si les items forment un tout cohérent. Plus de 0,60 en recherche, 0,80 en clinique. Mais si on a plus de 0,95, cela peut indiquer une redondance des items. Attention: si trop peu d’items, on peut appliquer la transformation de Spearman-Brown.
Types de validité
Validité de contenu
Validité de construit
Validité de critère
Types de validité de contenu
Validité nominale
Validité consensuelle
Types de validité de construit
Validité factorielle
Validité convergente/discriminante
Types de validité de critère
Validité de critère concomitante
Validité prédictive
Validité post-dictive
Validité de contenu nominale
La représentativité des items de l’échelle pour mesurer un construit (sont-ils tous reliés, représentatifs de tous les sous-domaines, en manque-t’il, etc.), évaluée par les auteurs de l’instrument.
Validité de contenu consensuelle
Validité de contenu évaluée par un groupe d’experts indépendants, qui quantifient la pertinence des items selon un choix de réponse, ce qui permet de calculer l’indice de validité de contenu (ICV) pour chaque item (ICV-I) et pour l’échelle entière (ICV-É).
Validité de construit factorielle
Si la structure factorielle théorique est reproduite par l’instrument (important de faire le réseau nomologique avant). Peut être faite par méthode exploratoire (on évalue les interrelations entre les items pour un même facteur, sans contrainte pour le logiciel, pour observer si les corrélations sont conformes à la structure factorielle attendue) ou par méthode confirmatoire (Même chose, sauf qu’on impose une structure fixe au logiciel, permet de confirmer la structure théorique déjà connue)
Validité de construit convergente/discriminante
On compare notre instrument à d’autres instruments.
Convergente = on compare avec un autre instrument évaluant un construit similaire / le même, donc on s’attend à une bonne corrélation.
Discriminante = on compare avec un autre instrument évaluant un construit différent mais relié théoriquement, donc on espère une plus faible corrélation.
Peut être évaluée dans une matrice multitraits-multiméthodes.
Validité de critère concomitante
Corrélation avec un critère externe, relié théoriquement, on cherche une corrélation significative. Aussi possible avec la méthode des groupes contrastés, on fait des tests de moyenne entre deux groupes selon un critère connu. On évalue de façon concomitante donc en même temps.