1 - Qualité d'un instrument de mesure Flashcards
Définir ce qu’est un instrument validé et nommer un exemple.
Instrument dont la qualité des mesures a été évaluée
Exemple : SF-36 = évaluation de la qualité de vie (à utiliser tel quel donc aucune modification possible)
Quels sont les avantages et les désavantages de l’usage d’un questionnaire validé ?
Avantages : économie de temps et d’argent, permet de comparer les résultats avec d’autres populations à d’autres moments, crédible
Désavantage : plus ou moins adapté à une étude précise, évaluation des propriétés psychométriques incomplète / moins pertinente pour une étude précise, aspects pratiques (ex : langue) ne conviennent pas toujours
Selon quoi se fait la sélection d’un instrument de mesure ?
But (objectif primaire ou secondaire)
Hypothèse (concept et domaines)
Ressources (temps, coût, personnel)
Population (symptômes / incapacités, âge, habileté cognitive, ethnicité)
Quelles sont les 3 propriétés psychométriques d’un instrument ?
Fiabilité, validité, capacité de détecter des changements dans le temps
Qu’est-ce que la fiabilité ?
Capacité de mesurer un concept de manière reproductible et logique = PRÉCISION
Quels sont les 3 types de fiabilité ?
- Fiabilité du test-retest
- Cohérence interitems
- Fiabilité intercorrecteurs
Qu’est-ce que la fiabilité du test-retest ?
Reproduction des mêmes résultats lorsque réadministré
Attention : intervalle entre le test et le retest ne doit pas être trop court (surestimation due à la mémoire) ni trop long (ce que l’on mesure peut avoir changé)
Quels sont les tests statistiques pour la fiabilité du test-retest ?
- Coefficient de corrélation de Pearson ou de Spearman
- Coefficient de corrélation intraclasse
- Différence moyenne entre le test et le retest
- Coefficient de concordance Kappa
Fiabilité du test-retest : coefficient de Pearson ou de Spearman ?
Correspondance entre les résultats obtenus au test et au retest
Coefficient de 1 = correspondance parfaite
Coefficient de 0 = pas de correspondance
TEST INADÉQUAT car ne détecte pas les différences systématiques (pas causées par le hasard) et dépend de la variabilité des résultats
Fiabilité du test-retest : coefficient de corrélation intraclasse ?
Proportion de la variance totale qui est attribuable à des variances réelles entre les répondants (autre que dû au test-retest et aux erreurs de mesure)
CIC de 1 = 100% de la variance attribuable aux variances réelles
CIC de 0 = 0% de la variance attribuable aux variances réelles
Seuil d’acceptabilité de 0.7 au niveau des groupes et de 0.9 au niveau individuel
TEST ADÉQUAT car sensible à la variabilité (coefficient de Pearson = CIC si absence de différences systématiques)
Fiabilité du test-retest : comparaison des scores moyens obtenus au test et au retest ?
Si aucune différence entre le résultat moyen obtenu au test et au retest alors le test est fiable
TEST INADÉQUAT car différences de valeurs peuvent passer inapercues si elles s’annulent entre elles
Fiabilité du test-retest : coefficient Kappa ?
Concordance entre le test et le retest lorsque les mesures sont faites sur une échelle nominale (kappa) ou ordinale (kappa pondéré)
K < 0.4 : concordance faible
0.4 - 0.6 : concordance modérée
0.61 - 0.8 : concordance élevée
K > 0.8 : concordance presque parfaite
TEST ADÉQUAT car tient compte du hasard (car proportion observée et attendue)
Qu’est-ce que la cohérence interitems ?
Corrélation entre les différents items d’un test mesurant le même domaine
Quels sont les 2 tests statistiques pour la cohérence interitems ?
- Formule de Kruder-Richardson : moyenne des coefficients de bissection, s’applique à des variables catégoriques
- Coefficient alpha de Cronbach : moyenne des coefficients de bissection, s’applique à des variables continues
Bissection = questionnaire séparé en deux parties puis évaluation de la corrélation entre les résultats de chacune des parties
Qu’est-ce que la fiabilité intercorrecteurs ?
Concordance entre les mesures obtenues par différents évaluateurs