1 - Qualité d'un instrument de mesure Flashcards
Définir ce qu’est un instrument validé et nommer un exemple.
Instrument dont la qualité des mesures a été évaluée
Exemple : SF-36 = évaluation de la qualité de vie (à utiliser tel quel donc aucune modification possible)
Quels sont les avantages et les désavantages de l’usage d’un questionnaire validé ?
Avantages : économie de temps et d’argent, permet de comparer les résultats avec d’autres populations à d’autres moments, crédible
Désavantage : plus ou moins adapté à une étude précise, évaluation des propriétés psychométriques incomplète / moins pertinente pour une étude précise, aspects pratiques (ex : langue) ne conviennent pas toujours
Selon quoi se fait la sélection d’un instrument de mesure ?
But (objectif primaire ou secondaire)
Hypothèse (concept et domaines)
Ressources (temps, coût, personnel)
Population (symptômes / incapacités, âge, habileté cognitive, ethnicité)
Quelles sont les 3 propriétés psychométriques d’un instrument ?
Fiabilité, validité, capacité de détecter des changements dans le temps
Qu’est-ce que la fiabilité ?
Capacité de mesurer un concept de manière reproductible et logique
Indique à quel point les résultats sont précis
Plus un instrument est fiable, plus les résultats sont similaires lorsque les mesures sont répétées
Quels sont les 3 types de fiabilité ?
- Fiabilité du test-retest
- Cohérence interitems
- Fiabilité intercorrecteurs
Qu’est-ce que la fiabilité du test-retest ?
Habileté d’un test à reproduire les mêmes résultats lorsque réadministré, dans des conditions similaires, aux mêmes sujets
Attention : intervalle entre le test et le retest ne doit pas être trop court (surestimation due à la mémoire) ni trop long (ce que l’on mesure peut avoir changé)
Devis expérimental : administration du même instrument aux mêmes participants à deux occasions différentes
Quels sont les tests statistiques pour la fiabilité du test-retest ?
- Coefficient de corrélation de Pearson ou de Spearman
- Coefficient de corrélation intraclasse
- Différence moyenne entre le test et le retest
- Coefficient de concordance Kappa
Fiabilité du test-retest : coefficient de Pearson ou de Spearman ?
Indique le niveau de correspondance entre les résultats obtenus au test et au retest
Coefficient de 1 = correspondance parfaite
Coefficient de 0 = pas de correspondance
TEST INADÉQUAT car ne détecte pas les différences systématiques (pas causées par le hasard) et dépend de la variabilité des résultats
Fiabilité du test-retest : coefficient de corrélation intraclasse ?
Indique la proportion de la variance totale qui est attribuable à des variances réelles entre les répondants (autre que dû au test-retest et aux erreurs de mesure)
CIC de 1 = 100% de la variance attribuable aux variances réelles
CIC de 0 = 0% de la variance attribuable aux variances réelles
Seuil d’acceptabilité de 0.7 au niveau des groupes et de 0.9 au niveau individuel
TEST ADÉQUAT car sensible à la variabilité (coefficient de Pearson = CIC si absence de différences systématiques)
Fiabilité du test-retest : comparaison des scores moyens obtenus au test et au retest ?
Si aucune différence entre le résultat moyen obtenu au test et au retest alors le test est fiable
TEST INADÉQUAT car différences de valeurs peuvent passer inapercues si elles s’annulent entre elles
Fiabilité du test-retest : coefficient Kappa ?
Indique le degré de correspondance entre le test et le retest lorsque les mesures sont faites sur une échelle nominale (kappa) ou ordinale (kappa pondéré)
Tient compte de la proportion observée et attendue, donc du hasard
K < 0.4 : concordance faible
0.4 - 0.6 : concordance modérée
0.61 - 0.8 : concordance élevée
K > 0.8 : concordance presque parfaite
TEST ADÉQUAT car tient compte du hasard
Qu’est-ce que la cohérence interitems ?
Degré de corrélation entre les différents items / questions d’un test mesurant le même domaine
Plus la corrélation entre les items est grand, plus la fiabilité est élevée
Devis expérimental : administration du test à un groupe de patients à une seule occasion
Quels sont les 2 tests statistiques pour la cohérence interitems ?
- Formule de Kruder-Richardson : moyenne des coefficients de bissection, s’applique à des variables catégoriques
- Coefficient alpha de Cronbach : moyenne des coefficients de bissection, s’applique à des variables continues
Bissection = questionnaire séparé en deux parties puis évaluation de la corrélation entre les résultats de chacune des parties
Qu’est-ce que la fiabilité intercorrecteurs ?
Mesure de concordance entre les mesures obtenues par différents évaluateurs
Devis expérimental : différents évaluateurs évaluent un même objet puis mesure du degré de corrélation entre les résultats des différents évaluateurs