1 - Qualité d'un instrument de mesure Flashcards

1
Q

Définir ce qu’est un instrument validé et nommer un exemple.

A

Instrument dont la qualité des mesures a été évaluée
Exemple : SF-36 = évaluation de la qualité de vie (à utiliser tel quel donc aucune modification possible)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Quels sont les avantages et les désavantages de l’usage d’un questionnaire validé ?

A

Avantages : économie de temps et d’argent, permet de comparer les résultats avec d’autres populations à d’autres moments, crédible
Désavantage : plus ou moins adapté à une étude précise, évaluation des propriétés psychométriques incomplète / moins pertinente pour une étude précise, aspects pratiques (ex : langue) ne conviennent pas toujours

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Selon quoi se fait la sélection d’un instrument de mesure ?

A

But (objectif primaire ou secondaire)
Hypothèse (concept et domaines)
Ressources (temps, coût, personnel)
Population (symptômes / incapacités, âge, habileté cognitive, ethnicité)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Quelles sont les 3 propriétés psychométriques d’un instrument ?

A

Fiabilité, validité, capacité de détecter des changements dans le temps

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Qu’est-ce que la fiabilité ?

A

Capacité de mesurer un concept de manière reproductible et logique
Indique à quel point les résultats sont précis
Plus un instrument est fiable, plus les résultats sont similaires lorsque les mesures sont répétées

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Quels sont les 3 types de fiabilité ?

A
  1. Fiabilité du test-retest
  2. Cohérence interitems
  3. Fiabilité intercorrecteurs
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Qu’est-ce que la fiabilité du test-retest ?

A

Habileté d’un test à reproduire les mêmes résultats lorsque réadministré, dans des conditions similaires, aux mêmes sujets
Attention : intervalle entre le test et le retest ne doit pas être trop court (surestimation due à la mémoire) ni trop long (ce que l’on mesure peut avoir changé)
Devis expérimental : administration du même instrument aux mêmes participants à deux occasions différentes

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Quels sont les tests statistiques pour la fiabilité du test-retest ?

A
  1. Coefficient de corrélation de Pearson ou de Spearman
  2. Coefficient de corrélation intraclasse
  3. Différence moyenne entre le test et le retest
  4. Coefficient de concordance Kappa
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Fiabilité du test-retest : coefficient de Pearson ou de Spearman ?

A

Indique le niveau de correspondance entre les résultats obtenus au test et au retest
Coefficient de 1 = correspondance parfaite
Coefficient de 0 = pas de correspondance
TEST INADÉQUAT car ne détecte pas les différences systématiques (pas causées par le hasard) et dépend de la variabilité des résultats

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Fiabilité du test-retest : coefficient de corrélation intraclasse ?

A

Indique la proportion de la variance totale qui est attribuable à des variances réelles entre les répondants (autre que dû au test-retest et aux erreurs de mesure)
CIC de 1 = 100% de la variance attribuable aux variances réelles
CIC de 0 = 0% de la variance attribuable aux variances réelles
Seuil d’acceptabilité de 0.7 au niveau des groupes et de 0.9 au niveau individuel
TEST ADÉQUAT car sensible à la variabilité (coefficient de Pearson = CIC si absence de différences systématiques)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Fiabilité du test-retest : comparaison des scores moyens obtenus au test et au retest ?

A

Si aucune différence entre le résultat moyen obtenu au test et au retest alors le test est fiable
TEST INADÉQUAT car différences de valeurs peuvent passer inapercues si elles s’annulent entre elles

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Fiabilité du test-retest : coefficient Kappa ?

A

Indique le degré de correspondance entre le test et le retest lorsque les mesures sont faites sur une échelle nominale (kappa) ou ordinale (kappa pondéré)
Tient compte de la proportion observée et attendue, donc du hasard
K < 0.4 : concordance faible
0.4 - 0.6 : concordance modérée
0.61 - 0.8 : concordance élevée
K > 0.8 : concordance presque parfaite
TEST ADÉQUAT car tient compte du hasard

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Qu’est-ce que la cohérence interitems ?

A

Degré de corrélation entre les différents items / questions d’un test mesurant le même domaine
Plus la corrélation entre les items est grand, plus la fiabilité est élevée
Devis expérimental : administration du test à un groupe de patients à une seule occasion

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Quels sont les 2 tests statistiques pour la cohérence interitems ?

A
  1. Formule de Kruder-Richardson : moyenne des coefficients de bissection, s’applique à des variables catégoriques
  2. Coefficient alpha de Cronbach : moyenne des coefficients de bissection, s’applique à des variables continues
    Bissection = questionnaire séparé en deux parties puis évaluation de la corrélation entre les résultats de chacune des parties
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Qu’est-ce que la fiabilité intercorrecteurs ?

A

Mesure de concordance entre les mesures obtenues par différents évaluateurs
Devis expérimental : différents évaluateurs évaluent un même objet puis mesure du degré de corrélation entre les résultats des différents évaluateurs

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Quels sont les 2 tests statistiques pour la fiabilité intercorrecteurs ?

A
  1. Coefficient kappa (variables catégoriques)
  2. Coefficient intraclasse (variables continues)
17
Q

Vrai ou faux ? Moins un test est fiable, plus le nombre de sujets requis pour détecter une différence statistiquement significative est élevé

A

Vrai

18
Q

Qu’est-ce que la validité ?

A

Capacité d’un test à mesurer ce qu’il est censé mesurer
Indique à quel point les résultats obtenus sont exacts

19
Q

Quels sont les 3 types de validité ?

A
  1. Validité de contenu
  2. Validité de critère
  3. Validité conceptuelle
20
Q

Qu’est-ce que la validité de contenu ?

A

Tous les aspects importants d’un domaine sont mesurés et les items sont formulés correctement

21
Q

Qu’est-ce que la validité de critère ?

A

Administration du test et du test étalon (gold standard) en même temps (validité concourante) ou à un intervalle différent (validité prédictive) afin de déterminer si le test peut prédire les résultats du test étalon
Représente le degré d’efficacité du test

22
Q

Quels sont les 7 tests statistiques pour la validité de critère ?

A

Variables continues : coefficient intraclasse, modèle multivarié
Variables catégoriques : sensibilité, spécificité, VPP, VPN, courbe ROC

23
Q

Différencier la sensibilité, la spécificité, la valeur prédictive positive et la valeur prédictive négative.

A

Sensibilité = probabilité d’identifier correctement les personnes malades = VP / (VP + FN)
Spécificité = probabilité d’identifier correctement les personnes non malades = VN / (VN + FP)
VPP = probabilité qu’une personne ayant un test positif ait la maladie = VP / (VP + FP)
VPN = probabilité qu’une personne ayant un test négatif n’ait pas la maladie = VN / (VN + FN)

24
Q

Quelle est la relation entre la sensibilité et la spécificité ?

A

Si la spécificité augmente alors la sensibilité diminue
Courbe ROC = sensibilité vs 1 - spécificité
Sensibilité > spécificité pour des maladies sérieuses
Spécificité > sensibilité pour le dépistage de facteurs de risque

25
Q

Que se passe-t-il lorsque la prévalence de la maladie augmente ?

A

VPP augmente
VPN diminue
Sensibilité et spécificité constantes

26
Q

Qu’est-ce que la validité conceptuelle ?

A

Degré de certitude quant à l’habileté d’un test de mesurer le concept qu’il est censé mesurer
Validité convergente = le test produit des résultats similaires à ceux d’un autre test mesurant un concept similaire
Validité discriminante = le test produit des résultats différents de ceux d’un autre test mesurant un concept différent

27
Q

Qu’est-ce que la responsiveness ?

A

Capacité de détecter des changements dans le temps même si ces changements sont de faible ampleur
Devis expérimental : étude prospective mesurant l’évolution des patients durant une période de changement (ex : pré et post Tx) ou étude prospective comparative (ex : 2 groupes)

28
Q

Comment peut-on améliorer la responsiveness ?

A
  1. Augmenter le nombre de catégories de réponses
  2. Présenter les réponses antérieures
  3. Utiliser une question de transition