Qualité d'un instrument de mesure Flashcards

1
Q

Questionnaire validé

avantages (3)

A
  • économie tenps et $
  • permet de comparer nos résultats avec ceux obtenus dans d’autres pop. à d’autres moments
  • Crédibilté
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Questionnaire validé

Désavantages (3)

A
  • +/- adapté à notre étude
  • évaluation des propriétés psychométriques est incomplète ou +/- pertinente pr notre étude
  • aspects pratiques ne conviennent pas
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Documenter les 3 propriétés psychométriques

A
  • fiabilité : résultats précis ?
  • validité : résultats justes ? test mesure bien ce qu’il est censé mesurer ?
  • Responsiveness : est-ce que le test peut détecter des changements ds le temps associés à la progression de la maladie ou à une intervention/tx
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Définition

FIABILITÉ (3)

A

PRÉCISION

  • capacité de mesurer un objet/concept de façon reproductible et logique
  • indique ds quelle mesure les résultats obtenus sont précis
    • un nstrument est précis/fiable, plus il produit de scores similaires lorsque les mesures sont répétées dans des conditions similaires aux mm sujets
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

3 types de fiabilité

A
  • test-retest
  • cohérece interitems
  • fiabilité intercorrecteurs
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Fiabilité test-retest

définition

A

Habileté d’un test à reproduire les mêmes résultats lorsque réadministré, ds des conditions similaires aux mêmes sujets

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Fiabilité du test-retest

devis expérimental (2)

A
  • intervalle entre test et retest : trop court : surestimation mémoire; intervalle long : ce qu’on mesure peut avoir changé
  • conditions d’admin : environnement, consignes et limite de temps
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Fiabilité du test-retest

tests statistiques (4)

A
  • coefficient de corrélation Pearson
  • Coefficient de corrélation intraclasse
  • différence moyenne entre test et retest
  • coeffiencet de concordance : kappa
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Pearson (3)
1= correspondance parfaite
0 = pas de correspondance

trash

A
  • ne détecte pas les différences systématques entre le test-retest
  • dépend de la variabilité ou étendue des résultats
  • pour des mesures obtenues sur une échelle d’intervalle ou de ratio

erreur systématique exemple : test#1 et test#2 ou tout le monde a augmenté de 20% => dans les 2 cas, r=1.

plus on a de pts, plus on a de chances d’avoir une corrélation qui suit la moyenne

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

CIC
définition

sensible à ?

A

indique la proportion de la variance totale qui est attribuable à des différences réelles entre les répondants

… à la variabilité/étendue des résultats

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

CIC calcul

A

= Variance entre les participants / variance totale = vraie variance / variance totale

variance totale : variance entre répondants + variance entre test/retest + variance due aux erreurs de mesures

vraie variance = variance entre les répondants

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

CIC résultats

A

cic =1 : 100% de la variance est attribuable à des différences réelles , 0 erreur de mesure, précision parfaite

cic = 0 , 0 % de la variance est attribuable à des différences réelles

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Quelle situation il n’y a pas de différence systématique entre test/retest ?

A

qd pearson et cic son équivalents

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Interprétation du CIC

A

> =0.7 : utilisation au niveau des groupes : (comparer 2 grps)

> =0.9 : utilisation au niveau individuel :
(échelle mesure de douleur pr décider si on augmente la dose d’analgésie)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Fiabilité du test-retest

comparaison des scores moyens

définition

trash

A

si aucune différence entre score moyen obtenu au test et au retest => test est fiable

problème : grandes différences entre résultats peuvent être inaperçues si sont dans le sens inverse

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Fiabilité
Coefficient KAPPA

définition

A

Indique le degré de correspondance entre le testretest lorsque les mesures sont faites sur

kappa : échelle nominale

kappa pondérée : échelle ordinale à plus de 2 niveaux

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

coefficient kappa:

calcul

A

K = (prop.obs-prop. attendue) / (1-prop.attendue)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Interprétation kappa

A

<0.4 : concordance faible

  1. 4-0.6 : concordance modérée
  2. 61-0.8 : concordance élevée

> 0.8 : concordance très élevée : presque parfaite

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

2e type de fiabilité :

Cohérence interitems
définition

A

homogénéité des items ou le degré de corrélation entre les différents items d’un test mesurant le mm domaine

le test doit être formé de plusieurs items qui mesurent un mm concept

plus la corrélation entre les items sera grande plus la fiabilité sera élevée

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Cohérence interitems

Devis expérimental

A

administre le test à un grp de participants à une seule occasion

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

2e type de fiabilité :

Cohérence interitems

Tests statistiques
Bissection/split half

A
  • questionnaire est séparé en 2 parties égales et on évalue la corrélation entre les résultats de chacune des 2 parties
  • relativement peu utilisé
22
Q

2e type de fiabilité :

Cohérence interitems
Tests statistiques
Formule de kruder -richardson

A
  • représente la moyenne de tous les coefficients de bissection
  • s’applique à des MESURES NOMINALES
23
Q

2e type de fiabilité :

Cohérence interitems
Tests statistiques

coefficient alpha de cronbach

A
  • représente la moyenne de tous les coefficients de bissection
  • s’applique à des mesures obtenues sur une ÉCHELLE ORDINALE
24
Q

3e type de fiabilité :

fiabilité intercorrecteurs

A

mesure de concordance entre les mesures obtenues par différents évaluateurs

25
3e type de fiabilité : | devis expériemetnal
on demande à des différents évaluateurs d'évaluer un mm objet et on mesure le de gré de corrélation entre les résultats des différents évaluateurs
26
3e type de fiabilité : Tests statistiques
idem au test-retest
27
Validité définition :
- capcité d'un test de mesurer ce qu'il est censé mesurer - Indique dans quelle mesure les résultats obtenus sont exacts - processus long et complexe
28
3 types de validité :
1. Validité de contenu 2. validité de critère 3. Validité conceptuelle
29
Validité de contenu 2 questions
Est-ce que tous les aspects importants d'un domaine sont mesurés ? Est-ce que les items sont formulés correctement ?
30
Validité de contenu Définitions (3)
- Déterminer si le contenu d'un test est un échantillon représentatif du domaine mesuré - processus subjectif basé sur le jugement d'experts, de pts et de cliniciens - il est important de savoir comment un questionnaire a été développé
31
Validité de critère représente le degré d'efficacité d'un test
ESt-ce que le test peut prédire les résultats d'un test étalon ou d'une mesure objective obtenu au mm moment (validité concourante) ou plus tard ds le temps (validité prédictive)
32
validité de critère : concourante : prédictive :admin test au temps 0 et test étalon/mesure obj. au temps 1
on compare les résultats d'un test d'intelligence conventionnel vs un test d'intelligence abrégé on évalue si les résultats d'un test d'intelligence à l'admission ds un programme peuvent prédire les succès académques
33
Validité de critère Tests statistiques mesures ordinales, d'intervalle ou de ratio
- corrélation de pearson - coefficient intraclasse - modèle multivarié
34
Validité de critère Sensibilité : calcul
VP / VP + FN capacité d'un test de détecter la maladie chez des personnes malades -probabilité d'identifier correctement les personnes malades
35
Validité de critère spécificité calcul
VN/FP + VN capacité d'un test de ne pas détecter la maladie chez des personnes qui ne sont pas malades -probabilité d'identifier correctement les personnes non malades
36
Valeur prédictive positive calcul
VPP = VP / VP + FP PRobabilité qu'une personne ayant un test positif ait la maladie
37
Valeur prédictive négative calcul
VPN = VN/FN +VN Probabilité qu'une personne ayant un test négatif n'ait pas la maladie
38
Quelle est la relation entre la sensibilité et la spécificité ? remarque : qd on augmente la spécificité , la sensibilité diminue
spécificité de 75% à gauche du quota de 3 sensibilité de 85% l'autre courbe à droite du quota d 3 => mcv
39
Validité de critère Le choix de la valeur limite dépend de l'objectif du test : maladie très sérieuse dépistage d'un facteur de risque
- sensibilité | - spécificité
40
Quelle est la relation entre la sensibilité/spécificité et VPP et VPN
grand carré avec points noirs et blancs
41
Est-ce qu'une sensbilité très élevée est tjs bonne ?
tous les résultats sont positifs sensibilité = 100% oui on a détecté tous les malades spécificté : 0%, on n'a pas réussi à détecter les non malades
42
Que se passe-t-il lorsque la prévalence de la maladie change ?
la prévalence n'affecte pas la spécificité et la sensibilité de la maladie VPP et VPN sont affectées par la prévalence de la maladie
43
Si la prévalence diminue VPP? VPN ?
VPP diminue | VPN ^^^^
44
si prévalence augmente ?
VPP ^^^ | vpn diminue
45
Validité conceptuelle Définition (2)
- degré de certitude quant à l'habileté d'un test de mesurer le concept qu'il est censé mesurer - plusieurs études sont nécessaires pr établir la validité conceptuelle d'un test
46
3 types de validité conceptuelle convergente discriminante autre
- est-ce que le test produit des résultats similaires à ceux d'un autre test mesurant un concept similaire ? - est ce que le test produit des résultats différents de ceux d'un autre test mesurant un concept différent ? - est-ce que le test produit des résults qui sont intuitivement raisonnables ?
47
Validité convergente :
on administre 2 tests qui mesurent des concepts similaires à un mm grp de sujets et on évalue la corrélation entre les résultats des 2 tests corrélation forte = validité convergente est grande
48
Validité discriminante
on administre 2 tests qui mesurent des concept différent à un mm grp de sujet => on évalue la corrélation entre les résultats de ces 2 tests. corrélation faible = plus la validité discrimante est grande
49
Validité autre
on administre le test à différents grps de pts => on check si les différences observées entre les groupes sont conformes aux différences
50
Capacité de détecter des changemetns dans le temps définition :
-Habileté d'un test à détecter des changements importants qui se produisent dans le temps mm si ces changement sont defaible amplitude =>détecter un changement de la qualité de vie des patents avant et après un tx -détecter des changements des habiletés fct après un AVC
51
Capacité de détecter des changements dans le temps devis expérimental (2 études)
- étude prospective mesurant l'évolution des pts durant une période de changement - étude prospective comparative : => compare 2 grps de pts recevant des traitements différents
52
3 façons comment améliorer la capacité de détecter des changements dans le temps (3)
- Augmente le nbr de catégories de réponses. excellente, très bonne, bonne, passable - Présente les réponses antérieures - Utilise une question de transition