LA VALIDITÉ Flashcards

1
Q

Qu’est-ce que la validité ?

A

C’est le degré avec lequel un test mesure ce qu’il prétend mesurer uniquement.

Elle ne peut jamais être parfaite.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Pourquoi il est nécessaire de procéder au processus de validation ?

A

Parce que plusieurs instruments de mesure ne permettent pas d’observer directement le concept qu’on cherche à étudier.

EXEMPLE

Concept de la dépression : s’assurer que l’instrument se rapporte uniquement à la dépression, et non pas à la tristesse, la solitude, l’ennui, etc. (Dans la définition on retrouve ces éléments)

Concept de l’agressivité : s’assurer que l’instrument se rapporte uniquement à l’agressivité et non à la frustration, à la colère, à l’impulsivité, à la dangerosité, etc.

*D’où l’importance de la définition de ce que je mesure

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Vrai ou faux : la validité ne concerne pas l’instrument de même lui-même, mais plutôt l’interprétation des résultats.

A

Vrai.

EXEMPLE

Dépressions vs. Déficit cognitif -> même résultat, mais raisons différentes.

Dépression = pas l’énergie, pas la motivation
Déficit cognitif = pas la capacité

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Le processus de validation est une façon de déterminer quel élément ?

A

Le niveau de confiance que l’on peut avoir par rapport aux inférences qu’on fait en s’appuyant sur les résultats obtenus à un test.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

La validité n’est pas inhérente à l’instrument lui-même, pourquoi ?

A

Parce que la validité est inhérente au contexte de son utilisation (un test n’est pas valide en lui même)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Pourquoi on ne peut pas dire qu’un test est valide ?

A

La validité d’un instrument est directement et uniquement lié au contexte dans lequel le processus de validation a été effectué.

On peut seulement dire qu’on a démontré qu’il est valide avec telle clientèle et sous telles conditions.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

L’évaluation de la validité d’un test est ________

A

Un processus continu d’accumulation de preuves ou d’évidences (normalement quantitatives)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Vrai ou faux : Il faut considérer le nom d’un test comme un indice précis de ce qu’il mesure ?

A

Faux, il faut éviter.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Vrai ou faux : la validité est une affaire de tout ou rien (valide ou pas valide).

A

Faux, c’est une question de degré de validité. (Donne un bon indice)

Un test n’est jamais valide à 100%.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Selon le ‘‘Standards for Educational and Psychological Testing’’ il existe 3 grandes catégories de techniques destinées à recueillir des preuves de validité, lesquelles ?

A

1) Validation de contenu (contenu vs. apparente)
2) Validation pragmatique (critériée, prédictive)
3) Validation de construit (conceptuelle, théorique)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Qu’est-ce que la validité de contenu ?

A

Elle désigne l’aptitude d’un instrument à appréhender les aspects de contenu pour lesquels il a été conçu et ceux-là seulement.

EX :
Dans une épreuve de connaissance ayant pour but de vérifier la maîtrise dans tel domaine d’apprentissage, il faut s’assurer que les contenues des items utilisés contribuent tous à évaluer un aspect significatif (ou dimension) de ce domaine, qu’ils forment un échantillon important de tous les items (qui représentent les contenus).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Vrai ou faux : dans la validité de contenu, il ne faut pas veiller à ce que les contenus de ces items ne fassent pas appel à des caractéristiques que l’on souhaite explicitement ne pas solliciter.

A

Faux, il faut le faire.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Quel type de validité on examine lors de la construction de l’instrument de mesure (choix des items) ?

A

La validation de contenu.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Par quelle méthode la validation de contenu est estimée généralement ?

A

La méthode des juges experts.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Qui sont les juges experts et quel est leur rôle ?

A

Ce sont des personnes qui ont une bonne connaissance du concept à mesurer ou qui on une expertise dans l’élaboration d’instrument de mesure.

Leur rôle est de se prononcer sur le contenu des énoncés, soit sur leur clarté, leur représentativité, l’exhaustivité, dimensionnalité et la pertinence de l’outil dans son ensemble.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Qu’est ce que la validation pragmatique ?

A

Elle désigne l’aptitude d’un instrument (conçu par exemple dans une perspective d’évaluation pronostique) à prédire (de manière aussi précise que possible) le niveau de réussite, d’adaptation, d’intégration, etc., d’un ensemble d’individus par rapport à des situations qu’il rencontreront (ou pourraient rencontrer) ultérieurement.

EX: l’évaluation du QI et du succès professionnel.

*Mesure de validité intéressante mais lourde

17
Q

Quelle est la procédure la plus simple pour évaluer la validité pragmatique d’un instrument ?

A

Elle à étudier la corrélation (ou comparaison de moyenne, mais moins robuste) entre les résultats obtenus par un même groupe d’individus à deux moments différents.

EX: au début et à la fin d’un programme de formation ou d’un cycle d’études

*Pas la plus facile par contre, elle prend beaucoup de temps et sur le plan de l’application plusieurs difficultés peuvent parfois se présenter.

18
Q

Quel est l’objectif d’une méthode issue de l’approche corrélationnelle ou analyse de régression ?

A

Prédire la situation future d’un individu sur la base d’éléments qui caractérisent sa situation présente.

19
Q

Qu’est-ce que signifie précisément d’évaluer la validation pragmatique d’un instrument ?

A

Elle détermine dans quelle mesure les prédicteurs retenus permettent de fournir une estimation valide des résultats qui seront obtenus ultérieurement ( % de variance prédite ou expliquée)

20
Q

Il existe 2 types de validité pragmatiques, quels sont-ils ?

A

1) Validité concomitante / concourante
On détermine le degré de corrélation entre les scores obtenus au test et les scores obtenus à une mesure de référence (administration du test et de la mesure du critère pratiquement en même temps)

*Semblable à la fidélité parallèle

2) Validité prédictive
On évalue la qualité des prédictions faites sur la base des résultats obtenus au test et une réalité future (administration du test et du critère séparée d’un laps de temps important, le test étant administré en premier)

EX: profils professionnels, SAT

21
Q

Qu’est-ce que la validité de construit ?

A

Elle se définit comme étant la justesse avec laquelle un instrument de mesure permet d’obtenir des résultats conformes aux construits définis par son contexte théorique ; elle indique dans quelle mesure les énoncés d’un instrument sont cohérents avec la théorie et les concepts, définis de façon opérationnelle.

Opérationnelle = à tous les jours, 5 fois, 10 fois (on peut mesurer)

22
Q

Dans de nombreuses situations en psychologie, on cherche à étudier des entités hypothétiques ou construits, comment se définissent-ils ?

A

Ils résultent d’une élaboration psycho-sociale et théorique et ils ne sont pas directement accessibles à l’observation et à la mesure. (On mesure des indicateurs/critères pour identifier).

EX: intelligence, aptitudes, personnalité, connaissances, compétences, capacités et habiletés diverses, motivation, intérêt, aptitudes.

23
Q

Vrai ou faux : Les construits sont considérés comme des mini-théories qui expliquent la relation entre différents concepts, que ce soient des comportements ou attitudes.

A

Vrai

24
Q

Les construits sont aussi appelés facteurs (dimensions, composantes), qu’est-ce qu’ils expliquent ?

A

Ils viennent expliquer les corrélations qu’on observe entre les différentes variables.

25
Q

Quelle est la façon la plus usuelle de calculer la validité de construit ?

A

Avoir recours une méthode issue de l’approche corrélationnelle (L’analyse multitrait-multiméthode et l’analyse factorielle)

26
Q

Quel est l’objectif de l’approche corrélationnelle (analyse multitrait-multiméthode et l’analyse factorielle) ?

A

Démontrer la pertinence (relation, association) d’un item par rapport à sa propre dimensions théorique (AF).

27
Q

Qu’est-ce que l’analyse multitrait-multiméthode ?

A

Matrice de corrélation entre les résultats obtenus à différents tests.

Elle illustre à la fois la validité convergente et la validité discriminante.

On s’attend à ce que la plus forte corrélation soit trouvé pour un même trait-même méthode et la plus petite corrélation pour traits différentes-méthode différente

28
Q

Quelles sont les 2 limites de l’analyse multitrait-multiméthode ?

A

1) Elle demande beaucoup de temps de la part des sujets (faire plusieurs tests)
2) Difficile à trouver des tests qui évaluent les mêmes traits

29
Q

Vrai ou faux : Il n’y a pas toujours 2 temps à la méthode multitrait-multiméthode qui sont représentés par les axes des abscisses (x) et des ordonnées (y).

A

Faux, il y a toujours 2 temps.

VOIR IMAGE *

30
Q

Quel est le rationnel de l’analyse factorielle ?

A

C’est de projeter 3 (ou plus) variables qui sont fortement corrélées entre elles sur une nouvelle variable qui retient l’essentiel de la variance commune.

Cette nouvelle variable représente le facteur.

(1) Combien de facteurs l’analyse nous propose ?
(2) Quel est le pourcentage d’explication de la variance ?
(3) Est-ce que tous les items sont valides par la biais de la validation de construit ou y a-t-il des items nécessitant une reformulation ?
* Total de la variance expliquée par 3 facteurs.

31
Q

Vrai ou faux : Le résultat du processus de validation de construit mène un indice statistique unique.

A

Faux, il mène à plusieurs résultats qui doivent être interprétés en lien avec les éléments théoriques sur lesquels le test se base.

32
Q

Vrai ou faux : la validité de construit d’un instrument sera plus facilement mesurable si la théorie utilisée est implicite et bien définie.

A

Faux, si elle est explicite et bien définie.

33
Q

Quels sont les 2 types de validité de construit ?

A

1) Validité convergente
Vérifier à quel point est-ce que l’échelle est reliée à des variables et des mesures du même construit. L’outil devrait corréler avec les autres outils qui évaluent des construits identiques ou très similaires.

EX: tests de dépression devraient avoir sensiblement les mêmes résultats

2) Validité discriminante
Vérifier à quel point l’échelle s’écarte de variables et de mesures de construits différents. L’outil ne devrait pas corréler avec des construits indépendants de celui qu’il évalue. (Mesure pas la même chose)

EX: anxiété devrait pas avoir une corrélation avec déficits cognitifs

34
Q

Est-ce qu’on peut affirmer qu’un test est valide en soi ?

A

Non, c’est l’interprétation qu’on fait du test qui est valide,

35
Q

Si un test est validé l’est-il de façon permanente ?

A

Non, l’accumulation d’indices de validité qui le rend valide.

36
Q

Une psychologue remplaçante peut-elle compléter l’évaluation ?

A

Non, il doit avoir une rencontre clinique avec opinion clinique.
Peut l’intégrer, mais en distinguant qui a fait quoi en nommant l’interprétation des résultats.

37
Q

Une psychologue remplaçante peut-elle achever le rapport ?

A

Quand l’évaluation est complétée, il peut avoir une rencontre clinique et distinguer le travail de chaque personne.

38
Q

Une entrevue de bilan peut-elle être faite par une psychologue remplaçante si le rapport est complétée ?

A

Non.