Intégration multimodale Flashcards
Expliquer l’étude de Baenziger, Grandjean & Scherer 2009
C’est une étude des différences interindividuelles entre perception émotionnelle et modalités
Les compétences émotionnelles des individus sont caractérisées par un mécanisme émotionnel optimal dans deux domaines :
-production de l’émotion : mouvements corporels et comportements appropriés dans le sens de réponses adaptatives lors d’un événement pertinent, qui permettent à l’organisme de gérer les résultats/conséquences.
-perception de l’émotion : habilité à percevoir d’une façon juste et interpréter les états émotionnels des autres lors des interactions sociales.
La plupart des études se concentrent sur une seule modalité : le visage ou la voix généralement.
Mis à part le Profile of Nonverbal sensitivity (PONS), il n’y a aucune instriment qui fait des enregistrements simultanés de l’expression dynamiques de plusieurs stimuli (visage, voix et corps).
Dans cet article ils introduisent un nouvel instrument d’évaluation de la dynamique faciale, vocale et corporelle : the Multimodal Emotion Recognition Test (MERT).
Le but de l’étude était de se concentrer sur la compétence innée de reconnaitre et interpréter de nombreux patterns d’expressions prototypiques de certaines émotions de base partagées dans les différentes cultures et même à un niveau universel. On suppose cette compétence de reconnaissance est utilisée quand les individus ont dans l’intérêt de montrer certaines émotions pour des raisons stratégiques.
On suppose aussi que ces compétences jouent un rôle plus complexe d’inférence des émotions lors des interactions face à face.
L’instrument MERT a été développé sur la base de ses considérations. Il inclut 10 émotions représentées par des acteurs (anxiété, peur panique, joie, allégresse, colère froide, rage, tristesse, désespoir, dégout et mépris). Ces émotions font partie des familles d’émotions (qui différents au niveau d’arousal/intensité).
Chaque émotion est représentées sur 3 films et présentées de 4 manières : seulement vidéos (indices faciaux), seulement audio (indices vocaux), audio/vidéo (intégration entre indices vocaux et indices faciaux) et les photos (des films).
Participants : 72 participants, 63 femmes et 9 hommes avec une moyenne d’âge de 22 ans.
Déroulement : les participants devaient compléter 3 sessions différentes.
-dans la 1ère ils faisaient un MERT, et une suite de questionnaires qui incluait les mesures de personnalité, état d’anxiété, etc.
-dans la 2ème : ils devaient compléter les autres instruments non verbaux (PONS, ERI, DANVA, JACFEE). Puis ils devaient repasser MERT 6 semaines après la 1ère fois.
On a aussi clusterisé les gens selon leurs résultats selon les modalités de présentation.
Résultats :
Le score de reconnaissance de famille d’émotions, qui demandait une discrimination très générale, est beaucoup plus élevé que le score de reconnaissance des émotions isolées.
-les modalités visuelles (vidéo) avec ou sans voix étaient plus reconnues que les images statiques ou les voix.
-plus les émotions étaient intenses mieux elles étaient reconnues.
-la reconnaissance varie selon les émotions.
-dégoût : baisse de corrélation quand on compare l’audio avec les autres. Il y a une augmentation de la corrélation de modalité visuelle ; mais baisse pour la rage froide quand c’est statistique (je crois) pareil pour la joie intense.
Le groupe 2 a eu les meilleures performances (audio et photo moins précises au niveau des résultats).
Groupe 1 avait une bonne performance avec les audio/video et vidéos mais il y a une différence entre les deux groupes au niveau de l’audio et les photos.
Le groupe 3 avait une performance inférieure généralement par rapport aux deux autres groupes mais montre les résultats similaires au groupe 2.