Cours 9: perception du langage oral Flashcards

1
Q

Comment la parole est produite?

A

La parole est produite par l’air qui est expiré des poumons et qui est transformé en une onde sonore présentant des caractéristiques particulières qui sont déterminées par l’action (articulation) d’un ensemble de structures dans le tractus vocal.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

La production de la parole repose sur trois composantes fondamentales : lesquelles?

A

Respiration
L’air expiré des poumons constitue la base nécessaire pour produire un son.
[système respiratoire impliqué (poumons, trachée, larynx)]

Phonation
Une fois l’air expulsé, il passe par les cordes vocales situées dans le larynx, ce qui produit une vibration sonore.
Cette vibration est essentielle pour générer des sons de base qui seront ensuite modulés.
[cordes vocales]

Articulation
L’articulation est assurée par un ensemble de structures dans le tractus vocal.
La langue, les lèvres, le palais et le pharynx modifient l’onde sonore pour créer des phonèmes distincts.
Ces ajustements permettent de former des mots intelligibles et facilitent la communication.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

La parole étant une onde sonore, elle est perçue principalement via l’audition.
La modalité auditive est donc le canal principal de la perception du langage.
Toutefois, d’autres indices peuvent appuyer cette perception, notamment chez les personnes malentendantes. Nomme un de ces indices

A

(comme la lecture labiale)

Ainsi, la production et la perception du langage forment un continuum où l’air expiré est progressivement transformé en un message compréhensible.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

La perception de la parole implique que l’onde sonore est captée par notre système auditif. Explique les deux caractéristiques importantes de l’onde sonore

A

l’amplitude et la fréquence.

Amplitude
Force des variations de la pression de l’air produite par le son.
Une onde sonore correspond à des variations rapides de la pression de l’air créées par un objet en vibration. Ces variations se déplacent dans l’air sous forme d’ondes jusqu’à atteindre l’oreille.
L’amplitude représente l’intensité de ces variations. Une onde avec une plus grande amplitude produira un son perçu comme plus fort.

Fréquence
Vitesse des variations de la pression de l’air. Celle-ci est mesurée en nombre de cycles par seconde (Hertz; Hz). 1Hz = 1 cycle/seconde.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Quel est le range de fréquences audibles?

A

Les fréquences audibles vont de 20 Hz à 20 000 Hz.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Explique la loi acoustique de Ohm

A

Loi acoustique de Ohm: L’oreille analyse les sons en les décomposant en composantes sinusoïdales, comme l’analyse de Fourier.

Cela signifie que lorsque nous entendons un son complexe (par ex. une voix ou un instrument), notre cerveau le décompose en fréquences élémentaires pour mieux l’analyser

L’image présente des ondes sinusoïdales pures, mais dans la réalité, les sons du quotidien sont composés de multiples fréquences superposées.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Comment percevons nous une basse vs haute fréquence?

A

Lien entre fréquence et perception de la hauteur sonore

Une fréquence plus basse (ex. 100 Hz) est perçue comme un son grave.

Une fréquence plus élevée (ex. 7000 Hz) est perçue comme un son aigu.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Avec l’âge et l’exposition au bruit (écouteurs, environnement bruyant), quelle capacité auditive change?

A

percevoir les hautes fréquences diminue.

Les jeunes adultes d’aujourd’hui ont souvent une audition plus dégradée qu’autrefois en raison du bruit ambiant moderne.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Que sont les acouphènes?

A

Les acouphènes sont des sons perçus sans stimulation externe, souvent décrits comme des sifflements aigus.

Cependant, les acouphènes ne sont pas toujours des sons aigus ; certaines personnes les perçoivent aussi sous forme de bourdonnements plus graves.

On ne peut pas entendre l’acouphène d’une autre personne, car il s’agit d’une perception subjective, mais on peut recréer un son similaire en ajustant une fréquence sonore.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Explique la segmentation de la parole

A

Une particularité de l’onde sonore qu’est la parole est qu’elle peut être segmentée en syllabes (e.g. per-cep-tion), qui elles-mêmes sont constituées de phonèmes (déf.: le plus petit segment de la parole qui, s’il est changé, altère le sens d’un mot).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Quelles sont les 3 catégories de phonèmes

A

Les catégories de phonèmes

Voyelles : Sons produits sans obstruction du flux d’air (ex. /a/, /e/, /i/).

Consonnes : Sons nécessitant une obstruction partielle ou complète du flux d’air (ex. /p/, /t/, /k/).

Semi-consonnes : Sons intermédiaires entre les voyelles et les consonnes, qui varient au cours de leur prononciation (ex. /j/ comme dans “yeux”, /w/ comme dans “oui”).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Quelle est la différence entre les langues?

A

Les langues ne possèdent pas toutes les mêmes phonèmes.Cette variation influence la perception auditive : un locuteur non natif peut avoir du mal à distinguer ou à produire des sons absents dans sa langue maternelle

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Qu’est-ce qu’un phonème?
[comment ils diffèrent les uns des autres?]
[3 attributs]

A

Chaque phonème est constitué d’une combinaison unique d’attributs distinctifs caractérisant l’articulation impliquée pour produire ce son. Plus les attributs distinctifs de deux phonèmes sont similaires, plus ces deux phonèmes seront difficiles à discriminer.

Chaque phonème est défini par une combinaison unique d’attributs articulatoires qui déterminent la manière dont il est produit. Ces attributs incluent des paramètres comme :
Voisement (ex. /b/ vs. /p/)
Lieu d’articulation (ex. /t/ produit avec la langue contre les dents vs. /k/ produit à l’arrière du palais)
Mode d’articulation (ex. occlusives comme /p/ vs. fricatives comme /s/)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Qu’est-ce qu’une paire minimale?

A

Les paires minimales sont des mots qui se distinguent par un seul phonème (ex. “rat” vs. “chat”), ce qui les rend particulièrement sujets aux confusions.

Plus deux phonèmes partagent des attributs communs, plus ils seront difficiles à distinguer auditivement.

proximité articulatoire et les difficultés potentielles de perception.

une substitution d’un seul trait articulatoire peut modifier le sens d’un mot.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Comment les voyelles sont produites?

A

Les voyelles sont produites par une modification de la forme du tractus vocal qui en altère la fréquence de résonance, produisant ainsi des pics de fréquence sonore. Ces pics sont appelés les formants. Chaque voyelle est associée à une combinaison spécifique de formants.

La position de la langue et d’autres ajustements articulatoires modifient la répartition des formants.

Typiquement, trois formants principaux sont observables dans la parole, leur combinaison définissant la voyelle produite.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Les voyelles sont produites par une modification de la forme du tractus vocal, ce qui altère la fréquence de résonance et génère des pics de fréquence sonore appelés formants. Chaque voyelle possède une combinaison spécifique de formants, qui permet de la différencier des autres.

Quels sont les deux outils permettent d’analyser ces formants ?

A

Spectre de Fourier (image de gauche) :
Décompose un signal acoustique en ses différentes fréquences et leur amplitude.
Montre les formants comme des pics de fréquence, dont la position varie en fonction de la voyelle prononcée.

Exemple : la différence entre les voyelles /i/ et /u/ est visible par la variation de la position des formants.

Spectrogramme (image de droite) :
Représente l’évolution du spectre fréquentiel d’un son au fil du temps.
Permet d’observer comment les formants changent au cours de l’articulation d’un mot.

Exemple : pour le mot anglais “had”, les formants de la voyelle /æ/ sont visibles, ainsi que les transitions des consonnes environnantes (h et d).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Quelle est la relation entre la position de la langue et la fréquence des formants?

A

Les voyelles sont caractérisées par la fréquence de leurs formants, qui varient en fonction de la position de la langue dans la bouche. Deux formants principaux sont affectés par cette articulation :

F₁ (premier formant) :
Hauteur de la langue : Plus la langue est haute dans la bouche, plus F₁ est bas.
Ex. : La voyelle de boot (langue haute) a un
F₁ bas, tandis que bought (langue basse) a un F₁ élevé.

F₂ (deuxième formant) :
Position avant/arrière de la langue : Plus la langue est vers l’avant, plus F₂ est élevé.
Ex. : Beat (langue avancée) a un F₂ élevé, tandis que boot (langue reculée) a un F₂ bas.

La position de la langue influence directement les fréquences perçues par l’oreille.
Ces variations permettent de différencier les voyelles entre elles dans différentes langues.
D’autres facteurs articulatoires peuvent également jouer un rôle, notamment le rondissement des lèvres, qui modifie les formants.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Comment les consonnes sont prononcées?

A

Les consonnes, quant à elles, sont produites par une constriction ou une fermeture du tractus vocal. Au niveau de l’onde sonore de la parole, les consonnes sont associées aux transitions formantiques qui sont des variations des formants lors du passage entre un son consonantique et une voyelle.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Quelle est la différence entre des consonnes voisées vs non voisées?

A

Consonnes voisées : Les cordes vocales vibrent pendant toute la production de la consonne (ex. /b/, /d/, /g/). Les consonnes voisées (bah, dah, gah) montrent une continuité des vibrations des cordes vocales.

Consonnes non voisées : Les cordes vocales cessent de vibrer temporairement (ex. /p/, /t/, /k/). Les consonnes non voisées (pah, tah, kah) présentent un silence initial, marqué par une interruption des vibrations.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Qu’est-ce que le temps de voisement?

A

Temps de voisement (VOT - Voice Onset Time) : Délai entre la libération de la consonne et le début du voisement. Voisement = activation de la vibration des cordes vocales. Un VOT plus court correspond à une consonne voisée, tandis qu’un VOT plus long correspond à une consonne non voisée.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Quelle est l’importance des consonnes dans la perception du langage?

A

Les consonnes sont cruciales pour l’intelligibilité de la parole.

Certaines langues écrites omettent les voyelles et se basent uniquement sur les consonnes.

L’analyse des transitions formantiques permet de comprendre comment le cerveau distingue les différents sons du langage.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Le spectrogramme montre que l’onde sonore est…

A

un flux continu de variations de fréquence et d’intensité.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Explique la difficulté de la segmentation

A

Bien que nous puissions facilement segmenter la parole en phonèmes lorsque nous écoutons une langue familière, le stimulus sonore lui-même constitue un flot continu. Contrairement à l’écriture, la parole n’a pas de pauses claires entre les mots ou les phonèmes.Le spectrogramme montre que l’onde sonore est un flux continu de variations de fréquence et d’intensité.

Aucune marque explicite dans le signal acoustique n’indique où un phonème commence et où un autre se termine.
Certaines transitions formantiques peuvent couvrir plusieurs phonèmes, rendant leur distinction complexe.
Exemple : Dans la phrase “I owe you a yo-yo”, il n’y a pas de silence net entre les phonèmes, ce qui rend leur séparation difficile sur le plan acoustique.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Quel est le lien entre
segmentation et apprentissage des langues?

A

Pour une langue maternelle, le cerveau a appris à détecter les indices acoustiques permettant la segmentation automatique du flux de parole.

En revanche, une langue étrangère semble souvent indistincte et fluide, car nous ne possédons pas encore les repères nécessaires pour segmenter correctement les phonèmes. L’amélioration de la segmentation en langue étrangère nécessite une exposition prolongée et un entraînement perceptif.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
sur quoi repose la segmentation?
La segmentation est un prérequis fondamental à la compréhension de la parole. Elle repose sur des indices acoustiques (ex. transitions formantiques, variations d’intensité) et cognitifs (ex. connaissances lexicales et syntaxiques). La difficulté du problème de segmentation est multipliée par la variabilité dans la prononciation d’un phonème selon son contexte (coarticulation) et le locuteur (cf. hauteur de la voix, vitesse de prononciation et clarté de l’articulation)
26
Qu'est-ce que la coarticulation?
Effet de la coarticulation Un même phonème est prononcé différemment en fonction de son contexte phonétique. La coarticulation désigne l’influence des sons environnants sur l’articulation d’un phonème. Exemple : La prononciation du son /d/ varie selon qu’il est suivi de /a/, /u/ ou /i/, ce qui entraîne des différences dans les transitions formantiques (illustrées dans les spectrogrammes). Spectrogrammes des consonnes voisées ("bah", "dah", "gah", etc.) Chaque voyelle modifie les transitions formantiques de la consonne précédente. Ex. : Dans "dah", les formants suivent une trajectoire différente par rapport à "doo" ou "dee". Graphique des transitions formantiques Montre comment les formants changent de direction selon la voyelle qui suit la consonne.Ces variations compliquent la segmentation et la reconnaissance des phonèmes.
27
Nommes 3 autres sources de variabilité dans la perception de la parole?
Locuteur : La hauteur de la voix et le timbre varient d’un individu à l’autre. Vitesse de prononciation : Une parole rapide tend à réduire certaines distinctions phonétiques. Clarté d’articulation : Une diction précise (ex. journaliste) est plus intelligible qu’une élocution relâchée (ex. parole informelle). Impact sur la perception du langage Le cerveau doit compenser cette variabilité pour reconnaître un même phonème malgré les différences d’articulation. La familiarité avec le locuteur améliore la compréhension, car le cerveau s’adapte aux particularités de sa voix.
28
Quel est l'effet de la qualité de la prononciation? Différence entre parole soignée et parole conversationnelle
La qualité de la prononciation influence la clarté du signal acoustique et la perception de la parole. Une articulation claire et distincte facilite la segmentation des phonèmes. Une parole rapide et relâchée réduit la distinction entre les phonèmes, rendant leur identification plus difficile. prononcée lentement et distinctement, les mots et les phonèmes sont clairement segmentés. Les transitions formantiques sont bien visibles. Prononciation rapide et informelle = réduction des phonèmes, avec une fusion des sons. Les transitions sont moins marquées, rendant la segmentation plus complexe. Dans un contexte formel, une articulation soignée facilite la compréhension. En conversation courante, le cerveau doit compenser la réduction des phonèmes en s’appuyant sur le contexte et les attentes linguistiques. Cet effet explique pourquoi les accents, les variations de vitesse et de clarté d’élocution influencent la compréhension.
29
À travers toutes ces sources de variabilité, des chercheurs ont cherché à identifier des indices acoustiques invariants qui signalent certains phonèmes de manière fiable. Ceux-ci seraient le fondement de la constance perceptive des phonèmes dont fait preuve l’humain. Des outils importants dans cette recherche ont été quoi?
Spectre à court terme (image à gauche) Analyse de Fourier appliquée sur une brève fenêtre temporelle (ex. 26 ms). Permet d’observer les caractéristiques dominantes d’un phonème à un instant donné. Ex. : Pour la syllabe "ga", on observe un pic autour de 1500 Hz et un creux autour de 2500 Hz, qui pourraient servir d’indices acoustiques robustes. Spectre courant (image à droite) Séquence de spectres à court terme successifs, permettant d’observer l’évolution des indices acoustiques dans le temps. Représente une analyse plus dynamique du signal, utile pour comprendre les transitions phonétiques.
30
Malgré les variations dans la prononciation des phonèmes (coarticulation, locuteur, vitesse, articulation), notre cerveau parvient à reconnaître des phonèmes de manière fiable. Cette capacité repose sur quel concept?
sur la constance perceptive, qui permet d’identifier un même phonème malgré ses modifications acoustiques. [ indices acoustiques invariants]
31
Que sont les indices acoustiques invariants?
des caractéristiques récurrentes du signal qui signalent la présence d’un phonème. [participent à la constance perceptive].
32
Qu'est-ce qu'un spectre courant?
Le spectre courant est une séquence de spectres à court terme analysés à intervalles réguliers pour visualiser l’évolution du signal acoustique dans le temps. Chaque spectre est calculé sur une fenêtre de 5 ms et déplacé progressivement. Il permet de suivre les variations d’amplitude et de fréquence au fil du temps. Segmentation du signal acoustique : Permet d’identifier les points de transition entre les phonèmes. Discrimination des phonèmes : L’analyse des indices de voisement aide à différencier les consonnes voisées (/d/) des non voisées (/p/). Identification d’invariants perceptifs : Ces analyses permettent de trouver des caractéristiques acoustiques robustes qui signalent la présence d’un phonème malgré la variabilité de la parole.
33
Qu'est-ce que le spectre courant de Spectre courant /pi/?
Absence initiale de vibration des cordes vocales (non voisé). Les fréquences sont principalement concentrées dans les hautes fréquences.
34
Quel est le spectre courant de "da"?
Présence d’un pic basse fréquence marqué (V), correspondant au voisement (vibration des cordes vocales). Transition progressive entre les formants, indiquant une articulation plus marquée.
35
Qu'est-ce qu'une frontière phonétique?
Point de transition entre la perception de deux phonèmes se distinguant sur une dimension continue (e.g. temps de voisement). Cette frontière phonétique a un impact majeur sur notre capacité de discrimination des sons de la parole. ## Footnote Au-delà du signal acoustique, il est aussi à souligner que notre système auditif est très actif pour la classification des phonèmes, comme le démontre le phénomène de perception catégorielle. Celui-ci contribue grandement à la segmentation de la parole.
36
Qu'est-ce que la perception catégorielle?
Le système auditif classe activement les phonèmes en catégories distinctes, même lorsqu’ils varient sur un continuum physique. Ce phénomène est fondamental pour la segmentation de la parole et permet de percevoir des unités phonétiques discrètes plutôt qu’un continuum sonore flou. Il s’applique notamment à la distinction entre phonèmes voisés et non voisés.
37
Illustration expérimentale : transition entre /da/ et /ta/ L’expérimentation consiste à manipuler progressivement le temps de voisement (Voice Onset Time - VOT) entre /da/ et /ta/. Graphique (image à droite) : Lorsque le VOT est court (ex. 0 ms), les sons sont perçus comme .... Lorsque le VOT est long (ex. 60 ms), les sons sont perçus comme ....
Lorsque le VOT est court (ex. 0 ms), les sons sont perçus comme /da/. Lorsque le VOT est long (ex. 60 ms), les sons sont perçus comme /ta/. Une frontière phonétique abrupte sépare ces deux catégories, sans perception intermédiaire.
38
Quelles sont les 5 propriétés de la perception catégorielle?
Effet de "tout ou rien" : Les stimuli sont catégorisés en un phonème ou un autre, avec très peu de perception intermédiaire. La perception ne suit pas une gradation continue mais une transition abrupte entre deux catégories. Non-linéarité : Contrairement à une transition graduelle, le cerveau applique une frontière nette entre les catégories phonétiques. Universalité : D’abord pensé comme spécifique au langage humain, ce phénomène a été observé chez plusieurs espèces (ex. oiseaux, primates), suggérant une base perceptive plus générale. Réduction de la sensibilité intra-catégorielle : Nous ne percevons pas de différences notables entre les sons d’une même catégorie. Amélioration de la segmentation de la parole : Permet une identification rapide des phonèmes sans ambiguïté. ## Footnote Lien avec la perception du langage Ce mécanisme facilite la compréhension du langage en réduisant l’ambiguïté phonétique. Il est essentiel à la reconnaissance vocale et à la segmentation de la parole. La perception catégorielle est influencée par l’expérience linguistique : certaines frontières phonétiques sont plus marquées dans la langue maternelle.
39
Quel est l'impact de la frontière phonétique sur la discrimination auditive?
La perception catégorielle influence notre capacité à discriminer les sons de la parole. À l’intérieur d’une même catégorie phonétique, les différences acoustiques sont faiblement perçues. De part et d’autre de la frontière phonétique, la discrimination est très nette. ## Footnote Lorsque deux stimuli sont du même côté de la frontière phonétique, ils sont perçus comme identiques, même s’ils ont un VOT légèrement différent. Lorsque les stimuli se trouvent de chaque côté de la frontière, ils sont perçus comme différents. Tous les stimuli avec un VOT court sont perçus comme /da/, et tous ceux avec un VOT long comme /ta/. Cette perception est stable, malgré des variations progressives du VOT à l’intérieur de chaque catégorie.
40
🔹 But de l’expérience : Étudier comment les humains perçoivent les phonèmes quand on modifie graduellement les formants F2 et F3 (des composantes acoustiques importantes dans la parole). Explique le continuum entre /bah/, /dah/ et /gah/ (Graphique du haut (lignes de couleur) : Pour chaque son, les participants doivent dire s’il s’agit de /bah/, /dah/ ou /gah/.)
Les sons sont acoustiquement modifiés de manière continue (on change peu à peu les formants). Mais les participants n’entendent pas une gradation continue. Ils classent les sons dans 3 catégories distinctes (/bah/, /dah/, /gah/), avec des transitions abruptes entre les catégories → c’est la perception catégorielle. Même si les sons changent graduellement, la perception change brusquement : ex., un son perçu comme /bah/ passe d’un coup à /dah/. Cela crée des frontières phonétiques nettes. * Discrimination très bonne quand deux sons sont de chaque côté d’une frontière phonétique. * Discrimination mauvaise quand deux sons sont dans la même catégorie, même s’ils sont différents acoustiquement. 🔹 Interprétation : Le cerveau simplifie la perception de la parole en catégorisant les sons. On ignore les petites variations acoustiques tant que le son reste dans la même catégorie. Cela explique pourquoi c’est difficile d’apprendre les sons d’une langue étrangère (les frontières phonétiques diffèrent).
41
Pourquoi c'est si difficile apprendre les phonèmes d'une nouvelle langue?
La représentation des phonèmes reposent sur l’apprentissage des discriminations qui sont importantes dans la langue familière. Cette catégorisation permet une bonne discrimination entre les sons situés de part et d’autre des frontières phonétiques, mais rend difficile la discrimination de sons différents à l’intérieur d’une même catégorie. Ce mécanisme facilite la compréhension du langage, mais complique l’apprentissage des phonèmes d’une langue étrangère. La langue maternelle détermine quelles distinctions phonétiques sont perçues comme importantes. Dès l’enfance, le cerveau apprend à créer des représentations phonémiques en fonction des contrastes pertinents dans la langue entendue. Cela façonne la perception catégorielle, c’est-à-dire la capacité à diviser un continuum acoustique en unités distinctes. Par exemple, les anglophones distinguent clairement /r/ et /l/, tandis que les Japonais, dont la langue ne fait pas cette distinction, perçoivent ces sons comme appartenant à une seule catégorie. Ainsi, les sons absents de la langue maternelle sont difficiles à discriminer et à produire, surtout à l’âge adulte, car la plasticité phonétique diminue avec le temps. ## Footnote Les représentations phonétiques sont façonnées par l’expérience linguistique. La perception catégorielle divise un continuum acoustique en unités distinctes, mais cette partition varie selon la langue maternelle. Certains contrastes phonétiques sont importants dans une langue mais absents dans une autre, rendant leur perception difficile pour un locuteur non natif.
42
Qu'est-ce qui permet une bonne vs une mauvaise discrimination des sons?
Bonne discrimination aux frontières catégorielles : Lorsqu’un son est comparé à un autre de part et d’autre de la frontière phonétique, la différence est facilement perçue. Faible discrimination à l’intérieur d’une catégorie : Deux sons du même côté de la frontière sont perçus comme identiques, même s’ils sont légèrement différents acoustiquement. Interprétation et implications: Le cerveau force la catégorisation des sons, empêchant la perception des variations fines à l’intérieur d’une catégorie.
43
Expérience de Kuhl (2000) Un continuum acoustique de sons intermédiaires entre /r/ et /l/ a été présenté. Tous les sons sont physiquement équidistants (haut du schéma). Chez les Américains, deux catégories claires sont perçues : /r/ et /l/ (milieu). Chez les Japonais, tous les sons sont perçus comme similaires, car leur langue ne distingue pas /r/ et /l/ (bas). Qu'est-ce que ca montre?
🔹 Implications La langue maternelle module les frontières phonétiques. Les sons non présents dans notre langue sont mal discriminés → difficulté à les percevoir et à les produire. Cette plasticité phonétique diminue avec l’âge, rendant l’apprentissage plus difficile à l’âge adulte. Donc: Difficulté d’apprentissage des sons absents dans la langue maternelle Ex. : Un francophone distingue facilement /u/ et /y/ (absents en anglais), mais un anglophone a du mal à les différencier. Difficulté de production des sons non natifs Ex. : Un locuteur japonais aura du mal à produire un /l/ distinct de /r/ en anglais. Plasticité phonétique limitée chez l’adulte Ces différences sont apprises dans l’enfance, et il devient plus difficile d’acquérir de nouvelles distinctions à l’âge adulte.
44
De quoi parle-t-on quand on dit "l’aspect multi-modal de la perception de la parole" & donne des exemples.
Le langage n’est pas uniquement perçu par l’audition. La perception de la parole est influencée par plusieurs modalités sensorielles, notamment la vision et le toucher. Ces modalités peuvent compléter l’information auditive ou même la modifier en cas de conflit sensoriel. Exemples : lecture labiale, perception tactile chez les sourds, intégration audio-visuelle.
45
Qu'est-ce que la méthode Tadoma ?
perception tactile du langage Technique utilisée par les personnes sourdes et aveugles pour comprendre la parole. L’auditeur place sa main sur le visage du locuteur pour : * Sentir les vibrations des cordes vocales. * Percevoir les mouvements des lèvres et de la mâchoire. * Détecter les variations d’air expiré. Cette méthode démontre que l’information tactile peut remplacer l’audition pour la compréhension du langage.
46
Qu'est-ce que l'effet McGurk?
Effet McGurk : intégration audio-visuelle Lorsqu’une incohérence existe entre ce que l’on voit et ce que l’on entend, le cerveau produit une perception fusionnée. Expérience typique : Les lèvres du locuteur articulent "ga". Le son entendu est "ba". La perception finale est "da", une combinaison des deux informations. Cet effet prouve que l’audition et la vision sont intégrées dans la perception du langage. ## Footnote (video) Les lèvres semblent dire « ga » (articulation) quand il n’y a pas de son et qu’on regarde juste avec nos yeux On entend (ba) quand on ferme les yeux et qu’on fait juste entendre Et dans l’expérience perceptive globale c’est da
47
Qu'est-ce que l'existence de l'effet McGurk nous permet de comprendre?
Les indices visuels renforcent la compréhension de la parole, notamment dans des environnements bruyants. La perception du langage est flexible : elle s’adapte aux déficits sensoriels et utilise d’autres sources d’information pour reconstruire le message. Ces effets sont pris en compte dans les technologies de reconnaissance vocale et les aides à la communication pour les personnes ayant des troubles auditifs. L’étude de ces influences multimodales montre que notre cerveau intègre plusieurs sources sensorielles pour interpréter la parole, au-delà du simple signal acoustique
48
la lecture labiale produit une activation de quelles aires cérébrales ?
Interaction entre perception visuelle et auditive dans la compréhension du langage. La lecture labiale active des régions cérébrales impliquées dans la perception auditive de la parole. L’intégration de l’information visuelle et auditive optimise la compréhension du langage. Résultats d’IRM fonctionnelle : activation cérébrale selon la modalité de perception * Régions activées uniquement lors de l’écoute sans information visuelle (compréhension du langage auditif). * Régions activées lors de la lecture labiale sans son (compréhension basée uniquement sur l’information visuelle). * Zones activées en commun dans les deux conditions, suggérant une intégration multimodale du langage Donc: * Voir le locuteur améliore la compréhension du langage, en particulier dans des environnements bruyants. Les appels téléphoniques sont plus difficiles car ils ne fournissent que l’information auditive. * Les vidéoconférences (ex. Zoom) sont utiles, mais un décalage entre l’image et le son peut perturber la compréhension en créant une interférence sensorielle. * Ces résultats montrent que le cerveau combine naturellement les informations visuelles et auditives pour améliorer la compréhension du langage, expliquant pourquoi la lecture labiale joue un rôle crucial chez les personnes malentendantes et dans les interactions quotidiennes.
49
Dans quel contexte la reconnaissance de phonème est meilleure dans une tâche de détection?
La reconnaissance de phonèmes est meilleure s’ils sont dans des mots que dans des non-mots (tâche de détection de phonèmes).
50
Qu'est-ce que la restauration de phonèmes et par quoi est-elle affectée?
Nos connaissances lexicales causent également le phénomène de “restauration de phonèmes”, qui consiste à percevoir un phonème qui est objectivement absent du mot-cible parce qu’il a été remplacé par un bruit (e.g. per*eption). La restauration de phonème est affectée par la richesse du contexte lexical (meilleure avec les mots plus longs). La restauration de phonèmes est également affectée rétrospectivement par par le contexte lexical qui suit le mot altéré. e.g. “Une fois le *ain prêt, il l’a mangé” La reconnaissance phonétique est meilleure lorsque les sons sont inclus dans des mots existants plutôt que dans des non-mots. Lorsque un phonème est absent du signal auditif (remplacé par du bruit), nous percevons subjectivement ce phonème s’il est attendu dans le mot. La restauration est plus forte pour les mots longs, car le contexte lexical apporte plus d’indices sur le son attendu La reconnaissance d’un mot dans une phrase est également facilitée si cette phrase fait du sens (sémantique) et si elle est construite suivant une structure grammaticale. Cet effet est d’autant plus grand lorsque les conditions d’écoute sont difficiles.
51
Expérience en laboratoire : Ex. : On fait entendre "per*ption" où le /s/ a été supprimé et remplacé par du bruit. Qu'est-ce que les auditeurs vont percevoir et pourquoi?
Les auditeurs perçoivent tout de même "perception", car leur cerveau complète automatiquement l’information manquante. Nos attentes basées sur la langue précèdent et influencent notre perception auditive. Ce mécanisme permet de compenser les bruits ambiants et de faciliter la compréhension dans des conditions acoustiques imparfaites. La restauration de phonèmes explique pourquoi nous comprenons une conversation même si certains sons sont inaudibles. Ces résultats soulignent l’importance des processus cognitifs et linguistiques dans la perception du langage, qui va bien au-delà du simple traitement du signal acoustique.
52
Explique l'effet des connaissances linguistiques sur le décodage du signal acoustique
La perception du langage ne repose pas uniquement sur l’analyse acoustique du signal sonore, mais aussi sur nos connaissances linguistiques et notre expérience passée. Des facteurs comme le lexique, la syntaxe, la sémantique et les probabilités transitionnelles influencent la reconnaissance des phonèmes. La perception du langage est donc un processus descendant (top-down) qui combine informations auditives et attentes basées sur la langue maternelle.
53
Qu'est-ce que la restauration rétrospective?
Le cerveau peut modifier rétrospectivement la perception d’un phonème manquant en fonction du contexte. Exemple : Un auditeur entend "Une fois ain prêt, il l’a mangé." Plus tard dans la phrase, le mot "mangé" suggère que le mot flou était probablement "pain". L’auditeur perçoit "pain prêt" même si le premier son du mot était incertain au début.
54
Explique l’effet du contexte linguistique sur la perception de la parole
Comprendre un mot est facilité lorsqu’il est inclus dans une phrase grammaticalement correcte et sémantiquement cohérente. Les phrases qui ont du sens sont mieux reconnues que celles qui sont grammaticales mais incohérentes. Les phrases sans structure grammaticale sont très mal comprises, surtout dans le bruit. Ces effets sont accentués lorsque les conditions d’écoute sont difficiles.
55
Expérience : performance de reconnaissance de phrases Trois types de phrases ont été testés : Phrase normale (grammaticale et sémantiquement cohérente) : "Gadgets simplify work around the house." Phrase grammaticale mais incohérente (sens illogique mais structure correcte) : "Gadgets kill passengers from the eyes." Phrase non grammaticale (mots désorganisés, sans structure syntaxique correcte) : "Between gadgets highways passengers steal." Quels sont les résultats dans le silence vs dans le bruit? qu'est-ce que ça nous fait comprendre?
Résultats en silence : Les phrases normales sont bien comprises (89%). Les phrases grammaticales mais incohérentes sont légèrement moins bien comprises (79%). Les phrases non grammaticales sont bien moins bien reconnues (56%). Résultats dans le bruit : Forte diminution de la reconnaissance pour toutes les phrases. L’effet de la sémantique devient crucial : les phrases normales restent mieux comprises (63%) alors que les phrases grammaticales mais incohérentes chutent à 22%. Les phrases non grammaticales sont quasiment incompréhensibles (3%). Implications pour la communication: Dans un environnement bruyant (ex. bar, concert, lieu public), il est essentiel d’utiliser des phrases grammaticalement correctes et cohérentes pour maximiser la compréhension. Les phrases désorganisées ou sans sens sont pratiquement impossibles à comprendre en conditions difficiles: le cerveau utilise ses connaissances linguistiques pour faciliter la perception du langage, surtout lorsque le signal acoustique est dégradé. Ces résultats démontrent que la compréhension de la parole ne repose pas uniquement sur l’audition, mais aussi sur nos connaissances lexicales et grammaticales, qui aident à reconstruire le sens même lorsque l’information auditive est altérée.
56
Comment notre familiarité avec le locuteur affecte également notre capacité à reconnaître la parole?
Notre familiarité avec le locuteur affecte également notre capacité à reconnaître la parole, suggérant ainsi un ajustement de notre fonctionnement auditif à sa prononciation ainsi qu’une mémoire pour ces caractéristiques. La reconnaissance de mots (ancien vs nouveau) dans une liste est plus rapide si tous les mots sont produits par le même locuteur que s’il y a changement de locuteur à chaque mot. La parole est jugée plus intelligible si elle est produite par un locuteur familier que non-familier. L’audition ne traite pas simplement les sons de manière brute, mais s’adapte aux caractéristiques individuelles du locuteur, comme son accent, son débit et son timbre vocal. Cela suggère un ajustement du fonctionnement auditif et une mémoire des caractéristiques vocales des individus connus. L’adaptation au locuteur est un mécanisme puissant qui facilite la compréhension de la parole. Ce mécanisme est crucial dans des environnements bruyants, où la reconnaissance de la parole est plus difficile. Cela souligne l’importance de l’exposition régulière à un locuteur pour optimiser la compréhension et la communication. Ces résultats mettent en évidence que la perception de la parole ne dépend pas uniquement du signal sonore, mais aussi de facteurs cognitifs et d’apprentissage, qui améliorent notre capacité à comprendre un locuteur familier. ## Footnote Expériences démontrant cet effet Reconnaissance des mots Lorsqu’on entend une liste de mots et qu’on doit ensuite reconnaître s’ils étaient présents dans cette liste, la performance est meilleure si tous les mots sont produits par le même locuteur. Si le locuteur change à chaque mot, la reconnaissance devient plus difficile, ce qui indique que l’auditeur s’adapte à la voix du locuteur et bénéficie de cette stabilité. Intelligibilité de la parole Une même phrase est jugée plus intelligible lorsqu’elle est prononcée par un locuteur familier que par un locuteur inconnu. Cela s’explique par le fait que le cerveau apprend progressivement les particularités de la voix d’une personne et ajuste son traitement auditif pour mieux la comprendre. Exemples concrets Lorsqu’on regarde les nouvelles à la télévision, il est plus facile de comprendre un présentateur régulier qu’un nouveau présentateur, car nous sommes habitués à sa prononciation et son rythme. Après plusieurs semaines de cours, les étudiants comprennent mieux leur professeur, même si son élocution n’a pas changé : ils se sont adaptés à sa manière de parler.
57
Les premières informations obtenues quant aux bases neurales de la perception de la parole reposent sur l’observation de patients cérébrolésés (lésions de l’hémisphère gauche en général) présentant une aphasie. Qu'est-ce que l'aphasie de Broca? [lésion, atteinte fonctionnelle]
Associée à une lésion dans l’aire de Broca (cortex frontal gauche). Trouble de production du langage : difficulté à articuler des phrases complètes, langage télégraphique (phrases courtes, manque de grammaire). Manque du mot : les patients ont du mal à trouver les mots qu’ils veulent prononcer. Compréhension relativement préservée, bien que la production soit fortement altérée.
58
Qu'est-ce que l'aphasie de Wernicke? [associée à quoi d'autre] [atteinte fonctionnelle]
Associée à une lésion dans l’aire de Wernicke (cortex temporal supérieur gauche). Trouble de la compréhension du langage : les patients entendent et reconnaissent les sons, mais n’arrivent pas à les interpréter sémantiquement. Jargonaphasie : production de mots dépourvus de sens, avec une prosodie normale mais une structure grammaticale incohérente. Déficit potentiel dans la segmentation de la parole en phonèmes, ou dans la reconnaissance des phonèmes ou encore la reconnaissance des phonèmes.
59
À quel point y a-t-il une latéralisation du langage? Nomme une preuve de cette latéralisation.
90 % des êtres humains utilisent principalement l’hémisphère gauche pour le langage. L’hémisphère droit joue un rôle mineur dans le traitement linguistique. Expériences d’écoute dichotique : lorsqu’on présente des sons à chaque oreille, les mots sont mieux perçus par l’oreille droite, car cette information est traitée directement par l’hémisphère gauche. ## Footnote Les études d’écoute dichotique appuient également une latéralisation de la compréhension du langage à l’hémisphère gauche (performance supérieure avec l’oreille droite). L’imagerie cérébrale fonctionnelle suggère également une latéralisation gauche des fonctions de haut niveau pour la perception du langage. Le traitement auditif élémentaire du signal acoustique de la parole semble cependant pouvoir être effectué par les deux hémipsphères.
60
Qu'est-ce que les aphasie comme celle de Wernicke montre?
La perception de la parole dépend non seulement des aires auditives, mais aussi des aires associées au traitement linguistique. Les troubles comme l’aphasie de Wernicke montrent que la segmentation des phonèmes et la compréhension du langage sont étroitement liées. Ces résultats appuient l’idée que la reconnaissance des phonèmes n’est pas purement auditive, mais implique des processus corticaux intégrant des connaissances linguistiques.
61
Quelle capacité du traitement du langage semble latéralisée vs non ?
L’imagerie cérébrale fonctionnelle suggère également une latéralisation gauche des fonctions de haut niveau pour la perception du langage. Le traitement auditif élémentaire du signal acoustique de la parole semble cependant pouvoir être effectué par les deux hémipsphères.
62
L'écoute dichotique consiste à présenter des sons différents à chaque oreille. Qu'est-ce qu'on a découvert sur le traitement du langage avec cette expérience?
La perception du langage est plus efficace avec l’oreille droite, car elle est directement connectée à l'hémisphère gauche, dominant pour le traitement du langage.
63
Qu'est-ce que l'imagerie cérébrale a montré sur le traitement du langage?
L'imagerie cérébrale fonctionnelle confirme que le traitement linguistique de haut niveau est latéralisé à gauche, tandis que le traitement acoustique de base peut être bilatéral. Activation bilatérale (en bleu) Perception du langage et sons complexes (ex. : voix, mélodies). Implication des deux hémisphères, mais prépondérance gauche. Activation dominante à gauche (en jaune) Catégorisation des syllabes (ex. : distinguer "ba" et "da"). Traitement phonologique plus avancé. Activation exclusivement gauche (en vert) Compréhension des phrases intelligibles (niveau sémantique et syntaxique). Activation strictement dans l’hémisphère gauche, confirmant sa spécialisation.
64
Quelles structures sont impliquées dans la perception du langage?
Le cortex auditif primaire traite les sons purs de manière bilatérale Le gyrus temporal supérieur (zone d'intégration auditive) est impliqué dans la perception du langage. L’hémisphère droit joue un rôle mineur, sauf pour les aspects prosodiques et émotionnels de la parole. le traitement du langage est donc principalement effectué dans l’hémisphère gauche, avec une implication plus large du cerveau pour les sons complexes et non linguistiques.
65
V/F: Des observations récentes indiquent qu’il est possible de déterminer dans une bonne mesure l’identité des mots entendus à partir de son activité cérébrale enregistrée à partir d’électrodes de surface (i.e. décodage de l’activité cérébrale).
Vrai. La correspondance entre le spectrogramme réellement présenté et celui reconstruit par le décodeur est suffisamment bonne qu’il est souvent possible d’y reconnaître le mot qui a été présenté au participant.
66
Qu'est-ce que le décodage cérébrale?
Cette approche permet d’interpréter l'activité cérébrale pour tenter de reconstruire les stimuli perçus. On entraîne un modèle d’apprentissage machine à associer les patterns d’activation cérébrale aux sons entendus. Une fois le modèle entraîné, il devient possible de deviner quels mots ont été entendus en analysant uniquement l’activité cérébrale.
67
Méthodologie expérimentale Enregistrement des signaux cérébraux Des participants écoutent une série de mots, pendant que leur activité cérébrale est enregistrée via des électrodes de surface. Apprentissage du modèle Un algorithme apprend à faire correspondre les patterns cérébraux aux sons présentés. Décodage et reconstruction Le modèle tente de reconstruire un spectrogramme (représentation du son) à partir de l'activité cérébrale seule. Quels ont été les résultats de cette expérience?
Résultats et implications La reconstruction du spectrogramme est assez précise pour identifier les mots entendus. Cela ouvre des perspectives en neurosciences, notamment pour le développement d’interfaces cerveau-ordinateur et la communication assistée pour les patients aphasiques. Cette approche marque un progrès majeur vers la lecture des pensées auditives en se basant uniquement sur l’activité cérébrale. Ces avancées suggèrent qu'à l'avenir, nous pourrions traduire directement les pensées en paroles audibles grâce à l’analyse des signaux cérébraux.