Sons - localisation - musique - parole Flashcards
Perception auditive - des informations significatives
-Localisation des sources de sons
-Reconnaissance des objets par l’audition
Ex: voiture qui passe, voix familière
-Analyse de la scène auditive
Ex: Séparer musique de fond d’une conversation
-La musique
-La parole (langage)
Localisation des sources de sons est importante pour les humains et les animaux
-Identifier des objets et les évènements
Ex: D’ou vient un cri
-Guider la direction de l’attention visuelle
Ex: Tu entends ton nom derriere toi
-Éviter les danger
Ex: Entend prédateur
Localisation des sources de sons
-La localisation implique la direction (gauche - droite- haut- bas- devant- derrière) et la distance de sources de sons (proche ou loin)
-Les indices de localisation:
1. Indices monauraux (monaural cues)
2. Indices binaural (Binaural cues)
Indices monauraux
Info auditive d’une oreille; importante pour juger la distance
Intensité des sons:
1. Intensité du son et distance perçue:
Si un son est intense, plus il est perçu comme étant proche
–> Si le volume d’un son augmente ou diminue graduellement, on perçoit que la source sonore se rapproche ou s’éloigne (amplitude du son) comparé à qui s’éloigne
-Le cerveau exagère la perception d’un son (augmentation de l’intensité sonore) qui s’approche: mécanisme d’alerte naturel (ex: un danger qui arrive)
-Des mouvements de tête en direction ou vers l’opposé de la source de son peut donner plus d’informations sur l’intensité et aider à localiser la source de son
Exemple camion
-Quand il est loin –> faible intensité
-Quand il s’approche –> intensité augmente
-Quand il passe et s’éloigne –> intensité diminue
Effet doppler: fréquences changeantes d’une source de son mobile par rapport à un auditeur stationnaire
-Si on bouge pas et l’objet ne bouge pas
Ce qu’on perçoit:
-Quand la source s’approche –> fréquence plus haute (le son est plus aigu), car les ondes sonores sont rapproché
-Quand elle s’éloigne –> fréquence plus basse (son plus bas), car les ondes sonores sont éloignés
-Si la source se déplace plus vite que le son (340 m/s= vitesse du son de l’air), il devient supersonique
-Normalement le son se propage en cercles autour de la source, si la source va plus vite que ses cercles d’onde, elle les dépasse. Donc les ondes se compresse appeler sonic boom (bruit fort et sec)
Indices binauraux
Infos provenant des 2 oreilles. Le cerveau utilise la comparaison entre ce que chaque oreille reçoit pour savoir d’ou vient un son
Différence de temps
-Si il a un son qui nous frappe plus a gauche, l’oreille gauche va entendre avant l’oreille droit
-Si il a un son qui va droit devant, sa frappe les deux oreilles également
–> Le cerveau calcule cette minuscule différence de temps pour déterminer la direction du son
Différences d’intensité:
-La différence d’intensité d’un son atteignant une oreille vs l’autre oreille
-La tête peut servir d’un obstacle acoustique qui bloque la propagation du son à l’oreille plus distante
–> Le cerveau utilise cette différence de volume pour aider à localiser la source de son
Indices binauraux - différence de temps
Rosenzweig, 1961:
- Détection chez le chat
-Électrodes insérées dans le cortex auditif
-Présentation d’un déclic légèrement en avance d’un côté (ex: 0.0002 sec) plus tôt à l’oreille gauche
Résultat: plus d’activité neuronale dans hémisphère droit
–> Le cerveau code la localisation du son à partir des micro-différences de temps
Middlebrooks et al., 1994
-Le cortex auditif contient des groupes de neurones spécialisés, appelés neurones de localisation qui
–> Répondent différemment selon la direction d’ou vient le son
–> Sont activés selon les différences de temps ou d’intensité entre les deux oreilles
-Lorsqu’un son est perçu plus tôt dans l’oreille gauche, il y a plus d’activité dans hémisphère droit
-Les cellules sont organisées de façon à encoder la position spatiale du son
Indices binaural - Différences d’intensité
Diffraction: capacité d’une onde à contourner un obstacle
-Basse fréquence 200 Hz: Longue longueur d’onde, contourne la tête facilement (diffraction importante)
-Différence de temps comme indice
-Pas d’ombre acoustique
-Moins souvent réfléchi
Exemple:
Un son de basse fréquence qui a une longue longueur d’onde. Elle arrive légèrement plus tot à l’oreille gauche et un peu plus tard à l’oreille droite. Ton cerveau mesure ce décalage pour déterminer d’ou vient le son
-Haute fréquence 6000 Hz –> Courte longueur d’onde, peu de diffraction donc mal à contourner objet
-Différence d’intensité comme indice, car il a plus de différence entre les deux oreilles
-Onde partiellement réfléchie ou non réfléchit (rebondit ailleurs ou absorbé)
-Ombre acoustique plus marquée
Ombre acoustique: zone ou l’intensité sonore est réduite car l’onde à été bloquée par un obstacle
Exemple:
-Courte longueur d’onde ne contourne pas bien la tête
-Si le son vient de la gauche, ton oreille gauche l’entend fort, mais à droite: le son est atténué et donc il a moins d’intensité perçu (ombre acoustique)
-Vue qu’il a peu de diffraction, même si l’intensité est forte, l’oreille opposé l’entend moins fort, ce qui crée une différence d’intensité utile à la localisation
-Quand une tonalité est présentée aux deux oreilles simultanément, mais est plus intense dans une des oreilles, l’auditeur entend la tonalité comme si elle venait de la direction de l’oreille plus intensément stimulée
-Mais, le signal plus faible contribue quand même au volume (loudness) de la tonalité plus intense
Mouvements de tête
-Crées des différences d’intensité et de temps entre les deux oreilles, ce qui permet au cerveau de localiser la source du son
-Mouvement de tête aide surtout lorsqu’ils sont difficiles à situer (ex: sur le plan médian)
-Plan médian: sons sur le plan médian ne génèrent aucune différences d’intensité ou de temps (ligne imaginaire qui passe au centre de ton visage)
Localisation verticale (haut/bas)
-Le cerveau est moins sensible à la localisation verticale que horizontale
-Car les sons qui viennent du haut ou du bas arrivent en même temps
-Pour distinguer haut vs bas, on utilise le pavillon de l’oreille qui nous donne des indice et aide un peu (pas bcp)
La contribution du pavillon dans la localisation
Pavillon
-Les plis, cavités et convolutions du pavillon
–> Reflètent une partie du son
–> Crée des échos et interférences
pour des sources de son complexes (aide plus avec les sons complexes et pas purs) de différents endroits
-Selon la direction verticale du son (ex: derrière, devant, au-dessu, en dessous), Les Échos produites sont légèrement différent
-Le cerveau apprend à associer ce patron à une direction particulière
-Aide à distinguer les sons provenant de positions en avant et en haut de sons en arrière et sous l’auditeur
La contribution du pavillon dans la localisation - écholocation chez animaux
-L’habileté d’émettre des sons et analyser les échos (sons qui sont réfléchit d’un objet) afin de localiser des objets
Ex: chauve-souris, baleines
Modulation de fréquences
-Les sons émis sont souvent à haute fréquence
-L’animal modifie la fréquence de ses sons pour obtenir des échos plus précis ou adapter la détection à la distance
Echo delay - tuned neurones
–> Différentes neurones chez les chauves souris répondent sélectivement aux échos arrivant à des temps spécifique suivant l’émission du son et l’arrivée de l’écho (pour calculer la distance de l’objet)
Ex : Certaines neurones chez la chauve-souris ne s’activent que si l’écho revient 5 ms après le son → donc elle sait que l’objet est à environ 85 cm
Localisation de très petites cibles:
-Les toutes petites cibles renvoient des échos très brefs et de très hautes fréquences donc les animaux doivent envoyer des sons de très haute fréquence et avoir des neurones très sensible au timing et aux fréquences élevés
-Puisque ils envoient des hautes fréquences, la diffraction est faibles, dont les sons ne contournent pas bcp les objets
–> localisation plus précise (moins interférence)
Écholocation - radar
- Gènère les ondes électromagnétiques
- Onde se propage dans l’air
- Si elle rencontre un objet elle est réfléchie sous forme d’un écho
- Le radar reçoit l’écho et l’analyse
Exemple de fonctions:
-Localiser des objets fixes et des objets qui bougent
-Déterminer la distance, l’altitude et la vitesse des objets qui bougent
-Modulation de fréquences (faire varier la fréquence d’un signal pour obtenir plus d’information sur la distance, forme ou vitesse de l’objet)
–Lorsqu’un objet est proche, l’amplitude de l’écho est plus élevé, car
1. Le signal a moins de distance à parcourir
2. Il subit moins d’atténuation (perd moins énergie)
3. Il revient plus fort
4. Ex: Bruit ambulance parait pus intense lorsqu’elle est proche
Ceci s’appelle effet ampleur
Les radars utilisent des fréquences spécifiques pour capter les ondes réfléchies (échos) provenant des avions
Grace à l’effet Doppler: quand un objet (comme un avion) se déplace, la fréquence de l’écho change légèrement
-Le radar peut utiliser ce changement de fréquence (écho) pour mesurer la vitesse, savoir si l’objet s’approche ou s’éloigne
Écholocation chez les humains
-Les humains peuvent faire un peu d’écholocation
-Personne aveugle développe plus leur écholocation
-Personne aveugle utilise une canette pour faire des sons sur les surfaces et des échos pour localiser des objets et des obstacles
-Écouter les réflexions de l’onde
Supra, Cotzin et Dallencach
-Participants aveugles et participants normaux avec les yeux bandés
- Avec échos naturels
-Les deux étaient capable de s’arrêter avant de toucher un mur, grace au échos de leur propre corps - Avec musique dans les oreilles
-Lorsque les participants avaient de la musique dans les oreilles
-Les deux groupes se cognaient dans le mur
–> Preuve que l’informations sonores (échos) était essentielle à la détection de l’obstacle
Kellogg (1962)
-Participants aveugles et participants normaux avec les yeux bandés
-Les participants devaient localiser et discriminer des objets placés devant eux
–> Ils avaient le droit de faire n’importe quel son pour aider
-Son préférés par les participants: répéter un mot
–> Pour essayer de créer échos
-Gens bandés pouvaient pas déterminer distance et taille de l’objet mais les aveugles pourrait –> peut même discriminer le type de matériau grâce aux échos
Reconnaitre des évènements et propriétés des sources de sons
-Indices acoustiques produit par des sources de son
Carello et al., 1998
-Participants normaux voyants aux yeux bandés
-Tâche: déterminer les propriétés (longueur) des objets par les sons qu’ils produisent en tombant
-Participants ne pouvaient pas parler, c’est vraiment le son des objets eux-mêmes
-Résultat: Les participant pouvaient estimer la longueur des objets
Kunkler-Peck & Turvey (2000)
-Demander aux gens quel est la taille, forme de l’objet en frappant l’objet (ex: un triangle, un cercle) à partir du son produit
Résultat: Les gens pouvaient deviner la forme et la taille de l’objet
Cabe & Pittenger (2000)
-Participants aveugles et participants normaux voyants aux yeux bandés
-De l’eau remplissait un contenant
-Tâche: Déterminer le niveau d’eau dans le contenant, car son change selon le niveau de l’eau
-Résultat: les participants pouvaient estimer le niveau d’eau
Analyse de la scène auditive
-Comment notre cerveau organise les sons dans un environnement complexe et bruyant (ex: dans un café, un party)
Environnement auditif complexe:
-Les sons de différentes sources se chevauchent (parle en même temps, se superposent), le cerveau doit regrouper les sons qui vont ensemble et ségrégués ceux qui appartiennent à des sources distinctes
-Analyse de la scène auditive: habileté de percevoir une scène complexe en termes de ses sources séparées (“auditory streams”)
Regroupement et ségrégation:
1. Des groupes de sons sont perçus comme provenant d’une même source parce qu’ils partagent des caractéristiques similaires (ex: un pitch (hauteur)/ loudness (fort vs faible)/ timbre/ rythme similaire) et ces caractéristiques sont distinctes de sons provenant d’une autre source; inspirer par les principes de Gestaltistes
2. Deux locuteurs sont différenciés selon les différentes caractéristiques de leurs voix (ex: accent, timbre)
3. Connaissances préalables (ex; sons familiers, voix familière)
4. Indices de localisation (cerveau utilises indices spatiaux pour localiser les sons et les attribuer à différentes sources
5. Attention (choisir consciemment de se concentrer sur une source particulière)
Ex: Une voix spécifique dans un party
Limites des machines IA
-Systèmes de reconnaissance vocale IA ont mal à isoler une source sonore spécifique
-Difficile de gérer les chevauchements sonores complexes
Perception de la musique
-Musique: information acoustique complexe
-Nous percevons la musique comme un ensemble de mélodies et d’incises musicales (patrons intégrés et organisés), plutôt que des séries de sons distincts et non reliés
-La musique est une manière d’exprimer et de faire l’expérience de pensées et d’émotions
-La perception musicale implique:
-Nos expériences passées avec la musique
-Nos associations émotionnelles et culturelles
-Nos attentes et anticipation (ex: on “prévoit” la suite d’un accord ou d’un rythme)
-Niveau de cognition élevé
-Utiliser en thérapie
Dimensions de la musique
-Une octave: n’importe quelle tonalité ayant des fréquences d’un ratio 2:1
-Si tu monte de 1 octave, tu multiplie la fréquence par 2
Ex:
-1 octave = x2
-2 octaves = x4
-3 octaves = x8
Par example:
Une personne chante une note de 220 Hz (A3) –> Central
-Une octave au-dessus: 440 Hz (A4)
-Deux octaves au-dessus: 880 Hz (A5)
-Exemple: dans la gamme: Do, ré, mi, fa, sol, la, si do
Le deuxième “do” est une octave au-dessus du premier
-Perçu comme très agréable, car très similaire
Notes musicales
F0 étendue de 25 Hz - 4200 Hz
-Équivalence d’octave: tonalités qui ont une relation d’octave (par ex: C4 à C5)
-Autres relation entre des notes: certaines tonalités s’harmonisent mieux ensemble (par ex: celles avec un ratio de 3:2)
Ex: quand on chante ensemble
C-G (Do-So) 3:2
C,F (Do-Fa) 4:3
C,E (Do-Mi) 5:4
do, ré –> ne vont pas bien ensemble (ratio de 9:8)
-Chaque touche sur le piano est un F0
Perception de la musique - la voix humaine
-Les notes vocales sont directement associés aux touches du piano et aux notes des autres instruments
Ex: si tu chante une note de 440 Hz, tu produit une fréquence fondamentale (f0) qui est directement associer aux touches du piano et aux notes des autres instruments
Perception de la musique -Chroma
- Hauteur de la tonalité
-Plus la fréquence augmente, plus la note est perçue comme aigu - “Chroma” de la tonalité
-Représente l’identité cyclique d’une note dans l’octave
Exemple, tous les Do (C1, C2, C3) partagent le même chroma: on reconnait que c’est Do même si c’est aigu ou grave
Imagine un cercle ou chaque note est placé
-Le cercle chromatique revient au même point à chaque octave, même si la fréquence est doublé
- Notes, demi-tons et tons entiers
-Une octave est divisée en 12 demi-tons (notes du piano incluant les touches noires et blanches)
-Certaines intervalles sont:
Un demi-ton (ex: Do –> Do#)
Un ton entier = 2 demi-tons (ex: Do - Ré)
-Entre chaque touche est un demi-ton
Principles de gestaltes
Utiliser pour perception des notes / mélodies
Principes de la Gestalt
-Proximité
-Destin commun (éléments qui se déplace ensembles évolue ensemble(
-Fermeture (ex: qqchose a l’air incomplet et on le rempli)
-Organisation figure-fond
Lorsqu’on entends performance –> On peut séparer fond avec figure
Ex: la voix principale, l’accompagnement comme le piano ou les cordes
Constances de mélodies
-Lorsqu’on joue mélodie avec instrument différent
Ex: Oh canada chanter différemment, on pense que c’est la même mélodie car la relation entre les notes sont conserver
-Les mélodies retiennent des caractéristiques invariantes et se ressemblent même lorsqu’elles sont jouées avec des instruments différents
-La constance perceptuelle de la mélodie est retenue lorsqu’elle change de hauteur (pitch) (par ex: augmenter une même mélodie d’une octave), tant que les relations entre les notes de la mélodie soient maintenues
-Les mélodies musicales produisent un patron spécifique d’activation neuronale, différente d’une activité neuronale pendant la présentation de séquences de tonalités (notes sans de structure claire)
La perception de séquences de notes: rythme
Facteurs qui influencent le rythme
1. Taux de présentation de notes:
Plus les notes sont rapprochées, plus le rythme est perçu comme rapide
- Durée des notes
- D’autres variation de temps entre les notes (ex: 3 + 3+ 2), ce qui donne du style au rythme
-Comme en vision, le cerveau regroupe les éléments proches dans le temps. Regrouper des notes en unité perceptuelle selon leur proximité temporelle (en accord avec le principe de la Gestalt de proximité)
-Plusieurs autres types d’activités ou d’expériences ont un rythme: marcher, faire un signe de la main, taper avec un doigt, battement de coeur, respirer, mouvement du train, etc
La musique - différences culturelles
-Un octave est divisé en 12 demi-tons
Dans la musique on entends souvent des gammes de 7 notes (Do, Ré, Mi, Fa, Sol, La, Si)
–> C’est ce qu’on entends dans la plupart des musiques occidentales
-Par ex: Certaines musiques non-occidentales
–> Moins/plus de notes à l’intérieur d’une octave
–> Plus grande variation dans les fréquences de notes acceptables (un même do peut varier selon le contexte)
–> Structures rythmiques unique
Ex: musique brésilien –> si on a pas grandit la c’est difficile d’aimer le rythme
-Chant avec sons harmoniques (Asie centrale)
–> Un chanteur produit deux sons en même temps (un très grave, le F0 et un très aigu, harmonique)
–> Sonne comme flute car harmonique accentué devient plus audible que la fondamentale
Notre perception du pitch (hauteur) repose sur la f0 mais dans certaines cultures, les harmoniques sont mises en avant
La parole
-La parole comprends des unités de représentations à des différents niveaux hiérarchiques:
-Phonèmes, par ex, voyelles, consonnes
-Mots et unités sous-lexicales, par ex, chat, jou-er
-Syntagmes, par ex, syntagmes nominaux (noms commun) tel qu’un petit chat
-Phrases
-Fabriquer indices sonores sur place
–> Lorsque nous parlons, nous produisons les indices snores en temps réel, au fur et a mesure qu’on parle (on ne prépare pas tout le signal sonore en avance)
Les sons de la parole se caractérise de:
Les sons de la parole se caractérise d’après:
-Leur durée
-Leur composante fréquentielle (F0, harmoniques)
-L’amplitude
Qu’est ce qui est sur spectrogramme
Poumon –> Trachéa –> Larynx –> Pharynx
–> Oral cavity–> Nasal cavity
Différentes représentations des signaux acoustiques
Waveform (l’onde acoustique ou le signal): Représentation du temps et de l’amplitude des vibrations
–>Représente variation de pression en fonction du temps ->
-Axe Y: Amplitude (niveau de perturbation des particules de l’air donc intensité)
-Axe X: Temps
Permet de voir: durée des sons, variations d’intensité, pauses ou silences
Spectre: Représentation des composantes fréquentielles d’un son à un instant donnée. -Lorsqu’il a très peu d’amplitude pas de son
-Axe Y: Amplitude
-Axe X: Fréquence
Permet de voir: F0, les harmoniques, le timbre (forme du spectre)
Le spectrogramme (sonagramme): Représentation du temps et de la fréquence. (comment les fréquences évoluent dans le temps). L’amplitude (intensité) est aussi représentée par l’intensité du gris (plus c’est foncé- plus c’est fort)
Permet de voir:
-Les zones (fréquences) amplifiées dans les voyelles
-Les consonnes
-Les transitions dans la parole
(forme la plus complète pour analyser parole)
Modèle “source-filtre”
Ce modèle décrit comment les sons de la parole sont produits en deux grandes étapes: une source sonore, un filtrage
Signal du parole <– Filtre <– Source
Source: Onde produit par corde vocale (F0 + harmonique). (air mis en vibration par les cordes vocale, cette perturbation se propage sous forme d’onde sonore et l’oreille capte ceci)
Filtre: Résonateur du conduit vocal, atténue ou amplifie certaines fréquence grace au bouche, langue, lèvre, etc
Signal du parole: la parole
Voie humaine
-Peut faire montant illimité de différents timbres, voyelles, consonnes, etc
-Car on peut bouger notre langue, lèvres, mâchoire
Comparé à guitare:
-Corde= source comme cordes vocales
-Caisse de résonance= filtre (fixe donc a un timbre limité)
Caractéristiques acoustiques des voyelles
Quand on produit une voyelle, les cordes vocales vibrent régulièrement –> Ceci cause vibrations de forte amplitude sur le signal acoustique
-Présence de formants (formants: fréquences de résonance du conduit vocal)
Résonance: selon comment tu bouges ta lange, lèvres, bouche, certaines fréquences seront amplifiées naturellement
–> les fréquences de résonance sont les fréquences du son de base qui ont été amplifiées (ou filtrées) par la forme du conduit vocal
-Certaines fréquences vont être accentuer pour les adultes vue qu’ils ont un conduit vocale plus grand que les enfants et un filtrage plus efficace
–On caractérise les voyelles d’après les fréquences des formants, qui dépendent de la taille des résonateurs;
–Formants 1, 2, 3 sont surtout importants pour la perception de voyelles
-Pour oreille humain, F1 et F2 sont surtout important
Les voyelles contiennent à la fois:
-Des basses fréquences (f0)
-Des hautes fréquences (harmoniques)
Ceci permet de distinguer mieux les voyelles
Les sons voisés versus non-voisés
Sources:
–> Organiser selon certaines caractéristiques
-Les sons voisés:
–Vibrations des cordes vocales pendant la production d’un son
–Un signal périodique complexe: l’onde acoustique produit par la vibration des cordes vocales, par ex: /a/, /i/, /u/
-Les sons non-voisés:
–Pas de vibrations des cordes vocales
–Un signal apériodique (ressemble à du bruit);
–>Signal turbulent à l’endroit de la constriction des articulateurs (conduit vocale) (par ex: /s/), en autres mots: quand l’air passe à travers un endroit très étroit dans la bouche et créer une turbulence
–> ou signal d’explosion lors du relâchement d’une occlusion (blocage total de l’air pendant un son) (ex: /k/)
-Combinaison de “voisé” et “non-voisé”, par ex: /z/
(librement des cordes vocales mais aussi à une turbulence comme dans /s/)
Filtre (Les résonateurs): les différentes cavités dans le conduit vocal vont servir de résonateur au signal de la source (le son); le signal source est amplifié par les résonateurs situés à l’avant de la source (source= gorge et en avant la source= bouche, etc)
Signal de parole <– (filtre) <– Source
Caractéristiques acoustiques des consonnes
Exemples de classes de consonnes
Cs fricatives (ex: [f, s, z, ch]):
Production: Pas de blocage total –> étroite constriction –> Friction (présence de bruit)
-Visible sur la waveform et sur le spectrogramme
Cs occlusives (ex: [p, b, k]): présence d’un bruit d’explosion (relâchement de l’occlusion); —Visibles sur la waveform et sur le spectrogramme
–> Blocage totale et après il a une explosion
Cs nasales (ex: [m, n]), latérale ([l]): présence de résonances ressemblant à des formants de voyelles mais d’amplitude moins forte; visibles sur la waveform et sur spectrogramme (ressemble à voyelle mais avec énergie réduite)
–> l’air sort du nez
Cs voisées (ex: [b, d, g, z]) combinaison de la production d’un bruit (explosion ou friction) et de la vibration des cordes vocales; présence de vibrations visibles sur la waveform et sur le spectrogramme
–> Vibration quand tu mets main sur gorge = voisé
Consonnes occlusives
Traits acoustiques pertinents: VOT (Voice Onset Time)
-Différence entre le début de l’explosion de la consonne et début de la vibration des cordes vocales de la voyelle suivante
-Ce temps est mesuré et influence la perception des consonnes
Aspiration= long VOT
-Lorsqu’un son est aspiré, il y a un souffle perceptible après l’explosion, avant que la voyelle ne commence
Ex: p^h, t^h, k^h
p dans “pat” –> “P^h at” en anglais
Court VOT: ex: b
L’apprentissage des différences de VOT est progressif pour les enfants. Ils prennent plusieurs mois de pratiques pour distinguer ta vs da vs ba vs ga (car c’est une distinction temporelle très subtile)
-Français (VOT très court)
-Espagnol (VOT très court)
-Anglais (VOT long, aspiration)
C’est le VOT qui nous permet de différencier le /b/, /p/, etc (consonne occlusive)
Exemple de perception catégorielle: continuum ba-pa
Explosion-voisement –> Regarder si c’est positif ou négatif
Voisement négatif= voisement avant l’explosion
Voisement positif= voisement après explosion (court ou long)
Perception catégorielle (continuum /ba/ - /pa/):
Série de sons avec VOT qui augmentent de petit à petit. C’est un changement continu, pas brutal
ex: Stimulus 1 à 20 ms –> C’est /da/
Stimulus 30 ms et plus –> C’est /ta/
Le point ou la perception change de /da/ à /ta/ est la frontière phonétique
-La méme différence de VOT (ex:10 ms) est facile à percevoir si elle traverse la frontière (/da/ –> /ta/), mais difficile à percevoir si elle est dans la même catégorie (ex; /da/ –> /da/ avec 10 ms de différence de VOT)
Identification:
/da/= SI le voisement commence immédiatement après l’explosion –> VOT court, VOT sur la gauche
/ta/= SI le voisement commence après un délai –> VOT long, VOT sur la droite
Discrimination:
-Dans ce type d’expérience, on présente deux stimuli avec VOT différents, et on demande au participant: Est-ce que les deux sons sont les mêmes ou différents?
Deux VOT sur le même coté de la frontière phonétique = sons perçu comme identiques (ex: /d/ et /d/)
Deux VOT de différent coté de frontière = sons jugés comme différent (ex: /d/ et /t/)
-Même si la différence physique entre les VOTs est la même, la perception change brusquement à la frontière phonétique –> C’est ce qu’on appelle la perception catégorielle
Perception de la parole l problems
-Catégorisation: problème de variabilité
Le même son ex: /b/ peut être produit de différent façons selon la personne qui parle (homme, femme)
-Pourtant notre cerveau reconnait ces sons comme la même catégorie
Modèle “Motor theory”
-Spectrogramme avec le temps peut paraitre différent selon la voyelle qui suit (ex: /di/, /du/ pourtant c’est le même d)
-Variabilité d’une même consonne liée aux contextes vocaliques
-Une autre façon de voir les consonnes en tenant en compte les gestes articulatoires
Segmentation:
-Les mots ne sont pas séparés par des pauses claires, la parole est continu
On ne dit pas “Je vais à l’école”, mais “Jevaisàl’école”
-Si tu ne connait pas la langue, c’est difficile de savoir ou commence ou finit un mot
-C’est pour sa les machines ne peuvent pas comprendre quand on parle vite
-Nous y arrivons, car nous connaissons déjà la langue
La rapidité de la parole
-En moyenne 12 à 15 phonèmes sont produits par seconde, et 150 à 300 mots par minute
-Exemple de modification dans la parole continue
–> Omet certains sons, réduit des mots, etc
“Il te dit qu’il ne le sait pas” –> “it’ dit qu’il sait pas”
-On comprend car on connait le vocabulaire
Les enfants commence à segmenter lorsqu’ils disent “mama” et “papa”. Ils commencent déjà à extraire des unités sonores de la parole rapide
Tu peux comprendre rapidement la langue écrit mais avoir du mal 1 comprendre des gens qui parlent vite ou dans un certain accent
Role de l’habituation:
Ex: une personne agée parle plus lentement, on va s’adapter
Influence de connaissances des hautes niveaux
La parole est souvent dégradé, par example lorsque certains phonèmes sont masqués par des sons provenant d’autres sources
La restauration phonémique:
–> Effet lexical (connaissances linguistiques)
–> Effet de connaissance
–> Notre cerveau “remplit les trous”
Ex: Il a manger une cl*che, il a un bruit sur le o. Les gens savent que c’est cloche