C10 Flashcards
Quelle est la fonction principale de la voie auditive ventrale (voie du “quoi”) ?
Identifier et reconnaître les objets auditifs (parole, musique, bruits).
Quelles régions cérébrales sont impliquées dans la voie du “quoi” ?
Le gyrus temporal supérieur antérieur (STG) et le cortex frontal inférieur.
Que traite spécifiquement la voie ventrale lors de la perception de la parole ?
Les traits phonétiques nécessaires à la reconnaissance des mots.
Quelle est la fonction principale de la voie auditive dorsale (voie du “où”) ?
Traiter l’information spatiale et localiser les sons dans l’espace.
Quelles régions cérébrales sont impliquées dans la voie du “où” ?
Le gyrus temporal supérieur postérieur (pSTG) et le cortex pariétal.
Quelle est l’utilité comportementale de la voie dorsale ?
Guider les réponses d’orientation vers la source sonore.
Quelle analogie est faite entre le système auditif et un autre système sensoriel ?
L’organisation en voies du “quoi” et du “où”, comme dans le système visuel.
Que permet la collaboration entre les voies dorsale et ventrale ?
Une compréhension complète des scènes auditives et des réponses comportementales appropriées.
Que montre la comparaison “Location vs. Rest” dans l’étude ?
Une activité accrue dans les régions impliquées dans la localisation spatiale des sons.
Dans la carte des différences (à droite), que signifient les zones en bleu ?
Elles indiquent une plus grande activation pour la tâche de localisation sonore comparée à celle de hauteur tonale (pitch).
Que représente l’activation en couleurs chaudes sur la carte cérébrale ?
L’identification et la reconnaissance des objets auditifs (voie ventrale).
Que représente l’activation en couleurs froides sur la carte cérébrale ?
La localisation spatiale des sons, associée à la voie dorsale.
Que représente la voie dorsale (flèches rouges) dans le traitement de l’audition ?
Le traitement spatial des sons (localisation), passant par le lobe pariétal postérieur (PPC).
Chez qui, en plus des humains, observe-t-on cette organisation dorsale du traitement auditif ?
Chez les primates.
Quelle comparaison est faite entre la vision et l’audition pour localiser une source ?
Comme les deux yeux fournissent des indices binoculaires en vision, les deux oreilles sont essentielles en audition pour localiser les sons.
Pourquoi avons-nous besoin de deux oreilles pour localiser un son ?
Parce qu’elles permettent de déterminer les emplacements auditifs, comme pour estimer la direction ou la distance d’une source sonore.
Pourquoi le système visuel localise-t-il plus facilement un objet que le système auditif ?
Parce que des récepteurs différents sur la rétine sont activés selon la position de l’objet, alors qu’en audition, les mêmes récepteurs sont activés peu importe la position.
Que se passe-t-il lorsque le hibou hulule à gauche de l’observateur ?
Le son atteint l’oreille gauche plus rapidement que l’oreille droite.
Pourquoi le son entendu par l’oreille droite diffère-t-il selon la position du hibou ?
Parce qu’il doit traverser plus d’air, modifiant sa qualité. Le cerveau est sensible à ces différences, même dans l’ordre des microsecondes.
Qu’est-ce que la différence de temps interaurale (ITD) ?
C’est la différence de temps entre l’arrivée d’un son à une oreille par rapport à l’autre, utilisée par le cerveau pour localiser la source sonore.
Quand observe-t-on une ITD importante ?
Quand un son provient d’un côté, l’oreille la plus proche le perçoit plus tôt, créant une différence temporelle.
Que mesure l’azimut dans la localisation sonore ?
L’angle d’une source sonore sur le plan horizontal, mesuré en degrés depuis l’avant (0°) jusqu’à l’arrière (180°).
À quoi sert une chambre anéchoïque dans l’étude de l’ITD ?
À éliminer les réverbérations pour mesurer avec précision le délai entre les sons perçus par chaque oreille grâce à des micros sensibles.
Comment l’ITD est-elle mesurée en laboratoire ?
À l’aide de deux microphones placés comme les oreilles humaines dans une chambre anéchoïque, enregistrant un son provenant d’une même source.
Quelle est la valeur maximale mesurée de l’ITD ?
Environ 600 microsecondes.
À quel angle l’ITD est-elle maximale ?
À 90 degrés (lorsque la source sonore est située sur le côté).
Quelle est l’ITD lorsque la source sonore est directement devant nous (0 degré) ?
Elle est nulle (0 µs), car le son atteint les deux oreilles en même temps.
Quelle est la valeur de l’ITD quand la source sonore est à 0° ou 180° ?
L’ITD est de 0 microseconde (µs), car le son arrive aux deux oreilles en même temps.
À quel angle observe-t-on l’ITD maximale positive ?
À 90°, avec une ITD de 640 µs.
Comment les valeurs d’ITD ont-elles été mesurées dans ce schéma circulaire ?
À l’aide de microphones placés dans une chambre anéchoïque, simulant la tête humaine.
Comment mesure-t-on la sensibilité à la différence de temps interaurale (ITD) chez l’humain ?
En présentant deux tons successifs, un à gauche et l’autre à droite, et en demandant lequel était à droite.
À quelle fréquence les auditeurs détectent-ils la plus petite ITD ?
À 1000 Hz, où ils peuvent percevoir des ITD aussi petites que 10 µs.
Que montre la courbe de discrimination des onsets par rapport à la fréquence ?
La sensibilité aux ITD varie avec la fréquence ; elle est maximale autour de 1000 Hz et plus faible aux extrêmes.
Comment peut-on rendre la tâche de localisation plus facile ou difficile pour un participant ?
En modulant la position des sons par rapport à l’azimut.
Quel est le rôle des olives médianes supérieures (OMS/MSO) dans la localisation sonore ?
Elles servent de relais dans le tronc cérébral où les entrées auditives des deux oreilles sont comparées pour détecter les ITD.
Pourquoi le traitement des sons commence-t-il dans le tronc cérébral ?
Parce qu’il est plus proche de l’oreille interne et permet un traitement rapide nécessaire pour enregistrer les ITD.
Quelles projections reçoivent les OMS pour permettre la détection binaurale ?
Des projections bilatérales provenant des noyaux cochléaires du tronc cérébral.
Que signifie la sélectivité des neurones des OMS aux ITD ?
La sélectivité des neurones de l’OMS (olive médiane supérieure) signifie que :
Certains neurones réagissent à des ITD positives → le son atteint l’oreille ipsilatérale (même côté) en premier.
↪ Ex. : ITD positive dans l’OMS droite = son vient de la droite.
D’autres neurones réagissent à des ITD négatives → le son atteint l’oreille controlatérale (côté opposé) en premier.
↪ Ex. : ITD négative dans l’OMS droite = son vient de la gauche.
🎯 Cela permet une codification précise de la direction d’un son grâce à la différence de temps entre les deux oreilles.
Quels autres indices, en plus des ITD, les OMS utilisent-ils pour coder l’espace auditif ?
Les différences d’intensité interaurale (IID) et les indices spectraux modifiés par la tête (HRTF).
Quel est le principe du premier modèle de détection des différences temporelles ?
Il suppose que les différences de longueur des axones neuronaux des deux oreilles créent un délai permettant de détecter de très petites différences de temps entre les sons.
Pourquoi le premier modèle de détection temporelle a-t-il été remis en question ?
Parce que chez les primates, les mesures précises montrent que les délais ne sont pas toujours expliqués par la seule longueur des axones.
Quel est le principe du deuxième modèle de détection des différences temporelles ?
Le cerveau utilise le temps que met l’onde sonore à parcourir la membrane basilaire de la cochlée, puis compare de petites différences de fréquence entre les deux oreilles pour estimer le temps.
Quel phénomène auditif est analogue à la rétinotopie en vision ?
La tonotopie, où la fréquence du son (plutôt que la position dans l’espace) est codée le long de la membrane basilaire.
Pourquoi les basses fréquences mettent plus de temps à être perçues ?
Parce qu’elles voyagent plus lentement le long de la membrane basilaire de la cochlée que les hautes fréquences.
Où ont lieu les deux premières synapses du traitement auditif dans le cerveau ?
La première synapse est au noyau cochléaire et la deuxième dans les olives médianes supérieures (MSO).
Pourquoi le tronc cérébral est-il important dans la localisation sonore ?
Parce qu’il est proche des deux cochlées et permet un traitement rapide des signaux provenant des deux oreilles.
Que sont les différences de niveau interaurales (ILD ou IID) ?
Ce sont des différences d’intensité sonore entre les deux oreilles causées par la position de la source sonore.
Dans quel cas les ILD sont-elles les plus prononcées ?
À 90° et -90°, quand le son vient directement de côté. Elles sont inexistantes à 0° et 180°.
Pourquoi les sons de haute fréquence génèrent-ils des ILD plus importantes ?
Parce que la tête bloque une partie de l’énergie sonore, surtout au-delà de 1000 Hz.
En quoi les ILD sont-elles utiles au cerveau ?
Elles permettent de détecter la direction d’une source sonore en comparant les niveaux sonores entre les deux oreilles.
Quels indices sont combinés avec les ILD pour localiser les sons en 3D ?
Les différences de temps interaurales (ITD) et les indices spectraux liés à la tête (HRTF).
Qu’est-ce qu’une ombre sonore ?
C’est une zone derrière la tête où l’énergie sonore est partiellement bloquée, surtout pour les sons de haute fréquence.
Pourquoi les sons à haute fréquence sont-ils plus affectés par la tête ?
Parce qu’ils sont moins capables de traverser les obstacles, ce qui crée une différence de niveau entre les deux oreilles.
Pourquoi les sons à basse fréquence ne créent-ils pas d’ombre sonore ?
Parce qu’ils traversent la matière plus facilement et atteignent les deux oreilles avec moins d’atténuation.
Pourquoi un son est-il perçu comme plus fort et plus rapide dans une oreille ?
Parce que cette oreille est plus proche de la source, alors que l’autre est partiellement dans l’ombre sonore.
Que permettent les connexions neuronales bilatérales dans le cerveau auditif ?
Elles comparent les différences minimes d’intensité et de temps entre les sons reçus par chaque oreille.
Pour quelles fréquences observe-t-on les plus grandes ILD ?
Pour les sons de fréquence supérieure à 1000 Hz, car la tête crée une ombre sonore.
Pourquoi les ILD sont-elles quasi nulles pour les sons de 200 Hz ?
Parce que les sons de basse fréquence traversent la tête plus facilement et ne créent pas d’ombre sonore significative.
Pourquoi les courbes d’ILD ne sont-elles pas symétriques vers l’avant et vers l’arrière ?
À cause des caractéristiques de filtrage des pavillons (forme des oreilles externes).
Quel est le rôle de l’olive supérieure latérale (LSO) dans la détection des ILD ?
C’est une station relais dans le tronc cérébral où les entrées des deux oreilles permettent de détecter les différences de niveau interaurales.
D’où proviennent les connexions excitatrices et inhibitrices au LSO ?
Les connexions excitatrices viennent de l’oreille ipsilatérale, et les connexions inhibitrices de l’oreille controlatérale via le MNTB.
Comment le cerveau détermine-t-il la direction du son à partir des LSO ?
En comparant les niveaux d’activation relatifs des deux LSO.
Qu’est-ce que le MNTB et quel est son rôle ?
Le noyau médian du corps trapézoïdal (MNTB) génère des connexions inhibitrices de l’oreille controlatérale vers le LSO.
Qu’est-ce qu’un cône de confusion en localisation sonore ?
C’est une région de l’espace où les sons produisent les mêmes ITD et ILD, rendant leur localisation ambiguë.
Pourquoi le cône de confusion pose-t-il problème en localisation sonore ?
Parce que plusieurs positions dans l’espace peuvent produire les mêmes ITD et ILD, rendant difficile de savoir d’où vient le son.
Pourquoi les ITD et ILD seuls ne suffisent-ils pas à déterminer la position exacte d’un son ?
Parce qu’ils ne permettent pas de distinguer si un son vient de l’avant, de l’arrière, d’en haut ou d’en bas. L’élévation ajoute une dimension supplémentaire.
Que se passe-t-il lorsqu’on bouge légèrement la tête lors d’une localisation sonore ?
Les ITD et ILD changent, ce qui permet d’éliminer les emplacements ambigus : seule une source sonore reste cohérente avec les valeurs initiales et actuelles.
Comment les mouvements de la tête aident-ils à résoudre le cône de confusion ?
En modifiant les ITD/ILD pour chaque position, ce qui permet au cerveau d’éliminer les fausses localisations et de déterminer la source réelle du son.
Comment les pavillons aident-ils à la localisation sonore ?
Leur forme unique modifie la manière dont les sons sont réfléchis, ce qui aide le cerveau à estimer la position du son dans l’espace.
Pourquoi les sons provenant d’en haut ou d’en bas sont-ils perçus différemment ?
À cause des asymétries du pavillon, qui modifient la réflexion du son selon la direction verticale.
Que sait implicitement le cerveau à propos des pavillons ?
Il connaît leur forme et utilise cette information pour interpréter les modifications du son et localiser les sources.
Que représentent les fonctions de transfert directionnelles (DTF) ?
Elles montrent comment l’amplitude d’un son varie en fonction de sa fréquence à une élévation donnée, en raison de la forme des oreilles, de la tête et du torse.
Quelle est la plage de fréquences amplifiée par le pavillon auriculaire ?
Entre 2000 et 6000 Hz.
Pourquoi le cerveau peut-il utiliser les DTF pour localiser les sons ?
Parce qu’il connaît implicitement la forme du pavillon et peut interpréter les variations d’amplitude selon la fréquence.
Que montre une série de DTF à différentes élévations ?
Comment la magnitude du son change en fonction de la fréquence et de l’élévation, pour un même point d’azimut.
Comment la DTF permet-elle de localiser les sons selon l’élévation ?
Chaque élévation produit un spectre unique ; le cerveau compare ces variations entre les deux oreilles pour estimer l’altitude du son.
Que se passe-t-il lorsqu’on modifie la forme des pavillons chez un adulte ?
La performance de localisation diminue au début, mais les individus s’adaptent progressivement.
Quelle a été la performance des participants après 6 semaines avec les moules dans les oreilles ?
Leur capacité de localisation s’est grandement améliorée, montrant une plasticité auditive.
Que montre l’étude lorsqu’on retire les moules d’oreilles après l’adaptation ?
Les participants retrouvent aussi leur capacité de localisation avec leurs anciens pavillons.
Que montrent les exemples comme les piercings, les blessures ou les prothèses sur la localisation sonore ?
Ces modifications du pavillon altèrent temporairement la localisation des sons, mais le cerveau peut s’y adapter rapidement.
Que suggèrent les expériences de Hoffmann sur l’adaptation à un nouveau pavillon ?
Que le cerveau humain peut s’habituer assez facilement aux nouvelles formes de pavillon pour retrouver une bonne localisation sonore.
Quel est le signal le plus simple pour estimer la distance d’un son ?
L’intensité relative du son (amplitude ou niveau en dB à l’arrivée à l’oreille).
Qu’exprime la loi du carré inverse en acoustique ?
L’intensité du son diminue proportionnellement au carré de la distance entre la source et l’auditeur.
Que se passe-t-il avec l’intensité du son lorsque la distance double ?
Le niveau diminue de moitié, soit une baisse d’environ 6 dB.
Comment s’appelle la loi selon laquelle l’intensité diminue avec la distance ?
La loi du carré inverse.
Pourquoi l’amplitude seule ne suffit-elle pas à estimer la distance d’un son ?
Car le cerveau combine aussi les sons réverbérés pour juger de la distance. L’environnement (architecture) influence la perception.
Que se passe-t-il avec les hautes fréquences lorsqu’un son se déplace dans l’espace ?
Elles diminuent davantage en énergie que les basses fréquences.
Pourquoi un son paraît plus riche lorsqu’on se rapproche de sa source ?
Parce que les composantes haute fréquence, souvent absorbées à distance, deviennent audibles.
Qu’est-ce que le cerveau compare pour estimer la distance d’un son ?
La quantité d’énergie directe (de la source) versus l’énergie réverbérée (réfléchie par l’environnement).
Pourquoi la réverbération est-elle importante en perception de la distance sonore ?
Parce qu’elle module la composition spectrale des sons selon l’environnement, influençant la perception de la distance.
Pourquoi l’architecture acoustique est-elle cruciale dans les salles de spectacle ?
Pour éviter des mélanges spectraux anormaux dus à la réverbération, et garantir une perception claire et naturelle des sons.
Qu’est-ce qu’une fréquence fondamentale ?
C’est la fréquence la plus basse du spectre harmonique.
Pourquoi notre système auditif est-il sensible aux harmoniques ?
Parce qu’il est extrêmement sensible aux relations naturelles entre les harmoniques dans un spectre sonore.
Qu’est-ce que l’effet de la fondamentale manquante ?
C’est le phénomène par lequel on perçoit la hauteur du son comme correspondant à la fréquence fondamentale, même si elle est absente.
Que fait le cerveau lorsque la fréquence fondamentale est absente ?
Il calcule quelque chose comme le plus petit dénominateur commun entre les harmoniques présentes pour en déduire la fréquence fondamentale.
Quelle est la fréquence fondamentale dans un spectre harmonique ?
C’est la plus petite fréquence du spectre harmonique.
Quel est le premier sens mobilisé pour maintenir la vigilance ?
L’oreille est le premier sens à être mobilisé pour maintenir la vigilance.
Qu’est-ce que le réflexe de sursaut acoustique ?
C’est une réponse motrice très rapide à un son soudain, impliquant très peu de neurones.
Quels facteurs influencent le réflexe de sursaut acoustique ?
L’implication de peu de neurones rend la réponse rapide, et l’état émotionnel peut moduler l’intensité du réflexe.
Peut-on être attentif à plusieurs flux auditifs à la fois ?
Non, il est difficile voire impossible d’assister à plus d’un flux auditif à la fois.
Qu’est-ce que la surdité d’inattention ?
C’est l’incapacité à remarquer un son audible mais inattendu, car l’attention est engagée sur un autre flux auditif.
Que représente la couleur noire dans un spectrogramme de parole ?
Les pics noirs indiquent les fréquences ayant la plus grande amplitude à un moment donné.
Que reflète la composition spectrale en fréquence dans une scène de cocktail party ?
Elle montre la variation des amplitudes des fréquences au cours du temps, permettant d’identifier les éléments dominants du signal sonore.
Quel est le rôle des mécanismes perceptifs dans une scène de type “cocktail party” ?
Ils permettent au système auditif d’estimer les sources sonores individuelles à partir de mélanges complexes.
Que sont les indices de regroupement “ascendants” ?
des indices de regroupement “ascendants” dérivés des régularités statistiques des sons nous aident à dire ce qui va avec quoi.
e.g. si un mélange contient de l’énergie à plusieurs fréquences qui démarrent ou s’arrêtent en même temps, ces fréquences appartiennent probablement au même son et sont interprétées comme telles par le cerveau.
(harmoniques appartiennent ensembles)
Pourquoi les harmoniques sont-elles utiles pour séparer les sons ?
Parce que les harmoniques sont des fréquences multiples de la fréquence fondamentale (ex. : si f₀ = 200 Hz, alors harmoniques = 400 Hz, 600 Hz, etc.).
🧠 Le cerveau reconnaît ces motifs réguliers et les regroupe automatiquement comme appartenant à une même source sonore.
➡️ Cela lui permet de séparer plusieurs sons simultanés, comme lors d’une scène de cocktail party.
Comment les fluctuations auditives aident-elles à résoudre le cocktail party ?
Elles aident l’auditeur à distinguer les sons naturels, réduisant ainsi les masquages physiques entre eux.
Quel est l’un des plus anciens instruments de musique connus ?
Des flûtes vieilles de 30 000 ans taillées dans des os d’animaux.
À quoi Pythagore s’intéressait-il particulièrement dans la musique ?
Aux nombres et aux intervalles musicaux.
Quel effet la musique peut-elle avoir sur nos émotions ?
Elle affecte l’humeur et les émotions, et peut amplifier l’expérience émotionnelle.
Qu’est-ce que la musicothérapie ?
Une pratique clinique qui utilise la musique pour traiter, apaiser ou améliorer le bien-être.
Donne un exemple des bienfaits de la musique en contexte clinique.
La musique peut avoir un impact positif sur la douleur, l’anxiété, l’humeur et la qualité de vie des patients atteints de cancer.
Quelle est la plage de fréquences typique des sons de musique ?
Environ 25 à 4500 Hz.
Que désigne la “hauteur” d’un son en musique ?
L’aspect psychologique du son lié à la fréquence perçue.
Que représente le graphique du haut dans l’image ?
Il montre les différentes notes de musique et les fréquences associées sur le clavier d’un piano.
Quelle est la fréquence autour de laquelle notre oreille est la plus sensible ?
Environ 1000 Hz.
Que montre la courbe rouge dans le graphique du bas ?
Le seuil d’audibilité : le niveau de pression sonore requis pour qu’un son soit perçu selon sa fréquence.
Pourquoi est-il plus difficile d’entendre les sons très graves ou très aigus ?
Parce qu’on a besoin de plus de décibels pour les percevoir ; notre oreille est moins sensible aux basses et très hautes fréquences.
Qu’est-ce que la « fonction préférentielle » de notre oreille ?
C’est la capacité de notre oreille à détecter certains sons plus facilement que d’autres, surtout autour de 1000 Hz.
Qu’est-ce qu’une octave ?
Une octave est l’intervalle entre deux fréquences sonores ayant un rapport de 2:1.
Quelle est la fréquence du do médian (C4) ?
261,6 Hz.
Quelles fréquences correspondent à une octave en dessous et au-dessus du do médian (C4) ?
130,8 Hz (C3) et 523,2 Hz (C5).
Entre quelles notes y a-t-il plus de ressemblance : C3 et C4 ou C4 et E3 ?
C3 et C4 se ressemblent davantage, malgré que E3 (164,8 Hz) soit plus proche de C4 en fréquence.
Pourquoi dit-on qu’il n’y a pas que la fréquence dans la hauteur musicale ?
Parce que deux sons peuvent se ressembler davantage (comme deux do) même si leur fréquence diffère plus qu’un autre son plus proche en Hz.
Qu’est-ce que la hauteur de tonalité (tone height) ?
C’est une qualité sonore correspondant au niveau de hauteur, liée de manière monotone à la fréquence.
Qu’est-ce que la chrominance des tons (tone chroma) ?
Une qualité sonore partagée par des tonalités ayant le même intervalle d’octave.
Quelle est la relation entre les notes de la gamme musicale et la chrominance ?
Chaque note de la gamme (A à G) a une chrominance différente.
À quoi sert l’hélice musicale ?
Elle permet de visualiser la hauteur musicale en intégrant la hauteur de tonalité et la chrominance.
Quelles sont les deux dimensions de la hauteur musicale représentées dans l’hélice musicale ?
La hauteur de tonalité (liée à la fréquence) et la chrominance des tons (liée à l’octave).
Qu’est-ce que l’hélice musicale permet de visualiser ?
Elle permet de visualiser les relations entre la hauteur de tonalité et la chrominance, ainsi que les accords et les progressions harmoniques.
Comment la chrominance est-elle représentée dans l’hélice musicale ?
Par des codes de couleurs et des regroupements de tons aux mêmes positions sur différentes octaves.
Qu’est-ce qu’un accord musical dans ce contexte ?
Un accord est composé de trois notes ou plus jouées simultanément avec des hauteurs différentes, visualisables dans l’hélice selon leur chroma et hauteur.
Pourquoi utilise-t-on une spirale pour représenter les tons musicaux ?
Pour regrouper visuellement les tons ayant des chromas similaires et montrer comment les progressions harmoniques évoluent.
Quelle est la définition d’un accord en musique ?
Un accord est créé lorsque trois notes ou plus avec des hauteurs différentes sont jouées simultanément.
Que montre l’hélice musicale illustrée sur la diapositive ?
L’hélice montre un accord (par exemple sol majeur) joué à différentes hauteurs tonales, tout en gardant la même relation chromatique.
Quelle est la relation entre chrominance des tons et les accords ?
Les accords conservent leur sonorité même s’ils sont joués à différentes hauteurs tonales, grâce aux relations chromatiques entre les notes.
Que représentent les zones violettes dans l’hélice musicale ?
Elles représentent un même accord (ex. sol majeur) joué à différentes hauteurs tonales.
Qu’est-ce que l’oreille absolue (absolute pitch) ?
C’est une habileté rare permettant de nommer ou produire des notes très précisément, sans comparaison avec d’autres notes.
Quelle est la relation entre l’oreille absolue et la fréquence fondamentale ?
L’oreille absolue implique une perception très fine de la fréquence fondamentale, aussi appelée “pitch”.
Pourquoi l’oreille absolue est-elle prisée chez les musiciens ?
Elle permet de reconnaître précisément les notes jouées par les autres et de produire des sons justes avec précision.
Existe-t-il un débat autour de l’origine de l’oreille absolue ?
Oui, il y a un débat sur le fait qu’elle soit innée ou acquise.
Quelle variable est fortement associée au développement de l’oreille absolue ?
Le début d’une formation musicale à un très jeune âge.
Qu’est-ce qu’une mélodie ?
Une séquence de notes ou d’accords perçus comme une seule structure cohérente.
Est-ce que la mélodie dépend des sons spécifiques utilisés ?
Non, elle dépend surtout de la relation entre les notes successives, pas des notes elles-mêmes.
Une mélodie peut-elle changer de tonalité ou d’octave tout en restant la même ?
Oui, une mélodie reste la même même si elle est transposée à une hauteur différente.
Pourquoi dit-on que la mélodie voyage dans l’hélice musicale ?
Parce qu’elle peut se déplacer en hauteur (tone height) tout en conservant sa structure rythmique et tonale.
Donne un exemple de mélodies différentes partageant la même séquence.
« Twinkle, Twinkle, Little Star » et « Baa Baa Black Sheep » ont la même structure mélodique.
Qu’est-ce que le tempo ?
Le tempo est la vitesse perçue de la présentation des sons.
Comment mesure-t-on le tempo en musique ?
En nombre de battements par minute (BPM), où le battement est la mesure de base du temps en musique.
Quelle est la relation entre le rythme et le temps ?
Le rythme est considéré comme le modèle de la musique dans le temps.
Donne un exemple de rythme naturel qui illustre le concept de tempo.
Le rythme cardiaque humain, qui peut être rapide ou lent.
En quoi le tempo est-il lié à la mélodie ?
Le tempo influence la perception temporelle de la mélodie, en déterminant la vitesse à laquelle les notes sont jouées.
Pourquoi est-il difficile d’étudier la musique avec l’IRM fonctionnelle (IRMf) ?
Parce que l’IRMf produit un bruit très fort, atteignant près de 120 dB, ce qui s’approche du seuil de la douleur.
Quelle est l’une des solutions utilisées pour réduire l’impact sonore du scanner IRMf pendant les expériences ?
L’utilisation de bouchons d’oreilles pour atténuer l’intensité du son produit par le scanner.
Quel est le principal défi technique pour étudier la perception musicale en IRMf ?
Le bruit du scanner interfère avec la perception des sons musicaux présentés pendant l’imagerie.
Quelle région du cerveau est impliquée dans le traitement de la musique selon Kell et al. (2015) ?
Les régions antérieures du cortex auditif, situées le long du sillon temporal supérieur.
Quelle est la différence entre les régions activées par la musique et celles par la parole ?
La musique active les régions antérieures du sillon temporal supérieur, tandis que la parole active des régions plus étendues tout au long du sillon temporal supérieur.
Quelle méthode a été utilisée par les chercheurs pour mieux comprendre la perception musicale dans le cerveau ?
Ils ont combiné l’IRMf avec des réseaux neuronaux artificiels optimisés pour des tâches acoustiques, permettant d’identifier des régions spécialisées dans la perception musicale.
Quels types de tâches ont été utilisées pour entraîner les réseaux de neurones dans l’étude de Kell et al. (2015) ?
Deux tâches : une tâche de classification de mots (parole) et une tâche de classification de genres musicaux (musique).
Pourquoi avoir utilisé deux tâches différentes dans les réseaux de neurones ?
Pour modéliser les réponses cérébrales spécifiques à la musique et à la parole à partir des activations internes du réseau dans chaque tâche.
Quel est le rôle des activations internes dans les réseaux de neurones ?
Elles sont utilisées pour prédire ou simuler les réponses cérébrales à des stimuli auditifs (parole ou musique).
Quel modèle de base a été utilisé comme comparaison (baseline) ?
Une banque de filtres spectro-temporels, un modèle computationnel auditif plus simple que les réseaux de neurones profonds.
Quel est l’avantage du réseau de neurones par rapport à la banque de filtres spectro-temporels ?
Le réseau de neurones profond peut capturer des représentations hiérarchiques complexes et mieux prédire les réponses cérébrales.
Combien de sons ont été utilisés dans l’étude de Kell et al. (2015) pour tester la réponse cérébrale ?
165 sons du quotidien (ex. : personne qui crie, velcro, ronronnement de chat, guitare, etc.).
Qu’est-ce qu’un voxel dans le contexte de l’IRMf ?
Un voxel est une petite région du cerveau dont on mesure l’activité en réponse à des sons à l’aide de l’IRMf.
Quel est l’objectif du modèle linéaire utilisé dans l’étude ?
Prédire la réponse d’un voxel cérébral à partir des activations d’un réseau de neurones artificiels.
Comment sont représentées les activations des neurones dans une couche du réseau de neurones ?
Par des couleurs dans une carte : certaines unités réagissent plus fortement à certains sons.
Que permet de faire la corrélation entre un voxel cérébral et une couche d’un réseau de neurones ?
Elle permet de prédire la réponse cérébrale à un nouveau son à partir des activations du modèle.
Quelles régions spécifiques peut-on identifier grâce à cette méthode ?
Des voxels sélectifs au pitch, à certaines fréquences, à la musique ou à la parole.
Dans quel cas les prédictions sont-elles meilleures pour les voxels sensibles à la musique ?
Lorsque le modèle est entraîné sur une tâche de reconnaissance musicale.
Quelle est l’importance de la voix humaine dans notre environnement acoustique ?
C’est l’une des composantes acoustiques les plus importantes.
Quel est l’équivalent de la voix humaine en vision ?
Le visage — tous deux jouent un rôle crucial dans les interactions sociales.
Quel est le rôle principal de la voix humaine ?
Véhicule de la parole, elle permet de communiquer avec les autres.
Quelles informations la voix humaine peut-elle transmettre ?
L’état émotionnel, l’âge, et d’autres informations sociales.
Quel ouvrage est recommandé pour comprendre la production des sons de la voix humaine ?
Le guide de la voix du Dr. Yves Ormezzano (éditions Odile Jacob), considéré comme une véritable bible pour comprendre le fonctionnement de l’appareil vocal.
Qu’est-ce que le tractus vocal et quel est son rôle ?
Le tractus vocal est la voie aérienne située au-dessus du larynx. Il est utilisé pour la production de la voix et comprend les voies orales et nasales.
Pourquoi la flexibilité du tractus vocal est-elle importante ?
Parce qu’elle permet la production d’une grande variété de sons vocaux, essentiels à la parole humaine.
Combien de langues et de sons vocaux différents existe-t-il dans le monde aujourd’hui ?
Environ 5000 langues sont parlées aujourd’hui, utilisant plus de 850 sons vocaux différents.
Pourquoi peut-on produire différents sons malgré une même anatomie vocale ?
Même si les langues diffèrent d’un pays à l’autre, le tractus vocal humain est similaire partout. Il permet de produire des sons différents en fonction des langues, grâce à son amplification et sa flexibilité.
Quel est le rôle des poumons dans la production vocale ?
Les poumons initient la production vocale en expirant de l’air, qui passera ensuite à travers le système vocal.
Quel est le chemin de l’air pour produire un son vocal ?
L’air passe des poumons à travers la trachée, traverse le larynx, où les cordes vocales vibrent, puis il est modulé par les articulateurs comme la langue et la bouche.
Qu’est-ce qui produit la vibration nécessaire à la voix ?
Les cordes vocales, situées dans le larynx, vibrent sous l’effet de l’air expiré, produisant le son de base de la voix.
Comment la qualité finale d’un son vocal est-elle déterminée ?
Par la position de la langue, la forme de la bouche, et l’arrangement des articulateurs qui amplifient ou modulent certaines fréquences.
Quels sont les trois mécanismes principaux de la production vocale ?
Respiration (poumons), phonation (cordes vocales), articulation (tractus vocal).
Quel rôle joue la respiration dans la production de la parole ?
Le diaphragme pousse l’air hors des poumons, à travers la trachée, jusqu’au larynx.
Qu’est-ce que la phonation ?
C’est le processus par lequel les cordes vocales vibrent lorsque l’air est expulsé des poumons.
Quel est le rôle du tractus vocal dans la production vocale ?
Il permet l’articulation, en modulant les sons grâce à la langue, la bouche, et les voies orales et nasales.
Quelle est la source principale d’air utilisée pour produire la parole ?
L’air expiratoire (l’air expulsé des poumons).
Est-il possible de parler en inspirant ?
Oui, mais c’est rare ; la parole est généralement produite à l’expiration.
Quel type d’air est principalement utilisé pour produire la parole ?
L’air expiratoire.
Dans quelles situations l’air entrant peut-il produire un son vocal ?
Lors de sanglots, gémissements ou une surprise extrême (ex. : « !aH »).
Quelle proportion de la capacité vitale est mobilisée lors de la phonation ?
60 à 80 % du volume d’air.
Quelle quantité d’air est nécessaire pour parler à un débit de conversation courant ?
Environ 1 litre d’air par seconde.
Qu’est-ce qui est le plus important pour produire une voix adéquate ?
Un débit d’air adéquat et surtout une pression d’air suffisante.
Pourquoi les chanteurs d’opéra maîtrisent-ils bien leur respiration ?
Parce qu’ils doivent contrôler leur diaphragme pour produire des sons soutenus et précis.
Pourquoi dit-on que les cordes vocales ne sont pas réellement des cordes ?
Parce qu’elles ne fonctionnent pas comme les cordes d’un instrument à cordes (ex. : guitare). Le larynx est plutôt comparable à un instrument à vent : comme les lèvres du trompettiste qui vibrent dans la trompette.
Quelle analogie est plus juste pour représenter le fonctionnement du larynx ?
La trompette. Les lèvres du trompettiste vibrent et leurs vibrations sont modulées par le tube, tout comme les cordes vocales vibrent et le son est modifié par le tractus vocal.
Que se passe-t-il au niveau du larynx pendant la production vocale ?
L’air passe entre les deux cordes vocales, les faisant vibrer.
Pourquoi les enfants ont-ils des voix plus aiguës ?
Parce qu’ils ont de petites cordes vocales, ce qui produit des voix hautes.
Pourquoi les adultes ont-ils des voix plus graves ?
Parce qu’ils ont des cordes vocales plus massives, ce qui produit des voix basses.
Qu’est-ce que l’articulation dans la production vocale ?
C’est l’acte de produire un son vocal en manipulant les structures du tractus vocal, situé au-dessus du larynx.
Quelles parties de l’appareil vocal peuvent être manipulées pour articuler un son ?
Les mâchoires, les lèvres, le corps et le bout de la langue, ainsi que le velum (voile du palais).
Comment les manipulations du tractus vocal influencent-elles les sons produits ?
Elles modifient les caractéristiques de résonance, affectant la distribution des fréquences sonores et donc le son perçu.
Quelles sont les dimensions du tractus vocal qui influencent la résonance des sons ?
La taille et la forme des voies vocales, modifiées par la position des articulateurs (langue, lèvres, mâchoires…).
Pourquoi la position de la langue est-elle importante dans l’articulation ?
Parce que sa position (avant/arrière, haut/bas) dans la bouche filtre les sons de manière spécifique, modifiant leur qualité.
Qu’est-ce que le modèle source-filtre ?
C’est un modèle de la production vocale où la source sonore est générée par les cordes vocales, puis modulée (filtrée) par les articulateurs du tractus vocal.
Quelle est la source dans le modèle source-filtre ?
La vibration des cordes vocales qui crée un spectre harmonique (illustré en A), avec différentes fréquences et amplitudes.
À quoi correspond le ‘filtre’ dans le modèle source-filtre ?
À la configuration des articulateurs (langue, mâchoires, lèvres…) qui amplifient certaines fréquences et en atténuent d’autres, comme montré en B.
Qu’est-ce qu’un formant ?
Une fréquence amplifiée par le filtre du tractus vocal, résultant de la résonance liée à la position des articulateurs.
Comment les formants sont-ils créés ?
Ils résultent de l’interaction entre les harmoniques générées par les cordes vocales et le filtrage effectué par le tractus vocal (ex : langue, mâchoires), comme montré dans le graphique C.
Quel est le rôle des articulateurs dans le modèle source-filtre ?
Ils déterminent le filtrage acoustique en modifiant la forme et la taille du conduit vocal, ce qui façonne le spectre sonore final.
Qu’est-ce qu’un formant ?
C’est une résonance du tractus vocal qui crée un pic dans le spectre de la voix.
Comment sont identifiés les formants ?
Par des numéros croissants : F1, F2, F3, etc., du plus bas au plus élevé.
De quoi dépendent les fréquences des formants ?
De la longueur du conduit vocal.
Qu’est-ce qu’un spectrogramme ?
Un modèle d’analyse sonore affiché en 3 dimensions : axe horizontal = temps, axe vertical = fréquence, intensité = couleur ou échelle de gris.
Quelle est la différence entre un spectrogramme et un power spectrum ?
Un power spectrum montre l’amplitude pour chaque fréquence à un instant donné, alors qu’un spectrogramme est une collection de power spectrums dans le temps.
Que mesure-t-on en posant un micro à la sortie du larynx ?
On mesure la qualité acoustique du son juste après les cordes vocales, avant toute modification par les articulateurs.
Qu’observe-t-on dans le spectrogramme mesuré au niveau des cordes vocales ?
On observe le spectre harmonique : la fréquence fondamentale à laquelle les cordes vocales vibrent.
Pourquoi ne voit-on pas la richesse acoustique des voyelles dans un spectrogramme mesuré au niveau du larynx ?
Parce que le son n’a pas encore été filtré par les articulateurs (langue, mâchoire, lèvres…), donc les formants ne sont pas encore présents.
Que représente le spectrogramme mesuré au sortir des lèvres ?
Il montre l’effet du filtre articulatoire appliqué sur la distribution des fréquences produites au larynx. On y voit les formants propres à chaque voyelle.
Pourquoi les voyelles apparaissent différemment sur le spectrogramme mesuré au sortir des lèvres ?
Parce que chaque voyelle a une configuration articulatoire différente, ce qui modifie la distribution des fréquences (formants) visibles sur le spectrogramme.
Qu’observe-t-on en comparant les spectrogrammes au sortir du larynx et au sortir des lèvres ?
Au sortir du larynx, on voit les harmoniques brutes. Au sortir des lèvres, on voit l’effet du filtrage articulatoire, avec des formants spécifiques à chaque voyelle.
Qu’est-ce que le triangle vocalique ?
C’est une représentation des voyelles basée sur la position de la langue dans la bouche, qui affecte les formants F1 et F2.
Comment le formant F1 est-il influencé par la position de la langue ?
F1 est bas lorsque la langue est en position haute dans la bouche, et élevé lorsque la langue est basse.
Comment le formant F2 est-il influencé par la position de la langue ?
F2 est élevé quand la langue est avancée dans la bouche, et bas quand elle est reculée.
Que se passe-t-il quand on change la position de la langue dans la bouche ?
Cela modifie les résonances du tractus vocal, ce qui génère des voyelles différentes comme [a], [i], [u].
Quel est le rôle des articulateurs dans la formation des voyelles ?
Ils filtrent les harmoniques du son produit au niveau du larynx, amplifiant certaines fréquences et en atténuant d’autres.
Qu’est-ce que la perception catégorielle ?
C’est la tendance à percevoir des sons variant de manière continue (ex. : de « ba » à « da » à « ga ») comme appartenant à des catégories distinctes, avec des frontières nettes.
Que montrent les expériences où les sons varient continuellement entre « ba », « da » et « ga » ?
Bien que la variation soit continue physiquement, les gens ne perçoivent pas ces sons comme continus, mais comme des catégories distinctes.
Que reflète le changement soudain dans la perception des sons « ba », « da » et « ga » ?
Il reflète l’existence de frontières catégorielles dans notre perception auditive.
Que montre un spectrogramme de la transition de « ba » à « da » à « ga » ?
Il illustre une variation continue des formants, mais la perception humaine identifie des seuils clairs entre les sons.
Que montre la transition des formants au bas de la figure ?
Une transition graduelle et lisse des formants entre les sons « bah », « dah » et « gah ».
Comment les participants perçoivent-ils ces transitions de formants ?
Ils ne perçoivent pas une variation continue, mais des catégories distinctes séparées par des frontières nettes.
Que se passe-t-il lorsqu’on traverse la frontière entre deux zones perceptuelles ?
La perception bascule soudainement d’un son à un autre (ex. : de « bah » à « dah »), illustrant la perception catégorielle.
Quel chercheur a proposé un modèle multimodal du traitement de la voix humaine ?
Pascal Belin.
Quelle analogie Pascal Belin fait-il avec la voix humaine ?
Il considère la voix humaine comme un visage auditif, essentiel à la communication sociale.
Quelles sont les deux grandes modalités de reconnaissance d’identité selon ce modèle ?
La modalité auditive (voix) et la modalité visuelle (visage).
Quelles étapes comprend la voie auditive dans le modèle de Belin ?
Analyse auditive de bas niveau, Analyse structurelle de la voix, Analyse de la parole vocale, Analyse affective vocale, Unités de reconnaissance vocale.
Quelles étapes comprend la voie visuelle dans le modèle de Belin ?
Analyse visuelle de bas niveau, Analyse structurelle du visage, Analyse de la parole faciale, Analyse affective faciale, Unités de reconnaissance faciale.
Qu’est-ce que la phonagnosie ?
L’incapacité à reconnaître les personnes par leur voix.
Qu’est-ce que la prosopagnosie ?
L’incapacité à reconnaître les visages, souvent compensée par la reconnaissance vocale.
Que sont les ‘Person identity nodes’ dans le modèle ?
Des unités multimodales qui intègrent les informations vocales et faciales pour identifier une personne.
Quelle méthode Pascal Belin et ses collègues ont-ils utilisée en 2000 pour étudier le traitement de la voix humaine ?
L’IRM fonctionnelle (IRMF) avec un bloc design.
Quelles étaient les deux conditions expérimentales de l’étude de Belin (2000) ?
VOC : sons de la voix humaine, NVOC : sons non vocaux (non produits par l’appareil vocal).
Que permet de faire le contraste VOC – NVOC dans cette étude ?
Identifier les régions du cerveau activées préférentiellement par les sons de la voix humaine.
Où observe-t-on les activations préférentielles à la voix ?
Le long du sillon temporal supérieur, particulièrement dans l’hémisphère droit.
Les régions activées répondent-elles uniquement à la voix humaine ?
Non, elles ne sont pas exclusivement activées par la voix humaine, mais la réponse y est plus forte pour les sons vocaux que pour les sons non vocaux.
Quelle similarité existe-t-il entre la reconnaissance de la voix et celle du visage ?
Les deux montrent une latéralisation vers l’hémisphère droit dans le traitement cérébral.
Que sont les TVA (Temporal Voice Areas) ?
Ce sont des régions du cortex auditif spécifiquement impliquées dans le traitement de la voix humaine.
Quelle méthode Cyril Pernet a-t-il utilisée en 2015 pour identifier les TVA ?
Il a scanné 200 à 300 participants pour calculer des cartes de probabilité indiquant la localisation des aires de la voix.
Combien de sous-régions des TVA ont été identifiées ?
Trois : TVAp : région postérieure, TVAm : région médiane, TVAa : région antérieure.
Que montre l’étude doctorale citée à propos des TVA ?
Que le sexe de la voix peut être encodé dans les régions antérieures le long du sillon temporal supérieur droit.
Quelle tâche expérimentale a été utilisée dans l’étude de Formisano et al. (2005) ?
Des participants ont écouté des voyelles simples (A, I, U) produites par trois locuteurs différents pendant une session d’IRMf.
Que représente le graphique du triangle vocalique dans cette étude ?
Il illustre la distribution des formants F1 et F2 des voyelles produites par les trois locuteurs, montrant une articulation similaire entre eux.
Que cherchait-on à décoder dans le cerveau à partir de ces sons ?
On cherchait à décoder soit la voyelle produite, soit l’identité du locuteur.
Où dans le cerveau les voyelles et les locuteurs ont-ils été décodés ?
Le long du sillon temporal supérieur, à gauche et à droite.
Le décodage de l’identité vocale montrait une latéralisation à droite.
Pourquoi parle-t-on ici de décodage de la voix et non du contenu verbal ?
Parce que les mêmes voyelles étaient produites par les trois locuteurs ; ce qui varie, c’est la voix, non le contenu sémantique.
Que révèle cette étude sur l’importance de la voix ?
La voix seule (même sans mots intelligibles) peut transmettre l’identité du locuteur, grâce à des indices acoustiques subtils.
Cette spécialisation pour la voix est-elle présente chez d’autres espèces ?
Oui, des études montrent que les macaques réagissent plus fortement aux sons vocaux de leur propre espèce.
Que représente le pourcentage de discrimination correcte en haut de la figure ?
Il montre que la capacité à discriminer entre deux sons est plus élevée à la frontière entre deux catégories, comme entre « bah » et « dah ».
Quel phénomène illustre cette figure en lien avec la parole ?
La perception catégorielle des sons de la parole, où une variation acoustique graduelle est perçue en sauts discrets.
Quelle illusion perceptive liée à cette catégorisation auditive sera vue plus tard ?
L’effet McGurk, un phénomène de traitement multimodal où vision et audition interagissent.