Cours #10 Flashcards

1
Q

Comment localiser un son ? Exemple avec le hibou
- une ou deux oreilles pour déterminer l’emplacement d’un son ?

A

Si un hibou hululait dans les bois la nuit, comment sauriez-vous où il se trouve ?
Dilemme similaire à la détermination de la distance d’un objet visuel
Deux oreilles : essentielles pour déterminer les emplacements auditifs

XXX
ON doit avoir des emcanismes qui nous permettent de reconnait position ds environnement d’une source sonore.

Qd on voulait determiner la distance, on parle de stereopsie, de disparité. En audition, mecanismes similaires qui vont permettre de localiser la source sonore ds notre environnement.

C’est essentiel pr determiner les emplacements des sources sonores

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Localisation du son : exemple de la chouette

A

La position de la chouette est facilement encodée par le système visuel car l’image de la chouette tombe sur différentes parties de la rétine (et active ainsi différents récepteurs) selon qu’elle se trouve à gauche (A) ou à droite (B) de l’observateur.

Dans le système auditif, cependant, les mêmes récepteurs sont activés quelle que soit la position du hibou.

xxx
Imaginons une chouette. De facon visuelle, on a les projections sur la retine, on pt avoir disparité binoculaire qui aide à calculer quelques indices, etc..

Le son voyage et va entrer ds les deux oreilles. On doit avoir certains mecanismes qui ns permettent de localiser ds espace si la shouette était à gauche ou droite. Position de chouette = easy encoder par syst visuel pcq tombe sur diff parties de la retine et active diff parties du champ receptieur.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Différences de temps interaurales (Interaural Time Difference) :

A

différence de temps entre un son arrivant à une oreille par rapport à l’autre.

XXX
On a besoin d’indices pr faire la localisation de soures sonores ds l’espace..

Si on connait vitesse sonore et source positionnée d’un côté, on s’attend à ce queson arrive en premier si distance à un oreille = moins long que autre.

Distance = pas le seul element,mais va causre delai entre arrivée du sons ds une oreille et ds un aute oreille.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Azimut
- c’est quoi
- mesuré comment
- cmt ca augmente ?

A

L’angle d’une source sonore sur le plan horizontal par rapport à un point au centre de la tête entre les oreilles.

Mesuré en degrés, 0 degré étant tout droit

L’angle augmente dans le sens des aiguilles d’une montre, 180 degrés étant directement derrière

XXX
Plan horizontal par rapport à la tête de l’auditeru

Directement devant l’obs

Sur azimut, on mesure en degré la position de la source sonore.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Expérience chambre achoéique + graphique (direction of sounds et ITD)

A

Chambre anéchoique.

Chambre qui est cmoplètement insonorisée. Pas d’echo. TT les surfaces sont isolées. Coussins en feutre partout, pas echo ni son. Assez particulier comme experience. On est pas used de pas entendre de sons / bruits.

A des utilisés qd etudes de ITD. En absence de bruit, donc possible de faire jouer des sons sur des hauts parleurs placés à differents degrés d’angles. Et on pt avoir une pers assise ds chambre avec un micro pres de oreille droite / gauche. En enregirstrant avec ces deux micros, calculer diff de temps, cmb de temps ca a pris pr que le son se rende à une oreille vs l’autre oreille

GRAPH
çSi devant ns la ITD = moindre que si c’est latéralisé d’un côté. À 90 degrés-100 on aura ITD plus grande à 0 ou 180 degrés.

Les diff sont minumes. On parle de 600 micro secondes. Assez impressionnant que des diff de l’ordre des micro secondes puissent ns renseignenr sur localisation de son ds espace.

XXX
POur ces edgrés d’angle, on a les diff de temps interaules

Micro ds oreille de auditeur positionné ds chambre où pas de echo. Le son ne peut que provenir de la source sonore, enregistré par micro ds oreille gauche et droite et mesurer diff de temps entre arrivée du son ds oreille gauche et droite.

Y : diff de temps mesurée entre les deux echelles. On parle vrm de ptite diff temporelle entre els deux oreilles. Pas surprenant étant donné la vitesse du son. Vitesse du son = pareil très rapide.

Pr une source sonore, la diff inter-orale n’est pas tlm importante. 600 ms qd la source = positionnée à une centanie de degré.

Ici vrm cas extreme, diff à l’auter oreille.

QD ON EST AU BAS DE L’ECHELLE (vrm petits degrés d’angle)
- POur un degré d’angle, des delais interaux vrm bas. Malgré des diff aussi absses, des changements d’une aussi ptit degré pt être suffisant pr pouvoir determiner la provenance de la source sonore ds notre environnement.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Expérience chambre achoéique : les cercles de couleur

A

Représentation diff de la mm chose. On voit la position de l’auditeur et on a les angles sur l’azimut (0 degré, ITD = 0 micro sec).

Plus on s’approche de 90 deg, ce temps inter-oral augmente et qd on retourne vers le 180 degré, on retrombe ds une sit de aucune diff inter-orale. MM chose d,un coté comme l’auter de la tête.

On place micro pres de oreille droite et gauche. Et chambre anechoique. On va emttre des sons qui proviennent soi de 0 degrés en face des micro, et on fait varier angle sur azimut. Choisir diff haut-parleurs placés ds chambre. Calcul de diff entre le micro de oreille droite qui capte son et ui de gauche. Diff ds le temps que ca prend pr que les ondes se rendent aux deux micros.

XXXX
ON voit interaurale de 0 m/s.

À mesure quon suit azimut de facon orale, on voit une augmentation de la diff interaule. Augmentation jusqua atteindre un pts lateral et se remet à diminuer jusqua 180 degré exactement derriere la tete.

Or que son ait mm distance à parcourir pr aller d’une oereille à l’auter.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

IDT est modérée par quoi d’autre (graphique ?)

  • quoi faire pour rendre la tâche plus difficile / facile ?
A

Xxx
Aux meilleures freq, autour de 1000 Hz, certains auditeurs peuvent détecter des différences de l’ordre de 10 microsec. Suffisant pour détecter l’angle d’une source sonore à 1 degré près

Cette IDT modulée aussi par les propriétés acoustiques des sons. Ici, la frequence des sons va jouer un role sr la diff inter orale. Pr des sons autour de 1000 Hz (zone des freq quon percoit le mieux avc nos oreilles).

Noter cap à discrimer le rapport entre deux sons va dep de la frequence à laquelle les sons sont joués.

XXX
On a voulu savoir cest quoi la limite avc laquelle un auditeur pt reconnaitre la position d’un son ds l,envi.

Pr y arriver, on a study la perfo à détecter des delais inter-oraux et moduler la frequence des tons purs.

On a un particpant ds chabre et on va jouer deux tons en succession à une freq donnée.

Le partic doit det si le 2e ton était orienté vers la droite ou la gauche par rapport au 1er ton. Et on va moduler la position des deux tons pr rendre tache soit plus facile ou on va rapprocher les deux tons pr rendre tache + tof.

Étant donnéé les mesures quon a fait, on sait qu’à un degré, diff inter-orale de 10 m/s.

On voit sur axe des Y cette diff en micro secondes et X la freq des tons used.

ON REMARQUE
- Pas la mm capacité àdetecter des diff d’angle dep de la frequence des sons. 1000 Hz, cap de detecter des diff à 1000 m/s. Représentation assez fine de notre espace et de la position des sources sonores qui permet de differencier la position qui differe

Si ds la tache 1 degré d’angle entre les deux sources, plus tof de determiner que si difference d’angle de 100 degrés entre les edux.

En reduisant diff inter-orale entre les duex sons, on rend la tache plus tof. Mais malgré ca, on est cap de reconnaiter des diff aussis basses que 1 deg entre deux sources sonores.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Physiologie de l’ITD:
olives médianes supérieure

  • tronc cérébral = + proche de quoi que quoi ?
A

une station relais dans le tronc cérébral où les entrées des deux oreilles contribuent à la détection des ITD.

Tronc cebereal = plus proche de oreille que le cortex.

XXX
Cmt tt ça fonctionne ? C’est quoi la physiologie derrière tt ca ?

Olive : station de relai ds le tronc cerebral. Les entrées des deux oreilles vont controbuer

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Les détecteurs ITD forment des connexions à partir de quoi ?

A

Les détecteurs ITD forment des connexions à partir d’entrées provenant de deux oreilles au cours des premiers mois de vie.

XXX
Ces connexions formées très tôt ds le tronc cerebral pr permettre de localiser position de sources sonores ds environnement

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Deux modèles pour détecter les différences temporelles : modèle #1

A

Premier modèle: les différences entre les longueurs des axones neuronaux (lignes rouges et bleues) provenant des deux oreilles pourraient fournir un délai pour détecter de minuscules différences de temps utiles pour localiser les sons.

XXX
Cmt le cerveau pt calculer la diff entre les deux oreilles pr estimer provenance de son ds espace.

1ER
Distance axonale. Si on prend source sonore à gauche et on a chochlé de oreille gachne.

Pr que la chochlée de oreille gauche les signaux se rendent jusqu’au MSO ds hemisphere droit, y,a distance axonale plus grande à parcourir.

Vs

La chochlée ds oreille droite qui a une plus petite distance axonale à parcourir.

Intéressant. Ce qui vrm à remarquer : si on contraste systm auditif avec visuel, proximité de nos recepteurs avec cortex primaire. Oreilles = physiquement proche de nos cortex auditif. Nb de synapse nec avant de se rendre a cortex auditif = vrm ptit.

Le temps nec en ms pr que signal auditif se rendent jusqua cortex auditif = tres petiti.

XXX
Y’a des differences entre les longeurs des axones neuroneaux (proviennent de la choclé de deroite et de la chocolée de gauche qui vont aussi se projeter ds olives droites.

Comme axones plus long en provenance de oreille interne gauche vs droite, ces diff pourraient fournir info nec pr detecter des differences de temps mini et ns aider à localiser les sons.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Deux modèles pour détecter les différences temporelles : modèle #2

A

Deuxième modèle: Les preuves les plus récentes: le cerveau profite du temps nécessaire à l’onde sonore pour se déplacer le long de la membrane basilaire de la cochlée. Ensuite, le cerveau utilise de petites différences de fréquences entre les deux oreilles pour mesurer le temps.

XXX
MODELE 2
Se base sur la trajectoire de sons sur la mebrane basi;aire et les detecteurs ds MSO calculeraient de miniscules differences de frequences . ON sait que membranes basilaires vont avoir tonotopie. Orgn passant de basse à haute freq. Et dep de ITD, va avoir de mini diff de frequence si on pense à la tonotopie des membraes. Cerveau use ces diff pr calculer ce delai entre les 2 oreilles et ca ns donerait indices sur azimut / localisaion ds espace de provenance d’un son.

Cmt tt ca marche ?

XXX
Modèle où on amis à jour cette compréhension de cmt on detecter la localisation des sons. Cerveau va profiter du temps necessaire pr se deplacer le long de la membrane basilaire.

Et va ensuite use de ptites diff frequentielles ç

Étant donné que distance plus grande pr que son se rende de oreille à autre et ds l’atmosphère des freq qui s’attenuent plus que d’auters. Diff frequentielles au niveau de l’encodage ds membrane basilaire droite et gauche. Ces inputs = vehiculés vers tronc cerebral et fournir info suffisante à la localisaiton.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Le tronc cérébral est près de quoi ?

A

Le tronc cérébral est près de la cochlée des deux oreilles.

XXX
Dans les MSO, des projections qui proviennent des deux oreilles. Ces diff vont être vehiculée vers le cortex auditif pr contrinuer analyse plus riche des sources sonores.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

les MSO recoivent des informations de quoi ?

A

Les MSO reçoivent des informations des deux oreilles par la deuxième synapse du tronc cérébral.

La première synapse est au noyau cochléaire.

La deuxième synapse est dans les MSO.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Différence de niveau interaurales (Interaural Level Differences; ILD) :
- def

A

Différence de niveau (intensité) entre un son arrivant à une oreille par rapport à l’autre.

XXX
La diff de niveau inter-oral. Ces diff d’intensité enter son qui arrive d’une oreille par rapport à une autre.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

ILD
- pour les fréquences supérieures à 1000 Hz la tête va faire quoi

A

Pour les fréquences supérieures à 1000 Hz, la tête bloque une partie de l’énergie atteignant l’oreille opposée.

XXX
Tête va créer ombre sonore en bloquant certaines frequences. Filtre qui va changer la composition spectrale du son pr une oreille vs autre oreille.

Étant donné noter fonction de intensité vs la frequence, impact sur intensité du son sur une oreille vs une auter oreille

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

ILD est le plus grand pour quelles valeurs ? et inexistant pour lesquelles ?

A

L’ILD est le plus grand à 90 degrés et -90 degrés; inexistant pour 0 degrés et 180 degrés.

XXX
ON reste sur azimut. Les differences de niv seront le plus grand et vont être inexistant pr 0 ou 180 degrés.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

ILD est généralement corrélé à quoi ?

A

L’ILD est généralement corrélé à l’angle de la source sonore, mais la corrélation n’est pas aussi grande qu’avec les ITD.

XXX
XX
Cette difference vient que d’un côté y’a modulation à cause de modulation.
Difference de niveau interoral.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Entrées que recoivent les oreilles

  • Est-ce que les deux oreilles recoivent les mêmes entrées ?
  • pour les fréquences supérieures à XX Hz, il se passe quoi ? Cv créer quoi ?
A

Les deux oreilles reçoivent des entrées légèrement différentes selon que la source sonore est située d’un côté ou de l’autre de la tête. Pour les fréquences supérieures à 1000 Hz, la tête empêche une partie de l’énergie d’atteindre l’oreille opposée, créant une ombre sonore.

XXX
POur source sonore à certaine position ds azimut, nombre sonore qui va se créer. Frequences qui vont être bloquées partiellement créant ombre sonore et va créer diff de niveau entre les deux oreilles.

Oreille gauche va recevoir la composition spectrale complete de son qui provient de source à gauche et oreille droite comprend composition attenuée avec le fait de traverser la tete. Une oreille ds l’ombre et l’autre qui ne l’est pas. Va créer des diff de niveaux entre les deux oreille.s

Les deux oreilles recoivent entrées diff. Les frequences supérieurs à 1000 Hz, attenuées. Partie de l’energie bloquée par la tete qui atteint pas oreille opposée.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Amplitude des ILD pour les sons de fréquence basse et élevée (GRAPH)

  • Autre chose à obs : les courbes ne sont pas symetriques de l’avant vers l’arrière. Pourquoi
A

L’amplitude des ILD est plus grande pour les sons de fréquence plus élevée.

Il n’y a pratiquement aucune différence d’amplitude ILD pour les sons de basse fréquence comme 200 Hz.
XX
Autre chose à obs : les courbes ne sont pas symetriques de l’avant vers l’arrière. Pourquoi ?

À cause de la forme des pavillons qui va attenuer certaines freq. Va avoir impact sur cette diff de niveau inter-oral dep de la position à l’avant ou arrière de la source sonore.

XXX
Pr des diff de niveaux inter-oreilles, dep de la source ou la position de la source, pr es tonalités de frequence differentes (tonalités de frequence qui montent d’un panneau à l’auter, on a differentes differences de niv inter-oreilles0.

PAS une fnction lineaire entre frequence et degré d’azimut. Les plus grandes diff concernent les frequences supérieurss à 200 Hz

1000 Hz = diff qui est plate. Ds l’envi, on est majoritairement exposés à des sons complexes. Ds ctx experimental, on use tons pur. Vrm voir impact de ces tons pur vs les diff de niveau inter-oreilles.

Dès que au-dessus de 1000 Hz, la courbe est plus plate et diff de niveau inter-oreilles importantes.

Autre chose à obs : les courbes ne sont pas symetriques de l’avant vers l’arrière. Pourquoi ?

À cause de la forme des pavillons qui va attenuer certaines freq. Va avoir impact sur cette diff de niveau inter-oral dep de la position à l’avant ou arrière de la source sonore.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Physiologie des ILD:
Olive supérieure latérale

  • d’ou proviennent les connexions excitatrices au LSO ? et les inhibitrices ?
  • comment le cerveau va déterminer de quelle direction provient le son ( le cerveau peut-être faire quoi)
A

Une station relais dans le tronc cérébral où les entrées des deux oreilles contribuent à la détection des ILD.

Les connexions excitatrices au LSO proviennent de l’oreille ipsilatérale.

Les connexions inhibitrices au LSO proviennent de l’oreille controlatérale.

Le cerveau peut comparer les niveaux d’activation relatifs des deux LSO pour déterminer de quelle direction provient le son.

XXX
Cmt ça fonctionne ces diff de niveaux ?

Olive : les entrées des deux oreilles vont contriuer

On a des signaux qui vont excitateurs si du mm hemisphere, et inhibtieur si de l’hemisphere opposé. Et cerveau cap de comparer ces activations entre les deux LSO pour faire la localisaion du son ds l’espace.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Après synapse au noyau cochléaire, c’est quoi le chemin ?

A

Après une seule synapse dans le noyau cochléaire, les informations de chaque oreille sont transmises à la fois à l’olive supérieure médiane (MSO) et à l’olive supérieure latérale (LSO) de chaque côté du tronc cérébral.

Le noyau médiane du corps trapézoïdal (MNTB) génère des entrées inhibitrices de l’oreille du côté opposé de la tête (l’oreille contralatérale).

XXX
On va parler des diff de temps et de niveau inter-oral. Ces infos vont être combinées jusqu’au cortex pr aider à localisation du son ds espace.

Relai par le noyau median du corps qui va envoyer des signaux inhib dependamment de l’hemisphere par rapoprt à nos LSO.

Pr contralet, signaux inhib qui va comparer le niv d’excitation globale qui va être le resultat de cette diff de niveau pr aider à la localisaiton du son sd l’espace.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Problème potentiel lié à l’utilisation des ITD et des ILD pour la localisation du son :

A

Cône de confusion : Une région de positions dans l’espace où tous les sons produisent les mêmes ITD et ILD.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Cône de confusion image
- qcequi ns permet de résoudre ce problème ?

A

SI on voyageait sur la ligne noire, tt les positions sur ligne noire genere les mm diff de temps

Pose probleme pr localiser l’info d’une source. Vu que probleme par rapport à l’elevation, probleme apr rapport à la localisation des sons.

Qcequi ns permet de resoudre ce prob ? Les mouvs de la tete.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Mouvements de la tête : dès quon bouge la tête, il se passe quoi ?

A

Dès qu’on bouge la tête les ITD et les ILD des sources sonores changent, et une seule localisation spatiale est consistante avec les ITD et les ILD précédentes.

XXX
Ex ici deux sources qui sont sur le cone de confusion. Après avoir fait mouv de la tête, une seule de ces positibilités encore valides. La greouille bleue.

En use ce processus par elimination , avec mouv de la tete, cap de det laquelle est l’hypothese qui est la plus probable et de regler probleme du cone de confusion. Seul l’emplacement bleu = coherent avant et apres mouv de la tete.

Conclusion que source sonore = position bleue ds le diagramme.

XXX
Le déplacement de la tête vers la gauche ou la droite modifie les ITD et ILD pour les sons provenant de différents endroits.

(A) Dans un premier temps, une source sonore provenant de la grenouille bleue entraîne un ITD et un ILD qui seraient également cohérents avec un son provenant de la grenouille verte, car ils se trouvent dans le même cône de confusion

(B) Si la tête de l’auditeur tourne légèrement, l’ITD/ILD ne sera plus cohérent avec l’emplacement de la grenouille verte. Une ambiguïté subsiste cependant. L’ITD/ILD sera maintenant cohérent avec la grenouille rouge ainsi qu’avec la grenouille bleue. Mais seule la localisation bleue est compatible avec la première et la deuxième série d’ITD et d’ILD.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Q

La forme des pavillons aident à déterminer quoi ?

A

La forme des pavillons aident à déterminer la localisation du son

XXX
On a modelisé fonction de transfert directionnel. Mesure qui souhaite integrer ces concepts quon connait.

Decrire cmt tt ca va modifier intensité des sons par rapport à emplacement des sources sonores à notre environnement.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
26
Q

Fonction de transfert directionnel (DTF)
- c’est quoi ?
- chez les gens?

A

Une mesure qui décrit comment le pavillon, le conduit auditif, la tête et le torse modifient l’intensité des sons avec différentes fréquences qui arrivent à chaque oreille à partir de différents emplacements dans l’espace (azimut et élévation).

Chaque personne a son propre DTF (basé sur son propre corps) et l’utilise pour aider à localiser les sons.

XXX
Noter tete, pavillon, conduits auditifs = differents. Donc amplicfication de freq diff d’une ers à l’autre. Tt ca va generer diff d’une personne à l’autre. Pr les delais et les diff de niveaux inter-oraux.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
27
Q

Localisation sonore : image des oreilles
- les pavillons amplifient les frequences de combien ?
- ils peuvent ns aider pourquoi

A

On voit cmt les pavillons peuvent varier. Les formes de nos pavillons uties pr ns aider à surmontrer probleme du one de confusion.

Notre cerveau sait implicitement connait la forme de nos pavillons. Cap de use cette info pr ns aider ds la localisation du son. Un son qui proviendrait d’une source plus elevé ou de source plus basse, le son ds oreille entrerait pas à cause de la forme asymetrique.

Cerveau cap d’utiliser cette info pr ns aider à regler probleme du cone de confusion.

Pavillon amplifie les freq enter 2000 et 6000 Hz

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
28
Q

DTF pour une seule élevation

  • quelles fréquences vont être plus affectées par la forme de notre tête ?
  • c’est quoi les axes du graphique
A

Le DTF pour une seule élévation. Remarquez comment l’amplitude change en fonction de la fréquence en raison de la forme des oreilles, de la tête et du torse.

XXX
Ici, on a la onction de DTF pr une seule elevation.

Magnétude en decibels par rapport à la frequence en KHz

On voit que dep de la freq, cette fonction va être influencée. Freq joue un role ds infleucne que la forme de nos oreilles etc va avoir.

Ici, graph pr une seule elevation

XXX
Moyenne à travers plusieurs particip. On oit que l’amplitude en decibelle par rapport à la frequence va être modulée. Des freq bcp + éelvées que 6000 Hz vont être affectées plus par la forme de notre tete, etc, ds la localisaiton des sons.

Ça = une fonction pr une seule élevation. Donc l’amplitude du son va changer en fciton de la frequenc en raison de forme de nos oreilles, de norte torse

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
29
Q

DTF pour toutes les élevations

  • qcequi est le même et qcequi est différent ?
A

Le DTF pour toutes les élévations. La série de DTF tracée ici concerne le même point d’azimut mais à des altitudes différentes.

XXX
Mm graphique (tantot une coupe, mtn le mm graphique / mm etude par rapport à differentes elevations en degrés.)

Montre cmt ecq les frequences vnt inlfuencer cette fonction de trasnfert directionnels en fcontion de la frequence et du point d’elevation pr un mm azimut donné.

PR UN MM PTS SUR AZIMUT, mais à differentes elevations, la forme de nos oreilles va aovir ue fcontion de DTF, càd va attenuer certains sons dependemment de leur provenance dans l’espace.

Info utile ds cerveau pr calculer la localisation sonore.

XXX
Possible de modeliser pr diff elevations.

À causes des asymetrieus mentionnées plus tot, iimplact sur amplitude des freq ui vont arriver

Dep de l’elevation, la forme de nos oreilles / torses va avoir impact sur composition spectrale des sons. Ces diff = informatives sur la loclistion des sons

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
30
Q

Questions : Les adultes peuvent-ils s’adapter aux changements fait aux Pavillons? Les personnes avec des piercings, de gros trous, des oreilles endommagées ou des prothèses ont-elles du mal à localiser les sons ?

  • Hypothèse
  • Test
A

Hypothèse : Les adultes peuvent s’adapter aux changements d’oreilles lors de la localisation des sons.

Test : insérez des moules d’oreille en plastique chez des adultes pour vérifier s’ils peuvent toujours localiser les sons aussi bien qu’ils le pouvaient avant l’insertion des moules

XXX
Ecq on pt s’adapter à des changements faits aux pavillons. Est-ce que cest pers ont du mal à localiser les sons ?

Voir si les pers cap de localiser le sons

Ds manuel, acteur qui ds la serie devait jouer role de spock. Pr chaque enregistreent, on lui changeait la forme de son pavillon. Cet acteur ecq d’une journée à l’autre avait des diff pr la localisation des sons ? Ben non.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
31
Q

Questions : Les adultes peuvent-ils s’adapter aux changements fait aux Pavillons? Les personnes avec des piercings, de gros trous, des oreilles endommagées ou des prothèses ont-elles du mal à localiser les sons ?

  • Résultats
A

Les performances de localisation des sons des auditeurs ont grandement diminué. Cependant, après 6 semaines de vie avec les moules dans leurs oreilles, leurs capacités de localisation se sont grandement améliorées. Les auditeurs sont également restés assez bons pour localiser avec leurs «vieilles» oreilles lorsque les moules ont été retirés.

Les auditeurs sont restés assez bons pr localiser sons avec leurs vieilles oreilles.

Ds spok, qd on eleve les moules, apres periode d’adaptation on fait pas les differences.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
32
Q

Image gens qui modifient leur lobe d’oreille

A

Les auditeurs qui ont des modifs à leur avillon vont vivre des problemes initiallement, mais s’ahbituer et trouver des perfo similaires à ce qu’ils avaieent avant.

Ça s’est attenué avec periode d’adaptation. On pt s’adapter assez facilement à ces changements de forme du pavillon.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
33
Q

Perception de la distance des sons:
- signal le plus simple

A

intensité relative du son

XXX
Le son voyage à certian e vitesse et intentisté (changement de pression ds air) s’attenue avc distance. Indice assez fiable pr det la distance d’un son

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
34
Q

Perception de la distance des sons:
- loi du carré inverse
(et à mesure que…

A

La diminution d’intensité est égale à la distance au carré.

À mesure que la distance d’une source augmente, l’intensité diminue plus rapidement.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
35
Q

IMage perception de la distance, LES DONNÉES CHIFFRÉES, cmt cv varier

A

Loi du carré inverse : le niv va baisser de moitié à chaque fois que la distance est doublée

Une diff de 6Db = facteur de 2 ds la pression acoustisque.

Si distance à 1m, si distance à 2m, distance 84 Db. Intensité va baisser de moitié à chaque fois que distance ds source.

Cette difference d’intensité en fction de distance = soruce d’info qui permet de determiner distance à une source sonore.

Et ça = la loi du carré invese.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
36
Q

Composition spectrale des sons
- def
- quantité de …. vs….
(qui peut nous aider à quoi finalement ?)

A

Les hautes fréquences diminuent davantage en énergie que les basses fréquences lorsque les ondes sonores se déplacent de la source à une oreille.

(Quantités relatives d’énergie directe (qui provient directement de la source) par rapport à l’énergie réverbérante (qui a bondit sur diverses surfaces dans l’environnement).

—-> La qté relative d’energie directe par rapport à la qté d’énergie reverbrée pt ns aider à calculer la distance d’une source ds l’espace.

XXX
Diff frequences vont être atténuées differemment.
Va voir attenuation diff de certaines freq qd son se deplace de source sonore vers notre oreille.

Ex on rentre ds salle de concert. Composition qd on se rapproche de la salle = diff que qd on met le pas dedans.

Les sons qd on est plus loin vont se composer de basses frequences que les sons de freq + élevées qui + ssuceptibles d’être abs. Cette composante spectrale (le fait que certaines freq vont, dep de l’architecture acoustique, = autre source d’info pr det la distance relative d’une source sonore.

Live, on entend voi de prof. Ceux que avant prob plus d,energie directe. Voit aussi amplifiée par amphitheater, son va rebondir en arriere, plusieurs sources qui arrivent à nos oreilles. La qté relative d’energie directe par rapport à la qté d’énergie reverbrée pt ns aider à calculer la distance d’une source ds l’espace.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
37
Q

peut-être autre slide

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
38
Q

Exmple de ce qu’il se passe dans une salle de spectacle qd on chante

Plus distance grande, ….

A

Les qtés relatives d’energie directe qui proviennent de la source vs energie indirecte (revirberante) qui bondit sur diff surface

Architecture de anphoteatre influence cmt les sons vont bondir sur diff surface / obstacles.

Nos oreilles vont recevoir les ondes sonores vs tt ces pts d’impact ds amplhi. Si pers assise derriere ns ns parle, source snore directe.

Cerveau cap de faire diff entre sons qui proviennent de diff endroits et sons d’une seule source. Ns permettent de det la perception de distance de diff sources.

Plus diatance gande, plus chance d’être exposés à energie indirecte.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
39
Q

Fréquence fondamentale
- def
- le système auditif est vrm sensible à quoi ?

A

Fréquence la plus basse du spectre harmonique.

Le système auditif est extrêmement sensible aux relations naturelles entre les harmoniques.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
40
Q

Harmoniques : Que se passe-t-il lorsque la première harmonique est manquante ?

(nom de l’effet + définition)

A

Effet de la fondamentale manquante : la hauteur que les auditeurs entendent correspond à la fréquence fondamentale, même si elle est absente.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
41
Q

Qd effet de la fondamentale manquant le cerveau calcule quoi (graph)

A

Le cerveau calcule quelque chose comme le “plus petit dénominateur commun” des fréquences pour déterminer la fréquence fondamentale.

XXX
MM si on a la premiere haronique (fondamentale manquante), on arrive pareil comprendre / percevoir la hauteur des sons.

Interessant de voir que y,a des mecanismes ds le cerveau qui ns permettent de comprendre / percevoir pareil la hauteur des sons.

Mm si on enleve fondamentale de facon artificielle. Les sons ds envi / ds notre espace vont interagir avc des surfaces / mediums. Doit avoir des mecanismes qui ns permettent d’être tolérants face à certains changements, que le son qui interagit avc environnement / certains changements de la quaoité, pr être cap d’apprécier leurs capacités acoustiques et leurs source.s

XXX
Son avc certaine composition spetrale. On enelve la freq fondamentale et on ask de det cest quoi la freq fondamentale de ce son.

Partic pourrait dire que cest la 2e.

Mm si n a enelveé la fondamentale, cerveau va calculer le plus petit denominateur commun pour

42
Q

L’oreille est le premier sens pour quoi ?

A

L’oreille est le premier sens pour maintenir la vigilance.

43
Q

Réflexe de sursaut acoustique :
- def
- combien de neurones sont impliquées, et leur reponse est cmt
- qcequi affecte le reflexe de sursaut
- quel type d’attention vs lequel

A

Réflexe de sursaut acoustique : La réponse motrice très rapide à un son soudain.

Très peu de neurones sont impliqués dans le réflexe de sursaut de base, les réponses sont donc très rapides.

L’état émotionnel affecte le réflexe de sursaut.

XXX
Differentes compostiions spatiales ds notre nvi vont amener à diff amplificatons. Cerveau doit être apparéyés pr faire sens de sources sonores / leur qualité pr pouvoir diriger attention d’une source sonore vers une autre.

Attention : qqchose de quaisment + impo que attention visuelle.
Qd une autre tribue vient attaquer une autre, des champs de guerre asso. Cette info auditive arrivait avant info visuelle et faut se preparer en consequence. Parfois, attention auditive avant visuelle. Impo pr maintenir la vigilence.

Une des composantes = reflexe de sursaut acoustique.

Rep très rapide étant donné la ptite capacité de synpase necessaire. Reponses vrm vrm rapides.

44
Q

Attention auditive aux differentes sources
- Nous pouvons être attentifs à quoi et quoi non ?
- Qcequi est difficile ou impossible ?

A

Nous pouvons être attentifs à certaines sources sonores et pas à d’autres, même si tous les sons passent par les deux mêmes conduits auditifs.

Difficile ou impossible d’assister à plus d’un flux auditif à la fois.

XXX
ON est cap de deployer notre attention sur source en particulier, mm si tt les sons passent de la mm facon ds tt les conduits auditifs.

Qd on parle de fovea, deployer notre attention. En audition, tt les sons vont passer par nos conduits auditifs. Pas les mm mecanismes qd deployer attention d’une source vers une autre ds notre environnement auditif

45
Q

Def surdité d’inattention

A

L’incapacité à remarquer un son entièrement audible, mais inattendu parce que l’attention était engagée sur un autre flux auditif.

XXX
Si on écoute ds un café une convo avc locuteur, plein d’autres sonores qui vont passer par nos conduits auditifs, mais reuissiront pas à depasser seuil de conscience, mm si tt ces sons traversent nos conduits auditifs. Ca quon parle qd on parle de surdité d’inattention

46
Q

cocktail party
- les différentes sources, c’était lesquelles ?
- qu’est-ce qui va jouer un rôle dans notre capacité à suivre la conversation ?
- c’est quoi le spectrogramme, il va faire quoi ? (+ les axes de X et de Y)
- on va être cap de voir quoi ?
- échelle en noir et blanc (qcque quon pt voir et qui est pertinent ?)
- échelle vert et rouge
- les caractéristiques acoustiques vont jouer un rôle dans quoi ?

A

Axe X : Temps
Axe Y : Fréquence

Cmt ecq on fait ds une situation / scen auditive complexe comme cocktail party pr être qd mm cap de comprendre la personne avc qui on interagit devant ns ? Malgré fait que sons de l’envi qui arrivent à notre système en mm temps ?

Phenomene qui est étudié en perception.
Prof : diff sons avc diff nb de locuteurs. (she argues with her sisters). Avc deux sources + tof d’isoler.

Les caract acousiques de la source sur laquelle on porte notre attention vont def jouer un role ds notre capacité à suivre a convo, mm en presence de multitude de sources sonores.

Vrm ds situation de cocktail party. Devient inaudible. On arrive pareil à suivre des conversations. Ici, juste 8 locuteurs et déjà son semble cachophobnique.

Ici, spectrogramme des differents sons.

Au cours dernier, vu le spectre de energie. On avait l’intensité à diff frequence. MM chose qd on regarde harmonique. Spectre de son = énergie à différentes fréquences.

Ici spectrogramme = le spectre, mais mesuré à diff moments ds le son. Le son = dynamique. On a la mm relation, la puissance d’un son par rapport à ces frequences, mais sur echelle teporelle aussi.

On a frequence ds axe des Y et temps ds axe X.

Échelle noir et blanc :
N représente plus de puissance / energie. Va ns informer sur la composition spetrale dynamique des sons.

On pt mm voir la presence des harmoniques. Qd y’a une vocalisation, y,a des especes de rayures regulieres (cest les harmoniques). Qd on parle de la voix, on parle aussi de format qui sont vrm mportants.

EN VERT
Les proprits acostiques qui sont uniques à la sources

EN ROUGE
Les propriétés acoustiques qui ne sont PAS uniques à la source / au locuteur. Les caract acoustiques vont jouer un role ds notre habileté à reconnaitre le contenu de notre interlocuteur.

XXX
Ici, scene de cocktail party.

La tachce = de separer la source sonore de tt les autres sourecs qui presentes ds cet envir auditif.

On a locuteur qui dit she argues with her sister. Si on ajoute un locuteur de plus, un peu plus tof de deteriner ce qui dit par le 2e locuteur.

Tof d’identifier ce qui est dit par la 2e source. Et qd 3e auditeur, devient cacophonique. On entend le she argues withher sister, mais tof de porter attention au reste.

Les diagrammes sont similaires aux diag d’analyse spectrale. Puissance / energie à certaines freq qui composent un son. Ici, mm info, sauf quon calcule cette energie à diff moments ds le temps. Energie spectro-temporo des sons. Et nom du diag use pr l’illustrer = sectrogramme.

1er spectro
Compostiiona coustique. Y = freqence. X = temps.

2e spectro
Montre cette energie qd on ajoute 2e locuteur, 3 loc et 7, etc…

À DROITE,
En vert : infos qui est unique au premier locuteur (caracteristique de 1er locuteur). Au fur quon ajoute locuteurs, la composition spectrale de so va changer. Info qui provient des autres locuteurs quon ajoute.

Son devient de + en + cacophonique et tof de separe les source.
Tof de porter attention à plusieurs locuteurs en mm temps lors de cocktail party.

Si on commence à porter attention sur autre conversation, on perd l’attention / o ecoute plus ce que locuteur initial ns disait

47
Q

Cokctail party : des mécanismes perceptifs permettent quoi au système auditif ?

A

Des mécanismes perceptifs permettent au système auditif d’estimer les sources sonores individuelles à partir de mélanges (sound mixtures).

XXX
Permet de segmenter diff sources sonores ds melange complexe.

48
Q

Cokctail party :
- les indice de regroupement (….) ns aident à quoi ? (ils sont dérivés de quoi ?)

  • exemple
A

des indices de regroupement “ascendants” dérivés des régularités statistiques des sons nous aident à dire ce qui va avec quoi.

e.g. si un mélange contient de l’énergie à plusieurs fréquences qui démarrent ou s’arrêtent en même temps, ces fréquences appartiennent probablement au même son et sont interprétées comme telles par le cerveau.

XXX
Caract acoustiques qui vont permettre sgmentation des sources sonores. Derrivés / regularités stats des sons qui vont permettre de segmenter qceui va avec quoi. Ex : si scene auditive contient de l’energie à plusierus freq qui start et s’arretent en mm temps, le cerveau va conclure que appartiennent prob à la mm source. Et va use cette info pr segmenter cette source. Faire la diff entre ces propriéts et les autres qui pas mm onset / off set

49
Q

Cokctail party :
- les harmoniques sont susceptibles….

A

Les “harmoniques” sont susceptibles d’appartenir ensemble et ont tendance à être entendues comme provenant d’un seul son.

50
Q

Cokctail party :
- qcequi aide aussi à la tâche de l’auditeur ?

A

Les fluctuations des caractéristiques auditives des différents sons naturels aident aussi à la tâche de l’auditeur. Cela réduit la mesure dans laquelle ils se masquent physiquement les uns les autres.

XXX
La virance pr les caract acoustiques vont aider à la tahe de auditeur. De par notre exprience, on arrive à reconnaiter des caract acoustiques asso à diff objets acoustiques. Notre comprehension du monde permet de mieux isoelrcertianes sources entre qcequi va avc quoi.

Etant donn ces connaissances, cv permettre au cervau d’isoletr qcequi masque physiquqement un son et un autre. Permet de segmenter / isoler les diff sources de par notre connaissances des propriétés qui vont avc diff sources.

Ex parents : on connait les composantes acoustques asso à voix de un / de l’autre. Qd ctx de discussion, info utile pr segmenter si les 2 parlent en mmt emsp. Être cap de traiter info qui provient de une de ces sources la.

51
Q
  • La musique = quoi ?
  • les plus anciens instruments de musiques
  • pythagore
A

La musique est un moyen d’exprimer des pensées et des émotions.

Les plus anciens instruments de musique connus sont des flûtes vieilles de 30 000 ans taillées dans des os d’animaux.

Pythagore était obsédé par les nombres et les intervalles musicaux.
(A joué important ds la compréhension / élab de differents théoremes elaborés.)

XXX
Les premiers instruments retrouvés datent de vrm longtemps

Organisation ssytematique, on avait déjà une compréhension musciale pr être cap de tailler des instruments à vent.

52
Q

Musique et émotion
- musique affecte quoi ?
- certains psy pratiquent quoi ?

A

La musique affecte l’humeur et les émotions.

Certains psychologues cliniciens pratiquent la musicothérapie.

Exemple : La musique peut avoir un impact positif sur la douleur, l’anxiété, l’humeur et la qualité de vie globale des patients atteints de cancer.

XXX
Clip de piano, essayer de vehiculer une emotion. Identifier emotion vehiculée par les clips. Et verifier si particp cap de reconnaitre intension emotionnelle.

Vrm un projet fascinant.

Possible de use musique ds optique therapeutique pr ameliorer qualité de vie globale de certains patients

53
Q

Notes de musiques :
- Les sons de la musique s’étendent sur une gamme de fréquences d’environ….
- def hauteur

A

Les sons de la musique s’étendent sur une gamme de fréquences d’environ 25 à 4500 Hz.

Hauteur : L’aspect psychologique des sons lié principalement à la fréquence perçue.

XXX
Qd on parle de musique, on parle de notes.
Des sons ou notes jouées à plus de 5000 Hz on les entend, mais n’auront plus cette qualité musicale comparé à sons produits entre 25 à 4500 Hz.

Classiquement, sons de 25 à 2400 Hz.

54
Q

Graph la musique (courbe d’audibilité)
- certaines fréquences ont besoin de ….. pour être entendues
- pour quelle fréquence est-ce qu’il y a besoin de moins …….. pour être entendues ?

A

Autre illustration de notre courbe d’audibilité. Freq autour de 1000 Hz besoin de moins d’intensité pr être entendues.

On voit les differentes notes pr une echelle donnée pr les differents instruments de musique

XXX
Pr diff instruments de musique, on a les intervalles de notes et les freq asso aux diff notes.

Si on met tt ca ensemble, certaines des freq de certains instruments vont être percus par notre appareil auditif. L’intensité nec pr les percevoir va varier dep de la freq des notes qui seront jouées.

XXX
Courbe preferentielle de notre système auditif par rapport à la frequence.
Certaines freq besoin de intensité moins importante pr les perceoiv.r

Preference pr certaines freq. constru

55
Q

Octave
- exemple
- C3 ressemble plus à quoi que quoi ?
- Qcequil n’y a pas dans la hauteur musicale ?

A

: L’intervalle entre deux fréquences sonores ayant un rapport de 2:1.

Exemple : le do médian (C4) a une fréquence fondamentale de 261,6 Hz ; les notes situées à une octave du do médian sont 130,8 Hz (C3) et 523,2 Hz (C5).

C3 (130,8 Hz) ressemble plus à C4 (261,6 Hz) qu’à E3 (164,8 Hz).

Il n’y a pas que la fréquence dans la hauteur musicale !

XXX
(mm si E3 a une frequ plus proche de C3 que C4. Ces rapports d’intervalles vont influecner notre reconaissance des notes).

56
Q

Hauteur de tonalité (tone height)

A

Une qualité sonore correspondant au niveau de hauteur. La hauteur de tonalité est liée de manière monotone à la fréquence

57
Q

Chrominance des tons (tone chroma)

A

Une qualité sonore partagée par des tonalités qui ont le même intervalle d’octave.

Chaque note de la gamme musicale (A–G) a une chrominance différente.

XXX
Cmt on pt illustrer la hauteur et la chrominance et impact de ces deux elements sur la musique.

58
Q

Qu’est-ce qui peut aider à visualiser la hauteur musicale ?

A

Hélice musicale

59
Q

Schema helice musciale (VOIR REP FORUM)

A

XX
- Accord de sol majeur joué à différentes hauteurs
- La relation de chrominance reste la même

Perception des accords reste préservée, peu importe l’octave sur lequel est joué

Différentes notes à differentes octaves. On pourrait composer un accord entre trois de ces notes et avoir le mm accord à un octave different.

Subjectivement, ces trois accords seraient très comporables. Ces bases pr lesquelles on pt jouer differentes melodies à differentes chrominances pr lier à appreciation de la melodie.

XXX - MANUEL
L’hélice illustre les deux dimensions de la hauteur musicale
musicales : la hauteur du son (liée à la fréquence)
et le chroma (lié à l’octave).

Les accords sont composés de trois notes ou plus et
peuvent être joués avec différentes hauteur de ton tout en conservant leur relation chromatique.sont maintenues. Ici, l’accord de sol majeur (en violet) est joué à différentes hauteurs de ton.

XXXCLASSE
On voit la hauteur des tons qui change de facon verticale par rapport à l’helicle. Et la chrominance qui evolue en fction de la hauteur des tons. Illustre les deux dimensions de la hauteur musicale.

On illustre avec ces regions des accords en sol. Les 3 notes des accords en sol vont varier en hauteur, mais leur qualité va restr très similaire. Possible de jouer accord à diff octaves et ont va le percevoir comme accords de sol

Accord va conserver leu relation chromatique entr les notes. Ici, accord de sol majeur joué à diff hauteur. Mais relation de chrominance reste la meme. Notre perception des accords de sol reste preservé peu importe octave sur leequel est joué

60
Q

Oreille absolue (Absolute Pitch)
- def
- debat sur quoi
- plus probable pour qui

A

Une capacité rare par laquelle certaines personnes sont capables de nommer ou de produire des notes très précisément sans comparaison avec d’autres notes.

Compétence très prisée des musiciens

Débat sur la question de savoir si l’AP est inné ou acquis

Plus probable pour les personnes qui commencent une formation musicale à un jeune âge

XXX
Personnes qui peuvent discriminer des notes avec freq differentes. Freq bcp plus petites que oreille normale. Très prisé des musiciens d’être cap de jouer ces notes precises.

Prob une combinaison de inné et acquis.

61
Q

Mélodie
- def
- exemple
- pas…. mais….
- les mélodies peuvent changer quoi et rester quoi

A

Une séquence de notes ou d’accords perçus comme une seule structure cohérente.

Pas une séquence de sons spécifiques mais une relation entre des notes successives

o Les mélodies peuvent changer d’octave ou de tonalité et rester la même mélodie même si elles ont des notes complètement différentes.

62
Q

Tempo
- def
- mesuré comment
- le rythme peut être considéré comme quoi

A

def: la vitesse percue de la présentation des sons

généralement mesuré en nombre de battements par minute, où le battement est la mesure de base du temps en musique.

Le rythme peut être considéré comme le modèle de la musique dans le temps.

e.g. le rythme cardiaque humain. Le rythme cardiaque est une division du temps, et il peut être rapide ou lent - son tempo.

XXX
Plus le rythme est rapide ou lent, on va parler du tempo. La division du temps = ryhtme et qualité rapide ou lente de cette division = le tempo.

63
Q

Étude du cortex auditif à l’aide de modèle de reseau de neurones.

A

Bcp de recherche qui a été faite sur la musique, la musique sur le cerveau humain.

Étude du cortex auditif à l’aide de modèle de reseau de neurones. Mm type de modele computationnel qd on parlait de reconnaissance d’objets en vision. Réseaux à couche qui vont traiter l’info auditive par rapport au son et qui vont essayer de categoriser la categorie d’un son ou le genre musical d’un son. Use ces modeles pr essayer de mieux comprendre les mecanismes soiit reliés à la perception de la musique ou à la perception de la parole.

XXX CLASSE
On en connait peu sur musique et cerveau. Tof de study mettons en IRMF l’audition.

ÉTUDE
Modèles issus de intelligence artificielle pour faire la part des choses entre la musique et diff composants acoustiques des sons ds le traitement de info ds cerveau humain.

64
Q

Étude de Kell : musique et parole zones

A

Difficile de séparer les contributions de la hauteur des sons, du timbre, etc. dans l’identification des mécanismes cérébraux spécifiques à la musique. (mais voir Kell et al. Neuron, 2015).

Régions antérieures du cortex auditif responsable du traitement de la musique.

MUSIQUE

PAROLE

XXX
Tof de faire etudes sur son avec IRMF.

En use des outils comme les modeles computationnels used par kelll et al, possible d’isoler des regions qui auraient des reponses préférenteilles à la musique. On parle de regions antérieurs du cortex auditif.

Long du lobe temporal supérieur y’aurait des regions qui repondraient de facon specifique à la musique. Reussis à le voir en use des reseaux de neurones à couche.

Ici, reseaux de neurones qui repondent préférentiellement à la parole.

Ces regions ressemblent à celles quon a identifiées qui sont préférentielles au traitement de la voix humaine. Y’a encore epuision entre neurone et voix possible.

XXX CLASSE
Controler pr etre certain que resultats quon observe sont pas correle avec la musique. Être cap de controler ces diff dimensions acoustques presentent pr identifier mecanismes propres à la musique et qui sont pas des mecanismes plus generaux

MUSIQUE : Long du sillon temporal superieur. Regions specifiquement implquées ds le trait de la musique

PAROLE
Conditions ou des clips de musiques, mais dautres que

Tjrs long du dilln tempo superieur (+posterieur les regions de la parole. Celle de musique = plus temporal superieur)

On contraste les deux et voir si regions qui sortent plus fort. Pas vrm isolé des mecanismes qui pourraient être en overlap.

65
Q

ETUDE : son présenté sous forme de spectrogramme

A

Le son = présenté sous sa forme de spectrogramme au modele. Et y’a diff traitements qui sont faits au fur et à mesure quon avance ds les couches.

Deux taches par rapport au modele

1) La classification d'un mot qui est parlé, ou la calssif du genre de la musique. En etudiant les représentations à l'intérieur des couches, on arrive à prédire l,activité cérébrale soit pr ce qui est de la musique ou ce qui est de la catégorie. 

XXX CLASSE
Modeles de AI entrainés avec banques de données vrm importntes.
Modeles different selon deux taches.

1) On clasffie les mots 
2) On class le genre musciale 

Use ces deux modeles pr predire le genre de clip musicale presneté et predire la parole.
modeles d’encodage classique. Use des representations multidimensionenlles pr predire acitivation ds voxel ds differentes conditions.

On a les activvatins pr une couche pr les diff clips qui ont été présentés. On use ces actiivations ds ces couches pr entraine modele à predire clip que participant a entendu.

Et niv d,activation du voxel pr diff conditions.

66
Q

ETUDE : son présenté sous forme de spectrogramme - suite

A

Ex des sons de l’environnement qui sont des sons entendus au quotidien (personne qui crie, du velcro) qu’on va passer à l’intérieur du modele.

On va aussi enregristrer des données cérébrales par rapport à ces sons. Dev un modele lineaire entre els reponses à l’interieur du modele (leur activation) et essayer de predire en use cette activation neuronale là la reponse ds un voxel donné mesuré en IRMf pr les differents sons. ON a des outils qui permettent d’aller plus loin, pcq on a des modeles + puissants pr reconnaitre la source des dffieretens sons.

Trivial, ex de SIRI qui reconnait notre voix. Qd mm assez precis, il se trompe rarement.

Ex des sons de l’environnement qui sont des sons entendus au quotidien (personne qui crie, du velcro) qu’on va passer à l’intérieur du modele.

On va aussi enregristrer des données cérébrales par rapport à ces sons. Dev un modele lineaire entre els reponses à l’interieur du modele (leur activation) et essayer de predire en use cette activation neuronale là la reponse ds un voxel donné mesuré en IRMf pr les differents sons. ON a des outils qui permettent d’aller plus loin, pcq on a des modeles + puissants pr reconnaitre la source des dffieretens sons.

Trivial, ex de SIRI qui reconnait notre voix. Qd mm assez precis, il se trompe rarement.

XXX
Reseau entainé cap d’expliquer grande portion e la variance, que ce soit qd tt les voxels used ou quon separe differentes compososantes comme des regions d’interet du cerveau.

Les modeles entrainés arrivent à predire activité cerebrale de facon assez spectaculaire. Pres de 80 % de variance predite.

Ecq taches de precision du genre musical ou des mots ?
Modeles qui n’ont pas été entrainés. Modeles qui pas entrainés à rien faire. Ces modeles d’encodage où on use activation pr diff sons peuventêtre des outils pr permettre de mieux comprendre mecanismes ds cerveau pr reconnaitre diff dimensions ds le traitement sonore et isoler regions sepcifiques à la musique et pas d’autres diff specifiques corrélées.

67
Q

Production vocal
- les humains sont cap de produire…
- cmt de lng parlées utilisant cmb de sons vocaux diff

A

Les humains sont capables de produire de nombreux sons de parole différents.

Environ 5000 langues sont parlées aujourd’hui, utilisant plus de 850 sons vocaux différents.

68
Q

Tractus vocal
- def
- comprend quoi
- qcequi est important dans la production de la parole ?

A

Tractus vocal : La voie aérienne au-dessus du larynx utilisée pour la production de la voix.

Comprend les voies orales et les voies nasales.

Flexibilité du tractus vocal - important dans la production de la parole.

XXX
Sons vocaux générs par notre appareil vocal.
Qcequi constitue appareil vocal qui permet de generer cette variété de sons et de communiquer les uns avec les autres.

Voir cmt les poumons qui poussent l’air / les cordes ocales qui vibrent, articulateurs qui amplifient certaines freq vont ns permettre de generer des sons diff et de vehiculer un paquet de choses incluant la parole, mais asusi info pertinentes comme emotion, age,e tc.

69
Q

L’appareil vocal : commence par ou, quoi..

A

(A) La production de la parole se compose de trois éléments fondamentaux : la respiration (poumons), la phonation (cordes vocales) et l’articulation (conduit vocal). Les cordes vocales s’étendent sur la partie supérieure du larynx. La vue agrandie de gauche est celle d’une personne regardant vers le bas depuis le haut. (B) Le conduit vocal se trouve au-dessus du larynx et se compose des voies orale et nasale.
(MANUEL)

XX
Commence par les poumons. Pr parler, on a besoin d’air.

Poumons vont vehiculer de l’air vers les cordes vocales.
Cordes vocales vont vibrer. Les articulateur (caisse de resonnance), vont changer la forme decette caisse de raisonnance. Dep du positionnement de la lng, va changer cette configuration acoustique et donc la qualité du son qui va êter amplifiée par notre appareil vocal et produire des sons differents.

70
Q

Format - étiqueté comment ?
- les concentrations d’énergie se produisent quand ?

A

Étiqueté par numéro, du plus bas au plus élevé (F1, F2, F3) - les concentrations d’énergie se produisent à différentes fréquences, en fonction de la longueur du conduit vocal.

71
Q

Production vocale comprend quels trois étapes ( + parties du corps qui y sont associées)

A

Respiration (poumons)
Phonation (cordes vocales)
Articulation (tractus vocal)

72
Q

Respiration et phonation

  • initiation de la parole (il se passe quoi avec le corps)
  • phonation : cest quooi ?
A

Initiation de la parole - le diaphragme pousse l’air hors des poumons, à travers la trachée, jusqu’au larynx.

Phonation : Le processus par lequel les cordes vocales sont amenées à vibrer lorsque l’air est expulsé des poumons.

73
Q
  • On parle en use quel air
  • quand que son est produit par l’autre type d’air
  • On mobilise XXXX % de la capacité vitale du volume d’air lors de la XXX
  • Parler à un débit de conversation courante nécessite
  • Qcequi est le plus important pour la voix ?
A

On parle en utilisant l’air expiratoire.

Rare sont les situations où le son de la voix est produit par l’air entrant.
-sanglots
-gémissements
-surprise extrême (!aH)

On mobilise 60 à 80% de la capacité vitale du volume d’air lors de la phonation.

Parler à un débit de conversation courante nécessite environ 1 litre d’air par seconde.

Le plus important pour la voix, c’est avoir un débit adéquat et surtout une pression d’air suffisante.

XXX
Possible de faire des sons avec la voix en use air entrant, mais vrm rare

Qd mm qté d’air importante mobilisée pr la prod vocale

Qd mm des qtés importantes d’air importantes pr produire la voix / la parole.

Pour generer la phonation et avec l’aide des articulateurs emplifier les frequences pertinentes dep des sons quon veut produire

74
Q

Larynx : quoi qui se passe
- enfants vs adultes les cordes vocales ont l’air de quoi ?

A

Au larynx—l’air passe entre les deux cordes vocales.

Enfants: petites cordes vocales, voix hautes.
Adultes: cordes vocales plus massives, voix basses

75
Q
  • Les cordes vocales ne sont pas….
  • Analogie de …
  • Larynx = quel type d’instrument ?
  • Analogie
A

Les cordes vocales ne sont pas des cordes.

L’analogie dans le livre avec la guitare est intéressante, parce que la guitare est un instrument à cordes.

Mais le larynx est un instrument à vent!

Une meilleure analogie serait la trompette, où les lèvres du trompettiste vibrent et les vibrations sont modifiées par le tube de l’instrument.

XXX
Qd on parle de la parole ds manuel, analogie avc guitare.

Analogie avc la guitare ne tient pas vrm la route

76
Q

Articuolation : cest quoi ?

A

L’acte ou la manière de produire un son vocal en utilisant le tractus vocal.

XXX
Cette ampification = effectuée par les articulateurs.
Articulateur : manière de produire son vocal en use le tractus vocal. Zone au dessus

77
Q

Zone au-dessus du larynx :

A

conduit vocal

78
Q

Les humains peuvent modifier la forme de leur appareil vocal comment ?
- ces manipulations sont…

A

Les humains peuvent modifier la forme de leur appareil vocal en manipulant leurs mâchoires, leurs lèvres, le corps de leur langue, le bout de leur langue et leur velum (le voile du palais).

Ces manipulations sont l’articulation.

XXX
Dep de la position de ces articulateurs, cap de generer differents sons

79
Q

Articulation
- Caractéristiques de résonance créées comment ? pour affecter quoi ?

A

Caractéristiques de résonance créées en modifiant la taille et la forme des voies vocales pour affecter la distribution des fréquences sonores

XXX
Caracteristiques qui vont affecter composition spectrale des sons qui vont sortir de notre appareil vocal

80
Q

Modèle source-filtre (REVOIR AUXILIAIRE)

-generalement, les trois premiers formats nous donnent de l’information pour quoi ?

A

(A) Le spectre du son provenant des cordes vocales est un spectre harmonique

(B) Après avoir traversé le conduit vocal, qui présente des res-onances en fonction de la forme du conduit vocal à ce moment-là

(C). il y a des pics (formants ; ici F1, F2 et F3) et des creux d’énergie à différentes fréquences dans les sons qui sortent de la bouche (C).

Qd on bouge nos articulateurs, on va amplifier certaines frequences et amenuiser d’autres.

Modele source-filtre.

Si on fait vibrer les cordes vocales et quon enregistre au niveau des cordes vocales, on va avoir ue frequence donnée et certaines harmoniques pr cette frequence.

On a un son complexe, mais l’enveloppe / le timbre a pas encore été modulé.
Cest qd on bouge nos articulateurs quon change notre caisse de résonance, quon va appliquer certains filtres qui vont donner caract acoustiques qui vont ns permettre de faire differents sons ds la parole. On a un système d’harmonique à diff frequences et quon applique un filtre, on va se retrouver avec des frequences amplifiées et c,est cette modulation du spectre qui va donner naissance au timbre, à la qualité des sons quon genere avec la voix.

F1,F2,F3 fait reference au format. C’est les frequences qui sont amplifiées par le filtre. Gen, les 3 premiers formats ns donnent assez d’info pr reconnaitre les diff sons de la parole.

XXXCLASSE
Qd air = explusé des poumons, on a la phonation.

Si on mesure directement au niv des cordes vocales energie speactrale des sons, on voit spectre harmonique comme celui en A.

On a un spectre harmonique a la sortie des cordes vocales et on applique filtre sur ce spectre et ce filtre va aller attenuer / amplifier certaines freq.

Ds ce cas, filtre amplifie certaines freq et ces trois freq qd on parle de la voix, on parle de format. Les formats = les filtres appliqués à certianes freq. Ces filtres vont dep de la position des articulateurs.

Dep si notre lng en avant oud erriere, l’amplification des 1ers et 2e formats sera à des frequences differentes.

Ds modele source filtre, on a une vibration du donne spectre.

Position amplifie des ??? Quion appelle format et donner eponse

81
Q

Formant
- def

A

Une résonance du tractus vocal qui crée un pic dans le spectre de la voix.

XXX
Amplification de certaines frequences qui est fait en modulant nos articulateurs

(et de la posiion de l,articulateur ds appareil vocal)
L’anatomie d’une peronne va contribuer aux frequences amplifiées lors de la production de la voix.

82
Q

Spectrogramme
- def

A

Un modèle d’analyse sonore qui fournit un affichage tridimensionnel, traçant le temps sur l’axe horizontal, la fréquence sur l’axe vertical et l’intensité en couleur ou en échelle de gris.

XXX
Ns donne le spectre ds le temps. L’énergie de différentes fréquences ds le temps. C’est une représentation des ons / modele de la source sonore. Sur un modele de meme, on est cap d’identifier les differents formats ds la production de la voix.

83
Q

Spectrogramme graf

A

CHANGEMENT D’AMPLITUDE POUR DIFFÉRENTES FRÉQUENCES DANS LE TEMPS

Ici, exemple de spectrogramme avec dans l’axe des Y la frequence et ds axe des X le temps.

La personne dit we were away a year ago. Et on pt regarder les modulations temps-frequence qui viennent avc la modulation des articulateurs ds la production de la voix.

On pt voir aussi les diffrentes bandes ds le spectrogramme. Si on zoom, on pt voir les format.

On a un spectre et la différence entre ce spectre c’est qu’on mesure ce spectre avec une reoslution temporelle plutôt que d’integrer sur entiereté du sn dans le temps.

Le power spectrum va ns donner amplitude globale d’un son pr les différentes frequences

Le spectrogramme va ns donner l’amplitude ds le temps. Les changmeents d’amplitude pr differentes frequences ds le temps.

XXX CLASSE
Spectrogramme de qqun qui prononce we were away a year ago.

ON voit analyse spectrale, energie à diff frequence. Toanlisée en ne tenant pas compte de dimension temporelle.

En bas, info spectro - temporale pr la production vocale de cette phrase.
Le code de couleur allant jusqu’au rouge montre energie pr diff frequences ds diff moments ds le temps. Pics reliés à la position des articulateurs ds l’appareil vocal.

Ici, pic relié à la fction de filtre.

84
Q

Spectrogramme au sortir du larynx et au sortir des lèvres

A

Ici, on voit le spectrogramme du mm son pr sortir du larynx. Encore une fois les frequences vs le temps et pour sortir des levres.

On voit l’impact que l’articulation pt avoir ds la qualité du son qui emane qd on produit la voix.

Qd on mesure spectrogramme du son qui sort du larynx, on voit un son regulier, pas bcp de odulation ds le temps, et cest en modulant nos articulateurs qd on parle quon va créer cette enveloppe qui va véhiculer nos intentions ds la parole.

Qd on parle / dit des phrases, on doit moduler nos articulateurs pour changer les sons. Et cest les articulations qui vont jouer ce role.

XXX CLASSE
Le format va être energie max à une certaine frequence.

Au niveau des cordes vocales / phonation, on a ce spectre harmonique. Qd on msure cette energie de sortie des levres, on voit l’energie aux diff bandes de frequence s pr ce filtr.

Vrm spectre harmonique. Pr sortir des levres, on applique filtre sur ces vibrations pr amplifier certains formats.

85
Q

Graph son des voyelles

A

XXX —-> POSITION DE LNG JOUE ROLE DS LES 2 PREMIERS FORMATS

F1 : hauteur + profondeur de la langue
F2 : avancée ou recul de la langue

“e” et “o” : langue très haut dans la bouche

“e” : langue très en avant
“o” : langue en arrière

Diag qui montre en fction de la position de la lng, derriere bouche ou devant, au palais ou à la base, et les deux premiers formants du spectrogramme (F1 et F2. ici, onv oit les 3 formants).

XXXMANUEL
Les fréquences du premier formant (F1) et du deuxième formant (F2) correspondent à la hauteur ou à la profondeur de la langue (F1) et à l’avancée ou au recul de la langue (F2), respectivement. La ligne en pointillé illustre les limites du mouvement de la langue lors de la production de voyelles. Par exemple, les voyelles “ee” et “oo” sont produites avec la langue très haut dans la bouche. Dans le cas de “ee”, la langue est très en avant, mais pour “oo”, la langue est très en arrière.

XXX CLASSE
Ds le livre, son des voyelles en anglais. Lien entre frequence de 1er format, position de lng ds la bouche.

Cv affecter freq du 1er format. Si positio. De la lng = vers arrière de la bouche, affecte le 2e format

POSITION DE LNG JOUE ROLE DS LES 2 PREMIERS FORMATS AMPLIFIÉS DS CE SPECTRE HARMONIQUE AU NIV DES CAORDES VOCALES. Les diff voyelles = représentées par combnaison de ces dex formats.

86
Q

Triangle vocalique

A

XXX
Outil utilisé pour représenter graphiquement la position des voyelles dans la bouche lorsqu’on les prononce.

Y,a une fcontion qui va finalement caracteriser les voyelles qd on positionne notre lng devant, derriere, en haut ou en bas ds notre bouche.

Le triangle vocalique.

Le 1er formant et le 2e vont interagir de telle sorte que pr faire le I, positionner notre lng d’une certaine facon. Pr faire un A, positionner langue d’une certaine facon et pour U, une certaine facon.

Ces positionnements vont avoir des influences sur le 1er et le 2e formant.

87
Q

Perception catégorielle

A

Les chercheurs peuvent manipuler les stimuli sonores pour qu’ils varient continuellement de « bah » à « dah » à « gah ».

Cependant, les gens ne perçoivent pas les sons comme variant continuellement.

Au lieu de cela, les gens perçoivent des frontières catégorielles nettes entre les stimuli - la perception catégorielle.

XXX
Y’a un shift perceptif à un certain moment ds la transition entre deux sons

88
Q

Perception categorielle graph

A

Exemple de ces frontières catégorielles. TT ce qui est ds espace bleu cest ce qui sonne comme bah et soudaiement notre percept change, y’a une frontière catégorielle. Et tt ce qui siut sonne donne dah.

Les sons ont été modulés de facon continue. AU début les sons ont 100 % de bah, après 95 % 90 %, 5% et 100 % de dah. Si la perception était continue, on aurait un intermediaitre abstrait entre bah et dah. Mais perception catégorielle qui possède une frontière où d’un step à l’autre, on a passé de bah à dah et ainsi de suite.

Ici, trois premiers formats aussi qui évoluent d’un son comme bah à gah

XXX MANUEL
Les spectrogrammes sonores en bas de cette figure indiquent des stimuli acoustiques qui passent sans heurt d’un “bah” clair à gauche à un “gah” clair à droite, en passant par un “dah”. Comme on le voit en haut de la figure, la perception ne change pas de façon régulière. Tous les sons à gauche ressemblent à un “bah” (courbe bleue) jusqu’à ce que nous atteignions une frontière nette entre “bah” et “dah”. Les auditeurs sont bien meilleurs pour distinguer un “bah” d’un “dah” que pour distinguer deux “bah” ou deux “gah”. La ligne noire en pointillés indique les performances en matière de discrimination. Il en va de même pour “dah” (courbe rouge) et “gah” (courbe verte).

XXX CLASSE
Si on fait contnum lisse entre les sons bah,dah,gah, on voit que l’infleunce sur les trois premiers formats va être graduel et lisse.

ON modifie ces frequences contiuellement.

La perception de ces sons est categorielle. Frontière ou on passe de perception de bah, à dah. Qd on traverse cette frontiere, rendu ds le dah. Qd on traverse certaine frontière, on tombre ds le gah. Aussi frontière spectrale u format / position des articulateur va generer des sons percus. Qd on depasse nn certain seuil, on tombe ds une oul’autre des voyelles.

89
Q

Schéma traitement auditif

A
90
Q

Traitement de la voix humaine dans le cortex auditif : étude de Belin sur la réponse rpeferentielle

A

On sait que les visages vont geenrer des reponse spréférentielles ds FFA.

On connait aussi le décourt temporel d’une reponse preferneitelle au visage. On sait quand on mesure EEG qu’environ 170 ms suivant l’onset d’un visage, on va avoir reponse preferentielle ua visage qui vient de Ffa probalbmeent.

On connait le lieu ds le cerveau où la reconnaissance des viasges est effectuée et on sait cmt de temps ca prend au cerveau pr reconnaitre un visage.

Ici, on s’interesse à la voix. Elle est traitées où ds le cerveau et cmb de temps ça prend à reconnaitre une voix au cerveau

Regions qui repondent de facon preferentielle au son de la voix, comparativement à des sons de l’environnement. Ds son experience, avait des blocs de 20 sec ou on presente des sons vocaux et des blocs de 20 sec ou on presente sons non-vocaux

Une fois les données receuillies, on fait la methode de soustraction. Contraster la reponse des sons de la voix à la reponse des sons non-vocaux pour voir les regions du cerveau qui répondent de facon préférentielle au son de la voix.

Ont identifi le long du sillon temporal supérieur (surtout à droite), des regions qui répondent prefenreitlemment à la voix humaine

91
Q

Temporal Voice Areas (TVAs) : ETUDE

A

Ds etude de Ciril plus recente, 3 regions

Temporal voice area postérieur, mediane et antérieure pur hemisphere droit et gauche.

Reponses un peu plus fortes ds hemisphere droit que gauche. Qqchose de simiaire aussi pr reconnaissance des vosages ds cerveau humain. Un peu de lateralisation vers la droite.

XXX
Repliqué ces resultats avec etude de 200 partici pr montrer le ong du silon temporal sup trois regions :

Les regions temporelles de la voix.

Region posterieure, mediane et antérieur. Qui sont impliquées ds cervau pr traitement de la voix humaine.

92
Q

Décoder la parole : ÉTUDE APPRENTISSAGE MACHINE

A

Un des premiers papier que use des techniques d’apprentissage machine pour predire des reponses cerebrales par rapport à diff categories de son.

Un des premiers à use du machine learning pour decoder en audition / neuroscience scongitve le contenu de ce que la personne est en train d’entendre.

3 voyelles (a,i,u) qui étaient énoncées par 3 locuteurs. Essayer de decoder la voyelle presentée et lidentité du locuteur. Resultats montrent des regons où l’info suffisante pour permettre de decoder les voyelles et des regions où l’info va être suffisante pour identifir le locuteur.

Titre du papier introduit la parole. Mais on remarque nettement la presence de ces trois regions du long du sillon temporal supérieur qui s’apprentent au Temporal voice areas.

Question : si qd on decode les 3 locuteurs ici, qui prononcent des voyelles assez simples, si on est en train de decoder la voix humaine, l’identité véhiculée par la voix humaine ou si on en train de decoder la parole.

Reusltat montre les 3 regions des temporal voice areas.

XXX CLASSE
Étude : essayé de decoder idetntité d’un locuteur.

Triangle vocalique used,. Prononcer certaines voyelles qui ont composition spectrale qui depend de position des articulateurs. Remarque que cap de decoder quelle voyelle est prononcée en use données en irmf. Cap de decoder voyelle le long du sillon temporal supérieur à gauche et à droite.

Et cap de decode identitié du locuteur. Regions vrm proches qd on regarde le traitemnt de la voix.
Vrm les composatns acoustiques propres à apapreil vocal des diff locuteurs quon va decoder et ces mm regions vont reveler regions recruteés ds triatement de voix umain ds le cervau

93
Q

Voix conspécifiques1 : etude

A

Le long del’evolution, diff mammipheres presentes des reponses conspecifiques.

Reponse squi vont être specifiques à leur espece.

Les sgines vont presenter des reponses peferentielles ds leur cerveau à ds sons qui proviennet de la mm espece de singe.

Chez humain, reponses preferentielles à la voix humaine et differents mamiphere qui vont presenter des reponses conspecifiques.

Recemment, 2021, bodin a montré presence de ces regions chez le macaque et l’homme (c’est h on savait déjà que rep préférentielle à la voix humaine, mais de find reponses preferentielles au macac chez macac montre que composante evolutive du traitement preferentiel de la voix ds le cervau. Nos ancetres avaient déjà des reponses preferentielles ds leur cervau pr les membres de leur espece.

XXX CLASS
Montré que ds cerveau, egions qui vont rpondre specifiuement ax vocalisaiton conspecifiques (qui viennent dennotre propre espece).

Autant chez human que macaque, regions ds cortex auditif qui vont rep preferentiellement aux vocalisations de notre propre espece.

94
Q

Voix conspécifiques 2

A
95
Q

Régions de la voix chez le chien! : etude

A

Uassi des rep prefenritelle à la voix humaine chez le chien.

Vraiment compliqé de faire de IMRf chez le chien pcq bouge tt le temps. Mais avc un peu d’effort, on arrive et on remarque la presence de regions ds le cervau du chien qui repondent de facon pref à la voix huamine

XXX
Chez le chien, y,a des regons qui rep preferentiellement à la voix humaine.

Chien cap de traiter ds son cerveau notre voix. Regions de notre chien qui rep de facon preferentielle à la voix huamine.

96
Q

Réponse électrophysiologique à la voix
- ont étudié quoi
- réponse pref = ?

A

Ont étudié la réponse de tons chantés vs. tons instruments comparables en fréquence fondamentale.

Réponse préférentielle (voice specific response; VSR) à 320 ms post-onset.

XXX
Cmb de temps ca prend au cerveau pr reconnaitre une voix humaine ? Se tourner avec EEG. Les 1eres etudes qi ont study ont parlé de reponse specifique à la voix..

Reponse qui serait presenteà 320 ms apres l’onset du stimulis.

ECQ CEST PLAUSIBLE QUE REP PREFERENTIELLE DE LA VOIX ARRIVE À 320 MS ?

On sait quoi sur traitement pref de visage, prend cmb de temps ? 170 ms au cerveau.

Cortex visuel primaire = loin de la retine. Cortex auditif primaire = tres proche de chochlée, peur de relais.

Ecq logique que rep preferentielle aussi tardive qd on study la voix vs ce qu’on observe en visage ?

Prof pense que non.

Ds l’etude ici, use des tons chantés vs des tons d’instruments pr essayer d,isoler une reponse preferentiele. Pt que Y,a un effet du choix des stimuli qui explique cette reponse.

Pt qu’ils étaient en presence dun processus plu s tardif de reconnaissance de champ vs instrument qui est pas nec la mm chose que la reconnaissance de la voix à proprement parler.

XXX
Pas parlé du décourt temporel, cmb de temps ca prend pr reconnaitre son de voix vs de l’instrument, etc. Une des premieres etudes qui contraste rep de tons chantés vs tons d’instuments comparables en freq fondamentale.

Identifé voice selective response.

Pk le double du temps pr que cerveau rec voix humaine
Resultats influencés par les sons.

97
Q

ÉTUDE DE IAN rep preferentielles

A

Préseneter 150 sons de la voix humaine.

150 champs d’oiseau et 150 sons de l’environnemnt.

Ici, représentato des diff electrodes sur le scalp.

Ici, representation des electrodes sur le scalp. Electrodes centrales, fronto-centrales et occipitales. POur la premiere comparaison, on trouve des differences à envirnon 164 ms. Mm des differences qui sont plus tot que 164. qd on prend conjonction entre les deux contratses, (voix vs champ d’oiseau et voix vs son de envi), on remarque des diffrences d’amplitude specifiques aux voies humaines quie emanent ds des electrodes fronto-temporelles à environ 160 ms apres le onset du sitm.

2E FIGURE
On pt voir pour ces electrodes la reponse specifique à la voix ne rouge. Reponse preferentielle pcq est plus grande pour les voix que pr les sons d’oiseau que pour les sns de envi.

Mais ne veut pas dire que champ oiseau et son envi n’active pas ces generateurs ds le cerveau. Mais reponse preferentielle. S’active + pour les sons de la voix que les autres categories.

164 ms. C’est plus similaire à 170 ms pour la reconnaissance visage:))

AUTRE PTS IMPO
Pt que ca serait bien que le cerveau ait implémenté des traitements similaires entre la voix et visages ? Pcq souvent les deux interagissent. Si on avait signal vocal qui prend 320 ms è être reconnu et un qui prend 170 ms à être reconnu, ya delai. Cervveau ferai quoi pour intergrer en un percept coherent ces deux infos qui ont delai aussi grand ?

A du sens que les deux traitements se fassent à la mm echelle temporelle, environ 170 ms

XXX
Essayer de decouvrir ns mm à quelle vitesse cerveau reconnait son de la voix. Reponse à 164 m/s. qui rep de facon pref à la voix huamine.

En rouge : les courbes pr sons de la voix bleu son envi, vert chant oiseau.
On voit rep selective aux sons de la voix.

Contents, pcq s’integre bien avc nos connaissances en vision.
A du sens que la voix soit reconnu avc timing similaire.
Qd on interagit avc qqun, intergrer info du visage à celle de voix. Amrcherait pas si un qui delai de 200 m/s apres ‘auter.

Rassurant de voir qu’on a rep preferentielle pr les visages et la voix.

98
Q

Étude de Ian version MEG

A

Resultats repliqués en MEG.

En gros, on rpesente la mm reponse preferentielle à la voix. Comme on est en MEG, on est cap de faire meilleur identification des sources de ce rep preferentieles.

Qd on regarde les sources des reponses pref, on les retrouve le long du sillon temporal supérieur ds les temoporal voice areas. Belle confirmation de resultat de 2009

99
Q

Intéractions visuo-auditives
- def
- effet mcgurk

A

L’information visuelle peut affecter la perception auditive.

Effet McGurk : ce qu’un auditeur voit en regardant le visage d’un locuteur affecte le son qu’il entend

XXX
Le mm son presenté, mais changement du mouv des levres et altere perception du son qui est vehiculé. Integration multi-senso attribue importance au mouv des levrese t influencer notre percep vers un tierce percept.

XXX
Video de pers repetant le son gah.
Les levres bougent comme si la eprsonne articulait gah.

On juxtapose le son bah et l’auditeur entendag dah.

Y’a des seuils bien definis. Qd on juxtapose diff info, on obtien un tierce percept. Fascinant de voir cmt on arrive à créer des illusiosn en combinant info visuelle et auditive pr produire perceptions illusoitres.

100
Q

Yanny - Laurel

A

50 % yanny, 50 % laurel. Similaire à la robe.

Explication vient de l’age de nos oreilles. Si laurel, on a des oreilles plus veilles. Et si yanny, plus jeunes.
Les oreilles vont filtrer les diff frequences et amplifier et alterer percept.

Vrai reponse = laurel. Mais on entend yanny

101
Q

Triangle vocalique : quoi pour F1 et quoi pour F2 ?

A

Résonateur pharyngé (F1)
Pharynx large = Voyelle fermée
Pharynx étroit = voyelle ouverte

Résonateur bucal (F2)
Grande cavité = Voyelle postérieure
Cavité étroite = voyelle antérieure

102
Q

DTF stands for what

A

Fonction de transfert directionnel