Control Cognitif 2 Flashcards

1
Q

Comment le cerveau représente la valeur de nos décisions ?

A

Décision prise en fonction du choix qui maximise la valeur de la récompense reçu

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Exp chez des singes éveillés - enregistrement multi - electrodes :

Tache : Choisir entre deux images c’est deux images sont voisines au sein d’un rang de valeur, apprendre au fur et à mesure la valeur de chacune

Conditions : Les deux images voisine différent le long d’une des 3 dimensions:

  • Reward probability - quelles est la proba d’obtenir un reward
  • Payoff: cb de ml de jus ?
  • Cost: nb de fois qu’il faut presser sur le levier de réponse

—> quand une des dimensions varie, les autres restent fixes !

Quel résultat ?

A

Cellules qui répondent sélectivement à une dimension, Ainsi que des cellules qui répondent à plusieurs dimensions dans les 3 régions

Pas de spécialisation : chaque air code pour les différents dimensions de la valeur

  • ACC ( antérieur prefrontal médial) : neurones codent pour +++ dimensions -> valeur en général ( dans les 3 conditions) -> déchargent + pour valeurs grandes et valeurs - grandes
  • LPFC et OFC + spécialisé pour une dimension à la fois ( = - de multiplexing)
  • LPFC : quand code pour effort/cost tend à être aussi associée à une autre dimension -> travaille avec structures sous corticales -> associé à dopamine

( structures prefrontales )

=> Le signal de valeur codé par ses neurones précède la préparation motrice comme si elle disait le choix dans la décision..

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Exp chez humains en IRMf:

Quel résultat avec OFC et Latéral PFC ?

A
  • OFC ( cortex orbito frontal) semble coder pour le playoffs (+ ou -) d’argent mais striatum plutôt pour l’effort
  • Latéral PFC : Semble codé pour la probabilité d’une récompense mais le médial PFC plutôt sensible au délai entre choix et obtention de la récompense ( Delayed-discounting)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Tache du Marshmallow :

Manipulation de la confiance du participant dans l’expérimentateur :

Expérimentateur demande à l’enfant de dessiner mais lui donne du mauvais matériel lui dit qu’il revient dans cinq minutes avec du matériel

  • Condition 1: Revient avec meilleure matériel
  • Condition 2: Ne revient pas

Plus tard le même exp administre le marshmallow test à enfant

Quel résultat ?

A

Ce qui n’ont pas reçu le meilleur matériel ont + de chances de se laisser tenter par le marshmallow, rôle de l’environnement de l’enfant

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Que se passe-t-il si le gain tout de suite est haut mais il y a un coût + tard ?

Choix des gens au régime entre donut ou un yaourt

Taches :

  • Évaluer la préférence du sujet pour chacun des snacks considéré
  • Dans IRMf, sujet choisit à chaque essais entre healty ou non healthy snack à la fin un snack parmi leur choix est tiré au hasard et on leur donne.

Si on choisit que des snacks bon pour le régime on est sur qu’on va tomber là-dessus..

Quel résultat ?

A

Activation dans le ventral médiale PFC pour les différents snacks

  • Activité change en fonction de la préférence exprimée par le sujet pour chaque snack avant la séance d’imagerie cérébrale ( - il y a de la préférence, - Ces cortex s’activent et inversement. Sensible au niveau de récompense. Cortex median prefrontal code vrm pour ca)
  • Dans le dorsal latéral PFC, activité change en fonction du degré de contrôle exercé pendant la tâche
  • SC trial = self control trial: essai ou le sujet choisir un healthy snack alors qu’un snack unhealthy que le sujet préféré est offert
  • Self control group: individus avec un meilleur self control ont + d’activation cortex latéral préfrontal par rapport aux essais où ils ont choisi un snack unhealthy que no self control groupe basé sur leur réponse à un questionnaire.

Cortex préfrontal latéral: important pour s’orienter vers un choix sain

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Conclusion :exp Choix des gens au régime entre donut ou un yaourt:

A
  • Valeur de la décision : OFC/ VMPFC (surtout pour nourriture mais aussi argent pas juste renforçeur primaire)
  • Latéral PFC : applique applique un certain contrôle étant donné la valeur de chaque chois

Note : Neurophysiologie suggère pas de spécialisation, mais IRMf suggère une certaine forme de spécialisation, clairement même si spécialisation plusieurs dimensions sont représentés dans toutes ces aires

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Comment choisir quand la valeur n’est pas connue ?

Qeske la contrainte par le théorème de valeur marginale ? ( Charnov)

A

Foraging - Comment chercher de la nourriture, est-ce que je continue à exploiter cette endroit de forêt où est-ce que je bouge vers des terres inconnues ? mais peut-être plus riche

—> la balance entre exploitation- exploration

Décision entre une option de valeurs connus et inconnus -> contrainte par le théorème de la valeur marginale ( Charnov):

Animaux exploite leur environnement jusqu’à ce que le taux de récompense qui le reçoivent passe en dessous du taux moyen connu pour tous les environnements visiter jusqu’à maintenant (vrai pour les humains singes les vers de terre)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Quelles sont les bases neuronale du foraging : quelle est la valeur prise en compte pour la décision de partir vers un choix de valeur inconnue?

A

L’expérience qui montre qu’il existe un seuil de départ dans le ACC ( cortex angulaire cingulé)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Exp :

Sage manifeste s’il préfère rester exploiter ou partir explorer par la direction de la saccades qu’il exécute

  • Rester : Le délai est plus court entre chaque récompense mais la valeur de la récompense diminue au cours du temps-> saccade vers carré bleu
  • Partir: Aucune récompense sur cet essai puis après un délai variable possibilité de plus grande récompense-> saccadé cers rectangle gris)

Conditions expérimentales:

  • Handling time delay ( 0.4 sec vs 0.8 sec)
  • Reward payoff (reduc de 0.02ml vs 0.04 par essai)

Plus de chance de partir quand délai (0.8) est plus long et reward diminuent plus vite (0.04ml/essai)

Quel résultat ?

A

Neurones dans ACC dans le taux de décharge ( PA) signe le départ du patch au comportement d’exploration

-> L’animal part quand le seul de ACC est double par rapport à valeur initiale

=> Une expérience qui montre qu’il existe un seuil de départ dans ACC

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Résumé :

A

Chez le sage est chez l’humain ( FMRi) activation dans ACC pour exploration dans une foraging task

Mais activation du VMPFC si la tâche demandée décidé entre 2 valeurs calculable ( exemple des snacks) -> VMPCF représente les valeurs

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Pour quoi code les neurones dopaminergiques?

A

Récompense primaire (nourriture sexe soif ) beaucoup de structure ancienne sous corticale code pour la récompense

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Quels sont les centres sous corticaux pour la dopamine ? (2)

A
  • Substantia nigra ( SN)

- Ventral tegmental area ( VTA) dans le mésencéphale

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Eske les neurones dans ces nuclei sont dopaminergiques ?

A

Oui leurs terminaisons nerveuses produisent et relâchent de la dopamine dans l’espace synaptique

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Dans quoi est impliqué le dopamine pathway ?

A

Récompense, plaisir, euphorie, fonction moteurs, compulsion, préservation

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Expérience de Olds et Milner :

implant dans le centre de plaisir structure dans le mésencéphale relié au système dopaminergique

Mais quels pb ? (3)

A
  • La relâche de la dopamine en soi ne procure pas de sensation de plaisir
  • relâche de dopamine à son maximum quand l’animal obtient une récompense auquel il ne s’attends pas
  • neurones dopaminergiques déchargent quand une récompense est attendu
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Qeske le VTA?

A

Un des centres dopaminergiques important et ils communiquent avec l’hypothalamus latéral

17
Q

Exp conditionnement :

Singes entraîner à associer une lumière (CS) avec l’obtention de jus de fruit (US)—> entraîne une réponse conditionné (CR) à la lumière

enregistrement dans le ventral tegmental area ( VTA)

A
  • 0 lumière : DA activités max pour récompense ( US) : Décharge dans GTA quand récompense pas prévu
  • Lumiere : DA Activité Max juste après CS, pas de réponse visible à US -> prédictions correct : Si récompense prévu ( par lumière) à leur décharge après la lumière mais pas après la récompense
  • Lumière : DA max juste après CS, si pas de US, inhibition des neurones DA -> mismatch entre prédiction et réalité : Si on donne pas récompense alors qu’il s’y attendait -> diminution de la décharge des normes de pomme énergique
18
Q

Évidence pour un signal de prédiction :

Quand la proba de récompense pour le CS augmente, alors ..?

A

Les neurones DA déchargent de + en + au stimulus ( CS( et de - en - a la récompense ( US)

Note : Différents animaux testés avec différents niveaux d’association entre le stimulus CS et la récompense US

19
Q

Évidence pour un signal de prédiction :

Quand le délai entre stimulus CS et la récompense US augmente ..?

A

Les neurones DA déchargent de - en - Si CS et de + en + à la récompense US

Note : Animaux testés avec niveau de l’association constant est élevé entre le CS et US mais on varie le délai chez le même animal

20
Q

Relâche de dopamine a son maximum quand l’animal obtient une récompense auquel elle ne s’attend pas : (4)

A
  • Neurones dopamine code pour l’attente d’une récompense ? pas exactement
  • Neurones dopamine décharge pour signaler l’attente d’une récompense mais encore plus important si il y a un mismatch entre la récompense attendue et la récompense obtenu- un code pour l’erreur de prédictions ( Prédiction error - PE)
  • au cours du temps (même singes même tâche), activité signalant l’attente d’une récompense va disparaître et seule P1 reste
  • Théories computationnelles qui montrent comment PE peut être utilisée pour faire de l’apprentissage par renforcement
21
Q

Récompense et punitions : les neurones DA codent pour quoi?

A

Attente d’une récompense

22
Q

Récompenses et punitions :

Les neurones dans une structure du thalamus dorsal, havé ils sont actif quand ?

A

Choix est le + défavorable

=> On voit le même pattern chez humain mais la précision anatomique est moindre

23
Q

Exp de loterie chez humain:

4 loteries diff : on a argent à la bade et en fonction des décisions qu’on prend ça change la somme d’argent à la fin.

  • Cue A: neutre ( 0 gain ni perte)
  • Cue B: Si on fait mauvais choix on perd rien et si on fait le bon on gagne +
  • Cue C: soit on perd 2$ soit on gagne rien
  • Cue D: Tout ou rien

Quel résultat ?

A

Si gain; activation du striatum -> implique substance noire

Si perte: activation de habenula

24
Q

Une alternative à hypothèse selon laquelle les neurones dopaminergiques via PE sont à la source de apprentissage:

Laquelle ?

Quelles preuves ?

A

Décharge dopaminergiques est le résultat de l’apprentissage (pas la cause) et signale l’importance de l’événement/stimulus appris

  • Souris qui ne peuvent pas synthetiser de la DA sont capables d’apprendre
  • Souris génétiquement modifiés pour synthétiser plus de DA n’ apprennent pas plus vite
  • Quand on exécute une action la récompense qu’elle peut générer à trois composants: wanting, learning and liking ( sérotonine)
  • > Neurones DA signalent le wanting

Le waning = faire effort pour avoir qqch