Conditionnement instrumental: Fondations Flashcards

1
Q

Qu’est-ce que le conditionnement opérant et comment diffère-t-il du conditionnement classique ?

A

Le conditionnement opérant se concentre sur le rôle du comportement en tant qu’instrument pour influencer l’environnement, tandis que le conditionnement classique porte sur notre adaptation aux stimuli de l’environnement.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

En quoi consiste l’importance de la conséquence dans le comportement futur ?

A

Les conséquences d’une action déterminent si ce comportement sera répété. Une conséquence positive renforce le comportement, tandis qu’une conséquence négative le diminue.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Pourquoi est-il difficile d’isoler les facteurs qui influencent les conditions entourant un comportement particulier ?

A

Il est difficile d’isoler ces facteurs en raison de la complexité des variables en jeu dans un environnement donné.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Comment distingue-t-on un comportement instrumental d’un comportement répondant ?

A

On peut faire cette distinction par le biais d’expériences contrôlées. Le comportement instrumental est intentionnel et vise à obtenir une récompense ou à éviter une punition, tandis que le comportement répondant est déclenché par des stimuli spécifiques de l’environnement.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Qu’est-ce qui différencie le conditionnement opérant du conditionnement classique en termes d’influence sur l’environnement ?

A

Le conditionnement opérant met l’accent sur le fait que notre comportement lui-même modifie l’environnement, alors que le conditionnement classique se concentre sur notre réaction à l’environnement sans changer activement celui-ci

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Qui était Edward Thorndike et quel était son domaine d’intérêt principal ?

A

Edward Thorndike était un psychologue qui se concentrait sur la compréhension de l’intelligence chez les animaux.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Qu’est-ce que la “boîte à problèmes” de Thorndike et quel était son objectif ?

A

La boîte à problèmes était un dispositif dans lequel un animal devait résoudre un problème pour accéder à de la nourriture. L’objectif était d’étudier comment les animaux apprenaient à utiliser des dispositifs pour obtenir une récompense.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Quel était le principe de base derrière la boîte à problèmes de Thorndike ?

A

Lorsque l’animal ouvrait la boîte, il y trouvait de la nourriture. Le défi pour l’animal était de manipuler un dispositif spécifique pour ouvrir la boîte et obtenir la récompense.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Comment Thorndike a-t-il mesuré l’apprentissage des animaux dans la boîte à problèmes ?

A

Thorndike a mesuré l’apprentissage en observant le temps qu’il fallait à l’animal pour sortir de la boîte. Initialement, cela prenait beaucoup de temps, mais avec la répétition des essais, ce temps diminuait, ce qui indiquait des changements de comportement.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Pourquoi Thorndike a-t-il insisté sur l’évitement des interprétations anthropomorphiques dans ses études ?

A

Thorndike souhaitait se concentrer sur des mesures objectives et observables du comportement des animaux, plutôt que de leur attribuer des caractéristiques humaines, afin de mener des études scientifiques rigoureuses.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Quelle est la “loi de l’effet” de Thorndike et comment renforce-t-elle la relation entre stimulus et réponse ?

A

La “loi de l’effet” stipule qu’une réponse produite en présence d’un stimulus est renforcée si elle est suivie d’une conséquence positive, comme une récompense. Cela renforce la relation entre le stimulus (la boîte) et la réponse (la manipulation du dispositif pour obtenir de la nourriture).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Comment Thorndike a-t-il contribué à la standardisation des expériences ?

A

Thorndike a cherché à rendre ses expériences plus rigoureuses en utilisant des essais discrets et en simplifiant les conditions expérimentales. Cela permettait une analyse plus objective et une comparaison plus fiable des résultats.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Quelles sont les boîtes de Skinner, et pourquoi sont-elles essentielles dans l’étude du comportement ?

A

Les boîtes de Skinner, ou chambres d’opérant, sont des environnements contrôlés utilisés pour observer et mesurer les réponses comportementales. Elles sont essentielles pour l’étude du comportement car elles permettent une manipulation précise des conditions expérimentales.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Comment les boîtes de Skinner créent-elles un environnement de comportement libre pour les rats ?

A

Les boîtes de Skinner permettent aux rats de produire des réponses comportementales sans contrainte. Les chercheurs contrôlent les stimuli sonores et autres conditions expérimentales, créant ainsi un environnement où les rats agissent de manière autonome.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Quel est le rôle de la conséquence dans la boîte de Skinner ?

A

Dans la boîte de Skinner, un interrupteur ou un levier permet au rat d’obtenir de la nourriture. Peu importe la manière dont le rat effectue cette action, le comportement est étudié en relation avec la conséquence.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Qu’est-ce qu’un “opérant” dans le contexte de l’étude du comportement ?

A

Un “opérant” est un comportement qui produit la même conséquence, comme l’obtention de nourriture. Ils sont regroupés en catégories pour l’analyse du comportement.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Comment le façonnage est-il utilisé pour enseigner des comportements dans la boîte de Skinner ?

A

Le façonnage commence souvent par la production d’un son lorsqu’un rat reçoit de la nourriture, encourageant un comportement d’approche. Ensuite, le façonnage guide le rat pour apprendre à utiliser un levier ou un interrupteur pour obtenir de la nourriture, de manière itérative et progressive.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Pourquoi la sélection naturelle des comportements est-elle importante dans le contexte de l’étude du comportement ?

A

La sélection naturelle des comportements, basée sur les conséquences positives, est cruciale pour comprendre comment les comportements sont renforcés et répétés dans l’apprentissage et le façonnage du comportement.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Qu’est-ce que le façonnage dans l’étude du comportement ?

A

Le façonnage est une méthode d’apprentissage qui permet d’enseigner un comportement complexe en progressant étape par étape.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Comment B.F. Skinner a-t-il utilisé le façonnage avec un pigeon ?

A

Skinner a utilisé le façonnage pour guider progressivement le pigeon vers un comportement cible au lieu d’attendre que le pigeon l’exécute spontanément.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Comment fonctionne le façonnage avec le rat de Skinner ?

A

Pour utiliser le façonnage avec le rat de Skinner, on commence par définir le comportement cible, puis on augmente progressivement les exigences pour obtenir la récompense.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Pourquoi est-il important de mesurer le comportement de départ dans le façonnage ?

A

Mesurer le comportement de départ permet de comprendre où commence l’apprentissage et de suivre les étapes intermédiaires qui rapprochent le sujet du comportement souhaité.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Quelle est la complexité associée à la nouveauté dans le façonnage ?

A

Dans le façonnage, il est essentiel de déterminer ce qui rend un comportement “nouveau” et de décider quel aspect du comportement doit être façonné.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Quelles sont les méthodes courantes de mesure du comportement dans le façonnage ?

A

Les méthodes courantes incluent la mesure de l’intervalle entre les comportements (temps entre occurrences du comportement cible) et la fréquence (compter le nombre d’occurrences dans un laps de temps donné).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Q

Quel schéma suit le conditionnement instrumental ?

A

Le conditionnement instrumental suit un schéma de “Réponse → Conséquence → Effet sur les futures réponses”.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
26
Q

Qu’est-ce que la contingence du conditionnement ?

A

La conséquence détermine la contingence du conditionnement. L’ajout d’un élément dans l’environnement est une forme de renforcement positif, tandis que la suppression d’un élément de l’environnement constitue une punition négative.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
27
Q

Comment le renforcement positif affecte-t-il le comportement ?

A

Le renforcement positif augmente les taux de réponse, ce qui augmente la probabilité de répétition de la réponse.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
28
Q

Comment la punition (punition positive) affecte-t-elle le comportement ?

A

La punition (punition positive) diminue les taux de réponse, ce qui diminue la probabilité de répétition de la réponse.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
29
Q

Qu’est-ce que le renforcement négatif dans le conditionnement instrumental ?

A

Le renforcement négatif, appelé aussi “évitement” ou “échappement,” consiste à utiliser une réponse pour éviter ou échapper à un événement aversif, renforçant ainsi la réponse.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
30
Q

Qu’est-ce que l’entraînement par omission (DRO) ?

A

L’entraînement par omission (DRO) consiste à renforcer les comportements incompatibles avec le comportement que l’on cherche à punir, en omettant de renforcer le comportement indésirable.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
31
Q

Comment les stimuli sont-ils classés dans le conditionnement instrumental ?

A

Les stimuli sont classés comme appétitifs (augmentant un comportement) ou aversifs (diminuant la fréquence d’un comportement), en fonction de leur impact sur le comportement.

32
Q

Pouvez-vous donner un exemple de DRO (Entraînement par Omission) ?

A

Un exemple de DRO est le cas de “Comportement d’auto-mutilation de Bridget,” où l’on renforce les comportements qui ne sont pas compatibles avec l’auto-mutilation pour réduire le comportement problématique en favorisant un comportement cible.

33
Q

Selon Thorndike, qu’est-ce que l’apprentissage implique en termes de relation stimulus-réponse ?

A

Selon Thorndike, l’apprentissage consiste en le renforcement de la relation stimulus-réponse, et avec le temps, les comportements deviennent de plus en plus stéréotypés.

34
Q

Comment peut-on favoriser la variété des réponses dans l’apprentissage ?

A

On peut favoriser la variété des réponses en offrant des conséquences qui encouragent la variabilité, comme en renforçant la diversité des réponses plutôt que la répétition d’une seule réponse. Par exemple, en offrant une récompense si le sujet ne reproduit pas la même réponse.

35
Q

Qu’est-ce que la “lag procedure” dans le contexte de l’expérience de Neuringer en 1985 ?

A

La “lag procedure” était une expérience menée par Neuringer en 1985 pour étudier le comportement des pigeons en réponse à des contingences de renforcement visant à encourager la variabilité dans leurs réponses.

36
Q

Quel était le but principal de l’expérience de Neuringer en 1985 ?

A

L’objectif principal de l’expérience était de déterminer si les pigeons étaient capables de générer des séquences de comportements variées en réponse à des incitations spécifiques.

37
Q

Comment la méthodologie de l’expérience de Neuringer a-t-elle été conçue ?

A

L’expérience utilisait des pigeons comme sujets. Les pigeons devaient effectuer une séquence de 8 picotements alternant entre une touche gauche et une touche droite. Le critère pour obtenir une récompense était que cette séquence actuelle de 8 picotements devait être différente de celles des n dernières séquences, où n était une variable contrôlée.

38
Q

Quels résultats ont été obtenus dans l’expérience de Neuringer ?

A

Les résultats ont montré que les pigeons étaient capables de générer des séquences de comportements très variables en réponse à ces contingences de renforcement, même sur de longues périodes, suggérant une capacité à générer des schémas de comportement de manière quasi-aléatoire.

39
Q

Comment l’influence de la contingence de renforcement a-t-elle été observée dans l’expérience du Lag Procedure ?

A

L’expérience a montré que la variabilité du comportement des pigeons était plus prononcée lorsque la récompense était directement liée à la variabilité des réponses. En d’autres termes, lorsque la récompense dépendait de la capacité des pigeons à produire des séquences de comportement variées, leur variabilité était plus élevée par rapport à une situation où la variabilité n’était pas nécessaire pour obtenir la récompense.

40
Q

Comment les pigeons ont-ils réagi aux stimuli visuels dans l’expérience du Lag Procedure ?

A

Les pigeons ont réagi aux stimuli visuels (lumières rouges ou bleues) en générant des séquences variées sous des lumières rouges, tandis qu’ils répétaient un schéma fixe sous des lumières bleues, ce qui indique une certaine flexibilité dans leur comportement en réponse aux stimuli.

41
Q

Comment la variabilité de la réponse peut-elle être augmentée dans le renforcement instrumental ?

A

La variabilité de la réponse peut être augmentée lorsque la procédure de renforcement instrumental exige un comportement variable, nécessitant des réponses différentes de celles précédemment émises.

42
Q

Dans une étude avec des étudiants universitaires, comment les participants du groupe VAR ont-ils été renforcés ?

A

Les participants du groupe VAR ont été renforcés en obtenant des points lorsqu’ils ont dessiné des rectangles différents de ceux qu’ils avaient précédemment dessinés, exigeant ainsi de la variabilité dans leurs dessins.

43
Q

Comment s’est comporté le groupe VAR par rapport au groupe YOKED dans l’expérience des rectangles dessinés par les étudiants ?

A

Le groupe VAR a montré une variabilité significativement plus grande dans les rectangles qu’ils ont dessinés par rapport au groupe YOKED, démontrant que la variabilité de la réponse peut être augmentée lorsque la procédure de renforcement exige un comportement variable.

44
Q

Qui sont les sujets de l’expérience “The Creative Porpoise” ?

A

Les sujets de l’expérience “The Creative Porpoise” sont deux dauphins de l’espèce “Steno bredanensis” (dauphins à dents rugueuses).

45
Q

Quel était l’objectif de l’expérience “The Creative Porpoise” ?

A

L’objectif de l’expérience était de montrer la capacité des dauphins à émettre des réponses comportementales nouvelles et non façonnées, c’est-à-dire des comportements qui n’avaient pas été préalablement développés ou observés chez cette espèce.

46
Q

Comment les chercheurs ont-ils formé les dauphins dans l’expérience “The Creative Porpoise” ?

A

Les chercheurs ont utilisé une technique de renforcement positif basée sur la nouveauté. Ils ont renforcé un comportement différent à chaque session, en veillant à ce que les comportements renforcés soient nouveaux et n’aient pas été renforcés auparavant.

47
Q

Quels résultats ont été obtenus dans l’expérience “The Creative Porpoise” ?

A

Les chercheurs ont réussi à obtenir quatre nouveaux types de réponses comportementales de la part des dauphins au cours d’une seule séance d’entraînement, en utilisant cette méthode de renforcement positif basée sur la nouveauté.

48
Q

Quel était l’objectif de l’expérience de Ross et Neuringer en 2002 ?

A

L’objectif de l’expérience de Ross et Neuringer en 2002 était d’explorer comment le renforcement pouvait influencer simultanément trois dimensions indépendantes d’une réponse comportementale.

49
Q

Quelles étaient les trois dimensions indépendantes de la réponse comportementale étudiées dans l’expérience de Ross et Neuringer ?

A

Les trois dimensions étaient l’aire (surface) du rectangle dessiné, l’emplacement du rectangle sur l’écran, et la forme du rectangle (proportion longueur-largeur).

50
Q

Comment le groupe expérimental dans l’Expérience 1 a-t-il été renforcé ?

A

Le groupe expérimental a été renforcé en fonction d’une contingence de variabilité sur les trois dimensions de la réponse. Les sujets ont été récompensés pour avoir varié ces trois aspects de leur réponse.

51
Q

Quels résultats ont été observés dans l’Expérience 1 de Ross et Neuringer ?

A

Les résultats ont montré que le groupe expérimental a réussi à varier significativement plus que le groupe de contrôle le long de chacune des trois dimensions, indiquant que le renforcement de la variabilité a conduit à une diversification coordonnée de leurs comportements.

52
Q

Qu’a révélé l’Expérience 2 de Ross et Neuringer ?

A

Dans l’Expérience 2, les sujets ont été renforcés pour répéter des instances le long d’une dimension tout en variant simultanément le long des deux autres dimensions. Les résultats ont montré que les sujets ont réussi à satisfaire ces contingences, indiquant que le renforcement peut contrôler la répétition le long d’une dimension tout en favorisant la variabilité le long des autres.

53
Q

Comment la variabilité comportementale peut-elle être liée à l’adaptation motrice ?

A

Une étude révèle que la structure temporelle de la variabilité motrice est dynamiquement régulée et peut prédire la capacité d’apprentissage moteur. Les individus avec une plus grande variabilité ont montré un meilleur apprentissage.

54
Q

Comment la variabilité comportementale peut-elle être liée à la créativité ?

A

La variabilité comportementale peut stimuler la créativité en permettant l’exploration de nouvelles solutions et l’adaptation à des situations nouvelles.

55
Q

Quelles sont les limites du conditionnement classique et instrumental ?

A

Les limites du conditionnement classique incluent la spécificité de l’apprentissage à certaines situations. Les limites du conditionnement instrumental incluent la nécessité d’une relation claire entre le comportement et la récompense, ainsi que la compétition entre le comportement à enseigner et les comportements déjà présents.

56
Q

Quels sont les facilitateurs de l’apprentissage mentionnés ?

A

Les facilitateurs de l’apprentissage incluent la quantité et la qualité des renforçateurs. Une quantité suffisante de renforçateurs est nécessaire pour maintenir l’engagement dans le comportement souhaité, et la qualité des renforçateurs est essentielle pour motiver l’apprentissage.

57
Q

Qu’est-ce que les Progressive Ratio et comment mesurent-ils le comportement ?

A

Les Progressive Ratio mesurent le nombre moyen de renforçateurs obtenus par l’individu en fonction de l’exigence de réponse. En augmentant la valeur du renforçateur, on peut exiger plus de réponses pour obtenir la récompense.

58
Q

Comment a été menée l’expérience sur les Progressive Ratio avec des rats ?

A

L’expérience a été menée avec des rats, en modifiant la quantité de renforçateurs. Les groupes étaient : S-S, S-L, L-S, L-L (S pour Small - Petit, L pour Large - Grand).

59
Q

Quel groupe a montré la plus grande augmentation du comportement dans l’expérience sur les Progressive Ratio ?

A

Le groupe qui a montré la plus grande augmentation du comportement est celui qui avait initialement moins de renforçateurs et en a obtenu plus à la fin

60
Q

Quels sont les effets de contrastes mis en évidence dans l’expérience sur les Progressive Ratio ?

A

L’expérience met en évidence les effets de contrastes, à savoir les contrastes positifs (plus de récompenses que prévu) et négatifs (moins de récompenses que prévu).

61
Q

Quelle est la relation temporelle étudiée dans l’expérience de Dickinson, Watt et Griffiths (1992) ?

A

L’expérience de Dickinson, Watt et Griffiths (1992) a étudié comment le délai de renforcement affecte l’acquisition de l’appui sur un levier par des rats pour obtenir de la nourriture.

62
Q

Comment le délai de renforcement affecte-t-il l’apprentissage, selon l’étude de Dickinson, Watt et Griffiths (1992) ?

A

Selon leur recherche, plus le délai est court, plus les rats apprennent rapidement, tandis qu’un délai plus long entrave l’apprentissage

63
Q

Que signifie le “crédit assigné” dans la relation entre la réponse et le renforçateur ?

A

Le “crédit assigné” fait référence à la capacité de l’organisme à attribuer la conséquence (le renforçateur) à la réponse. L’organisme doit percevoir que sa réponse est la cause de la conséquence souhaitée.

64
Q

Quelles sont les stratégies pour surmonter le défi d’apprendre avec un grand délai ?

A

Pour surmonter le défi d’apprendre avec un grand délai, on peut introduire un renforçateur secondaire ou utiliser le marquage, une technique pour réduire la distance temporelle entre la réponse et la conséquence.

65
Q

Qu’explore l’étude de Williams (1999) en ce qui concerne la relation causale entre la réponse et le renforçateur ?

A

L’étude de Williams (1999) explore si la réponse est effectivement la cause du renforçateur, c’est-à-dire si la réponse est perçue comme ayant un effet causal sur l’obtention de la récompense.

66
Q

Qu’est-ce que l’expérience de superstition de Skinner (1948) ?

A

Skinner a placé des pigeons dans des chambres expérimentales et a programmé l’équipement pour délivrer de la nourriture toutes les 15 secondes, indépendamment de ce que les pigeons faisaient. Les oiseaux n’avaient pas besoin de picorer une touche ou de réaliser une autre réponse pour obtenir de la nourriture.

67
Q

Comment les pigeons se sont comportés dans l’expérience de superstition de Skinner ?

A

Les pigeons semblaient réagir comme si leur comportement contrôlait la livraison du renforçateur, même si la nourriture était fournie indépendamment de leurs actions. Ils ont développé des réponses inutiles et apparemment superstitieuses.

68
Q

Qu’a suggéré Skinner comme explication du comportement superstitieux des pigeons ?

A

Skinner a suggéré que le comportement superstitieux était dû au renforcement adventice, c’est-à-dire à l’appariement accidentel d’une réponse avec la livraison du renforçateur. Les pigeons ont agi comme si leur comportement causait la récompense, alors qu’en réalité, la nourriture était délivrée indépendamment. Cela a été interprété comme de la superstition.

69
Q

Comment Staddon et Simmelhag ont réinterprété l’expérience de superstition de Skinner (1971) ?

A

Staddon et Simmelhag ont réinterprété l’expérience en se concentrant sur les régularités comportementales. Ils ont observé que certaines réponses des pigeons prédominaient à des moments spécifiques de l’intervalle entre les présentations de nourriture. Ils ont distingué entre les réponses terminales et les réponses intérimaires.

70
Q

Quelles sont les réponses terminales et les réponses intérimaires dans la réinterprétation de Staddon et Simmelhag ?

A

Les réponses terminales prédominent généralement à la fin de l’intervalle entre les livraisons de nourriture, tandis que les réponses intérimaires prédominent plus tôt dans l’intervalle.

71
Q

Quelle est la principale différence entre la perspective de Skinner et la réinterprétation de Staddon et Simmelhag ?

A

La principale différence est que la réinterprétation de Staddon et Simmelhag se concentre sur les régularités comportementales et remet en question l’idée de renforcement accidentel, suggérant que la présentation de renforçateurs à des intervalles fixes produit des régularités dans le comportement.

72
Q

Comment l’expérience de Skinner a-t-elle influencé les vues sur le renforcement et l’apprentissage instrumental à l’époque ?

A

L’expérience de Skinner a initialement soutenu l’idée que la contiguïté temporelle était le facteur le plus important dans l’apprentissage instrumental, au détriment de la contingence réponse-renforçateur.

73
Q

Qu’est-ce que provoque le développement de réponses terminales et intérimaires similaires chez les animaux exposés au même programme de présentations de nourriture indépendantes de la réponse ?

A

Le développement de réponses terminales et intérimaires similaires chez les animaux exposés au même programme de présentations de nourriture indépendantes de la réponse est provoqué par l’activation du système alimentaire et ses réponses de recherche et d’alimentation préorganisées spécifiques à l’espèce. Ces réponses varient en fonction du moment de la dernière livraison de nourriture et du moment où la nourriture sera livrée à nouveau.

74
Q

Comment se répartissent dans le temps les réponses terminales et les réponses intérimaires selon la théorie des systèmes de comportement ?

A

Selon la théorie des systèmes de comportement, juste après la livraison de nourriture, l’organisme affiche des réponses de recherche focalisée post-nourriture près du distributeur de nourriture. Au milieu de l’intervalle entre les livraisons de nourriture, des réponses de recherche générale éloignent l’animal du distributeur. À mesure que le temps pour la prochaine livraison de nourriture se rapproche, le sujet manifeste à nouveau des réponses de recherche focalisée concentrées près du distributeur de nourriture.

75
Q

Qu’est-ce que l’effet d’impuissance apprise dans le contexte de la recherche sur le contrôle des renforçateurs ?

A

L’effet d’impuissance apprise se réfère à la perturbation de l’apprentissage ultérieur, en particulier de l’évitement et de l’échappement, qui se produit après l’exposition à des événements stressants et incontrôlables. Il a été initialement étudié chez les chiens, mais des recherches ultérieures ont utilisé d’autres animaux de laboratoire, comme les rats et les souris, ainsi que des participants humains pour explorer ses mécanismes comportementaux, hormonaux et neurophysiologiques.