1.3 - Instrumentelles Lernen und operantes Konditionieren Flashcards

1
Q

Edward Lee Thorndike war ein wichtiger Vertreter des amerikanischen Behaviorismus. Welche Beobachtung machte er 1911 bei experimentellen Studien zu Katzen in seinem Problemkäfig (Puzzle-Box)?

A

Die Katzen hatten schrittweise auf der Basis von Versuch und Irrtum gelernt, welche Reaktion (Hebel drücken) dazu führte, der unerwünschten Umgebung (Stimulus) zu entkommen, um zu dem gewünschten Ergebnis (Freiheit) zu gelangen. Dabei verringerte sich die Reaktionszeit, welche die Katze
braucht, um die Tür der Puzzle-Box durch das Drücken eines Hebels zu öffnen, mit der Anzahl der Lerndurchgänge.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Was beschriebt Thorndike mit dem Gesetz des Effekts und dem Begriff “stamping in”?

A

Den Zusammenhang zwischen Verhalten und Konsequenz, welcher darin besteht, dass Verhalten, das zu gewünschten Konsequenzen führt, öfter gezeigt und im Zeitverlauf zu dominierendem Verhalten wird, bezeichnete Thorndike als Gesetz des Effekts (Law of Effect). Den Lerneffekt bezeichnete er als “stampin in”.
Unerwünschte Konsequenzen führen
hingegen dazu, dass die Wahrscheinlichkeit des Auftretens eines bestimmten Verhaltens abnimmt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Zwischen welchen beiden Konditionierungen differenzierte Skinner?

A

Zwischen einerseits dem durch klassische Konditionierung erworbenen respondenten Verhalten als Reaktion auf einen Reiz und dem operanten Verhalten, infolge einer operanten Konditionierung.

Respondentes Verhalten: Skinner verstand darunter die Reaktion als Antwortverhalten auf einen klassisch konditionierten Reiz (lat. respondere = antworten).

Operantes Verhalten: Dieser Begriff bezeichnet ein Verhalten, das auf Assoziationen zwischen persönlichem Verhalten und den hieraus resultierenden Konsequenzen
basiert.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Wie definierte Skinner operantes Verhalten?

A

Als operant gilt ein Verhalten dann, wenn die Handlung einen operativen Eingriff in die Umwelt darstellt, um damit die gewünschten Konsequenzen herbeizuführen. Auf diese Weise werden bei der operanten (bzw. instrumentellen) Konditionierung Assoziationen zwischen dem persönlichen Verhalten und den nachfolgenden Konsequenzen hergestellt.

“Operantes Konditionieren verändert somit die Wahrscheinlichkeit unterschiedlicher Arten operanten Verhaltens als Funktion der Umweltkonsequenzen, die das jeweilige Verhalten produziert.”

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Was ist die Skinner-Box?

A
  • Entwickelte Skinner speziell für sein Forschungsvorhaben.
  • Wurde in zahlreichen, unterschiedlichen Versuchsanordnungen genutzt, z. B. wurden Ratten, die sich in der Box befanden, bei Drücken eines Hebels mit Futter oder Wasser belohnt. Die Häufigkeit, mit der dies geschah, wurde durch ein Messinstrument aufgezeichnet, welches sich außerhalb des Käfigs befand.

Siehe Seite 33 im Skript

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Bei der klassischen Konditionierung ist die Kontingenz der Verstärkung von großer Bedeutung. Ist dies auch bei der operanten Konsitionierung der Fall?

A

Ja, da zwischen Reaktion (z. B. Betätigen des Hebels durch die Ratte) und den hieraus resultierenden Konsequenzen (z. B. Futtergabe) eine zuverlässige Beziehung bestehen muss, nicht aber bei einer anderen Reaktion des Tiers.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Was sind diskriminative Hinweisreize?

A

Das sind Stimuli, die zuverlässig vorhersagen, wann ein bestimmtes Verhalten positiv verstärkt
wird.

Im assoziativen Lernprozess dienen spezifische Reize in einer bestimmten Situation als diskriminative Hinweisreize, wie beispielsweise eine grüne Ampel das Verhalten verstärkt, gehen zu dürfen, während eine rote Fußgängerampel darauf hinweist, stehen zu bleiben, um nicht überfahren zu werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Was bedeutet Dreifachkontingenz?

A

Diese ist die Lernerfahrung, dass das Verhalten bei einem spezifischen, aber nicht bei einem anderen Reiz mit hoher Wahrscheinlichkeit einen bestimmten Effekt auf die Umwelt hat.

Skinner bezeichnete die Beziehung zwischen einem diskriminativen Hinweisreiz, dem Verhalten und der Konsequenz als Dreifachkontingenz und war davon überzeugt, dass hierdurch menschliches Verhalten größtenteils erklärt werden kann.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Laut Meyers gibt es unterschiedliche Arten von Verstärkern. Welche sind das? Erkläre sie.

(Primär, sekundär oder auch konditioniert)

A
  • Primäre Verstärker: Befriedigen unsere (biologischen) Grundbedürfnisse und müssen nicht erlernt werden. Z.B. etwas zu trinken zu bekommen, wenn man Durst hat.
  • Sekundäre Verstärker: Sind konditioniert (erlernt) und wirken durch ihre Kopplung mitr einem primäre Verstärker, wie z.B. Geld, Lob oder Anerkennung, wenn wir diese mit Belohnung assoziieren.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Was ist Belohnungsaufschub?

A

Grundsätzlich sind Menschen (anders als Ratten) auch dazu in der Lage, unmittelbare Belohnungen zugunsten zeitverzögerter Belohnungen aufzuschieben, wie z. B. den Kinobesuch für die Zeit nach der Prüfung aufzuheben, dies wird als Belohnungs- bzw. Gratifikationsaufschub (engl. Delay of Gratificaton) bezeichnet.

Aufgrund dessen wird eine vorausgehende Reaktion häufiger gezeigt.

Der Begriff wurde von Walter Michel et al (1989) geprägt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Wovon hängt ab, was als Verstärker dienen kann?

A

Was als Verstärker dienen kann, ist abhängig von dem jeweiligen Organismus und den Umweltbedingungen. Als Verstärker kann jeder Reiz fungieren, der die Wahrscheinlichkeit des Verhaltens durch seine kontingente Darbietung erhöht.

Zum Beispiel kann die Aussicht auf ein Bad im See an einem heißen Sommertag eine willkommene Abkühlung versprechen, während die gleiche Aktion im Winter durchaus verzichtbar ist. Für jemanden, der Schwimmen grundsätzlich nicht mag, würde die gleiche Situation, unabhängig von der Jahreszeit, möglicherweise kein positiver Verstärker sein. Wie das Beispiel zeigt, können Reize daher abhängig vom jeweiligen Individuum und der Situation als positiv, negativ oder neutral bewertet werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Positive und negative Verstärker

A
  • Positive Verstärkung: Bei der positiven Verstärkung wird das Verhalten durch einen angenehmen Reiz bekräftigt.
  • Negative Verstärkung: dadurch gekennzeichnet, dass ein unangenehmer Reiz vermindert oder entfernt wird.

Beispiel aus der Forshchung: In Skinners Versuchsreihe konnte das Bodengitter unter Strom gesetzt werden, was von der Ratte durch Drücken des Hebels aktiv beendet werden konnte. Ein Alltagsbeispiel hierzu wäre das Schließen des Fensters bei lauten Bauarbeiten vor dem Haus. Da dies vermutlich zu einer deutlichen Reduktion des Baulärms führen wird, ist es sehr wahrscheinlich, dass dieses Verhalten zukünftig in ähnlichen Situationen erneut angewandt wird.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Negative Verstärkung vs. Bestrafung

A
  • Bestrafung: Ziel ist es Verhalten zu vermindern oder zu unterbinden, statt es zu verstärken. Laut Gerrig und Zimbardo ist ein Bestrafungsreiz „jeder Stimulus, der – wird er kontingent zu einer Reaktion dargeboten – die Wahrscheinlichkeit dieser Reaktion im Laufe der Zeit senkt“.
  • positive Bestrafung: Auf ein Verhalten hin wird ein unangenehmer Reiz zugefügt. Positiv bedeutet in deisem Fall, dass in der Situation etwas von außen hinzukommt, das vorher nicht gegeben war.
  • negative Bestrafung: Auf ein Verhalten hin wird ein angenehmer Reiz weggenommen.

Beispiel positive Bestrafung: Der Schmerz, der beim Anfassen eines heißen Bügeleisens dazu führt, dieses kein weiteres Mal zu berühren.

Beispiel negative Bestrafung: Fernsehverbot nach der schlechten Note in der Matheklausur.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Folgen der Bestrafung in der Kindererziehung

Was regelt der § 1631, Abs. 2 BGB seit dem Jahre 2000?

A

„Kinder (haben) ein gesetzlich verbrieftes Recht auf gewaltfreie Erziehung. Körperliche Bestrafungen, seelische Verletzungen und andere entwürdigende Maßnahmen sind unzulässig“

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Folgen der Bestrafung in der Kindererziehung

Was ergab eine repräsentative Berfragung von 1.003 Erwachsenen, in deren Haushalt mindestens ein Kind lebte, zum Thema Bestrafung in der Kndererziehung?

Repräsentativ: In repräsentativen Studien wird mittels Zufallsauswahl eine Stichprobe von Personen untersucht, die in Bezug auf wesentliche Merkmale möglichst genau mit der Population übereinstimmt.

A
  • 40% der befragten Erwachsenen bestraften ihre Kinder in den letzten zwölf Monaten mit einem Klaps auf den Po.
  • 10% der Kinder erhielten eine Ohrfeige
  • 4% der Kinder bekamen als Strafe schläge auf den Po.

Aus psychologischer Sicht spricht einiges gegen diese Form der Bestrafung, die von einer doch recht großen Anzahl von Eltern immer noch befürwortet wird.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Folgen der Bestrafung in der Kindererziehung

Laut Myers konnte durch zahlreiche Studien belegt werden, dass Bestrafung dazu führt, dass…

A
  • … das unerwünschte Verhalten nur unterdrückt, statt verändert wird. Die Eltern erhalten hierdurch allerdings den Eindruck, dass ihre Bestrafung erfolgreich war, womit wiederum ihr Bestrafungsverhalten negativ verstärkt wird.
  • … das Kind Aggressivität als eine Möglichkeit zur Problemlösung erlernt und nach dem Vorbild der Eltern selbst aggressiv handelt.
  • … das Kind durch die Reizdiskrimination in der Lage ist, zwischen Situationen zu unterscheiden und z. B. nicht mehr flucht, wenn der strafende Erwachsene in der Nähe ist, es aber tut, sobald es sich unbeobachtet fühlt.
  • … das Kind sich vor dem strafenden Elternteil fürchtet. Durch Reizgeneralisierung kann es bei der operanten Konditionierung dazu kommen, dass das Kind die Bestrafung nicht nur mit dem unerwünschten Verhalten, sondern auch mit der Person und der Situation in Verbindung bringt.
  • … beim Kind die Entstehung von Depressionen und von Gefühlen der Hilflosigkeit gefördert werden kann

Reizdiskrimination: Das ist eine während der Konditionierung erlernte Fähigkeit, zwischen dem konditionierten und anderen Reizen zu unterscheiden und darauf unterschiedlich zu reagieren.

17
Q

Erlernte Hilflosigkeit

Was besagt das Konzept der erlernten Hilflosigkeit? Wer hat es entwickelt und durch welche Forschung?

A
  • Entwickelt von Seligman während seiner Forschung an Hunden.
  • Erlernte Hilflosigkeit: Die wiederholte Erfahrung, unangenehmen bzw. traumatisierenden Ereignissen nicht ausweichen zu können, führte bei den Tieren in Seligmans Studien zu Passivität und Resignation, sodass sie zu einem späteren Zeitpunkt, als sie der Situation entgehen konnten, dies nicht taten. Sie hatten gelernt, dass sie nicht die Kontrolle über die Situation hatten und ergaben sich resigniert ihrem Schicksal.
  • Seligman erkannte Parallelen zwischen erlernter Hilflosigkeit und depressiven Symptomen. Ebenso wie bei einer Depression führt auch erlernte Hilflosigkeit zu Gefühlen von Hoffnungslosigkeit und Wertlosigkeit. Betroffene haben zudem den Glauben daran verloren, jemals Erfolg haben zu können, selbst wenn sie erfolgreich sind.

Da durch Bestrafung Depressionen und Gefühle von Hilflosigkeit beim Kind begünstigt werden können, wurden die Untersuchungen an Hunden durchgeführt.

18
Q

Skinners Auffassung von Bestrafung

A

Vertrat die Auffassung, dass die direkte positive Verstärkung zu bevorzugen sei, da sie weniger objektive Nebenwirkungen zu haben scheint oder mit seinen Worten: „Direct positive reinforcement is to be preferred because it appears to have fewer objectionable by-products“

19
Q

Was bedeutet der Begriff shaping (Verhaltensformung) nach Myers?

A

Laut Myers wird das Verhalten mittels Shaping (Verhaltensformung) durch Verstärkung schrittweise an das erwünschte Verhalten herangetragen. Shaping wird bei komplexem Verhalten, wie beispielsweise in der Tierdressur, eingesetzt, indem Reaktionen, die in die gewünschte Richtung gehen, belohnt und alle anderen ignoriert werden.

20
Q

Löschung

A

Die Reaktion nimmt ab, wenn die Verstärkung aufhört, kann aber, wie auch beim klassischen Konditionieren, nach einer Pause erneut auftreten (Spontanerholung).

21
Q

Was ist der Unterschied zwischen kontinuierlicher Verstärkung und der deskuntinuierlichen Verstärkung ?

A

Kontinuierliche Verstärkung:
* Ein erwünschtes Verhalten wird jedes Mal, wenn es gezeigt wurde, durch einen angenehmen Reiz nekräftigt (positive Verstärkung)
* erwünschtes Verhalten wird schnell gelernt
* Nachteil: erwünschtes Verhalten wird schnell wieder gelöscht, sobals es nicht mehr verstärkt wird.

Partielle oder intermittierende Verstärkung:
* Verhalten wird teilweise oder in unregelmäßigen Abständen (diskuntinierlich verstärkt).
* erwünschtes Verhalten wird langsamen gelernt
* führt aber zu einer größeren Resistenz dagegen, gelöscht zu werden im Vergleich zur kontinuierlichen Verstärkung.

Diese Erkenntnis führte dazu, dass Skinner bei seinen Versuchen mit Tieren unterschiedliche Verstärkerpläne auf ihre Wirksamkeit hin überprüfte.

Resistenz: Hiermit wird allgemein die Widerstandsfähigkeit bezeichnet; in diesem Fall gegenüber der Löschung des konditionierten Verhaltens.

22
Q

Welche Verstärkerpläne gibt es?

A

Variable Quotenpläne:
* Verstärkung nach einer nicht vorhersehbaren und variablen Anzahl von Reaktionen
* Beispiel Spielautomat
* Es ist unbekannt, wann die Belohnung erteilt wird und die Verstärker nehmen im gleichen Maß wie die Reaktionen zu
* Daher hohe Reaktionsrate
* und große Resistenz gelöscht zu werden

Feste Quotenpläne:
* Verstärkung erfolgt nach einer bestimmten Anzahl an Reaktionen, z.B. nach jedem zweiten oder zehnten Mal
* Da ein unmittelbarer Zusammenhang zwischen Reaktionen und Verstärkung gegeben ist, wird eine hohe Wahrscheinlichkeit einer Reaktion erzeugt
* Auf jeden Verstärker folgt eine Pause, die umso länger ausfällt, je höher der Quotient ist
* Beispiel: Anzahl an Vertragsabschlüssen, die ein Versicherungsvertreter erbringen muss, bevor er bezahlt wird. Ist das Verhältnis der Verstärkung hingegen zu gering, kann es sein, dass dies zur Löschung des Verhaltens führt

Feste Intervallpläne:
* Verstärkung der Reaktion nach einem festgelegten Zeitintervall
* Die Ausdauer belohnt das Verhalten
* Erzeugt langsame aber stetige Reaktionen
* Beispie: Werbeaccount eines Discounters an jedem Montag

Variable Intervallpläne:
* Das Zeitintervall, das angibt, wann die Wartezeit vorbei ist, wird willkürlich festgelegt.
* Langsame aber stetige Reaktionen werden ausgelöst
* Beispiel: Die Nachricht auf dem Handy, die in variablen Zeitintervallen aufblinkt.

Siehe Seite 38 im Skript

23
Q

Welche Verstärkerpläne führen zu höheren Reaktionsraten? Welche führen zu dauerhafteren Reaktionen?

A
  • Es bleibt allgemein festzuhalten, dass (Quoten-)Pläne, bei denen Reaktion und Verstärkung miteinander verknüpft sind, zu höheren Reaktionsraten führen als die Kopplung von Zeit und Verstärkung der Intervallpläne.
  • Außerdem führen unvorhersehbare und damit variable Pläne zu dauerhafteren Reaktionen als vorhersehbare und festgelegte Pläne.
24
Q

Was spielt neben der Kontingenz und der Kontinuität neben der klassischen konditionierung auch in der operanten Konditionierung eine Rolle?

A

Ebenso wie das klassische Konditionieren unterliegt nach Myers auch das operante Konditionieren biologischen Einschränkungen, da Tiere und Menschen besonders gut Assoziationen lernen können, die natürlicherweise miteinander verknüpft und dazu bestimmt sind, das Überleben zu sichern

Beispiel: Belohnt man z. B. einen Hamster mit Nahrung und konditioniert im Anschluss daran ein Verhalten, das er natürlicherweise mit Futtersuche verbindet (z. B. graben), ist dies recht einfach zu erreichen. Soll er hingegen ein Verhalten zeigen, das nicht seinen natürlichen Veranlagungen entspricht, wird er dies relativ schnell wieder verlernen und zu seinen instinktiven Verhaltenstendenzen zurückkehren

25
Q

Woran weigerte sich Skinner, bist zu seinem Tode, in Bezug auf wesentliche psychologische Forschung, zu glauben?

A

Die kognitive Verarbeitung. Skinner weigerte sich bis zu seinem Tod kognitive Prozesse wie Erwartungen und Gedanken als wesentlich für die psychologische Forschung anzuerkennen

Kognitive Verarbeitung: Hierbei sind höhere geistige Prozesse beteiligt, wie z. B. abstraktes Denken oder Gedächtnis.

26
Q

Woran zeigt sich, dass kognitive Prozesse auch beim operanten Konditionieren eine Rolle spielen?

A

Dass kognitive Prozesse jedoch auch beim operanten Konditionieren eine Rolle spielen, zeigen laut Myers beispielsweise Studien an Ratten, die zunächst ohne Belohnung durch ein Labyrinth geschickt werden und bei ihrer Erkundungstour eine geistige Abbildung des Labyrinths (kognitive Landkarte) entwickeln. Sobald der Versuchsleiter ein Stück Käse als Belohnung in den Ausgang legte, waren sie in der Lage, das Gelernte zu zeigen und sich den Käse zu holen, ein Vorgang der auch als latentes Lernen bezeichnet wird.

Latentes Lernen: Das ist eine Art des Lernens, bei der das Gelernte zwar vorhanden, aber noch nicht sichtbar ist und erst gezeigt wird, wenn ein Anreiz hierfür besteht.