Lernen & Gedächtnis Flashcards

You may prefer our related Brainscape-certified flashcards:
1
Q

001a | Erläutern Sie die 3 wesentlichen Aspekte von Lernen

A

(1) Verhaltensänderung/ Veränderung des Verhaltenspotentials
Die neurobiologischen Veränderungen, die mit Lernen einhergehen, sind nicht direkt beobachtbar. Wohl aber die Veränderung des Verhaltens. Lernen muss sich jedoch nicht unbedingt in Verhaltensänderung zeigen. Es kann auch gelernt worden sein, ohne dass der Lernende unmittelbar eine Verhaltensänderung zeigt und vielmehr durch das Lernen in die Lage versetzt worden ist, dies zukünftig zu tun. In diesem Fall hat sich das Verhaltenspotential des Lernenden verändert.
Demnach ist im Rahmen von “Lernen” grundsätzlich zwischen dem was gelernt wurde und dem was im Verhalten gezeigt wird zu unterscheiden

(2) Nachhaltige/ stabile Veränderung
Lernen liegt dann vor, wenn die beiden erläuterten Bestimmungsstücke (Verhaltensänderung und Veränderung des Verhaltenspotentials) relativ stabil sind, also über verschiedene Situationen hinweg konsistent auftreten.
Bestimmte erworbene Verhaltensweisen oder -potentiale, wie z.B. das Schwimmen treten nicht nur über mehrere Situationen hinweg konsistent auf, sondern über die gesamte Lebenspanne hinweg. In diesem Fall führt Lernen zu einer permanenten Veränderung.

(3) Erfahrungsgrundlage
Gelernt wird nur auf der Basis von Erfahrung. Unter Erfahrung wird die Aufnahme von Informationen, deren Bewertung und Speicherung verstanden.
Lernen zeigt sich darin, dass Reaktionen durch die im Gedächtnis abgespeicherten Erfahrungen verändert bzw. beeinflusst werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

001b | Geben Sie einen Überblick über den Lernprozess

A

Umwelt (Reiz)
-> Input: Sinnesorgane
-> Speicherung & Vergleich / motorische Programme
-> Output: gezeigtes Verhalten (Reaktion)
-> Umwelt

Ein Organismus macht Erfahrungen, indem dieser Reize aus der Umwelt aufnimmt (Input), verarbeitet, bewertet, im Gedächtnis abspeichert und mit früheren Erfahrungen im Gedächtnis vergleicht.
Die abgespeicherten Erfahrungen können dann (zumeist in ähnlichen Situationen) abgerufen werden und beeinflussen dann als “Output” die Reaktion des Organismus.
Diese Reaktion kann die Umwelt verändern und somit kann die Umwelt als entsprechend veränderter Reiz erneut auf den Organismus einwirken bzw. von diesem wahrgenommen werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

002 | Was ist Assoziatonismus und was hat dieser mit Lernen zu tun?

A

Assoziatives Lernen meint, dass gelernt wird, dass 2 Ereignisse zusammen auftreten. Der Prozess des Erlernens von Assoziationen wird Konditionierung genannt.
Assoziiert werden beim Lernen jeweils Paare von Ereignissen, Gedanken oder Empfindungen.
Im Rahmen dieses Assoziationismus nahm Aristoteles 3 Assoziationsgesetze an:

(1) Kontiguität
Das Gesetz von Nähe in Zeit und Raum meint, dass Ereignisse / Objekte, die zeitlich und räumlich gemeinsam wahrgenommen werden, miteinander in Verbindung gebracht, also assoziiert werden.

(2) Häufigkeit
Das Gesetz der Häufigkeit meint, dass häufig gemeinsam auftretende Ereignisse / Objekte miteinander in Verbindung gebracht werden. Dabei ist diese Assoziation umso stärker, je häufiger die beiden Ereignisse gemeinsam auftreten.

(3) Ähnlichkeit
Das Gesetz der Ähnlichkeit meint, dass Ereignisse / Objekte, die sich ähneln, assoziiert werden. Je ähnlicher sich zwei Objekte sind, desto wahrscheinlicher ist es, dass die Wahrnehmung des einen Objekts die Erinnerung bzw. den Gedanken an das andere Objekt auslöst.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

003 | Was ist der Kern des Behaviorismus?

A

Der Behaviorismus konzentriert sich auf beobachtbares Verhalten (messbare physische Aktivitäten) und klammert nicht-beobachtbare Prozesse (mentale Prozesse, Kognitionen, Emotionen, Motive) explizit aus. Im engl. auch als „ABC-Psychology“ beschrieben.

S-R-Modell

S | Input (Reiz, Stimuli) [Antescendent conditions that precede the behavior]

Black Box | Interner Zwischenschritt wird ignoriert [Behavioral response]

R | Output (Reaktion, Verhalten) [Consequences that follow the behavior]

Durch diese Nichtberücksichtigung interner Prozesse kann der Behaviorismus zum einen als Gegenbewegung zur Psychoanalyse, zum anderen aber auch als der Versuch betrachtet werden, die Psychologie als anerkannte empirische Wissenschaft neben z.B. der Physik oder der Biologie zu etablieren.

Der Fokus des Behaviorismus liegt methodisch auf dem Laborexperiment, um Störvariablen möglichst auszuschließen. Dabei werden elektronische Geräte und Computer verwendet, um Reize darzubieten und Reaktionen aufzuzeichnen. Behavioristen konzentrieren sich somit ausschließlich auf die Vergabe von Reizen und die anschließende quantitative Erfassung gezeigten Verhaltens.

Während der klassische Behaviorismus annimmt, dass nur beobachtbares Verhalten Gegenstand der Forschung sein dürfe, weil innere “mentale”, also kognitive Prozesse der Wissenschaft nicht zugänglich seien, postuliert der radikale Behaviorismus darüber hinaus, dass bei der Erklärung des Verhaltens auf Annahmen über innere Prozesse gänzlich verzichtet werden kann.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

004 | Erläutern Sie die Konditionierung nach Pawlow inkl. des dazugehörigen klassischen Experiments

A

Pawlow gab Hunden Futter und bot davor einen neutralen Reiz (NS) dar bzw. koppelte die Futtergabe mit einem neutralen Reiz. Neutrale Reize sind solche Reize, die der Hund zwar wahrnimmt, die aber nicht in Verbindung mit dem Futter stehen. Der neutrale Stimulus war in diesem Fall ein Ton, kurz bevor dem Hund das Futter als unkonditionierter Reiz (UCS) gegeben wurde, auf den stets die unkonditionierte Reaktion (UCR) des Speichelflusses folgte.

Nach einigen solchen Kopplungen begann der Speichelfluss des Hundes bereits bei Ertönen des Tons, also noch bevor der Hund mit dem Futter konfrontiert wurde. Diese gelernte Reaktion wird als konditionierte Reaktion (CR) bezeichnet. Durch die Konditionierung wird der vormals neutrale Stimulus (NS) zum konditionierten Stimulus (CS).

Die klassische Konditionierung ist dabei auf das Erlernen von Reflexen beschränkt. Ein Reflex ist eine ungelernte Reaktion, die in natürlicher Weise durch bestimmte Reize ausgelöst wird und biologisch adaptiv ist. Die vorwegnehmende Reaktion des Speichelflusses, ausgelöst durch den Ton, wurde von Pawlow “als konditionierter Reflex” bezeichnet.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

005 | Was bedeutet Konditionierung höherer Ordnung?

A

Im Rahmen des klassischen Experiments von Pawlow wurde Futtervergabe bei Hunden mit einen neutralen Reiz in Form eines Tons gekoppelt. Nach mehreren Kopplungen führte nicht nur die Futtervergabe allein zu einem Speichelfluss, sondern auch schon die Darbietung des Tons zu einer solchen Reaktion. Ist eine derartige Konditionierung erfolgt und der Ton löst zuverlässig den Speichelfluss aus, kann der Ton mit einem weiteren neutralen Reiz gekoppelt werden, z.B. einem Lichtsignal.

In der Folge dieser Konditionierung kündigt das Lichtsignal den Ton und dieser wiederum die Futtergabe an. Diese Form der Konditionierung wird Konditionierung höherer Ordnung genannt. Sie ist zumeist schwächer ausgeprägt, als die ursprüngliche Konditionierung.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

006 | Grenzen Sie Kontiguität von Kontingenz ab

A

Der Lernerfolg im Rahmen der klassischen Konditionierung ist in entscheidendem Maße von einer engen zeitlichen Beziehung zwischen neutralem und konditioniertem Reiz abhängig. Diese zeitliche Nähe wird als Kontiguität bezeichnet, ist aber alleine nicht ausreichend, um Lernerfolg sicher zu stellen.

Ein Reiz muss zudem Vorhersagequalität erlangen, also einen anderen Reiz zuverlässig vorhersagen können. Diese zuverlässige Vorhersage wird als Kontingenz bezeichnet.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

007 | Was wird unter Reizgeneralisierung und Reizdiskrimination verstanden? Grenzen Sie die Begriffe voneinander ab

A

Vor dem Hintergrund des Versuchsaufbaus zur klassischen Konditionierung von Pawlow und seinen Mitarbeitern wurde rasch deutlich, dass der Hund nicht nur auf den spezifischen Ton mit Speichelfluss reagierte, sondern auch auf einen ähnlichen Ton. Dieses Phänomen, dass die konditionierte Reaktion (CR) nicht nur auf den identischen CS hin gezeigt wird, sondern auch auf Reize, die dem konditionierten Stimulus ähnlich sind, wird Reizgeneralisierung genannt.

Ebenso kann im Rahmen des Versuchsaufbaus gezeigt werden, dass Hunde auch lernen auf einen ganz bestimmten Ton und nicht auf andere Töne zu reagieren. Dies wird Reizdiskrimination genannt. Der Begriff bezeichnet das Vermögen eines Organismus zwischen einem konditionierten Reiz (CS), der einen unkonditionierten Reiz (UCS) ankündigt und einem Reiz, der diesen Vorhersagewert nicht hat, zu unterscheiden.

Es zeigt sich also, dass die Prozesse der Reizgeneralisierung und der Reizdiskrimination gegenläufige Prozesse sind, die sich im Alltag ergänzen und daher ausgewogen auftreten sollten. So sollte ein Organismus weder überselektiv sein und nur auf eine ganz spezifische Gefahrankündigung reagieren und damit andere ebenfalls potentiell gefährliche Reize ignorieren. So sollte ein Organismus aber auch nicht überreaktiv sein und bei jedem “leisesten” Anzeichen von Gefahr reagieren.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

008 | Erläutern Sie das Experiment des „kleinen Albert“ und stellen Sie die praktische Bedeutung heraus

A

Watson und Rayner zeigten 1920 wie Ängste beim Menschen konditioniert werden können. Der Proband war in diesem Fall ein 11 Monate alter Junge mit Namen Albert. Albert hatte Angst vor lauten Tönen, war aber sehr interessiert an weißen Ratten. Die Autoren präsentierten dem Jungen eine weiße Ratte (NS) und koppelten diesen Reiz damit, dass eine Eisenstange in direkter Nähe zu Albert mit einem Hammer geschlagen wurde. Der entstandene Lärm (UCS) führte dazu, dass Albert zu schreien begann (UCR).

Nach 7 Kopplungen wurde der NS zur CS und damit die UCR zur CR. Es reichte also aus, dass die Ratte (CS) gezeigt wurde, um Albert zum Schreien zu bringen (CR).

5 Tage später zeigte Albert zusätzlich eine Reizgeneralisierung, die sich darin äußerte, dass Albert nicht nur beim Anblick der Ratte in Tränen ausbrach, sondern auch bei der Konfrontation mit einem Hund, einem Kaninchen oder einem weichen Mantel. Albert reagierte auf unähnliche Objekte wie z.B. Spielzeug dagegen nicht mit Furcht.

Trotz ethisch und methodisch zweifelhaften Vorgehens erlangte das Experiment nicht nur einen großen Bekanntheitsgrad, sondern auch entscheidende Bedeutung in der klinischen Psychologie. So konnte durch das Experiment gezeigt werden, dass negative Emotionen wie z.B. Ängste anscheinend “einfach” ankonditioniert werden. Dies weckte die Hoffnung darauf, dass solche Ängste ebenso “einfach” wieder gelöscht oder gegenkonditioniert werden können. Damit wurde die Grundlage der Verhaltenstherapie gelegt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Grenzen Sie die zentralen Begriffe der klassischen Konditionierung voneinander ab

A

Neutraler Stimulus/ Reiz
NS (neutral stimulus)
Ein Reiz, der vor der Konditionierung keine Reaktion auslöst
Bsp: Klingel

Unkonditioniert Stimulus/ Reiz
UCS (unconditioned stimulus)
Ein Reiz, der unkonditioniert – natürlich & automatisch – eine Reaktion (UCS) auslöst
Bsp: Futter

Unkonditionierte Reaktion
UCR (unconditioned reaction)
Die nicht erlernte, natürlich auftretende Reaktion auf einen UCS
Bsp: Speicheproduktion beim Anblick von Futter

Konditionierter Stimulus/ Reiz
CS (conditioned stimulus)
Ein zunächst irrelevanter Reiz (NS), der nach der Assoziation mit einem UCS eine CR auslöst
Bsp: Klingel in Verbindung mit Futtererwartung

Konditionierte Reaktion
CR (conditioned reaction)
Die gelernte Antwort auf einen zunächst neutralen, nun aber konditionierten Reiz (CS)
Bsp: Speichelproduktion beim Hören der Klingel

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Präzisieren Sie die Kernprozesse der klassischen Konditionierung

A

Vor der Konditionierung
(1) Unkonditionierter Reiz löst automatisch unkonditionierte Reaktion aus
UCS -> UCR

(2) Neutraler Stimulus löst keinerlei Reaktion aus
NS -/-> UCR

Während der Konditionierung
(3) Neutraler Stimulus gefolgt von unkonditioniertem Stimulus löst unkonditionierte Reaktion aus.
Neutraler Stimulus wird zum konditionierten Stimulus
NS wird zu CS
(NS)CS + UCS -> UCR

Nach der Konditionierung
(4) Konditionierter Stimulus löst konditionierte Reaktion aus
CS -> CR

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Grenzen Sie die operante von der klassischen Konditionierung auf Basis des assoziativen Lernens ab

A

Assoziatives Lernen meint, dass ein Organismus lernt, dass 2 Ereignisse zusammen auftreten. Solch ein assoziativer Lernprozess wird Konditionierung genannt.

Bei der klassischen Konditionierung besteht diese Assoziation darin, dass gelernt wird, 2 Reize zu verbinden, um ein Ereignis vorwegzunehmen bzw. vorauszusehen.

Bei der operanten Konditionierung werden dagegen ein gezeigtes Verhalten und dessen Konsequenzen assoziiert.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Erläutern Sie die grundlegenden Ansätze der operanten Konditionierung von Thorndike & Skinner

A

Während bei der klassischen Konditionierung die Assoziation zwischen 2 Reizen gelernt wird, wird bei dem hier dargestellten Lernen am Erfolg (Law of effect) die Assoziation zwischen einem Reiz und einer Reaktion gelernt. Während bei der klassischen Konditionierung bereits vorhandenes Verhalten erlernt wird (Reflexe), wird beim Lernen durch Konsequenzen ein Verhalten auf die Vergabe von Futter gezeigt, welches vorher noch nicht auf die Vergabe von Futter gezeigt wurde.

Erfolgt auf eine Verhaltensweise eine angenehme, befriedigende Konsequenz, erhöht sich die Wahrscheinlichkeit, dass dieses Verhalten erneut gezeigt wird. Erfolgt auf ein Verhalten dagegen eine unangenehme, unbefriedigende Konsequenz, verringert sich die Auftretenswahrscheinlichkeit entsprechend. Oder einfacher ausgedrückt: Wenn ein Verhalten belohnt wird, ist es wahrscheinlich, dass es erneut gezeigt wird.

Ausgangspunkt der operanten Konditionierung war eine Beobachtung von Thorndike, der etwa zeitgleich mit Pawlow ein anderes Lernphänomen beobachtete und beschrieb. Thorndike experimentierte mit Katzen, die aus einer Puzzlebox zu entkommen versuchten, weil außerhalb der Box ein Fisch dargeboten wurde. Die Katzen waren in einer Kiste eingeschlossen und konnten über die Lösung unterschiedlicher “Rätsel” aus der Kiste fliehen. So konnten die Katzen in einem Experiment auf einen Knopf drücken, worauf der Käfig sich öffnete und in einem anderen Experiment an einer Schlinge ziehen, um den gleichen Effekt herbeizuführen. Auf der Basis von trial & error erfuhren die Tiere die Konsequenzen ihrer Verhaltensweisen. Nach und nach nahmen solche Verhaltensweisen zu, die zu befriedigenden Effekten führten. Diese Verhaltensweisen wurden dann zur dominanten Verhaltensweise, wenn die Tiere in die Puzzlebox gesetzt wurden. Es konnte gezeigt werden, dass die Flucht mit jedem Versuchsdurchgang schneller gelang, weil mit der Zeit die Verhaltensweisen dominieren, die zur Flucht also zur positiven Konsequenz verhelfen.

Um diese Form des Lernens zu erforschen, erfand Skinner eine Vorrichtung (Skinnerbox). Zeigt die Ratte ein vom Forscher erwünschtes Verhalten, z.B. das Drücken eines Hebels, dann fällt aus dem Futterpillenspender eine Futterpille in den Käfig. Die Skinnerbox erlaubt es nun die Bedingungen zu untersuchen, unter denen die Ratten das entsprechende Verhalten lernen oder nicht. Fällt z.B. nur dann eine Pille aus dem Spender, wenn die Ratte sich zuvor aufgerichtet hat, dann wird die Ratte (law of effect) rasch lernen sich aufzurichten bevor sie den Hebel drückt.

Die Futterpille wirkt dabei als sogenannter Verstärker. Ein Verstärker ist jedes Ereignis bzw. jeder Reiz, der die Auftretenswahrscheinlichkeit des vorangegangenen Verhaltens erhöht. Während für Tiere Nahrung geeignete Verstärker darstellen, sind dies beim Menschen (zusätzlich) z.B. Lob, Aufmerksamkeit, Anerkennung oder Geld.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Erläutern und unterscheiden Sie primäre & sekundäre Verstärker

A

Angeborene bzw. anlagebedingte und damit unkonditionierte Verstärker werden auch primäre Verstärker (primary inforcement) genannt. Dazu zählen bspw. Nahrung, Wasser oder Schlaf, deren Eigenschaft als Verstärker biologisch bedingt sind.

Davon zu unterscheiden sind sogenannte konditionierte oder sekundäre Verstärker (conditioned reinforcer). Jeder Reiz, also jeder neutrale Stimulus kann zu einem konditionierten Verstärker werden, wenn dieser mit einem primären Verstärker gekoppelt bzw. assoziiert wird.

Bei der klassischen Konditionierung wird der neutrale Stimulus (NS) zum konditionierten Stimulus (CS), wenn der NS zuverlässig das Auftreten des unkonditionierten Reizes (UCS) vorhersagen kann.

Bei der operanten Konditionierung wird der neutrale Stimulus (NS) zu einem konditionierten Verstärker, wenn dieser mit einem primären Verstärker assoziiert wird.

Lernen Schimpansen, dass sie kleine Kunststoffchips (sog. “Token”) an einem Apparat gegen Futter eintauschen können, dann werden diese Token zu konditionierten bzw. sekundären Verstärkern. Im menschlichen Alltag sind sekundäre Verstärker allgegenwärtiger, wirksamer und viel leichter handhabbar als primäre Verstärker. Zu solchen Verstärkern gehören bspw. Geld, Anerkennung und Statussymbole wie Auszeichnungen und Titel. Das genannte Token-System kommt auch im Rahmen der Verhaltenstherapie mittels operanter Lernprinzipien in Krankenhäusern, aber auch Strafanstalten zum Einsatz, um unerwünschtes Verhalten zu ändern bzw. gewünschte Verhaltensweisen aufrecht zu erhalten.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

009 | Was ist eine „Skinnerbox“ und wozu dient sie?

A

Im Rahmen der Forschung zur operanten Konditionierung werden die Konsequenzen auf gezeigtes Verhalten systematisch manipuliert, um die Auswirkungen dieser Konsequenzen auf das Folgeverhalten zu untersuchen. Dabei ist operantes Verhalten nicht zu verwechseln mit Reaktionen, die wie beim klassischen Konditionieren durch bestimmte Reize “ausgelöst” werden.

Operantes Verhalten ist keine Reaktion auf einen Reiz, sondern instrumentelles Verhalten, dass gezeigt wird, um dadurch eine Konsequenz auszulösen. Um Wirkungsweise und Bedeutung dieser Konsequenzen zu untersuchen, erfand Skinner eine Vorrichtung, die später auch als Skinnerbox bekannt wurde.

Dies ist ein Käfig, der im Wesentlichen aus einem Gitterboden besteht, der unter Strom gesetzt werden kann und einem Hebel, durch dessen Betätigung Futterpillen in den Käfig fallen.

Zeigt das Versuchstier (Ratten / Tauben) ein vom Forscher erwünschtes Verhalten, z.B. das Drücken eines Hebels, dann fällt aus dem Futterpillenspender eine Futterpille in den Käfig.

Zeigt das Tier ein unerwünschtes Verhalten, z.B. ebenfalls das Drücken des Hebels, kann der Boden des Käfigs unter elektrischen Strom gesetzt werden.

Die Skinnerbox erlaubt es nun, die Bedingungen zu untersuchen, unter denen die Ratten das entsprechende Verhalten lernen oder nicht. Fällt z.B. nur dann eine Pille aus dem Spender, wenn die Ratte sich zuvor aufgerichtet hat, dann wird die Ratte rasch lernen, sich aufzurichten, bevor sie den Hebel drückt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

010 | Erläutern Sie „Shaping“ an einem tierexperimentellen Beispiel

A

Shaping wird auch sukzessive Approximation genannt, weil im Rahmen des Shapings alle Reaktionen des Organismus verstärkt werden, die eine schrittweise Annäherung an das gewünschte Verhalten darstellen.

Beispiel: Skinnerbox
Durch das Hebeldrücken kann eine Ratte Futterpillen erhalten. Aber dieses Verhalten des Hebeldrückens kommt eigentlich im natürlichen “Verhaltensrepertoire” der Ratte nicht vor. Im Allgemeinen drücken Ratten keine Hebel. Es stellt sich demnach die Frage, wie eine Ratte ein Verhalten erlernt, welches diese in “freier Wildbahn” eher nicht zeigen würde.

Dies erfolgt über den Prozess des Shapings, bei dem zuvor definiert werden muss, was eine erfolgreiche Annäherung an das gewünschte Verhalten ist, um darauf aufbauend differentiell zu verstärken, also konsequent jenes Verhalten, was dieser Annäherung entspricht und nicht das Verhalten, welches diesem nicht entspricht.

Das Shaping beginnt, wenn die Futtergabe kontingent mit einem Verhalten zusammenfällt, welches zuvor als erste Annäherung an das Wunschverhalten definiert worden war. Dieses Verhalten kann bspw. eine erste Hinwendung zum Hebel sein. Erfolgt hier regelmäßig eine Verstärkung, dann wird sich die Ratte häufiger in Richtung des Hebels wenden. In einem nächsten Schritt sollte die Ratte aber nur dann eine Futterpille erhalten, wenn sie bei ihrer Ausrichtung auf den Hebel diesen Hebel auch berührt. Schließlich sollte sie den Hebel drücken um eine Pille zu erhalten.

17
Q

011 | Erläutern Sie den Begriff der „Kontingenz“ vor dem Hintergrund der klassischen & der operanten Konditionierung

A

Bei der klassischen Konditionierung wird unter Kontingenz die zuverlässige Vorhersage eines Reizes durch einen anderen Reiz verstanden.
Damit Lernen erfolgt, sollte bei der klassischen Konditionierung der Reiz (z.B. ein Ton) demnach vor oder während der Futtervergabe einsetzen, weil ein Reiz, der nach der Futtervergabe vergeben wird, keinen Vorhersagewert (Kontingenz) mehr besitzt.

Bei der operanten Konditionierung wird unter Kontingenz eine zuverlässige Beziehung zwischen einem gezeigten Verhalten und entsprechenden Reizen/ Konsequenzen, also hervorgerufenen Veränderungen in der Umwelt verstanden.
Damit Lernen im Rahmen der Experimente zur operanten Konditionierung in einer Skinnerbox erfolgt, sollte die Futtervergabe nur im Zusammenhang mit dem Hebeldrücken (Kontingenz) und nicht mit anderen gezeigten Verhaltensweisen erfolgen.

18
Q

012 | Grenzen Sie 2 Formen der Verstärkung & 2 Formen der Bestrafung vor dem Hintergrund des Paradigmas der operanten Konditionierung voneinander ab

A

VERSTÄRKUNG
Unter Verstärkung wird jeder Stimulus verstanden, der die Auftretenswahrscheinlichkeit dieses Verhaltens im Laufe der Zeit erhöht. Verstärkung meint entsprechend die Vergabe von Verstärkern in der Folge gezeigter Verhaltensweisen.

Eine Form der Verstärkung besteht darin, einen unangenehmen Reiz aus der Situation zu entfernen. Dieser Fall wird negative Verstärkung genannt.

Folgt auf ein Verhalten ein angenehmer Reiz, wird die Wahrscheinlichkeit erhöht, dass dieses Verhalten erneut gezeigt wird. Dieser Fall wird positive Verstärkung genannt.

Sowohl positive als auch negative Verstärkung erhöhen die Verhaltenswahrscheinlichkeit allerdings auf umgekehrten Wegen. Bei der negativen Verstärkung wird kein positiver Reiz gegeben, um das gezeigte Verhalten zu verstärken, sondern es wird ein aversiver Reiz entfernt, um die Verhaltenswahrscheinlichkeit zu erhöhen.

BESTRAFUNG
Unter einer Bestrafung wird jeder Stimulus verstanden, der die Auftretenswahrscheinlichkeit dieses Verhaltens im Laufe der Zeit verringert. Bestrafung meint entsprechend die Vergabe von Bestrafungsreizen in der Folge gezeigter Verhaltensweisen.

Eine Form der Bestrafung besteht darin einen angenehmen Reiz aus der Situation zu entfernen. Dieser Fall wird negative Bestrafung genannt.

Folgt auf ein Verhalten ein unangenehmer Reiz, wird die Wahrscheinlichkeit gesenkt, dass dieses Verhalten erneut gezeigt wird. Dieser Fall wird positive Bestrafung genannt.

Sowohl positive als auch negative Bestrafung verringern die Verhaltenswahrscheinlichkeit jedoch auf entsprechend umgekehrten Wegen. Bei der negativen Bestrafung wird kein negativer bzw. aversiver Reiz gegeben, um das gezeigte Verhalten zu verringern, sondern es wird ein angenehmer Reiz entfernt, um das Verhalten zu reduzieren oder zu verhindern.

19
Q

013 | Wie entsteht das, was Skinner „abergläubisches Verhalten“ nennt?

A

Wenn Verstärkung keinen zeit-räumlichen Zusammenhang zum gezeigten Verhalten aufweist, entwickeln Organismen sogenanntes “abergläubisches Verhalten”. Solches Verhalten entsteht, wenn eine bestimmte Reaktion zufällig mit einem Verstärker zusammentrifft. Diese Verstärkung kann dann dazu führen, dass die Reaktion zukünftig häufiger gezeigt wird.

Skinner konnte in einem Experiment mit Tauben zeigen, dass diese Rituale entwickelten, wenn Futterpillen alle 15 Sekunden in den Käfig geworfen wurden. Manche Tauben begannen mit tänzelnden Bewegungen. Diese Rituale wurden sehr sorgfältig ausgeführt, so dass der Eindruck entstand, die Tiere würden glauben, dass aufgrund dieser Bewegungen Futter in den Käfig falle. Dieses abergläubische Verhalten lässt sich auch sehr gut beim Menschen beobachten. So werden z.B. Kleidungsstücke oder Accessoires zu „Glücksbringern“, weil diese zufälligerweise zu dem Zeitpunkt getragen wurden an dem einer Person Gutes widerfahren ist.

20
Q

014 | Betrachtet man die Häufigkeit von Reaktionen, die Organismen in verschiedenen Verstärkungsplänen zeigen, fällt ein Unterschied zwischen “Quotenplänen” und “Intervallplänen” auf. Erläutern Sie diesen Unterschied.

A

Erhalten Organismen für jedes erwünschte Verhalten einen Verstärker, heißt dies kontinuierliche Verstärkung.

Wird nicht jedes Verhalten verstärkt, sondern die Verstärkung erfolgt nach einer gewissen Anzahl an erwünschten Reaktionen oder nach einem gewissen Zeitintervall, heißt dies partielle oder intermittierende Verstärkung. Im Rahmen der partiellen Verstärkung kann im Wesentlichen zwischen Quotenplänen und Intervallplänen unterschieden werden.

Bei Quotenplänen erfolgt die Verstärkung in Abhängigkeit der Anzahl gezeigter Reaktionen.
Hier lassen sich fixierte Quotenpläne (kurze Pausen nach Verstärker) und variale Quotenpläne (keine Pausen nach Verstärker) unterscheiden.

Bei Intervallplänen erfolgt die Verstärkung (wenn das erwünschte Verhalten gezeigt wurde) in Abhängigkeit von einem abgelaufenen Zeitintervall.
Hier lassen sich variable Intervallpläne (Reaktion erfolgt ziemlich regelmäßig) und fixierte Interallpläne (einige Reaktionen nach Verstärker) unterscheiden.

Hier kann festgestellt werden, dass Quotenpläne zu höheren Reaktionsraten führen als Intervallpläne, weil bei Quotenplänen die Anzahl der Verstärkungen mit der Anzahl der gezeigten Reaktionen wächst. Dies ist bei Intervallplänen nicht der Fall.

21
Q

015 | Was versteht man unter dem “Premack-Prinzip”?

A

Das Premack-Prinzip besagt, dass auch Verhaltensweisen als Verstärker wirken können. Bei Mensch & Tier kann die Möglichkeit ein bevorzugtes Verhalten auszuführen, dazu genutzt werden, eine weniger bevorzugte Verhaltensweise zu verstärken.

So ist für viele Schulkinder das Spielen von Videospielen eine gegenüber der Bearbeitung der Hausaufgaben bevorzugte Aktivität. Entsprechend kann man die Aktivität des Videospielens nutzen, um die weniger bevorzugte Aktivität „Hausaufgaben“ zu verstärken, indem der Zugang zu Videospielen eingeschränkt und von Ausmaß und Qualität der Bearbeitung von Hausaufgaben abhängig gemacht wird.

Die auf dem Premack-Prinzip aufbauende Theorie des Reaktionsentzugs besagt, dass Verhaltensweisen dann bevorzugt werden bzw. als Verstärker fungieren, wenn ein Organismus daran gehindert wird, diesen Verhaltensweisen nachzugehen. Indem Verhalten derart beschränkt wird, dass es kaum noch möglich ist, dieses auszuführen, kann man dieses Verhalten als Verstärker nutzen.

Entsprechend wird ein Schulkind fleißiger Hausaufgaben machen, wenn es gelernt hat, dass es (nur) danach Videospiele spielen darf. Hier wirkt die Verhaltensweise “Videospielen” verstärkend, weil das Schulkind an dieser Verhaltensweise gehindert wird.

22
Q

016 | Welcher Zusammenhang besteht zwischen klassischer und operanter Konditionierung bei der Genese und Aufrechterhaltung von Phobien

A

Watson und Rayner zeigten anhand des ethisch fragwürdigen Experiments mit dem „kleinen Albert“, wie Ängste beim Menschen konditioniert werden. Der Junge hatte Angst vor lauten Tönen, war aber sehr interessiert an weißen Ratten. Durch die Kopplung der weißen Ratte (NS) mit einem Lärm (UCS) begann der Junge zu schreien (UCR). Durch mehrmalige Kopplung wurde die Ratte zum konditionierten Reiz (CS) und das Schreien zur konditionierten Reaktion (CR). Der Junge schrie bereits beim Anblick der Ratte, ohne dass der Lärm präsentiert werden musste. Angst vor Ratten wurde also klassisch konditioniert.

Im Rahmen der Zwei-Faktoren-Theorie des Lernens wird davon ausgegangen, dass Ängste nach ihrer Entstehung auf Basis der klassischen Konditionierung durch Prozesse der operanten Konditionierung aufrechterhalten werden. Meidet der Lernende künftig den angstauslösenden Reiz, dann wird die konditionierte Angstreaktion durch das Vermeidungsverhalten reduziert. Diese verringerte Angstreaktion wirkt dann als (negativer) Verstärker.

Dies bedeutet analog zum Experiment mit dem kleinen Albert, dass der Junge mit der Zeit feststellen würde, dass seine Angst abnimmt, wenn er alle Ratten im Speziellen und alles Fellartige im Allgemeinen vermeidet.

Die dann nicht eintretende oder verringerte Angst wirkt belohnend, so dass das Vermeidungsverhalten, nicht aber das für eine Gegenkonditionierung notwendige Konfrontationsverhalten verstärkt wird.

23
Q

Erläutern Sie, was auf eine Beteiligung von kognitiven Prozessen bei klassischer & operanter Konditionierung hindeutet.

A

Kognitive Prozesse im Rahmen der klassischen Konditionierung

Wenn einem Bestrafungsreiz (z.B. ein Elektroschock) stets ein Ton vorausgeht, wird der Organismus Angstreaktionen auf die Darbietung des Tons zeigen. Wenn zusätzlich zum Ton nun auch ein Lichtreiz gezeigt wird, dieser aber nicht immer mit dem Ton gekoppelt wird, sondern nur manchmal, während der Ton aber immer dem Schock vorausgeht, dann zeigt der Organismus Angst in Bezug auf den Ton, aber nicht in Bezug auf den Lichtreiz, da durch den Lichtreiz keine neue Information über den Eintritt des Schocks vermittelt wird. Hier scheint es so zu sein, als würde ein kognitiver Prozess insofern eine Rolle spielen, als dass es den Anschein hat, als würde der Organismus lernen einzuschätzen, wie wahrscheinlich das Auftreten des Elektroschocks ist

Kognitive Prozesse im Rahmen der operanten Konditionierung

Wenn Ratten an einen Startpunkt eines Labyrinths gesetzt werden, an dessen Zielpunkt Futter als Verstärker wartet, dann sind Ratten auch dann in der Lage zum Futter zu gelangen, wenn ihr bevorzugter und bisher verstärkter Pfad blockiert wurde. Die Ratten nehmen eine alternative Route, die zuvor nicht verstärkt wurde. Tolman ging davon aus, dass sich Ratten eine kognitive Landkarte aneignen, also eine Art Repräsentation des gesamten Aufbaus des Labyrinths. Dafür spricht zudem das Ergebnis, dass Ratten auch dann zum Futter gelangen, wenn sie anstatt von der gewohnten Startposition von einer zufällig gewählten starten müssen. Solche Ergebnisse sind durch das Erlernen einfacher Reiz-Reaktions-Verbindungen nicht zu erklären

Es konnte zudem gezeigt werden, dass Ratten diese kognitiven Landkarten erlernten, ohne dafür belohnt zu werden. Eine Gruppe von Ratten wurde die Möglichkeit gegeben, einige Tage lang das Labyrinth zu erkunden, in dem sich kein Futter befand. Eine 2. Gruppe von Ratten erhielt diese Möglichkeit nicht. Wenn beide Rattengruppen das Futter suchen sollten, lernten die erste Gruppe Ratten viel schneller das Futter zu finden als die 2. Kontrollgruppe. Die erste Gruppe hatte sich eine kognitive Landkarte angeeignet, ohne explizit dafür verstärkt worden zu ein. Dieser Effekt wird latentes Lernen genannt. Es ist ein Lernen, das stattfindet, wenn es nicht verstärkt wird. Dieses Lernen gibt es aus strikt behavioristischer Perspektive von Reiz-Reaktions-Assoziationen nicht.

24
Q

Was unterscheidet das „Lernen durch Einsicht“ vom Lernen durch „Trail & Error“?

A

Köhler beschäftigte sich mit der Lernform: Lernen durch Einsicht.

Dabei arbeitete Köhler mit in Käfigen untergebrachten Schimpansen, die durch die Gitterstäbe entfernt Futter sehen konnten. Zwischen den Gitterstäben und dem präsentierten Futter lagen unterschiedliche lange Stöcke, welche die Schimpansen als Werkzeug nutzen konnten, um an das Futter zu gelangen. Beim sogenannten “Mehr-Stock-Problem” muss der Schimpanse zunächst einen kurzen Stock dazu benutzen, einen längeren Stock in Reichweite zu ziehen, um schließlich mit dem längeren Stock an das Futter zu gelangen. Dabei kann beobachtet werden, dass die Tiere zunächst mit dem Arm versuchen das Futter zu erreichen, dann mit dem kleinen Stock, worauf schließlich eine längere Versuchspause folgt und die Schimpansen ihre Blicke umherschweifen lassen. Schließlich und vergleichsweise plötzlich nehmen die Tiere den kurzen Stock, ziehen den längeren heran und “angeln” sich auf diese Weise das Futter.

Köhler interpretierte dies als zielgerichtete, einsichtige Handlung und nicht als Verhalten von Versuch und Irrtum (“trial and error”) wie Thorndike, weil das richtige Verhalten plötzlich und in vollem Umfang auftritt. Das Tier habe die Verhaltenskette in seinem vollen Umfang erfasst, also kognitiv repräsentiert.

4 Aspekte der Beobachtungen Köhlers stehen im Widerspruch zu Thorndikes Gesetz des Effekts:
(1) Das Lernen der Problemlösung erfolgt eher plötzlich als durch langes Herumprobieren
(2) Die einmal (durch Einsicht) erzielte Problemlösung kann bei einer nächsten Aufgabe ohne Zögern wiederholt werden.
(3) Die (durch Einsicht) erreichte Problemlösung kann auch auf neue Situationen transferiert werden.
(4) Die auf Einsicht basierte Problemlösung ist abhängig von der Struktur der Problemsituation.

25
Q

Was ist unter Beobachtungslernen zu verstehen?

A

Beobachtungslernen (“observational learning”) wird auch als Modelllernen (“modeling”) oder soziales Lernen (“social learning”) oder Imitationslernen bezeichnet.

Beobachtungslernen meint, dass nicht nur durch eigenes Verhalten und dessen Konsequenzen gelernt wird (operante Konditionierung), sondern auch durch die Beobachtung des Verhaltens anderer und den Konsequenzen, die darauf (für die anderen) folgen. Auf Basis des Beobachtungslernens entfallen langwierige Versuchs-Irrtums-Prozesse z.B. im Rahmen von Shaping, indem sofort von Erfolgen und Misserfolgen anderer gelernt werden kann.

Unter bestimmten Bedingungen wird dann das Verhalten des Modells nachgeahmt bzw. imitiert. Es wird vermutet, dass gerade Kinder vieles durch Modelllernen, also durch die Beobachtung von Eltern und Geschwistern lernen. Bis heute ist jedoch nicht klar, in welchem Ausmaß im Vergleich zu anderen Lernformen wie dem klassischen und operanten Konditionieren das Beobachtungslernen zum Tragen kommt.

Wird Verhalten nicht imitiert, heißt dies aber nicht, dass nicht gelernt wurde. Lernen findet statt, während der Mensch beobachtet. Die Imitation enthüllt lediglich, dass Lernen stattgefunden hat.

26
Q

Welche Prozesse sind am Beobachtungslernen beteiligt und welche Faktoren begünstigen dieses Lernen?

A

Um zu erklären, wie Lernen durch Imitation entsteht, werden vier basale Prozesse angenommen:

(1) Aufmerksamkeitsprozesse | Die Anwesenheit eines Modells erhöht die Aufmerksamkeit eines Beobachters in dieser Situation. Die Handlungen des Modells können diese Aufmerksamkeit auf sich ziehen und entsprechende Hinweisreize darstellen

(2) Gedächtnisprozesse | Die beobachteten Informationen müssen in einer Art und Weise abgespeichert werden, dass diese auch wieder aufgefunden/ erinnert werden können. Wird das beobachtete Verhalten des Modells vergessen, kann es nicht imitiert werden

(3) Motorische Reproduktionsprozesse | Das beobachtete Verhalten muss aber nicht nur erinnert werden können, sondern muss zusätzlich auch prinzipiell nachzuahmen sein

(4) Anreiz- und Motivationsprozesse | Das beobachtete und prinzipiell nachahmbare Verhalten des Modells muss für den Beobachter ausreichend persönlich erstrebenswert sein, damit dieses nachgeahmt wird

Insgesamt wird davon ausgegangen, dass Modelllernen vor allem dann stattfindet, wenn
- Wahrgenommen wird, dass das Verhalten verstärkende Konsequenzen erbringt
- Das Modell als positiv, beliebt und respektiert wahrgenommen wird
- Wahrgenommen wird, dass eine Ähnlichkeit im Hinblick auf Merkmale und Eigenschaften des Modells mit dem Beobachter besteht
- Der Beobachter dafür belohnt wird, seine Aufmerksamkeit auf das Verhaltens des Modells zu lenken
- Das Verhalten des Modells gut sichtbar und salient ist - es als klares Bild gegen den Hintergrund konkurrierender Modelle hervorsticht
- Es für den Beobachter im Rahmen seines Möglichen ist, das Verhalten zu imitieren

27
Q

Schätzen Sie die praktische Bedeutung des Beobachtungslernens ein & nennen Sie Anwendungsbeispiele

A

Beobachtungslernen wird auch als Modelllernen, soziales Lernen oder Imitationslernen bezeichnet. Beobachtungslernen meint, dass nicht nur durch eigenes Verhalten und dessen Konsequenzen gelernt wird (operante Konditionierung), sondern auch durch die Beobachtung des Verhaltens anderer und den Konsequenzen, die darauf (für die anderen) folgen. Auf Basis des Beobachtungslernens entfallen langwierige Versuchs-Irrtums-Prozesse z.B. im Rahmen von Shaping, indem sofort von Erfolgen und Misserfolgen anderer gelernt werden kann.

Unter bestimmten Bedingungen wird dann das Verhalten des Modells nachgeahmt bzw. imitiert. Es wird vermutet, dass gerade Kinder vieles durch Modelllernen, also durch die Beobachtung von Eltern und Geschwistern lernen. Bis heute ist jedoch nicht klar, in welchem Ausmaß im Vergleich zu anderen Lernformen wie dem klassischen und operanten Konditionieren das Beobachtungslernen zum Tragen kommt.

Erstmals untersucht wurde diese Form des Lernens von Bandura. Dabei wurden Vorschulkinder in 2 Gruppen eingeteilt.

Die Experimentalgruppe beobachtete Erwachsene dabei, wie diese eine aufblasbare Clown-Puppe, die sich durch ein Gewicht am Boden stets wieder aufrichtet, misshandelte und wüst beschimpfte.

Die Kinder der Kontrollgruppe verbrachten die Zeit in einem neutralen Raum und spielten dort in Anwesenheit von Erwachsenen.

Beide Gruppen wurden schließlich frustriert, indem diese nicht mehr mit zuvor vorhandenem Spielzeug spielen durften. Die Gruppen wurden getrennt in Räume geleitet, in denen zwar eine Clown-Puppe vorhanden war, aber deutlich weniger Spielzeug.

Es zeigte sich, dass die Kinder in der Experimentalgruppe gegenüber der Clown-Puppe deutlich aggressiver auftraten als die Kontrollgruppe. Sie schlugen auf die Puppe ein und zwar nicht irgendwie, sondern in der gleichen Art und Weise, wie sie es zuvor bei den Erwachsenen gesehen hatten. Auf dieser Basis wurde geschlussfolgert, dass die Kinder neue aggressive Verhaltensweise gelernt hatten, indem sie das Verhalten der Erwachsenen beobachtet hatten.

Dabei war ein besonders bedeutsames Ergebnis, dass die Kinder das Verhalten imitierten, ohne dafür belohnt worden zu sein (i.S.d. operanten Konditionierung eine Verstärkung). Ein weiteres bedeutsames Ergebnis war, dass Imitation am häufigsten bei Jungen zu beobachten war, die ein Modell beobachtet hatten und am seltensten bei Mädchen auftrat, die ein weibliches Modell beobachtet hatten. Es zeigt sich also, dass Lernen hier nicht nur von den beobachteten Handlungen selbst, sondern auch von anderen Faktoren wie z.B. den Merkmalen der Modelle abhängt.

28
Q

017 | Warum deuten Intervallpläne im Rahmen der operanten Konditionierung auf kognitive Prozesse hin?

A

Vieles deutet darauf hin, dass auch bei der operanten Konditionierung kognitive Prozesse eine Rolle spielen.

Die Reaktionsrate im Rahmen fixierter Intervallpläne zeigt eine Art Wellenmuster. Während unmittelbar nach der Verstärkung das Verhalten abnimmt, nimmt dieses unmittelbar vor der Verstärkung, also mit näher rückender Belohnung zu. Es scheint hier so zu sein, als würden die Organismen erwarten, dass das Wiederholen des entsprechenden Verhaltens bald zu einer Belohnung führen werde.

“Erwartungen” erfordern aber einen kognitiven Prozess bzw. sind ein solcher.

29
Q

018 | Was meint latentes Lernen?

A

Wenn Ratten an einen Startpunkt eines Labyrinths gesetzt werden, an dessen Zielpunkt Futter als Verstärker wartet, dann sind Ratten auch dann in der Lage zum Futter zu gelangen, wenn ihr bevorzugter und bisher verstärkter Pfad blockiert wurde.

Tolman ging davon aus, dass sich Ratten eine kognitive Landkarte aneignen, also eine Art Repräsentation des gesamten Aufbaus des Labyrinths. Dafür spricht auch das Ergebnis, dass Ratten selbst dann zum Futter gelangen, wenn sie anstatt von der gewohnten Startposition von einer zufällig gewählten Position starten müssen. Solche Ergebnisse sind durch das Erlernen einfacher Reiz-Reaktions-Verbindungen nicht zu erklären. Es konnte zudem gezeigt werden, dass Ratten diese kognitiven Landkarten erlernten, ohne dafür belohnt zu werden.

Eine Gruppe von Ratten wurde die Möglichkeit gegeben, einige Tage lang das Labyrinth zu erkunden, in dem sich kein Futter befand (Experimentalgruppe). Eine zweite Gruppe von Ratten erhielt diese Möglichkeit nicht (Kontrollgruppe). Wenn beide Rattengruppen anschließend in eben diesem Labyrinth Futter suchen sollten, lernten die erste Gruppe Ratten, die bereits mit dem Labyrinth vertraut war, viel schneller das Futter zu finden als die “unbehandelte” Kontrollgruppe.

Die Experimentalgruppe hatte sich eine kognitive Landkarte angeeignet, ohne explizit dafür verstärkt worden zu ein. Dieser Effekt wird latentes Lernen genannt. Darunter wird ein Lernen verstanden, das stattfindet, auch wenn dieses nicht verstärkt wird, also ein Lernen, welches es aus strikt behavioristischer Perspektive von Reiz-Reaktions-Assoziationen nicht gebe sollte.

30
Q

019 | Warum kann man das Beobachtungslernen auch als „stellvertretende operante Konditionierung“ bezeichnen?

A

Der Mensch lernt vor allem dann am Modell, wenn dieser sich mit dem Modell identifizieren kann und wenn das Modell für sein Verhalten belohnt bzw. verstärkt wird.

Indem beobachtet wird, lernt der Mensch damit die Konsequenzen für sein eigenes Verhalten in vergleichbaren Situationen vorwegzunehmen. Dementsprechend kann das Lernen am Modell auch als stellvertretende operante Konditionierung bezeichnet werden.

Die Erwartung von Lohn- oder Strafe bestimmt dabei aber lediglich, ob das beobachtete Verhalten gezeigt wird, das Lernen selbst hat als Beobachtungsresultat dennoch stattgefunden und ist nicht das Ergebnis einer Konditionierung.

31
Q

020 | Welchen Zusammenhang sehen Sie zwischen Modelllernen und kognitiven Prozessen?

A

Modelllernen meint, dass nicht nur durch eigenes Verhalten und dessen Konsequenzen gelernt wird (operante Konditionierung), sondern auch durch die Beobachtung des Verhaltens anderer und den Konsequenzen die darauf (für die anderen) folgen. Dass gelernt wurde, zeigt sich darin, dass das beobachtete Verhalten nachgeahmt wird.

Wird nicht nachgeahmt, heißt dies aber nicht, dass nicht gelernt wurde. Lernen findet statt, während der Mensch beobachtet. Die Imitation enthüllt lediglich, dass Lernen stattgefunden hat. Voraussetzung für Lernen und Nachahmung scheinen höhere kognitive Prozesse wie Aufmerksamkeits-, Gedächtnis-, sowie Anreiz- und Motivationsprozesse zu sein.

Zum einen wird unterstellt, dass Imitationslernen Bewusstsein auf Seiten des Lernenden voraussetzt, dieser also bewusst und willentlich nachahmt.

Zum anderen wird als weitere kognitive Fähigkeit die Fähigkeit zur Perspektivenübernahme unterstellt, als Vermögen sich selbst an der Stelle des Modells vorzustellen.

Insgesamt ist jedoch nicht geklärt, in welcher Form und in welchem Ausmaß kognitive Prozesse zum Imitationslernen beitragen.

32
Q

021 | Trennen Sie echte Imitation von Emulation (Nacheifern, scheinbarer Imitation)

A

Unter echter Imitation wird das genaue Abbild des beobachteten Modellverhaltens verstanden. Der Begriff “echt” grenzt solche Verhaltensweisen als keine “Imitation” ab, die lediglich als solche erscheinen, aber in Wirklichkeit lediglich Verhaltensweisen umfassen, die instrumentell erworben wurden.

So ist es möglich, dass ein Schimpanse sich selbst Lippenstift aufträgt. Dies muss aber nicht durch Beobachtung eines Menschen zustande gekommen sein, sondern kann auch Ergebnis von Shaping sein.

Unter Nacheifern (Emulation) wird das Ergebnis, wozu das Modellverhalten geführt hat, wiederholt, jedoch nicht exakt das Modellverhalten im Rahmen identischer Bewegungen nachvollzogen. Wenn also die gleichen Ergebnisse, die mit einer Reihe von Verhaltensweisen bzw. Bewegungen erzeugt wurden, durch die Ausführung alternativer Bewegungen erzielt werden, dann handelt es sich um Nacheifern und nicht um Imitation.

Schimpansen, die Menschen dabei beobachten, wie diese mit einer Hake Nahrung aufsammeln (Experimentalgruppe), nutzen anschließend eher eine Hake zum Aufsammeln von Nahrung als eine Kontrollgruppe Schimpansen, die das Verhalten des Menschen nicht beobachtet hatte. Allerdings zeigte die Experimentalgruppe nicht exakt das Hakverhalten, wie es zuvor vom Menschen dargeboten wurde, sondern in abgewandelter Form.