06 - Lernen und Verhaltensanalyse Flashcards
Was ist Lernen?
Erfahrungsbasierter Prozess, der in einer relativ konsistenten Änderung des Verhaltens oder des Verhaltenspotenzials resultiert
Lernen – ein Prozess, der auf Erfahrung beruht
- Erfahrung: Informationen aufnehmen (und diese bewerten und transformieren) sowie Reaktionen zeigen, welche die Umwelt beeinflussen können
- Einige überdauernde Verhaltensänderungen erfordern Kombination aus Erfahrung und reifungsbedingter Bereitschaft
Eine Veränderung im Verhalten oder Verhaltenspotenzial
- Unterscheidung von Lernen und Leistung: Gelerntes vs. Beobachtbares
- Z.B. Leistung vs. Wertschätzung, Verständnis (Haltungen und Werte)
Eine relativ nachhaltige Veränderung
Nachhaltig bedeutet nicht permanent, z.B. ohne Übung können Fähigkeiten abnehmen
Habituation
= Gewöhnung
- Verhaltensreaktion lässt nach, wenn Stimulus wiederholt wird
- > Trägt dazu bei, Aufmerksamkeit auf neuartige Ereignisse in Umgebung zu lenken
Sensibilisierung
Reaktion auf Stimulus wird bei Wiederholung stärker
Wann tendiert der Organismus zur Sensibilisierung?
Organismus tendiert eher zur Sensibilisierung, wenn Stimulus intensiv oder irritierend ist
John Watson (1878-1958)
Grundlage des Blickwinkels moderner Psychologie auf Lernen
o Gründete psychologische Schule des Behaviorismus
o Psychology from the Standpoint of a Behaviorist (1919) dominierte 50 Jahre lang die amerikanische Psychologie
o Introspektion ist kein akzeptables Mittel zur Untersuchung > zu subjektiv
o Da Bewusstseinszustände des Geistes nicht objektiv verifizierbar, können sie niemals als wissenschaftliche Daten herangezogen werden
Stattdessen beobachtbares Verhalten
o Hauptziel der Psychologie: Vorhersage und Kontrolle des Verhaltens
B. F. Skinner (1904-1990)
Erweiterung zum radikalen Behaviorismus
o Geistige Zustände sind nicht Ursache von Verhalten, sondern Beispiele von Verhalten, hervorgerufen durch Stimuli in der Umwelt
o Philosophische Grundlage der Verhaltensanalyse: befasst sich vorwiegend mit der Entdeckung von Umweltdeterminanten für das Lernen und das Verhalten
o Verhaltensanalytiker entdecken universelle Regularitäten im Lernen, die in vergleichbaren Situationen bei allen tierischen Spezies, einschließlich des Menschen, vorkommen (Wichtigkeit von Tierversuchen in diesem Forschungsfeld)
o Komplexe Formen des Lernens sind Kombinationen und Elaborationen einfacher Prozesse und nicht qualitativ andersartige Phänomene
Klassisches Konditionieren
Stimulus sagt Auftreten eines anderen Stimulus vorher
-> Organismus lernt Assoziation zwischen zwei Stimuli
Pawlows überraschende Beobachtung
- Berühmtester Zufall in Psychologie: Iwan Pawlow (1849-1936) stieß während Forschungen zur Verdauung auf klassisches Konditionieren
- Implantierte Schläuche in Drüsen und Verdauungsorgane, um Körpersekrete in Behälter außerhalb des Körpers zu sammeln -> Sekrete messbar und analysierbar
- Fleischpulver in Mund der Hunde, um Sekretproduktion anzuregen
- Nach einigen Malen speichelten Hunde bevor Pulver in den Mund gegeben wurde -> schon bei Anblick des Futters, dann bei Assistenten, später sogar bei Schritten des Assistenten
- Lernen kann aus Assoziation zweier Stimuli entstehen
- Klassische Konditionierung oft auch Pawlow’sche Konditionierung
Reflexe
ungelernte Reaktionen, die in natürlicher Weise durch spezifische Stimuli hervorgerufen werden, die für den Organismus biologisch relevant sind
o Kern des Klassischen Konditionierens
Unkonditionierter Stimulus (UCS)
ruft natürlicher Weise ein Reflexverhalten hervor
Unkoordinierte Reaktion (UCR)
das auf den UCS hin gezeigte Verhalten
Verhältnis von NS, CS und CR?
Neutraler Stimulus (NS) wird im Konditionierungsprozess zu konditioniertem Stimulus (CS) o Löst konditionierte Reaktion (CR) aus
Erwerb
Prozess, in dem die CR erstmalig auftaucht und in ihrer Häufigkeit allmählich mit zunehmenden wiederholten Paarungen ansteigt
o Mehrfache Paarung von UCS und CS, bevor CS zuverlässig CR auslöst
Timing
CS und UCS müssen zeitlich nah beieinander liegen, damit Organismus sie als zeitlich verbunden wahrnimmt -> 4 zeitliche Strukturen: o Verzögerte Konditionierung o Spurenkonditionierung o Simultane Konditionierung o Rückwärtskonditionierung
Verzögerte Konditionierung
CS vor UCS und hält mind. solange an bis UCS einsetzt
-> effektivste Struktur: mit kurzem Intervall zwischen Start des CS und Start des UCS
Spurenkonditionierung
CS wird unterbrochen, bevor UCS präsentiert wird
Simultane Konditionierung
CS und UCS gleichzeitig -> schlecht
Rückwärtskonditionierung
CS nach UCS -> besonders schlecht
Warum sind die simultane und die Rückwärtskonditionierung schwach?
Weil CS nicht UCS vorhersagt -> keine Kontingenz
Wovon hängt das genaue Zeitintervall von CS und UCS ab?
Von mehreren Faktoren:
z.B. Intensität des CS und Reaktion, die konditioniert werden soll
o Für muskuläre Reaktionen kurze Intervalle von einer Sekunde oder weniger
o Für viszerale Reaktionen (Bauch, Eingeweide) längere Intervalle von 5 bis 15 Sekunden
Löschung
= Extinktion
CR tritt in Anwesenheit des CS (und Abwesenheit des UCS) nicht mehr auf
Spontanremission
plötzliches Wiederauftreten der CR nach einer Pause, in der UCS nicht dargeboten wurde
Ersparnis
Wird nach Löschung ursprüngliche Paarung wieder erneuert, wird CR sehr schnell stärker -> Organismus muss etwas von ursprünglicher Konditionierung beibehalten haben
o Ursprüngliche Definition „Lernen“ betont Unterschied zwischen Lernen und Leistung
Reizgeneralisierung und Generalisierungsgradienten
- Auch ähnliche Stimuli wie CS lösen Reaktion aus
- Je ähnlicher der neue Reiz dem ursprünglichen CS, desto stärker fällt Reaktion aus
- Generalisierungsgradienten: Reaktionsstärken für Serien von Reizen, die entlang einer Dimension unähnlicher werden
- > Neue, jedoch vergleichbare Erlebnisse können als bedeutungsgleich erkannt werden
Reizdiskrimination
- Organismus lernt, auf verschiedene Reize, die sich von CS entlang einer Dimension unterscheiden, unterschiedlich zu reagieren
- Damit Organismus in Umwelt optimal funktioniert, müssen Prozesse der Generalisierung und Diskrimination sehr gut ausbalanciert sein (weder überselektiv noch überreaktiv)
Diskriminationstraining
Diskrimination zwischen ähnlichen Reizen wird geschärft, indem nur einer der Reize den UCS ankündigt
Ursprüngliche Funktion hinter klassischem Konditionieren
Mechanismus, der Lebewesen ermöglicht, effizient auf Strukturen der Umwelt zu reagieren
Klassisches Konditionieren nach Pawlow
Klassisches Konditionieren als Ergebnis ausschließlich der Paarung von CS und UCS
o CS und UCS in enger zeitlicher Beziehung -> zeitliche Kontiguität
Von wem wurde Pawlows Theorie abgelöst?
Von Robert Rescorla (1966): Hundeexperiment
o Von einer Box in andere springen, um Elektroschock zu vermeiden
o 1. Gruppe keine Kontingenz, 2. Gruppe schon -> 2. Gruppe sprang öfter bei Überprüfung bei Darbietung des Tons
o Ton (CS) und elektrischer Schock (UCS) bei Pawlow durch Kontiguität verbunden
o Auch wichtig: Ton sagt zuverlässig Auftreten des Schocks voraus -> Kontingenz (zuverlässige Vorhersage)
o Auch wichtig: Reiz muss in der Umwelt informativ sein
Was ist neben Pawlows zeitlicher Kontiguität noch wichtig bei der klassischen Konditionierung?
- Zuverlässige Vorhersage: Ton sagt zuverlässig Auftreten des Schocks voraus -> Kontingenz
- Reiz muss in der Umwelt informativ sein
Einfluss von klassisch konditionierten Reaktionen
Klassisch konditionierte Reaktion „Das ist eklig!“, „Das ist gefährlich!“ gewinnt über Wissen, dass Stimulus in Ordnung ist
o Nicht durch bewusstes Denken aufgebaut -> daher schwer durch bewusstes Denken zu eliminieren!
Eines der am besten untersuchtesten Alltagserlebnisse der klassischen Konditionierung
Furchtkonditionierung
“Kleiner Albert”: John Watson und Rosalie Rayner (Behaviorismus) (1920)
o Paarung von Erscheinen einer weißen Ratte, die der „kleine Albert“ mochte, mit aversivem UCS (lautes Geräusch hinter ihm)
o Unkonditionierte Schreckreaktion überträgt sich auf Ratte als CS (nach nur 7mal!)
o Als Albert lernt, vor gefürchtetem Stimulus zu fliehen -> emotionale Konditionierung zu Verhaltenskonditionierung
o Furcht generalisierte sich auf andere pelzige Objekte
Klassisches Konditionieren in der Werbung
Herstellen von Assoziationen zwischen Produkten und Leidenschaft
o Sexy Menschen als UCS lösen UCR aus, Produkt wird zum CS
Drogenabhängigkeit und Lernen
- Shephard Siegel: Setting, in dem Drogenkonsum stattfindet, als CS für Situation, in welcher der Körper sich zu schützen lernt
o Droge (UCS) erzeugt bestimmte physiologische Reaktionen auf die der Körper mit Gegenmaßnahmen (UCR) reagiert, um wieder Homöostase herzustellen
o Kompensatorische Reaktion wird zu konditionierter Reaktion
o Setting des Drogenkonsums (CS) -> Körper bereitet sich auf zu erwartende Effekte der Droge vor (CR)
o „positiver Drogeneffekt“ nur, wenn Dosis kompensatorische Reaktion übersteigt - Forschung Siegel (1982): Ratten erwarteten in bestimmten Setting (CS) Heroin (UCS), in anderem Setting (CS) Zuckerlösung
o Doppelte Dosis: im Zuckersetting starben doppelt so viele Ratten (64% zu 32%)
o Vermutung: Ratten im üblichen Setting besser vorbereitet - 7 von 10 Abhängigen erfuhren Überdosis in ungewohnter Situation
Lernen von Geschmacksaversionen
Geschmack wird Substanz beigemischt, die krank macht
o Entsteht nur durch eine Paarung von CS und UCS
o Sogar bei großen Intervallen: 12 Stunden und mehr
- John Garcia (Psychologe) wies als Erster in Laborversuchen Lernen von Geschmacksaversionen nach
o Tiere besitzen im Allgemeinen biologische Prädisposition zum Lernen bestimmter Assoziationen
Garcia und Koelling: Ratten, Licht und Lärm
o Durstige Ratten: Lecken an Röhrchen mit Wasser zieht Lärm und helles Licht nach sich -> alle Stimuli neutral
o 1. Gruppe: süßes Wasser, 2. Gruppe: Lärm, Licht und normales Wasser
o Jede der beiden Gruppen erneut aufgeteilt:
Hälfte Schock (> Schmerz), Hälfte Strahlung (> Krankheit)
o Starke Reduktion des Trinkens bei Kombi Geschmack und Krankheit und bei Kombi Lärm/Licht und Schmerz, bei anderen beiden Bedingungen wenig Veränderung
o -> Ratten haben angeborene Neigung, bestimmte Stimuli mit gewissen Folgen zu assoziieren
Ratten und Zuckerwasser: Smith et al., 2010
o Ratten können aus zwei Flaschen trinken: 10 Grad und 40 Grad warm
Bevorzugen kaltes Wasser
o Nach Trinken von kaltem Wasser: Hälfte bekommt krankmachende Substanz injiziert, andere Hälfte Salzlösung
o Kranke Ratten entwickeln konditionierte Aversion gegen kaltes Wasser
o Bei kaltem Wasser mit Saccharin = Aversion gegen kaltes Wasser und warmes Saccharin
Das Gesetz des Effekts
- Edward L. Thorndike (1898): Katzen versuchen aus Box zu entkommen
o „impulsive Handlung“ öffnet die Tür -> prägt sich durch Freude ein
o Lernen als Reiz-Reaktions-Verbindung (S-R-Verbindung)
o Gesetz des Effekts: folgt auf Reaktion befriedigende Konsequenz, erhöht sich Auftretenswahrscheinlichkeit der Reaktion
Experimentelle Verhaltensanalyse
- Um Verhalten experimentell zu untersuchen entwickelte B.F. Skinner Methoden zum operanten Konditionieren (auch: instrumentelles Konditionieren)
o Manipulation der Konsequenzen des Verhaltens, um Folgeverhalten abzuschätzen
o Operant: jedes Verhalten, dass von Organismus gezeigt wird und das beschrieben werden kann
Wörtlich: Beeinflussung der Umwelt (Ausführen von Operationen an ihr)
o Operante Reaktionen werden nicht durch bestimmte Reize ausgelöst
Auftretenswahrscheinlichkeit wird durch Manipulation der Effekte auf Umwelt erhöht/gesenkt
o Skinnerbox: Wenn Ratte adäquates Verhalten zeigt, gibt Vorrichtung bei Hebeldruck Futterpille aus
Kontingenzen bei der Verstärkung
Zuverlässige Beziehung zwischen Reaktion und dadurch hervorgerufenen Änderungen in der Umwelt
Verstärker
jeder Stimulus, der die Wahrscheinlichkeit des gezeigten Verhaltens im Laufe der Zeit verändert
Positive Verstärkung
auf Verhalten folgt angenehmer Reiz
Negative Verstärkung
auf Verhalten folgt Entfernung eines aversiven Reizes
- > Fluchtkonditionierung
- > Vermeidungskonditionierung
Fluchtkonditionierung
Tiere lernen, dass Reaktion ermöglicht, aversiven Reiz zu entkommen (z.B. Aufspannen von Regenschirm, um nicht nass zu werden)
Vermeidungskonditionierung
Tiere lernen, dass Reaktion ermöglicht, aversiven Reiz zu verhindern (z.B. Anschnallen, um nerviges Geräusch nicht zu hören)
Wann tritt die operante Löschung ein?
Wenn Verstärkung ausbleibt
Bestrafungsreiz
Stimulus, der Wahrscheinlichkeit des Verhaltens senkt
Bestrafung 1. Art
= positive Bestrafung
auf Verhalten folgt aversiver Reiz
Bestrafung 2. Art
= negative Bestrafung
auf Verhalten erfolgt Entfernung eines angenehmen Reizes
Diskriminative Hinweisreize
Organismen lernen, dass Verhalten in Anwesenheit bestimmter Reize, nicht aber in Anwesenheit anderer, mit großer Wahrscheinlichkeit Effekt zeigt
Definition Vorlesung: bestimmte Reize, die einer spezifischen Reaktion vorausgehen, legen Kontext des Verhaltens fest
Dreifachkontingenz
Folge von diskriminativem Reiz, Verhalten und Konsequenz (Skinner)
Generalisierung (operantes Konditionieren)
Organismen generalisieren Reaktionen auf andere Reize, die diskriminativem Stimulus ähnlich sind
Sekundärgewinn
Junge lernt, das Wutanfall ihm mehr Aufmerksamkeit bringt
-> Unwissentliche Verstärkung: Ursache ernsthafter Verhaltensprobleme bei Kindern
Gerald Patteron’s coercion model
Modell der Nötigung für antisoziales Verhalten
o Einwirkung auf Verhalten von Kindern durch Bestrafung = meist ineffektiv
Gershoff & Bitensky, 2007: physische Bestrafung = negative Folgen beim Kind
- Untersuchung des Zusammenhangs zwischen Ausmaß der Bestrafung mit 15 Monaten und Verhaltensproblemen mit 36 Monaten und in erster Klasse
- Für „einfache“ wie „schwierige“ Kinder korrespondierte Ausmaß aggressiven Verhaltens mit 36 Monaten und erster Klasse mit Geschlagenwerden in jungem Alter
-> Verstärkung von positivem Verhalten auf lange Sicht Bestrafen für unerwünschtes Verhalten überlegen
Primäre Verstärker
biologisch determiniert, z.B. Nahrung, Wasser
Konditionierte Verstärker
auch: sekundäre Verstärker
- Assoziation von zuvor neutralen Stimuli mit primären Verstärkern, z.B. Geld, Noten, Lächeln, Pokale, Statussymbole
- Großer Teil menschlichen Verhaltens weniger durch primäre, sondern durch konditionierte Verstärker bestimmt
Verstärker bei Schimpansen: Cowles, 1937
Schimpansen lösen Probleme durch primären Verstärker „Rosinen“
o Dann Rosinen zusammen mit Tokens (Chips), später nur Tokens -> arbeiteten weiter, weil sie Chips in Rosinen umtauschen konnten
Was ist der Vorteil von konditionierten Verstärkern?
- Konditionierte Verstärker wirksamer und leichter in der Handhabung als primäre
1. Bessere Verfügbarkeit
2. Schnellere Gabe
3. Transportabel
4. Kommen schneller zum Tragen, weil Wirkung nur von Wahrnehmung abhängt, Verstärker bekommen zu haben (und nicht von biologischen Prozessen wie bei primären Verstärkern)
Tokensysteme in Psychatrie und Entzugskliniken
o Tokens werden bei erwünschtem Verhalten gegeben
o Können später in Belohnungen und Privilegien umgetauscht werden
Theorie des Reaktionsentzug (response deprivation theory)
Verhaltensweisen werden dann bevorzugt und verstärkend, wenn Organismus daran gehindert wird, sie auszuüben (z.B. Videospiel als Belohnung)
-> Jede Aktivität kann zum Verstärker werden, allerdings nur unter Deprivation
Entdeckung von Verstärkerplänen
B.F. Skinner: in Extinktionsphase reagierten Ratten mit partieller Verstärkung länger und stärker als Ratten, die für jedes Hebeldrücken belohnt wurden
Quotenplan
auch: ratio schedule
Verstärkung nach einer bestimmten Anzahl von Reaktionen
Intervallplan
Verstärkung nach bestimmtem Zeitintervall auf erste Reaktion hin
Effekt partieller Verstärkung
Reaktionen, die unter partieller Verstärkung erworben wurden, sind löschungsresistenter als Reaktionen, die unter kontinuierlichen Verstärkerplänen erworben wurden
Eigenschaften von Quoten- und Intervallplänen
Muster kann in beiden Fällen konstant und somit fixiert oder unregelmäßig und somit variabel sein
Fixierte Quotenpläne (FR)
- Verstärkung erfolgt, nachdem Organismus festgelegte Zahl von Reaktionen zeigte
o FR-1-Plan: auf jede Reaktion folgt Verstärkung (-> kontinuierliche Verstärkung)
o FR-25-Plan: auf jede 25. Reaktion folgt Verstärkung - Produziert hohe Auftretenswahrscheinlichkeiten, da unmittelbare Korrelation zwischen Reaktion und Verstärker
- Auf jeden Verstärker folgt eine Pause
o Je größer Quotient (z.B. FR-25 vs. FR 10), desto längere Pause - Beispiel: Bezahlung von Vertretern (nach bestimmter Anzahl an Abschlüssen)
Variable Quotenpläne (VR)
- Mittlere Anzahl von Reaktionen zwischen den Verstärkern im Vorhinein festgelegt
o VR-10-Plan: im Mittelwert folgt auf jede 10. Reaktion eine Verstärkung
Also manchmal auf erste Reaktion, manchmal auch auf 20. Reaktion - Produzieren höchste Reaktionsrate und größten Löschungswiderstand, insbesondere wenn VR-Wert groß ist
- Beispiel: Glücksspiel
Fixierte Intervallpläne (FI)
- Verstärkung erfolgt auf erste Reaktion nach einem bestimmten Zeitintervall
o FI-10-Plan: Verstärkung erfolgt alle 10 Sekunden - Reaktionsraten zeigen Bogenmuster: nach Verstärkung wenig Reaktion, wenn Zeit Belohnung näher rückt, nimmt Reaktionsrate zu
- Beispiel: Pizza im Ofen -> erst wenig nachsehen, gegen Ende häufig nachsehen, ob fertig
Variable Intervallpläne (VI)
- Mittleres Zeitintervall wird festgelegt
o VI-20-Plan: im Mittelwert wird ein Verstärker pro 20 Sekunden gegeben - Produziert mäßige, aber sehr stabile Verhaltensrate
- Löschung erfolgt allmählich und langsamer als unter FI-Plan
- Beispiel: Probeklausuren in unregelmäßigen Abständen
Shaping durch schrittweise Annäherung
- alle Reaktionen werden verstärkt, die sich der gewünschten Reaktion schrittweise annähern und schließlich mit ihr übereinstimmen -> differenzielle Verstärkung
- Ziel: Verhalten antrainieren, das nicht von sich aus gezeigt werden würde:
1. Verstärker auswählen
2. Verstärkerplan auswählen
3. Shaping
Shaping beim Stabhochspringer
Stabhochspringer hält Arme vor Absprung nicht hoch genug (von 2,25 auf 2,54)
o Installierte Lichtschranke: wurde unterbrochen, wenn gewünschte Handhöhe und emittierte Signalton -> konditionierter positiver Verstärker
o Anfang: Lichtschranke auf 2,30m eingestellt, bei 90% Erfolg –> 2,35m usw. bis 2,54m
Keller und Marion Breland
trainierten mithilfe der Technik des operanten Konditionierens Tausende Tiere unterschiedlicher Spezies auf beachtliche Bandbreite an Verhalten
Instinktverschiebung
Gelerntes Verhalten verschiebt sich mit der Zeit in Richtung instinktives Verhalten
- Nicht alle Aspekte des Lernens befinden sich unter Kontrolle von Verstärkern -> Instinkt steht über Konditionierung
- Konditionierung besonders effektiv, wenn Zielverhalten biologisch relevant
Kognition
jede mentale Aktivität, die zur Repräsentation und Verarbeitung von Wissen eingesetzt wird, z.B. Denken, Erinnern, Wahrnehmen und Verwendung von Sprache
Komparative Kognition
Vergleichen von Fähigkeiten über verschiedene Spezies hinweg
o Auch: tierische Kognition -> wegen Fokussierung auf Tierarten
Kognitive Landkarten: - Edward C. Tolman (1886-1959)
o Bei Blockierung des ursprünglichen Pfades nimmt Ratte mit Vorerfahrung im Labyrinth den kürzesten Umweg um das Hindernis, obwohl diese spezifische Reaktion nie zuvor verstärkt wurde
o Ratten haben vermutlich kognitive Landkarte und explorieren nicht durch Versuch und Irrtum
o Konditionieren umfasst mehr als Aufbau von Assoziationen zwischen Klassen von Reizen oder zwischen Reaktionen und Verstärkern
Beinhaltet Lernen und Repräsentieren anderer Aspekte des Gesamtkontextes von Verhalten
o Erstaunliche Fähigkeit des räumlichen Gedächtnisses bei vielen Tieren
Funktionen räumlicher Landkarten
- Wiedererkennen von Merkmalen in Umgebung
- Finden von wichtigen Zielobjekten in Umgebung
- Planung von Weg durch Umgebung
Konzeptuelles Verhalten
Urteile zwischen „identisch“ und „unterschiedlich“
Konzeptuelles Verhalten bei Tauben: Wright et al., 2010
o Tauben betrachten zwei farbige Kreise, die 5s lang angezeigt werden
o Nach kurzer Unterbrechung für Abspeichern -> zweites Feld mit veränderter Farbe
o Tauben mussten für Belohnung auf Kreis mit veränderter Farbe picken
o Zeigten Pickverhalten auch bei Farbkombinationen, auf die sie nicht trainiert wurden
o Tauben lernten also, gleich von unterschiedlich zu unterscheiden
Beobachtungslernen
- Mensch lernt auch durch mittelbare Verstärkung und Bestrafung, da er sich erinnern und schlussfolgern kann
- Beobachtungslernen: Lernen durch Beobachten des Verhaltens einer Person, das verstärkt oder bestraft wurde
- Erwerb großer, integrierter Verhaltensmuster ohne langwierigen Versuch-und-Irrtum-Prozess durchlaufen zu müssen
- Beobachtungslernen nicht spezifisch für Menschen, z.B. auch Raben, Lemuren, Kaulquappen
Albert Bandura: Beobachtungslernen
Kinder beobachten Erwachsene, die Clownpuppe schlagen
o Zeigen später größere Häufigkeit dieses Verhaltens als Kinder aus Kontrollgruppe
4 Prozesse, von denen es abhängt, ob das bei einem Modell beobachtete Verhalten einflussreich ist
Aufmerksamkeit
Behalten
Reproduktion
Motivation
Fernsehkonsum und Gewalt: Huesmann et. al., 1977-2003
o 1977: 2 Jahre Messung des Fernsehkonsums von 577 Kindern der 1. und 3. Klasse
Besonders Aufzeichnung von gewalttätigen Inhalten
o 15 Jahre später: Befragung von 329 der inzwischen 20-22 Jährigen
o Personen mit höchstem Gewaltanteil am Fernsehkonsum, zeigten auch später aggressivstes Verhalten
o Schwacher Zusammenhang zwischen kindlichem Aggressionsverhalten und TV-Gewaltkonsum -> daher Kausalrelation bewiesen
3 Arten, wie Fernsehgewalt sich negativ auf Betrachter auswirkt
o Durch Beobachtungslernen Zuwachs an aggressivem Verhalten
o Überschätzung von Auftreten von Gewalt im Alltag -> übermäßige Ängste
o Desensibilisierung
Erfahrung und Reifung
- Erfahrung vs. Reifung (physische Reifungs-
prozesse, z.B. Stimmhöhe), Entwicklungen des
Gehirns im Zuge von Alterungsprozessen
(z.B. Piagets kognitive Entwicklungsstufen),
Erkrankungen oder Gehirnschädigungen - Manchmal Lernen als Kombination aus
Erfahrung und reifungsbedingter Bereitschaft
(z.B. Laufen Lernen)
Zwei grundlegende Formen des Lernens
Habituation und Sensibilisierung
Watson und Skinner
John Watson (1878 – 1958):
- Begründer des Behaviorismus
- Methode der Introspektion kein akzeptables Mittel zur Untersuchung von Verhalten, da subjektiv
- Beobachtbares Verhalten als Untersuchungsmaß: S - > ? -> R
B.F. Skinner (1904 – 1990):
- Weiterentwicklung des Behaviorismus
- > radikaler Behaviorismus: S -> -> R
- Geistige Ereignisse (z.B. Denken, Vorstellungen) als Beispiele von Verhalten
- Aufdecken von universellen Regularitäten im Lernen, die in Vergleichbaren Situationen bei allen tierischen Spezies vorkommen (-> Tierversuche)
Ablauf der klassischen Konditionierung
- UCS (Reflex) -> UCR, NS-> keine Reaktion
- NS – UCS -> UCR
- CS -> CR
Mechanismen der klassischen Konditionierung
- Zeitliche Kontiguität: enge zeitliche Beziehung
- Kontingenz: zuverlässige Vorhersage zwischen CS (Ton) und UCS (Schock)
- Informationsgehalt: CS muss neue Informationen haben (z.B. Blockierung von Lernen Ton-Schock von Lernen Licht-Schock bei Hintereinanderschaltung von Licht-Ton-Schock)
Experimentelle Untersuchung des Verhaltens durch „operante Konditionierung“
≈ instrumentelle Konditionierung; Manipulation der Konsequenzen des Verhaltens, um den Effekt der Konsequenzen auf das Folgeverhalten abzuschätzen
Skinner: Entwicklung eines Forschungsprogramms zur Untersuchung des Einflusses von Umweltbedingungen auf die Auftretenswahrscheinlichkeit von Reaktionen durch die systematischen Variation der Reizbedingungen - Bsp. Wo muss die Radarfalle stehen? Wie hoch muss die Strafe sein? Wie deutlich muss das „Blitzen“ sein?
Klassisches vs. operantes Konditionieren
Passives vs. aktives Lernen
Latentes Lernen
Das (behauptete) latente Lernen ist von entscheidender Bedeutung für den Kognitivismus. Latentes Lernen bedeutet, dass bestimmte Inhalte (Verhaltensweisen oder Pläne für Verhaltensweisen), ohne dass ein Verhalten verstärkt wurde, „im Kopf“ gespeichert werden. Erkennen könne man latentes Lernen daran, dass ein zuvor nicht trainiertes Verhalten auf einmal spontan gezeigt werde. Dies widerspricht angeblich dem behavioristischen Grundsatz, dass Lernen nur dann stattfindet, wenn ein offenes Verhalten verstärkt wird. Latentes Lernen ist beispielsweise relevant für die Theorie des Modelllernens nach Albert Bandura (1986). Bandura geht davon aus, dass das beobachtete Verhalten einer anderen Person zunächst nur gespeichert wird. Der Abruf dieses Verhaltens erfolgt dann, wenn das imitative Verhalten des Beobachters verstärkt wird. Verhaltensanalytiker gehen dagegen davon aus, dass Lernen eine Änderung im Verhalten ist (nicht eine Änderung in den „Verhaltensmöglichkeiten“). Latentes Lernen ist so gesehen nicht möglich.
Tolman: Kognitive Landkarte ausführlich erklärt
Der häufig zitierte experimentelle Beleg für latentes Lernen ist ein Experiment von Edward Tolman (Tolman & Honzik, 1930a, 1930b). Tolman und Honzik ließen drei Gruppen von (nahrungsdeprivierten) Ratten einmal täglich ein vierzehnteiliges T-Labyrinth über zweiundzwanzig Tage hinweg durchlaufen. Die erste Gruppe fand vom ersten Tag an immer am Ende des Labyrinths eine Futterbelohnung. Die zweite Gruppe fand nie Futter am Ende des Labyrinths. Die dritte Gruppe fand an den ersten zehn Tagen kein Futter, aber ab dem elften und an allen darauffolgenden Tagen. Gemessen wurde die Zahl der Fehler, die die Ratte beim Durchlaufen des Labyrinths machte und die Zeit, die sie dazu benötigte. Sowohl die Zeit als auch die Fehlerzahl nahm in allen drei Gruppen von Anfang an ab, wobei die erste Gruppe (die immer Futter fand) ab etwa dem fünften Tag deutlichere Fortschritte machte als die anderen Gruppen. Der entscheidende Beleg für latentes Lernen soll nun aber sein, dass die dritte Gruppe vom elften auf den zwölften Tag deutlich weniger Fehler machte und weniger Zeit benötigte. Die Leistungen waren nun sogar besser als die der ersten Gruppe. Tolman vermutete, dass die Ratten schon die ganze Zeit über den Plan des Labyrinths (latent) gelernt hatten (ohne auch nur ein Krümelchen Futter dafür zu bekommen). Das Futter am Ende des Labyrinths motivierte die Ratten lediglich, das bereits Gelernte auch offen zu zeigen.
Verschiedene Arten des Behaviorismus
Klassischer Behaviorismus: S -> ? -> R (Black Box kann nicht untersucht werden)
Radikaler Behaviorismus: S -> -> R (Inhalt Black Box ist für die Erklärung des Verhaltens nicht notwendig)
Kognitiver Behaviorismus: S -> O -> R (Organismusvariable als Inhalt von Black Box wichtig für die Erklärung des Verhaltens)