06 - Lernen und Verhaltensanalyse Flashcards

1
Q

Was ist Lernen?

A

Erfahrungsbasierter Prozess, der in einer relativ konsistenten Änderung des Verhaltens oder des Verhaltenspotenzials resultiert

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Lernen – ein Prozess, der auf Erfahrung beruht

A
  • Erfahrung: Informationen aufnehmen (und diese bewerten und transformieren) sowie Reaktionen zeigen, welche die Umwelt beeinflussen können
  • Einige überdauernde Verhaltensänderungen erfordern Kombination aus Erfahrung und reifungsbedingter Bereitschaft
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Eine Veränderung im Verhalten oder Verhaltenspotenzial

A
  • Unterscheidung von Lernen und Leistung: Gelerntes vs. Beobachtbares
  • Z.B. Leistung vs. Wertschätzung, Verständnis (Haltungen und Werte)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Eine relativ nachhaltige Veränderung

A

Nachhaltig bedeutet nicht permanent, z.B. ohne Übung können Fähigkeiten abnehmen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Habituation

A

= Gewöhnung

  • Verhaltensreaktion lässt nach, wenn Stimulus wiederholt wird
  • > Trägt dazu bei, Aufmerksamkeit auf neuartige Ereignisse in Umgebung zu lenken
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Sensibilisierung

A

Reaktion auf Stimulus wird bei Wiederholung stärker

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Wann tendiert der Organismus zur Sensibilisierung?

A

Organismus tendiert eher zur Sensibilisierung, wenn Stimulus intensiv oder irritierend ist

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

John Watson (1878-1958)

A

Grundlage des Blickwinkels moderner Psychologie auf Lernen
o Gründete psychologische Schule des Behaviorismus
o Psychology from the Standpoint of a Behaviorist (1919) dominierte 50 Jahre lang die amerikanische Psychologie
o Introspektion ist kein akzeptables Mittel zur Untersuchung > zu subjektiv
o Da Bewusstseinszustände des Geistes nicht objektiv verifizierbar, können sie niemals als wissenschaftliche Daten herangezogen werden
 Stattdessen beobachtbares Verhalten
o Hauptziel der Psychologie: Vorhersage und Kontrolle des Verhaltens

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

B. F. Skinner (1904-1990)

A

Erweiterung zum radikalen Behaviorismus
o Geistige Zustände sind nicht Ursache von Verhalten, sondern Beispiele von Verhalten, hervorgerufen durch Stimuli in der Umwelt
o Philosophische Grundlage der Verhaltensanalyse: befasst sich vorwiegend mit der Entdeckung von Umweltdeterminanten für das Lernen und das Verhalten
o Verhaltensanalytiker entdecken universelle Regularitäten im Lernen, die in vergleichbaren Situationen bei allen tierischen Spezies, einschließlich des Menschen, vorkommen (Wichtigkeit von Tierversuchen in diesem Forschungsfeld)
o Komplexe Formen des Lernens sind Kombinationen und Elaborationen einfacher Prozesse und nicht qualitativ andersartige Phänomene

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Klassisches Konditionieren

A

Stimulus sagt Auftreten eines anderen Stimulus vorher

-> Organismus lernt Assoziation zwischen zwei Stimuli

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Pawlows überraschende Beobachtung

A
  • Berühmtester Zufall in Psychologie: Iwan Pawlow (1849-1936) stieß während Forschungen zur Verdauung auf klassisches Konditionieren
  • Implantierte Schläuche in Drüsen und Verdauungsorgane, um Körpersekrete in Behälter außerhalb des Körpers zu sammeln -> Sekrete messbar und analysierbar
  • Fleischpulver in Mund der Hunde, um Sekretproduktion anzuregen
  • Nach einigen Malen speichelten Hunde bevor Pulver in den Mund gegeben wurde -> schon bei Anblick des Futters, dann bei Assistenten, später sogar bei Schritten des Assistenten
  • Lernen kann aus Assoziation zweier Stimuli entstehen
  • Klassische Konditionierung oft auch Pawlow’sche Konditionierung
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Reflexe

A

ungelernte Reaktionen, die in natürlicher Weise durch spezifische Stimuli hervorgerufen werden, die für den Organismus biologisch relevant sind
o Kern des Klassischen Konditionierens

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Unkonditionierter Stimulus (UCS)

A

ruft natürlicher Weise ein Reflexverhalten hervor

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Unkoordinierte Reaktion (UCR)

A

das auf den UCS hin gezeigte Verhalten

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Verhältnis von NS, CS und CR?

A
Neutraler Stimulus (NS) wird im Konditionierungsprozess zu konditioniertem Stimulus (CS)
o	Löst konditionierte Reaktion (CR) aus
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Erwerb

A

Prozess, in dem die CR erstmalig auftaucht und in ihrer Häufigkeit allmählich mit zunehmenden wiederholten Paarungen ansteigt
o Mehrfache Paarung von UCS und CS, bevor CS zuverlässig CR auslöst

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Timing

A
CS und UCS müssen zeitlich nah beieinander liegen, damit Organismus sie als zeitlich verbunden wahrnimmt 
-> 4 zeitliche Strukturen:
o	Verzögerte Konditionierung
o	Spurenkonditionierung
o	Simultane Konditionierung
o	Rückwärtskonditionierung
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Verzögerte Konditionierung

A

CS vor UCS und hält mind. solange an bis UCS einsetzt

-> effektivste Struktur: mit kurzem Intervall zwischen Start des CS und Start des UCS

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Spurenkonditionierung

A

CS wird unterbrochen, bevor UCS präsentiert wird

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Simultane Konditionierung

A

CS und UCS gleichzeitig -> schlecht

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Rückwärtskonditionierung

A

CS nach UCS -> besonders schlecht

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Warum sind die simultane und die Rückwärtskonditionierung schwach?

A

Weil CS nicht UCS vorhersagt -> keine Kontingenz

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Wovon hängt das genaue Zeitintervall von CS und UCS ab?

A

Von mehreren Faktoren:
z.B. Intensität des CS und Reaktion, die konditioniert werden soll
o Für muskuläre Reaktionen kurze Intervalle von einer Sekunde oder weniger
o Für viszerale Reaktionen (Bauch, Eingeweide) längere Intervalle von 5 bis 15 Sekunden

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Löschung

A

= Extinktion

CR tritt in Anwesenheit des CS (und Abwesenheit des UCS) nicht mehr auf

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Q

Spontanremission

A

plötzliches Wiederauftreten der CR nach einer Pause, in der UCS nicht dargeboten wurde

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
26
Q

Ersparnis

A

Wird nach Löschung ursprüngliche Paarung wieder erneuert, wird CR sehr schnell stärker -> Organismus muss etwas von ursprünglicher Konditionierung beibehalten haben
o Ursprüngliche Definition „Lernen“ betont Unterschied zwischen Lernen und Leistung

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
27
Q

Reizgeneralisierung und Generalisierungsgradienten

A
  • Auch ähnliche Stimuli wie CS lösen Reaktion aus
  • Je ähnlicher der neue Reiz dem ursprünglichen CS, desto stärker fällt Reaktion aus
  • Generalisierungsgradienten: Reaktionsstärken für Serien von Reizen, die entlang einer Dimension unähnlicher werden
  • > Neue, jedoch vergleichbare Erlebnisse können als bedeutungsgleich erkannt werden
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
28
Q

Reizdiskrimination

A
  • Organismus lernt, auf verschiedene Reize, die sich von CS entlang einer Dimension unterscheiden, unterschiedlich zu reagieren
  • Damit Organismus in Umwelt optimal funktioniert, müssen Prozesse der Generalisierung und Diskrimination sehr gut ausbalanciert sein (weder überselektiv noch überreaktiv)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
29
Q

Diskriminationstraining

A

Diskrimination zwischen ähnlichen Reizen wird geschärft, indem nur einer der Reize den UCS ankündigt

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
30
Q

Ursprüngliche Funktion hinter klassischem Konditionieren

A

Mechanismus, der Lebewesen ermöglicht, effizient auf Strukturen der Umwelt zu reagieren

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
31
Q

Klassisches Konditionieren nach Pawlow

A

Klassisches Konditionieren als Ergebnis ausschließlich der Paarung von CS und UCS
o CS und UCS in enger zeitlicher Beziehung -> zeitliche Kontiguität

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
32
Q

Von wem wurde Pawlows Theorie abgelöst?

A

Von Robert Rescorla (1966): Hundeexperiment
o Von einer Box in andere springen, um Elektroschock zu vermeiden
o 1. Gruppe keine Kontingenz, 2. Gruppe schon -> 2. Gruppe sprang öfter bei Überprüfung bei Darbietung des Tons
o Ton (CS) und elektrischer Schock (UCS) bei Pawlow durch Kontiguität verbunden
o Auch wichtig: Ton sagt zuverlässig Auftreten des Schocks voraus -> Kontingenz (zuverlässige Vorhersage)
o Auch wichtig: Reiz muss in der Umwelt informativ sein

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
33
Q

Was ist neben Pawlows zeitlicher Kontiguität noch wichtig bei der klassischen Konditionierung?

A
  1. Zuverlässige Vorhersage: Ton sagt zuverlässig Auftreten des Schocks voraus -> Kontingenz
  2. Reiz muss in der Umwelt informativ sein
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
34
Q

Einfluss von klassisch konditionierten Reaktionen

A

Klassisch konditionierte Reaktion „Das ist eklig!“, „Das ist gefährlich!“ gewinnt über Wissen, dass Stimulus in Ordnung ist
o Nicht durch bewusstes Denken aufgebaut -> daher schwer durch bewusstes Denken zu eliminieren!

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
35
Q

Eines der am besten untersuchtesten Alltagserlebnisse der klassischen Konditionierung

A

Furchtkonditionierung

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
36
Q

“Kleiner Albert”: John Watson und Rosalie Rayner (Behaviorismus) (1920)

A

o Paarung von Erscheinen einer weißen Ratte, die der „kleine Albert“ mochte, mit aversivem UCS (lautes Geräusch hinter ihm)
o Unkonditionierte Schreckreaktion überträgt sich auf Ratte als CS (nach nur 7mal!)
o Als Albert lernt, vor gefürchtetem Stimulus zu fliehen -> emotionale Konditionierung zu Verhaltenskonditionierung
o Furcht generalisierte sich auf andere pelzige Objekte

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
37
Q

Klassisches Konditionieren in der Werbung

A

Herstellen von Assoziationen zwischen Produkten und Leidenschaft
o Sexy Menschen als UCS lösen UCR aus, Produkt wird zum CS

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
38
Q

Drogenabhängigkeit und Lernen

A
  • Shephard Siegel: Setting, in dem Drogenkonsum stattfindet, als CS für Situation, in welcher der Körper sich zu schützen lernt
    o Droge (UCS) erzeugt bestimmte physiologische Reaktionen auf die der Körper mit Gegenmaßnahmen (UCR) reagiert, um wieder Homöostase herzustellen
    o Kompensatorische Reaktion wird zu konditionierter Reaktion
    o Setting des Drogenkonsums (CS) -> Körper bereitet sich auf zu erwartende Effekte der Droge vor (CR)
    o „positiver Drogeneffekt“ nur, wenn Dosis kompensatorische Reaktion übersteigt
  • Forschung Siegel (1982): Ratten erwarteten in bestimmten Setting (CS) Heroin (UCS), in anderem Setting (CS) Zuckerlösung
    o Doppelte Dosis: im Zuckersetting starben doppelt so viele Ratten (64% zu 32%)
    o Vermutung: Ratten im üblichen Setting besser vorbereitet
  • 7 von 10 Abhängigen erfuhren Überdosis in ungewohnter Situation
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
39
Q

Lernen von Geschmacksaversionen

A

Geschmack wird Substanz beigemischt, die krank macht
o Entsteht nur durch eine Paarung von CS und UCS
o Sogar bei großen Intervallen: 12 Stunden und mehr

  • John Garcia (Psychologe) wies als Erster in Laborversuchen Lernen von Geschmacksaversionen nach
    o Tiere besitzen im Allgemeinen biologische Prädisposition zum Lernen bestimmter Assoziationen
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
40
Q

Garcia und Koelling: Ratten, Licht und Lärm

A

o Durstige Ratten: Lecken an Röhrchen mit Wasser zieht Lärm und helles Licht nach sich -> alle Stimuli neutral
o 1. Gruppe: süßes Wasser, 2. Gruppe: Lärm, Licht und normales Wasser
o Jede der beiden Gruppen erneut aufgeteilt:
 Hälfte Schock (> Schmerz), Hälfte Strahlung (> Krankheit)
o Starke Reduktion des Trinkens bei Kombi Geschmack und Krankheit und bei Kombi Lärm/Licht und Schmerz, bei anderen beiden Bedingungen wenig Veränderung
o -> Ratten haben angeborene Neigung, bestimmte Stimuli mit gewissen Folgen zu assoziieren

41
Q

Ratten und Zuckerwasser: Smith et al., 2010

A

o Ratten können aus zwei Flaschen trinken: 10 Grad und 40 Grad warm
 Bevorzugen kaltes Wasser
o Nach Trinken von kaltem Wasser: Hälfte bekommt krankmachende Substanz injiziert, andere Hälfte Salzlösung
o Kranke Ratten entwickeln konditionierte Aversion gegen kaltes Wasser
o Bei kaltem Wasser mit Saccharin = Aversion gegen kaltes Wasser und warmes Saccharin

42
Q

Das Gesetz des Effekts

A
  • Edward L. Thorndike (1898): Katzen versuchen aus Box zu entkommen
    o „impulsive Handlung“ öffnet die Tür -> prägt sich durch Freude ein
    o Lernen als Reiz-Reaktions-Verbindung (S-R-Verbindung)
    o Gesetz des Effekts: folgt auf Reaktion befriedigende Konsequenz, erhöht sich Auftretenswahrscheinlichkeit der Reaktion
43
Q

Experimentelle Verhaltensanalyse

A
  • Um Verhalten experimentell zu untersuchen entwickelte B.F. Skinner Methoden zum operanten Konditionieren (auch: instrumentelles Konditionieren)
    o Manipulation der Konsequenzen des Verhaltens, um Folgeverhalten abzuschätzen
    o Operant: jedes Verhalten, dass von Organismus gezeigt wird und das beschrieben werden kann
     Wörtlich: Beeinflussung der Umwelt (Ausführen von Operationen an ihr)
    o Operante Reaktionen werden nicht durch bestimmte Reize ausgelöst
     Auftretenswahrscheinlichkeit wird durch Manipulation der Effekte auf Umwelt erhöht/gesenkt
    o Skinnerbox: Wenn Ratte adäquates Verhalten zeigt, gibt Vorrichtung bei Hebeldruck Futterpille aus
44
Q

Kontingenzen bei der Verstärkung

A

Zuverlässige Beziehung zwischen Reaktion und dadurch hervorgerufenen Änderungen in der Umwelt

45
Q

Verstärker

A

jeder Stimulus, der die Wahrscheinlichkeit des gezeigten Verhaltens im Laufe der Zeit verändert

46
Q

Positive Verstärkung

A

auf Verhalten folgt angenehmer Reiz

47
Q

Negative Verstärkung

A

auf Verhalten folgt Entfernung eines aversiven Reizes

  • > Fluchtkonditionierung
  • > Vermeidungskonditionierung
48
Q

Fluchtkonditionierung

A

Tiere lernen, dass Reaktion ermöglicht, aversiven Reiz zu entkommen (z.B. Aufspannen von Regenschirm, um nicht nass zu werden)

49
Q

Vermeidungskonditionierung

A

Tiere lernen, dass Reaktion ermöglicht, aversiven Reiz zu verhindern (z.B. Anschnallen, um nerviges Geräusch nicht zu hören)

50
Q

Wann tritt die operante Löschung ein?

A

Wenn Verstärkung ausbleibt

51
Q

Bestrafungsreiz

A

Stimulus, der Wahrscheinlichkeit des Verhaltens senkt

52
Q

Bestrafung 1. Art

A

= positive Bestrafung

auf Verhalten folgt aversiver Reiz

53
Q

Bestrafung 2. Art

A

= negative Bestrafung

auf Verhalten erfolgt Entfernung eines angenehmen Reizes

54
Q

Diskriminative Hinweisreize

A

Organismen lernen, dass Verhalten in Anwesenheit bestimmter Reize, nicht aber in Anwesenheit anderer, mit großer Wahrscheinlichkeit Effekt zeigt

Definition Vorlesung: bestimmte Reize, die einer spezifischen Reaktion vorausgehen, legen Kontext des Verhaltens fest

55
Q

Dreifachkontingenz

A

Folge von diskriminativem Reiz, Verhalten und Konsequenz (Skinner)

56
Q

Generalisierung (operantes Konditionieren)

A

Organismen generalisieren Reaktionen auf andere Reize, die diskriminativem Stimulus ähnlich sind

57
Q

Sekundärgewinn

A

Junge lernt, das Wutanfall ihm mehr Aufmerksamkeit bringt

-> Unwissentliche Verstärkung: Ursache ernsthafter Verhaltensprobleme bei Kindern

58
Q

Gerald Patteron’s coercion model

A

Modell der Nötigung für antisoziales Verhalten

o Einwirkung auf Verhalten von Kindern durch Bestrafung = meist ineffektiv

59
Q

Gershoff & Bitensky, 2007: physische Bestrafung = negative Folgen beim Kind

A
  • Untersuchung des Zusammenhangs zwischen Ausmaß der Bestrafung mit 15 Monaten und Verhaltensproblemen mit 36 Monaten und in erster Klasse
  • Für „einfache“ wie „schwierige“ Kinder korrespondierte Ausmaß aggressiven Verhaltens mit 36 Monaten und erster Klasse mit Geschlagenwerden in jungem Alter

-> Verstärkung von positivem Verhalten auf lange Sicht Bestrafen für unerwünschtes Verhalten überlegen

60
Q

Primäre Verstärker

A

biologisch determiniert, z.B. Nahrung, Wasser

61
Q

Konditionierte Verstärker

A

auch: sekundäre Verstärker
- Assoziation von zuvor neutralen Stimuli mit primären Verstärkern, z.B. Geld, Noten, Lächeln, Pokale, Statussymbole
- Großer Teil menschlichen Verhaltens weniger durch primäre, sondern durch konditionierte Verstärker bestimmt

62
Q

Verstärker bei Schimpansen: Cowles, 1937

A

Schimpansen lösen Probleme durch primären Verstärker „Rosinen“
o Dann Rosinen zusammen mit Tokens (Chips), später nur Tokens -> arbeiteten weiter, weil sie Chips in Rosinen umtauschen konnten

63
Q

Was ist der Vorteil von konditionierten Verstärkern?

A
  • Konditionierte Verstärker wirksamer und leichter in der Handhabung als primäre
    1. Bessere Verfügbarkeit
    2. Schnellere Gabe
    3. Transportabel
    4. Kommen schneller zum Tragen, weil Wirkung nur von Wahrnehmung abhängt, Verstärker bekommen zu haben (und nicht von biologischen Prozessen wie bei primären Verstärkern)
64
Q

Tokensysteme in Psychatrie und Entzugskliniken

A

o Tokens werden bei erwünschtem Verhalten gegeben

o Können später in Belohnungen und Privilegien umgetauscht werden

65
Q

Theorie des Reaktionsentzug (response deprivation theory)

A

Verhaltensweisen werden dann bevorzugt und verstärkend, wenn Organismus daran gehindert wird, sie auszuüben (z.B. Videospiel als Belohnung)

-> Jede Aktivität kann zum Verstärker werden, allerdings nur unter Deprivation

66
Q

Entdeckung von Verstärkerplänen

A

B.F. Skinner: in Extinktionsphase reagierten Ratten mit partieller Verstärkung länger und stärker als Ratten, die für jedes Hebeldrücken belohnt wurden

67
Q

Quotenplan

A

auch: ratio schedule

Verstärkung nach einer bestimmten Anzahl von Reaktionen

68
Q

Intervallplan

A

Verstärkung nach bestimmtem Zeitintervall auf erste Reaktion hin

69
Q

Effekt partieller Verstärkung

A

Reaktionen, die unter partieller Verstärkung erworben wurden, sind löschungsresistenter als Reaktionen, die unter kontinuierlichen Verstärkerplänen erworben wurden

70
Q

Eigenschaften von Quoten- und Intervallplänen

A

Muster kann in beiden Fällen konstant und somit fixiert oder unregelmäßig und somit variabel sein

71
Q

Fixierte Quotenpläne (FR)

A
  • Verstärkung erfolgt, nachdem Organismus festgelegte Zahl von Reaktionen zeigte
    o FR-1-Plan: auf jede Reaktion folgt Verstärkung (-> kontinuierliche Verstärkung)
    o FR-25-Plan: auf jede 25. Reaktion folgt Verstärkung
  • Produziert hohe Auftretenswahrscheinlichkeiten, da unmittelbare Korrelation zwischen Reaktion und Verstärker
  • Auf jeden Verstärker folgt eine Pause
    o Je größer Quotient (z.B. FR-25 vs. FR 10), desto längere Pause
  • Beispiel: Bezahlung von Vertretern (nach bestimmter Anzahl an Abschlüssen)
72
Q

Variable Quotenpläne (VR)

A
  • Mittlere Anzahl von Reaktionen zwischen den Verstärkern im Vorhinein festgelegt
    o VR-10-Plan: im Mittelwert folgt auf jede 10. Reaktion eine Verstärkung
     Also manchmal auf erste Reaktion, manchmal auch auf 20. Reaktion
  • Produzieren höchste Reaktionsrate und größten Löschungswiderstand, insbesondere wenn VR-Wert groß ist
  • Beispiel: Glücksspiel
73
Q

Fixierte Intervallpläne (FI)

A
  • Verstärkung erfolgt auf erste Reaktion nach einem bestimmten Zeitintervall
    o FI-10-Plan: Verstärkung erfolgt alle 10 Sekunden
  • Reaktionsraten zeigen Bogenmuster: nach Verstärkung wenig Reaktion, wenn Zeit Belohnung näher rückt, nimmt Reaktionsrate zu
  • Beispiel: Pizza im Ofen -> erst wenig nachsehen, gegen Ende häufig nachsehen, ob fertig
74
Q

Variable Intervallpläne (VI)

A
  • Mittleres Zeitintervall wird festgelegt
    o VI-20-Plan: im Mittelwert wird ein Verstärker pro 20 Sekunden gegeben
  • Produziert mäßige, aber sehr stabile Verhaltensrate
  • Löschung erfolgt allmählich und langsamer als unter FI-Plan
  • Beispiel: Probeklausuren in unregelmäßigen Abständen
75
Q

Shaping durch schrittweise Annäherung

A
  • alle Reaktionen werden verstärkt, die sich der gewünschten Reaktion schrittweise annähern und schließlich mit ihr übereinstimmen -> differenzielle Verstärkung
  • Ziel: Verhalten antrainieren, das nicht von sich aus gezeigt werden würde:
    1. Verstärker auswählen
    2. Verstärkerplan auswählen
    3. Shaping
76
Q

Shaping beim Stabhochspringer

A

Stabhochspringer hält Arme vor Absprung nicht hoch genug (von 2,25 auf 2,54)
o Installierte Lichtschranke: wurde unterbrochen, wenn gewünschte Handhöhe und emittierte Signalton -> konditionierter positiver Verstärker
o Anfang: Lichtschranke auf 2,30m eingestellt, bei 90% Erfolg –> 2,35m usw. bis 2,54m

77
Q

Keller und Marion Breland

A

trainierten mithilfe der Technik des operanten Konditionierens Tausende Tiere unterschiedlicher Spezies auf beachtliche Bandbreite an Verhalten

78
Q

Instinktverschiebung

A

Gelerntes Verhalten verschiebt sich mit der Zeit in Richtung instinktives Verhalten

  • Nicht alle Aspekte des Lernens befinden sich unter Kontrolle von Verstärkern -> Instinkt steht über Konditionierung
  • Konditionierung besonders effektiv, wenn Zielverhalten biologisch relevant
79
Q

Kognition

A

jede mentale Aktivität, die zur Repräsentation und Verarbeitung von Wissen eingesetzt wird, z.B. Denken, Erinnern, Wahrnehmen und Verwendung von Sprache

80
Q

Komparative Kognition

A

Vergleichen von Fähigkeiten über verschiedene Spezies hinweg

o Auch: tierische Kognition -> wegen Fokussierung auf Tierarten

81
Q

Kognitive Landkarten: - Edward C. Tolman (1886-1959)

A

o Bei Blockierung des ursprünglichen Pfades nimmt Ratte mit Vorerfahrung im Labyrinth den kürzesten Umweg um das Hindernis, obwohl diese spezifische Reaktion nie zuvor verstärkt wurde
o Ratten haben vermutlich kognitive Landkarte und explorieren nicht durch Versuch und Irrtum
o Konditionieren umfasst mehr als Aufbau von Assoziationen zwischen Klassen von Reizen oder zwischen Reaktionen und Verstärkern
 Beinhaltet Lernen und Repräsentieren anderer Aspekte des Gesamtkontextes von Verhalten
o Erstaunliche Fähigkeit des räumlichen Gedächtnisses bei vielen Tieren

82
Q

Funktionen räumlicher Landkarten

A
  • Wiedererkennen von Merkmalen in Umgebung
  • Finden von wichtigen Zielobjekten in Umgebung
  • Planung von Weg durch Umgebung
83
Q

Konzeptuelles Verhalten

A

Urteile zwischen „identisch“ und „unterschiedlich“

84
Q

Konzeptuelles Verhalten bei Tauben: Wright et al., 2010

A

o Tauben betrachten zwei farbige Kreise, die 5s lang angezeigt werden
o Nach kurzer Unterbrechung für Abspeichern -> zweites Feld mit veränderter Farbe
o Tauben mussten für Belohnung auf Kreis mit veränderter Farbe picken
o Zeigten Pickverhalten auch bei Farbkombinationen, auf die sie nicht trainiert wurden
o Tauben lernten also, gleich von unterschiedlich zu unterscheiden

85
Q

Beobachtungslernen

A
  • Mensch lernt auch durch mittelbare Verstärkung und Bestrafung, da er sich erinnern und schlussfolgern kann
  • Beobachtungslernen: Lernen durch Beobachten des Verhaltens einer Person, das verstärkt oder bestraft wurde
  • Erwerb großer, integrierter Verhaltensmuster ohne langwierigen Versuch-und-Irrtum-Prozess durchlaufen zu müssen
  • Beobachtungslernen nicht spezifisch für Menschen, z.B. auch Raben, Lemuren, Kaulquappen
86
Q

Albert Bandura: Beobachtungslernen

A

Kinder beobachten Erwachsene, die Clownpuppe schlagen

o Zeigen später größere Häufigkeit dieses Verhaltens als Kinder aus Kontrollgruppe

87
Q

4 Prozesse, von denen es abhängt, ob das bei einem Modell beobachtete Verhalten einflussreich ist

A

Aufmerksamkeit
Behalten
Reproduktion
Motivation

88
Q

Fernsehkonsum und Gewalt: Huesmann et. al., 1977-2003

A

o 1977: 2 Jahre Messung des Fernsehkonsums von 577 Kindern der 1. und 3. Klasse
 Besonders Aufzeichnung von gewalttätigen Inhalten
o 15 Jahre später: Befragung von 329 der inzwischen 20-22 Jährigen
o Personen mit höchstem Gewaltanteil am Fernsehkonsum, zeigten auch später aggressivstes Verhalten
o Schwacher Zusammenhang zwischen kindlichem Aggressionsverhalten und TV-Gewaltkonsum -> daher Kausalrelation bewiesen

89
Q

3 Arten, wie Fernsehgewalt sich negativ auf Betrachter auswirkt

A

o Durch Beobachtungslernen Zuwachs an aggressivem Verhalten
o Überschätzung von Auftreten von Gewalt im Alltag -> übermäßige Ängste
o Desensibilisierung

90
Q

Erfahrung und Reifung

A
  • Erfahrung vs. Reifung (physische Reifungs-
    prozesse, z.B. Stimmhöhe), Entwicklungen des
    Gehirns im Zuge von Alterungsprozessen
    (z.B. Piagets kognitive Entwicklungsstufen),
    Erkrankungen oder Gehirnschädigungen
  • Manchmal Lernen als Kombination aus
    Erfahrung und reifungsbedingter Bereitschaft
    (z.B. Laufen Lernen)
91
Q

Zwei grundlegende Formen des Lernens

A

Habituation und Sensibilisierung

92
Q

Watson und Skinner

A

John Watson (1878 – 1958):

  • Begründer des Behaviorismus
  • Methode der Introspektion kein akzeptables Mittel zur Untersuchung von Verhalten, da subjektiv
  • Beobachtbares Verhalten als Untersuchungsmaß: S - > ? -> R

B.F. Skinner (1904 – 1990):

  • Weiterentwicklung des Behaviorismus
  • > radikaler Behaviorismus: S -> -> R
  • Geistige Ereignisse (z.B. Denken, Vorstellungen) als Beispiele von Verhalten
  • Aufdecken von universellen Regularitäten im Lernen, die in Vergleichbaren Situationen bei allen tierischen Spezies vorkommen (-> Tierversuche)
93
Q

Ablauf der klassischen Konditionierung

A
  1. UCS (Reflex) -> UCR, NS-> keine Reaktion
  2. NS – UCS -> UCR
  3. CS -> CR
94
Q

Mechanismen der klassischen Konditionierung

A
  • Zeitliche Kontiguität: enge zeitliche Beziehung
  • Kontingenz: zuverlässige Vorhersage zwischen CS (Ton) und UCS (Schock)
  • Informationsgehalt: CS muss neue Informationen haben (z.B. Blockierung von Lernen Ton-Schock von Lernen Licht-Schock bei Hintereinanderschaltung von Licht-Ton-Schock)
95
Q

Experimentelle Untersuchung des Verhaltens durch „operante Konditionierung“

A

≈ instrumentelle Konditionierung; Manipulation der Konsequenzen des Verhaltens, um den Effekt der Konsequenzen auf das Folgeverhalten abzuschätzen

Skinner: Entwicklung eines Forschungsprogramms zur Untersuchung des Einflusses von Umweltbedingungen auf die Auftretenswahrscheinlichkeit von Reaktionen durch die systematischen Variation der Reizbedingungen
- Bsp.
Wo muss die Radarfalle stehen?
Wie hoch muss die Strafe sein?
Wie deutlich muss das „Blitzen“ sein?
96
Q

Klassisches vs. operantes Konditionieren

A

Passives vs. aktives Lernen

97
Q

Latentes Lernen

A

Das (behauptete) latente Lernen ist von entscheidender Bedeutung für den Kognitivismus. Latentes Lernen bedeutet, dass bestimmte Inhalte (Verhaltensweisen oder Pläne für Verhaltensweisen), ohne dass ein Verhalten verstärkt wurde, „im Kopf“ gespeichert werden. Erkennen könne man latentes Lernen daran, dass ein zuvor nicht trainiertes Verhalten auf einmal spontan gezeigt werde. Dies widerspricht angeblich dem behavioristischen Grundsatz, dass Lernen nur dann stattfindet, wenn ein offenes Verhalten verstärkt wird. Latentes Lernen ist beispielsweise relevant für die Theorie des Modelllernens nach Albert Bandura (1986). Bandura geht davon aus, dass das beobachtete Verhalten einer anderen Person zunächst nur gespeichert wird. Der Abruf dieses Verhaltens erfolgt dann, wenn das imitative Verhalten des Beobachters verstärkt wird. Verhaltensanalytiker gehen dagegen davon aus, dass Lernen eine Änderung im Verhalten ist (nicht eine Änderung in den „Verhaltensmöglichkeiten“). Latentes Lernen ist so gesehen nicht möglich.

98
Q

Tolman: Kognitive Landkarte ausführlich erklärt

A

Der häufig zitierte experimentelle Beleg für latentes Lernen ist ein Experiment von Edward Tolman (Tolman & Honzik, 1930a, 1930b). Tolman und Honzik ließen drei Gruppen von (nahrungsdeprivierten) Ratten einmal täglich ein vierzehnteiliges T-Labyrinth über zweiundzwanzig Tage hinweg durchlaufen. Die erste Gruppe fand vom ersten Tag an immer am Ende des Labyrinths eine Futterbelohnung. Die zweite Gruppe fand nie Futter am Ende des Labyrinths. Die dritte Gruppe fand an den ersten zehn Tagen kein Futter, aber ab dem elften und an allen darauffolgenden Tagen. Gemessen wurde die Zahl der Fehler, die die Ratte beim Durchlaufen des Labyrinths machte und die Zeit, die sie dazu benötigte. Sowohl die Zeit als auch die Fehlerzahl nahm in allen drei Gruppen von Anfang an ab, wobei die erste Gruppe (die immer Futter fand) ab etwa dem fünften Tag deutlichere Fortschritte machte als die anderen Gruppen. Der entscheidende Beleg für latentes Lernen soll nun aber sein, dass die dritte Gruppe vom elften auf den zwölften Tag deutlich weniger Fehler machte und weniger Zeit benötigte. Die Leistungen waren nun sogar besser als die der ersten Gruppe. Tolman vermutete, dass die Ratten schon die ganze Zeit über den Plan des Labyrinths (latent) gelernt hatten (ohne auch nur ein Krümelchen Futter dafür zu bekommen). Das Futter am Ende des Labyrinths motivierte die Ratten lediglich, das bereits Gelernte auch offen zu zeigen.

99
Q

Verschiedene Arten des Behaviorismus

A

Klassischer Behaviorismus: S -> ? -> R (Black Box kann nicht untersucht werden)

Radikaler Behaviorismus: S -> -> R (Inhalt Black Box ist für die Erklärung des Verhaltens nicht notwendig)

Kognitiver Behaviorismus: S -> O -> R (Organismusvariable als Inhalt von Black Box wichtig für die Erklärung des Verhaltens)