VL 3: Operante Konditionierung 1 Flashcards

1
Q

Welche Frage beantwortet Thorndike (1898, 1911)?

A

Wie lassen sich nicht-reflexartige Verhaltensweisen durch rfahrung modifizieren?

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Was besagt Thorndikes Gessetz der Effekte?

A

Wenn Reizreaktion in bestimmter Situation unmittelbar befriedigende Konsequenzen -> erhöhte Auftretenswahrscheinlichkeit wenn Organismus wieder auf gleiche Reizsituation trifft
Kurz: Lernen am Erfolg (Zum Erfolg führende Verhaltensweisen werden gestärkt)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Katzen im Problemkäfig

A

Thorndike (1898).
Katzen können sich durch ziehen am Seil befreien. Zunächst Versuch/Irrtum.
Wiederholte Versuche -> schneller u. häufiger befreit

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Versuch und Irrtum Thorndike Bsp.

A

Katzen im Problemkäfig: zunächst wahllose Bewegung; wenn erfolglos -> neue Bewegung

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

“Operante Konditionierung” laut Skinner

A

Operantes Verhalten wird durch die Konsequenzen gesteuert, nicht durch Reiz

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Instrumentelles Lernen

A

Verhalten als Mittel um Konsequenz auszulösen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Was ist operantes Konditionieren?

A

Lernen anhand bzw. über die Konsequenzen von Verhalten:
Verhalten mit positiven Konsequenzen gestärkt
Verhalten mit negativen Konsequenzen unterdrückt/geschwächt

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Was bedeutet es, wenn Verhalten “gestärkt” wird?

A

Tritt häufiger/schneller auf

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Muss der Auslöser für Verhalten bei OK bekannt sein?

A

Nein.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Ist der Auslöser für Verhalten bei KK bekannt?

A

Ja

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Muss das Verhalten bei der OK ausgeführt werden?

A

Ja

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Was ist der Verstärker?

A

Jedes Ereignis, das dem Verhalten folgt und seine Stärke erhöht bzw. aufrecht erhält

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Belohnungstraining vs Bestrafungstraining

A

Formen der OK.
Belohnungstraining: Anwendung eines Verstärkers (positive Verstärkung) -> Verhaltensstärke steigt
Bestrafungstraining: Anwendung eines Strafreizes (positive Bestrafung) -> Verhaltensstärke nimmt ab

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Was ist der Strafreiz?

A

Aversiver Reiz vermindert Stärke des Verhaltens

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Negative Verstärkung vs Negative Bestrafung

A

Negative Verstärkung: Wegnahme von Strafreiz -> erhöhung Verhaltensstärke
Negative Bestrafung: Wegnahme des Verstärkers -> Abnahme Verhaltensstärke

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Betrafung Typ 1/2

A

Typ 1: positive Bestrafung
Typ 2: negative Bestrafung

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Beispiel positive Verstärkung

A

Helfen -> Lob

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Beispiel Bestrafung 1

A

Frechheit -> Schläge

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Beispiel negative Verstärkung

A

Kopfschmerzen -> Tablette nehmen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Beispiel Bestrafung 2

A

Frechheit -> kein Fernsehen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Freies operantes Verfahren von Skinner - Ziel?

A

Entdecken allgemeiner Lernprinzipien

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Skinner Box Umgebung

A

Reizarmer Käfig
ermöglicht je nach Versuchsziel verschiedene Verhaltensweisen (ziehen an Schnur, picken an Platte, Hebel drücken)
Reize (Futter, Wasser, Schocks, akustische, Licht) möglich

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Phasen der OK

A
  1. Bestimmung der Basisrate
  2. Lern-/Akquisitionsphase
  3. Löschung (Extinktion) des Verhaltens
  4. Spontanerholung
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Was ist die Basisrate?

A

Wie oft tritt das zu konditionierende Verhalten auf?

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Q

Was geschieht in der Lern-/Akquisitionsphase?

A

verstärkung des Verhaltens

26
Q

Primärer Verstärker

A

Keine Lernerfahrung nötig. Zielt auf angeborene Bedürfnisse.
Bsp.: Nahrung

27
Q

Sekundärer Verstärker

A

Zielt auf nicht-lebensnotwendige Bedürfnisse. Gelernte/Konditionierte Verstärker. Bsp.: Lob

28
Q

Generalisierter Verstärker

A

Sekundärer Verstärker, der mit primärem verstärker verknüpft ist.
Bsp.: Geld

29
Q

Was, wenn (Normalfall) Ratte keinen Hebel drückt? (Basisrate null)

A

Shaping

30
Q

Was ist “Shaping”?

A

sukzessive Belohnung bei Annäherung an gewünschtes Verhalten (Verhaltensformung)

31
Q

Skinners Dreifach-Kontingenz

A

Situation - Verhalten - Verstärker
ABC: antecedents, behavior, consequences

In Anwesenheit von Stimulus A folgt auf das Verhalten B die Konsequenz C

32
Q

Diskriminativer Hinweisreiz (SD)

A

Verhalten nur in bestimmten Situationen belohnt -> auslösende Situation
SD als reliabler Prädiktor für primären Verstärker -> wird zu sekundärem Verstärker

33
Q

Dreifachkontingenz positive Verstärkung (mit Bsp.)

A
  • Diskriminativer Reiz: Getränkeautomat
  • Verhalten (Reaktion): Münze einwerfen
  • Konsequenz: Getränk erhalten

Reaktion in anwesenheit wirksamen Signals erzielt gewünschte angenehme Konsequenz -> Reaktionsrate steigt

34
Q

Dreifachkontingenz: negative Verstärkung (mit Bsp.)

A
  • Diskriminativer Reiz: Hitze
  • Verhalten (Reaktion): Fächern
  • Konsequenz: Hitze entkommen

aversive Situation wird durch operanter Reaktion entkommen -> steigende Rate des Fluchtverhaltens

35
Q

Dreifachkontingenz Positive Bestrafung (mit Bsp.)

A
  • Diskriminativer Reiz: Attraktive Streichholzschachtel
  • Verhalten (Reaktion): Spielen mit Streichhölzern
  • Konsequenz: Verbrennen/Schimpfen

Aversiver Reiz folgt auf Reaktion -> Unterdrückung/Eliminierung

36
Q

Dreifachkontingenz: negative Bestrafung (mit Bsp.)

A
  • diskriminativer Reiz: Rosenkohl
  • Verhalten (Reaktion): Essen verweigern
  • Konsequenz: Kein Nachtisch

Reaktion gefolgt durch Entzug eines angenehmen Reizes -> Unterdrückung/Eliminierung

37
Q

Aberglaube und OK? Bsp.

A

Hatte Glücksbringer dabei und gute Note erhalten (Konsequenz) -> Glücksbringer immer mitbringen (Verhalten/Reaktion)
SD: Klausur

38
Q

Funktion Verstärkerpläne

A

Legen fest, wann (Zeitintervall) und wie häufig verstärkt wird

39
Q

Kontinuierliche vs. Intermittierende Verstärkung

A

Continuous Reinforcement (CRF): Verstärkung immer wenn Verhalten auftritt.
Schnelleres Lernen, schlechtere Löschungsresistenz.
Im Alltag unrealistisch.

Intermittierende: nicht immer belohnt

40
Q

Humphreys Paradox (mit Erklärung)

A

Schnellere Löschung bei CRF als bei partieller verstärkung
Erklärung: Diskriminationshypothese

41
Q

Diskriminationshypothese (Mit Bsp.)

A

Erkenne ich den Unterschied in der Situation (kann nicht entscheiden ob ich im nächsten durchgang belohnt werde oder nicht)
Getränkeautomat -> man geht von Belohnung aus
vs
Glücksspiel -> man rechnet auch mit “strafe”

42
Q

Möglichkeiten der Intermittierenden Verstärkung

A

Proportional/Intervall; Fest/Variabel
-> 4 einfache Verstärkerpäne

43
Q

Verstärkerplan: Fest-Proportional

A

Fixed Ratio (FR)/fester Quotenplan
- jedes n-te Auftreten des Verhaltens verstärkt
- langsameres Lernen bei größeren Abständen

44
Q

Verstärkerplan: Vario-Proportional

A

Variable Ratio (VR)/variabler Quotenplan
- durchschnittlich jedes n-te AAuftreten wird verstärkt
(im Alltag häufig)
- löschungsresistenter nach Humphrey Paradox

45
Q

Verstärkerplan: Fest-Intervall

A

Fixed-Intervall (FI)
- erstes Auftreten des Verhaltens nach Ablauf eines bestimten Intervalls wird verstärkt

46
Q

Verstärkerplan: Vario-Intervall

A

Variable Interval (VI)
- durchschnittlicher Intervallwert wird festgelegt
- Zeitintervall variiert unvorhersehbar (Intervalle immer erst nach Auftreten des Verhaltens)
- löschungsresistenter nach Humphrey Paradox

47
Q

Verstärkerpläne: Praktische Konsequenzen

A

Verhaltenstherapie: am Anfang kontinuierlich verstärken (schneller Erwerb), dann seltener und intermittierend verstärken (Löschungsresistenz steigern)

48
Q

Weitere Einflussfaktoren beim Belohnungstraining

A
  • Eigenschaften des Verstärkers (Qualität, zeitliche Verzögerung, Menge)
  • Eigenschaften des Organismus (Motivationaler Zustand)
49
Q

Biologische Einschränkung bei OK - Breland & Breland (1961)

A

Schweine verscharren nach länerer Erfahrung Holzmünzen, statt sie in einen Behälter zu bringen
-> Instinktneigung

-> Verhalten nicht nur Verstärkungsabhängig; Vererbung auh wichtig

50
Q

Kann Verstärkung alles Verhalten erklären?

A

Nein (siehe Instinktneigung). Aber wichtiges Lernprinzip.

51
Q

Instinktneigung

A

Nicht verstärkte Verhaltensweisen (die natürlicherweise mit dem Verstärker verknüpft sind) nehmen zu (führen nicht zu Verstärkung)

52
Q

Wie kann Belohnungstraining angewendet werden?

A

Verhaltenstherapie, Erziehung, Selbstbelohnung, Neurofeedback etc.

53
Q

Belohnungstraining in der Verhaltenstherapie

A

Erwünschtes Verhalten aufbauen/stärken; unerwünschtes Verhaten reduzieren/beseitigen

54
Q

Was ist wichtig bei der Verhaltenstherapie?

A

Kontingenzvertrag; erreichbare Ziele; Selbstkontrolle; intermittierende Verstärkung

55
Q

ABAB-Design bei der Verhaltenstherapie

A

A=Beobachtung Basisrate, B=Behandlung

56
Q

Erwünscht bei der Verhaltenstherapie

A

Arbeitsverhalten; selbstsicheres verhalten; nicht-depressive Äußerungen depressiver PatientInnen etc.

57
Q

Bsp. Neurofeedback - Belohnungstraining

A

Kognitive Performance (hie mentale Rotation) nach 5 Sitzungen Alpha-Band Training verbessert

58
Q

Transsituationalität

A

Was in einer Situation Verstärker ist, ist es auch in einer anderen Situation.
Von einigen Lernpsychologen gefordert.

59
Q

Premack Prinzip

A

David Premack (1959, 1965)
Kopplung von seltener (negativer) Aktivität mit häufiger (positiv empfundener) Aktivität
-> seltene Aktivität wird häufiger ausgeführt

Prinzip: häufiges Verhalten als Verstärker für seltenes Verhalten

60
Q

Gibt es laut Premack eine klare Grenze zwischen Verhalten/Verstärker?

A

Nein. Verhalten auch als Verstärker -> Premack Prinzip