Lernen Flashcards

1
Q

Was ist Lernen? Definition

Erkläre die Zusammenhänge zwischen Lernen, Gedächtnis und Wissen?

A

Zwei Definitionen: Fischer ist mit beiden Definitionen einverstanden, man kann sich eine aussuchen und muss sich sie merken.

  • Lernen ist AUFBAU und KORREKTUR von INDIVIDUELLEM Wissensbesitz (Klix, 1972)
    (Korrektur=heisst umlernen, neu lernen, und auch altes ungültiges vergessen. Vergessen ist auch ein Teil des Lernens, Individuell=es nützt nur mir etwas, ist individuenspezifisch, nicht artspezifisch wie Instinktregulation)
  • Lernen erzeugt eine RELATIV DAUERHAFTE VERÄNDERUNG im VERHALTENSPOTENZIAL als ERGEBNIS VON ERFAHRUNGEN (Anderson, 1995)
    (relativ dauerhaft= relativ dauerhaft im Gegensatz zu vorübergehend, z.B. vorübergehend anderes Verhalten bei Trunkenheit, VerhaltensPOTENZIAL= Potenzial, da nicht unbedingt bereits sichtbar z.B. ich lerne Chinesisch aber spreche es nie, als Ergebnis von Erfahrungen im Gegensatz zu aufgrund biologischer Abbauprozesse bei z.B. Altersdemenz oder biologischer Reifungsprozesse. z.B. Hirnreifung eines Säuglings, Tiefenwahrnehmung)
  • Die Begriffe LERNEN, GEDÄCHTNIS, WISSEN hängen eng zusammen->Wir lernen etwas (PROZESS), was dann unser Wissen (INHALT) darstellt, dieses Wissen ist in unserem Gedächtnis (STRUKTUR) aufbewahrt
  • > werden aber in Psycho von unterschiedlichen Forschungstraditionen beforscht (Lernforschung/Behaviorismus, Gedächtnisforschung, Wissenspsychologie/kognitive Wende)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Lernen versus Instinktregulation

A

Häufige Prüfungsfrage!

  • Lernen entstand beim Übergang vom Wasser- zum Landleben vor etwa 400 Mio Jahren, davor wurden Lebewesen nur durch Instinkte gesteuert, Lernen löste beim Übergang die Instinktregulation des Verhaltens ab!

Instinktregulation ist:

  • artspezifisch, nicht individuell
  • nicht reversibel, nicht verlernbar
  • angeboren, genetisch determiniert
  • gut geeignet für homogene und stabile -Umwelten
  • Wir haben noch Instinkte, z.B. Fluchtinstinkt, aber die meisten gingen verloren

Lernen ist:

  • Individuenspezifisch
  • reversibel, verlernbar
  • nicht angeboren, nicht genetisch determiniert
  • gut geeignet für heterogene und veränderliche Umwelten (als wir an Land kamen war Lernen ein Evolutionsvorteil! Es änderten sich Temp-, Licht-, Nahrungs-, Fortbewegungsverhältnisse)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q
Welche Taxonomie (Klassifikation) von Lernformen wird bei Fischer und im Myers verwendet?
Daraus resultierender Aufbau (Aufzählung)?
A
  • Lernen kann man nach verschiedenen Kriterien klassifizieren, z.B. danach, ob das Lernen bewusst oder unbewusst, verbal oder non-verbal passiert usw.
  • Wir klassifizieren nach KOMPLEXITÄT der Lernform, beginnend mit der am wenigsten komplexen bis zur höchsten, komplexesten:
    • Klassisches Konditionieren
    • Operantes Konditionieren
    • Versuch-Irrtum-Lernen
    • Lernen am Modell
    • Einsichtiges Lernen
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Placebo-Konditionierung

Klassisches Konditionieren

A
  • Placebo-Effekt: Wirkung von einem eigentlichen Scheinpräparat
  • Nocebo-Effekt: Negative Nebenwirkungen von echten Medikamenten nach Lesen von Beipackzetteln
  • Placebo-Konditionierung bei Ratten (und später beim Menschen): Bei Herztransplantierten Ratten Verabreichung von Immunsupressiven, Kontrollgruppe erhielt Immunsuppressivum zusammen mit Wasser->Immunsystem wurde runtergefahren, Versuchsgruppe erhielt Immunsuppressivum mit (Ratten lieben Süsses, positiver Reiz)->Immunantwort, dann bei Versuchsgruppe nur Süssstofflösung->Immunantwort!, Kontrollgruppe nur Wasser->keine Immunantwort
  • Placebo-Wirkung lässt aber nach! Nach einigen Tagen nimmt Immunantwort bei nur Süssstoff ab, ermöglicht wird aber, die Dosis zu reduzieren!
  • Beispiel beim Menschen: Asthmaspray nehmen um Anfall zu unterbrechen, aber: Asthmaspray sehen kann selbst Anfall auslösen, da Kopplung Anfall-Spray!
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Wer ist Iwan Petrowitsch Pawlow und was hat er beobachtet? (Klassisches Konditionieren)

A
  • 1849-1936
  • Physiologe, Arzt
  • Forschungsschwerpunkt: Verdauungsprozesse beim Hund
  • kein Psychologe! Nicht interessiert am Lernen!
  • Zufallsbeobachtung: Versuchstiere reagierten mit Speichelfluss auf Futter, aber auch schon dann, wenn sie gehört haben, wie er den Flur runterkam, Schritte lösen aber normalerweise keinen Speichelfluss aus, wieso also? Andere Reize haben die Funktion des Futters übernommen! Pawlow hat dann systematisch die Stimuli variiert und die Reaktion des Hundes gemessen
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Was ist das Prinzip des Klassischen Konditionierens?

A

Vor der Konditionierung:

  • Unkonditionierter Stimulus (US, Futter) löst unkoditionierte, angeborene, natürliche Reaktion aus (UR, Speichelfluss) ohne Lernen
  • Neutraler Stimulus (NS, Glocke) löst keinen UR (Speichelfluss) aus, vielleicht andere Reaktion, z.B. Orientierungsreaktion, Ohren aufstellen, aber nicht Speichelfluss

Während der Konditionierung, eigentlicher Lernprozess!:

  • NS und US werden gekoppelt, es kommt zu UR (Speichelfluss)
  • Kopplung wird mehrfach wiederholt

Nach der Konditionierung:

  • NS wird nun allein gezeigt
  • Aus dem NS wird ein konditionierter Reiz (CS) aus der UR wird eine konditionierte Reaktion (CR): Glocke führt nun allein zu Speichelfluss

Weiteres Beispiel Liebe:
US (leidenschaftlicher Kuss)->UR (sexuelle Erregung), NS (Zwiebelgeruch)&US->UR, CS->CR

  • Klassisches Konditionieren kann auch mit Bewusstsein der Person erfolgen (also extra), z.B. bei Therapiepatienten
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Reizsubstitution oder Substitutionslernen, respondentes Verhalten (Begriffe Klassisches Konditionieren)

A
  • Klassisches Konditionieren wird auch als REIZSUBSTITUTION oder SUBSTITUTIONSLERNEN bezeichnet, warum „Substitution“? Weil ein neutraler Reiz einen unkonditionierten Reiz ERSETZT
  • Das im klassischen Konditionieren erlernte Verhalten nennt man RESPONDENTES VERHALTEN, respondent im Sinne von antworten, der Organismus antwortet auf einen bestimmten Reiz. Der Organismus REAGIERT auf seine Umwelt.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Erwerb, Löschung, Spontanremission (Begriffe Klassisches Konditionieren)

A

Kommt an Prüfung!
Drei Phasen des klassischen Konditionierens:

  1. Erwerb/Aquisitionsphase (NS&US)
    Hier wird die Stärke der erlernten Reaktion immer stärker
  2. Löschung/Extinktionsphase (nur CS)
    Hier nimmt die Stärke der konditionierten Reaktion immer mehr ab bis Null

Pause!

  1. Spontanremission/Spontanerholung (nur CS)
    Das Gelernte „erholt“ sich, Stärke der Reaktion fängt wieder ca. in der Mitte an! Sinkt dann wieder gegen Null

Die Spontanerholung nach einer Pause funktioniert nur 1-2 Mal, nicht für immer

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Reizgeneralisierung & Reizdiskrimination

Begriffe Klassisches Konditionieren

A

REIZGENERALISIERUNG:

  • ist die ERWEITERUNG der Konditionierungsreaktion auf Reize, die dem ursprünglichen CS ÄHNLICH sind, aber selbst nie mit dem ursprünglichen US gepaart wurden
  • je ähnlicher der Reiz dem ursprünglichen CS ist, desto stärker ist die Konditionierunsreaktion
  • z.B. CS ist Ton, Töne haben eine Frequenz, man kann Konditionierung auf Töne anderer Frequenzen ausweiten, z.B. Ich mache mit einem Prüfer schlechte Erfahrungen, ich habe dann Angst vor allen Prüfern und Prüfungen->Angstreaktion generalisiert sich

REIZDISKRIMINATION:

  • führt dazu, dass Individuum lernt, NUR auf GANZ BESTIMMTEN Reiz mit einer Konditionierungsreaktion zu antworten
  • z.B. nur auf Töne einer ganz bestimmten Frequenz reagieren, z.B. ein Patient hat am Anfang von allem Angst beim Zahnarzt, kann dann aber diskriminativ lernen, beim Zahnarzt nur auf Bohrgeräusche sehr hoher Frequenz mit Angst zu reagieren, nicht bei solchen mit tiefer Frequenz
  • Reizgeneralisierung und Reizdiskrimination können beide auftreten! Sind unabhängig voneinander!
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Anwendungen von Klassischem Konditionieren Beispiele?

A
  • Aversionstherapie: Behandeln von z.B. Süchten, unerwünschte Verhaltensweisen werden mit unangenehmen Reizen gekoppelt, z.B. Gabe von Medikament das Erbrechen auslöst mit Alkohol, Ziel ist es Häufigkeit des Problemverhaltens zu reduzieren, nach ein paar Kopplungen löst Alkohol alleine Übelkeit aus und für zur Aversion, ABER es ist nicht zeitstabil, und nur rein symptomatische Behandlung, bei der Ursache nicht nachgegangen wird, wird heute nur als ultima ratio verwendet, wenn überhaupt
  • Personenunfälle: Der Führerstand (US) des Lokführers wird nach Erleben eines Suizides zum CS und löst CR aus (schlimme Bilder, Gefühle), solche Reiz-Reaktions-Kopplungen können sehr stabil sein&manchmal schwer rückgängig zu machen, hier reicht EINE Kopplung! Da sehr starke Gefühle im Spiel sind
  • Probealarme: regelmässige Probe-Alarme führen zu Kopplung Alarm&Probe (keine Gefahr), dies kann zu Reduktion von Aufmerksamkeit&Reaktionsgeschwindigkeit im Ernstfall führen, Probealarme müssen aber trotzdem gemacht werden, Lösung?
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Operantes Konditionieren Beispiel&Geschichte

A

Hörsaal-Beispiel: Wenn Professorin nach links läuft, sind Studierende still, wenn nach rechts, laut. Am Ende steht Professorin immer links.
Suchtentstehungs-Beispiel: Millner 1950er, intracranielle Selbststimulation bei Ratten, Ratte hat gelernt, sich mittels Taste selber Stromstösse ins Septum zu geben. Sie hat danach nur noch das gemacht, nicht mehr gegessen, getrunken etc. sondern ununterbrochen die Taste gedrückt. Ratte hat süchtiges Verhalten gezeigt. Mit dem Septum wurde das Suchtzentrum stimuliert. ATV=Area tegmentalis ventralis, Teil des Belohnungssystems

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Wer ist Burrhus Frederic Skinner und was hat er beobachtet? (Operantes Konditionieren)

A
  • 1904-1990
  • Psychologe
  • Entwickelte Skinner-box (Versuchsbox)
  • Beobachtung: Versuchstier wurde in Box mit Hebeln&Knöpfen gesteckt, drückt zufällig Knöpfe, zufällig gezeigte Verhaltensweisen, wenn Ratte zufällig Hebel drückt und es fällt Futter in den Käfig, lernt die Ratte diesen Hebel immer wieder zu drücken
  • > Versuchstier zeigt ZUFÄLLIGES Verhalten, das VERSTÄRKT/bekräftigt wird durch einen bestimmten POSITIVEN REIZ, das führt zum LERNEN, immer wieder dieses VERHALTEN zu zeigen
  • Futterpille kommt nach dem Hebeldruck, nicht zuvor, Häufigkeit der Hebeldrücke ist von NACHGEHENDEM Stimuli (Futter), nach links laufen im Hörsaal ist von nachgehendem leise sein der Studenten abhängig, also nicht Reiz->Reaktion (klassisches Konditionieren, Reflexe) sondern Reaktion->Konsequenz/Reiz (operantes Konditionieren) durch Umwelteinflüsse
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Operantes Verhalten, Instrumentelles Konditionieren (Begriffe Operantes Konditionieren)

A

Das im operanten Konditionieren erlernte Verhalten nennt man OPERANTES Verhalten, operant im Sinne von operieren, der Organismus OPERIERT ersteinmal (drückt Hebel) und dieses Verhalten wird erst danach belohnt, operantes Verhalten passiert ohne erkennbaren, angeborenen unbedingten Reiz (Herumlaufen im Hörsaal, zufälliges spontanes Drücken eines Hebes) im Gegensatz zum Speichelfluss, der angeboren und nicht zufällig ist

INSTRUMENTELLES KONDITIONIEREN als Synonym für operantes Konditionieren

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Was ist das Prinzip des Operanten Konditionierens?

A

Vor der Konditionierung:
- zufälliges Verhalten durch Organismus

Während Konditionierung:

  • dieses zufällige Verhalten wird dadurch verstärkt/in seiner Wahrscheinlichkeit erhöht, dass eine Verstärkung (reinforcement) erfolgt
  • Die Verstärkung ist ein Reiz (Futter), der nach mehrmaliger Darbietung die Kontrolle über eine Reaktion (Hebel drücken) erlangen kann

Nach der Konditionierung:
- Reiz hat Kontrolle über Reaktion (Hebel wird immer wieder gedrückt, Prof steht nur in linker Ecke)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Vier Phasen des operanten Konditionierens?

A
  1. Bestimmung der Basisrate:
    Natürliche Auftretenswahrscheinlichkeit eines Verhaltens: Wie oft wird das zu konditionierende Verhalten spontan gezeigt?
    (Wie oft steht Prof normalerweise in der linken/rechten Ecke?)
  2. Verstärkung des Verhaltens in der Trainingsphase (Lernphase):
    Gezielte Verstärkung des Verhaltens. Verhalten wird konsequent belohnt->Wahrscheinlichkeit des Verhaltens nimmt zu
  3. Löschung des Verhaltens (Löschungsphase):
    Das Verhalten wird nicht weiter belohnt->Wahrscheinlichkeit des Verhaltens wird bis auf Null reduziert

Pause!

  1. Spontanremission:
    Verhalten tritt nach Pause erneut auf
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Verstärkung und Bestrafung (Begriffe Operantes Konditionieren)

A

Kommt an Prüfung!

VERSTÄRKUNG: Reiz, der Wahrscheinlichkeit des Auftretens der Reaktion erhöht, Ziel: Ich will die Verhaltenswahrscheinlichkeit ERHÖHEN

POSITIV VERSTÄRKEND: Erhöht Verhaltenswahrscheinlichkeit durch GEBEN eines (angenehmen) Reizes (Leckerli nach Trick, Geld bei guter Note, Loben)

NEGATIV VERSTÄRKEND: Erhöht Verhaltenswahrscheinlichkeit durch reduzieren/WEGNAHME/vermeiden eines unangenehmen Reizes (Käfigboden steht unter Strom, Strom wird abgestellt wenn Ratte Hebel drückt, Handyverbot aufgehoben wenn Hausaufgaben gemacht, Tadel/Schmerz wird nicht erteilt)

BESTRAFUNG: Reiz, der Wahrscheinlichkeit des Auftretens einer Reaktion reduziert, Ziel: Ich will die Verhaltenswahrscheinlichkeit REDUZIEREN

POSITIVE BESTRAFUNG/Bestrafung 1. Art: Reduziert Verhaltenswahrscheinlichkeit durch GEBEN eines unangenehmen Reizes (Wenn Hund bellt Schimpfen, Schlagen)

NEGATIVE BESTRAFUNG/Bestrafung 2. Art: Reduziert Verhaltenswahrscheinlichkeit durch reduzieren/WEGNAHME eines angenehmen Reizes (Stubenarrest, Handyverbot)

  • Verstärkung wirkt nachhaltiger als Bestrafung, Bestrafung unterdrückt Verhalten nur, wenn Bestrafung nachlässt wird Verhalten wieder gezeigt, z.B. hyperaktives Kind soll stillsitzen, Bestrafung ist nicht effektiv, positives Verhalten belohnen ist effektiver
  • Verstärkung&Bestrafung können auch kombiniert werden
17
Q

Verstärkungspläne (Begriffe Operantes Konditionieren)

A

z.B. ich will dem Hund beibringen, dass er Pfötchen gibt

Verstärkung kann erfolgen:

KONTINUIERLICH=jede gewünschte Reaktion wird verstärkt

INTERMITTIEREND=Nur einige Reaktionen werden verstärkt, ich verstärke nur manchmal, bei diesem Plan entweder:

  • QUOTENPLAN: bestimmte ANZAHL von Reaktionen wird verstärkt
    • Konstant: z.B. genau jede 5. Reaktion wird verstärkt (hat steilste Lernkurve)
    • Variabel: z.B. im Durchschnitt wird 1/5 der Reaktionen verstärkt (zweitbeste Variante)

oder

  • INTERVALLPLAN: Nach einem bestimmten ZEITINTERVALL wird verstärkt
    • Konstant: z.B. die erste Reaktion, die nach Ablauf von 5min erfolgt, wird verstärkt (Lernkurve ist flacher, schnelle Reaktion wenn sich Zeit der Verstärkung nähert)
    • Variabel: z.B. eine Reaktion wird im Durchschnitt nach 5min verstärkt (schlechteste Variante)
      Intervallplan mach Sinn, wenn Subjekt das Verhalten sehr häufig macht, z.B. Tauben im Kreis drehen

Am sinnvollsten ist es, Hund am Anfang jedes Mal zu verstärken, dann fester Quotenplan, dann variabler Quotenplan. Warum? Wenn man immer verstärkt lernt Hund dass Verkopplung Pfote/Belohnung sehr stark ist, wenn Belohnung dann weg ist wird Verhalten schneller wieder gelöscht

18
Q

Shaping (Begriffe Operantes Konditionieren)

A
  • Shaping bezeichnet einen Vorgang in der operanten Konditionierung, dient dem Erlernen von komplexen Verhaltensweisen (Abfolge von bestimmten Verhaltensweisen, z.B. mehrere Tricks von Hund), Verhalten wird sukzessive immer näher an das Ziel herangeführt, in dem jeder Schritt der Abfolge/jede Annäherung verstärkt wird
  • Video von Tierdressur
19
Q

Unterschiede Klassisches Konditionieren und Operantes Konditionieren?

A

Klassisches Konditionieren:

  • RESPONDENTES Verhalten: Ereignisse werden nicht durch eigenes Verhalten beeinflusst! Sondern ERWARTUNG des US aufgrund des CS löst ANGEBORENE REAKTION aus
  • Lernen von regelhaften BEZIEHUNGEN ZWISCHEN REIZEN (CS->US)

Operantes/instrumentelles Konditionieren:

  • OPERANTES Verhalten: Ereignisse werden durch EIGENES VERHALTEN beeinflusst bzw. Konsequenzen werden bewirkt
  • Lernen der KONSEQUENZEN, die eigenes Verhalten unter bestimmten Stimulusbedingungen hat (S - R - C)
20
Q

Anwendungen von Operantem Konditionieren Beispiele?

A
  • Tokensysteme: USA, beruhen auf intermittierender Verstärkung, man erhält Tokens, Tokens können gegen eigentliche Verstärker eingetauscht werden, z.B. im Gefängnis oder beim Förderkurs für Lesen
  • Verstärkung sicherheitsgefährdenden Verhaltens durch organisationale Anreize: Fuelleagues bei Ryanair: Liste von wieviel Sprit man mitgenommen hat, der am wenigsten mitnimmt wird gelobt, Verstärkersystem, operante Konditionierung ist hier die Ausstellung in grün auf der Liste von denen die wenig mitnehmen, rot die viel mitnehmen->Bekräftigung von gefährlichem Verhalten, Bestrafen von sicherem Verhalten

Nachteil der Tokensysteme: Prosoziales Verhalten belohnen mit Chips im Gefängnis? In der realen Welt bekommen sie keine Chips mehr->Rückfall? Nur noch prosoziales Verhalten bei extrinsischem Anreiz?

21
Q

Versuch-Irrtum-Lernen Beispiele

A
  • Toilettenbenutzung in Japan: Versuch-Irrtum-Lernen nutzen wir in unserem Alltag immer, Fischer in Japan mit Toilette, fremde Situation, Vermutung (Hypothese), welchen Knopf für spülen drücken, Hypothese getestet->erst falscher Knopf, dann erst richtiger
  • Neue Windows Office Version: Man hat Vermutung aufgrund früherer Versionen (Hypothese), man probiert es mal aus, man hat ein Ziel
  • Quengelzone im Supermarkt: Kind möchte im Supermarkt Süssigkeiten (Ziel), es probiert verschiedene Verhaltensweisen aus: bitten, quengeln, leises weinen, lautes weinen, Mutter gibt nach, bei den nächsten Besuchen werden schrittweise bitten, quengeln, leises weinen nicht mehr gezeigt, da das Kind durch ausprobieren verschiedener Verhaltensweisen herausgefunden hat, wie es Ziel erreicht (Hypothese), es fängt gleich an laut zu weinen
22
Q

Wer ist Edward Lee Thorndike und was hat er beobachtet? (Versuch-Irrtum-Lernen)

A
  • 1874-1949
  • Psychologe, Mitbegründer des Behaviorismus
  • Beobachtung: hungrige Katzen in Käfig gesperrt, ausserhalb liegt Futter, Katze will raus, probiert alles aus: miauen, rumlaufen, kratzen, etwas führt zum Erfolg: Hebel drücken! Das nächste Mal geht sie zielgerichteter zum Hebel, das übernächste Mal drückt sie sofort den Hebel
  • Unterschiede zum operanten Konditionieren: VORERFAHRUNG ist vorhanden, dies führt zu HYPOTHESE, ZIEL ist vorhanden->ZIELGERICHTETES VERHALTEN
23
Q

Law of effect (Gesetz der Wirkung, Versuch-Irrtum-Lernen)

A
  • Lernen tritt als Ergebnis einer Verhaltenskonsequenz auf!
  • führt Verhaltensweise zu positiver Konsequenz (wirkt Verhalten), wird sie häufiger wiederholt
  • führt Verhaltensweise zu negativer Konsequenz, wird dies als unbefriedigend erlebt (Ziel nicht erreicht) und seltener oder nie mehr wiederholt
  • In Thorndikes Katzen-Versuch war es für Katze positive Konsequenz, aus dem Käfig zu kommen
24
Q

Merkmale des Versuch-Irrtum-Lernens / Unterschiede zum operanten Konditionieren

A

Ist Versuch-Irrtum-Lernen nicht dasselbe wie operantes Konditionieren? Nein, beim Versuch-Irrtum hat das Individuum eine VORERFAHRUNG welche Verhaltensweisen zu welchen Ergebnissen führen. Ich habe ein ZIEL. Ich habe aus meinen Vorerfahrungen ein HYPOTHESE, und die überpüfe ich mit meinem Verhalten.

Merkmale:

  • Situation ist nicht völlig unbekannt (Vorerfahrung)
  • Mögliche relevante Zusammenhänge sind durch Vorerfahrung bereits definierter, es wird also nicht einfach zufällig etwas gemacht, sondern die Auswahlalternativen für eine erfolgreiche Verhaltensweise sind bereits eingeschränkt
  • Hypothese ist vorhanden, Anwendung wirkt als Prüfschritt (Hypothese wird geprüft), wenn es funktioniert super, wenn nicht werden Auswahlalternativen noch weiter eingeschränkt
  • > Versuch-Irrtum-Lernen ist also eine Form von ELEMENTARER HYPOTHESENPRÜFUNG
  • Man hat Ziel
25
Q

Anwendungen Versuch-Irrtum-Lernen Beispiele

A

Simulatoren in Ausbildung&Training:
- werden in vielen Berufen verwendet (Luftfahrt, Lokführer, Ärzte) bei schwierigen oder seltenen Situationen

Vorteile:

  • Versuch-Irrtum-Lernen ist möglich! Man kann auch mal etwas falsch machen und daraus lernen, was man im realen Leben nicht machen sollte (kein realer Schaden)
  • mentales Modell und ein Verständnis vom Anwendungsgegenstand werden entwickelt
  • exploratives Verhalten möglich
  • Man kann aus Misserfolgen sehr viel lernen, Debriefing ist wichtig
26
Q

Lernen am Modell Beispiele

A

Modelllernen, soziales Lernen

  • Tauben: Taube dreht sich um sich selbst, wird mit Futter bekräftigt, nach ein paar Wiederholungen der Bekräftigung dreht sie sich ständig im Kreis (operantes Konditionieren), andere Tauben beobachten dies und beginnen sich um sich selbst zu drehen, obwohl sie nicht bekräftigt wurden
  • Orang-Utan testet Fidgetspinner
  • Neugeborene: Wenige Stunden alte Säuglinge ahmen bereits Gesten eines Erwachsenen nach
27
Q

Wer war Albert Bandura und was hat er beobachtet? (Lernen am Modell)

A
  • 1925 geb.
  • Psychologe, Lernpsychologie, Erwerb aggressiven Verhaltens bei Kindern über Modelllernen
  • Rolle des sozialen Lernens von aggressivem Verhalten neben Trieb&Frustration als dessen Auslöser
  • Lernen am Modell, Selbstwirksamkeitserwartung, sozialkognitive Lerntheorie
  • Beobachtung: Fragestellung: lernen Kinder aggressives Verhalten ohne selbst gemacht zu haben und ohne Bekräftigung und Verstärkung? Nur durch Beobachten des Verhaltens anderer&dessen Konsequenzen?
  • > Bobo-Doll-Studie!
28
Q

Bobo doll Studie (Lernen am Modell)

A

Kommt an Prüfung!

Rocky-Studie, 1963, führte zur Theorie des Lernens am Modell (Lernform, wo Individuum nur dadurch lernt, dass es Verhalten bei einer anderen Person beobachtet, ohne selbst zu tun oder Verstärkung zu erhalten)

  • 4-5 Jährige Kinder schauen Film: aufblasbare Puppe wird von einem Erwachsenen (Rocky) malträtiert und beschimpft (geboxt, mit Hammer geschlagen)
  • Drei Gruppen Kinder sehen unterschiedliche Enden
    1. Rocky wird gelobt&mit Süssigkeiten belohnt
    2. Rocky wird getadelt
    3. Keine Kommentierung

Warum keine 4. Gruppe, die keinen Film sieht? Er wollte Unterschiede zwischen belohnt/bestraft/keine Konsequenz beobachten, nicht wie weit solche Filme überhaupt zu aggressivem Verhalten führen (da müsste man keinen Film sehen, oder Film wo Bobo gut behandelt wird)

  • Kinder werden in Raum mit Puppe&anderen Spielgegenständen geführt, sie spielen mit Puppe und ahmen aggressives Verhalten nach, benutzen sogar Pistole
  • Ergebnisse: Gruppe 1, Bereitschaft zur Aggression am höchsten, Gruppe 2 am niedrigsten, Gruppe 3 ähnlich wie 1

Bandura fragte sich dann, wie er das Verhaltenspotential zur Aggressivität sichtbar machen kann, nicht nur das gezeigte Verhalten, dafür hat er eine Variation eingeführt mit zusätzlichem Anreiz (er gab den Kindern mehr Süssigkeiten pro gezeigte erinnerte sprich gelernte Verhaltensweise)
- Ergebnisse mit zusätzlichem Anreiz: Gruppe 1, 2, und 3 gelernte Verhaltensweisen alle ähnlich hoch, alle hoch (höher als bei Usrpungsexperiment)->Verhalten wird vielleicht nicht gezeigt, aber es wird GELERNT

  • Kinder haben Vorbild-Verhalten gleichermassen erlernt, aber je nach Folgen unterschiedlich reproduziert->Es besteht ein Unterschied zwischen Erwerb (Akquisition oder Kompetenz) und Ausführung (Performanz) des beobachteten Verhaltens!
  • Bedeutung für Medien, Videospiele? Ist Waffenaffinität grösser? Hemmschwelle geringer?
29
Q

Schritte des Modelllernens (Lernen am Modell)

A

Kommt an Prüfung!

ANEIGNUNGSPHASE:
1. Modellierendes Ereignis
(z.B. Aggressives/prosoziales Verhalten)
2. Aufmerksamkeitsprozess
(Beobachten, Wahrnehmen)
3. Gedächtnisprozess
(Speicherung im Gedächtnis)

AUSFÜHRUNGSPHASE:
4. Motorischer Reproduktionsprozess
(z.B. Aggressives/prosoziales Verhalten zeigen)
5. Verstärkungs-&Motivationsprozess
(Wenn ich Anreiz gebe, dass gespeicherte Verhalten zu reproduzieren, z.B. Süssigkeiten für Nachahmen von aggressiven/prosozialen Verhaltensweisen)
6. Nachbildungsleistung
(Verhalten bewusst nachahmen, mit Ziel/Anreiz)

30
Q

Was ist Lernen durch mentale Vorstellung? (Lernen am Modell)

A
  • Eine spezielle Form des Beobachtungslernens bzw. Lernen durch mentale Vorstellung
  • Verhalten wird gelernt, ohne dass es ausgeführt oder verstärkt wird (Ähnlichkeit zum Modelllernen, man beobachtet aber nicht in diesem Sinne, sondern stellt sich vor)
  • MENTALES TRAINING ist die PLANMÄSSIG WIEDERHOLTE VORSTELLUNG einer MOTORISCHEN FÄHIGKEIT
  • ist im Sport verbreitet
  • empirische Untersuchungen belegen Wirksamkeit mentaler Übung für Aufgaben mit hohem kognitiven Anteil (Labyrinth) sowie für ballistische Bewegungen (Dartpfeile werfen, Golf)
  • Grenzen des mentalen Trainings? 3 Versuchsgruppen Dartpfeile werfen: 1 physisch, 2 mental, 3 mental&physisch, Test vor und nach dem Training, Fischer war Gruppe 2 und war scheisse, auch im Nachhinein->Fazit: Wenn jemand die Bewegung nicht physisch ausführen kann, kann man die Bewegungsabfolge auch nicht mental trainieren, es wirkt nur, wenn man in bestimmter Bewegungsabfolge schon relativ gut ist, z.B. Spitzensportler, Fischer hat mental das falsche trainiert!
31
Q

Erklärung der Wirksamkeit des Lernens durch mentale Vorstellung?

A
  1. Kognitive Hypothese:
    Mentales Training übt die kognitiven Anteile eines Bewegungsmusters und unterstützt die mentale Repräsentation von Bewegungsfolgen (geht davon aus, das wir im Gedächtnis eine mentale Abbildung einer Bewegungsfolge haben)
  2. Ideomotorische oder psychoneuromuskuläre Hypothese:
    Mentales Training verbessert nicht nur die kognitiven Anteile, sondern auch direkt die physischen Bewegungskomponenten

Überprüfung der Hypothesen mit Experiment:
Zwei Anforderungen (Labyrinth&Stabilometer) bei denen getestet wurde, ob durch mentales Training verbessert:
- Labyrinth wurde besser als ohne Übung
- Stabilometer war Unterschied zwischen mentaler Übung und ohne Übung klein
->mentales Training nützt bei Anforderungen mit hohem kognitiven Anteil, dies spricht für kognitive Hypothese, es findet aber auch eine Aktivierung der beteiligten Muskelgruppen statt!

32
Q

Anwendungen Lernen am Modell

A

Positive Beispiele:

  • Götti-Systeme: Modelllernen ist sehr geeignete Lernform für Vermittlung von implizitem, schlecht verbalisierbarem Expertenwissen (tacit knowledge), das Zuschauen ist of t effektiver als das Lesen oder Hören von Erklärungen
  • Mentales Training für Extremsituationen (Feuer, Personenunfall), es werden Abläufe besprochen, wer was macht

Negative Beispiele:
- Gewalt in den Medien als Prädiktor für
späteres aggressives Verhalten:
Studie mit 400, erhöhte Aggression bei
jenen, die in starkem Masse Gewalt im
Fernsehen, in Videos und in Videospielen
ausgesetzt waren. Daten, wurden in Bezug auf die vorher
bestehenden Unterschiede bei
Feindseligkeit und Aggression korrigiert
- Auswirkungen von Egoshootern? Wie methodisch untersuchen, ob Aggression durch Spiele steigt, oder ob aggressive Kinder solche Spiele bevorzugen?

33
Q

Einsichtiges Lernen Beispiele

A
  • Archimedes: Heureka! Verdrängung von Körpern im Wasser->Geistesblitz, Aha-Erlebnis
  • Das Traummolekül: Kekulé träumte von Schlange, die sich in Schwanz biss, Moleküle sind Ringe nicht Ketten->Aha-Moment
  • Bett, Bad, Bahn, Bar
34
Q

Wer ist Köhler und was hat er beobachtet? (Einsichtiges Lernen)

A
  • 1887-1967
  • Psychologe, Gestaltpsychologie
  • auf Teneriffa, Evolutionstheorie bezogen auf kognitiven Prozesse, welche gibt es bei nichtmenschlichen Primaten? Wo sind ihre Grenzen?
  • Beobachtung: 6 Schimpansen in einem Raum, Banane hängt in Ecke, Kiste steht in Mitte, Schimpansen versuchten Banane mit Sprüngen zu erreichen (Versuch-Irrtum-Lernen), einer geht umher, bleibt plötzlich vor Kiste stehen, schleift sie und holt Banane, als hätte er eine PLÖTZLICHE EINSICHT gehabt, Köhler hängt Banane höher, so dass man sie nur erreicht wenn man 2 Kisten aufeinanderstapelt, 1 Kiste ging gut, die 2. sehr schwierig, zwei Teilanforderungen, deren einer er gerecht wird, die andere ihm aber Schwierigkeiten macht, alle statischen Fragen löst er nicht einsichtig, sondern probierend (Versuch-Irrtum)
  • > Schlussfolgerung: Statikprobleme können sie nicht einsichtig lösen, aber das Problem mit dem rankommen lösen sie nicht durch Versuch-Irrtum, sondern durch einen internen Denkprozess, Einsicht in die Problemsituation (Einsichtiges Lernen)
35
Q

Phasen des Einsichtigen Lernens?

A
  1. Auftauchen des Problems: Diskrepanz zwischen Ist und Soll erzeugt Spannung (Motivation), führt zu Suchen nach einer Lösung (Affe hat keine Banane, Affe will Banane)
  2. Probierverhalten (Versuch-Irrtum): Ausprobieren bekannter&bewährter Handlungsstrategien (z.B. Springen). Ein Misserfolg führt meist zu einer Handlungspause (Latenz, Inkubation)
  3. kognitive Umstrukturierung: Situationsgefüge wird denkend neu erfasst&kognitiv umstrukturiert, Versuch und Irrtum werden hierbei nicht mehr real durchgeführt (!) sondern in der Überlegung vollzogen. (Affe läuft umher und erkennt, dass es Kisten gibt, dass er sie benutzen könnte für die Problemlösung. Dieses Erkennen passiert rein kognitiv, Versuch-Irrtum wird nicht real durchgeführt->kognitive Umstrukturierung)
  4. Einsicht und Lösung:
    …bis sich die Elemente (oft plötzlich) zu einem sinnvollen Ganzen zusammenfügen (Aha-Erlebnis) (Ich brauche die Kiste!)
  5. Anwendung: Meistens setzt umgehend der Handlungsprozess ein. Bei Erolg wird er beibehalten (keine Löschung des Verhaltens!)
  6. Übertragung: Die gefundene Lösung wird eingeübt&kann durch Lerntransfer auf Ähnliches übertragen werden
36
Q

Merkmale Einsichtiges Lernen

A
  1. Arrangement der Situation spielt eine Rolle: Affen haben mehr Probleme, wenn Kisten weit auseinander liegen
  2. Nach der ersten Lösung kann das Verhalten sofort wiederholt werden: Werden Affen nach längerer Pause wieder in Käfig gebracht, fangen sie sofort an, Kisten zusammenzusuchen
  3. Lösung kann auf eine neue Situation übertragen werden: Affen stecken ohne lange zu zögern auch zwei Stöcke zusammen, um an die Bananen heranzukommen (Werkzeuggebrauch!)
  4. Es existiert eine Zielgerichtetheit des Handelns: Das Verhalten ist auf ein bestimmtes Ziel gerichtet (Banane bekommen), es wird NICHT erst nach einigen Verstärkungen systematisch! (wie Versuch-Irrtum)
  5. Braucht Verkettung von Teilhandlungen:
    Zur Kiste gehen, sie unter Bananen schieben, darauf steigen, zugreifen.
    Affen erreichen die Bananen nicht einfach nur durch Greifen, sondern müssen Kiste als Hilfsmittel (Werkzeug!) entdecken. Die Serie von Teilhandlungen beginnt an einem bestimmten Ausgangszustand (Affe hat keine Banane) und endet in einem zunächst nur VORGESTELLTEN Zielzustand (Affe hat Banane). Die Verkettung von Teilhandlungen gelingt ohne Probieren!
  6. Zwischen dem Erkennen des Problems und seiner Lösung liegt in der Regel eine Latenz: Diese Zeit, in der scheinbar nichts geschieht, nennt man Inkubationszeit. Problem wird nicht weiter bewusst bearbeitet, aber dennoch kommt man einer Lösung näher. Man nimmt an, das unbewusst alte, ungeeignete Assoziationen gelöscht und stattdessen neue gebildet werden, die dann zur Einsicht führen können.
37
Q

Einsichtiges Lernen als Brücke zum Denken

A

Einsichtiges Lernen: Einsicht=Denken, Lernen=Lernen
Einsichtiges Lernen ist die Brücke zwischen Lernen und Denken und der Übergang von Wissensaufbau zu Wissensnutzung!

  • Verhalten der Affen lässt sich nicht durch klassisches oder operantes Konditionieren erklären, plausibler ist Einsicht (Aha-Erlebnis), Diese Einsicht beim Einsichtigen Lernen, dieser Lernerfolg wird erklärt durch interne, im Gedächtnis ablaufende Such-&Verknüpfungsoperation->Denken!

(Lernen ist Aufbau und Korrektur von individuellem Wissensbesitz, Denken ist Such-&Verknüpfungsoperationen über diesen Wissensbesitz)

P.S. Aha-Erlebnis, Moment der Einsicht kann man sehen als nachweisbarer Anstieg der hirnelektrischen Aktivität im rechten Temporallappen

38
Q

Anwendungen Einsichtiges Lernen

A

Kreativitätstechniken als Möglichkeit, Aha-Effekte und einsichtiges Lernen zu unterstützen: Welche funktionieren?

  • gut: Analogiebildung (Lösung aus einem Bereich auf anderen Bereich übertragen), Einschränkungen der Situation oder Umgebung identifizieren
  • schlecht: expressive Ausdrucksformen (nachspielen von Problemen)

Welche Aufgaben-&Situationsmerkmale fördern Aha-Erlebnis und welche behindern? z.B. Zeitdruck?