Neuro VL 3 Flashcards
Modellklassen
Modelle in der Psychologie:
1. Präquantitativ 2. Mathematisch 3. Algorithmisch
Algorithmisch:
- Expertensystem
- 2 Konnektionistisch
Konnektionistisch:
- 2.1. Lokal
- 2.2 Verteilte Repräsentationen
Präquantitative Modelle
Relativ allgemein & verbal
Boxologisch (bestehen aus Kästchen und Pfeilen)
Vorteil = Vorstellung, wie Modell funktioniert
Nachteil = Wie schnell reagiert welcher Mensch bei welchem Stimulus? –> Keine quantitativen Vorhersagen
Präquantiativ –> VORSTUFE zu Modellen, welche quantitative Vorhersagen erlaubt
Mathematische Modelle
Geschlossene Form (+,-,:,*)
Normaverteilungen, Varianzen, Signalentdeckungen können erklärt werden
Nachteil = häufig nur deskriptiv, aber erlauben keine Vorhersage neuer Phänomene
Mathematische Modelle können nur PRÄDIKTIV sein
Algorithmische Modelle
Alles erlaubt, was man programmieren kann –> Wenn-Dann-Formulierungen
Unterteilt in:
- EXPERTENSYSTEM
- KONNEKTIONISTISCH
Konnektionistische Modelle lassen sich durch Verwendung LOKALE und VERTEILTER Repräsentationen unterscheiden
Durch Produktionsregeln ableiten, was man beobachten müsste, damit Annahmen stimmen
Expertensystem
basiert auf additiver Faktorenlogik
Mittels Produktionsregeln wird Aufgabenanalyse & spezifiziert dann kognitive Prozesse bei der Aufgabe
Vorteile = Aufgabenanalyse erlaubt prüfbare Vorhersagen
LOKAL-Konnektionistische Modelle
lokale Repräsentationsvariablen = symbolische EInheit
Vorteile = Anschauliches Modell & exakte Vorhersagen
Nachteile = Gehirn funktioniert NICHT rein
deterministisch, sondern enthält auch Zufallsprozesse
z.B. rote Farbe des Stroop-Stimulus GRÜN
Konnektionistische Modelle mit VERTEILTEN Repräsentationen
z. B. Großmutterneuron aktiviert viele verschiedene Hidden-Units
1. Hebbian Learning: “Cells that fire together, wire together” –> Je häufiger Zellen zusammen feuern, desto stärker wird deren Verknüpfung
- Supervised Learning: Basiert auf Delta Regel
- -> Verdrahtungsänderung der Hidden-Units muss proportional zum Delta sein.
Delta = Soll-Ist-Vergleich: /mej/ und /mam/ teilen sich 33% der Phoneme, also muss Modifizierung mittelstark sein
Je falscher ich liege, desto stärker wird System korrigiert und verbessert sich somit in jedem einzelnen Trainingslauf
Gibt es ein Großmutterneuron?
Symbolische Einheiten entsprechen z.B. Wort wie “Großmutter” –> Einheiten entsprechen dann Neuronen = GROßMUTTERNEURON
Großmutterneuron und alles, was damit zusammenhängt (Wort Großmutter, wie Großmutter aussieht, wie sie heißt etc) ist in vielen kleineren Neuronen gespeichert, die vom Großmutterneuron abzweigen
Wenn LOKAL-Konnektionistische Modell stimmen würde, dann wären alles, was mit Großmutter zu tun hab bei Läsion des Großmutterneurons zerstört!!!
Deswegen gibt es KEIN Großmutterneuron!!!
–> Neuronal nicht plausibel erklärbar auf Basis der Lokal-Konnektionistischen Modelle
selbst, wenn das Wort Großmutter zerstört würde, kann man sich trotzdem noch erinnern, wer Großmutter ist und wie sie aussieht
Deswegen eher konnektionistische Modelle mit VERTEILTEN Repräsentationen!!
–> Gibt viele verschiedene Neurone, die alle Einfluss auf gleichen Aspekte haben, sodass eine Läsion nicht alles kaputt machen würde!
Lernepochen: Häufig auftretende Repräsentationen
Je mehr Lernepochen, desto geringer Fehlerrate
Häufig im Wortschaft vorkommende Wörter
= High-Frequency –> werden durch mehr Neuronen (HiddenUnits) repräsentiert & damit fehlerfreier wiedererkannt als Low-Frequency Wörter
Selbst, wenn Teil der Neuronen zerstört wird, bleiben bei Läsionen Repräsentationen häufiger Reize intakt!
MANN (Hoch-Frequent bleibt intakt) vs. RELING (Niedrig-Frequent: bleibt nicht intakt)
Modell-Evaluationen und Bewertungskriterien
- Descriptive Adequacy:
- Wie genau beschreibt Modell die Daten? - Item-Level-Vorhersagen:
- noch angemessener
- für Modelle der Worterkennung –> erklären ca. 40-50% der RT-Item-Level-Varianz - Varianzaufklärung:
- neurokognitive Daten rauschbehafteter
- je mehr VP, desto rauschfreier!
Overfitting & Einfachheit/ Modellevaluationskriterien
Overfitting = Modell erklärt mehr Varianz als überhaupt drin ist…
–> Je komplizierter Modell, desto wahrscheinlicher, dass seine freien Parameter Fehlervarianz beschreiben
Modellevaluationskriterien:
- “bestrafen” Anzahl freier Parameter
- “belohnen” erklärte Varianz
1. Aiakaike Information Criterion = AIC
2. Bayesin Information Criterion = BIC - -> Je geringer AIC/BIC, desto besser ist Modell
(3. MDL)
Minimum Descriptive Length (MDL)
MDL nimmt Funktion und zerlegt die in einfachere Funktionen, die leichter zu vergleichen sind
–> dadurch Modelle mit unterschiedlichen Gleichungen vergleichbar
Je einfacher Modell, desto leichter zu falsizifizieren!
–> Fechners Gesetzt leicht zu falsifizieren!
Horizontale Verallgemeinbarkeit
Modelle sollten Vorhersage zu verschiedenen Aufgaben machen können
Horizontale Verallgemeinbarkeit z.B. bei IAM gültig für perzeptuelle & lexikalische Entscheidungsaufgaben
Effekt für Wörter + Nicht-Wörter, aber keine Vorhersage zu auditiven Reizen
Vertikale Verallgemeinbarkeit
Wie viele Ebenen des modellierten Prozesses können wir damit beschreiben?
Erlaubt es auch Vorhersage WANN (EEG), WO (fMRI) WELCHE kognitiven Prozesse zu welchen beobachteten Phänomenen führt?
Conflict Monitoring Theory = kann Antwortkonflikt in Stroop-Aufgabe erklären
Erklärungswert
Gute Modelle erklären viele Phänomene mit möglichst wenigen Annahmen!
Erklärungswert = Menge an erklärbaren Phänomene : Menge an benötigten Annahmen
Erklärungswert wird höher, je mehr Phänomene man mit einer Annahme erklären kann!