Prüfungsfragen Hofmann Flashcards
Was bedeutet ein statistischer Interaktionseffekt innerhalb Sternbergs additiver Faktorenlogik?
- auf einer Stage wirken zwei verschiedene kognitive Faktoren gleichzeitig und dann werden statische Reaktionen gezeigt
- die beiden Faktoren G & H wirken beide auf Stage B -> INTERAKTION
- Faktoren F & G wiederum zeigen nur Haupteffekt: F wirkt auf Stage A und Faktor G wirkt auf Stage B, aber KEINE Interaktion zwischen den beiden!
- Effekt der beiden auf Mittelwert von RT ist unabhängig und additiv
- Stage Durations immer Additiv!!!!
Was ist der Wortüberlegenheitseffekt?
Buchstaben werden fehlerfreier wiedererkannt, wenn sie sich in einem Wort befinden
—> Wörter werden besser erkannt als einzelne Buchstaben
Buchstabe „O“ in wOrt
Wie können wir den Wortüberlegenheitseffekt erklären? Welches Modell kann ihn erklären und welches nicht?
Wortüberlegenheitseffekt kann durch TOP-DOWN-Aktivierung und durch das INTERACTIVE ACTIVATION Modell erklärt werden
Entscheidung, ob Buchstabe gezeigt wurde, basiert auf „Letter Level“
- diese Info wird an Response-Activation-Level weitergegeben
- Info über Wort wird erst in späterem lexikalischen Level (mentales Lexikon) getroffen
IAM = Bottom-Up und. Top-Down Verbindungen
- das Wort „TRIP“ aktiviert alle Buchstaben, die im Wort enthalten sind
- > Buchstaben werden besser erkannt, wenn sie in Wörtern enthalten sind
Cascade Modell = kann Wortüberlegenheitseffekt NICHT erklären, da es eine reine Bottom-Up Verarbeitung ist!!!!
Hebbian Learning und Supervised Learning
Zwei Arten wie Hidden-Units neue Informationen lernen:
- Hebbian Learning:
- Cells that fire together, wire together
- je häufiger Zellen zusammen feuern, desto stärker wird deren Verknüpfung - Supervised Learning :
- basiert auf Delta-Regel
-> Delta wird berechnet als Soll-Ist-Vergleich:
—> je größer Abweichung des aktuellen Wertes vom richtigen Wert (Delta) ist, desto größer wird die Veränderung der Assoziationsstärke der Hidden-Units
- /mej/ und /mam/ teilen sich 33% der phoneme, also muss Modifizierung Mittelstark sein
- je falscher ich liege, desto stärker wird System korrigiert und desto stärker verändern sich Grapheme/Phoneme zu Hidden-Units
- Trainingssignal überwacht das Lernen und verbessert System somit in jedem einzelnen Trainingslauf
—> in Backpropagation aktivieren Hidden-Units orthographische & phonologische Einheiten
Welche Modelle lassen sich auf Basis des Gedankenexperiments von Großmutterneuronen ad absurdum führen? Welche anderen Klassen von Modelle lässt sich damit motivieren?
Lokal-konnektionistische Modelle!
- symbolische Einheiten (Units) entsprechen Wort wie zB “Großmutter” —> Einheiten entsprechen dann Neuronen = Großmutterneuron!!!
Grossmutterneuron und alles, was damit zusammenhängt wie zB Wort Großmutter, wie Großmutter aussieht, wie sie heißt etc, da gehen viele kleinere Neuronen ab….
Wenn lokal konnektionistische Modelle stimmen würden, dann wäre alles, was mit Großmutter zu tun hat bei Läsion des großen Großmutterneurons zerstört !!! Man erkennt Wort nicht mehr, weiß den Namen nicht mehr etc…
Deswegen gibt es KEIN Grossmutterneuron, weil neuronal nicht plausibel erklärbar
- selbst, wenn Wort Großmutter zerstört, kann man sich trotzdem noch erinnern, wer Großmutter ist und wie sie aussieht zB
- deswegen eher konnektionistische Modelle mit verteilten Repräsentationen!!! Gibt viele verschiedene Neurone die alle Einfluss auf gleichen Aspekte haben, sodass eine Läsion nicht alles kaputt machen würde
“Overfitting” kann vorliegen, wenn Regressionsgleichung sehr viele freie Parameter hat.
Nennen Sie zwei Kriterien, mit denen sie mathematische Modelle mit unterschiedlicher Anzahl freier Parameter vergleichen können, aber die Varianzaufklärung gleichzeitig nicht vernachlässigen.
Overfitting = Modell erklärt mehr Varianz als überhaupt drin ist….
—> je komplizierter Modell, desto wahrscheinlicher, dass seine freien Parameter Fehlervarianz beschreiben.
Modell-Evaluationskriterien “BESTRAFEN” Anzahl freier Parameter, aber “BELOHNEN” erklärte Varianz
1. Aikaike Information criterion = AIC
2. Bayesian information criterion = BIC
—> bestraft Anzahl freier Parameter und belohnt die deskriptive Angemessenheit
(3. Minimum descriptive Length)
—> je geringer AIC/BIC, desto besser ist das Modell
Was ist minimale Frequenz (sampling frequency), die man zur Untersuchung der EEG-Theta-Frequenz benötigt?
Theta-Band endet bei 7Hz
Minimale Frequenz muss immer doppelt so hoch sein, wie die zu messende Frequenz
Theta = maximal 7Hz —> 2* 7Hz = 14Hz minimale Messfrequenz
Delta = 1-3Hz —> 6Hz minimale Messfrequenz Theta siehe Oben Alpha = 8-12Hz —> 24Hz Beta = 13-39Hz —> 60Hz Gamma = 31-90Hz —> 189Hz
Du Tanzt Aber Besonders Gut
Wofür verwendet man die RMS in der EKP-Forschung? Was beludest R-M-S und wie wird sie berechnet?
RMS verwendet, um alle (z.B 64 Elektroden) in eine “virtuelle Elektrode“ zusammenzufassen
z. B. Für zwei Bedingungen und berechnet dann Differenz der RMS
- damit kann man Zeitfenster wählen, in denen die größten Unterschiede unabhängig von der Elektrode vorliegen
- danach schaut man sich Topographie dieser Unterschiede in Zeitfenster an und sieht im zweiten Schritt aus welchen Elektroden diese Unterschiede resultieren
Berechnung:
Root Mean Square
- für jeden Zeitpunkt und jede Elektrode bildet man zuerst das Quadrat -> S
- dann Mittelwert über alle Elektroden (64 werden zu einer virtuellen zusammengefasst) gebildet -> M
- am Ende zieht man Wurzel, um Quadrierung zu eliminieren -> R
RMS wird vin „hinten“ durchgeführt
—> testen, WANN die größten Unterschiede vorliegen
+ Zeitfenster macht Aussage, welche Elektroden die größten Unterschiede zeigen
—> RMS kann nur POSITIV werden (wir quadrieren ja)
Welche kognitiven Prozesse finden bei Gesichtserkennung im ELL auf der P100 und N170 statt?
Erklären sie dies jeweils am Beispiel einer experimentellen Manipulation
P100:
P1 Komponente ist bei Gesichtern besonders sensitiv bezüglich ungewöhnlichen visuellen Features (normal vs. Stretched face)
- Im Vergleich zu Wörtern sind Gesichts-Effekte häufiger in rechten Hemisphäre ausgeprägt
—> Nach Tumor in rechten Hemisphäre ist Unfähigkeit Gesichter zu erkennen möglich = PROSOPAGNOSIA
—> normal vs. Stretched faces = experimentelle Manipulation
N170:
- Memory Matching = Erkennen von Gesichtern im Ganzen
- N170 größer, wenn die Gesichter gedreht sind, weil höhere Schwierigkeit im „Memory Match“!
—> Attraktivität von Gesichtern beeinflusst das ebenfalls
Was ist bei EEG-Analysen der Unterschied zwischen einer „response-locked“ und einer „stimulus-locked“ analysis ?
- Response Locked = Antwort der VP wird auf 0ms gesetzt und dann kann man ERN messen
- Stimulus Locked = man beginnt Aufzeichnung mit Präsentation des Stimulus —> Präsentation des Stimulus stellt 0ms dar und von da ab an kann man typische EKP Komponente wie P1, N2 etc. messen.
ERN = Konflikt zwischen korrekter und gegebener Antwort
Welche drei Informationen werden in Abbildungen von Zeit-Frequenz-Analysen wie vermittelt?
X= Zeit
Y= Frequenz
Farbe = Amplitude
Zeit-Frequenz Plot beantwortet Frage „wie die Frequenzen sich über die Zeit entwickeln?“
Wie hängt bei Zeitfrequenzanalysen der Window-Faktor und die Zeit-bzw. Frequenzauflösung zusammen?
- kleine Faktoren liefern bessere Zeitauflösung
- Größere Faktoren haben besser Frequenzauflösung
- Mit S-Transformation kann man kleinere Fenster-Faktoren wählen
—> darum gerade bei langsamen Frequenzen die S-Transformationen benutzen!!
—> Fenster-Faktor veranschaulicht dann, warum ST gut für langsame Frequenzen ist
Was ist ein Oddball-Paradigma?
Was ist der Unterschied zwischen P3a und P3b-Komponente?
90% der Stimuli ein Typ (laute Töne)
10% ein anderer Typ (leise Töne)
- es kommt ein komischer Stimulus = ODD
—> bewirkt Aufmerksamkeitsausrichtung auf diesen Stimulus
—> seltene Stimuli lösen höhere P3 aus!!!
P3a = automatische Aufmerksamkeitsprozesse // P3a immer HÖHER
P3b = kontrollierte Aufmerksamkeitsprozesse
—> erst automatische Prozesse (frühere) P3a
—> dann kontrollierte (späte) Prozesse P3b
Unterschied zwischen einer EEG-Quellenlokalisationsmethode mit sLORETA oder mit BESA-Software?
Welche Voraussetzungen sollten erfüllt sein, um Quellenlokalisation durchzuführen?
sLORETA:
- standardised low resolution electromagnetic tomography software
- „Jeder Voxel des Gehirns ist ein Dipol“
- nimmt mehr als 6300 Voxel an
- exploratorisch
- sLORETA macht Annahme von 6293 Voxeln
—> Voxel bestehen aus grauen Maße des Hirns, nur da wo Aktivierung entsteht
—> Hirnaktivitätsmessung auf graue Zellen beschränken
Vorteil = man muss sich „nur“ um ca 6300 Voxel kümmern
BESA: - Brain Electrical source analysis - Alternative zu sLORETA - Annahme über leitende Eigenschaften des Gewebes erlaubt Schließen auf Dipole - Ansatz ist Hypothesengeleiteter —> man definiert 1,2 Dipole —> BESA sagt einem dann, wie viel Varianz der gemessenen EEG-Signale durch Annahme dieser dipole erklärt werden kann —> sollten mindestens 93% sein
Voraussetzungen = mind. 32-64 Elektroden im gleichen Abstand auf kompletten Kopf
Hohe Leistungen in Intelligenz und Aufmerksamkeitsaufgaben führen im Ruhe-EEG zu veränderten Frequenzen im Vergleich zu Menschen, die weniger hohe Leistungen zeigen.
Wie verhalten sich diese Frequenzen in Abhängigkeit der zB Intelligenz?
Hohe Leistungen hängt mit zwei EEG Phänomenen zusammen:
- TONISCH = höheres Alpha, niedriges Theta
- Trait Variable —> Ruhe
- >3 Minuten Ruhekondition, 3 Minuten Augen offen
- Fourier-Transformation um zu testen, wie viel Alpha - PHASISCH = höheres Theta, niedriges Alpha
- State Variable —> Energiephase
—> Menschen, die sich gut entspannen können (hoher Alpha Trait), können sich besser während einer Aufgabe konzentrieren (hoher Theta State)
—> FEIERABEND 🥳= wer nach Feierabend gut relaxen kann (mehr Alpha), kann auch mehr leisten, wenn’s drauf ankommt (mehr Theta)
MROM zeigt, wie lexikalische Entscheidungen gefällt werden.
Die “Ja, das ist ein Wort”-Antwort bei Wort-Reizen kann durch zwei unterschiedliche Mechanismen erklärt werden…
- Identifikation
- JA-Antwort gegeben, wenn präsentierte Wort wiedererkannt wird
- in diesem Fall überschreitet Aktivierungsfunktion des präsentierten Wortes (BLUR) eine feste Schwelle - Summen-Kriterium
- Mechanismus Orthographischer Vertrautheit
- man hat Wort noch nicht richtig erkannt, aber es löst dennoch hohe unspezifische lexikalische Aktivierung aus, die wir als VERTRAUTHEIT interpretieren
- globale Aktivierung aller orthographisch ähnlichen Wortformen im Lexikon (BLUR,BLUE,SLUR)
—> wenn summiere Aktivierung das Summenkriterium überschreitet, haben wir Wort noch nicht erkannt, aber es kommt uns hinreichend vertraut vor, um “JA” zu sagen…
—> wenn summierte Aktivierung Summenkriterium überschreitet, dann sagt Modell „JA, ich habe das Wort erkannt“
—> FAST GUESS MECHANISMUS
Kriterium gering = liberales Antwortkriterium —> bereits geringe Vertrautheit führt zu JA-Antwort, wenn Ja zB belohnt wird
Kriterium hoch = konservatives Antwortkriterium —> wenn falsche Ja-Antwort bestraft wird, dann haben wir konservatives Antwortkriterium
Nennen Sie jeweils ein Beispiel, was phonologische und Oberflächen-Dyslektikter noch können und was nicht? (Gemäß DRC Modell)
Phonologische Dyslexie
Nichtwörter = NEIN
Regelmäßige Wörter = JA
Frequenzeffekt = JA
Kein Längeneffekt, dafür Frequenzeffekt
—> Unfähigkeit, sinnfreie Wörter laut zu lesen
—> deutsch am schlimmsten, da sehr regelmäßige Sprache
—> man kann mit gutem Gedächtnis Über Ganz-Wort-Route kompensieren
Oberflächen-Dyslexie
Nichtwörter = JA
Unregelmäßige Wörter = NEIN
Frequenzeffekt = NEIN
Keinen Frequenzeffekt, dafür aber Längeneffekt
—> Läsion am linken Schläfenlappen
—> keine Ganz-Wort-Erkennung
—> englisch am schlimmsten, da sehr unregelmäßige Sprache
—> Oberflächen-Dyslektiker haben häufig auch schlechtes Gedächtnis und Probleme mit Assoziationen
Was bedeutet der Begriff „Nested Incremental Modeling“?
Nested:
- neues Modell enthält Elemente des alten Modells (z.B. IAM enthält Cascade Modell)
- somit kann neues Modell immer noch Effekte des alten Modells erklären
Incremental:
- neben Effekten des alten Modells, sollte das neue Modell aber auch neue Effekte erklären können und damit über das alte Modell hinausgehen
Effekt der Wortfrequenz (Auftretenshäufigkeit von Wörtern) wurde in Architektur des IAM als Ruheaktivierung im orthographischen Wort-Layer implementiert…
Wie stünde es um Erklärungswert des Modells, wenn es damit nur Wortfrequenzeffekt erklären könnte?
Wie könnte Erklärungswert später verbessert werden?
Gute Modelle erklären viele Phänomene mit möglichst wenigen Annahmen
Erklärungswert = Menge an erklärbaren Phänomenen : Menge an benötigten Annahmen
Beispiel:
Da empirisches Phänomen (Reaktionszeiteffekt) durch eine Annahme (Frequenzabhängige Ruheaktivierung) “erklärt“ wird, könnte man Erklärungswert auf 1/1 schätzen
—> Modell ist tautologisch-beschreibend, aber erklärt noch nichts ….
Später hat man bei Simulation entdeckt, dass wenn ein Stimulus-Wort (TRAP) das dem Modell dargeboten wird, einen höherfrequenten Nachbarn hat (TRIP), wird es durch dieses Wort inhibiert
—> somit sollte Reaktionszeit bei Wörtern mit höherfrequenten Nachbarn geringer sein, was auch empirisch bestätigt wurde
—> gute Modelle erklären möglichst viele Phänomene mit möglichst wenigen Annahmen!!!!
Patient mit diffuser Hirnschädigung. Etwa 5% der Neuronen sind gleichmäßig verteilt über gesamte Gehirn beschädigt.
Welches Wort kann der Patient wahrscheinlich noch lesen & aussprechen/ verstehen:
1. Das Hochfrequente Wort “MANN” oder das selten auftretende Wort “RELING”?
Welches Modell erklärt das?
Häufig auftretende Repräsentationen führen zu stabileren Hidden-Unit-Verknüpfungen
- häufig im Wortschatz vorkommende Wörter MANN werden durch mehr Neuronen (Hidden-Units) repräsentiert und damit fehlerfreier wiedererkannt als Low-Frequency Wörter RELING
—> selbst, wenn Teil der Neuronen zerstört wird, bleiben bei Läsionen die Repräsentationen häufiger Reize intakt!!!!
TRIANGLE MODELL erklärt am besten wie das funktioniert
- wie orthographische Einheiten über hidden units mit phonologischen Einheiten verbunden sind
- MANN eher aussprechen als RELING, weil hidden units bei MANN stärker sind durch häufigere Backpropagation oder durch häufigeres Auftreten