Prüfungsfragen Hofmann Flashcards
Was bedeutet ein statistischer Interaktionseffekt innerhalb Sternbergs additiver Faktorenlogik?
- auf einer Stage wirken zwei verschiedene kognitive Faktoren gleichzeitig und dann werden statische Reaktionen gezeigt
- die beiden Faktoren G & H wirken beide auf Stage B -> INTERAKTION
- Faktoren F & G wiederum zeigen nur Haupteffekt: F wirkt auf Stage A und Faktor G wirkt auf Stage B, aber KEINE Interaktion zwischen den beiden!
- Effekt der beiden auf Mittelwert von RT ist unabhängig und additiv
- Stage Durations immer Additiv!!!!
Was ist der Wortüberlegenheitseffekt?
Buchstaben werden fehlerfreier wiedererkannt, wenn sie sich in einem Wort befinden
—> Wörter werden besser erkannt als einzelne Buchstaben
Buchstabe „O“ in wOrt
Wie können wir den Wortüberlegenheitseffekt erklären? Welches Modell kann ihn erklären und welches nicht?
Wortüberlegenheitseffekt kann durch TOP-DOWN-Aktivierung und durch das INTERACTIVE ACTIVATION Modell erklärt werden
Entscheidung, ob Buchstabe gezeigt wurde, basiert auf „Letter Level“
- diese Info wird an Response-Activation-Level weitergegeben
- Info über Wort wird erst in späterem lexikalischen Level (mentales Lexikon) getroffen
IAM = Bottom-Up und. Top-Down Verbindungen
- das Wort „TRIP“ aktiviert alle Buchstaben, die im Wort enthalten sind
- > Buchstaben werden besser erkannt, wenn sie in Wörtern enthalten sind
Cascade Modell = kann Wortüberlegenheitseffekt NICHT erklären, da es eine reine Bottom-Up Verarbeitung ist!!!!
Hebbian Learning und Supervised Learning
Zwei Arten wie Hidden-Units neue Informationen lernen:
- Hebbian Learning:
- Cells that fire together, wire together
- je häufiger Zellen zusammen feuern, desto stärker wird deren Verknüpfung - Supervised Learning :
- basiert auf Delta-Regel
-> Delta wird berechnet als Soll-Ist-Vergleich:
—> je größer Abweichung des aktuellen Wertes vom richtigen Wert (Delta) ist, desto größer wird die Veränderung der Assoziationsstärke der Hidden-Units
- /mej/ und /mam/ teilen sich 33% der phoneme, also muss Modifizierung Mittelstark sein
- je falscher ich liege, desto stärker wird System korrigiert und desto stärker verändern sich Grapheme/Phoneme zu Hidden-Units
- Trainingssignal überwacht das Lernen und verbessert System somit in jedem einzelnen Trainingslauf
—> in Backpropagation aktivieren Hidden-Units orthographische & phonologische Einheiten
Welche Modelle lassen sich auf Basis des Gedankenexperiments von Großmutterneuronen ad absurdum führen? Welche anderen Klassen von Modelle lässt sich damit motivieren?
Lokal-konnektionistische Modelle!
- symbolische Einheiten (Units) entsprechen Wort wie zB “Großmutter” —> Einheiten entsprechen dann Neuronen = Großmutterneuron!!!
Grossmutterneuron und alles, was damit zusammenhängt wie zB Wort Großmutter, wie Großmutter aussieht, wie sie heißt etc, da gehen viele kleinere Neuronen ab….
Wenn lokal konnektionistische Modelle stimmen würden, dann wäre alles, was mit Großmutter zu tun hat bei Läsion des großen Großmutterneurons zerstört !!! Man erkennt Wort nicht mehr, weiß den Namen nicht mehr etc…
Deswegen gibt es KEIN Grossmutterneuron, weil neuronal nicht plausibel erklärbar
- selbst, wenn Wort Großmutter zerstört, kann man sich trotzdem noch erinnern, wer Großmutter ist und wie sie aussieht zB
- deswegen eher konnektionistische Modelle mit verteilten Repräsentationen!!! Gibt viele verschiedene Neurone die alle Einfluss auf gleichen Aspekte haben, sodass eine Läsion nicht alles kaputt machen würde
“Overfitting” kann vorliegen, wenn Regressionsgleichung sehr viele freie Parameter hat.
Nennen Sie zwei Kriterien, mit denen sie mathematische Modelle mit unterschiedlicher Anzahl freier Parameter vergleichen können, aber die Varianzaufklärung gleichzeitig nicht vernachlässigen.
Overfitting = Modell erklärt mehr Varianz als überhaupt drin ist….
—> je komplizierter Modell, desto wahrscheinlicher, dass seine freien Parameter Fehlervarianz beschreiben.
Modell-Evaluationskriterien “BESTRAFEN” Anzahl freier Parameter, aber “BELOHNEN” erklärte Varianz
1. Aikaike Information criterion = AIC
2. Bayesian information criterion = BIC
—> bestraft Anzahl freier Parameter und belohnt die deskriptive Angemessenheit
(3. Minimum descriptive Length)
—> je geringer AIC/BIC, desto besser ist das Modell
Was ist minimale Frequenz (sampling frequency), die man zur Untersuchung der EEG-Theta-Frequenz benötigt?
Theta-Band endet bei 7Hz
Minimale Frequenz muss immer doppelt so hoch sein, wie die zu messende Frequenz
Theta = maximal 7Hz —> 2* 7Hz = 14Hz minimale Messfrequenz
Delta = 1-3Hz —> 6Hz minimale Messfrequenz Theta siehe Oben Alpha = 8-12Hz —> 24Hz Beta = 13-39Hz —> 60Hz Gamma = 31-90Hz —> 189Hz
Du Tanzt Aber Besonders Gut
Wofür verwendet man die RMS in der EKP-Forschung? Was beludest R-M-S und wie wird sie berechnet?
RMS verwendet, um alle (z.B 64 Elektroden) in eine “virtuelle Elektrode“ zusammenzufassen
z. B. Für zwei Bedingungen und berechnet dann Differenz der RMS
- damit kann man Zeitfenster wählen, in denen die größten Unterschiede unabhängig von der Elektrode vorliegen
- danach schaut man sich Topographie dieser Unterschiede in Zeitfenster an und sieht im zweiten Schritt aus welchen Elektroden diese Unterschiede resultieren
Berechnung:
Root Mean Square
- für jeden Zeitpunkt und jede Elektrode bildet man zuerst das Quadrat -> S
- dann Mittelwert über alle Elektroden (64 werden zu einer virtuellen zusammengefasst) gebildet -> M
- am Ende zieht man Wurzel, um Quadrierung zu eliminieren -> R
RMS wird vin „hinten“ durchgeführt
—> testen, WANN die größten Unterschiede vorliegen
+ Zeitfenster macht Aussage, welche Elektroden die größten Unterschiede zeigen
—> RMS kann nur POSITIV werden (wir quadrieren ja)
Welche kognitiven Prozesse finden bei Gesichtserkennung im ELL auf der P100 und N170 statt?
Erklären sie dies jeweils am Beispiel einer experimentellen Manipulation
P100:
P1 Komponente ist bei Gesichtern besonders sensitiv bezüglich ungewöhnlichen visuellen Features (normal vs. Stretched face)
- Im Vergleich zu Wörtern sind Gesichts-Effekte häufiger in rechten Hemisphäre ausgeprägt
—> Nach Tumor in rechten Hemisphäre ist Unfähigkeit Gesichter zu erkennen möglich = PROSOPAGNOSIA
—> normal vs. Stretched faces = experimentelle Manipulation
N170:
- Memory Matching = Erkennen von Gesichtern im Ganzen
- N170 größer, wenn die Gesichter gedreht sind, weil höhere Schwierigkeit im „Memory Match“!
—> Attraktivität von Gesichtern beeinflusst das ebenfalls
Was ist bei EEG-Analysen der Unterschied zwischen einer „response-locked“ und einer „stimulus-locked“ analysis ?
- Response Locked = Antwort der VP wird auf 0ms gesetzt und dann kann man ERN messen
- Stimulus Locked = man beginnt Aufzeichnung mit Präsentation des Stimulus —> Präsentation des Stimulus stellt 0ms dar und von da ab an kann man typische EKP Komponente wie P1, N2 etc. messen.
ERN = Konflikt zwischen korrekter und gegebener Antwort
Welche drei Informationen werden in Abbildungen von Zeit-Frequenz-Analysen wie vermittelt?
X= Zeit
Y= Frequenz
Farbe = Amplitude
Zeit-Frequenz Plot beantwortet Frage „wie die Frequenzen sich über die Zeit entwickeln?“
Wie hängt bei Zeitfrequenzanalysen der Window-Faktor und die Zeit-bzw. Frequenzauflösung zusammen?
- kleine Faktoren liefern bessere Zeitauflösung
- Größere Faktoren haben besser Frequenzauflösung
- Mit S-Transformation kann man kleinere Fenster-Faktoren wählen
—> darum gerade bei langsamen Frequenzen die S-Transformationen benutzen!!
—> Fenster-Faktor veranschaulicht dann, warum ST gut für langsame Frequenzen ist
Was ist ein Oddball-Paradigma?
Was ist der Unterschied zwischen P3a und P3b-Komponente?
90% der Stimuli ein Typ (laute Töne)
10% ein anderer Typ (leise Töne)
- es kommt ein komischer Stimulus = ODD
—> bewirkt Aufmerksamkeitsausrichtung auf diesen Stimulus
—> seltene Stimuli lösen höhere P3 aus!!!
P3a = automatische Aufmerksamkeitsprozesse // P3a immer HÖHER
P3b = kontrollierte Aufmerksamkeitsprozesse
—> erst automatische Prozesse (frühere) P3a
—> dann kontrollierte (späte) Prozesse P3b
Unterschied zwischen einer EEG-Quellenlokalisationsmethode mit sLORETA oder mit BESA-Software?
Welche Voraussetzungen sollten erfüllt sein, um Quellenlokalisation durchzuführen?
sLORETA:
- standardised low resolution electromagnetic tomography software
- „Jeder Voxel des Gehirns ist ein Dipol“
- nimmt mehr als 6300 Voxel an
- exploratorisch
- sLORETA macht Annahme von 6293 Voxeln
—> Voxel bestehen aus grauen Maße des Hirns, nur da wo Aktivierung entsteht
—> Hirnaktivitätsmessung auf graue Zellen beschränken
Vorteil = man muss sich „nur“ um ca 6300 Voxel kümmern
BESA: - Brain Electrical source analysis - Alternative zu sLORETA - Annahme über leitende Eigenschaften des Gewebes erlaubt Schließen auf Dipole - Ansatz ist Hypothesengeleiteter —> man definiert 1,2 Dipole —> BESA sagt einem dann, wie viel Varianz der gemessenen EEG-Signale durch Annahme dieser dipole erklärt werden kann —> sollten mindestens 93% sein
Voraussetzungen = mind. 32-64 Elektroden im gleichen Abstand auf kompletten Kopf
Hohe Leistungen in Intelligenz und Aufmerksamkeitsaufgaben führen im Ruhe-EEG zu veränderten Frequenzen im Vergleich zu Menschen, die weniger hohe Leistungen zeigen.
Wie verhalten sich diese Frequenzen in Abhängigkeit der zB Intelligenz?
Hohe Leistungen hängt mit zwei EEG Phänomenen zusammen:
- TONISCH = höheres Alpha, niedriges Theta
- Trait Variable —> Ruhe
- >3 Minuten Ruhekondition, 3 Minuten Augen offen
- Fourier-Transformation um zu testen, wie viel Alpha - PHASISCH = höheres Theta, niedriges Alpha
- State Variable —> Energiephase
—> Menschen, die sich gut entspannen können (hoher Alpha Trait), können sich besser während einer Aufgabe konzentrieren (hoher Theta State)
—> FEIERABEND 🥳= wer nach Feierabend gut relaxen kann (mehr Alpha), kann auch mehr leisten, wenn’s drauf ankommt (mehr Theta)