Neuro VL 2 Flashcards

1
Q

Additive Faktorenlogik

Sternberg

A
  1. Subtraktions-Methode: Reaktionszeiten werden voneinander subtrahiert, um auf inhaltlicher Ebene darauf zu schließen, welche Bearbeitungsart zu längeren Bearbeitungszeiten führt
  2. Discrete Stages:
    Haupteffekt = 1 Stimulus //
    Interaktionseffekt = 2 Stimuli auf gleicher Stage

Auf einer Stage wirken zwei verschiedene kognitive Faktoren gleichzeitig & dann werden statistische Reaktionen gezeigt
Die beiden Faktoren G&H wirken beide auf Stage B –> INTERAKTION

F&G zeigen jeweils Haupteffekt! F wirkt auf Stage a, aber G wirkt auf Stage b, also KEINE Interaktion zwischen den beiden Stages/Faktoren F&G

Stage-Durations immer additiv

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Cascade Modell

A

Dynamische kognitive Informationsverarbeitung

Verschiedene Aktivierungen auf verschiedenen Levels, sodass spätere Info auch spätere Levels haben

Simulations-Zyklen = Info in eine Richtung / reines BOTTOM-UP-Modell // KEINE Top-Down Prozesse

Modell wird falsifiziert durch Wortüberlegenheitseffekt!!

Wortüberlegenheitseffekt = Buchstaben werden besser wiedererkannt, wenn sie sich in einem Wort befinden

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Interactive Activation Modell

A

Gibt BOTTOM-Up & TOP-DOWN Prozesse = Buchstaben werden besser wiedererkannt, wenn sie sich in einem Wort befinden

Durch TOP-DOWN erhält der zu suchende Buchstabe ein höheres Aktivitätsniveau & wird somit besser wiedererkannt –> erklärt Wortüberlegenheitseffekt

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Multiple Read Out Modell

MROM

A

Lexikalische Entscheidungsaufgabe - Effekte orthographischer Nachbarn

Wenn Wort viele orthographische Nachbarn hat, wird es schneller korrekt erkannt

Bei Nicht-Wort mit vielen orthographischen Nachbarn dauert Erkennung länger & ist fehleranfälliger

  1. IDENTIFIKATION = “Ja, Das ist ein Wort”, wenn präsentierte Wort wiedererkannt wird. In diesem Fall überschreitet Aktivierungsfunktion des präsentierten Wortes eine feste Schwelle
  2. SUMMEN-KRITERIUM = Mechanismus Orthographischer Vertrautheit
    - man hat Wort noch nicht richtig erkannt, aber es löst dennoch hohe lexikalische Aktivierung aus die wir als Vertrautheit interpretieren
    - wenn summierte Aktivierung das Summenkriterium überschreitet, haben wir Wort noch nicht erkannt, aber es kommt uns hinreichend vertraut vor, um “JA” zu sagen
  • FAST GUESS MECHANISMUS
    Kriterium Gering = Liberales Antwortkriterium –> bereits geringe Vertrautheit führt zu “Ja-Antwort”, wenn JA Belohnt wird
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Wir wird das Summenkriterium und das T-Kriterium verändert

MROM

A

FAST GUESS MECHANISMUS

Wenn bereits frühe Vertrautheit, dann wahrscheinlicher, dass ein Wort vorliegt

Für Nicht-Wörter dauert Entscheidung/Reaktion länger, da es eventuell vertraut ist und T-Kriterium & Aktivitätsschwelle weiter nach hinten/unten sinkt

Durch Verlängerung des T-Kriteriums nach rechts, wird Reaktionszeit schneller, weil viele orthographische Nachbarn

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Wortfrequenz-Effekt

A

Stärkster & robustester Effekt der visuellen Worterkennung!
- häufiger Wörter werden schneller & fehlerfreier wiedererkannt

Häufige Wörter = mehr als 100x pro 1 Million gedruckt –> MANN

Niederfrequente = weniger als 10x pro 1 Million gedruckt –> RELING

  • MANN startet bei Erkennung mit höherer Grundfrequenz
  • Häufig im Wortschatzvorkommende Wörter wie MANN werden durch mehr Neuronen repräsentiert und werden damit fehlerfreier wiedererkannt als Niedrig-frequente Wörter wie RELING
  • -> Häufig auftretende Repräsentationen führen zu stabileren Hidden-Unit-Verknüpfungen!
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Exzitation & Inhibition in interaktiven Aktivierungsmodellen
IAM

A
  1. Exzitation: Anregung anderer Einheiten “TRIP” erhöht Aktivierung in Buchstaben “T”
  2. Inhibition: Hemmung anderer Einheiten –> inhibieren sich alle Wörter im Wort-Layer gegenseitig, da ja nur ein Wort erkannt werden kann

Inhibition durch höherfrequente orthographische Nachbarn:
- TRAP startet mit niedrigeren Grundaktivierung als TRIP, da TRIP höherfrequent
- TRAP wird also durch TRIP inhibiert –> Grundaktivierung wird runtergedrückt
- Da TRAP aber präsentiert wird, kann es TRIP dann überholen
Vorhersage = Inhibition kostet Zeit, weshalb Wörter mit höherfrequenten Nachbarn später erkannt werden!

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Entscheidungseffekte: Speed-Accuracy Trade-Off

A

VPN instruiert so SCHNELL wie möglich zu antworten = Schnellere RZ, aber mehr Fehler

VPN instruiert so KORREKT wie möglich zu antworten = Langsamere RZ, aber weniger Fehler

Ergebnis hängt stark von Entscheidungsprozessen ab!!

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Lexikalische Entscheidung

A

Wörter weisen relativ hohe Wortähnlichkeit auf

Ablauf:
Der Versuchsperson wird eine Kategorisierungsaufgabe gestellt, z. B.: eine lexikalische Entscheidung zu treffen, d. h., sie muss entscheiden, ob das dargebotene Wort ein reales Wort (z. B. KRANKENSCHWESTER) oder ein Pseudowort (z. B. KNAKENSCHWESTER) ist.

Vor dem Wort, auf das die Person reagieren soll, wird der sog. PRIME gezeigt.
Der Prime wird automatisch verarbeitet, d. h., die mentale Repräsentation des Wortes wird im Gedächtnis automatisch aktiviert.

Das zweite Wort, auf welches die Person reagieren soll, wird als Target bezeichnet.
Dieses Target wird, aufgrund der Assoziation mit dem Prime, ebenfalls aktiviert.
Als Maß der semantischen Assoziation im Gedächtnis wird die Reaktionszeit der Person auf das Target herangezogen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Nested Incremental Modelling

A
  1. NESTED: Neues Modell enthält Elemente des alten Modells (IAM enthält Cascade Modell) –> Somit kann neues Modell immer noch Effekte des alten Modells erklären
  2. INCREMENTAL: Neben Effekten des alten Modells, sollte neue Modell aber auch neue Effekte erklären können & damit über alte Modell hinausgehen!
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Benennungsaufgabe und Dual Route Cascade Modell

Coltheart

A
  • Zusammenschleifen der isolierten Phoneme, die mit Hilfe der Graphem-Phonem-Konversion aus der Buchstabenkette gewonnen werden (unbekannte Wörter, Leseanfänger: z.B.: “z, i, zi, e, zie, l: Ziel”; vergl. Zusammensetzung der Buchstaben-Namen: “zett, ih, eh, el: Zett-i-el, Zettel?”).
  • Abruf der Graphemfolge als Einheit aus dem mentalen Lexikon (direkte Worterkennung; bekannte, hochfrequente Wörter)

Kernstück des Modells ist das innere Lexikon: in diesem Lexikon sind phonologische, semantische und orthographische Informationen von allen bekannten Wörtern gespeichert
→ d.h. wie es geschrieben wird, wie es ausgesprochen wird, was es bedeutet…

–> Nur so irreguläre ausgesprochene Wörter aussprechbar:
Irregulär: Chef /sef/
Regulär: China /xina/

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Dyslexien

A
  1. Phonologische Dyslexie:
    - Unfähigkeit, sinnfreie Wörter laut zu lesen /PSeudowörter
    –> Deutsch am schlimmsten, weil sehr regelmäßige Sprache
    –> Kann mit gutem Gedächtnis über Ganzwort-Route kompensiert werden
    Nichtwörter = NEIN
    Regelmäßige Wörter = JA
    Frequenzeffekt = JA
    Kein Längeneffekt, dafür aber Frequenzeffekt
  2. Oberflächen-Dyslexie:
    - Läsion am linken Schläfenlappen
    - keine Ganz-Wort-Erkennung
    –> Englisch am schlimmsten, da sehr unregelmäßige Sprache
    –> Oberflächen-Dyslektiker haben häufig auch schlechtes Gedächtnis & Probleme mit Assoziationen
    Nichtwörter = JA
    Unregelmäßige Wörter = NEIN
    Frequenzeffekt = NEIN
    Keinen Frequenzeffekt, dafür aber Längeneffekt!!
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Dyslexien - welche Störung liegt zugrunde?

A

–> Entwicklungsstörungen!

  • semantisch ähnliche Wörter werden verwechselt (BUSCH & BAUM)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Semantisches Gedächtnis in episodischen Gedächtnisaufgaben

- Assoziationsgesetze

A

Klassischer Ansatz = Freie Assoziationsaufgaben

Problems: Nicht alle Assoziationen lassen sich definieren, deswegen schwierig ein Simulationsmodell damit auszustatten!

Lösung = ASSOZIATIONSGESETZE:

  1. Gesetz der Kontiguität = zwei Wörter treten gemeinsam auf
  2. Gesetz d. Frequenz = Je häufiger die zwei Wörter zusammen auftreten, desto stärker Assoziationen zwischen ihnen
  3. Log-Likelihood-Test = Wenn sie häufiger gemeinsam auftreten, als ihre Einzelauftretenswahrscheinlichkeit erwarten lassen würde, dann sind sie assoziiert!
    - -> Wenn nicht dann Assoziationsstäärke AS = 0
    - -> je häufiger sie zusammen auftreten, desto stärker ist AS
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Einfache erfolgreiche Vorhersagen im semantischen Gedächtnis

A
  1. Assoziationsbeurteilung: 30 VP sollen Assoziiertheit zweier Wörter beurteilten auf 7-stufiger Likert-Skala
  2. Item-Level-Vorhersagen: AS erklärt am mittleren Rating jedes Wortpaares, so ca 40% der Item-Level-Varianz vorhersagbar
  3. Primed Lexikal Decision: Präsentiert man in LDT vor Zielwort ein Prime-Wort, das hohe AS aufweist, dann reagierten VP schneller als bei niedriger AS
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Episodische Gedächtnisaufgaben: False Memory Effect

A
  1. Alte, gelernte Wörter
  2. Neue, nicht gelernte Wörter

Co-Occurence = Wörter hatten viele Assoziierte im Reizmaterial

  • -> Hoch-Kookkurente Wörter hatten mindestens 8 assoziierte im Reizmaterial
  • -> Niedrig-Kookkurente Wörter hatten weniger als 8

Manipulation der Anzahl an assoziierten Wörter im Reizmaterial!
Vorhersage = Wörter mit hoher Anzahl an Assoziierter werden
NEW = fälschlich als gelernt beurteilt
OLD = besser wiedererkannt

Gelernte Wörter z.B.: Gelernt, Geliebte, Witwe etc
“HOCHZEIT” präsentiert und als wiedererkannt eingestuft, da hohe Assoziierung zu gelernten Wörtern

17
Q

Functional Overlapping Modell

A

Verschiedene Aufgaben rekrutieren gemeinsame und auch unterschiedliche kognitive Prozesse, die ein gutes Modell explizit & damit prüfbar machen sollten