Problemlösen & Schlussfolgern Flashcards

1
Q

Definition von Problem

A

Situation, in der kein offensichtlicher routinierter Weg zur Zielerreichung besteht

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Definition von Problemlösen

A

Reihe von kognitiven Prozessen, die für die Zielerreichung angewendet werden, wenn die durch Hindernisse erschwert ist

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Definition von Schlussfolgern

A

Kognitive Prozesse zur Herleitung von Folgerungen aus unserem Wissen und zu Ziehen von Schlüssen; oft Teil des Problemlösens

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Am Problemlösen beteiligte kognitive Prozesse

A

Aufmerksamkeit, Langzeitgedächtnis, Arbeitsgedächtnis, exekutive Funktionen, Entscheidungsverhalten, Sprache, …

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Struktur eines Problems

A
  1. Startzustand
  2. mögliche Handlungen, die vom Start- zum Zielzustand
  3. Zielzustand
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Unterschied von gut und schlecht definierten Problemen

A

Gut: Start- und Zielzustand sowie mögliche Handlungen sind bekannt (z.B. Turm von Hanoi, Labyrinth, Schach, …)
Schlecht: Unsicherheit bzgl. Regeln, Start-/Zielzustand undher Handlungen (z.B. Soziale Interaktionen oder Einsichtsprobelme)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Einsichtsprobleme

A

Nach längerem/kürzerem Nachdenken plötzliches Erkennen der Lösung (Eingebung)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Problem Space Theorie

A

Problemraum: Start- & Zielzustand sowie alle möglichen intermediären Zustände

Komplexe Probleme: Suchen in mehreren Problemräumen (Hypothesenraum, Datenraum, …)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Algorithmus zum problemlösen

A

Genaue Anweisungen („Rezept“) zur sicheren Lösung, evtl. sehr zeit- und ressourcenaufwändig

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Random Search Heuristik

A

Generate and Test: zufälliges Auswählen und Ausprobieren von Handlungen, kognitiv wenig anspruchsvoll

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Heuristiken

A

Daumenregeln, die meistens, aber nicht immer zum Ziel führen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Hill Climbing Heurstik

A

Wissensabhängig
Versuch, einen Schritt voraus zu denken, z.B. Einfach in Richtung des Ziels bewegen, um es früher oder später zu erreichen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Means-Ends-Analysis

A

Kognitiv sehr anspruchsvoll, aber sehr erfolgreich

  • Unterteilung des Problems in Subprobleme, bis ein lösbares Subproblem gefunden wird
  • Formulierung von Zwischenzielen zur Verringerung der Distanz von Start zu Ziel
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Methoden zur Untersuchung von Problemlösen

A
  • Verhaltensanalysen: Beobachtungen, etc.
  • Protokollanalysen: verbale Protokollanalyse, Analyse der gedanklichen Prozesse des Problemlösers; aber häufig schwierig zu formulieren und auszuwerten
  • Computersimulation: Simulation aller möglichen Schritte und vergleichen, was zum beobachteten Verhalten passt
  • Bildgebungsstudien
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Funktionen des Arbeitsgedächtnis beim Problemlösen

A

Aufrechterhalten des aktuellen Problems

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Funktionen exekutiver Prozesse beim Problemlösen

A

Aufmerksamkeit, Inhibition, Monitoring, Shiften/Switchen, …

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Charakteristika der Frontalhirnläsion (generell)

A

Inflexibilität, Perseveration, fehlende Impulskontrolle, Defizite im Arbeitsgedächtnis, Defizite beim Abruf aus LZG

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Problemlösen bei Frontalhirnläsion

A
  • Schwierigkeiten bei der Means-End-Analyse (Turm von Hanoi)
  • Probleme der Hill Climbing Heuristik (bei Wasserumfüllaufgabe): Schwierigkeiten, sich an vorherige Schirtte zu erinnern und zu vermeidende zu lernen
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Bildgebende Befunde beim Problemlösen

A
  • Zunahme der Aktivität mit steigender Aufgabenkomplexität
  • rechter dorsaler PFC
  • beidseitig parietaler Cortex
  • beidseitig prämotorischer Cortex
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Enkodierung beim Problemlösen von Experten

A

Chunking: Bündeln von Informationen, schnellerer Zugriff auf assoziierte Chunks

Organisation des Wissens: oberflächliche Ähnlichkeit < abstrakte Prinzipien

21
Q

Suchrichtung beim Problemlösen bei Experten & Novizen

A

Forward Search

Novizen häufig backward search: vom Ziel- zum Startzustand

Sicher?

22
Q

Subprozesse Analogen Schlussfolgerns

A
  1. Retrieval/Abruf: Zugriff auf ähnliches bereits bekanntes Beispiel im LZG
  2. Mapping: Aufrechterhaltung von Ziel & Quelle (altes Problem) im AG, Abgleich miteinander, Projektion der Eigenschaften der Quelle auf das aktuelle Ziel
  3. Evaluation: Entscheidung über Nützlichkeit der Analogie
  4. Abstraktion: Isolieren der gemeinsamen Strukturen von Ziel und Quelle
  5. Vorhersagen: Entwickeln von Hypothesen über Verhalten oder Eigenschaften des Ziels auf Basis des Wissens über die Quelle
23
Q

Structure Mapping Theory (SMT)

A
  • Stufe 1: Suche im LZG nach potentiellen Quellen mit oberflächlichen ähnlichen Eigenschaften
  • Stufe 2: Evaluation der Passung zwischen Abrufergebnis und Ziel
  • Annahme: Strukturelle/rationale Ähnlichkeit entscheidend für Analogien, aber Suche des kognitiven Systems eher nach oberflächlichen Passungen als rationalen Analogien
24
Q

LISA-Model

A

Learning Interference with Schemas and Analogies

  • Idee der neuronalen Netzwerke: Eigenschaften der Quelle & des Ziels als Knotenpunkte in neuronalem Netz
  • simultane Aktivierung einiger Knoten im AG ➜ Aktivierung ähnlicher Konstellation im LZG ➜ Abruf relevanter Information
25
Q

Studie mit „hilfreichen Geschichten“

A

Story first: hilfreiche Geschichte — Problem bearbeiten
Story second: Problem bearbeiten —hilfreiche Geschichte — Problem
Incubation Control: Problem — irrelevante Geschichte — Problem

Deutlich mehr Lösungen, wenn hilfreiche Geschichte (Analogie) gehört

26
Q

Induktives Schlussfoglern

A

Nutzen vorhandenen Wissens, um Schlussfolgerungen über unbekannte Zusammenhänge zu treffen, basiert häufig auf Kategorien

27
Q

Generelle vs. spezifische Induktion

A

generell: Generalisieren bekannter Beispiele der Kategorie auf alle Mitglieder
spezifisch: Schließen von bekannten Zusammenhängen auf einen einzelnen unbekannten

28
Q

2-4-6-Aufgabe von Wason

A

Aufgabe: Zahlenfolgen 246 ist konsistent mit der Regel. Wie lautet diese?

  • Überprüfen durch Generieren weiterer Zahlenfolgen
  • Regel: Zahlen müssen nur Aufsteigen
  • oft Strategiewechsel vom Versuch, Hypothese zu bestätigen zum Versuch, sie zu widerlegen

-> Aufgabe für generelle Induktion

29
Q

Kartenaufgabe für generelle Induktion

A

Aufgabe: Regeln, nach der Karten mit Symbolen ausgewählt wurden, finden
Anstieg des Schwierigkeitsgrads:
- einfache Regel (z.B. Rot)
- Konjunktive Regel (rot und Quadrat)
- disjunkte Regel (rot oder Quadrat)
- negative Regel (nicht rot)
- disjunkte negative Regel (nicht rot und nicht Quadrat)
Typische Strategien
a) Ändern von nur einem Merkmal („successive scanning“)
b) Ändern aller Merkmale bis auf eines („focus scanning“)

30
Q

Spezifische Induktion

A

Generalisieren einiger Mitglieder einer bekannten Kategorie auf bestimmte Mitglieder derselben Kategorie

31
Q

Heuristik der spezifischen Induktion: „Ähnlichkeit“ (mit Bsp.)

A
  • Prämisse: alle mir bekannten Gänse sind weiß
  • Schlussfolgerung: diese bestimmte Gans ist weiß

Je ähnlicher ein bekanntes und zu schließendes Beispiel, desto wahrscheinlicher die Attribution der in der Prämisse genannten Eigenschaft auf das Ziel

32
Q

Heuristik der spezifischen Induktion: „Typikalität“

A

Je typischer das in der Prämisse genannte Modell für seine Kategorie, desto wahrscheinlicher die Attribution der in der Prämisse genannten Eigenschaft auf das Ziel

33
Q

Heuristik der spezifischen Induktion: „Homogenität“ (mit Bsp.)

A

Relativ homogen:
- Prämisse: alle mir bekannten Katzen haben einen Schwanz
- Schlussfolgerung: die Katze meines Nachbarn hat auch einen Schwanz
Relativ inhomogen:
- Prämisse: alle mir bekannten Tiere haben Schwänze
- Schlussfolgerung: das Tier meines Nachbarn hat auch einen Schwanz

Je homogener die betroffenen Kategorie, desto eher werden Eigenschaften eines bekannten auf andere Mitglieder der Kategorie attrtibuiert

34
Q

Nachteile von Induktion, induktivem Schlussfolgern

A

niemals sicher, weil:

  • niemals alle existierenden Zusammenhänge bekannt sind
  • ein einziges Gespräch ausreicht, um eine generelle Induktion zu widerlegen
35
Q

Similarity-Coverage Modell von Osherson et al.

mit Bsp.

A
  • für generelle & spezifische Induktion
    Coverage = durchschnittliche maximale Gleichheit zwischen den Beispielen der Prämisse und jedem Exemplar der betroffenen Kategorie

Bsp:
A: Prämissen: Hunde haben eine Leber; Katzen haben eine Leber
Schlussfolgerung: Säugetiere haben eine Leber

B: Prämissen: Hunde haben eine Leber; Wale haben eine Leber
Schlussfolgerung: Säugetiere haben eine Leber

-> B ist überzeugender: Hunde & Katzen sind zwar typischer für die Kategorie der Säugetiere, Hund & Wal decken aber ein breiteres Spektrum der Kategorie ab

36
Q

Beteiligte Hirnareale beim induktiven Schlussfolgern

A
  • dlPFC (beim WCST-Feedback)
  • medio-temporale & parahiccamapale Areale (bei
    Einschätzung der Wahrscheinlichkeit einer Schlussfolgerung)
  • MTL-System
37
Q

Deduktives Schlussfolgern (mit Bsp.)

A

Wenn die Prämissen wahr sind, kann die Schlussfolgerung nicht falsch sein.

Prämisse 1: teure Produkte haben eine hohe Qualität
Prämisse 2: meine Jacke war teuer
Schlussfolgerung: meine Jacke hat hohe Qualität

38
Q

Syllogismus

A

Argument bestehen aus 2 Aussagen & einer Schlussfolgerung

Schlussfolgerung nur dann gültig, wenn sie nach den Gesetzen der Logik aus den Aussagen abgeleitet wurde und nur unwahr, wenn eine der Prämissen falsch ist

39
Q

Generalisierung kategorialer Syllogismen

A

deduktives Schlussfolgern
(Haupt-)Prämisse 1: Alle A sind B
(Untergeordnete) Prämisse 2: C ist ein A
Schlussfolgerung: C ist B

40
Q

Venn-Diagramme von kategorialen Syllogismen

A

insgesamt 512 mögliche Syllogismen, davon nur 27 gültig

41
Q

Bedingte (Konditionale) Syllogismen

A

deduktives Schlussfolgern
Prämisse 1: Wenn ein Produkt teuer war, dann hat es eine hohe Produkt
Prämisse 2: meine neue Jacke war teuer
Schlussfolgerung: meine neue Jacke hat hohe Qualität

  • Abhängigkeit eines Ereignisses vom Auftreten eines anderen
  • 4 Möglichkeiten der 2. Prämisse: p ist (nicht) gegeben, q ist (nicht) gegeben
42
Q

Wason Selection Task zum Untersuchen bedingten Schlussfolgerns

A

[A] [D] [4] [7]

  • welche Karte muss man umdrehen, um die Regel zu überprüfen?
  • Korrekte Lösung: A und 7
  • 46% drehen auch 4 um, dabei keine Aussage über Regel
  • aber: bessere Leistung bei realistischeren Szenarien (Briefe)
43
Q

Formfehler beim deduktiven Schlussfolgern

A

Durch Struktur des Syylogismus / Beziehung von Prämisse und Schlussfolgerung:
Einfluss der syntaktische Struktur und Schwierigkeiten mit negativen Quantifikatoren (Grenzen des Arbeitsgedächtnisses)

44
Q

Atmosphere Effect

A

Formfehler deduktiven Schlussfolgerns

Akzeptieren einer Schlussfolgerung, wenn gleicher Quantifikator (alle/keine/manche) wie Prämissen

45
Q

Matching Bias

A

Formfehler deduktiven Schlussfolgerns

  • Akzeptieren einer Schlussfolgerung, wenn ähnliche syntaktische Struktur wie Prämissen
  • z.B. Entscheiden beim Wason Selection Task, weil „grade Zahl“ erwähnt
46
Q

Inhaltsfehler des deduktiven Schlussfoglerns

A

Fokussierung auf Richtigkeit/Falschheit der Aussagen des Sylogismus ohne Beachtung der logischen Verknüpfungen zwischen Aussagen

47
Q

Belief Bias Effekt

A

Inhaltsfehler des deduktiven Schlussfolgerns

  • eher Akzeptieren von glaubhaften Folgerungen als unglaubhaften, auch wenn logisch (aufgrund Prämissen) unschlüssig
  • ungültige Folgerungen eher für gültig gehalten, wenn in Prämisse und Folgerung wahr Aussagen
  • Einfluss der Glaubwürdigkeit des Inhalts auf Fähigkeit, gültige Schlüsse zu ziehen
  • Interaktion zw. Glaubwürdigkeit und logischer Gültigkeit
48
Q

Regelbasierte Theorien des deduktiven Schlussfolgerns

A
  • Annahme: Menschen von Natur aus logisches System zum Schlussfolgern
  • Vorgehensweise:
    • Repräsentation von Prämissen und Schlussfolgerungen im Arbeitsgedächtnis
    • Verknüpfung mit den Regeln unseres logischen Systems
    • Überprüfung, ob Schlussfolgerung notwendigerweise aus den Prämissen folgen muss

Erklärt einige Form- und Inhaltsfehler

49
Q

Theorie der mentalen Modelle (Theorie deduktiven Schlussfolgerns)

A

Mentale Modelle = interne Repräsentation von realen oder vorgestellten Situationen basierend auf Informationen (z.B. Syllogismen)

  1. Konstruktion eines mentalen Modells, das die Information aus den Prämissen abbildet
  2. Ableiten einer vorläufigen Schlussfolgerung & Evaluation dieser
  3. Validieren der Schlussfolgerung: Suche nach alternativen Modellen (konsistent mit Prämissen, aber nicht mit Schlussfolgerung); wenn kein alternatives Modell auffindbar, ist Schlussfolgerung gültig

Erklärung für Inhalts- und Formfehler

  • je mehr Modelle zur Abbildung eines Syllogismus benötigt, desto schwieriger: erklärt Probleme mit negativen und partikulären Quantifikatoren
  • Einfluss der Glaubhaftigkeit einer Schlussfolgerung auf Generierung und Überprüfung alternativer Modelle: hohe Glaubhaftigkeit, u.U. Keine Validierung