Problemlösen & Schlussfolgern Flashcards
Definition von Problem
Situation, in der kein offensichtlicher routinierter Weg zur Zielerreichung besteht
Definition von Problemlösen
Reihe von kognitiven Prozessen, die für die Zielerreichung angewendet werden, wenn die durch Hindernisse erschwert ist
Definition von Schlussfolgern
Kognitive Prozesse zur Herleitung von Folgerungen aus unserem Wissen und zu Ziehen von Schlüssen; oft Teil des Problemlösens
Am Problemlösen beteiligte kognitive Prozesse
Aufmerksamkeit, Langzeitgedächtnis, Arbeitsgedächtnis, exekutive Funktionen, Entscheidungsverhalten, Sprache, …
Struktur eines Problems
- Startzustand
- mögliche Handlungen, die vom Start- zum Zielzustand
- Zielzustand
Unterschied von gut und schlecht definierten Problemen
Gut: Start- und Zielzustand sowie mögliche Handlungen sind bekannt (z.B. Turm von Hanoi, Labyrinth, Schach, …)
Schlecht: Unsicherheit bzgl. Regeln, Start-/Zielzustand undher Handlungen (z.B. Soziale Interaktionen oder Einsichtsprobelme)
Einsichtsprobleme
Nach längerem/kürzerem Nachdenken plötzliches Erkennen der Lösung (Eingebung)
Problem Space Theorie
Problemraum: Start- & Zielzustand sowie alle möglichen intermediären Zustände
Komplexe Probleme: Suchen in mehreren Problemräumen (Hypothesenraum, Datenraum, …)
Algorithmus zum problemlösen
Genaue Anweisungen („Rezept“) zur sicheren Lösung, evtl. sehr zeit- und ressourcenaufwändig
Random Search Heuristik
Generate and Test: zufälliges Auswählen und Ausprobieren von Handlungen, kognitiv wenig anspruchsvoll
Heuristiken
Daumenregeln, die meistens, aber nicht immer zum Ziel führen
Hill Climbing Heurstik
Wissensabhängig
Versuch, einen Schritt voraus zu denken, z.B. Einfach in Richtung des Ziels bewegen, um es früher oder später zu erreichen
Means-Ends-Analysis
Kognitiv sehr anspruchsvoll, aber sehr erfolgreich
- Unterteilung des Problems in Subprobleme, bis ein lösbares Subproblem gefunden wird
- Formulierung von Zwischenzielen zur Verringerung der Distanz von Start zu Ziel
Methoden zur Untersuchung von Problemlösen
- Verhaltensanalysen: Beobachtungen, etc.
- Protokollanalysen: verbale Protokollanalyse, Analyse der gedanklichen Prozesse des Problemlösers; aber häufig schwierig zu formulieren und auszuwerten
- Computersimulation: Simulation aller möglichen Schritte und vergleichen, was zum beobachteten Verhalten passt
- Bildgebungsstudien
Funktionen des Arbeitsgedächtnis beim Problemlösen
Aufrechterhalten des aktuellen Problems
Funktionen exekutiver Prozesse beim Problemlösen
Aufmerksamkeit, Inhibition, Monitoring, Shiften/Switchen, …
Charakteristika der Frontalhirnläsion (generell)
Inflexibilität, Perseveration, fehlende Impulskontrolle, Defizite im Arbeitsgedächtnis, Defizite beim Abruf aus LZG
Problemlösen bei Frontalhirnläsion
- Schwierigkeiten bei der Means-End-Analyse (Turm von Hanoi)
- Probleme der Hill Climbing Heuristik (bei Wasserumfüllaufgabe): Schwierigkeiten, sich an vorherige Schirtte zu erinnern und zu vermeidende zu lernen
Bildgebende Befunde beim Problemlösen
- Zunahme der Aktivität mit steigender Aufgabenkomplexität
- rechter dorsaler PFC
- beidseitig parietaler Cortex
- beidseitig prämotorischer Cortex
Enkodierung beim Problemlösen von Experten
Chunking: Bündeln von Informationen, schnellerer Zugriff auf assoziierte Chunks
Organisation des Wissens: oberflächliche Ähnlichkeit < abstrakte Prinzipien
Suchrichtung beim Problemlösen bei Experten & Novizen
Forward Search
Novizen häufig backward search: vom Ziel- zum Startzustand
Sicher?
Subprozesse Analogen Schlussfolgerns
- Retrieval/Abruf: Zugriff auf ähnliches bereits bekanntes Beispiel im LZG
- Mapping: Aufrechterhaltung von Ziel & Quelle (altes Problem) im AG, Abgleich miteinander, Projektion der Eigenschaften der Quelle auf das aktuelle Ziel
- Evaluation: Entscheidung über Nützlichkeit der Analogie
- Abstraktion: Isolieren der gemeinsamen Strukturen von Ziel und Quelle
- Vorhersagen: Entwickeln von Hypothesen über Verhalten oder Eigenschaften des Ziels auf Basis des Wissens über die Quelle
Structure Mapping Theory (SMT)
- Stufe 1: Suche im LZG nach potentiellen Quellen mit oberflächlichen ähnlichen Eigenschaften
- Stufe 2: Evaluation der Passung zwischen Abrufergebnis und Ziel
- Annahme: Strukturelle/rationale Ähnlichkeit entscheidend für Analogien, aber Suche des kognitiven Systems eher nach oberflächlichen Passungen als rationalen Analogien
LISA-Model
Learning Interference with Schemas and Analogies
- Idee der neuronalen Netzwerke: Eigenschaften der Quelle & des Ziels als Knotenpunkte in neuronalem Netz
- simultane Aktivierung einiger Knoten im AG ➜ Aktivierung ähnlicher Konstellation im LZG ➜ Abruf relevanter Information
Studie mit „hilfreichen Geschichten“
Story first: hilfreiche Geschichte — Problem bearbeiten
Story second: Problem bearbeiten —hilfreiche Geschichte — Problem
Incubation Control: Problem — irrelevante Geschichte — Problem
Deutlich mehr Lösungen, wenn hilfreiche Geschichte (Analogie) gehört
Induktives Schlussfoglern
Nutzen vorhandenen Wissens, um Schlussfolgerungen über unbekannte Zusammenhänge zu treffen, basiert häufig auf Kategorien
Generelle vs. spezifische Induktion
generell: Generalisieren bekannter Beispiele der Kategorie auf alle Mitglieder
spezifisch: Schließen von bekannten Zusammenhängen auf einen einzelnen unbekannten
2-4-6-Aufgabe von Wason
Aufgabe: Zahlenfolgen 246 ist konsistent mit der Regel. Wie lautet diese?
- Überprüfen durch Generieren weiterer Zahlenfolgen
- Regel: Zahlen müssen nur Aufsteigen
- oft Strategiewechsel vom Versuch, Hypothese zu bestätigen zum Versuch, sie zu widerlegen
-> Aufgabe für generelle Induktion
Kartenaufgabe für generelle Induktion
Aufgabe: Regeln, nach der Karten mit Symbolen ausgewählt wurden, finden
Anstieg des Schwierigkeitsgrads:
- einfache Regel (z.B. Rot)
- Konjunktive Regel (rot und Quadrat)
- disjunkte Regel (rot oder Quadrat)
- negative Regel (nicht rot)
- disjunkte negative Regel (nicht rot und nicht Quadrat)
Typische Strategien
a) Ändern von nur einem Merkmal („successive scanning“)
b) Ändern aller Merkmale bis auf eines („focus scanning“)
Spezifische Induktion
Generalisieren einiger Mitglieder einer bekannten Kategorie auf bestimmte Mitglieder derselben Kategorie
Heuristik der spezifischen Induktion: „Ähnlichkeit“ (mit Bsp.)
- Prämisse: alle mir bekannten Gänse sind weiß
- Schlussfolgerung: diese bestimmte Gans ist weiß
Je ähnlicher ein bekanntes und zu schließendes Beispiel, desto wahrscheinlicher die Attribution der in der Prämisse genannten Eigenschaft auf das Ziel
Heuristik der spezifischen Induktion: „Typikalität“
Je typischer das in der Prämisse genannte Modell für seine Kategorie, desto wahrscheinlicher die Attribution der in der Prämisse genannten Eigenschaft auf das Ziel
Heuristik der spezifischen Induktion: „Homogenität“ (mit Bsp.)
Relativ homogen:
- Prämisse: alle mir bekannten Katzen haben einen Schwanz
- Schlussfolgerung: die Katze meines Nachbarn hat auch einen Schwanz
Relativ inhomogen:
- Prämisse: alle mir bekannten Tiere haben Schwänze
- Schlussfolgerung: das Tier meines Nachbarn hat auch einen Schwanz
Je homogener die betroffenen Kategorie, desto eher werden Eigenschaften eines bekannten auf andere Mitglieder der Kategorie attrtibuiert
Nachteile von Induktion, induktivem Schlussfolgern
niemals sicher, weil:
- niemals alle existierenden Zusammenhänge bekannt sind
- ein einziges Gespräch ausreicht, um eine generelle Induktion zu widerlegen
Similarity-Coverage Modell von Osherson et al.
mit Bsp.
- für generelle & spezifische Induktion
Coverage = durchschnittliche maximale Gleichheit zwischen den Beispielen der Prämisse und jedem Exemplar der betroffenen Kategorie
Bsp:
A: Prämissen: Hunde haben eine Leber; Katzen haben eine Leber
Schlussfolgerung: Säugetiere haben eine Leber
B: Prämissen: Hunde haben eine Leber; Wale haben eine Leber
Schlussfolgerung: Säugetiere haben eine Leber
-> B ist überzeugender: Hunde & Katzen sind zwar typischer für die Kategorie der Säugetiere, Hund & Wal decken aber ein breiteres Spektrum der Kategorie ab
Beteiligte Hirnareale beim induktiven Schlussfolgern
- dlPFC (beim WCST-Feedback)
- medio-temporale & parahiccamapale Areale (bei
Einschätzung der Wahrscheinlichkeit einer Schlussfolgerung) - MTL-System
Deduktives Schlussfolgern (mit Bsp.)
Wenn die Prämissen wahr sind, kann die Schlussfolgerung nicht falsch sein.
Prämisse 1: teure Produkte haben eine hohe Qualität
Prämisse 2: meine Jacke war teuer
Schlussfolgerung: meine Jacke hat hohe Qualität
Syllogismus
Argument bestehen aus 2 Aussagen & einer Schlussfolgerung
Schlussfolgerung nur dann gültig, wenn sie nach den Gesetzen der Logik aus den Aussagen abgeleitet wurde und nur unwahr, wenn eine der Prämissen falsch ist
Generalisierung kategorialer Syllogismen
deduktives Schlussfolgern
(Haupt-)Prämisse 1: Alle A sind B
(Untergeordnete) Prämisse 2: C ist ein A
Schlussfolgerung: C ist B
Venn-Diagramme von kategorialen Syllogismen
insgesamt 512 mögliche Syllogismen, davon nur 27 gültig
Bedingte (Konditionale) Syllogismen
deduktives Schlussfolgern
Prämisse 1: Wenn ein Produkt teuer war, dann hat es eine hohe Produkt
Prämisse 2: meine neue Jacke war teuer
Schlussfolgerung: meine neue Jacke hat hohe Qualität
- Abhängigkeit eines Ereignisses vom Auftreten eines anderen
- 4 Möglichkeiten der 2. Prämisse: p ist (nicht) gegeben, q ist (nicht) gegeben
Wason Selection Task zum Untersuchen bedingten Schlussfolgerns
[A] [D] [4] [7]
- welche Karte muss man umdrehen, um die Regel zu überprüfen?
- Korrekte Lösung: A und 7
- 46% drehen auch 4 um, dabei keine Aussage über Regel
- aber: bessere Leistung bei realistischeren Szenarien (Briefe)
Formfehler beim deduktiven Schlussfolgern
Durch Struktur des Syylogismus / Beziehung von Prämisse und Schlussfolgerung:
Einfluss der syntaktische Struktur und Schwierigkeiten mit negativen Quantifikatoren (Grenzen des Arbeitsgedächtnisses)
Atmosphere Effect
Formfehler deduktiven Schlussfolgerns
Akzeptieren einer Schlussfolgerung, wenn gleicher Quantifikator (alle/keine/manche) wie Prämissen
Matching Bias
Formfehler deduktiven Schlussfolgerns
- Akzeptieren einer Schlussfolgerung, wenn ähnliche syntaktische Struktur wie Prämissen
- z.B. Entscheiden beim Wason Selection Task, weil „grade Zahl“ erwähnt
Inhaltsfehler des deduktiven Schlussfoglerns
Fokussierung auf Richtigkeit/Falschheit der Aussagen des Sylogismus ohne Beachtung der logischen Verknüpfungen zwischen Aussagen
Belief Bias Effekt
Inhaltsfehler des deduktiven Schlussfolgerns
- eher Akzeptieren von glaubhaften Folgerungen als unglaubhaften, auch wenn logisch (aufgrund Prämissen) unschlüssig
- ungültige Folgerungen eher für gültig gehalten, wenn in Prämisse und Folgerung wahr Aussagen
- Einfluss der Glaubwürdigkeit des Inhalts auf Fähigkeit, gültige Schlüsse zu ziehen
- Interaktion zw. Glaubwürdigkeit und logischer Gültigkeit
Regelbasierte Theorien des deduktiven Schlussfolgerns
- Annahme: Menschen von Natur aus logisches System zum Schlussfolgern
- Vorgehensweise:
- Repräsentation von Prämissen und Schlussfolgerungen im Arbeitsgedächtnis
- Verknüpfung mit den Regeln unseres logischen Systems
- Überprüfung, ob Schlussfolgerung notwendigerweise aus den Prämissen folgen muss
Erklärt einige Form- und Inhaltsfehler
Theorie der mentalen Modelle (Theorie deduktiven Schlussfolgerns)
Mentale Modelle = interne Repräsentation von realen oder vorgestellten Situationen basierend auf Informationen (z.B. Syllogismen)
- Konstruktion eines mentalen Modells, das die Information aus den Prämissen abbildet
- Ableiten einer vorläufigen Schlussfolgerung & Evaluation dieser
- Validieren der Schlussfolgerung: Suche nach alternativen Modellen (konsistent mit Prämissen, aber nicht mit Schlussfolgerung); wenn kein alternatives Modell auffindbar, ist Schlussfolgerung gültig
Erklärung für Inhalts- und Formfehler
- je mehr Modelle zur Abbildung eines Syllogismus benötigt, desto schwieriger: erklärt Probleme mit negativen und partikulären Quantifikatoren
- Einfluss der Glaubhaftigkeit einer Schlussfolgerung auf Generierung und Überprüfung alternativer Modelle: hohe Glaubhaftigkeit, u.U. Keine Validierung