M1 F6 Flashcards
Was besagt das Fechnersche Gesetz?
Die psychophysische Funktion, auch als „Fechnersches Gesetz“ bekannt, besagt, dass die Stärke einer subjektiven Empfindung gegenüber einem physikalischen Reiz (z.B. Ton, Lichtstärke) nicht linear mit der Reizstärke anwächst, sondern im Sinne einer logarithmischen Funktion.
Beschreibe Kontexte, in denen es zu neuen Einfällen kommen kann!
Der entspannte Kontext – im Englischen mit den Worten „bed, bathroom and bicycle“ umschrieben – ist eine von mehreren Bedingungen, die nach den anekdotischen Beobachtungen zu neuen Ideen führen können. Zudem scheint es notwendig zu sein, dass man sich vorher intensiv mit einer Fragestellung oder einem Forschungsgebiet auseinandergesetzt hat und in dem entspannten Kontext eben gerade nicht über die Frage nachdenkt. Manchmal scheinen auch bestimmte Umweltreize zu einem plötzlichen Einfall beitragen zu können. Der plötzliche Einfall kommt also nicht aus dem Nichts. Zündende Ideen setzen voraus, dass man sich lange mit einer Problemstellung befasst hat und das wissenschaftliche Gebiet, aus dem das Problem stammt, gut kennt.
Erkläre Induktion, Deduktion und Abduktion!
Fall: Diese Bohnen sind aus diesem Sack.
Beobachtung: Die Bohnen sind weiß.
Regel: Alle Bohnen im Sack sind weiß.
Bei der Induktion geht man von einem spezifischen Fall und einer spezifischen Beobachtung aus und schließt auf eine allgemeine Regel.
Bei der Deduktion ist der Ausgangspunkt eine allgemeine Regel und ein spezifischer Fall und es wird auf eine Beobachtung geschlossen.
Bei der Abduktion liegen eine allgemeine Regel und eine spezifische Beobachtung vor und der Schluss erfolgt auf einen spezifischen Fall.
Wie hängen Abduktion und Heureka zusammen?
Entscheidend ist aber, dass man durch den Abduktionsschluss zu einer neuen Erkenntnis kommt, die im weiteren Forschungsprozess induktiv und deduktiv geprüft werden kann (vgl. Walach, 2005, S. 33). Das Bohnenbeispiel ist natürlich sehr simpel und psychologisch nur bedingt interessant. Wenn wir uns aber vorstellen, dass wir viele bisher unverbundene Einzel-Beobachtungen und Fakten kennen, dann besteht der abduktive Schluss eben darin, dass wir „plötzlich“ eine Verbindung zwischen ihnen herstellen oder eine Struktur entdecken, die emotional zudem mit einem Aha- oder Heureka-Erlebnis verbunden ist.
Insgesamt 49 Heuristiken zur Generierung von neuen Hypothesen hat McGuire (1997) zusammengestellt. Nenne die fünf Hauptkategorien!
Die fünf Kategorien klassifizieren zunehmend komplexere Heuristiken und lauten:
- Heuristiken, die Sensitivität gegenüber ungewöhnlichen oder provozierenden Phänomenen erfordern (Heuristics simply calling for sensitivity to provocative natural occurrences)
- Einfache konzeptuelle Analysen (Heuristics involving simple conceptual analysis)
- Komplexe konzeptuelle Analysen (Heuristics calling for complex conceptual analysis)
- Reinterpretationen bestehender Forschungsergebnisse (Heuristics demanding reinterpretations of past research)
- Datensammlung und Reanalyse bestehender Datensätze (Heuristics necessitating collecting new or reanalyzing old data)
Erläutere 1. Heuristiken, die Sensitivität gegenüber ungewöhnlichen oder provozierenden Phänomenen erfordern (Heuristics simply calling for sensitivity to provocative natural occurrences)
Ad 1: Die Heuristiken innerhalb der ersten Kategorie erfordern die Identifikation und Hinwendung zu in irgendeiner Weise ungewöhnlichen oder provozierenden Phänomenen, die mit bisherigen Theorien gar nicht oder nur schwer vereinbar sind. Zum Beispiel leiden Kinder, die unter traumatischen Bedingungen aufgewachsen sind, als Erwachsene oft unter psychischen Problemen. Das ist aber keineswegs immer so! Einige wenige, in der Literatur als „unverwundbare“ Kinder (vgl. einführend Pines, 1979) bezeichnete Individuen entwickeln sich trotz schwieriger Bedingungen in ihrer Kindheit zu stabilen und sozial wie beruflich integrierten Erwachsenen. Die genaue Untersuchung von solchen Personen kann zu neuen Hypothesen über den Einfluss von Entwicklungsbedingungen führen. McGuire nennt innerhalb der ersten Kategorie auch solche Heuristiken, die im sogenannten Grounded-Theory-Ansatz von Glaser und Strauss (1967) verwendet werden. In diesem Paradigma der qualitativen Sozialforschung werden Einzelfälle intensiv beobachtet und/oder interviewt. Ziel ist es, seine Vorannahmen und Erwartungen möglichst auszublenden und so lange wie möglich „die Sachen selbst“ zu betrachten. Der Forschende soll in sogenannten Memos spontane Ideen und Einfälle festhalten. Über die Komparation von Einzelfällen soll dann eine gegenstandsbezogene Theoriebildung ermöglicht werden.
Erläutere 2. Einfache konzeptuelle Analysen (Heuristics involving simple conceptual analysis)
Ad 2: Die Kernoperation innerhalb der Heuristiken in Kategorie 2 besteht darin, Konzepte oder Aussagen in einem Gedankenexperiment zu „manipulieren“. Eine konzeptuelle Manipulation kann zum Beispiel einfach darin bestehen, dass man die Kausalitätsrichtung einer bisher bestehenden Hypothese umdreht: Anstelle von „der Konsum von gewalthaltigen Computerspielen erhöht die Aggressivität“ würde dann resultieren, „Aggressivität erhöht den Konsum von gewalthaltigen Computerspielen“. Sie werden in der Sozialpsychologie (Modul 4) Festingers Theorie der kognitiven Dissonanz kennen lernen, die auf solch einer Kausalitätsreversion besteht: Anstelle der Hypothese „Einstellungsänderungen führen zu Verhaltensänderungen“ untersuchte Festinger das Gegenteil „Verhaltensänderungen führen zu Einstellungsänderungen“.
Erläutere 3. Komplexe konzeptuelle Analysen (Heuristics calling for complex conceptual analysis)
Ad 3: Ein Beispiel für ein komplexeres konzeptuelles Gedankenexperiment ist die Analogiebildung. Wir möchten die Analogiebildung mit der von Gigerenzer (1988) identifizierten „Tools-to-Theories“-Heuristik, die bei McGuire (1997) leider nicht zitiert wird, veranschaulichen.
Die „Tools-to-Theories-Heuristik“ liegt nach Gigerenzer vielen Theorien innerhalb der kognitiven Psychologie (vgl. Kurs 1) zugrunde. Im Kern geht es um einen Analogieschluss, um die metaphorische Übertragung eines Merkmals oder einer Struktur aus dem Bereich der „Tools“ auf den Bereich der „Theories“. Ein Tool, das heute jeder wissenschaftlich arbeitende Psychologe verwendet, ist der Computer, der als die Kern-Metapher für den menschlichen Geist (das kognitive System) verwendet wird. In ihrer allgemeinsten Form wurde die Computer-Analogie von Paul Thagard (2005) formuliert: Denken ist demnach mit einem gerade aktiven Computerprogramm vergleichbar, in dem Algorithmen auf Datenstrukturen angewendet werden. Den Datenstrukturen, auf die ein Computerprogramm zugreift, entsprechen beim Denken mentale Repräsentationen; den Algorithmen entsprechen sogenannte computationale Prozeduren, das sind bestimmte Verarbeitungsprozesse. Der menschliche Geist wird somit in Analogie zum Computer als informationsverarbeitendes System konzipiert. Nach der „Tools-to-Theories-Heuristik“ wurden also neue Theorien über kognitive Prozesse durch Analogiebildung gefunden, indem „Werkzeuge“, mit denen ein Forscher ohnehin arbeitete, auf psychologische Fragestellungen übertragen wurden. Ein Werkzeug in diesem Sinn ist auch die Statistik. Und in der Tat finden sich psychologische Theorien, die auf statistischen Analogien beruhen.
Sie werden in der Sozialpsychologie (Modul 4) die Attributionstheorie von Harold Kelley kennen lernen, die sich mit der Frage beschäftigt, wie Personen im Alltag Ereignisse erklären, anders ausgedrückt: welche Ursachen sie Ereignissen zuschreiben (attribuieren). Nach Kelley führt eine Person z.B. angesichts der Frage, ob es an ihr selbst, dem Prüfer, oder den aktuellen Umständen lag, dass sie eine Prüfung nicht bestanden hat, eine intuitive Varianzanalyse durch. Die Varianzanalyse ist ein statistisches Verfahren, mit dem Sie sich im Modul 2 (Kurs Statistik 2) beschäftigen werden.
Falls Sie die Attributionstheorie von Kelley und die damit verbundene Analogie der Varianzanalyse jetzt noch nicht (ganz) verstanden haben und sich fragen, ob das an Ihnen oder an dem Text liegt, den sie gerade lesen, dann attribuieren sie ruhig auf den Text. Wir müssten an dieser Stelle zu weit ausholen, um Ihnen Kelleys Attributionstheorie und die Varianzanalyse in allen notwendigen Details zu erklären.
Es kommt in diesem Rahmen nur darauf an, dass Sie ein Beispiel für die Verwendung eines statistischen tools (der Varianzanalyse) als Analogie zu einer kognitiven Theorie (Kelleys Attributionstheorie) in Erinnerung behalten.
In der Psychologie finden sich zudem noch viele weitere Theorien, die durch Analogie-Schlüsse oder Metaphern entstanden sind. Besonders viele Metaphern stecken in der Theorie von Sigmund Freud (vgl. psychoanalytisches Paradigma, Kurs 1), der z.B. den psychischen Apparat mit einem Energiesystem (etwa einer Dampfmaschine) verglich. Ganz anders ist das bei George A. Kelly, der seine Persönlichkeitstheorie auf die Metapher „der Mensch als Wissenschaftler“ gründet (vgl. Modul 7).
Erläutere 4. Reinterpretationen bestehender Forschungsergebnisse (Heuristics demanding reinterpretations of past research) & 5. Datensammlung und Reanalyse bestehender Datensätze (Heuristics necessitating collecting new or reanalyzing old data)
Ad 4 und 5: Die Heuristiken der vierten und fünften Kategorie setzen voraus, dass man bereits umfangreiche psychologische Kenntnisse erworben hat und lassen sich in ihrem Fall z.B. anwenden, wenn Sie ihre Bachelor-Arbeit schreiben. Heuristiken, die darin bestehen, dass bestehende Forschungsergebnisse reinterpretiert werden, können z.B. immer dann angewendet werden, wenn sich die Ergebnisse verschiedener empirischer Studien zu einer Fragestellung widersprechen. In diesem Fall geht es darum, nach Erklärungen für diese Widersprüche zu suchen. Zum Beispiel können die verwendeten Messinstrumente, verschiedene Stichproben (Männer vs. Frauen, unterschiedliche Altersstufen etc.) oder bisher übersehene Variablen zur Aufklärung der Widersprüche beitragen. Neue Ideen können auch dann entstehen, wenn man eine Übersicht zu bestehenden Studien eines Forschungsgebiets schreibt. Der Versuch, solche teilweise sicherlich auch heterogenen Studien zu einem bedeutungsvollen und „runden“ Gesamtbild zu verbinden, erfordert kreative Interpretationsund Integrationsleistungen. Das resultierende Gesamtbild ist dann „mehr“ als die Summe der einzelnen Studien, die gesichtet wurden. McGuire (1997, p. 25) berichtet, dass der bereits erwähnte Leon Festinger die ersten Ideen für seine Dissonanztheorie entwickelt hat, während er an einem Übersichtsartikel über Gerüchte schrieb. Und wenn ein Professor etwas über ein Gebiet lernen möchte, das er noch nicht so gut kennt, dann beschließt er oder sie am besten, einen diesbezüglichen Kurs zu geben. Sie ahnen ja gar nicht, wie viel wir selbst lernen, während wir diesen Kurs schreiben!
Was ist Codierung?
Die Informationen, die bei den untersuchten Personen erhoben wurden, müssen dann so transformiert werden, dass sie in Auswertungsprogramme (z.B. SPSS oder R, vgl. Exkurs „Was ist Statistik?“) eingegeben und weiterverarbeitet werden können. Das setzt insbesondere eine eindeutige Zuordnung von Symbolen (in der Regel Zahlen) zu bestimmten Merkmalsausprägungen bzw. qualitativen Informationen voraus. Dieser Prozess der Informationstransformation wird als Codierung bezeichnet und ist oft mit einem Verlust an Detailinformationen verbunden (vgl. z.B. Bortz & Döring 2006, Kap. 4.1.1).
Was sind Code- oder Skalenhandbücher?
Bei Datensätzen, die auf großen repräsentativen Stichproben basieren, ist die Codierung der erhobenen und transformierten Variablen in sogenannten Code- oder Skalenhandbüchern genau dokumentiert, damit verschiedene Nutzer die Bedeutung jeder Variable nachvollziehen können. Auch bei weniger umfangreichen, nicht-repräsentativen Datensätzen, ist eine genaue Dokumentation in einem Skalenhandbuch dringend zu empfehlen, da häufig nicht alle möglichen Analysen unmittelbar nach der Studie umgesetzt bzw. oft noch viel später sogenannte Reanalysen mit neueren Methoden durchgeführt werden. Letzteres ist nur dann sinnvoll möglich, wenn nachvollzogen werden kann, wie die Variablen in einem Datensatz zustande gekommen sind und welche Bedeutung sie haben.
Was ist die Protokollvalidität?
Das Konzept der Protokollvalidität wurde von Kurtz und Parrish (2001) eingeführt und bezieht sich auf das Ausmaß, in dem ein individuelles Testprotokoll auswertbar und interpretierbar ist. Die Protokollvalidität ist gefährdet, (a) wenn ein Proband einen Fragebogen oberflächlich und wenig aufmerksam bearbeitet, (b) wenn sich ein Proband absichtlich falsch einschätzt und (c) wenn ein Proband über zu wenig sprachliche Kompetenzen verfügt. Letzteres kann z.B. der Fall sein, wenn Fragebögen von Nicht-Muttersprachler ausgefüllt werden, was bei englischen Fragebögen sicher relativ häufig vorkommt.
Beschreibe die Datenbereinigung.
Insbesondere bei der Übertragung von Paper-pencil-Daten in ein Analyseprogramm können Eingabefehler auftreten, die sich zumindest dann im Rahmen einer Fehler- und Plausibilitätsprüfung identifizieren lassen, wenn z.B. anstelle einer 2 versehentlich eine 22 eingegeben wurde. Solche Zahlen, die außerhalb des Wertebereichs einer Skala liegen, die z.B. Werte von 0 – 5 umfasst, lassen sich relativ leicht ermitteln. Schwieriger ist der Umgang mit fehlenden Werten bei einzelnen Probanden. Fehlende Werte können ersetzt werden, wenn zufälliges Fehlen sichergestellt ist. Diese Voraussetzung kann mit dem sogenannten MCAR-Test von Little und Rubin (1987) geprüft werden (MCAR bedeutet missing completely at random). Bereits vor der Anwendung dieses Tests können Probanden identifiziert werden, die ganze Abschnitte oder Seiten eines Fragebogens nicht bearbeitet haben. Da in solchen Fällen ausgeschlossen werden kann, dass die Werte zufällig fehlen, erfolgt die Selektion der entsprechenden Probanden. Zufällig fehlende Werte können mit Hilfe verschiedener Algorithmen geschätzt und ersetzt bzw. „imputiert“ werden. Geeignete Algorithmen stehen z.B. innerhalb des Analyseprogramms SPSS zur Verfügung. Weiterführende Informationen zum Umgang mit fehlenden Werten, finden sich z.B. bei Lüdtke, Robitzsch, Trautwein und Köller (2007).
Was ist der Summenscore oder Skalenwert?
Psychologische Konstrukte, z.B. Persönlichkeitsmerkmale, werden mit Hilfe mehrerer Items, d.h. Feststellungen in einem Fragebogen, erfasst, die dann nach bestimmten Kriterien (vgl. Kapitel 5), zu einem sogenannten Summenscore oder Skalenwert aggregiert, d.h. zusammengefasst werden. Wenn dann Zusammenhänge von Persönlichkeitsmerkmalen zu anderen Persönlichkeitsmerkmalen oder Kriterien, wie Studienerfolg, Lebenszufriedenheit oder Gesundheit statistisch analysiert werden sollen, dann wird mit diesen Skalenwerten gerechnet, die eine höhere Messgenauigkeit aufweisen, als einzelne Items (vgl. Abschnitt 5).
Was macht man mit Extremwerten?
Nach der Datenbereinigung bzw. noch im Rahmen derselben werden in ersten deskriptiven und explorativen Datenanalysen die Häufigkeitsverteilungen der Variablen (wie häufig kommt welcher Wert, z.B. welches Alter der Probanden, vor), sowie Mittelwerte und Streuungen (die Abweichungen der Werte von ihrem Mittelwert) inspiziert, um Voraussetzungen für die Durchführung statistischer Tests sicherzustellen und sogenannte Ausreißer und Extremwerte zu identifizieren. Es handelt sich dabei um Werte, die deutlich (statistisch ausgedrückt: mehr als 2 bzw. 3 Standardabweichungen) über oder unter dem Mittelwert der Verteilung einer Variablen liegen. Zum Umgang mit solchen Extremwerten gibt es verschiedene Möglichkeiten, die auch von den geplanten weiteren Analysen abhängen. Grundsätzlich gilt, dass Extremwerte identifiziert und beachtet werden müssen, da ansonsten weiterführende statistische Analysen zu völlig verzerrten und letztendlich falschen Ergebnissen führen. In den letzten Jahren ist auch in der Psychologie auf sogenannte robuste Statistiken hingewiesen worden (vgl. Erceg-Hurn & Mirosevich, 2008); es handelt sich dabei um spezielle Analysemethoden, mit denen problematische Extremwerte berücksichtigt und in ihrer verzerrenden Wirkung neutralisiert werden können.
Was kommt nach der Datenaufbereitung und -bereinigung?
Die eigentliche Prüfung der (statistischen) Hypothesen erfolgt dann im Anschluss an die genannten Schritte der Datenaufbereitung und –bereinigung mit verschiedenen Verfahren und Tests. Dabei müssen bestimmte Voraussetzungen berücksichtigt und geprüft werden, zu denen u.a. das sogenannte Skalenniveau der Variablen gehört (vgl. Abschnitt 5).
Erkläre den Zusammenhang zwischen Aggregat-Eigenschaften, Mittelwertsunterschieden und Nullhypothesen!
Bei der oben formulierten Unterschiedshypothese: „Männer und Frauen unterscheiden sich im Ausmaß sozialer Angst“, lässt sich die Aggregat-Eigenschaft als Mittelwertsunterschied im Ausmaß sozialer Angst darstellen – das Ausmaß sozialer Angst lässt sich z.B. mit Hilfe eines Fragebogens messen und quantifizieren (vgl. die Kapitel 5 und 6). Eine Prüfung dieses Mittelwertsunterschieds kann im Rahmen statistischer Hypothesen vorgenommen werden. Statistische Hypothesen beinhalten eine Nullhypothese, in der angenommen wird, dass ein bestimmter Unterschied (oder Zusammenhang) nicht besteht, und einer Alternativhypothese, in der behauptet wird, dass der Unterschied (Zusammenhang) besteht. Formal werden Null- und Alternativhypothese wie folgt ausgedrückt (nachfolgend populationsbezogen und daher mit griechischen Buchstaben):
H0: μ1 = μ2
H1: μ1 ≠ μ2
Warum wird die zuvor formulierte Unterschiedshypothese im Rahmen einer statistischen Hypothese geprüft?
Die Unterschiedshypothese bezieht sich auf Männer und Frauen im Allgemeinen. Nun ist es unmöglich oder in anderen Fällen zu kostspielig – alle Männer und Frauen bzw. alle Personen einer Grundgesamtheit im Hinblick auf ein interessierendes Merkmal zu untersuchen. Aus diesem Grund werden möglichst repräsentative Stichproben aus den Grundgesamtheiten der Männer und Frauen gezogen und die jeweilige Ausprägung von sozialer Angst mit einem geeigneten diagnostischen Instrument erfasst. Die in der Stichprobe ermittelten geschlechtsspezifischen Mittelwerte lassen sich als Schätzungen der jeweiligen Populationsmittelwerte verwenden (vgl. hierzu Modul 2, insbesondere Wahrscheinlichkeitstheorie). Mit Hilfe eines t-Tests für unabhängige Stichproben (unabhängig, weil die Ziehung der männlichen Probanden aus der Grundgesamtheit keinen Einfluss hat auf die Ziehung der Frauen aus der Grundgesamtheit und umgekehrt) lässt sich dann prüfen, ob sich die beiden Mittelwerte bedeutsam voneinander unterscheiden. Der t-Test ist einer der gebräuchlichsten Signifikanztests, bei denen es generell um die Überprüfung von Hypothesen über Populationsparameter geht. Eine Übersicht zu verschiedenen Tests zur Prüfung von statistischen Hypothesen liefert der Entscheidungsbaum von Vorberg und Blankenberger (1999), der auch im Internet verfügbar ist.