Begriffe Flashcards
Konstrukt
Ein Konstrukt bezeichnet in der psychologischen Forschung eine gedankliche Hilfskonstruktion für eine Variable oder ein Merkmal, die bzw. das nicht direkt beobachtbar ist (z.B. Angst).
Quelle: Online Lexikon für Psychologie und Pädagogik
Link: http://lexikon.stangl.eu/87/konstrukt/
Systematische Fehler
werden hauptsächlich durch Unvollkommenheiten der Maßverkör- perung der Messgeräte, der Messverfahren und des Messgegenstandes sowie von messtech- nisch erfassbaren Einflüssen der Umwelt und persönlichen Einflüssen der Beobachter her- vorgerufen
Unsystematische Fehler
innere und äußere
KTT berücksichtigt nur unsystematische Fehler
KTT ist eine Theorie der Messfehler
Bzw. der Freiheit von Messfehlern oder Reliabilität
Konfundiert
Vermengt
Kohärenz / Kontingenz
Zusammenhang
Adaptiver Test:
Test, bei dem die Schwierigkeit der Aufgaben dynamisch dem individuen Leistungsniveau des Testteilnehmers angepasst wird
Test, bei dem die Schwierigkeit der Aufgaben dynamisch dem individuellen Leistungsniveau des Testteilnehmers angepasst wird
Adaptiv
Sich anpassend, anpassungsfähig
Korrelation
Wechselseitige Beziehung
Induktiv
Vom Besonderen auf das Allgemeine
Deduktiv
Vom Allgemeinen auf das Besondere
Elaboration
Ausarbeiten, vertiefte Informationsverarbeitung
Reziprok
Wechsel-/Gegenseitig
Inhärent
Einer Sache innewohnend
AFA
= act frequency approach = Ansatz der Verhaltenshäufigkeiten (Buss & Craik, 1983) => systematisches Verfahren zu Abgrenzung Merkmalbereichs und der Itemgenerierung
Beim AFA werden Dispositionen als kognitive Kategorien aufgefasst, in denen Verhaltensweisen nach der Häufigkeit ihres Auftretens ohne eigentlichen Erklärungswert zusammengefasst werden. Um festzustellen, welche Verhaltensweisen beim Vorliegen eines psychologischen Konstrukts besonders häufig auftreten (= prototypische Verhaltensweisen), werden Laien befragt.
Ausführliche Beschreibung und Bewertung des AFA => siehe S. 40-41 Skript
Antwortformat
Es können Aufgaben danach unterschieden werden, ob die Antworten frei gegeben werden können (offenes Format) oder ob mehrere Wahlmöglichkeiten bestehen (gebundenes Antwortformat). Man kann noch weiter unterscheiden zwischen
Aufgaben mit freiem Antwortformat: Kurzaufsatzaufgaben, Ergänzungsaufgaben => eher bei Fähigkeits- und Leistungstests (z. B. Reproduktion von Wissen durch einen Gedächtnistest!), Ausnahme bei Persönlichkeitstests: projektive Verfahren
Aufgaben mit gebundenen Antwortformat:
a) Ordnungsaufgaben: Zuordnungsaufgaben, Umordnungsaufgaben
b) Auswahlaufgaben: Dichotome Aufgaben, Mehrfachwahlaufgaben
c) Beurteilungsaufgaben: Analogskalaaufgaben, Ratingskalaaufgaben
Aufgaben mit atypischen Antwortformat: wurden im Skript nicht behandelt
Antworttendenzen
Akquieszenz, asymmetrische Abstufungen
Eines der Kernprobleme von Ratingskalen. “Antworttendenzen (response sets) stellen Verhaltensweisen bei der Test- und Fragebogenbearbeitung dar, die mehr durch die spezifische Form der Datenerhebung als durch die Ausprägung des zu erfassenden Merkmals definiert sind” (Moosbrugger & Kelava, 2012).
Quelle: Moosbrugger, H. & Kelava, A. (Hrsg.) (2012). Testtheorie und Fragebogenkonstruktion. (2., aktual. u. überarb. Auflage). Heidelberg: Springer.
Man unterscheidet u.a. lt. Skript (S. 51) die Tendenz, bewusst oder unbewusst im Sinne sozialer Normen (“sozial erwünscht”) zu antworten, die generelle Tendenz zur Zustimmung (Akquieszenz) zu oder auch Ablehnung von Aussagen sowie die Bevorzugung bestimmter Skalenbereiche wie der Mitte oder den Extremen. Deshalb kann es manchmal sinnvoll sein, asymmetrische Abstufungen bei Ratingskalen vorzusehen, um in solchen Bereichen der Skala besser differenzieren zu können, in denen sich die Antworten sonst häufen würden.
CCC, Category Characteristic Curves
Im dichotomen Rasch-Modell entsprechen die CCC der ICC und ihrer Spiegelung: p(1) ist dabei mit der ICC identisch. p(0) stellt die Gegenwahrscheinlichkeit dar: Mit steigender Wahrscheinlichkeit, einem Item zuzustimmen p(1), sinkt die Wahrscheinlichkeit, das Item abzulehnen p(0), und umgekehrt (Skript S. 89/90, Bühner S. 515). Der Schnittpunkt beider Kategorienfunktionen wird als Schwelle oder Threshold bezeichnet. An diesem Punkt ist bei einer gegebenen Personenfähigkeit die Wahrscheinlichkeit für Zustimmung und Ablehnung gleich hoch und liegt in der Nähe von 0.5. Man kann nun das Schwellenkonzept auf mehr als zwei Antwortkategorien übertragen. Eine inhaltliche Voraussetzung dafür ist, dass die Schwellenparameter geordnet sind, d. h. sie dürfen sich nicht überschneiden. Siehe dazu auch unbedingt Josef Bohmanns Eintrag:
https://moodle.fernuni-hagen.de/mod/forum/discuss.php?d=916155
CIT
critical incident technique = Methode der kritischen Ereignisse (Flanagan, 1954) => systematisches Verfahren der Merkmalsabgrenzung und Itemgenerierung
Die CIT ist einem dem => AFA verwandter Ansatz, der aus der AO-Psychologie stammt. Im Unterschied zum AFA werden hier aber Experten befragt. Siehe auch S. 41/42 Skript sowie Bühner (2011) Kap. 3.4.3.
cML, conditional Maximum-Likelihood-Methode
Die cML wird verwendet, um im Rasch-Modell die Itemparameter zu schätzen. Lt. Moosbrugger-Kevala (S. 243) hat dies den Vorteil, dass die Itemparameter ohne Berücksichtigung der Personenparameter geschätzt werden können. Die rechnerische Durchführung erfordert Computerunterstützung. Lt. Bühner (S. 498/499) werden die Parameter des Modells so geschätzt, dass sie für die beobachtete Datenmatix, bestehend aus dem Itemantworten, die höchste Plausibilität (auf Englisch Likelihood) aufweisen. Salopp ausgedrückt heißt das: Welche Modellparameter in der Population sprechen am ehesten dafür, das beobachtete Ergebnis produziert zu haben. Die cML kann lt. Bühner nur für das 1PL-Modell vorgenommen werden.
Distraktor
Falsche Antwortalternative bei Mehrfachwahlaufgaben in einem Leistungstest
Eigentrennschärfe in der KTT
Die Eigentrennschärfe stellt die korrigierte Korrelation einer Aufgabe mit einer Skala dar. Inhaltlich drückt eine Eigentrennschärfe also aus, wie gut ein Item eine Skala, die aus den restlichen Items gebildet wird, widerspiegelt bzw. wie prototypisch ein Item für diese Skala ist. In SPSS kann die Eigentrennschärfe der entsprechenden Items in der Tabelle “Item-Skala-Statistiken” in der Spalte “Korrigierte Item-Skala-Korrelation” abgelesen werden. Die berechnete “korrigierte Item-Skala-Korrelation” basiert auf einer Part-Whole-Korrektur
Eigenwert
Der Eigenwert gibt an, wie viel von der Varianz aller Items durch einen Faktor erfasst wird
Einfachstruktur
Eine Einfachstruktur innerhalb der EFA liegt vor, wenn jedes Item möglichst hoch auf einen bestimmten Faktor und möglichst niedrig oder gar nicht auf andere Faktoren lädt, s. S. 109.
Exploratorische Faktorenanalyse (EFA)
Der Begriff Faktorenanalyse bezeichnet eine Gruppe statistischer Verfahren, mit denen die interne Struktur eines Satzes von Variablen auf deren nicht offen zutage tretende (latente) Zusammenhänge untersucht wird.
Die beiden häufigsten Varianten der EFA sind nach Thompson (2004) die Hauptachsenanalyse (principal axis factor analysis: PAF) und die Hauptkomponentenanalyse (principal components analysis: PCA), wobei letztere streng genommen nicht zu den faktorenanalytischen Verfahren gehört, da sie lediglich dem Zweck der Datenreduktion und Beschreibung dient.
Ziele der EFA sind dagegen die Entwicklung von Theorien über die interne Struktur psychologischer Konstrukte bzw. deren messbare Manifestationen sowie die Datenreduktion bzw. die vereinfachende Beschreibung eines Datensatzes durch Zusammenfassung von Variablen zu (übergeordneten) Faktoren.
Die Faktoren werden dabei so ausgewählt, dass sie die im ursprünglichen Datensatz enthaltenen Information möglichst gut wiedergeben (sukzessive maximale Aufklärung gemeinsamer Varianz) und sie gleichzeitig möglichst eindeutig interpretierbar sind ( -> Einfachstruktur).
Im Einzelnen lassen sich grob folgende Schritte der EFA unterscheiden:
(1) Prüfung der Voraussetzungen einer EFA (Stichworte: substantielle Korrelationen der Items untereinander, Stichprobengröße, uni- und multivariate Verteilungseigenschaften, s. S. 99-101);
(2) Auswahl der faktorenanalytischen Methode und damit Festlegung der Methode der sog. Kommunalitätenschätzung und der Faktorextraktion (Stichworte: PCA, PAF, -> ML-Faktorenanalyse, -> trimodale Faktorenanalyse);
(3) Festlegung der Anzahl der extrahierten Faktoren;
(4) Festlegung der Methode der Rotation und deren Durchführung;
(5) Inhaltliche Interpretation der Faktoren;
(6) Festlegung der Methode zur Ermittlung der Faktorwerte und ggf. Faktorenanalyse höherer Ordnung.
Zentrale Kennwerte der explorativen Faktorenanalyse sind dabei -> Faktorwert, -> Faktorladung, -> Kommunalität und -> Eigenwert.
Als Kriterien, um die Anzahl der bedeutsamen Faktoren in einer EFA zu bestimmen, können das Kaiser-Guttman-Kriterium (KG-Kriterium, Voreinstellung in SPSS), der Scree-Test, die Parallelanalyse, der Minimum-Average-Partial-Test (MAP-Test) und für die Maximum-Likelihood-Faktorenanalyse der Chi-Quadrattest herangezogen werden. Von diesen ist jedoch in erster Linie die Parallelanalyse und der MAP-Test zu empfehlen, da mit dem KG-Kriterium oft zu viele Faktoren extrahiert werden, der Scree-Test kein wirklich objektives Verfahren ist und der Chi-Quadrattest extrem von der Stichprobengröße abhängt. Eine gute Empfehlung ist auch die Verwendung mehrerer Verfahren und deren Vergleich in Kombination mit inhaltlichen Erwägungen.
Da die Anfangslösung nach Extraktion der Faktoren häufig nicht interpretierbar ist, wird diese rotiert, um zu einer aussagekräftigeren Lösung zu kommen. Ziel ist möglichst die Erreichung der Einfachstruktur. Als Rotationsklassen stehen die orthogonale, die oblique und die sog. Kriteriums- oder Prokrustes-Rotation zur Verfügung. Bei der orthogonalen (rechtwinkligen) Rotation bleibt die Unabhängigkeit der Faktoren erhalten, bei der obliquen (schiefwinkligen) Rotation wird eine Korrelation zwischen den Achsen zugelassen. Bei der Prokrustes-Rotation wird dagegen versucht, eine erwartete oder früher gefundene Faktorenstruktur anhand der empirischen Daten zu reproduzieren (im Grunde also ein konfirmatorisches Vorgehen innerhalb der EFA). Meist ist die Verwendung der obliquen Rotation zu empfehlen, da diese leichter zu interpretieren ist und die Annahme unkorrelierter Faktoren inhaltlich selten zu halten sein dürfte. Zudem führt die oblique Rotation bei tatsächlicher Unkorreliertheit der Faktoren zu einer othogonalen Lösung.
Einzelne Rotationstechniken der orthogonalen Rotation sind -> Varimax, Quartimax und Equamax (s. S. 110). Rotationstecniken der obliquen Rotation sind -> Promax und -> Direkte Oblimin-Rotation
Facettentheorie
Die Facettentheorie ist eine Methode zur Systematisierung wissenschaftlicher Fragestellungen. Sie stellt Werkzeuge zur Verfügung, um einen Merkmalsbereich vollständig einzugrenzen, in einzelne Teilmerkmale (Facetten) und deren Ausprägungen bzw. Typen zu zergliedern und die Beziehungen zwischen den Facetten darzustellen und anschließend auch empirisch zu skalieren
Faktorladung
Eine Faktorladung entspricht der Korrelation einer Variablen mit dem Faktor im Falle unkorrelierter Faktoren.
Im Falle korrelierter Faktoren handelt es sich um semipartielle standardisierte Regressionsgewichte, vergleiche S. 102.
Faktorwert
Synthetisch hergestellter Messwert, der die Ausprägung auf einem latenten Merkmal für eine Versuchsperson beschreibt. Faktorwerte werden also nicht direkt beobachtet, sondern indirekt aus den Daten berechnet und sind deshalb auch extrem stichprobenabhängig. Es existieren unterschiedliche Berechnungsmethoden, die häufigste ist die Regressionsrechnung. I. d. R. führen diese zu z-standardisierten Variablen, daher lassen sich mit Faktorwerten keine Mittelwertsvergleiche zwischen den Faktoren durchführen. Allerdings dienen Faktorwerte bei obliquer Rotation als Grundlage für eine Faktoranalyse zweiter Ordnung. Zudem können mit Faktorwerten auch Teilstichproben verglichen werden
Forced-Choice-Items
Bei Mehrfachwahlaufgaben in Persönlichkeits- und Einstellungstests werden die Probanden dazu aufgefordert, die am wenigsten oder am meisten zutreffende Alternative zu wählen. Will man sozial erwünschten Antwortverhalten entgegen wirken, kann man Antwortalternativen, die bei freier Auswahl ähnlich häufig bevorzugt würden, zusammen gruppieren mit der Instruktion, genau eine davon auszuwählen. Weitere Varianten dieses Vorgehens sind die Aufforderung, alle Antworten in eine Reihenfolge zu bringen (=> siehe Q-Sort-Technik) oder die am meisten und am wenigsten zutreffende Aussage anzukreuzen.
Lt. Bühner (2011, S. 127) ist bei diesem Antwortformat darauf zu achten, dass es “lediglich Aussagen über die relative Ausprägung einer Eigenschaft im Vergleich zu anderen Eigenschaften einer Person zulässt”.
Quelle: Bühner, M. (2011). Einführung in die Test- und Fragebogenkonstruktion (3., aktualisierte und erw. Aufl.). München: Pearson Studium.
Fremdtrennschärfe in der KTT
Fremdtrennschärfen sind Korrelationen von Items mit den Skalen oder Testwerten anderer Fragebögen oder mit Kriterien (z.B. Berufserfolg) und können insbesondere für die externale Skalenkonstruktion herangezogen werden
Gruppentest
Einer der Klassifikationsmöglichkeiten von Tests ist die Unterscheidung nach formalen Kriterien, z. B. Gruppe vs. Einzelperson (Gruppen- bzw. Individualtest)
Hauptachsenanalyse (PAF)
Bei der PAF wird die Gesamtvarianz in Gemeinsame Varianz, Spezifische Varianz und Fehlervarianz zerlegt, vgl. Abb. 4.2. Faktorisiert wird die gemeinsame Varianz. Diese ist unbekannt und muss geschätzt werden, bevor die Faktoranalyse durchgeführt werden kann, d. h. eigentlich würde man die Lösung brauchen, um die Berechnung überhaupt durchführen zu können => auch Kommunalitätenproblem genannt. Die PAF und anderen Varianten der Faktorenanalyse verwenden nun zur Schätzung der Anfangskommunalitäten meist die quadrierten multiplen Korrelationskoeffizienten R² zwischen dem jeweiligen Item und allen anderen Items, die in die Hauptdiagonale der Korrelationsmatrix eingesetzt werden. Mit Ausnahme dieser anfänglichen Kommunalitätenschätzung, die nicht von der vollständigen Aufklärung der Varianz der Items durch die Faktoren ausgeht, entspricht das rechnerische Vorgehen bei der PAF im ersten Schritt der Durchführung einer PCA. Wenn dabei nach einem bestimmten Extraktionskriterium weniger als der vollständige Satz an Komponenten extrahiert wird, entstehen aus der PCA neue Schätzungen für die Kommunalitäten. Diese werden im nächsten Iterationsschritt der PAF in die Hauptdiagonale der Korrelationsmatrix eingesetzt usw. - der Algorithmus der PAF ist also tatsächlich iterativ. Der Prozess wird solange fortgesetzt, bis die Schätzungen nach einem festgelegten Abbruchkriterium konvergieren, d.h. die neue Schätzung sich nicht mehr wesentlich von der vorherigen unterscheidet. Nach Thompson (2004) wird das Konvergenzkriterium manchmal allerdings nicht erreicht, meist wegen einer relativ zur Zahl der Variablen zu geringen Stichprobengröße.
Hauptkomponentenanalyse (PCA)
Das Prinzip der PCA besteht darin, aus dem Variablensatz einen Satz neuer Variablen (Komponenten) zu extrahieren, die nach ihrer Bedeutung geordnet sind, indem jede Komponente ein Maximum der gesamten (verbleibenden) Varianz aller beteiligten Variablen aufklärt. Die Berechnung erfolgt im Gegensatz zur Hauptachsenanalyse in einem Schritt. Da auch die spezifische Varianz und der Fehler auf die Komponenten aufgeteilt wird, ist das Ergebnis nicht sinnvoll interpretierbar. Allerdings ist der neue Variablensatz, im Gegensatz zum alten, nach Varianzaufklärung geordnet. Wenn man die alten Variablen standardisiert, besitzen sie alle eine Varianz von Eins, während die erste Hauptkomponente eine wesentlich größere standardisierte Varianz (sog. -> Eigenwert) besitzt, die letzten extrahierten Komponenten dagegen Eigenwerte kleiner Eins. Wenn man von diesen Komponenten die ersten beibehält, gewinnt man relativ viel; wenn man die letzten fallen lässt, verliert man relativ wenig. Es geht also darum, einen Satz von Komponenten zu finden, der mit einem Minimum an Komplexität (gemessen an der Zahl der Variablen) ein Maximum an Information des ursprünglichen Datensatzes bewahrt => die PCA ist ein datenreduzierendes Verfahren.
ICC, Item Characteristic Curve
Die ICC ist eine logistische Funktion für ein Item in der PTT. Siehe auch =>Trennschärfe.