Probeklausur Flashcards
Welche Verzerrungstendenzen gibt es im diagnostischen Prozess?
Unter Verzerrungstendenzen im diagnostischen Prozess versteht man solche, die auf Seiten des Diagnostikers auftreten können. Es ist wichtig, sich dieser bewusst zu sein und entsprechende Maßnahmen zu ergreifen, um Verzerrungstendenzen weitestgehend zu minimieren und eine möglichst objektive und zuverlässige diagnostische Einschätzung zu gewährleisten.
- Repräsentativitätsheuristik:
- Verfügbarkeitsheuristik:
- Simulationsheuristik:
- Ankereffekte:
- Voreilige Schließungen:
- Bestätigungsfehler:
- Affektive Reaktionen:
Welche Verzerrungstendenzen gibt es im Selbstbericht?
- Soziale Erwünschtheit (Impression-Management): Tendenz, in Abhängigkeit von der vermuteten gesellschaftlich-sozialen Erwartung vermeintlich sozial akzeptierte Merkmale als stärker ausgeprägt darzustellen. Bewusste Dissimulation von Reaktionen oder die Kontrolle von Reaktionen, um bei anderen einen positiven Eindruck zu hinterlassen ( → Fremdtäuschung)
- Selbsttäuschende Erhöhung (Self-enhancement): Tendenz zur Positiven Verzerrung im Antwortverhalten, um das Selbstbild zu schützen bzw. das Selbstwertgefühl aufrechtzuerhalten (→ Selbsttäuschung)
- Akquieszenz: Tendenz, Aussagen in einem Fragebogen zuzustimmen
- Tendenz zur Mitte/Infrequenz: Tendenz bei ungerader Anzahl von Antwortmöglichkeiten die mittlere auszuwählen
- Tendenz zu Extremantworten: Tendenz, möglichst demonstrativ zu antworten. Unter Umständen ohne inhaltlichen Bezug zur Fragestellung.
- Simulation: Vortäuschen von Krankheitssymptomen (z.B. stellt sich eine Person als weniger leistungsfähig dar, als sie es tatsächlich sind)
- Aggravation: Bewusste Übertreibung vorhandener Krankheitssymptome
- Dissimulation: Bagatellisieren oder Weglassen von Symptomen, obwohl sie vorhanden sind
Wie kann man den Einfluss von Verzerrungstendenzen im diagnostischen Prozess reduzieren?
- Regelgeleitete Hypothesengenerierung und -prüfung im diagnostischen Prozess, um fundierte Entscheidungen zu treffen.
- Integration verschiedener methodischer Zugänge und verschiedener Datenquellen, um ein umfangreiches Bild zu erhalten (Selbst- und Fremdbeurteilungen, Persönlichkeits- und Leistungsdaten).
- Erfassen von Informationen zu verschiedenen Situationen und Zeitpunkten, um ein ganzheitliches Verständnis zu entwickeln.
- Bestimmung der Interrater-Reliabilität, um die Übereinstimmung zwischen den Beurteilern zu überprüfen und die Zuverlässigkeit diagnostischer Urteile sicherzustellen.
- Transparenz diagnostischer Entscheidungen: Explizite und transparente Darstellung des Zustandekommens diagnostischer Entscheidungen, wobei Anleitungen zur Standardisierung des diagnostischen Vorgehens sowie Prozesses hilfreich sein können (z.B. DIN 33430, AERA/APA-Standarts)
- Bewusstmachung von Verzerrungstendenzen und Fehlerquellen bei der Informationsverarbeitung sowie Schulungen und Strategien zur Erkennung und Reduktion dieser Verzerrungstendenzen (z.B. durch Supervision, Interviewschulung)
Wie kann man die diagnostische Genauigkeit von Gutachten erhöhen?
- Nutzen für den Auftraggeber: Das Gutachten sollte die Fragestellung des Auftraggebers beantworten und innerhalb des vereinbarten Zeitrahmens erstellt werden. Die Relation von Kosten und Nutzen sollte angemessen sein.
- Lesbarkeit, Verständlichkeit und Nachvollziehbarkeit: Das Gutachten sollte eine klare und verständliche Struktur aufweisen, eine verständliche Wortwahl verwenden und Fachbegriffe erklären. Die Fragestellung sollte strukturiert sein und Ergebnisse sollten von Interpretationen klar getrennt sein.
- Nachprüfbarkeit: Das Gutachten sollte die Quellen der diagnostischen Informationen angeben, den Untersuchungsablauf dokumentieren und Auswertungsmethoden sowie Beurteilungskriterien explizieren.
- Überzeugungskraft: Das Gutachten sollte die Fragestellung konkret beantworten und relevante Aspekte nicht unbeantwortet lassen oder irrelevante Aspekte einschließen. Die Kommunikation zwischen Gutachter und Auftraggeber sollte Missverständnisse vermeiden und präzise Fragestellungen sicherstellen.
Tabelle mit Mittelwerten ausfüllen.
Skalenwert Mittelwert Standardabweichung
z-Werte 0 1
T-Werte 50 10
IQ-Werte 100 15
Z-Werte 100 10
C-Werte 5 2
Sten-Werte 5,5 2
Stanine-Werte 5 2
Gütekriterien der Testkonstruktion.
Die Qualität diagnostischer Verfahren wird anhand von Testgütekriterien beurteilt. Die Optimierung dieser Kriterien ist wichtig sowohl für die Auswahl der Verfahren als auch für die Entwicklung diagnostischer Instrumente. In diesem Zusammenhang werden die Hauptgütekriterien (Objektivität, Reliabilität und Validität) sowie die Nebengütekriterien und deren Wechselbeziehungen behandelt.
- Objektivität (Unabhängigkeit): Die Objektivität bezieht sich darauf, dass diagnostische Erhebungen oder Tests unabhängig vom Testleiter, den Testsituationsmerkmalen, den Rahmenbedingungen, den Auswertern und den interpretierenden Personen sein sollten. Dies wird durch eine Standardisierung der Durchführungs- Auswertungs- und Interpretations-Bedingungen erreicht. Es gibt drei Arten von Objektivität:
• Durchführungsobjektivität (Unabhängigkeit von den Personen, die das Verfahren durchführen. Wird erreicht durch: Standardisierung der Testsituation (einheitliche Materialien, Zeitvorgaben, Instruktionen, etc.)
• Auswertungsobjektivität (Unabhängigkeit von den Personen, die das Verfahren auswerten. Wird erreicht durch: Eindeutige Quantifizierung des zu bewertenden Sachverhalts)
• Interpretationsobjektivität (Unabhängigkeit von den Personen, die die Ergebnisse interpretieren. Wird erreicht durch: Normwerte)
- Reliabilität (Zuverlässigkeit): Die Reliabilität oder Zuverlässigkeit eines diagnostischen Verfahrens beschreibt die Messgenauigkeit bei wiederholter Anwendung an einer Gruppe von Personen. Es geht dabei um die Konsistenz und Wiederholbarkeit der numerischen Ergebnisse, unabhängig von dem gemessenen Konstrukt. Die Reliabilität wird in der Klassischen Testtheorie (KTT) behandelt, die als minimaler Rahmen für das Verständnis von Reliabilität dient.Die klassische Testtheorie beinhaltet Annahmen, die erforderlich sind, um die wahren Werte anhand der Mittelung gemessener Werte zu schätzen und um zugleich Angaben über die Genauigkeit dieser Schätzung (Reliabilität) zu machen. Die KTT basiert auf folgenden mehreren zentralen Annahmen:
• Die erste Annahme besagt, dass ein beobachteter Messwert einer Person (X) aus einem wahren Wert (T) und einem Messfehler € besteht. Bei wiederholten Messungen desselben Merkmals unter denselben Bedingungen sollten die Abweichungen zwischen den Messungen als Maß für den Messfehler verwendet werden. (→ X = T + E)
• Die zweite Annahme des KTT geht davon aus, dass der Mittelwert der Messfehler € über unendlich viele Messungen bei einer Person null ist. Das bedeutet, dass sich die zufälligen Schwankungen der Messfehler bei einer großen Zahl von Messungen zu null herausmitteln.
• Die dritte Annahme der KTT ist, dass der Erwartungswert der Korrelationen zwischen den Messfehlern und den wahren Werten null ist. Das bedeutet, dass keine systematischen Zusammenhänge zwischen den Messfehlern und den wahren Werten bestehen.
• In der vierten Annahme der KTT wird die Annahme paralleler Messungen gemacht, bei denen dieselben wahren Werte gemessen werden und die dieselben Varianzen haben.
Vereinfachte Darstellung des KTT:
• Gemessene Werte setzen sich aus wahren Werten und Messfehlern zusammen (1. Annahme)
• Messfehler sind zufällig, daher nicht miteinander korreliert (3. Annahme)
• Und auch nicht mit dem wahren Wert korreliert (4. Annahme)
• Damit ist der Erwartungswert null (2. Annahme)
• Mittelung dieser Werte führt zur Schätzung des wahren Wertes
- Validität (Gültigkeit): Validität, d. h. die „Gültigkeit“ einer Messung, ist zugleich das wichtigste und das am schwierigsten zu definierende Gütekriterium diagnostischer Verfahren. Validität bezieht sich auf das Ausmaß, in dem eine Messung den Inhalt eines Konstrukts gemäß wissenschaftlichem Standard abbildet und die Interpretation der Testergebnisse unterstützt. Es lassen sich hierbei zwei Bedeutungsfacetten unterscheiden:Zum einen geht darum sicherzustellen, dass ein diagnostisches Verfahren tatsächlich das misst, was es vorgibt zu messen, denn dann gilt ein Test auch als valide. Zum anderen bezieht sich Validität nicht nur auf den Test selbst, sondern impliziert auch die Interpretation der Testergebnisse bzw. Werte und Verwendung des Verfahrens (=Schlussfolgerung). Es gibt verschiedene Artenbzw. Facetten der Validität, wie Kontentvalidität (Inhaltsvalidität), Kriteriumsvalidität und Konstruktvalidität, die helfen, die Validität sicherzustellen und die angemessene Interpretation der Ergebnisse zu gewährleisten.
- Skalierung: Die in Tests verbal ausgedrückten Merkmale in adäquate mathematische numerische Zahlen umformen.
- Normierung: Ein normiertes Bezugssystem verwenden
- Testökonomie:
- Nützlichkeit:
- Zumutbarkeit:
- Unverfälschbarkeit:
- Messäquivalenz:
- Akzeptanz:
- Testfairness
Psychologisches Gutachten: ethische/rechtliche Standards.
Die wesentlichen Standards bei der psychologischen Begutachtung dienen dazu, die Qualität, Integrität und Verantwortlichkeit der Gutachten sicherzustellen. Sie umfassen ethische und rechtliche Standards sowie fachliche Standards. Diese Standards dienen dem Schutz der Rechte und Interessen der Betroffenen, der Sicherstellung von Gerechtigkeit und Fairness sowie der Gewährleistung der Qualität und Verlässlichkeit der psychologischen Begutachtung.
a) Ethische und rechtliche Standards:
• Einhaltung von Schweigepflicht und Offenbarungspflicht
• Transparenz im diagnostischen Prozess
• Fairness und Respekt gegenüber dem Klienten
• Neutralität, Objektivität, Unabhängigkeit, Unbestechlichkeit
b) Fachliche Standards: Diese Standards beziehen sich auf die fachliche Kompetenz und Qualität der Gutachten
• hinreichende fachliche Qualifikation
• wissenschaftsorientiertes Vorgehen bei der Bearbeitung der Fragestellung
Facetten der Validität und Beispielhafte Fragestellung.
Die Kontentvalidität (Inhaltsvalidität): Die Kontentvalidität bezieht sich darauf, ob eine Auswahl von Items oder Aufgaben eine repräsentative Stichprobe eines relevanten Itemuniversums darstellt. Ein Test ist also inhaltsvalide, wenn er das zu messende Merkmal inhaltlich angemessen erfasst, die Testitems inhaltlich unterschiedliche Aspekte des Itemuniversums repräsentieren und somit eine umfassende Darstellung des Merkmals ermöglichen.Es ist wichtig, das Itemuniversum zu definieren und eine Stichprobe daraus zu ziehen, um sicherzustellen, dass die Inhalte des Tests das zu messende Merkmal angemessen abbilden. Wenn das Itemuniversum nicht klar definiert werden kann, kann man sich auf Kriteriumsvalidität und/oder Konstruktvalidität konzentrieren.Das kriteriumsorientierte Testen basiert auf der Annahme der Kontentvalidität und setzt diese auch voraus. Es bezieht sich auf die Bewertung einer Person anhand eines bestimmten Kriteriums oder einer bestimmten Fähigkeit. Dabei wird festgestellt, ob eine Person ein bestimmtes Kriterium erfüllt oder nicht.
Die Kriteriumsvalidität: Die Kriteriumsvalidität bezieht sich auf die Bestimmung der Gültigkeit eines diagnostischen Verfahrens durch die Korrelation mit einer Zielvariable (= Kriterium). Bei der Kriteriumsvalidierung kann man also praktisch bzw. gesellschaftlich relevante Zielvariablen verwenden, die in der Regel als Außenkriterium bezeichnet werden. Die Kriteriumsvalidität bezieht sich darauf, wie gut die Testergebnisse mit externen Variablen, auch Außenkriterien genannt, zusammenhängen. Diese Außenkriterien repräsentieren Konstrukte wie zum Beispiel Berufserfolg, die mit der Testleistung, zum Beispiel Intelligenzleistung, in Verbindung stehen können oder sollen. Durch den Test können Merkmale vorhergesagt werden, die mit dem zu erfassenden Konstrukt zusammenhängen. Wenn es eine starke Korrelation zwischen den Testergebnissen und den Außenkriterien gibt, gilt das Verfahren als valide. In diesem Fall wird versucht, anhand der Intelligenzleistung den Berufserfolg vorherzusagen.
Die Kriteriumsvalidität umfasst wiederum 3 Facetten:
1. Prognostische Validität: Diese Form der Kriteriumsvalidität bezieht sich auf die Vorhersage eines Kriteriums, das zu einem späteren Zeitpunkt gemessen bzw. erhoben wird. Es liegt also ein relevanter Zeitraum zwischen der Messung des Prädiktors und dem jeweiligen Kriterium.
2. Konkurrente Validität: Diese Form der Kriteriumsvalidität bezieht sich darauf, dass der Prädiktor und das Kriterium nahezu zeitgleich erfasst werden. Hierbei werden der Prädiktor und das Kriterium zum selben Zeitpunkt gemessen.
3. Retrograde Validität: Diese Form der Kriteriumsvalidität bezieht sich darauf, dass das Kriterium schon zeitlich vor der Testkonstruktion bzw. -validierung erhoben wurde
Die Konstruktvalidität: Konstruktvalidität bezieht sich darauf, inwieweit ein Test tatsächlich das misst, was er zu messen vorgibt. Dabei wird untersucht, ob die gemessenen Ergebnisse mit den theoretischen Überlegungen zu den Konstrukten übereinstimmen. Konstruktvalidität ist wichtig, um sicherzustellen, dass ein Test die beabsichtigten Merkmale korrekt erfasst. Unterschiedliche Untersuchungsmethoden wie z.B. korrelative Untersuchungen, (quasi) experimentelle Untersuchungen oder psychophysiologische Messungen werden eingesetzt, um die Konstruktvalidität zu überprüfen.
Formen der Konstruktvalidität:
• Konvergente Validität: Die Werte eins diagnostischen Verfahrens korrelieren hoch mit Werten eines anderen Verfahrens, das dasselbe Merkmal misst. (hohe Korrelation zwischen unterschiedlichen Tests die die Intelligenz erfassen z.B. WISC IV und KABC II)
• Diskriminante Validität: Ein diagnostisches Verfahren korreliert niedrig mit einem anderen Verfahren, das ein anderes Merkmal misst. (keine Korrelation zwischen einem Intelligenztest und einem Selbstwertfragebogen)
Die Augenscheinvalidität: Hierbei handelt es sich um eine vierte Validitätsfacette (neben Konstrukt-, Inhalts -, und Kriteriumsvalidität). Augenscheinvalidität ist gegeben, wenn Laien bzw. Probanden der Meinung sind, dass ein Inventar (Reihe von standardisierten Fragen, Aussagen oder Aussagen, auf die die Teilnehmer antworten sollen) das Merkmal misst, das es messen soll. Insofern könnte man Augenscheinvalidität auch als die Transparenz eines Inventars ansehen. Eine hohe Augenscheinvalidität ist also gegeben, wenn man anhand der Items offensichtlich erkennen kann, auf welches Konstrukt anhand der Testwerte geschlossen werden soll.
• Vorteile: Die Augenscheinvalidität erhöht die Akzeptanz und Motivation der Versuchsperson. Wenn ein Test durch die Transparenz des Messinstruments klar erkennbar ist, steigt die Wahrscheinlichkeit, dass die Person bereitwillig und motiviert daran teilnimmt.
• Nachteile: Es kann in bestimmten Situationen zu Verfälschungen der Angaben kommen, da die Probanden beispielsweise einen guten Eindruck hinterlassen möchten, indem sie ihre Antworten an sozialen Normen oder Erwartungen anpassen, anstatt ihre wahren Gedanken oder Verhaltensweisen zu reflektieren. Dies wird als soziale Erwünschtheit bezeichnet.
Gütekriterien/Itemauswahl.
Itempool erstellen: Zunächst wird ein Itempool zusammengestellt. Dabei ist es wichtig, dass die Items relevante Aspekte des zu erfassenden Konstrukts abdecken und den Bereich, der abgebildet werden soll, repräsentativ darstellen. Es gibt verschiedene Strategien, die bei der Itemkonstruktion und -auswahl angewendet werden können, abhängig von den Zielen des Tests. Dazu gehört z.B. die Rationale Testkonstruktion, bei der Items eng an theoretischen Überlegungen zum Konstrukt erstellt werden.
Itemanalyse: Expertenurteile und Prozessanalysen helfen bei der Auswahl geeigneter Items aus dem zuvor erstellten Itempool. Anschließend werden empirische Untersuchungen durchgeführt, um die psychometrische Güte der Items zu überprüfen:
- Expertenurteil: Der Itempool wird Experten vorgelegt die prüfen, ob die Items aus fachlicher Sicht i.O. sind.
- Prozessanalysen: Durchführung des Tests an einer kleinen repräsentativen Stichprobe und Nutzen des „lauten Denkens“ während der Bearbeitung, um Quellen von Unklarheiten und Schwierigkeiten zu identifizieren und anschließend zu eliminieren.
- Empirische Untersuchungen: Anschließende empirische Untersuchung der psychometrischen Güte der Items und Itemanalyse anhand eines testheoretischen Modells.
Itemauswahl nach folgenden Gütekriterien:
1. Passung zum Modell: Items müssen den Anforderungen des psychometrischen Modells entsprechen
2. Schätzgenauigkeit: Items auswählen, die einen hohen Beitragt zur Schätzung des latenten Merkmals leisten
3. Ökonomie:
4. Zumutbarkeit:
5. Testfairness:
6. Unverfälschbarkeit: Personen sollten die Antworten nicht durch ihr Testverhalten verzerren können
Anforderungsanalyse
Definition: Die Anforderungsanalyse bezieht sich auf den Prozess der Festlegung der erforderlichen Merkmale und Informationen, die im diagnostischen Prozess erhoben werden sollen. Sie befasst sich damit, wie die verschiedenen Informationen reduziert und integriert werden können, um Entscheidungen zu treffen. Es gibt zwei Modelle, die in der Anforderungsanalyse verwendet werden können: das kompensatorische Modell und das konjunktive Modell:
Kompensatorisches Modell: Im kompensatorischen Modell können Schwächen in einer Merkmalsdimension durch Stärken in einer anderen Merkmalsdimension ausgeglichen werden. Das bedeutet, dass zum Beispiel unterdurchschnittliche Leistungen in figuralen Aufgaben durch überdurchschnittliche Leistungen in verbalen Aufgaben kompensiert werden können. Mit anderen Worten, wenn eine Person in einem bestimmten Bereich eine Schwäche aufweist, kann sie dies durch ihre Stärke in einem anderen Bereich ausgleichen.
Konjunktives Modell: Nach dem konjunktiven Modell werden Mindestleistungen für ein oder mehrere Merkmale festgelegt. Zum Beispiel könnte festgelegt werden, dass ein Versicherungsvertreter durchschnittlich extravertiert, durchschnittlich freundlich und durchschnittlich gute Rechenfähigkeiten haben sollte. Bei diesem Modell müssen alle relevanten Merkmale entsprechend der Mindestanforderung erfüllt sein (UND-Verknüpfung). Das heißt, alle Mindestanforderungen müssen erfüllt sein, um als geeignet zu gelten. Darüber hinaus kann in der Anforderungsanalyse auch festgelegt werden, ob nicht alle, sondern nur ein oder mehrere Merkmalsausprägungen den Mindestanforderungen entsprechen müssen (ODER-Verknüpfung). Dies bedeutet, dass beispielsweise ein Versicherungsvertreter entweder durchschnittlich extravertiert oder durchschnittlich freundlich sein oder durchschnittliche Rechenfähigkeiten aufweisen muss.
Insgesamt dienen die Anforderungsanalyse und die verwendeten Modelle dazu, die Anforderungen für bestimmte Positionen oder Aufgaben zu definieren und sicherzustellen, dass die erforderlichen Merkmale und Fähigkeiten angemessen berücksichtigt werden.
Problemlöseprozess Doherty
Sloves, Doherty und Schneider schlugen ein Modell vor, das den diagnostischen Prozess als einen Problemlösungsprozess beschreibt. Dabei werden 6 Phasen differenziert:
1. Problemklärung
2. Planung
3. Entwicklung
4. Implementierung
5. Ergebnisfindung
6. Weitergabe
Klinische vs. Statistische Urteilsbildung
Klinische Urteilsbildung: Unter klinischer Urteilsbildung versteht man die Integration von Informationen auf der Grundlage subjektiver, intuitiver und informeller Einschätzungen, um zu einem diagnostischen Urteil zu gelangen. Dies bedeutet, dass der Diagnostiker sein Fachwissen, seine Erfahrung und seine persönlichen Einschätzungen nutzt, um eine Entscheidung zu treffen.
Statistische Urteilsbildung: Auf der anderen Seite steht die statistische Urteilsbildung, bei der Informationen mithilfe fester Regeln, Formeln und Algorithmen zu einem diagnostischen Urteil integriert werden. Hierbei werden Zusammenhänge zwischen Prädiktor- und Kriteriumsvariablen berücksichtigt. Es werden Daten analysiert und statistische Modelle verwendet, um Vorhersagen über bestimmte Kriterien zu treffen.
Es ist wichtig zu beachten, dass im diagnostischen Prozess oft beide Strategien der Urteilsbildung zum Einsatz kommen können. Die Entscheidung darüber, welche Methode verwendet werden soll, hängt von verschiedenen Faktoren ab, einschließlich der Art des diagnostischen Problems, der Verfügbarkeit von Daten und Ressourcen sowie den individuellen Präferenzen des Diagnostikers.
Diskussion: In Bezug auf die Frage, welche Methode besser ist, gibt es seit langem eine kontroverse Diskussion. Paul E. Meehl, ein prominenter klinischer Psychologe, führte Untersuchungen durch, um herauszufinden, ob statistische Auswertungen zu besseren Vorhersagen und Therapieentscheidungen führen als klinische Auswertungen. Es wurden Metaanalysen durchgeführt, um den Nutzen beider Methoden empirisch zu untersuchen und zu vergleichen.
Es ist schwierig, eindeutig zu sagen, welche Methode generell besser ist, da es von vielen Faktoren abhängt. Statistische Urteilsbildung bietet den Vorteil der Objektivität und der Berücksichtigung großer Datenmengen. Es kann jedoch sein, dass bei komplexen oder individuellen Fällen zusätzliche klinische Einschätzungen und Erfahrungswerte notwendig sind, um eine fundierte Entscheidung zu treffen.Insgesamt ist es sinnvoll, beide Strategien der Urteilsbildung zu nutzen und ihre jeweiligen Stärken zu berücksichtigen. Eine gute diagnostische Expertise sollte darauf abzielen, transparente Entscheidungsregeln zu entwickeln, die den diagnostischen Prozess objektiver, reliabler und valider machen. Es ist auch wichtig, sich der Einflüsse und Verzerrungstendenzen der Informationsverarbeitung bewusst zu sein und sie zu minimieren, um die Qualität der diagnostischen Urteile zu verbessern.
Welche Koeffizienten zur Schätzung der Reliabilität gibt es? / Nenne 4 Arten der Reliabilitätsbestimmung. / Wie kann Reliabilität untersucht werden?
- Retest-Reliabilität: Bei der Retest-Reliabilität werden dieselben Messungen an einer Gruppe von Personen zu zwei verschiedenen Zeitpunkten durchgeführt. Die Bravais-Pearson-Korrelation zwischen den beiden Messungen wird als Schätzer für die Reliabilität verwendet. Dies setzt voraus, dass die Unterschiede in den Merkmalen zwischen den Personen zu den beiden Zeitpunkten gleich sind.
- Paralleltest-Reliabilität: Bei der Paralleltest-Reliabilität werden zwei verschiedene Messverfahren (Paralleltests) verwendet, um dasselbe Merkmal zu messen. Die Tests werden zu zwei Messzeitpunkten durchgeführt, um Erinnerungseffekte zu minimieren. Die Aufgabe bzw. Schwierigkeit besteht darin, zwei parallele Tests zu entwickeln, die aus verschiedenen Items bestehen, die das Merkmal allerdings in gleicher Weise, also mit denselben psychometrischen Eigenschaften messen. Die Reliabilität wird anhand der Korrelation zwischen den Ergebnissen der beiden Tests geschätzt.
- Testhalbierungs-Reliabilität: Bei der Testhalbierungs-Reliabilität werden die Items einer einzigen Messung in zwei Hälften aufgeteilt, um parallele Messungen zu erzeugen. Die Korrelation zwischen den beiden Testhälften wird als Schätzer für die Reliabilität verwendet. Es ist wichtig sicherzustellen, dass die Items in beiden Hälften das gleiche Merkmal messen. Diese Methode ermöglicht es, die Reliabilität zu schätzen, wenn keine Paralleltests verfügbar sind.
- Cronbachs Alpha: Cronbachs Alpha ist ein Koeffizient, der eine Schätzung der Reliabilität eines Tests oder Inventars basierend auf allen möglichen Split-Half-Koeffizienten der Items liefert. Es ist eine Maßzahl für die interne Konsistenz der Testitems. Die Items müssen dasselbe Merkmal messen, damit Cronbachs Alpha sinnvoll berechnet werden kann. Es wird oft verwendet, um die Reliabilität von Tests zu schätzen, die in mehrere Subtests unterteilt sind.
Welche Möglichkeiten gibt es, Verzerrungstendenzen in Fragebögen zu messen?
- Fragebögen und Skalen:
- Antworttendenzen:
- Indirekte Maße:
Nennen Sie Vor- und Nachteile von Fragebögen.
Vorteile:
• Personen können am besten selbst über sich Auskunft geben
• Es gibt eine breite Verfügbarkeit standardisierter Fragebögen
• Fragebögen sind praktikabel und ökonomisch und einfach in der Anwendung
• Menschen berichten normalerweise gerne über sich, was die Akzeptanz erhöht
• Fragebögen liegen zur Erfassung vieler Persönlichkeitsmerkmale vor (incl. Verzerrungstendenzen)
• Vergleiche mit anderen Personen sind auf der Basis von Normen möglich
Nachteile:
• Personen können sozial erwünschte Antworten generieren, die die Konstruktvalidität des Inventars beeinflussen kann
• Setzt Introspektion voraus
• Bei Interneterhebungen kann oftmals nicht kontrolliert werden, wer die Aussagen tatsächlich bearbeitet
• Beim Beantworten wird auf bestimmte Situationen oder Zeitpunkte fokussiert, was die Generalisierbarkeit einschränken kann