Psychologische Diagnostik für Fortgeschrittene Flashcards
Was ist der Act-of-Frequency Approach und wie wird dabei das implizite Wissen der Menschen in die Itemerstellung einbezogen?
- ist ein Ansatz zur Erfassung der Persönlichkeitseigenschaften
- zielt auf die Identifizierung der Häufigkeit eines beobachteten Merkmals ab
- Annahme: Persönlichkeitseigenschaften lassen sich besser durch Verhaltensweisen erklären, messen, beschreiben
- Items benutzen implizites Wissen -> Personen nennen konkrete Verhaltensweisen, welche sie mit bestimmtem Persönlichkeitsmerkmal in Verbindung bringen
Schritte der Skalenkonstruktion bei Act of Frequency Approach
- Identifikation prototypischer Verhaltensakte:
Versuchspersonen werden gebeten, sich eine bekannte Person vorzustellen, die eine bestimmte Eigenschaft besonders stark verkörpert. Sie sollen Handlungen dieser Person benennen, die die betreffende Eigenschaft gut zum Ausdruck bringen. - Bewertung der Prototypizität:
Die benannten Handlungen werden von anderen Probanden hinsichtlich ihrer Prototypizität für die zu messende Eigenschaft eingeschätzt. Es wird ermittelt, wie stark die Handlungen als typisch für die Eigenschaft wahrgenommen werden. - Auswahl prototypischer Handlungen:
Besonders prototypische Handlungen werden ausgewählt, um als Testitems verwendet zu werden. Die Auswahl basiert auf der Bewertung der Probanden. - Formulierung der Testitems:
Die ausgewählten prototypischen Handlungen werden in Testitems übersetzt, die zur Messung der gewünschten Eigenschaft verwendet werden können.
Dieser Ansatz zeichnet sich dadurch aus, dass er die Häufigkeit prototypischer Verhaltensweisen als Grundlage zur Definition von Eigenschaften verwendet und eine systematische Einbindung von implizitem Wissen der Probanden zur Skalenkonstruktion ermöglicht
Definition Verhaltensbeobachtung
- Erfassen und Protokollieren von Aspekten der menschlichen Handlungen und Reaktionen
- Aspekte können sinnlich oder apparativ wahrgenommen werden
- Aspekte sind nicht sprachlich oder schriftlich
Hauptgründe für mangelnde Reliabilität nach Wittchen
- Variation der Fragen bezüglich der pathologischen Symptome
- Unterschiede zwischen Symptominformationen der Befragten
- Variation der zeitlichen Kriterien
- Interpretation der Informationen
- Interpretation der diagnostischen Kriterien
- Zufällige Fehler während des Zuhörens oder Kodieren
Was ist Wahrnehmung?
- Prozess, durch den Menschen und andere Lebewesen Informationen aus ihrer Umwelt durch Sinnesorgane wie Augen, Ohren, Haut, Nase und Zunge aufnehmen, verarbeiten und interpretieren.
Beschreiben Sie die typischen Wahrnehmungsfehler
Wahrnehmungsfehler:
- können dazu führen, dass die Beurteilung eines Testergebnisses verzerrt
Konsistenzeffekte:
- Halo-Effekt: Urteile werden in Abhängigkeit von einem besonders hervorstechenden Merkmal gebildet
- Primacy-Effekt: Früher erhaltene Informationen werden als beeinflussender Wahrgenommen als spätere
Projektion:
- Beobachter erkennen bei anderen: was sie selbst bei sich sehen, sehen wollen oder nicht sehen wollen
Beobachtererwartungseffekte / Rosenthal- / Pygmalion-Effekte:
- Weiß der Beobachter über den Zweck / die Hypothesen der Untersuchung bescheid und bildet sein Urteil auf Basis dessen, so ist es möglich, dass er in besondere Weise auf passende Merkmale achtet
Emotionale Valenzen
- Personen werden vom Beobachter als positiver Beurteilt, wenn die beobachtete Person ihm angenehm erscheint / Mitleid empfunden wird
- Gegenteiliges geschieht, wenn der Beobachtete als Unangenehm beurteilt wird
Logische / Theoretische Fehler
- Urteilsbidlung auf Grundlage impliziter Persönlichkeitstheorie
-> irrelevante Hinweisreize vermitteln bestimmte Eigenschaften
- Bsp. Brillenträger sind intelligenter -> Urteilsverzerrung
Observer Drift
- Veränderung des “Standards” durch unpräzisere Beobachtungen
-> Ausgelöst durch: Vergessen der Kriterien, Ermüdung, verlieren von Motivation, etc.
- Aber auch positiv möglich durch zunehmende Übung des Beobachters, gezieltes Achten auf Hinweise, etc.
Consensual Drifts:
- Alle Beobachter zeigen gleichförmige Observer Drifts auf
-> können zur Übereinschätzung von Maßen der Beurteilseinstimmung führen
Phasen des multimodalen Interviews
- Gesprächsbeginn
- Begrüßung, Infos, Ablauf, keine Beurteilung - Selbstvorstellung des Interviewten
- Freie Form über Werdegang + berufliche Entwicklung, Berufswahl + berufsbezogene Erwartung - Freier Gesprächsteil
- Offene Fragen an Bewerber, welche sich aus Darlegung und Bewerbung ergeben, Bewertung in summarischer Form - Berufsinteressen, Berufs- / Organisationswahl
- Fragen zu Berufsinteressen, Motiven, Hintergründen der Berufswahl, Arbeitgeberwechsels, Selbsteinschätzung, Selbstbild. Bewertung anhand verhaltenseinstufender Skalen - Biografiebezogene Daten
- Informationserhebung zu allen Anforderungsdimensionen, Verhaltensbeispiele erfragen (von weit nach eng gefasst), Auswertung anhand Skalen - Realistische Tätigkeitsinformation
- Informationen an Kandidaten über Ausbildung und Tätigkeit, Anforderungen, Unternehmen, Möglichkeit zur Nachfrage - Situative Fragen
- Schilderung einer erfolgskritischen Situationen und Frage nach Verhalten. Auswertung anhand Einstufungshilfen - Gesprächsabschluss
- Kandidat darf Fragen stellen, Unklarheiten klären, weiteres Vorgehen, organisatorisches
Richtlinien bei der Formulierung von Items
- Keine Wiederholungen
- Pro Item nur eine Frage
- Keine Mehrdeutung
- Positiv formulierte Fragen
- Keine Fachsprache
- Nur Fragen stellen, die Befragten betreffen
- Keine Suggestivfragen
- Intime Fragen vermeiden
- Belanglose Fragen vermeiden
- Boden- und Deckeneffekte vermeiden
Kernaussagen des induktiven und deduktiven Ansatzes der Skalenkonstruktion
Induktiver Ansatz:
1. Datenorientierung: Skalenkonstruktion wird aus empirischen Daten abgeleitet, Analyse von Variablen erfolgt aus großem Itempool, ohne, dass zugrundeliegende Theorie vorausgesetzt wird
2. Explorative Herangehensweise: Statistische Methoden wie Faktorenanalyse werden genutzt um die Struktur der Daten zu identifizieren und daraus Dimensionen oder Skalen abzuleiten
3. Itemselektion: Auswahl von Items erfolgt datengetrieben, basierend auf deren statistischen Eigenschaften und der Fähigkeit, die zugrunde liegenden Dimensionen zu repräsentieren
- Vorteil: Geeignet um neue Konstrukte zu entdecken / bestehende zu validieren (Homogene Skalen)
- Nachteil: hoher Konstruktionsaufwand, kann schwierig sein, psychologische Bedeutung der Faktoren ohne theoretischen Rahmen zu interpretieren
Deduktiver Ansatz:
1. Theoriegeleitet: Klare Theorien oder Konzepte bilden Grundlage für diese Skalenbildung. Items werden so gestaltet, dass sie die theoretischen Konstrukte direkt messen
2. Itemgenerierung: Items werden aus theoretischen Überlegungen abgeleitet, um spezifische Konstrukte abzubilden (Bsp. Intelligenz / Extraversion)
3. Validierung: Überprüfung der Skala erfolgt durch empirische Tests, wobei die Validität aus der Richtigkeit der zugrunde liegenden Theorie abgeleitet wird
- Vorteil: Klare theoretische Grundlage, ermöglicht gezielte Messung, ökonomischer
- Nachteil: Stark abhängig von Qualität und Tragfähigkeit der Theorien, wenig geeignet für explorative Fragestellungen, durchschaubar und verfälschbar
Drei Segmentierungen von Verhaltensbeobachtung
- Globalsegmentierung:
- beinhaltet gesamte Beobachtungsspanne und ist sinnvoll für Erfassung von Häufigkeiten in z.B. einem Video (sehen wie Person lacht) - Formale Segmentierung:
- Aufteilung der Beobachtungseinheiten erfolgt auf rein zeitlichen Kriterien, nicht inhaltlichen. Bsp. Videoaufnahmen werden unterteilt in 10 sek. Abschnitte -> Beantwortung der Fragestellung “Welche Verhaltensweisen treten auf?”
- Vorteil: hohe Ökonomie, geringer Aufwand, gute Vergleichbarkeit der einzelnen Segmentierungen
- Nachteil: Unnatürlichkeit der Segmentierung aufgrund fehlender Inhaltlichkeit -> auch unvollständige Bilder von Verhaltensweisen durch abruptes Abschneiden - Semantische Segmentierung:
- Unterteilung in natürliche Handlungsabschnitte mit anschließender Beschreibung.
- jeder Beobachter bestimmt selbst, welches als natürliche Beobachtungseinheit betrachtet wird
- Bsp. Aufteilung von Aufnahmen eines Interviews nach gestellten Fragen
- Vorteil: Verhaltensweisen werden nicht unterbrochen
- Nachteil: Hoher Aufwand, mehrere Beobachter notwendig um objektives Urteil zu bilden
Evidence-centered Assessment Design: 6 Modelle nennen und beschreiben
- Personenmodell (“Student Model”)
- beschreibt sämtliche Merkmaldimensionen der Testperson, deren Beziehungen die psychologischen Konstrukte repräsentieren - Aufgabenmodell (“Task Model”)
- Beschreibt sämtliche Aspekte / Eigenschaften und Facetten der Items, die bei der Entwicklung zu berücksichtigen sind - Ablaufmodell (“Assembly Model”)
- Definiert die Abfolge der Items oder Algorithmen - Evidenzmodell (“Evidence Model”)
- Erklärt die Art der Transformation des Verhaltens in Testwertvariablen und deren Beziehung zu latenten Variablen und wie die Werte der latenten Variablen anhand der Ausprägung auf den Items geschätzt wird - Durchführungsmodell (“Delivery Model”)
- Regelt Art und Weise wie Aufgaben präsentiert werden (Computer, Papier, andere Hilfsmittel) - Umgebungsmodell (“Environment Model”)
- Umfasst äußere Rahmenbedingungen wie Räumlichkeiten, Sicherheitsvorkehrungen, Hilfsmittel, Geräte
Vier Beobachtungstrainings nennen
- Beobachterfehlertraining (Vermittlung bekannter Fehlerquellen um diese gezielt zu vermeiden)
- Beobachtungsdimensionstraining (Fokus auf Vorbereitung mit spezifischen Beobachtungsdimensionen)
- Bezugsrahmentraining (Einführung von Referenzpunkten)
- Verhaltensbeobachtungstraining (Training zur möglichst objektiven Registrierung von Verhalten)
RAM Modell
(Realistic Accuracy Model of Personality Judgement)
Moderator - Aspekte
- Beobachter:
- Wissen über Persönlichkeitsmerkmale
- Fähigkeit zur Beobachtung
- Motivation zur Beobachtung - Beobachteter:
- Verhaltensaktivität des Beobachteten
- intersituationale Konsistenz
- Skalierbarkeit des Beobachteten
- Feimütigkeit des Beobachteten - Disposition
- Sichtbarkeit zugehörigen Verhaltens
- Auftretenswahrscheinlichkeit zugehörigen Verhaltens
- evaluative Konnotation der Disposition - Information:
- Quanitität der Information
- Qualität der Information
Drei Hauptformen von Validität
- Inhaltsvalidität
- Passen die Items inhaltlich zu dem messenden Konstrukt? - Kriteriumsvalidität
- Grad der Übereinstimmung eines Binnenkriteriums mit einem (Außen-)Kriteriums -> hohe Kriteriumsvalidität = man kann von der Ausprägung in einem Bereich auf die Ausprägung in einem anderen Bereich schließen (Bsp. Alkoholtest -> Fahrtauglichkeit) - Konstruktvalidität
- Items sollen so formuliert sein, dass der Test auch tatsächlich das Konstrukt erfasst, welches es erfassen soll
Schritte / Punkte bei der Verhaltensbeobachtung und diese Beschreiben
- Systematik
- regelgeleitet und konsistent, Strukturierung muss Ergebnisse nachvollziehbar und objektiv gestalten - Erfassung und Protokollierung
- Verhaltensaspekte werden erfasst, indem Verhaltenssequenzen identifiziert und protokolliert werden -> werden eindeutig abgegrenzt und beschrieben - Beobachtungsgegenstand
- es können Verhaltensaspekte aller menschlicher (visuell+auditiv) Wahrnehmungen beobachtet werden, auch apparative Merkmale (Muskeltonus, Hautleitfähigkeit) können beobachtet werden - Unvermitteltheit
- Beobachtung soll so nah wie möglich am tatsächlichen Verhalten stattfinden, direkte Beobachtungen werden bevorzugt, alternativ Videos -> Beobachtungen durch Dritte sind nicht zulässig - Zielorientierung
- Beobachtung verfolgt ein wissenschaftliches Ziel und wird aus der Perspektive eines deduktiven / induktiven Erkenntnisinteresses durchgeführt - Dokumentation und Tranzparenz
- Vorgehen muss vollständig dokumentiert werden um Nachvollziehbarkeit und Aussagekraft zu gewährleisten
8 rechtliche Gründe für Interviews, vor dem Hintergrund der Planung, Durchführung und Auswertung
- Vermeidung von Voreingenommenheit und Einseitigkeit
- Wahrung emotionaler Distanz
- Vermeidung unnötiger Belastung des Befragten
- Gewährleistung auf Vertraulichkeit
- Verzicht auf Täuschung
- kooperative Grundhaltung
- Respektieren von Persönlichkeit und Würde des Interviewten
- Richtlinien des Bundesdatenschutzgesetztes (Speicherung der Daten nur nach Einverständnis nach vorheriger Information, Verwendung zweckgerichtet, wenn anderer Zweck: Neue Einverständniserklärung)
- Grundgesetz:
- Artikel 1: Schutz der Menschenwürde
- Artikel 2: Allgemeines Persönlichkeitsrecht
- StGB §201: Verletzung der Vertraulichkeit des Wortes
- StGB §202a: Ausspähen von Daten
- StGB §203: Verletzung von Privatgeheimnissen
Planung, Durchführung, Auswertung von Interviews
Planung:
- organisatorische Formalitäten: Termin, Raum, Unterlagen, Schaffung angenehmer Atmosphäre
- Zusammenstellen Interviewleitfaden: Critical Incident Technique (Anforderungsprofile) / Verhaltensgleichung nach Westhoff und Kluck (Einzelfalldiagnostik)
- Inhalt:
1. Begrüßung, Vorstellung, Funktion der Beteiligten
2. Ziele+Dauer des Interviews
3. Vorgehensweise und Umgang mit Informationen
4. Ausformulierte Fragen
5. Erklärende Überleitung und Fachbegriffserklärung
6. Vorgaben für Interviewerentscheidung
7. Informationen zum Gesprächsabschluss
Durchführung:
- Teilstrukturierte Gespräche (flexibler Einsatz Leitfaden, angenehme Gesprächsführung fördert Informationen, Nachfragen zur Vertiefung der Antworten)
- Gesprächstechniken (Vermeiden ungünstiger Fragen, Anwendung von Fragetechnik nach Ghiselli)
- technische Unterstützung: Protokollierung durch sachkundigen Protokollanten, Aufzeichnung
- Günstige Fragen:
1. Inhalt: konkretes, individuelles Verhalten, eindeutiger Bezugsrahmen, nur einen Aspekt ansprechen
2. Ausdruck: kurz, treffend, neutral, nicht suggestiv
3. Hilfe: Kontext als Gedächtnisstütze, emotionsfreie Sprache
Auswertung:
- Festgelegte Entscheidungsfaktoren: Minimieren Störfaktoren, Verwenden von Beurteilungsskalen
- Qualitative Datenerhebung -> vorab keine Auswertungskategorien
- Quantitative Datenerhebung -> Klare Verfahren, Standards wie DIN 33430
- Beurteilungsdiskussion: Zusammenarbeit mehrerer Interviewer
- Qualität: Standardisierte / strukturierte Interviews liefern valide Ergebnisse
Was misst der AID und durch welche Items unterscheidet er sich von den anderen Intelligenztests?
- Intelligenztest-Testbatterie
- Erfassung komplexer + basaler kognitiver Fähigkeiten
- Individualtest für Kinder + Jugendliche (6-16 Jahre)
- Ausbildungs- und berufsbezogene Eignungsdiagnostik, Rehabilitationsdiagnostik, Entwicklungsdiagnostik frühes Kindesalter, neuropsychologische Diagnostik
- Testkonzept Rasch-Modell
- Untertests sind Power-Tests sowie vereinzelt Speed-(and Power-)Tests mit freiem Antwortformat
Unterschiede zu anderen Intelligenztests:
- Erfassung komplexer + basaler kognitiver Fähigkeiten
- meisten Intelligenztests benutzen als Grundlage die klassische Testtheorie, der AID benutzt allerdings die Item-Response-Theorie
-> ermöglicht: es wird ausschließlich Power und nicht auch Speed gemessen, da nur Aufgaben miteinbezogen werden, welche in vorgegebener Zeit auch bearbeitet wurden -> Aufgaben lösen ist also relevant und nicht wie schnell Aufgaben gelöst werden
- bessere leistungsangepasste Testung
Vor- und Nachteile von Persönlichkeitsfragebögen / wann sind diese diagnostisch nicht sinnvoll?
Vorteile:
- Hohe Ökonomie (automatisiert, minimaler Erhebungsaufwand)
- Große Vergleichsgruppe (z.B. Online-Datensammlung)
- Teilweise Objektivität (automatische Algorithmen)
- Hohe Durchführungs- und Auswertungsobjektivität (Instruktionen und Schablonen)
Nachteile:
- Verfälschbarkeit durch Fake-Instruktionen, unwahre Antworten
- Soziale Erwünschtheit
- Akquieszenz, Bevorzugung zustimmender oder ablehnender Antworten unabhängig vom Iteminhalt
Die zwei großen Testtheorie und ihre unterschiedliche Verwendung inkl. bekanntester Verfahren
Item-Response Testtheorie (Probabilistisch)
- Beschäftigt sich mit Zusammenhang zwischen zu testendem Merkmal (latente Variable) und tatsächlichen Antwortverhalten (manifeste Variable)
- Zusammenhang mehrere latente Varianblen kann überprüft werden
- konzentriert sich nicht nur auf das Gesamtergebnis, sondern für jedes einzelne Items mit der verbundenen Schwierigkeit und der Wahrscheinlichkeit, dieses beantworten zu können
- nichtlineare Modelle
- Bsp. Rasch Homogenität / CAT
Klassische Testtheorie
- sammelt alle exakten und ökologischen Methoden zur Erfassung von Interindividuellen Unterschieden
- großer Wert die Qualität zu verstehen und zu verbessern -> Konzentration, wie gut Test den wahren Wert einer getesteten Eigenschaft misst
- Kritik aufgrund fehlenden Messmodels -> Messfehlertheorie
- Kernidee: Jedes Ergebnis besteht aus 2 Komponenten: A: dem tatsächlichen Wert / B: ein zufälliger Messfehler
- Theoreme wie: Spearman-Brown Formel oder Verdünnungsdormel bei essenzieller tau-Äquivalenz
- lineare Modelle
-> Gemeinsamkeiten:
- beide haben Latente-Variablen-Modelle (unterscheiden sich nut in Art der Beziehung zwischen Testvariablen und zu messenden latenten Variablen)
- Konzepte wie Reliabilität lassen sich auf beide Modelle anwenden
Welche Formen von Leistungstests gibt es?
- Freie Antwortformate vs. Multiple-Choice-Format
- offen (freie Antwortformulierung) vs. Multiple-Choice - Power- vs. Speed and Power Tests
- Power (Fähigkeiten werden ohne Zeitdruck gemessen) -> Niveau einer bestimmten kognitiven Fähigkeit soll erfasst werden
- Speed (Geschwindigkeit der Verarbeitung steht im Vordergrund) -> meist einfache Aufgaben
- Speed-and-Power Tests (Komplexe Aufgaben unter Zeitdruck -> zusätzliche Herausforderung) - Gruppen- vs. Individualtests
- Einzeltests vs. Testung mehrerer Personen gleichzeitig
-> Einzeltests ermöglichen tiefere und präzisere Diagnostik - Papier-Bleistift vs. Computertest
- Computertests bieten automatisierte Auswertung und adaptives Testen
Rasch-Homogenität und Rasch-Modell
- Testvariablen sind Rach-homogen, wenn Antwortwahrscheinlichkeiten sich nur um eine personenunabhängige Konstante unterscheiden
- bei dichotomen Tests: Unterschiede in Antwortwahrscheinlichkeiten hängt nur von Schwierigkeit der Aufgabe ab
- bei ordinalen Rasch-Modellen gilt die Bedingung für die Schwellenwertwahrscheinlichkeiten: Wahrscheinlichkeit, dass eine höhere von zwei benachbarten Antwortkatergorien gewählt wird
-> Gewährleistet personenunabhängige Vergleichbarkeit der Fähigkeiten
Unterschiede Emotionale und soziale Intelligenz
Soziale Intelligenz:
- Fähigkeit sich selbst und andere zu kennen
- entwickelt sich aus der Erfahrung mit Menschen und dem Lernen aus Erfolg + Misserfolg im sozialen Umfeld
- zeichnet sich aus durch: soziale Sensitivität, soziale Handlungskompetenz, Durchsetzungs- und Beziehungsfähigkeit
Strukturmodell der Intelligenz (Structure of Intellect Model):
-> Einführung einer behavioralen Komponente
o Fähigkeit, das Verhalten anderer zu verstehen
o Fähigkeit unterschiedliche Lösungen für soziale Probleme zu finden
o Fähigkeit das richtige zur richtigen Zeit zu tun
o Fähigkeit, die Angemessenheit von Verhalten richtig zu beurteilen
o Fähigkeit, soziale Merkmale von Personen zu erinnern (zB Name, Gesicht)
___________
Emotionale Intelligenz:
- Fähigkeit, eigene und fremde Gefühle wahrzunehmen, zu verstehen und zu beeinflussen
Four-Branch-Ability-Model
Unterscheidet 4 Fähigkeitsbereiche:
1. Emotionswahrnehmung bei sich und anderen
2. Emotionsverwendung – Emotionen hervorzurufen, zu gebrauchen und verwenden
3. Emotionsverständnis – Emotionen benennen, erkennen, verstehen und zu interpretieren
4. Emotionsmanagement – mit eigenen Emotionen und denen anderer umgehen können
___________
Zusammenfassung der Unterschiede:
Fokus: Emotionale Prozesse vs. Soziale Interaktionen
Ebene: Individuum vs. Interpersonal (zwischen Personen)
Schwerpunkt : Selbstregulation und emotionale Kompetenz vs. Verständnis und Einfluss in sozialen Beziehungen
Messbarkeit: Besser operationalisiert vs. Schwieriger standardisiert messbar
Dot-Probe-Task
- indirekte Erfassung der Aufmerksamkeitsausrichtung auf bedrohliche Stimuli
- am PC, Darbietung von Stimuli, Knopfdruck, wenn Punkt erscheint
- Darbietung von bedrohlichem + neutralen Stimulus gleichzeitig
- Idee: Schnellere Reaktionszeiten, wenn die Aufmerksamkeit auf dem Stimulus lag, der durch den Punkt ersetzt wurde.
- Ergebnis: Aufmerksamkeitsorientierung auf bedrohliches Material möglich (=Biasindex)
- Der Test ist bei klinischen Angststörungen zuverlässig, zeigt jedoch geringe Konsistenz und Stabilität bei nicht klinischen Probanden
Vor- und Nachteile Computerbasiertes Testen
Vorteile:
- Spart Zeit + Material
- reduzierte Fehleranfälligkeit bei Auswertung
- Aktualisierung von Normtabellen jederzeit möglich
Nachteile:
- Äquivalenz gegenüber Papier- und Stifttests (vor allem bei Speedtests) wurde infrage gestellt
-> Aufgrund Anpassungen der Darbietung und Bedeutung motorischer (-koordinativer) Fähigkeiten
- schränkt Kreativität ein
- einige Testarten nicht möglich
Kritik an sozialer und emotionaler Intelligenz
Emotionale Intelligenz:
- theoretische Kritik: Unklare Abgrenzung zu anderen Konstrukten (starke Überschneidung mit Persönlichkeitsmerkmalen)
- Definitorische Inkonsistenz (verschiedene Definitionen + Modelle)
- Messprobleme (Leistungstests nicht vollständig objektiv)
- Anwendungsfragen (Nutzen von emotionaler Intelligenz im beruflichen Kontext oft überschätzt)
Soziale Intelligenz:
- theoretische Kritik: Soziale Intelligenz wird oft diffus und uneinheitlich beschrieben
- Heterogenität: Große Spannweite möglicher Fähigkeiten, erschwert Operationalisierung
- Messprobleme: Fehlen von standardisierten Tests, oft Selbsteinschätzung, anfällig für Verzerrung
- Praktische Kritik: Soziale Intelligenz wird oft mit z.B. sozialer Kompetenz verwechselt -> verringert Aussagekraft
Gemeinsame Kritik:
- Inflationäre Nutzung: unscharfe Verwendung und überstrapaziert
- Unterschätzung kognitiver Intelligenz: Kritiker bemängeln, dass Einfluss von emotionaler + sozialer Intelligenz auf Leistung und Erfolg überschätzt wird -> IQ häufig stärkerer Prädiktor