9 - Konfirmatorische Faktorenanalyse Flashcards
Konfirmatorische Faktorenanalyse (CFA)
Die konfirmatorische Faktorenanalyse (CFA)
- gehört zur Familie der Strukturgleichungsmodelle
- Ist ein hypothesenprüfendes Verfahren (wie Strukturgleichungsmodelle generell): passt das angenommene Modell auf die Daten?
- Überprüft explizite Hypothesen über Anzahl an Faktoren, den Beziehungen zwischen Variablen und Faktoren sowie der Beziehung zwischen den Faktoren
- Ist wichtig für die Test- und Fragebogenkonstruktion. Denn in meinem Test stecken ja oft schon Annahmen drin - Annahmen über die Beziehung zwischen Items und latenten Merkmalen (= Faktoren). Mit der CFA kann man prüfen, ob
Unterschied der CFA zur EFA
Unterschied zur EFA:
- mit der EFA kann ich zwar deskriptiv beurteilen, ob die Ergebnisse zu meinen Annahmen passen (wieviele Faktoren, Beziehungen zw Variablen und Faktoren). ABER: ich bekommen keine Auskunft darüber, wie gut(!) mein Modell meine Daten repliziert. Wie groß ist die Diskrepanz zwischen meinem theoretischen Modell und den empirischen Daten?
- “Modellfit” = Die Übereinstimmung zwischen meinem theoretischen Modell und den empirischen Daten
EFA:
- Nebenladungen werden zugelassen und mitgerechnet
CFA:
Jedes Item lädt nur auf einem Faktor
Ablaufschritte der CFA
Ablaufschritte der CFA:
- Modellspezifikation
- Parameterschätzung
- Modellevaluation
Modellspezifikation
Vorgehen:
- Ich sage: Ich habe zwei Faktoren. Folgende Items laden auf Faktor 1 mit Ladung x, folgende Items auf Faktor 2 mit Ladung y. Es gibt keine Nebenladungen. Das ist mein Modell A.
- Ich vergleiche dieses Modell mit einem Modell B, in dem ich noch mehr Vorgaben mache, also noch restriktiver bin. Ich sage z.B. dass die beiden Faktoren eigentlich nur ein einziger Faktor sind (d.h. Korrelation zw Faktor 1 und Faktor 2 = 1)
—> bei welchem Modell ist der Modellfit größer? Immer bei Modell A! Aber: Ist er bei Modell B bedeutend kleiner? Wenn die Reduktion des Modellfit vernachlässigter klein ist, dann wähle ich Modell B.
Paramteterschätzung
Folgende Modellparameter müssen geschätzt werden: Faktorladungen, sämtliche Varianzen (wahre Varianz und Residuen)
Ich kann die Parameter nur schätzen, wenn ich ein gewisses Mindestausmaß an Information über das Modell habe (nicht wichtig zu wissen warum)
Maximum-likelihood-Schätzverfahren. Ziel: Finde Modellparameter für die gilt, dass die Diskrepanz zwischen Beobachtung und Modellvorhersage am geringsten ist
Modellevaluation
Nach der Parameterschätzung bekommen ich sog. ‘Fit-Statistiken’ —> zeigen auf, wie groß bzw klein die Diskrepanz zwischen Modellvorhersage und Beobachtung ist
Häufigste Fit-Statistik: Chi-Quadrat-likelihood-ratio.
Die Chi-Quadrat-Statistik prüft die Nullhypothese, dass das Modell korrekt ist
Nicht signifikant —> gutes Modell, signifikant —> es gibt eine bedeutsame Diskrepanz
Nachteile der Chi-Quadrat-Statistik als Fit-Index
- Unrealistische Annahme, dass ein Modell einen perfekten Populations-Fit hat —> Führt evtl dazu, dass man Modelle, die zwar sehr gut, aber eben nicht perfekt sind, vorschnell ablehnt
- χ2-Wert wird durch die Größe der Korrelationen beeinflusst: Höhere Korrelationen führen zu größeren χ2-Werten —> führt evtl dazu, dass ich Modelle bei hohen Korrelationen zwischen den Variablen (Items) zu schnell ablehne
- χ2-Wert wird durch die Stichprobengröße beeinflusst: Größere Stichproben führen zu größeren χ2-Werten —> führt evtl dazu, dass ich Modelle bei großen Stichproben zu schnell ablehne
Alternative Fit-Indizes zu χ2
Sind nur noch deskriptiv
Die meisten anderen Fit-Indizes basieren auch auf χM2, umgehen aber so ein bisschen die Probleme
Sie nehmen nicht mehr an, dass es perfekten Modell-Fit gibt
Die wichtigsten dieser Fit-Indizes sind:
- RMSEA (ausreichend gutes Modell wenn ≤ .08)
- CFI (ausreichend gut wenn ≥ .95)
- SRMR (ausreichend gut wenn ≤ .08); basiert als einziger nicht auf Chi-Quadrat
—> man sollte immer mehrere Fit-Indizes berücksichtigen