Stukturgleichungsmodelle Flashcards
Was ist Structural Equation Modeling?
SEM allgemeines statistisches Rahmenmodell für CFA, ALM und GenLins
vereint CFA und Strukturmodelle
kann Zusammenhänge und Mittelwerte modellieren
trachtet nach Vereinfachungen um spezifische Hypothesen zu testen
Was sind Strukturmodelle?
grafische Darstellung von komplexen Zusammenhängen von manifesten und/oder latenten Variablen
auch “Pfadanalysen” oder “Kausalmodelle” genannt
zB Mediationsmodell
alle Regressionsmodelle sind Strukturgleichungsmodelle
erlaubt auch komplexere Modelle als lineare Regression, darstellung von manifesten oder latenten Variablen
zB Outcomes können wiederum Prädiktoren für nachgeordnete Konstrukte sein, SEM in einem Schritt testen
zB Messmodell um Fehler darzustellen =latente Variable messfehlerbefreit -> Validität steigt
Wie werden Modelle innerhalb der SEM veranschaulicht?
quadrate = beobachtete Variablen
kreise = latente Variablen, Messfehler
Pfeile= gerichtete (kausale) Verbindungen zwischen Variablen, stellen Ladungen bzw. Regressionsgewichte dar
Doppelpfeile = Korrelationen (Kovarianzen) zwischen Variablen, ungerichtet und akausal
Wie funktioniert Structural Equational Modelling (SEM)?
1) Modellspezifikation - können wir Pfade weglassen?
2) Überprüfung Modellidentifikation
3) Daten sammeln
5) vergleichen ob alle beobachteten bivariaten Zusammenhänge der Variablen untereinander gut reproduziert wurden
zB im Mediationsmodell weglassen des Pfades c’
-> Hypothese: liegt vollständige Mediation vor
6) anpassen des Modells & überprüfen des model fit
7) Ggf Respezifikation, Alternativmodell testen
Welche Voraussatzungen hat Structural Equational Modelling (SEM)?
insbesondere: große Stichprobe
multivariate Variablen
metrische Variablen
Normalverteilung (nicht immer realistisch)
Welche Modellspezifikationen hat die SEM?
Modell soll weniger komplex sein als Struktur der Daten selbst
-> weniger Parameter (=Pfadkoeffizienten) benötigen als beobachtete Daten vorhanden
-> Überlegung ob wir Pfade weglassen können
SEM-Parameter: Differenz(ΣDaten,ΣModell)=min
Differenz der Varianz-Kovarianz Matrizen des Modells und der Daten soll minimal sein
Wie kann ein Modell innerhalb der SEM identifiziert werden?
Modell soll weniger Parameter benötigen
Freiheitsgrade durch Differenz zwischen Anzahl Parameter im Modell vs. den Daten
df<0 unteridentifiziert: Modell ist komplexer als die Daten selbst -> Fehlermeldung
df=0 genau identifiziert -> perfekter model fit, gleich komplex wie Daten, keine Vereinfachung zB Mediationsanalyse
df>0 überidentifiziert: Modell ist weniger komplex als Daten -> model fit ist bestimmbar und informativ hinsichtlich der Passung des Modells an die Daten
Wie kann die Anpassung des Modells (model fit) an die Daten überprüft werden?
Varianz-Kovarianzmatrix Σ der beobachteten Variablen wird anhand SEM reproduziert (=rückgerechnet)
Modelbasierte Varianz-Kovarianz Matrix wird über
-Ladungsmatrizen (PCA, EFA)
-indirekte Effekte (Mediationsanalysen)
-Kombination
gebildet
mehrere Tests möglich:
Chi2-Anpassungstest: nicht sig -> guter fit, aber bei großem N Signifikanz zu ignorieren
Effekt-basierte Größen:
Goodness-of-fit indices: CFI TLI [0;1] >0.9/>0.95
Badness- of-fit indices: RMSEA [0;∞] <.06/<.08
SRMR<.05/<.10
Wie werden SEM Parameter geschätzt?
SEM-Parameter: Differenz(ΣDaten,ΣModell)=min
Differenz der Varianz-Kovarianz Matrizen des Modells und der Daten soll minimal sein
Algorithmus mittels ML
besser allgemein robuste ML verwenden, denn wenn Normalverteilungsannahme verletzt ist, ists besser, wenn nicht verletzt passt robuste ML auch
Wie kann ein guter Modellfit interpretiert werden?
Hinweis das Modell empirisch plausibel = nicht grob falsch, KEIN Beleg dass Modell korrekt
es gibt immer andere Modelle mit gleichem Modellfit mit völlig anderen kausalen Annahmen
Wie kann die im Modell nahegelegte Kausalität geprüft werden?
nur mit längsschnittlichen Daten
für querschnittliche Daten idR nicht testbar
in Ausnahmefällen testable implications
Kausalannahmen müssen in Studien explizit und plausibel gemacht werden
Welche Daten können mit SEM modelliert werden?
längsschnittliche Daten (cross lagged panel models)
querschnittliche Daten
multivariate Variablen
metrische Variablen
Normalverteilung (nicht immer realistisch)
Regressionsanalysen
multilevel Analysen
Meta Analysen
…
Was sind kombinatorische Ansätze?
es wird nicht nur das eigentlich postulierte Modell sondern auch mögliche Alternativmodelle getestet und Ergebnisse verglichen
erhöht die Robustheit unserer Ergebnisse
Wie kann gegen Voraussetzungsverletzungen der SEM vorgegangen werden?
andere Schätzer verwenden!
normalverteilungsannahme nicht immer realistisch führt zu schlechterem model fit
->robuste ML Schätzer verwenden
ordinale Daten zB Items mit ≤ 5 Stufen
-> (D)WLS & WLSMV Schätzer verwenden
- basiert auf tetrachorischer/polychorischer Korrelation
- sind Skalenniveau der Daten optimal angepasst
Wie kann die optimale Stichprobengröße für SEM bestimmt werden?
es müssen mehr Parameter geschätzt werden daher brauchen wir auch mehr Daten
Abhängig von Komplexität des Modells und Stärke der Zusammenhänge
rules of thumb: N≥ 200
N:t Verhältnis 10-15 pro zu schätzendem Parameter (t)
N klein sind Parameterschätzungen ungenau (Standardfehler steigt), instabil oder verzerrt
nur sehr einfache Modelle mit starken Zusammenhängen sinnvoll untersuchbar; Modelle sind sonst uninformativ