Multilevel Modelle Flashcards
Was ist die Grundidee der Multilevel Modelle?
Erweiterung des ALM für abhängige Daten -> hierarchische Datenstruktur
verschiedene Ebenen der Beobachtung
Level 1 direkte Beobachtungen
Level 2 Kontexte, Cluster
aus Daten:
-> Parameter für Levels getrennt geschätzt = random slopes/intercepts
-> zusammenfassender Effekt über Kontexte hinweg geschätzt = fixe Intercepts und Slopes
uns interessiert:
-Variation der Abweichungen
-> bekommen Varianzparameter für Modellparameter
wesentlich:
modelliert Heterogenität über Kontexte
fixe und zufällige Effekte: zufällige Variation u pro Cluster j
Was ist die Konsequenz wenn (zu stark) abhängige Beobachtungen mit dem ALM modelliert werden?
- weniger Effekt auf Parameter
- Stardardfehler zu klein
-Signifikanztests zu schnell gegeben - Typ 1 Fehler groß
Wie kann die Unabhängigkeit von Beobachtungen geprüft werden?
aus dem Studiendesign ableitbar
Was sind hierarchische Datenstrukturen?
Level 1 Beobachtungen sind auf Level 2 geclustered/nested
Level 2 = Kontextebene
Level 1 eigentliche Analysebene
Was ist das Ziel von Multilevel Analyse?
unterschiedliche Ziele:
- signifikanztestungen anpassen
- Gruppeneffekt über alle Gruppen hinweg ermitteln
- mit zusätzlichen Varianzparametern Standardfehler besser schätzen, mehr Varianz erklären
- komplexe Fragestellungen zu Varianz auf unterschiedlichen Ebenen beantworten
zB ist Zsmhb auf Ebene 1 durch Ebene 2 moderiert
Was ist die Intraklassenkorrelation und wofür wird sie eingesetzt? Welchen Wertebereich hat sie?
= ICC
- Messwerte innerhalb einer Beobachtungseinheit (Kontext) sind einander ähnlicher als Werte aus unterschiedlichen Kontexten
- Maß für Abhängigkeit der Daten (korrelierte Messfehler)
- gibt Ausmaß der Variabilität im Intercept (!) an
- Wertebereich 0 bis 1
- Maß der Varianzerklärung interpretierbar wie R2
- je höher ICC umso notwendiger MLM zu modellieren - Residuen sind NICHT unabhängig
- wenn sehr nahe 0 reicht ALM
- Berechnung mittels unconditional model (=ohne Prädiktoren, mit random intercept)
“Wie viel Varianz der Gesamtvarianz entfällt auf Streuung zwsichen Personen des gleichen Kontexts?”
Wie unterscheiden sich multilevel Modelle von allgemeinen linearen Modellen?
in ALM fixe Koeffizienten
- numerisch gleich für alle Beobachtungseinheiten auf Level 1
-> gleiche Parameter für alle Werte
=fixed effects model
in MLM können Interzept und Slopes variieren -> Abweichende Parameter
= Residuen (von fixen Parametern)
in MLM: random Parameter und fixe Parameter (mittlere Effekte über alle Kontexte) geschätzt
-> mehr Varianzerklärung, SE korrigieren, Abhängigkeiten modellieren
= random-effects model
-> MLM kommt mit Voraussetzungsverletzungen des ALM klar
Welche Annahmen haben wir über die Parameter im MLM?
fixed Parameter:
mittlere Effekte über alle Kontexte modellieren einen durchschnittlichen Slope und ein durchschnittliches Interzept für Gesamtmodell
random Parameter (Residuen):
- normalverteilt mit E(x)=0
- Varianzparameter, Verteilungsannahme
Wie lautet die Modellgleichung der MLM?
yᵢⱼ=(b₀+u₀ⱼ)+(b₁+u₁ⱼ)*Xᵢⱼ+ɛᵢⱼ
Alternativ:
Ebene 1: = ALM
Ebene 2:
b₀ⱼ=+b₀+u₀ⱼ
b₁ⱼ=b₁+u₁ⱼ
b₀= fixer Interzept
u₀ⱼ= Abweich. der j-Gruppe von b₀
b₁= fixer Slope
u₁ⱼ= Abweich. der j-Gruppe von b₁
b₀ⱼ= Clusterspezifisches Interzept (j)
b₁ⱼ=Clusterspezifischer Slope (j)
Wie können die Unterschiede von random Parametern auf Level 1 Ebene erklärt werden?
Prädiktoren auf höheren Ebenen hinzugenommen, die Variation in den Parametern erklären können
-> variieren nur auf Level 2
zB Therapeutin Niveau Ausbildung
Modellierung von Unterschieden zwischen verschiedenen Kontexten
im Intercept = cross-level direct effect
im Slope = cross-level interaction/moderation
Was sind Vorteile von MLMs?
- neue komplexe Fragestellungen beantworten
- weniger strenge Voraussetzungen:
1. Homogenität der Steigung -> kann direkt mittels random slope modelliert werden
2. Abhängigkeit der Daten
direkt durch Hierarchie modelliert
3. Fehlende Werte
führen nicht zwingend zum Ausschluss von Fällen da Schätzung über ML & teilweise unvollständige Daten erlaubt, vorausgesetzt: missing completely at random
parsimonious = sparsam bzgl Anzahl zu schätzender Parameter
gibt uns fixen Effekt an
(vgl. ANOVA)
Wie läuft die Modellbildung im MLM ab?
stufenweise Flexibilisierung wobei man nicht alle Schritte machen muss
0): ohne random effects (wie ANOVA)
1): mit random Intercepts
2): random intercepts und slopes
3): korrelierte random b0&b1
vorwärts (besser) oder rückwärts
Modelfit nicht mehr sig (LR-test) wird einfaches Modell beibehalten
pragmatisch gut überlegen ob/welche random slopes miteinbezogen, wird schnell kompliziert, großes N nötig
Wie läuft die Modelltestung ab?
iterativ mittels LR
zwischen Schritten kann für jeden hinzugefügten Parameter bzw. Block auf Signifikanz getestet werden
neu geschätzte Parameter sind Varianzmaße
-> Varianz kann nur >0
-> empfohlen: 2*α=10%
generell: relativ geringe Power (sehr großes N benötigt) -> nicht signifikanter Modelltest kann ignoriert werden wenn hierarchische Datenstruktur theoretisch gut belegbar
zu viele zufällige Parameter kann zu Problemen führen
- ungültige Lösungen, keine Konvergenz, insbes bei rückwärts (=top-down) Modellbildung, insbes >1 random slopes
-> random slopes nur mit guter theoretischer Annahme schätzbar
Wie läuft die Parameterschätzung im MLM ab?
Maximum likelihood (ML)
ermöglicht LR Tests für Modellvergleiche
Restricted Maximum Likelihood (REML) liefert genauere Schätzer
auch: Informationsmaße AIC/BIC für deskriptive Modellvergleiche
-> je kleiner desto besser
-2 schon gut
Wie können Maße erklärter Varianz berechnet werden?
MLM nicht direkte Berechnung
Pseudo-R2-analoge Maße
Vielzahl möglicher Berechnungen
auf Level 1 kann R2 easy bestimmt werden mittels unconditional model
R2 marginal = durch fixe Effekte erklärte Gesamtvarianz
R2 bedingt = durch fixe und zufällige Effekte erklärte Gesamtvarianz