Multilevel Modelle Flashcards

1
Q

Was ist die Grundidee der Multilevel Modelle?

A

Erweiterung des ALM für abhängige Daten -> hierarchische Datenstruktur
verschiedene Ebenen der Beobachtung
Level 1 direkte Beobachtungen
Level 2 Kontexte, Cluster
aus Daten:
-> Parameter für Levels getrennt geschätzt = random slopes/intercepts
-> zusammenfassender Effekt über Kontexte hinweg geschätzt = fixe Intercepts und Slopes

uns interessiert:
-Variation der Abweichungen
-> bekommen Varianzparameter für Modellparameter

wesentlich:
modelliert Heterogenität über Kontexte
fixe und zufällige Effekte: zufällige Variation u pro Cluster j

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Was ist die Konsequenz wenn (zu stark) abhängige Beobachtungen mit dem ALM modelliert werden?

A
  • weniger Effekt auf Parameter
  • Stardardfehler zu klein
    -Signifikanztests zu schnell gegeben
  • Typ 1 Fehler groß
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Wie kann die Unabhängigkeit von Beobachtungen geprüft werden?

A

aus dem Studiendesign ableitbar

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Was sind hierarchische Datenstrukturen?

A

Level 1 Beobachtungen sind auf Level 2 geclustered/nested
Level 2 = Kontextebene
Level 1 eigentliche Analysebene

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Was ist das Ziel von Multilevel Analyse?

A

unterschiedliche Ziele:
- signifikanztestungen anpassen
- Gruppeneffekt über alle Gruppen hinweg ermitteln
- mit zusätzlichen Varianzparametern Standardfehler besser schätzen, mehr Varianz erklären
- komplexe Fragestellungen zu Varianz auf unterschiedlichen Ebenen beantworten
zB ist Zsmhb auf Ebene 1 durch Ebene 2 moderiert

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Was ist die Intraklassenkorrelation und wofür wird sie eingesetzt? Welchen Wertebereich hat sie?

A

= ICC
- Messwerte innerhalb einer Beobachtungseinheit (Kontext) sind einander ähnlicher als Werte aus unterschiedlichen Kontexten
- Maß für Abhängigkeit der Daten (korrelierte Messfehler)
- gibt Ausmaß der Variabilität im Intercept (!) an
- Wertebereich 0 bis 1
- Maß der Varianzerklärung interpretierbar wie R2
- je höher ICC umso notwendiger MLM zu modellieren - Residuen sind NICHT unabhängig
- wenn sehr nahe 0 reicht ALM
- Berechnung mittels unconditional model (=ohne Prädiktoren, mit random intercept)
“Wie viel Varianz der Gesamtvarianz entfällt auf Streuung zwsichen Personen des gleichen Kontexts?”

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Wie unterscheiden sich multilevel Modelle von allgemeinen linearen Modellen?

A

in ALM fixe Koeffizienten
- numerisch gleich für alle Beobachtungseinheiten auf Level 1
-> gleiche Parameter für alle Werte
=fixed effects model

in MLM können Interzept und Slopes variieren -> Abweichende Parameter
= Residuen (von fixen Parametern)
in MLM: random Parameter und fixe Parameter (mittlere Effekte über alle Kontexte) geschätzt
-> mehr Varianzerklärung, SE korrigieren, Abhängigkeiten modellieren
= random-effects model
-> MLM kommt mit Voraussetzungsverletzungen des ALM klar

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Welche Annahmen haben wir über die Parameter im MLM?

A

fixed Parameter:
mittlere Effekte über alle Kontexte modellieren einen durchschnittlichen Slope und ein durchschnittliches Interzept für Gesamtmodell

random Parameter (Residuen):
- normalverteilt mit E(x)=0
- Varianzparameter, Verteilungsannahme

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Wie lautet die Modellgleichung der MLM?

A

yᵢⱼ=(b₀+u₀ⱼ)+(b₁+u₁ⱼ)*Xᵢⱼ+ɛᵢⱼ

Alternativ:
Ebene 1: = ALM
Ebene 2:
b₀ⱼ=+b₀+u₀ⱼ
b₁ⱼ=b₁+u₁ⱼ

b₀= fixer Interzept
u₀ⱼ= Abweich. der j-Gruppe von b₀
b₁= fixer Slope
u₁ⱼ= Abweich. der j-Gruppe von b₁
b₀ⱼ= Clusterspezifisches Interzept (j)
b₁ⱼ=Clusterspezifischer Slope (j)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Wie können die Unterschiede von random Parametern auf Level 1 Ebene erklärt werden?

A

Prädiktoren auf höheren Ebenen hinzugenommen, die Variation in den Parametern erklären können
-> variieren nur auf Level 2
zB Therapeutin Niveau Ausbildung

Modellierung von Unterschieden zwischen verschiedenen Kontexten
im Intercept = cross-level direct effect
im Slope = cross-level interaction/moderation

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Was sind Vorteile von MLMs?

A
  • neue komplexe Fragestellungen beantworten
  • weniger strenge Voraussetzungen:
    1. Homogenität der Steigung -> kann direkt mittels random slope modelliert werden
    2. Abhängigkeit der Daten
    direkt durch Hierarchie modelliert
    3. Fehlende Werte
    führen nicht zwingend zum Ausschluss von Fällen da Schätzung über ML & teilweise unvollständige Daten erlaubt, vorausgesetzt: missing completely at random

parsimonious = sparsam bzgl Anzahl zu schätzender Parameter
gibt uns fixen Effekt an
(vgl. ANOVA)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Wie läuft die Modellbildung im MLM ab?

A

stufenweise Flexibilisierung wobei man nicht alle Schritte machen muss
0): ohne random effects (wie ANOVA)
1): mit random Intercepts
2): random intercepts und slopes
3): korrelierte random b0&b1

vorwärts (besser) oder rückwärts
Modelfit nicht mehr sig (LR-test) wird einfaches Modell beibehalten

pragmatisch gut überlegen ob/welche random slopes miteinbezogen, wird schnell kompliziert, großes N nötig

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Wie läuft die Modelltestung ab?

A

iterativ mittels LR
zwischen Schritten kann für jeden hinzugefügten Parameter bzw. Block auf Signifikanz getestet werden

neu geschätzte Parameter sind Varianzmaße
-> Varianz kann nur >0
-> empfohlen: 2*α=10%
generell: relativ geringe Power (sehr großes N benötigt) -> nicht signifikanter Modelltest kann ignoriert werden wenn hierarchische Datenstruktur theoretisch gut belegbar

zu viele zufällige Parameter kann zu Problemen führen
- ungültige Lösungen, keine Konvergenz, insbes bei rückwärts (=top-down) Modellbildung, insbes >1 random slopes
-> random slopes nur mit guter theoretischer Annahme schätzbar

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Wie läuft die Parameterschätzung im MLM ab?

A

Maximum likelihood (ML)
ermöglicht LR Tests für Modellvergleiche

Restricted Maximum Likelihood (REML) liefert genauere Schätzer

auch: Informationsmaße AIC/BIC für deskriptive Modellvergleiche
-> je kleiner desto besser
-2 schon gut

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Wie können Maße erklärter Varianz berechnet werden?

A

MLM nicht direkte Berechnung
Pseudo-R2-analoge Maße
Vielzahl möglicher Berechnungen

auf Level 1 kann R2 easy bestimmt werden mittels unconditional model

R2 marginal = durch fixe Effekte erklärte Gesamtvarianz
R2 bedingt = durch fixe und zufällige Effekte erklärte Gesamtvarianz

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Wie können Powermaße und Stichproben geschätzt werden?

A

meist basierend auf Simulationen
sehr komplex
benchmark: 50 Einheiten auf Level 2, bei weniger Bootstrap methoden eingesetzt
2 Ebenen der Poweranalyse

Sample size kann einfacher berechnet werden für L1 und L2

17
Q

Wie können Effekte individueller Kontexte vorhergesagt werden?

A

meist nicht Hauptinteresse, sondern deren Varianz
existiert zusätzliche Information lässt sich über neue L2 Prädiktoren Variabilität von Koeffizienten in L1 vorhersagen
-> Alleinstellungsmerkmal MLM

crosslevel direct effects (intercepts)
crosslevel interactions (slopes)
-> komplex, benötigt unbedingt Zentrierung (sonst Fehler)

18
Q

Welche Voraussetzungen haben MLMs?

A

vergleichbar mit ALM
1. UV dichotom oder metrisch, AV metrisch (erweiterbar mit GenLins)
2. Linearität
3. Normalverteilung der Residuen (gilt auch für Residuen der zufälligen Effekte)

Messwiederholungen als abhängige Daten können implizit oder explizit modelliert werden -> ähnlich ANOVA aber viel flexibler, keine Sphärizität nötig

Daten sind zwar hierarchisch aber nur Level 1 spielt in der Analyse eine Rolle

19
Q

Für welche Form von Daten ist MLM besonders gut geeignet?

A

hierarchische Datenstrukturen:
- Messwiederholung
- andere Abhängigkeit (zB Familie)
nested data in Kontexten utergeordnet