Multiple Lineare Regression Flashcards

mit k>1 Prädiktoren

1
Q

Was modelliert die multiple lineare Regression? Was ist die Modellgleichung der multiplen linearen Regression? Wie ist die multiple Regression darstellbar?

A

Zusammenhang zwei oder mehr unabhängigen Prädiktoren mit einem Outcome

yᵢ=b₀+b₁X₁+b₂X₂+…+bₖXₖ+ɛᵢ
yᵢ=b₀+ΣbᵢXᵢᵢ +ɛᵢ

-> nach wie vor 1 Interzept, 1 Fehlerparameter
-> Neu: mehrere Parameter k, welche sich summieren

für k=2 eine Regressionsfläche, für k>2 schwer darstellbar
Slope ist Neigung der Ebene in Richtung des Prädikators

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Was ist in der einfachen linearen Regression und in der multiplen Regression gleich?

A
  • Bedingung der kleinsten Abweichungsquadrate als Schätzmethode
  • Intercept und Fehlerterm
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Wie werden die Parameter ermittelt?

A

mit der Methode der kleinsten Abweichungsquadrate
Parameter so ermittelt, dass
Σᵢɛᵢ²=min
aber jetzt nicht mehr im Sinne einer Geraden, sondern einer Ebene

Σᵢɛᵢ² trotzdem ein Skalar da nur 1 Prädiktor vorhergesagt wird

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Wie sind die Slopes in der multiplen linearen Regression zu interpretieren? Wie ist die Interpretation anders im Vergleich zur einfachen linearen Regression?

A
  1. für kontinuierliche Variablen = Veränderung im Outcome wenn sich Prädiktor um eine Einheit ändert
  2. für dichotome Variablen =
    durchschnittlichen Unterschied im Outcome zwischen den Gruppen
  3. für Interaktionen = Durchschnittliche Änderungen in den Prädiktoren
  • Regressionskoeffizienten sind für jeden Prädiktor um die anderen Prädiktoren adjustiert
  • unique contribution wird pro Prädiktor herausgerechnet
    -> nicht mehr ident mit Produkt-Moment-Korrelation
    r(x,y) ≠ bk * ( s(x)/s(y) )
    (außer in Ausnahmen, wo Prädiktoren zu r(X1,X2)=1 korrelieren)

standardisierte Slopes= partielle Korrelation von X&Y adjustiert um alle anderen Drittvariablen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Ist wichtig welche Prädiktoren miteinbezogen werden?

A

Ja, sehr! Wenn neuer prädiktor miteinbezogen wird, kann anderer (sonst signifikanter) Prädiktor plötzlich nicht mehr signifikant sein

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Wie wird bei multipler linearer Regression auf Signifikanz getestet?

A

F-Test bei k>1 =
H0: b1 = b2 = b3 = … = bk = 0
–> echter Omnibustest
-> H0 verworfen wenn mind. 1 Parameter signifikant ≠ 0 ist

Welche Prädiktoren signifikant?
t-Test

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Welche Bedeutung hat R in der multiplen Regression?

A
  • beschreibt nun wirklich multiple Korrelationen mit dem Outcome
  • ist nicht mehr gleich dem Slope Parameter
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Wofür ist die multiple Regression gut geeignet?

A

Untersuchung und komplexer Modelle mit inhaltlich überlegten Prädiktoren
Ermittlung des Beitrages eines Prädiktors an der erklärten Varianz, unter Kontrolle aller anderen Prädiktoren (Drittvariablen)
gut für heterogene Stichproben, große Stichproben

-> interesse meistens: Wenn für drittvar kontrolliert, existiert Effekt noch?
(meist weniger an contribution der drittvar interessiert)

=> adjusting for confounding

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Was ist das korrigierte R²?

A

R² steigt durch zufällige Korrelationen von Prädiktor und Outcome bei jedem hinzugefügtem Prädiktor
-> Regressionsgerade produziert Overfitting
ungenau für Populationsebene, überschätzt Varianzerklärung

R²>R²adj

ist R²adj viel kleiner -> zu viele unbedeutende Prädiktoren

Korrektur nach Wherry:
R²adj= R² - (1-R²) k / N-k-1

Korrektur nach Olkin-Pratt etwas genauer, aber unnötig für uns

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Wie kann entschieden werden welche Prädiktoren hinzugenommen werden?

A

prinzipiell nur durch inhaltliche Überlegung
müssen eigentlich alle relevanten Prädiktoren enthalten sein, ist nicht prüfbar
Schätzer ändern sich durch Anwesenheit anderer Prädiktoren -> Reihenfolge auch wichtig

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Welche Methoden der Parameterziehung in der Multiplen Regression kennen wir?

A
  1. Einschluss (Enter, forced entry) Regression
  2. Blockweise (hierarchische) Regression
  3. Schrittweise Regression
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Welchen Einfluss hat die Reihenfolge der Parameterziehung?

A

Einfluss auf die Signifikanztests von ΔR²
im letzten Schritt ident mit Enter Methode

-> inkrementelle Validität
Ist Prädiktor noch singifikant wenn für schon bekannte Einflussfaktoren oder verwandte Konstrukte kontrolliert wird? Wie groß?

  • ist Präd noch signifikant unter hinzunahme von Drittvar?
    Direkte Bestimmung von ΔR² Zuwachs an erklärter Varianz
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Welche Modellvoraussetzungen hat die multiple lineare Regression?

A
  1. UV ist metrisch oder dichotom. AV ist metrisch.
  2. Linearität des Zusammenhangs
  3. Homoskedastizität
  4. Normalverteilung der Residuen
  5. Unabhängigkeit der Beobachtungen
  6. Multikollinearität
  7. Additivität
  8. Modellspezifikation korrekt
    *) weak exogenity
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Was sind die Gauß-Markov Kriterien?

A

Modellvoraussetzungen gegenüber der Residuen = Residualanalye -> model diagnostics

ɛi=yi-ŷi
E[ɛ]=0

Unabhängigkeit: Residuen untereinander unkorreliert
Normalverteilt: Erwartungswert 0
Homoskedastisch: konstant und unabhängig dh hoher/niedriger Testscore enthält gleich viel Fehler

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Welches Skalenniveau hat AV?

A

metrisch -> geht ja um Varianzanalyse

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Was bedeutet Linearität des Zusammenhangs in Bezug auf die Regressionsanalyse? Wie linearität prüfbar?

A

Effekt des Prädiktors auf alle Outcomes gleich
nicht etwa qudratisch, kubisch, etc.
grafisch mittels Streudiagramm prüfbar
sollte kein Muster zeigen sondern 1 gerader Streifen, keine Ausreißer

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Was bedeutet Homoskedastizität? Wie ist es prüfbar?

A

Fehlervarianz in allen Ausprägungen gleich
wenn nicht: Standardfehler wird unglaubwürdig, auch t-Wert -> Einfluss auf Typ-1 und Typ-2 Fehler
aber: Schätzer bleibt unbiased
grafisch mittels Streudiagramm
Punktewolke trichterförmig -> hinweiß auf heteroskedastizität

17
Q

Was sind prediction intervalls? Was sind Konfidenzintervalle der Regressionsgeraden?

A

modellbasierte Vorhersage in welchem Bereich sich 95% der zukünftigen Beobachtungen fallen sollten
wird durch Ausreißer verzerrt aber auch geeignet für Ausreißerdiagnostik

KI für die Regressionsgerade ist der Bereich in dem sich die Regressionsgerade zu 95% Wahrscheinlichkeit befindet

18
Q

Wie kann mit Verletzungen der Linearität umgegangen werden?

A

generell große Stichprobe oder große Abweichung um nachzuweisen, dass Zusammenhang nicht linear ist
1. Variablentransformation zB log
-> Nachteil: in echt schwierig zu deuten

  1. direkte Modellierung des nichtlinearen Zusammenhangs
    -> Ergänzung eines quadratischen, kubischen Terms, etc. = polynomiale Funktion
19
Q

Wie kann mit Verletzungen der Homoskedastizität umgegangen werden?

A
  • bei heteroskedastizität: Standardfehler zu klein -> t wird zu schnell signifikant
    –> ausweichen auf andere Parameterschätzung z.B. gewichtete kleinste Quadrate
    Oder, besser: Bootstrap
20
Q

Was bedeutet Bootstrapping?

A

durch wiederholtes Ziehen mit zurücklegen werden Stichproben erzeugt, die manche Werte mehrfach enthalten
-> Parameterverteilung
-> Verwendung für KIs und Signifikanztests
empirische Verteilungen aus den Daten selbst berechnen und daran modellieren

-> Münchhausen style, pulling yourself out by your own bootstraps

21
Q

Was gibt es über Ausreißer zu sagen hinsichtlich Modelldiagnostik multiple lineare Regression?

A

Hinweis auf Modellverletzung
uU verzerrender Einfluss (muss nicht sein) abhängig:
-) Größe der Abweichung (direkt prop)
-) Stichprobengröße (indirekt prop)

-> wenn kleine Abweichung und Stichprobe groß, kein großer Effekt der Ausreißer

22
Q

Wie kann die Normalverteilung der Residuen überprüft werden?

A
  1. Histogramm und Q-Q PLot (bzw P-P Plot)
    sind Residuen normalverteilt liegen Punkte im Q-Q bzw. P-P auf einer Diagonale
    Standardisierte Residuen sollten möglichst zwischen ±2.5 liegen, 98.8% der Werte (also bisschen drüber ist nicht so schlimm)
  2. statistische Kennwerte:
    a) Cook-Distanz: Werte ab 1 deuten auf Ausreißer hin
    b) Mahalanobis Abstand: multivariates Abstandsmaß, desto größter Stichprobe, desto mehr vernachlässigbar
    c) zentrierter Hebelwert: Einfluss der beobachteten auf die vorhergesagten Werte, Cutoffs für auffällige werte, meist 3x Erwartungswert
    -> für jeden Datenpunkts berechnet, überprüft ob über cutoff
    ggf Sensitivitätsanalyse: Ausschluss von Daten und Wiederholung -> gleiche Parameter?
    Ausschluss nur präregistriert, nicht posteriori (p-Hacking!)
23
Q

Wie kann die Unabhängigkeit von Beobachtungen im multiplen linearen Modell geprüft werden? Welche Probleme ergeben sich aus einer Verletzung? Was kann man dagegen tun?

A

-durch inhaltliche Überlegungen des Studiendesigns (zB Messwh, genestete Daten) geprüft

NICHT zu testen mit Durbin-Watson Tests : testet nur auf serielle Abhängigkeit, nicht sinnvoll bei querschnittlichen Daten; willkürliche Reihenfolge

Verletzung führt zu:
- zu kleine SE -> Auswirkungen auf Signifikanztest
- Typ-1-Fehler steigen (Tests zu schnell signifikant)
- weniger Auswirkung auf Parameterschätzung selbst
(=wie bei heteroskedastizität)

bei nicht unabhängigen Daten müssen andere Analysemethoden verwendet werden

24
Q

Was ist Multikollinearität? Welche Probleme ergeben sich?

A

Prädiktoren dürfen korrelieren aber nicht zu stark

sind 2+ Prädiktoren hoch korreliert |r|->1:
- Beitrag Prädiktor 1 sehr ähnlich zu Prädiktor 2
-> SE der Parameter werden größer, signifikanz und relativer Beitrag sehr sensibel für Zufallsschwankungen
-> schwieriger unique contribution zu ermitteln
-> Größe R² limitiert

sind 2+ Prädiktoren perfekt korreliert |r|=1:
- kein Modell kann angepasst werden
- SPSS streikt

25
Q

Wie kann Multikollinearität überprüft werden? Wie kann mit einer Verletzung umgegangen werden?

A

Variance Inflation Factor (VIF) -> ist Höhe der interkorrelation problematisch?
- VIF für jeden Prädiktor wie stark die Varianz seines Koeffizienten durch die anderen erhöht wird
- NUR abhängig von Korrelationen mit anderen Prädiktoren, unabhängig von Korrelationen mit Outcome

VIF(j) = 1 / (1-R²)

wenn Prädiktor unkorreliert VIF = 1
bei korreliertheit VIF>1

übliche Cutoffs: VIF>10
–> was dann? redundante Prädiktoren entfernen (basierend auf theoretischem Modell entscheiden, welcher Prädiktor redundant)
gibt noch weitere Verfahren:
zB communality analysis, dominance analysis

26
Q

Was ist Additivität?

A

Einzeleffekte addieren sich (siehe Modellgleichung)
aus Sicht der ANOVA testet Regression nur Haupteffekte; wahres Modell kann aber auch multiplikativ sein (Wechselwirkungen, Moderatoren, …)
Regressionsmodell ohne Wechselwirkungen nur gültig, wenn additives Modell auch tatsächlich in der Population gilt (Modellspezifikation)

27
Q

Was ist mit korrekter Modellspezifikation gemeint?

A
  • unser Modell ist nur richtig wenn es korrekt spezifiziert wurde:
    1. Alle wesentlichen Prädiktoren enthalten
    2. Prädiktoren sind wirklich Prädiktoren
    3. Modellierung der Zusammenhänge ist korrekt
    (Interaktionen, Drittvariablen, nicht-lineare Zusammenhänge ausreichend berücksichtigt)
    4. Messfehler der Prädiktoren nicht zu groß

wurde Prädiktor vergessen -> unique contributions und Koeffizienten biased und daher nur schlechte Schätzer der Populationsmittelwerte

28
Q

Wie kann korrekte Modellspezifikation überprüft werden?

A

inhaltlich kausale Überlegungen
DAG (= directed acyclic graphs) = Strukturmodelle, grafische Darstellung von Kausalbeziehungen
können idR keine Kausalität belegen dh. Kausalitätsüberlegungen dokumentieren und offenlegen
für Regression: nur confounder Variablen
-> eine gemeinsame Ursache für Variation

a priori Überlegung über Drittvariablen
konkurrierende Modelle in Resultaten gegenüberstellen und diskutieren

a posteriori Drittvariable inkludieren verboten:
- erhöht Typ 1 Fehlerrate
- kann eine Form von p-Hacking sein
- kann generell zu Konfusion führen, schwer interpretierbar

29
Q

Was ist die Voraussetzung der weak exogenity?

A

Modell geht davon aus, dass Prädiktoren fehlerfrei gemessen wurden -> unwahrscheinlich
kann zu Unterschätzung der Zusammenhänge und unique contributions führen

Alternativen:
Errors-in-variables models/measurement error models
Strukturgleichungsmodelle (SEM)

30
Q

Wie kann die benötigte Stichprobengröße für multiple lineare regression geschätzt werden?

A

komplex! abhängig von:
- R²
- Anzahl der Prädiktoren
- Multikollinearität
- Korrelationen der Prädiktoren mit Outcome

benötigte Stichprobe steigt wenn:
- Multikollinearität hoch ist
- viele Prädiktoren erfasst werden
- Prädiktoren mit dem Outcome nur schwach korrelieren
- nur kleine Effekte

rule of thumb: pro neuen Prädiktor zumindest +10N

Programme wie G-Power schätzen benötigte Stichprobe anhand Effektstärke f² (achtung, nicht mit eta² sondern f²)
Poweranalyse bei Regressionsanalyse stark an R² gebunden

31
Q

Welche Besonderheiten haben binäre Prädiktoren?

A

Sie müssen Dummykodiert werden (0,1)
Regressionsgerade geht durch die Mittelwerte der Gruppen
Signifikanztest im prinzip einfach ein t-Test weil Mittelwertsvergleiche auf signifikanz
Sind ein weg qualitative Daten in ein quantitatives Modell einzuführen

32
Q

Welche Konventionen gibt es bei Dummyvariablen?

A

0 = Kontroll- bzw. Referenzgruppe
1 = Experimentelle Gruppe

yi=b0+b1*Di
Di… Dummy

y(Control)=b0
y(Exp)=b0+b1

Gruppenunterschied = Mittelwertsunterschied

33
Q

Welche Unterschiede zu k=1 gibt es?

A

Slope Parameter steht nun nicht mehr in direktem Zusammenhang mit der zero-moment correlation
Parameter umeinander adjustiert

t² ist nicht mehr gleich F, F test der Prädiktoren nun nicht mehr Global

r2(X,Y)=/=R2 da mehrere Partialkorrelationen berechnet werden

F Test testet nun
H0: b1 = b2 = … = bk = 0
—> Omnibustest

34
Q

Wie wird mit dichotomen Prädiktorvariablen umgegangen?

A

Ausprägungen dummykodiert
0=control -> y(control)=b0
1=experiment -> y(exp)=b0+b1
Signifikanztest: Mittelwertsvgl, im Prinzip t-Test

35
Q

Wie wird mit polytomen Prädiktorvariablen umgegangen?

A

Dummycodiert (0, 1)
unterschiedliche Fragestellungen indem immer 1 Mittelwertsvergleich 2 Gruppen -> t-Test

zB Effektcodierung mit -1 als Referenz
-> Interzept: Gesamtmittelwert
-> Slope: Mittelwertsunterschiede der übrigen Gruppen, ohne Referenz

für vollständiges Set orthogonaler Kontraste gilt F Wert des Gesamtmodells = t² der Prädiktorvariable

36
Q

Wie funktioniert die forced entry Regression?

A

Prädiktoren werden ausgewählt und simultan aufgenommen

37
Q

Wie funktioniert die blockweise Regression?

A

(hierarchisch [nicht verwechseln mit multilevelmodellen]):
selbst gewählte Reihenfolge, einzeln oder in Blocks
nach jedem Schritt: ΔF berechnet ->
- erhöht Hinzunahme des Prädiktors die Varianzerklärung signifikant? Um wie viel?
- Ändern sich die Regressionskoeff?
–> Prädiktor mitaufnehmen

38
Q

WIe funktioniert schrittweise Regression?

A
  • maximal für explorative designs geeignet
  • stur nach Algorithmus, kann Theorie nicht berücksichtigen
  • Abschlussmodell enthält Prädiktoren mit der größten Erklärungskraft
  • mit blockweise Regression kombinierbar
    2 Richtungen:
  • vorwärts: steigt R signifikant durch Aufnahme eines Prädiktors -> mitaufgenommen; weitere Pädiktoren adjustiert
    -rückwärts: erst alle inkludiert, dann jene Prädiktoren mit geringstem nicht signifikanten t Wert exkludiert

Probleme:
Generalisierbarkeit, Replizierbarkeit
abhängig von verfügbaren Prädiktoren und Zufallsfehler

  • höchstens in Kombi mit Validierungsmethode empfohlen, rückwärts theoretisch besser da weniger Typ 2 Fehler
39
Q
A