MR Flashcards
Eigenschaften und Voraussetzungen mR:
a) die Kriteriumsvariable Y muss kontinuierlich sein
b) die Prädiktorvariablen Xj können kontinuierlich oder dichotom sein
c) die Regressionsresiduuen em addieren sich über alle n Personen zu Null auf: E(e)=0
d) die Varianz der Regressionsresiduen ist ein Maß für die Güte der Vorhersage durch das Modell (Var(e)=0 ist perfekt
Wie werden bei der multiplen Regression die Regressionskoeffizienten berechnet bzw. geschätzt?
Nach dem Kleinste-Quadrate-Kriterium (idR ordinary least squares; OLS oder weighted least squares WLS)
Sie werden so bestimmt, dass die Summe der quadrierten Abweichungen der vorhergesagten Werten von den beobachteten Werten minimiert ist (für jede Person).
Was versteht man unter dem multiplen Determinationskoeffizienten R2?
Der Anteil der Varianz von Y, der duch alle Prädiktoren in der Gleichung gemeinsam aufgeklärt werden kann.
Er entspricht dem Quotienten aus der Varianz der vorhergesagten Werte und der Varianz der beoabachteten Werte.
Er entspricht dem Quadrat der multiplen Korrelation zwischen beobachtetem und vorhergesagtem Y.
Was ist der multiple Indeterminationskoeffizient?
1-R2
Anteil der unerklärten Varianz von Y
Wie kann inkrementell Varianz von Y aufgeklärt werden?
Durch schrittweise Hinzunahme von Prädiktoren
Wie wird die zusätzlich Varianz, die durch Hinzunahme eines neuen Prädiktors aufgeklärt wird bezeichnet?
Semipartialdetermination oder Inkrement in R2
Achtung!!!: Für die Gesamtdetermination spielt die Reihenfolge der Aufnahme der Prädiktoren keine Rolle, wohl aber bei den Inkrementen (da der Vorhersagebeitrag eines Prädiktors auch von seinen Kollinearitäten mit anderen Prädiktoren in der Gleichung abhängt.)
Was meint man mit “Multikollinearität”
wenn die Prädiktorvariablen in der multiplen Regression sehr hoch untereinander korrelieren dh sie sind hoch untereinander konfundiert.
Konsequenzen von Multikollinearität
- kleine Regressionsgewichte von Xi, aber hohe und signifikante bivariate Korrelationen (nullter Ordnung) mit Y
- Schätzung der b-Gewichte wird ungenau (drückt sich in Erhöhung der Standardfehler der bs aus).
- Einschränkung der aufgeklärten Varianz (R2)
Lösungen um Konsequenzen der Multikollinearität zu umgehen
- Ausschluss einzelner Prädiktoren
- Zusammenfassen von Prädiktoren zu Faktoren (Hauptkomponenten); Mittelwertbildung und diesen Mittelwert als Prädiktor verwenden
Wie diagnostiziert man Multikollinearität?
- ) Toleranz (TOL): 1 - Ri2 (Quadrat der multiplen Korr. zwischen einem Prädiktor Xi und allen anderen Prädiktoren.
- ) Varianz-Inflations-Faktor: 1/1 - Ri2
Faustregel: Vorsicht bei Tol < .10 und VIF > 10
Aber Achtung: Zusammenhang allein noch kein Problem für die Regression!
Was unterscheidet die Regressionsgleichung von der Modellgleichung in der linearen/multiplen Regression?
Die Modellgleichung ist die Gleichung der beobachteten Messwerte einschließlich eines Fehlers.
Die Regressionsgleichung ist die Gleichung der vorhergesagten Messwerte einer Person (ohne Fehler).
Bedeutung des b0 im Modell der multiplen Regression?
b0 wird als: - additive Konstante - interscept oder - Achsenabschnitt bezeichnet. Es entspricht der erwarteten Ausprägung von y(dach)m, wenn die Ausprägung auf allen! Prädiktorvariablen gleich Null ist.
Bedeutung bi im Modell der multiplen Regression?
bi wird als:
- Regressionsgewicht (der betreffenden Variablen)
- Steigungskoeffizient oder
- Slope bezeichnet.
In der einfachen linearen Regression sagt b1 aus, um wieviele Einheiten sich das Kriterium ändert, wenn sich die Prädiktorvariable um eine Einheit verändert wird.
In der multiplen Regression gibt der jeweilige bi den eigenständigen Effekt der Prädiktorvariable an, wenn die anderen auspartialisiert wurden.
bi’s sind unbekannt un müssen aus den Daten geschätzt werden.
Die Koeffizienten b0 und bi sind für alle Personen identisch! -> fixed effect modell!
Bedeutung der em in der multiplen Regression?
em wird als:
- Regressionsresiduum oder
- error bezeichnet.
Es zeigt die Differenz zwischen dem beobachtbaren Messwert ym einer Person m und dem vorhergesagten Messwert y dach m für diese Person an.
Die Regressionsresiduen em addieren sich über alle Personen n hinweg zu 0 -> E/e)=0
Standardschätzfehler der Regression (se)?
Die Standardabweichung von e = Wurzel der Varianz des Residuums
Zusammenhang zwischen der Korrelation zwischen den Prädiktoren und den eigenständigen Anteilen (bi’s)
3 Möglichkeiten:
a) b(mult) = b(einf) -> die Prädiktorvariablen sind unkorreliert
b) b(mult) < b(einf) -> Prädiktorvariablen sind untereinander korreliert; diese Kollinearität reduziert den eigenständingen Vorhersagebeitrag einer oder beider Prädiktorvariablen auf das Kriterium
c) b(mult) > b(einf) -> Prädiktorvariablen sind untereinander korreliert; diese Kollinearität erhöht den eigenständigen Anteil einer oder beider Prädiktorvariablen auf das Kriterium (=Suppression)
Was versteht man unter Suppression?
Der Einfluss eines Prädiktors auf das Kriterium (Regressionsgewicht) kann sich bei Einschluss weiterer UVs , verändern.
Er bleibt gleich, wenn die UVs nicht korrelieren (bmult=beinf).
Er ist kleiner, wenn die UVs untereinander korrelierien und die Kollinearität den eigenständigen Vorhersagebeitrag reduziert.
Suppression ist nun, wenn die UVs untereinander Korrelieren und diese Kollinearität den eigenständigen Vorhersagebeitrag erhöht. b mult ist größer als beinf!!!
Kennzeichen von Suppression:
- Klassische Suppression
- Kriterium mit Mediator x2 unkorreliert
- x1 und x2 hoch korreliert
- korr mult > korr einfach - Reziproke Suppression
- x1 und x2 korrelieren positiv mit Y (r Yx1>0, r Yx2>0)
- untereinander jedoch negativ (r x1x2 <0) - Negative Suppression
- x1 und x2 korrelieren pos miteinander (r x1x2>0;)
- das Regressionsgewicht verändert bei der mult. sein Vorzeichen
Was versteht man unter hierarchischer linearer Regression?
wird auch sequentielle Regression genannt
darunter versteht man die schrittweise Hinzunahme oder Ausschluss von einzelnen Prädiktoren oder Prädiktorblöcken mit dem Ziel,
a) die Veränderung in R2 zu inspizieren (und die eigenständigen Effekte der jeweiligen Prädiktoren zu analysieren
b) ein möglichst sparsames Modell mit hinreichend großer Vorhersagekraft zu finden
Welche Strategien zur Auswahl von Prädiktoren für ein multiples Regressionsmodell werden verwendet?
I) In erster Linie sollten theoretische Überlegungen herangezogen werden (Gesamtmodell (nicht hierarchisch) und sequentielle Aufnahme (Inkrement in R quadrat)
II) als Exploratives Vorgehen -> datengesteuerte Auswahl
a) FORWARD Selektion
b) BACKWARD Selektion
c) STEPWISE Selektion
Was versteht man unter Mediation?
Ein Mediator vermittelt den Zusammenhang zwischen einer Prädiktorvariablen mit einem Kriterium:
X1 —> X2 —> Y
er spezifiziert, wie oder warum ein Effekt auftritt.
Wie können Mediatoranalysen im Rahmen der multiplen Regression durchgeführt werden?
3 Verfahren:
- Causal Steps Approach (Baron & Kenny)
- Scobel-Test
- Bootstrapping Methode
Mediatorprüfung mit Causal Steps Approach (Baron & Kenny)
Es werden 4 Bedingungen geprüft mittels 3 Regressionsgleichungen:
1. Zuerst wird der totale Effekt von X1 auf Y untersucht (mittels Regressionsgleichung ohne Moderator)
1.Reg: ydach= b01 + b11. X1
ist erfüllt wenn b11>0 und sign.
2. Prüfung, ob X1 den Mediator signifikant beeinflusst
2.Reg: X2dach = b02 + b12. X1
ist erfüllt wenn B12>0 und sign.
3. Aufstellen Gesamtgleichung Untersuchung b-Pfad und direkter Effekt
3.Reg: ydach=b03 + b13X1 + b23X2
Bei Kontrolle von X1 muss Mediator Y sig beeinflussen (bedeutet: b23 sig > 0)
- Direkte Effekt muss kleiner als b11 sein.
dh. bei Kontrolle von Mediator muss b13 < b11 sein (partielle Mediation) oder b13
!!!nicht sig. !!! von 0 verschieden sein.