Multiple Regression Flashcards
Um den Einfluss einer Drittvariable Z auf eine Korrelation rXY zu kontrollieren,
wird diese auspartialisiert.
Vorgehen auspartielisieren
2 einfache Regressionen gerechnet, bei denen Z einmal als Prädiktor für X und einmal als Prädiktor für Y genutzt wird.
Die Residualvariable der ersten Regression bezeichnet man als EX(Z), = Werten für 𝑒𝑚 in entspricht. Diese Variable EX(Z) ist als Fehler mit der Prädiktorvariable Z unkorreliert. Auf die gleiche Art wird die Residualvariable EY(Z) erzeugt.
Danach werden die Residualvariablen der beiden Regressionen korreliert, dies ist die Partialkorrelation.
Die Partialkorrelation kann sich zur ursprünglichen Korrelation (der Korrelation nullter Ordnung) auf drei Arten verhalten:
Partialkorrelation&Korrelation nullter Ordnung sind gleich,wenn die Drittvariable mit beiden Variablen unkorreliert ist.
Der Betrag der Partialkorrelation ist kleiner, wenn die Drittvariable den Zusammenhang der beiden Variablen teilweise oder ganz erklaren kann
Der Betrag der Partialkorrelation ist größer, wenn die Drittvariable eine Suppressorvariable ist.
Semipartialkorrelation 𝑟(y.z)x
Korrelation einer Variablen X mit einer Residualvariablen der Variablen Y, die um den Einfluss von Z bereinigt wurde:
Multipe Regression Variablen
eine Kriteriumsvariable (die metrische abhängige Variable) und mehr als eine Prädiktorvariable (jeweils eine metrische unabhängige Variable).
Ziel der Regression
Erklärung von Varianz oder die Vorhersage von Werten.
Voraussetzungen multiple Regression mit stochastischen Regressorn
multivariate Normalverteilung vorliegen, was einer bivariaten Normalverteilung zwischen jedem Paar von Variablen entspricht.
Voraussetzungen der multiplen Regression mit deterministischen Regression
Homoskedastizität
Normalverteilung der Residualvariablen
Unabhängigkeit der Residuen
Aus dem Verhältnis der standardisierten Steigerungskoeffizienten zur Korrelation dieser Prädiktorvariablen j mit dem Kriterium kann gesehen werden, ob Suppressionseffekte vorliegen:
𝑏js ryxj
Wenn der standardisierte Steigungskoeffizient größer ist als die Korrelation, ist der andere Prädiktor ein Suppressor.
Indeterminationskoeffizienten
wird durch den nicht erklärten Teil der Varianz definiert
Wertebereich multiple Korrelation
0&1
was entspricht die multiple Korrelation
Korrelation zwischen den vorhergesagten&gemessenen Werten
Wurzel aus Rquadrat
Wann ist die multiple Korrelation größer als 0
wenn die Prädiktoren gemeinsam Varianz erklären
Hypothesen Multiple Regression
𝐻0:𝛲=0
𝐻1:𝛲>0
Tabelle Multiple Regression
immer nur einseitig
0,95 Tabelle
Multikollinearität
Wenn mehrere Prädiktoren hoch miteinander korreliert sind
Wozu führt Multikollinearität?
zu vergrößerten Standardfehlern der Regressionsgewichte & somit zu unpräzisen Schätzungen.
Wenn 2 Prädiktoren hoch korreliert sind, kann es beispielsweise sein, dass sie sehr ähnliche Varianzanteile auf der Kriteriumsvariablen erklären. Solange sie gemeinsam in einem Regressionsmodell stecken, werden sie daher vielleicht nicht signifikant. Wenn einer der beiden Prädiktoren schon in einem Modell steckt, erklärt die Zunahme des anderen Prädiktors keine zusätzliche Varianz (dies wäre genauso, wenn der andere Prädiktor schon im Modell stecken würde).
Was kann berechnet werden, um Multikollinearität zu entdecken
Toleranzfaktor
Varianzinflations-Faktor 𝑉𝐼𝐹
Wie erhält man den Toleranzfaktor
indem man die quadrierte multiple Korrelation eines Prädiktors j mit allen anderen unabhängigen Variablen von 1 abzieht:
Was bedeutet ein Toleranzfaktor von 0
dass dieser Prädiktor perfekt aus allen anderen Prädiktoren vorhergesagt werden könnte.
Was bedeuten Werte vom Toleranzfaktor kleiner als 0,10
Anzeichen für Multikollinearität.
Varianzinflations-Faktor
Kehrwert des Toleranzfaktors.
Varianzinflaktions FAktor Werte größer als 10
Zeichen für Multikollinearität
Effektgröße der Multiplen Korrelation
Determinationskoeffizient (𝑅2 tendenziell zu groß ist) deshalb korrigiertes r2
da Prädiktoren miteinander korrelieren
Einfluss in multipler Regression ein anderer als jeweils in der einfachen
standardisierte Regressionsgleichung
hat keinen Achsenabschnitt b0=0
Verhältnis der standardisierten Steigerungskoeffizienten zur Korrelation der P
bjs < ryxj erklärte Varianz des Prädiktors wird durch den anderen Prädiktor erklärt,daher erklärt dieser Prädiktor in der M.R. weniger Varianz als in einer E.R
bjs = ryxj Prädiktor hängt nicht mit dem anderen zusammen
bjs > ryxj der andere Prädiktor ist ein Suppressor
bjs < ryxj
erklärte Varianz des Prädiktors wird durch den anderen Prädiktor erklärt,daher erklärt dieser Prädiktor in der M.R. weniger Varianz als in einer E.R
bjs = ryxj
Prädiktor hängt nicht mit dem anderen zusammen
bjs > ryxj d
er andere Prädiktor ist ein Suppressor
Was fragt man sich bei der Multiplen Regression (Hypothesen)
Ob die prädiktoren gemeinsam Varianz erklären Wenn ja dann ist die M.K. > 0