Sitzung 12: Die lineare Regression Flashcards
Wie kann man bei Regression vorgehen?
- induktiv: Gesetzmäßigkeiten
- deduktiv: Theorien testen
Wozu kann man Regression verwenden?
- Untersuchung von Ursache-Wirkungs-Zusammenhängen
- am Ende kann man Prognosen erstellen
- Die Regression selbst testet nur, wie stark dieser Ursache-Wirkungs-Zusammenhang ist, nicht aber ob die angenommene kausale Richtung korrekt ist!
Mögliche Fragestellungen, die man bei Regression abtesten kann
- Ursachenanalyse:
Wie stark ist der Einfluss der UV auf die AV? (Wie stark wirkt die Polarisierung des Parlaments (X) auf die Beständigkeit der Regierung (Y)?) - Wirkungsprognose:
Wie würde sich in Zukunft die abhängige Variable, bei einer Änderung der unabhängigen verändern?
(Wie ändert sich die Regierungsbeständigkeit (Y), wenn alle Anti-System-Parteien verboten werden und damit die Polarisierung (X) auf Null gesetzt wird?) - Querschnittsanalyse:
Zu einem Zeitpunkt (Gibt es Unterschiede in den Auswirkungen der Polarisierung (X) auf die Regierungsbeständigkeit (Y) in unterschiedlichen Ländern?) - Zeitreihenanalyse:
Zu einem Zeitverlauf, es gibt eine Variable Zeit
(Wie hat sich die Regierungsbeständigkeit (Y) seit dem zweiten Weltkrieg in den westeuropäischen Ländern verändert (X = Zeit)?)
Was sind die zwei Parameter, durch die sich Geraden beschreiben lassen?
- Achsenabschnitt a
- Steigung b
Regressionsgerade
Die Regressionsgerade ist diejenige Gerade, die am besten auf die Punktewolke der Daten passt.
Wie kann man am besten die Regressionsgerade in die Punktewolke „reinlegen“?
Um die optimale Lage der Regressionsgerade zu bestimmen verwendet man wie schon bei der Kovarianz und Pearsons r die Abweichungen vom arithmetischen Mittel.
Unerklärte Abweichungen
- Prognosefehler
- Residuen
(Werden durch die Regressionsgerade nicht erklärt)
Was ist Ziel der Regressionsanalyse?
Ziel der Regressionsanalyse ist es die Gerade so zu legen, dass die unerklärten Abweichungen minimiert werden.
Welche Methode nutzt man, um Residuen zu minimieren?
= Methode der kleinsten Quadrate (OLS)
SPSS: R
Korrelationskoeffizient r nach Pearson
SPSS: R-Quadrat
Determinationskoezient R2
SPSS: Korrigiertes R-Quadrat
Korrigiert auf die Anzahl der unabhängigen Variablen, da jede zusätzliche erklärende Variable in einer multiplen Regression R2 ansteigen lässt.
Je mehr UV, desto höher R2
SPSS: Standardfehler des Schätzers
Mittlerer Fehler, den man bei der Verwendung der Regressionsfunktion bei der Schätzung von y macht
A) ESS
B) USS
C) TSS
A) Explained sum of Squares
B) Unexplained sum of Squares (quadrierte Residuen)
C) Total sum of Squares
ANOVA
Analysis of variance