1 Multiple Regression Flashcards

1
Q

Warum ist Regressionsdiagnostik wichtig?

A

Die Regressionsdiagnostik ist wichtig, um sicherzustellen, dass die Annahmen der multiplen Regressionsanalyse erfüllt sind. Sie hilft dabei, mögliche Probleme zu erkennen, die die Gültigkeit der Ergebnisse beeinträchtigen könnten.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Wie unterscheidet sich Multiple Regression von Bivariater Regression?

A
  • Bivariate Regression hat eine UV und eine AV und es wird ermittelt, wie viel der UV zur AV beiträgt.
  • Multiple Regression hat mehr Prädikatoren (UV) UND diese korrelieren höchstwahrscheinlich auch unterinander
  • Weitere Prädiktoren werden nur in dem Anteil gerechnet, in d em sie die AV ZUSÄTZLICH ERKLÄREN (wenn sie überschneident sind mit anderen Prädikatoren, wird dieser nicht gerechnet)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Was ist der Vorteil einer multiplen Regression im vergleich zu einer einfachen linearen Regression?

A

Wir können den genauen, alleinigen Beitrag einer Variable ermitteln und dabei Redundanzen berücksichtigen sowie Störvariablen kontrollieren.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Warum kann man bei der multiplen Regression nicht einfach Kausalität annehmen?

A

Nur weil die eine Variable ans UV und die andere als AV definiert wird, bedeutet es nicht automatisch Kausalität. Dafür bedarf es noch anderen Bedingungen, z.B.:
- Ursache vor Wirkung
- Stabilität des Effekts bei Einschluss weiterer Prädiktoren

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Wie lautet die Regressionsgleichung für die bivariate Regression?

A

Beispiel:
x = Gehalt
y = Mitarbeitendenzufriedenheit
a = Bereich, wo die Gerade anfängt
b = Bereich der Steigung

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Wie lautet die Regressionsgleichung für die multiple Regression?

A

Beispiel:
x = Gehalt
y = Mitarbeitendenzufriedenheit
a = Bereich, wo die Gerade anfängt
b = Bereich der Steigung

Jeder Prädiktor hat einen eigenen Steigungsbereich, also z.b. x1 + b1, x2 + b2, x3 + b3, …)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Was ist Lineare Regression?

A

Lineare Regression ist ein Oberbegriff, der sowohl die bivariate (einfache) als auch die multiple (mit mehreren Prädiktoren) Regression umfasst.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Was sind die Voraussetzungen für die Multiple Regression?

A
  • Die AV muss metrisch sein (Skalenniveau NICHT ordinal oder nominal)
  • Residuen müssen Unabhängig sein (Autokorrelation) -> es darf keine logische Reihenfolge der erfassten Daten geben, z.B. keine Wochentage)
  • Normalverteilung der Residuen (Stichprobe muss gross genug sein)
  • Ausreisser und Einflussreiche Datenpunkte sollten erkennt werden -> und ausgeschlossen? (z.B. mit Residuals vs Leverage Diagramm)
  • Keine Multikolinearität
  • Keine Homoskedaszität
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Was sind Residuen?

A

Residuen in der multiplen Regression sind die Differenzen zwischen den tatsächlich beobachteten Werten der abhängigen Variable und den vorhergesagten Wertendurch das Regressionsmodell.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Was ist Multikolinearität?

A

wenn zwei oder mehr unabhängige Variablen stark miteinander korrelieren. Das bedeutet, dass eine Variable fast vollständig durch eine andere (oder eine Kombination anderer) vorhergesagt werden kann.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Was ist Homoskedastizität?

A

Homoskedastizität ist eine wichtige Annahme in der linearen Regression, die besagt, dass die Varianz der Residuen konstant über alle Werte der unabhängigen Variablen bleibt. (Fehlerverteilung ist gleich verteilt) -> Levine Test oder Grafisch gemäss Bild

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Woran erkenne ich Multikollinearität in einer Regressionstabelle?

A
  • Hohe Standardfehler & instabile Koeffizienten
  • Signifikantes Modell (hohes R²), aber unsignifikante Einzelvariablen
  • Hohe Korrelation zwischen Prädiktoren (>0.8)
  • Hoher VIF (>5 oder >10 kritisch)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Wie kann ich Multikollinearität in Jamovi prüfen?

A

Mit dem VIF-Wert (Colinearity Statistics)

Interpretation siehe Anhang

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Wie kann ich Homoskedastizität in Jamovi prüfen?

A

Über die Residuenplots. Interpretation siehe Anhang.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Wie erkenne ich Autokorrelation der Residuen?

A

🔹 Durbin-Watson-Test → Schnellste Methode für einfache Regressionsmodelle. (2 ist gut, alles andere ist schlecht)

DW ≈ 2 → Keine Autokorrelation (✅ Gut).
DW < 1,5 → Positive Autokorrelation (🔴 Problem: Residuen hängen zusammen, oft in Zeitreihen).
DW > 2,5 → Negative Autokorrelation (🟠 Problem: Extreme Schwankungen zwischen Residuen).

Später:
🔹 Residuenplot → Hilft, visuelle Muster zu erkennen.
🔹 Ljung-Box-Test → Nützlich für langfristige Autokorrelation in Zeitreihen.
🔹 Korrelationsmatrix der Residuen → Für detaillierte Analyse von Verzögerungen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Wie erkenne ich Normalverteilung der Residuen?

A

Shapiro-Wilk-Test:

p > 0.05 = Normalverteilung
p < 0.05 signifikant nicht Normalverteilt

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Wie erkenne ich Ausreisser bei der multiplen Regression?

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Was ist das Ziel der multiplen Regression?

A

Lineare Vorhersage einer intervallskalierten abhängigen Variable (Av, Kriterium) anhandm ehrerer unabhängiger Variablen (UVs, Prädiktoren) vorherzusagen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Was muss gegeben sein, d amit die Kausalität (und nicht nur Prognose) erfüllt ist?

A
  • Die Ursache muss zu einem früheren Zeitpunkt passiert sein.
  • Der Effekt muss auch dann bleiben, wenn weitere Prädiktoren ins Modell dazu kommen
20
Q

Welche zwei gleichungen gibt es jeweils?

A
  • Eine auf Stichprobenebene
  • Eine auf Populationsebene
21
Q

Wie ist die Gleichung der Multiplen Regression für zwei unabhängige Variablen?

22
Q

Wie ist die Gleihcung der Multiplen Regression für mehrere unabhängige Variablen?

23
Q

Was ist das kleinste-quadrate-kriterium?

A

Das Kleinste-Quadrate-Kriterium der multiplen Regression minimiert die Summe der quadrierten Abweichungen zwischen den vorhergesagten und den tatsächlichen Werten auf der y-Achse, um die bestmögliche Anpassung der Regressionsgeraden an die Daten zu gewährleisten.

24
Q

Welches ist der beste Schätzwert, wenn man nichts anderes weiss?

A

Der Mittelwert

25
Q

Wann (bei welcher Zahl) sind die Prädiktoren geeignet für die Vorsage und wann nicht?

A

0 = gänzlich ungeeignet zur Vorhersage
1 = geänzlichc geeignet zur Vorhersage

26
Q

Wann ist der Effekt einer Regression gross, mittel und schwach?

27
Q

Wann liegt eine bedingte Regressionsanalyse vor?

A

Wenn wir die Ausprägungen aller anderen unabhängigen Variablen konstant halten.

28
Q

Was sind Regressionsgewichte?

A

Regressionsgewichte (auch Regressionskoeffizienten oder
β
β-Koeffizienten) sind die Zahlen, die in einer Regressionsgleichung die Stärke und Richtung des Einflusses einer unabhängigen Variable auf die abhängige Variable angeben.

29
Q

Was sind unstandardisierte Regressionsgewicchte?

A
  • sind die häufigsten
  • sind nützlichc zur Prognose des Kriteriums (enthalten die Metrik)
  • sie erklären Veränderungen in Einheiten
  • ermöglichen Gruppenvergleicche
30
Q

Was sind standardisierte Regressionsgewichte?

A
  • in Publikationsen anzutreffen
  • häufig zum Vergleich verschiedener Studien mit unterschiedlichenMessinstrumenten
  • sie erklären Veränderungen in Standardabweichungen (nicht in Einheiten)
31
Q

Was sind die Annahmen der Regressionsdiagnostik? (Welche Annahmen müssen erfüllt sein?)

A
  • Korrekte Spezifikation des Modells (Underfitting oder Overfitting)
  • Messfehlerfreiheit der unabhängigen Variablen
  • Homoskedastizität
  • Normalverteilung der Residuen
  • Unabhängigkeit der Residuen
32
Q

Welche weiteren Probleme (ausser nichterfüllung der Annahmen) können auftreten?

A
  • Ausreisser und einflussreiche Datenpunkte
  • Multikollinearität (wenn zwei oder mehrere Prädiktoren besonders viel Varianz miteinander teilen)
33
Q

Nenne ein Beispiel für Underfitting

A

Es wird z.B. eine Lineare Regression zwischen zwei Variablen angenommen, es handelt sich aber um eine Kurve. (es gibt aber aucch weitere Gründe)

34
Q

Was ist Overfitting

A

z.B. wenn Prädiktoren ins Modell eingefügt werden, die zur Erklärung irrelevant sind.

35
Q

Welche Probleme kann es beid er Messfehlerfreiheit der unabhängigen Variablen geben?

A
  • Wenn UV nicht realiabel ist
  • Wenn UV nicht valide ist
    (oder beides
36
Q

Was ist Heteroskedastizität?

37
Q

Wie testen wir auf Homoskedastizität?

A
  • Breusch-Pagan-Test
  • White’s Test p > .05
38
Q

Wie teste ich auf Normalverteilung?

A
  • Kolmogorov-Smirnov-Test
  • Shapiro-Wilk-Test
39
Q

Wann treffen wir Abhängigkeit der Residuen oft an?

A
  • bei Klumpenstrichproben (test: intra-klassen-koeffizienten (ICC) > .05
  • bei Zeitreihenfolgen (Test: Durbin-Watson-Statistik)ç
40
Q

Was ist die datengesteuerte Auswahl von Prädiktorvariablen?

A

Die datengesteuerte Auswahl von Prädiktorvariablen ist ein Verfahren, bei dem automatisch oder systematisch bestimmt wird, welche unabhängigen Variablen in einem Regressionsmodell verwendet werden sollen. Ziel ist es, ein Modell zu finden, das möglichst präzise Vorhersagen trifft, aber nicht unnötig komplex ist.

41
Q

Wann ist die datengesteuerte Auswahl von Prädikatorvariablen sinnvoll?

A
  • Wenn es sehr viele gibt
  • Wenn nicht klar ist, welche Variablen sinnvoll sind (z.b keine klare theoretische Grundlage)
  • Wenn man Overfitting vermeiden will
42
Q

Was ist Kreuzvalidierung in der Prädikatorenauswahl?

A

Die Kreuzvalidierung ist eine Technik zur Bewertung der Modellgüte, insbesondere in der datengesteuerten Auswahl von Prädiktorvariablen. Sie hilft zu überprüfen, ob das gewählte Modell nicht nur auf den vorhandenen Daten gut funktioniert, sondern auch auf neuen, unbekannten Daten zuverlässige Vorhersagen liefert.

43
Q

Warum kann man bei der multiplen Regression den Einfluss von Störvariablen kontrollieren.

A

In der multiplen Regression kann man den Einfluss von Störvariablen kontrollieren, weil mehrere unabhängige Variablen gleichzeitig in das Modell aufgenommen werden. Dadurch wird der Einfluss einer Variablen auf die abhängige Variable bereinigt, indem die Effekte anderer Variablen statistisch konstant gehalten werden. So kann man den isolierten Effekt einer Variablen auf die Zielgröße bestimmen, ohne dass Störvariablen das Ergebnis verzerren.

44
Q

Was ist der Interzept?

A

Das Interzept (β0), auch Achsenabschnitt, ist der Wert der abhängigen Variable (Y), wenn alle unabhängigen Variablen (X1, X2, … Xn) gleich null sind.

45
Q

Wann ist das Interzept wichtig?

A

✔ Wenn X = 0 eine realistische Bedeutung hat (z. B. Einkommen bei 0 Berufserfahrung).

✔ Wenn man eine Referenzbasis für die Interpretation braucht.

46
Q

Wann ist das Interzept nicht sinnvoll interpretierbar?

A

❌ Wenn X=0 nicht realistisch vorkommt (z. B. Alter = 0 Jahre).

❌ Wenn die Prädiktoren keinen natürlichen Nullpunkt haben.

👉 In solchen Fällen kann man die Variablen zentrieren, damit das Interzept eine verständlichere Bedeutung bekommt.

47
Q

Welche Formen von Datengesteuerten Auswahlverfahren gibt es?

A
  • Vorwärtsselektion
  • Rückwärtselimination
  • Schrittweise Regression
  • Lasso Regression
  • Ridge Regression
  • Elastic Net Regression
  • AIC/BIC