VL5 Multiple Regression Flashcards

1
Q

Was ist eine multiple Regression?

A

Eine multiple Regression spricht von mehr als einem Prädiktor, der die Kriteriumsvariable vorhersagt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Was bedeutet statistische Kontrolle?

A

Statistische Kontrolle bedeutet, den Zusammenhang zweier Variablen von dem Einfluss einer dritten Variablen zu bereinigen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Was ist eine partielle Korrelation?

A

Die partielle Korrelation ist eine statistische Kenngröße zur Kontrolle des Einflusses einer Drittvariablen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Wie berechnet man die partielle Korrelation?

A

Die partielle Korrelation wird berechnet, indem Residualvariablen aus einfachen Regressionen korreliert werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Was ist der Unterschied zwischen Partialkorrelation und Semipartialkorrelation?

A

Die Partialkorrelation kontrolliert den Einfluss einer Drittvariablen auf beiden Variablen, während die Semipartialkorrelation nur auf einer der beiden Variablen kontrolliert.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Fülle die Lücke aus: Die partielle Korrelation ist nützlich, um einen angenommenen Effekt einer Drittvariable (Z) aus einer bivariaten Korrelation (X und Y) ______.

A

herauszurechnen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Welche drei Variablen sind in der Formel für die partielle Korrelation beteiligt?

A

X, Y, Z

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Wie verhalten sich Partialkorrelation und Korrelation nullter Ordnung, wenn die Drittvariable mit beiden Variablen unkorreliert ist?

A

Sie sind gleich.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Was sind die Voraussetzungen für die multiple Regression?

A

Die Voraussetzungen sind Linearität, Normalverteilung der Residuen und Homoskedastizität.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Was ist Multikollinearität?

A

Multikollinearität beschreibt die Situation, in der Prädiktoren in einer Regression hochgradig miteinander korreliert sind.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Wozu dient das multiple R-Quadrat?

A

Das multiple R-Quadrat misst den Anteil der Varianz in der Kriteriumsvariable, der durch die Prädiktoren erklärt wird.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Wie berechnet man die partielle Korrelation mit bivariaten Korrelationen?

A

r_XY∙Z = r_XY - (r_XZ * r_YZ) / (1 - r^2_XZ) * (1 - r^2_YZ)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Was passiert mit der Stärke der Korrelation, wenn eine Drittvariable den Zusammenhang teilweise erklärt?

A

Die Stärke der Korrelation sinkt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Was ist eine Suppressorvariable?

A

Eine Suppressorvariable erhöht die Korrelation zwischen zwei anderen Variablen, wenn sie kontrolliert wird.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Wie kann die Semipartialkorrelation direkt aus den Korrelationen berechnet werden?

A

r(Y∙Z)X = r_XY - (r_XZ * r_YZ) / (1 - r^2_YZ)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Was ist das Ergebnis der Berechnung der partiellen Korrelation für die Anzahl der Störche und die Geburtenzahl, wenn der Einfluss der Einwohnerdichte kontrolliert wird?

A

0.07

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Was zeigt die Studie mit jungen Erwachsenen über die Korrelation zwischen Happiness und Einsamkeit?

A

Die Korrelation ist negativ mit r_Happiness,Einsamkeit = -0.511.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Was ist eine häufig replizierte Vermutung über Einkommen und Körpergröße?

A

Kleinere Menschen landen in schlechter bezahlten Jobs.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Was ist die Formel für die partielle Korrelation?

A

r_XY∙Z = r_XY - (r_XZ * r_YZ) / (1 - r^2_XZ)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Was beschreibt das Konzept der Semipartialkorrelation?

A

Die Semipartialkorrelation ist die Korrelation einer Variablen mit einer Residualvariablen einer anderen, bereinigt um den Einfluss einer Drittvariablen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Was beschreibt die Korrelation?

A

Den (linearen) Zusammenhang zwischen zwei Merkmalen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Was ist Partialkorrelation?

A

Den (linearen) Zusammenhang zwischen zwei Merkmalen unter Berücksichtigung des Einflusses einer dritten Variable.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Was ist Semipartialkorrelation?

A

Den (linearen) Zusammenhang zwischen zwei Merkmalen, wobei der Einfluss einer Variable aus einer der beiden beteiligten Variablen herausgerechnet wurde.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Was untersucht die Forschungsfrage bezüglich des Hochschuleignungstests?

A

Wie viel Varianz erklärt ein Hochschuleignungstest über die Abiturnote hinaus in dem Merkmal Studienerfolg?

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Was ist der Zusammenhang zwischen r_xy, r_xz und r_yz in der Partialkorrelation?
r_YZ = r_XY - r_XZ * r_YZ
26
Wie viel Varianz erklärt der Hochschuleignungstest über die Abiturnote hinaus?
r = 0.28, r^2 = 8%
27
Was sind die Ziele der linearen Regression?
* Zusammenhänge zwischen Prädiktoren und Kriterium untersuchen * Vorhersagen für neue Daten erstellen * Fehler bei den Vorhersagen minimieren
28
Wie sieht das statistische Modell der linearen Regression aus?
y_i = b_0 + b_1 * x_i,1 + b_2 * x_i,2 + ... + b_k * x_i,k + e_i
29
Was beschreibt die Regressionskonstante b_0?
Den erwarteten Wert der Kriteriumsvariable, wenn alle Prädiktoren den Wert Null realisieren.
30
Was sind partielle Regressionskoeffizienten?
Die erwartete Veränderung im Kriterium, wenn man den jeweiligen Prädiktor um eine Einheit erhöht und die anderen konstant hält.
31
Was ist das Residuenquadratsumme (SAQ)?
Die Summe der quadrierten Abweichungen der Fehler um die Regressionslinie.
32
Wie wird der spezifische Anteil von Information von X1 über Y bestimmt?
Durch Bereinigung von X1 um alle anderen Variablen und Nutzung der Residualvariable zur Vorhersage von Y.
33
Was ist der Unterschied zwischen den Regressionsgewichten der einfachen Regression und den partiellen Regressionsgewichten?
Partielle Regressionsgewichte sind in der Regel nicht identisch mit den Regressionsgewichten der einfachen Regression.
34
Fill in the blank: Die Forschungsfrage untersucht, wie viel Varianz ein Hochschuleignungstest über die _______ hinaus erklärt.
Abiturnote
35
True or False: Die Semipartialkorrelation betrachtet den Einfluss einer dritten Variable auf beide beteiligten Variablen.
False
36
Was zeigt der Wert r = 0.63 für den Hochschuleignungstest?
Eine gute Eignung des Tests zur Beschreibung des Studienerfolgs.
37
Wie viele Personen wurden in den Beispiel-Daten untersucht?
N = 237
38
Was minimiert die Streuung der Fehler um die Regressionslinie?
Residuenquadratsumme oder Summe der Abweichungsquadrate (SAQ) ## Footnote SAQ bezeichnet die Summe der quadrierten Abweichungen zwischen den beobachteten Werten und den geschätzten Werten der Regressionslinie.
39
Was ist das Ziel bei der Wahl der Koeffizienten in der Regression?
Die Summe der quadrierten Fehlerterme minimieren ## Footnote Dies ist ein zentrales Ziel in der linearen Regression, um ein bestmöglich passendes Modell zu erhalten.
40
Welche Methode wird verwendet, um die Summe der quadrierten Fehlerterme zu minimieren?
Methode der kleinsten Quadrate
41
Wie berechnet man den Steigungskoeffizienten ( b_1 ) mit zwei Prädiktoren?
Formel: ( b_1 = rac{r_{YX_1} - r_{YX_2} cdot r_{X_1X_2}}{1 - r^2} cdot s_Y ) ## Footnote Hierbei sind ( r_{YX_1} ) und ( r_{YX_2} ) die Korrelationen zwischen dem Kriterium und den Prädiktoren.
42
Wie wird der Determinationskoeffizient ( R^2 ) definiert?
Anteil der durch alle Prädiktoren im Kriterium erklärten Variation ## Footnote ( R^2 ) ist eine wichtige Kennzahl in der Regressionsanalyse zur Bewertung der Modellgüte.
43
Was beschreibt die Residualvarianz?
Erwartete (mittlere) quadrierte Abweichung der Residuen um die Regressionsgerade ## Footnote Die Residualvarianz ist unabhängig von der Stichprobengröße.
44
Was ist der Standardschätzfehler?
Erwartete Abweichung in der Einheit, in der die Kriteriumsvariable gemessen wird
45
Was ist der Vorteil des Determinationskoeffizienten ( R^2 )?
Dimensionslos, daher gut vergleichbar ## Footnote ( R^2 ) ist normiert zwischen 0 und 1, je höher, desto besser das Modell.
46
Wie wird der korrigierte Determinationskoeffizient (adjusted ( R^2 )) berechnet?
Formel: ( R^2_{adj} = 1 - (1 - R^2) cdot rac{N - 1}{N - k - 1} ) ## Footnote Hierbei steht ( N ) für die Stichprobengröße und ( k ) für die Anzahl der Prädiktoren.
47
Was wird durch den Standardschätzfehler ( sigma_E ) beschrieben?
Mittlere Abweichung bei einer Vorhersage ## Footnote Wird auch als RMSE (root mean squared error) bezeichnet.
48
Wie viele Freiheitsgrade büßt man für Regressionskoeffizienten ein?
k + 1 ## Footnote Dies geschieht, um einen unverzerrten Schätzer für den Populationswert zu erhalten.
49
Was ist die Bedeutung des ( R^2 ) in der Praxis?
Er erklärt den Anteil der Varianz im Kriterium, der durch die Prädiktoren erklärt wird ## Footnote In der Psychologie sind oft nur niedrige Werte (<50%) zu erwarten.
50
Wie wird die nicht-erklärte Varianz in Bezug auf Modellkomplexität korrigiert?
Durch Anpassung des ( R^2 ) für die Anzahl der Prädiktoren ## Footnote Dies geschieht, um eine Überanpassung des Modells zu vermeiden.
51
Was beschreibt die semipartielle Korrelation?
Die Korrelation zwischen einem Prädiktor und dem Kriterium, kontrolliert für andere Prädiktoren ## Footnote Sie ist wichtig für die Interpretation der Regressionskoeffizienten.
52
Wie ist die Beziehung zwischen ( R ) und ( r )?
( R ) ist die Verallgemeinerung von ( r ) für multiple Regressionen
53
Was wird als nicht erklärte Schwankung bezeichnet?
Die Differenz zwischen beobachteter und erklärter Variation im Kriterium
54
Was ist der Nullpunkt der Skala eines Prädiktors in der Psychologie?
Oft nicht sinnvoll interpretierbar, z.B. Intelligenz oder Sozialkompetenz = 0 ## Footnote Dies führt zu Schwierigkeiten in der Interpretation der Regressionskonstante.
55
Was bedeutet Zentrierung in der Regression?
Subtraktion des Mittelwerts für jeden Prädiktor, wodurch die Regressionskonstante einer Person mit durchschnittlichen Werten entspricht ## Footnote Zentrierung ändert nicht die Regressionsgewichte.
56
Ändert die Zentrierung die Regressionsgewichte?
Nein, die Regressionsgewichte bleiben gleich ## Footnote Die Veränderung des Kriteriums in Abhängigkeit von den Prädiktoren bleibt unverändert.
57
Wann ist die Standardisierung von Gewichten sinnvoll?
Für Vergleiche von der Wichtigkeit von Prädiktoren innerhalb eines Modells ## Footnote Besonders wenn die Skalen unterschiedliche oder schwer interpretierbare Einheiten haben.
58
Was sind standardisierte Gewichte in der Regression?
Oft als 𝛽𝑘 bezeichnet, was ungünstig ist, da griechische Buchstaben für Populationswerte reserviert werden ## Footnote Standardisierte Gewichte helfen bei der Vergleichbarkeit von Prädiktoren.
59
Wann sind unstandardisierte Koeffizienten vorteilhaft?
Bei Vergleichen verschiedener Gruppen, z.B. zwischen Jungen und Alten ## Footnote Unterschiede in den Varianzen zwischen den Gruppen beeinflussen die Standardisierung.
60
Wann sind standardisierte Koeffizienten vorteilhaft?
Bei Variablen, die in unterschiedlicher Metrik vorliegen, z.B. IQ vs. Noten ## Footnote Standardisierte Koeffizienten ermöglichen einen besseren Vergleich des Vorhersagebeitrags.
61
Welche zwei grundlegenden Fragestellungen umfasst die inferenzstatistische Absicherung eines Regressionsmodells?
1. Statistisch bedeutsamer Anteil der Varianz des Kriteriums durch alle Prädiktoren? 2. Leisten einzelne Prädiktoren einen bedeutsamen Beitrag? ## Footnote Diese Fragen werden durch F-Tests und t-Tests beantwortet.
62
Was testet der globale F-Test in der Regression?
Ob alle Prädiktoren zusammen überzufällig die Schwankung in der Kriteriumsvariable erklären ## Footnote Null-Hypothese: Prädiktoren enthalten keine Information über das Kriterium.
63
Was ist die Null-Hypothese im Kontext der Regression?
Die Prädiktoren enthalten gemeinsam keine Information über das Kriterium ## Footnote Es gibt zwei äquivalente Arten, die Null-Hypothese auszudrücken.
64
Wie wird die F-Prüfgröße konkret berechnet?
F = (1 - R²) / (n - k - 1) * (k / MQSR) ## Footnote MQSR ist der mittlere quadratische Fehler des Regressionsmodells.
65
Was untersucht die Berechnung der Residualvarianz?
Den mittleren quadratischen Fehler als Populationsschätzer ## Footnote Dies hilft, den Standardschätzfehler zu berechnen.
66
Was sind die Modellgütemaße in der Regression?
Sie werden zur Berechnung des adjustierten R² verwendet ## Footnote Adjustiertes R² gibt an, wie gut das Modell die Varianz erklärt.
67
Was beschreibt die Interpretation eines standardisierten Einflusses?
Veränderung im Kriterium in Standardabweichungen, wenn der Prädiktor um eine Standardabweichung erhöht wird ## Footnote Dies gilt für konstante übrige Prädiktoren.
68
Was ist ein Beispiel für die Vorhersage von positivem Affekt?
Anhand von drei Prädiktoren: Alter, Anzahl enger Freunde, Gehalt ## Footnote Hierbei wird das mittlere Gehalt in Tausend Euro angegeben.
69
Was sind die zentralen Gedanken bei der Berechnung der Steigung im Regressionsmodell?
1. Modellparameter bestimmen 2. Vorhersagegüte des Modells bewerten ## Footnote Dies umfasst die Berechnung der partiellen Regressionsgewichte.
70
Was ist die Beziehung zwischen Gehalt, Entspannung und Lebenszufriedenheit in der Studie?
Untersucht wurde, wie Gehalt und Entspannung die Lebenszufriedenheit beeinflussen ## Footnote Lebenszufriedenheit wurde auf einer Skala von 1-20 gemessen.
71
Wie wird der Einfluss der Prädiktoren in der Regression gemessen?
Durch die Berechnung der partiellen Regressionsgewichte und deren Signifikanz ## Footnote Dies erfolgt durch t-Tests für jeden Parameter des Modells.
72
Was wird mit t-Tests für jeden Parameter des Regressionsmodells geprüft?
Die Signifikanz der Regressionsgewichte ## Footnote Dies geschieht für die Regressionskonstante und die Regressionsgewichte
73
Was ist die Nullhypothese bezüglich des partiellen Regressionsgewichts?
Das partielle Regressionsgewicht ist 0 ## Footnote Tests gegen andere Werte sind möglich, aber unüblich
74
Was interessiert uns bei der Prüfung der Regressionsgewichte?
Ob der ausgewählte Prädiktor überzufällig Information über das Kriterium beiträgt ## Footnote Dies bezieht sich auf das, was alle anderen Prädiktoren schon erklärt haben
75
Wie wird die Prüfgröße für die t-Tests der einzelnen Koeffizienten gebildet?
Durch das partielle Regressionsgewicht ## Footnote Es wird die Nullhypothese überprüft, dass das partielle Steigungsgewicht des Prädiktors x in der Population gleich Null ist
76
Was ist der Standardfehler in der Regression?
Ein Maß dafür, wie stark ein beobachteter Parameter durchschnittlich vom Populationswert abweicht ## Footnote Er wird für die Berechnung der Prüfgröße verwendet
77
Was ist Multikollinearität?
Ein Zustand, bei dem mehrere Prädiktoren hoch miteinander korreliert sind ## Footnote Dies führt zu vergrößerten Standardfehlern der Regressionsgewichte
78
Was passiert, wenn zwei Prädiktoren hoch korreliert sind?
Sie erklären sehr ähnliche Varianzanteile auf der Kriteriumsvariablen ## Footnote Dies kann dazu führen, dass sie in einem Regressionsmodell möglicherweise nicht signifikant sind
79
Wie wird Multikollinearität angezeigt?
Durch einen hohen Wert des Determinationskoeffizienten R² in der Regression von x_j auf alle anderen Prädiktoren ## Footnote Auch ein niedriger Wert der Toleranz T_j und ein hoher Wert des Varianzinflationsfaktors VIF_j sind Indikatoren
80
Was ist eine Daumenregel für Multikollinearität?
Ein VIF > 10 deutet auf ein Problem hin ## Footnote Dies sollte beachtet werden
81
Was ist perfekte Multikollinearität?
Wenn ein Prädiktor exakt durch die anderen Prädiktoren vorhergesagt werden kann ## Footnote Dies kann auftreten, wenn ein Prädiktor das Vielfache eines anderen Prädiktors ist
82
Was passiert bei perfekter Multikollinearität?
Die Kleinste-Quadrate Schätzung bricht zusammen ## Footnote Das Gleichungssystem ist nicht eindeutig lösbar
83
Welche Voraussetzungen gelten für die multiple Regression?
Homoskedastizität, Normalverteilung der Residualvariablen, Unabhängigkeit der Residuen ## Footnote Bei stochastischen Regressoren muss eine multivariate Normalverteilung vorliegen
84
Was ist das Ziel von Konfidenzintervallen in der Regression?
95% der Konfidenzintervalle sollen den wahren Wert umschließen ## Footnote Es ist falsch zu sagen, dass der wahre Parameter mit 95% Wahrscheinlichkeit in diesem Konfidenzintervall liegt
85
Partialkorrelation1
86
Partialkorrelation2
87
Partialkorrelation Berechnung
88
Semipartialkorrelation
89
Vergleich von partieller und semipartieller Korrelation
90
Vergleich von partieller und semipartieller Korrelation2
91
Visualisierung (Semi)partialkorrelation
92
Fiktives Rechenbeispiel Semipartialkorrelation
93
Zusammenfassung: Wann brauche ich was
94
Regressionskonstante
95
Bedingte Regressionsgewichte
96
Partielle Regressionsgewichte
97
Partielle Regressionsgewichte2
98
WH: Summe der Abweichungsquadrate
99
Kleinste Quadrate mit zwei Prädiktoren
100
Residualvarianz und Standardschätzfehler (MR)
101
Determinationskoeffizient
102
Berechnung Determinationskoeffizient
103
Berechnung des Standardschätzfehlers aus 𝑹²
104
Interpretation von R und R²
105
warum das alles?
106
Adjustiertes R²
107
Zentrierung
108
Standardisierung
109
Konkrete Vorhersage Jasp
110
Inferenz in der multiplen Regression
111
Der globale F-Test
112
𝑭-Prüfgröße
113
t-Tests für Parameter
114
Berechnung der Prüfgröße t-Test
115
Konfidenzintervalle
116
Multikollinearität
Wenn mehrere Prädiktoren hoch miteinander korreliert sind, spricht man von Multikollinearität. Dies führt zu vergrößerten Standardfehlern der Regressionsgewichte und somit zu unpräzisen Schätzungen. Wenn zwei Prädiktoren hoch korreliert sind, kann es beispielsweise sein, dass sie sehr ähnliche Varianzanteile auf der Kriteriumsvariablen erklären. Solange sie gemeinsam in einem Regressionsmodell stecken, werden sie daher vielleicht nicht signifikant. Wenn einer der beiden Prädiktoren schon in einem Modell steckt, erklärt die Zunahme des anderen Prädiktors keine zusätzliche Varianz (dies wäre genauso, wenn der andere Prädiktor schon im Modell stecken würde).
117
Multikollinearität
118
Perfekte Multikollinearität