Lecture 21: Multiple regression Flashcards

1
Q

wat zijn de assumpties van het lineaire model

A

For simple regression:
- Sensitivity
- Homoscedasticity
- Linearity

Additionally, for multiple regression:
- Multicollinearity

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

wat voor soort variabelen bij multiple regression

A

Multiple linear regression is used to model the relationship between a continuous response variable and continuous or categorical explanatory variables.
maar… meestal continuous dependent en independent

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

wat is de assumptie van linearity

A

er moet een lineaire relatie zijn tussen de independent en dependent variable

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

wat voor formule bij multiple regression

A

y = B0 + B1x1 + B2X2 …. + ei

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

In linear regression, the relationships are modeled using…

A

linear predictor functions whose unknown model parameters (B’s) are estimated from the data.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

To adhere to the multicollinearity assumption…

A

there must not be a too high linear relation between the predictor variables.

dus de predictor variables mogen niet te lineair gerelateerd zijn aan elkaar

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

hoe check je voor multicollinearity

A
  • Correlations
  • Matrix scatterplot
  • Collinearity diagnostics:
    VIF: max < 10, mean < 1
    Tolerance: > 0.2 -> good
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

wat is er met B0

A

we always have a B0, even when we do not have any predictor variables.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

dus verschil van assumptie lineairity en multicollinearity

A

linearity = wel een linear relationship between independent and dependent

multicollinearity = geen lineaire relatie tussen predictor variables

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

hoe meet je de assumptie van linearity

A
  • correlations
  • matrix scatterplots with predictors and outcome variable
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

regression coefficients tell us…

A

what the model predicts, and allows us to make estimations

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

b0 is our prediction if…

A

all our predictor variables were zero. dus ook wel null model!!!
estimates the grand mean of the dependent variable

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

wat is het lastige aan 2 predictors

A

predicten in 2 dimensions -> geen scatterplots meer gebruiken….

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

the further away the beta is from 0…

A

the stronger the association between the different predictors and outcome.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

hoe kan een kleine beta alsnog een groot verschil geven

A

doordat de beta coefficients nog steeds affected worden door de standard deviations. dit betekent dat er bv een hele lage stdev is, maar dat een lage b nog steeds significantly different zijn dan 0

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

partial correlation =

A

correlation between x and y whilst controlling for z

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

welke dingen worden wel affected door standard deviation, en welke niet

A
  • correlation niet affected (want delen door stdev)
  • covariance and beta 1 zijn affected
18
Q

nog een keer in woorden: wat is r, en wat is r^2?

A

r = correlation between predicted and observed
r^2 = proportion of explained variance

19
Q

r^2 is the proportion of ….

A

explained/total

(1-r^2 is the unexplained/total)

20
Q

dus hoe bereken je explained variance in r

A

cor(x, predicted x)

21
Q

hoe doe je een multiple regression in jasp

A

alle variabelen er in bij correlation
pairwise correlation aanklikken
onder plots: scatterplots

22
Q

wat zie je bij een categorical predictor in de scatterplots

A

allemaal horizontale lijnen

23
Q

wat is het verschil tussen een correlatie en regressieanalyse

A

bij correlatie kijk je naar alle variabelen; bij regressie specificeer je echt wat de dependent variable is en wat de independent variables zijn.

24
Q

waar kan je de beta coefficients zien bij linear regression

A

onder coefficients -> unstandardized

25
Q

wat betekent unstandardized

A

betekent dat het op dezelfde schaal is als de dependent variable

26
Q

wanneer kijk je naar standardized

A

als je hypothesis testing wil doen

27
Q

wat is de intercept van de null model

A

de mean van de dependent variable

28
Q

waar kijk je nog meer naar bij een multiple regression

A

naar r^2
en adjusted r^2: die corrigeert voor het aantal variabelen dat je hebt toegevoegd.

29
Q

wat is het voordeel van adjusted r^2

A

deze punished complex models!
= parsimony

dus adjusted r^2 houdt zich meer aan de parsimony

30
Q

wat zie je bij ANOVA in de multiple regression table

A

how much better did this model predict, when compared to the null model?

31
Q

wat kan je na het bekijken van die ANOVA doen?

A

als er een significant verschil zat, kan je kijken aan welke van de variabelen dit verschil toegeschreven kan worden, want dat weten we nu niet (meerdere dingen toegevoegd!)

dus dan voeg je, onder model, een van de twee variabelen toe aan het null model. dan zie je of de andere variabele predictive accuracy toevoegd aan het model. daarna ook kijken naar R squared change, dit kan je aanvinken onder statistics.

32
Q

waar staat de R^2 change bij H0 voor

A

die vergelijkt het nieuwe null model met het originele null model

33
Q

wat laten VIF en tolerance zien

A

hoeveel multicollinearity er is

34
Q

waar kan je vif en tolerance krijgen

A

onder statistics

35
Q

outliers can have a very large effect!

A

oke

36
Q

hoe zie je outliers

A

onder residuals bij statistics: casewise diagnostics (hier krijg je case number: dan nog in de dataset kijken waar die is!)

of boxplot maken

37
Q

normality assumption

A

Q-Q plot, onder plot

38
Q

hoe kan je testen voor homoscedasticity

A

plot residuals vs predicted

39
Q

wat zie je bij marginal effect plots, wat helpt hier

A

dat je meerdere dimensies soort van kan zien, omdat de andere variables averaged out zijn. dus helpt semi met dat dimensions probleem

40
Q
A