Lecture 21: Multiple regression Flashcards
wat zijn de assumpties van het lineaire model
For simple regression:
- Sensitivity
- Homoscedasticity
- Linearity
Additionally, for multiple regression:
- Multicollinearity
wat voor soort variabelen bij multiple regression
Multiple linear regression is used to model the relationship between a continuous response variable and continuous or categorical explanatory variables.
maar… meestal continuous dependent en independent
wat is de assumptie van linearity
er moet een lineaire relatie zijn tussen de independent en dependent variable
wat voor formule bij multiple regression
y = B0 + B1x1 + B2X2 …. + ei
In linear regression, the relationships are modeled using…
linear predictor functions whose unknown model parameters (B’s) are estimated from the data.
To adhere to the multicollinearity assumption…
there must not be a too high linear relation between the predictor variables.
dus de predictor variables mogen niet te lineair gerelateerd zijn aan elkaar
hoe check je voor multicollinearity
- Correlations
- Matrix scatterplot
- Collinearity diagnostics:
VIF: max < 10, mean < 1
Tolerance: > 0.2 -> good
wat is er met B0
we always have a B0, even when we do not have any predictor variables.
dus verschil van assumptie lineairity en multicollinearity
linearity = wel een linear relationship between independent and dependent
multicollinearity = geen lineaire relatie tussen predictor variables
hoe meet je de assumptie van linearity
- correlations
- matrix scatterplots with predictors and outcome variable
regression coefficients tell us…
what the model predicts, and allows us to make estimations
b0 is our prediction if…
all our predictor variables were zero. dus ook wel null model!!!
estimates the grand mean of the dependent variable
wat is het lastige aan 2 predictors
predicten in 2 dimensions -> geen scatterplots meer gebruiken….
the further away the beta is from 0…
the stronger the association between the different predictors and outcome.
hoe kan een kleine beta alsnog een groot verschil geven
doordat de beta coefficients nog steeds affected worden door de standard deviations. dit betekent dat er bv een hele lage stdev is, maar dat een lage b nog steeds significantly different zijn dan 0
partial correlation =
correlation between x and y whilst controlling for z