Multipele regressie Flashcards
Enkelvoudige vs meervoudige/multipele regressie
Meervoudige is een uitbreiding van de enkelvoudige regressie waarbij twee of meer verklarende variabelen (X) worden gebruikt om de afhankelijke variabele (Y) te voorspellen of verklaren.
Wat zijn de afhankelijke en onafhankelijke variabelen bij: “Kunnen we kennis van literatuur bij jongvolwassenen voorspellen/verklaren met persoons-, gezins- en schoolkenmerken?”
Y (afhankelijke variabelen) = Kennis van literatuur
X (onafhankelijke variabelen, in MP is dit predictoren) = persoonlijke kernmerken, kenmerken
ouderlijk huis, kenmerken school
Doelen multipele regressie analyse (5)
Beschrijven van lineaire relaties
Toetsen hypothesen over relaties
Kwantificeren van relaties (effectgrootte)
Beoordelen relevantie relaties (subjectief)
Voorspellen van iemands waarde met regressiemodel
Meetniveaus (4)
NOIR: Nominaal – Ordinaal – Interval – Ratio
Van welk meetniveau moet MP zijn?
Moeten van interval meetniveau zijn, want dan kunnen we bijv bij grootte gezin zeggen als +1 dan dit effect. Dichotoom variabelen (wel of niet huisdier) werkt hier ook bij.
Regressievergelijking (Y en Y dakje)
Y (beschrijving) = b0 (intercept) + b1 (richtingscoefficient) x1 variabele + b2x2 + … + e
Ydakje (voorspelling) = b0 (intercept) + b1 (richtingscoefficient) x variabele + b2x2 + …
Variantie
Alle verschillen ten opzichte van het
gemiddelden worden gekwadrateerd en opgeteld, gedeeld door het aantal respondenten en dan
krijg je wat we noemen de “variantie”.
Spreiding/variatie in scores word uitgedrukt in de statistische term variantie.
Intercept of constante (b0)
Intercept of constante (b0)
Begin/startpunt van de lijn. De positie van Y wanneer de waarde van X 0 is. Bij multipele regressie
gaat de intercept/constante er dus om waar ALLE X-en gelijk zijn aan 0.
Regressiecoefficient (b1)
Regressiecoëfficient (b1)
Hiermee wordt aangegeven hoe steil de lijn loopt. Hoeveel verandering je in Y tegenkomt per
eenheid verandering in X. Bij een steile zal die b1 groter zijn, bij een minder steile lijn is de b1 ook
kleiner.
Kleinste kwadraten criterium (AANPASSEN CARD?)
De best passende rechte lijn is gevonden middels de kleinste kwadraten criterium. De best passende
rechte lijn is de lijn waarbij de spellingsfout (error) gemiddeld zo klein mogelijk is. SPSS vind deze
passende lijn. Elke andere lijn geeft gemiddeld een groter aantal voorspellingsfouten.
Error in regressievergelijking
Error is de voorspellingsfout (of het residu) is de afstand tussen de geobserveerde waarde en de voorspelde waarde.
Wat zegt een positieve of negatieve voorspellingsfout?
Positief residue = boven de lijn; onderschatting naar model
Negatief residue = onder de lijn; overschatting door model
Goodness of fit maat
We willen een kwaliteit aangeven aan dat regressiemodel. Dat doe jen met de Goodness-of-fit maat! We willen een waarde toekennen aan hoe goed die puntenwolk gerepresenteerd word door die
rechte lijn. Hoe goed is dat model nou qua data? Hoe kleiner de error, hoe beter de goodness-of-fit.
We drukken de Goodness-of-fit uit met R2, oftewel, proportie verklaarde variantie.
Andere naam voor goodness of fit maat?
R^2 = proporite verklaarde variantie
TOETSING VERDER BEKIJKEN IN SAMENVATTING