Regresjonsanalyse 2 Flashcards
Hva er hierarkiske regresjonsmodeller?
Det er regresjonsmodeller der det opprettes blokker/grupper av variabler, og disse legges til i modellen i kontrollerte sekvenser.
Dette gjør at vi kan evaluere hvordan hver blokk forklarer variasjonen i den avhengige variabelen.
Dette er nyttig når du har teorier om hvordan ulike grupper av variabler påvirker resultatet, eller når du ønsker å kontrollere for visse effekter før du ser på andre.
Når er det lurt å benytte seg av hierarkiske regresjonsmodeller?
- Ved justering for kovariat
- Når man vil se hvor mye varians ulike grupper av variabler forklarer i et utfall
- Får å se hvor mye varians en interaksjon forklarer
- Når du vil se hvordan mediasjonseffekten påvirker utfallet
Si litt om kovariat-justering og hierarkiske regresjonsmodeller?
I hierarkisk regresjon legges ofte kontrollvariabler (kovariater) til først i den første blokken.
Ved å justere for disse kan du se effekten av andre uavhengige variabler etter at kontrollvariablene er tatt hensyn til.
Dette lar deg sammenligne effekten av en variabel både før og etter at andre faktorer er inkludert i modellen. Kort sagt er det en god måte å kontrollere for kovariater på.
Si litt om oppdeling av varians i blokker og hierarkiske regresjonsmodeller?
Variansfordelingen er viktig i hierarkisk regresjon fordi du kan dele opp variansen i den avhengige variabelen i flere blokker.
Hver blokk representerer et sett av variabler, og ved å legge til blokker en om gangen kan du måle hvor mye ekstra varians hver ny blokk forklarer.
Dette hjelper deg å forstå hvilke grupper av variabler som har størst forklaringskraft.
Man kan se på justert R^2 hvordan denne forandres etter at vi legger til en ny blokk.
Si litt om interaksjonseffekter og hierarkiske regresjonsmodeller?
Når du jobber med interaksjonseffekter i hierarkisk regresjon, kan du legge til interaksjonstermer i en egen blokk.
Dette lar deg analysere hvor mye ekstra varians interaksjonen mellom variablene forklarer, utover effekten av de enkelte variablene.
Interaksjoner legges til etter at de primære hovedeffektene er inkludert.
Si litt om mediasjonseffekter og hierarkiske regresjonsmodeller?
Mediasjon innebærer at en variabel (mediator) forklarer forholdet mellom en uavhengig og avhengig variabel.
I en hierarkisk modell kan du først inkludere den uavhengige variabelen i én blokk og deretter legge til mediatoren i en senere blokk.
Dette lar deg skille mellom den direkte effekten (uten mediatør) og den indirekte effekten (gjennom mediatoren) ved å analysere hvordan forklaringskraften endres når mediatoren legges til.
Hva er forskjellen mellom ujustert R^2 og justert R^2 i hierarkiske regresjonsmodeller?
Den ujusterte forklarer kun blokkens forklarte varians på utfallet, mens den justerte sier andelen forklart varians av den ene blokken i tillegg til de forutgående blokkene som allerede er lagt inn.
Hvorfor kan den justert R^2 til den andre blokken være annerledes enn summen av de to blokkenes ujusterte R^2?
Fordi prediktorene i de to blokkene kan korrelere og dette kontrolleres for, se eksempel. Svaret er dermed ikke kun å legge sammen de to ujusterte.
Eksempel:
Blokk 1:
Ujustert R^2: .39
Justert R^2: .39
Blokk 2:
Ujustert R^2: . 35
Justert R^2: .52
Hva er problemene med blokkinndeling?
Involverer mange valgmuligheter:
Når du deler variablene inn i blokker, er det mange mulige måter å gjøre dette på. Forskjellige forskere kan definere hvilke variabler som hører sammen i en blokk på ulike måter, noe som kan føre til forskjeller i modellens utfall.
Forskjeller i variabelgruppering: Hvis forskere grupperer variablene annerledes, kan resultatene bli vanskelige å sammenligne på tvers av studier. Det gjør det utfordrende å trekke generelle konklusjoner, spesielt når variablene analyseres i blokker. Dette problemet er mindre for enkeltstående prediktorer, da deres individuelle effekter er mer direkte å tolke og sammenligne.
Rekkefølgen av prediktorer og hierarkiske grupper: Et annet viktig problem er hvilken rekkefølge du velger å legge variablene til i modellen. Rekkefølgen av prediktorer kan påvirke resultatene betydelig, spesielt når du legger til blokker av variabler. Ved å legge til variabler i en annen rekkefølge kan du få forskjellig ΔR² og tolkning av effektene.
Hvilke 4 ulike måter kan vi legge inn variabler i hierarkisk regresjon?
- Enter
- Forward
- Backward
- Stepwise
De ulike måtene påvirker ikke R^2, men gir litt forskjellige betavekter underveis i prosessen. Alle betavekten er dog det samme i siste steg uavhengig av måte. Ulike måter kan også kombineres.
Forklar Enter-metoden
I denne metoden så legger man inn alle prediktorene på likt.
Denne metoden krever et godt teoretisk grunnlag for de valgte prediktorene, men du bestemmer ikke rekkefølgen på variablene som legges inn.
Denne metoden brukes når du har en klar hypotese om hvilke variabler som er viktige, og du vil evaluere deres samlede effekt på den avhengige variabelen.
Forklar Forward-metoden
Du starter med en tom modell (uten uavhengige variabler) og legger til én variabel om gangen, basert på hvilken variabel som har sterkest korrelasjon med den avhengige variabelen.
Variabler legges kun til hvis de forbedrer modellens forklaringskraft signifikant.
En fordel med forward-modellen er at det er en mer effektiv modell med færre variabler, siden kun de variablene som gir signifikant forbedring, inkluderes.
Forklar Backward-meotden
Du starter med alle variablene inkludert i modellen, og deretter fjerner du én variabel av gangen, vanligvis den som bidrar minst til modellen ved å se på p-verdien.
Prosessen fortsetter til kun signifikante variabler gjenstår.
En fordel ved backward-modellen er at den kan være nyttig for å se hvordan fjerning av variabler påvirker modellens forklaringskraft og for å få en enklere,
Forklar Stepwise-metoden
Dette er en kombinasjon av forward og backward seleksjon. Modellen starter med en tom modell (som i forward), og variabler legges til én etter én, man velger først den prediktoren med lavest p-verdi eller høyest R^2 endring.
Men etter at en variabel er lagt til, kan variabler også fjernes (som i backward) dersom de blir mindre signifikante når andre variabler legges til.
Denne metoden utføres til R^2 ikke forbedres signifikant lengre.
Dette er den mest brukte empirisk drevne metoden. Andy Field anbefaler ikke denne metoden ved mindre ved eksplorerende modellbygging!
Hva er den største begrensingen til forward, backward og stepwise?
Den største begrensingen med forward, backward og stepwise er at variablene her blir valgt på bakgrunn av matematisk kriterie, og naturlig variasjon i utvalgene vil kunne påvirke om de oppnår disse kriteriene eller ikke, og dette utfordrer generaliserbarheten.