Multipel regression Flashcards

1
Q

Vad innebär korrelation?

A
  1. Korrelation beskriver sambandet mellan två variabler
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Vad är determinationskoefficienten r^2?

A

determinationskoefficienten r^2 beskriver STYRKAN i sabandet

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Vilka antaganden måste gälla för att vi ska kunna göra korrelationsanalys?

A
  1. Homoskedasticitet
  2. Bivariat normalfördelning
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Vad finns det för risker med att göra korrelationsanalys?

A
  1. Man måste vara observant för outliers
  2. Försiktig med att endast kika på en del av rangen
  3. Det kan finnas icke-linjära samband
  4. Det kan finnas en tredjevariabel som är orsaken till korrelationen
  5. Det är ofta svårt att säga någonting om kausaliteten på korrelationen
  6. Stickprovsstorleken påverkar storleken på effekten för korrelationen
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Varför vill man göra en enkel regression?

A
  1. Regression är användbart för att göra prediktioner, dvs antaganden om hypotetiska fall
    –> T.ex. vad blir BV när OV är X.

2.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Vad innebär regressionsekvationen?

A
  1. Den linje som bäst och med minst fel beskriver alla datapunkter
  2. y=b0+b1*x
    –>bo= intercept/constant= BV när OB är minsta möjliga dvs 0
    –> b1=slope=linjens lutning, korrelationekoefficienten?
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Skillnad mellan enkel och multipel regression

A

ENKEL REGRESSION
–> 1 BV, 1 OV
–> Med utgångspunkt i information om X, vill vi uttala oss om Y.
–> y= b0+ b1x
–> r^2=R^2= determinationskoefficienten

MULTIPEL REGRESSION
–> 1 BV, flera OV
–> Med utgångspunkt i information om b1,b2, b3 vill vi kunna uttala oss om Y.
–> y=bo+ b1x + b2x + b3x
–> R^2 den multipla determinationskoefficienten

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Nämn en viktig fördel med multipel regression

A

Vi kan utvärdera den relativa betydelsen för olika prediktorer, dvs vilken OV som har starkast samband med BV

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Nämn några fördelar med multipel regression jämfört med ANOVA

A
  1. Man kan använda både kvalitativa/kategoriska och kvantitativa OV
    –> behöver ej omvandla kvantitative OVs till nominalnivå, vilket vi måste om vi ska lägga in o ANOVA
  2. Man kan enkelt lägga in flera OV samtidigt i modellen
  3. Man kan analysera både experimentell och icke-experimentell data
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

När är ANOVA att föredra framför regression?

A
  1. Om man arbetar med kvalitativa variabler och mycket få OV t.ex. vid experiment
  2. Om man förväntar sig flera interaktionseffekter, är anovalättare att tolka

I grunden är det samma beräkninar som görs, därmed kommer resultaten bli likvärdiga

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Vad innebär multipel regression?

A
  1. Vid multipel regression lägger vi till en eller flera OV som tillsammans skall förklara hur stor del av BV som kan förklaras av de olika OV
  2. Multipel regression ger även de unika bidragen till BV för respektive OV
    –> Dvs hur mycket en OV förklarar när man kontrollerar för den andra OV:n
    –> R^2 part = determinationseffekten för specifika OV:n när man kontrollerar för de andra.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Hur läser man av resultaten av multipel regression i SPSS

A
  1. Bivariata korrelationskoefficienter r
    –> Kolla pearssons correlations under “correlations” för respektive OV
  2. R^2
    –> läses ut under model summary
    –> inkluderar förklarad varians av alla OV:s
  3. Standardised coefficients beta
    –> Sambandet mellan en prediktor och BV när alla andra prediktorer hålls kontastant
  4. Om R^2 ökar när t.ex. lägger till fler variabler innebär det att vi förbättrar vår modell med delta%
  5. Om standardized coefficents beta minskar för specfik OV när vi lägger till fler OV innebär det att en del av den förklarade variansen istället förklaras med den nya OV:n
  6. Icke-standardiserad regressionskoefficient, b
    –>för varje skalstegsökning i OV ökar BV med b när man kontrollerar för andra OV
    –> kan vara svårt att använda om man har olika skalar mellan sina olika OV:s
    –> det är detta värdet som är b1, b2 och b3 för resp. OV.
  7. Standardiserad regressionskoefficient= beta
    –> här har man gjort om icke-standardiserad regressionskoefficient b på samma skala till std.
    –> Dessa kan man jämföra mellan de olika OV:s dvs. ju högre beta desto starkare prediktor för BV
    –> kontrollera signifikans i tabellen.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Hur kan man predicera intention att vaccinera sig?

A
  1. Man använder sig av regressionsekvationen, y=b0+b1x+b2x
    –> om man vet en specifik persons värde för de olika OV:s kan vi lägga in detta i ekvationen och räkna ut vårt y, vår BV
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Vad menas med korrelation dvs zero-order i SPSS?

A

Enkel bivariat korrelation
–> korrelationen mellan en av prediktrerna och beroende variabeln är UTAN HÄNSYN till andra variabler
–> r för BV och OV1=area 1+2
–> r för BV och OV2=area 2+3

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Vad menas med partiell korrelation dvs “partial” i SPSS?

A

Korrelationen mellan OV1 och BV när övriga OV:s är KONSTANTHÅLLNA
–> r för BV och OV1= area 1+2 (från OV1) - 2 (från OV2) vid korrelation mellan OV1 och OV2
–> r för BV och BV2= area 3 + 2(från OV2) - 2 från OV1

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Vad innebär semipartiell korrelation? dvs “part” i SPSS

A

korrelationen mellan en av prediktorerna (t.ex. OV1)och BV när övrig korrelation är BORTTTAGEN
–> r för BV och OV1= area 1
–> r för BV och OV2= area 3

Mha den semipartiella korrelationskoefficienten kan vi räkna ut varje OV:s påverkan på den totala förklarade variansen.

R^2-r^2 för OV1 -r^2 för OV2=area 2 (överlappande arean mellan OV1 och OV2)

17
Q

Vad händer om man lägger in ytteligare en OV i modellen?

A
  1. Om man behåller även den gamla modellen kan man se R^2 förändringen dvs hur mycket vi ökade den förklarade variansen genom att lägga till ytteligare OV
  2. Oftast får vi större R^2 ju fler OV vi lägger till
  3. R^2 ökar oavsett om prefiktorerna tillför någonting till modellen eller inte
18
Q

Varför vill man inte ha för många OV i sin regressionsmodellmodell?

A

Man får lägre power ju fler variaber man har
–> man får svårare att upptäcka signifikande prediktorer

Det uppstår en takeffekt för hur mycket varians man kan förklara efter ca 5 OV:s

19
Q

Vad kan man läsa av i adjusted R^2?

A
  1. Adjuster R^2 finns under model sumary
  2. Adjusted R^2 minskar om prediktorerna inte tillför någonting till modellen!
    –> på så sätt kan man se om man tillfört förklarad varians till modellen med ytteligare en prediktor eller inte
20
Q

vad menas med multikollinearitet?

A

Multikolliniarietet innebär att vi har hög korrelation mellan de oberoende variablerna

21
Q

Vad är problemet med att ha hög korrelation mellan de oberoende variablerna?

A
  1. Det är svårt att urskilja vilken variabel som har effekt på BV
  2. Minskad tillförlitlighet på regressionsmodellen
    –> riskerar att få andra resultat med annat stickprov
  3. Svårt att tolka resultatet
    –> svårt att identifiera en prediktors unika bidrag
  4. Minskad vinning med ytteligare prediktor
    –> sannolikheten att nya prediktorn kommer att bidra med något nytt i modellen minskar ju mer den korrelerar med andra OV i modellen
22
Q

Hur kan man upptäcka kollinearitet?

A
  1. RÄkna ut toleransvärde och VIF i SPSS

TOLERANS
–> säger hur mycket varians I OV som INTE förklarar variansen i övriga OV
–> bra värden >0.2

VIF
–> motsatsen till toleransvärdet (1/tolerans)
–> Bra värden >5 men gärna så nära 1 som möjligt

23
Q

Hur kan man åtgärda sin modell om man har hög multikolinearitet bland sina OV?

A
  1. Ha större sample
    –> vilket ger högre power att upptäcka små unika effekter
  2. Begränsa antalet variabler som korrelerar högt
    –> gör indedxvariabler av de som mäter samma sak
    –> exkludera någon OV (låt teorin guida vilka)
24
Q

Skillnad kollinearitet och multikollinearitet?

A

Kollinearitet innebär att en OV korrelerar lite med en annan OV

Multikollinearitet innebär att en eller flera OV korrelearar med flera andra OV.

25
Q

Vad innebär en tolerans?

A
  1. Tolerans= Hur stor del av variansen i OV1 överlappar INTE med OV2 och OV3?
  2. Tolerans på X innebär att X% av variansen i BV är unik för OV
  3. Räknas ut genom 1-R^2 mellan prediktorer
  4. Bra värden är tolerans >0.2 dvs över 20% unik varians i BV
  5. Toleransvärde på 0.2 innebär att 20% av variansen i BV är unik för den OV
26
Q

vad finns det för olika typer av regressionsmodeller?

A
  1. Simultanregression
    –> används vid prediktionsstudier
    –> går även bra att använda vid förstelsestudier
    –> alla variabler läggs in samtidigt
  2. Hierarkisk regression
    –> förståelsestudier
    –> undersökande av interaktionseffekter
    –> variabler läggs in i olika steg
  3. Stepwise regression
    –> utgår från starkaste prediktorn lägger sedan till näst starkaste och kollar om R^2 ökar och fortsätter sedan
27
Q

Vilka koeffcienter är samma i enkel regression?

A

pearssons korrelationskoefficient=R=Standard coefficient beta

28
Q

Hur förändras de koefficienter som är samma i enkel regression, i multipel regression?

A
  1. Pearson korrelationskoefficienter relaterar till OV:s relaterade yta

2.R^2=Förklarad varians=area 1+2+3

  1. Standardiserad betakoefficient= 1+ 2 konstant, 3+ 2 konstant
29
Q

Vad är R^2?

A

Den andel av BV som förklaras av OV

30
Q

Vilken koefficient skall man kika på för att se vilken OV som är den starkaste prediktorn för vår BV?

A

Man ska titta på standardiserad beta koefficient, där det OV med störst beta är den starkaste prediktorn

31
Q

Hur går man tillväga om man vill veta den totala förklarade variansen med modellen? Samt hur mycket varje OV bidrar?

A
  1. Titta på R^2 under model summary för att få totala förklarade variansen
  2. titta på “part” under coefficients
    –> den semipartiella korrelationen

3.Den delen som överlappar mellan OV kan man räkna ut genom att alla andra variabler är kända. (Åtminstonde om det endast är 2 OV)