Midterm Flashcards
Test for AR(q) seriel korrelation med eksogenitetsantagelse
1) Kør OLS og find residualer
2) Kør regressionen u_h på u_h-1, u_h-2 … , u_h-q
3) Beregn F eller LM teststørrelsen, med tilhørende p-værdi
Test for AR(q) seriel korrelation uden eksogenitetsantagelse
Dette er en BG-test
1) Kør OLS og find residualer
2) Kør regressionen u_h på u_h-1, u_h-2 … , u_h-q, X
3) Beregn F eller LM teststørrelsen, med tilhørende p-værdi
Angiv MLR.1 - MLR.5
Angiv yderligere MLR.5’
1) Lineær i koefficienter (kan opskrives som modellen foreskriver)
2) Random sampling
3) Ingen perfekt kolinearitet og x_i =/ c
4) E(u|x) = 0
5) Var(u|x) = sigma^2
5’) Var(u|x) = sigma^2 Omega
Omega er diagonal med positive elementer
Angiv fortolkninger af koefficienten beta når modellen er henholdsvis: level - level level - log log - level log - log
level - level -> beta angiver den marginale ændring i respons, ved en marignal ændring i x
level - log -> beta/100 angiver procentpoint ændring i respons når x ændres med 1%
log - level -> 100*beta angiver procent ændring i repsons
log - log -> beta angiver procent ændring i repsons givet procent ændring i x. Kan også ses som en elasticitet.
Fjernelse af en vigtig variabel gør de fittede værdier biased? Hvad med beta-hatterne?
Angiv desuden matematisk hvad det vil sige at en variabel x_i er irrelevant for modellen
Sandt. Modellen vil nu korrelere med fejltermet u hvor den fjernede variabel stadig er indeholdt.
Beta-hatterne vil være biased, hvis variablen er korreleret med nogle af de andre variable.
E(beta_i (hat)) = 0
Hvornår kan det være en god idé at bruge første differenser?
Hvis vi har en positv seriel korrelation, så kan det sænke korrelationen, hvorved vores estimation er bedre.
Hvordan bestemmes frihedsgraderne i en F-test?
F(q, n-k-1)
q: Antallet af variable der testes for
n-k-1: Antallet af observationer minus antallet af variable minus intercept.
BP test for heteroskedasticitet
1) Kør normal OLS, gem de kvardrerede residualer
2) Kør regressionen:
u^2_h = d0 + d1x1 + … + dkxk + fejl
gem de kvardrerede residualer fra denne regression
3) Udregn F eller LM statistik med tilhørende p-værdi
Under hvilke antagelser er OLS konsistent og under hvilke antagelser er den BLUE?
A1-A4 => konsistens
A1-A5 => BLUE
I hvilken test gør man brug af følgende nulhypotese:
H_0: rho=0
AR(1)
Hvad sker der med OLS estimatorne, hvis der er endogenitet hos regressorerne?
Dvs. cov(u, X)≠0.
Dette er et brud på A4, hvorved vi ved, at OLS estimaterne ikke længere er konsistente og unbiased.
Ofte et tegn på, at modellen er forkert specificeret.
Under hvilken antagelse er beta* (GLS-estimatoren til korrektion af heteroskedasticitet) unbiased?
Antagelse A1-A4 skal være opfyldt!
Fx:
E(u|x)=0
Angiv Full white test når k=3
1) Kør standard OLS og gem de kvardrerede residualer u^2_h
2) Kør regressionen:
u^2_h = d0 + d1x1 + d2x2 + d3x3 + d4x1^2 + d5x2^2 + d6x3^2 + d7x1x2 + d8x1x3 + d9x2x3 + fejl
3) Udregn F eller LM testørrelse med tilhørende p-værdi
Hvad er forskellen på tværsnitdata og tidsseriedata?
Tværsnitdata er stikprøver taget fra et givent tidspunkt
Tidsseriedata er observationer fra en eller flere variable taget over tid
Hvad er OLS-estimatoren beta_hat?
beta_hat=(X’X)^-1X’y
Hvad bruges variansinflationsfaktoren (VIF) til?
Vi bruger den til at få en idé om multikollineariteten, som helst ikke må være for høj. Fås en VIF>10, så er det ikke godt.
BEMÆRK: høj VIF er ikke ensbetydende med, at vi må fjerne en variabel.
Sandt falsk: 1) WLS er et 'subset' af GLS 2) GLS benytter altid samme funktionelle form af Var(u|x) = sigma^2h(x) som FGLS
1)
sandt, WLS er når man kender heteroskedasticitetsfunktionen
2)
Falsk. GLS bygger på at vi kender den funktionelle form af h(x). FGLS antager den funktionelle form som
var(u|x) = sigma^2exp(d0 + d1x1 + … + dkxk). FGLS prøver at estimere h(x).
Hvad er Var(beta_hat|X) (Varians-kovarians-matrix for OLS-estimatoren) for homoskedasticitet?
Var(beta_hat|X)=sigma^2*(X’X)^-1
Hvad er E(sigma_hat^2) under antagelse 1-5?
sigma^2
Hvad er Var(u_i|X) ifølge antagelse 5’?
Var(u_i|X)=sigma^2*omega_i
Angiv hypotese om at en enheds ændring i b1 er udlignet af en enheds ændring i b2
H0: b1 - b2 = 0
H0: b1 = b2
Hvornår bruges GLS?
Når vi har heteroskedasticitet, og antagelse 5 dermed ikke holder. Så laver vi en transformeret model og finder GLS-estimatoren.
Hvilken antagelse brydes når der er heteroskedasticitet, og hvilke konsekvenser har det?
Brud på A5, de estimerede varianser for beta^hat er skæve => t-test, F-test og CI er ubrugelige samt OLS er ikke længere efficient (stadig konsistent).
Hvad bruges variansinflationsfaktoren (VIF) til?
Bruges til at få en idé om multikollineariteten. Hvis der er høj multikollinearitet er det ikke godt, vi ser gerne at VIF<10.
BEMÆRK: man kan ikke bruge VIF til at fjerne variable.
I en transformeret model er alt valid undtagen en ting.
R^2
GLS er foretrukket over OLS når vi både har fjernet vigtige variable og har ukendt heteroskedasticitet?
Omitted variabel bias giver bias i både OLS, GLS og FGLS.
Det sagt så vil vi typisk stadig gerne korrigere for heteroskedasticitet. Når denne er ukendt bruger vi FGLS og antager at den er en eksponentielfunktion.
I denne opgave kan vi ikke konkludere noget, da vi ikke kender til graden af bias for de to, samt vi kender ikke udstrækningen af heteroskedacitet.
I hvilke tilfælde bruges FGLS i stedet for GLS?
Vi bruger FGLS i det tilfælde, at heteroskedasticitetsfunktionen ikke er opgivet.
Hvad er vores nulhypotese, når vi tester for heteroskedasticitet?
H_0: Var(u|x)=sigma^2
Breusch-Godfrey er smart, da vi kan teste for seriel korrelation, men vi skal ikke antage noget andet, som man ellers skal i AR(Q) test.
Hvad er det?
BG kan bruges selv når der er usikkerhed om eksogenitet.
Hvilken én af BLUE af:
- GLS
- FGLS
- GLS, da vi i 2. har estimeret h(x).
Hvad er de to centrale antagelser der er i A4 for en lineær regressionsmodel med k uafhængige variable?
E(u|x_1,…,x_k)=0
Cov(u,x_i)=0, for i=1,…,k
Hvordan beregnes R^2?
SSE/SST=1-SSR/SST
Under antagelse 1-4 og 5' sigma^2 = s2, omega = O Bevis at Var(beta_hat | X) = s2 (X'X)^-1 (X'OX)(X'X)^-1 hint: beta_hat = beta + (X'X)^-1 X'u og var(beta_hat | X) = var((X'X)^-1 X'u)
Var(beta_hat | X) = Var(beta + (X’X)^-1 X’u | X) = (X’X)^-1 X’ var(u | X) X(X’X)^-1 = (X’X)^-1 X’ s2O X(X’X)^-1 = s2 (X’X)^-1 (X’OX)(X’X)^-1
Man må tage alt der har noget med X ud af variansen når man betinger på X. Den skal så sættes i anden
Beskriv Wald-test
JOKES ON YOU
Hvad sker der når korrelationen mellem nogle variable stiger, dvs. R^2_j -> 1?
Var(B^hat_j | X) -> ∞
Hvilket trade-off må vi tænke over, når vi overvejer at smide variable ud af vores model?
Bias-variance
Hvilke asymptotiske egenskaber har OLS-estimatorer?
konsistent og normalfordelt
Hvordan findes den t-statistikken generelt?
(estimat - værdi under nulhypotese)/standardfejl
Angiv fremgangsmåden i special white
1) Kør OLS, gem de fittede værdier og de kvardrerede residualer
2) Kør regressionen
u^2_h = d0 + d1y_h + d2(y_h)^2 + v
3) Beregn F (DF: 2, n-2-1) eller LM (DF: 2) teststørrelse.
Gengiv tabel G.1
Se bogen
Mvh
Mathies
Forklar Durbin Watson
Svar mangler