VLRM Flashcards
dodatne pretpostavke
nema multikolinearnosti, N>k+1 - velicina posmatranog uzorka mora biti bar za 1 veca od broja nezavisnih varijabli u modelu, prediktori nisu slucajne promenljive
nema multikolinearnosti znaci da
nema visoke korelisanosti izmedju nezavisnih varijabli prediktora, ne postoji savrsena korelacija izmedju nezavisnih promenljivih
kada bi se sve tacke nalazile u ravni (VRM sa 2 nez prom)?
kada bi izmedju nezavisnih i zavisne postojala potpuna funkcionalna linearna veza
gde se nalazi ocekivana vrednost zavisne promenljive
na ravni
da li sve tacke leze na ravni kod VLRM sa dve nez prom
ne, neke su ispod, a neke iznad
sta je beta 0
odsecak koji ravan odseca na y osi
sta je beta 1
prosecna promena zavisne promenljive y kada se nezavisna x1 poveca za jednu svoju jedinicu, pod uslovom da je x2 const
sta je beta 2
prosecna promena zavisne y kada se nezavisna x2 poveca za jednu svoju jedinicu, a x1 je const
sta je regresiona ravan
ona ravan cija jednacina najbolje reprezentuje empirijske podatke
pomocu cega se ocenjuju parametri u VLRM
MNK
sta je rezidual
razlika izmedju izmerene i ocenjene vrednosti
koje je ocekivanje b0, b1, b2
beta0, beta1, beta2
kakve treba da budu varijanse parametara regresionog modela
sto manje
za utvrdjivanje prilagodjenosti ocene regresione ravni empirijskim podacima koristimo
SGR, koeficijent visestruke determinacije i podeseni koeficijent determinacije
nedostaci KVD
zavisi od broja promenljivih u modelu i velicine uzorka i povecava se ukljucivanjem nove nezavisne promenljive u model bez obzira na stvarni uticaj
kada ce KVD biti blizu 1
ako je broj podataka u uzorku mali, a postoji veliki broj nezavisnih, iako one ne uticu mnogo pojedinacno na zavisnu promenljivu
sta nam govori PKD
koliki je procenat varijabiliteta zavisne objasnjen nezavisnim zajedno
da li su tackaste ocene parametara dovoljne
ne, jer nema garancija da ce se poklopiti sa pravim vrednostima parametara
zasto se uvode lazne promenljive
da bi se adekvatno opisale promene koje se javljaju kod promenljivih pod odredjenim uslovima, dodeluje im se proizvoljna vrednost (ugl 0 ili 1) tako da najbolje opisuje promene faktora koje se zele kvantitativno opisati
za sta se sve koriste lazne promenljive
kao zamena kvalitativnih faktora ili numerickih kada nemamo podatke za njih, za merenje funkcije modela tokom vremena (kada su drasticno promenjeni uslovi pod kojima je data funkcija(, kao zamena za zavisnu promenljivu - logicka regresija, za merenje promene parametara tokom vremena, kao zamena za sezonske fluktuacije kod vremenskih serija
lazne promenljive koje menjaju odsecak
citav LRM se pomeara za neku vrednost (odsecak na y osi) a celokupan model ostaje paralelan prvobitnoj verziji
da li je KVD pouzdana mera kvaliteta modela
ne
zasto koristimo PKD
jer on nece neopravdano da se povecava sa rastom broja objasnjavajucih promenljivih
da li je PKD manji od KVD
da, uvek
da li moze jedan koeficijent da bude statisticki znacajan, drugi ne, a ceo model opet da
da
multikolinearnost
pojava kada su prediktori (nezavisne) medjusobno zavisni (jak stepen korelacije), prisustvo linearne ili priblizno linearne zavisnosti izmedju nezavisnih
ako je koeficijent korelacije 1
ekstremna multikolinearnost
ako je koeficijent korelacije 0
promenljive nisu uopste korelisane (ortogonalne promenljive)
koeficijent korelacije izmedju x1 i x2 obelezava se
rx1x2
kada imamo dovoljnu kolicinu informacija da ocenimo parametre beta
kada nema visoke zavisnosti izmedju nezavisnih promenljivih
koje je resenje multikolinearnosti
izbacivanje jedne od visoko korelisanih varijabli
posledice multikolniearnosti
standardne greske ocena b1 i b2 ce biti prevelike, IP za predvidjanje ce biti veoma siroki, kod t testova cemo cesto dobijati da x ne utice na y, greske druge vrste ce biti velike, cak i male promene ce rezultovati u velikim promenama ocena b1 i b2 - smanjenje vrednosti statistike testa - neopravdano prihvatanje H0
kako odredjujemo multikolinearnost
preko faktora inflacije varijanse VIF
kada je vif 1
kada nema korelacije
kada je vif beskonacno
kada su x1 i x2 savrseno korelisane
kada nema multikolinearnosti u modelu
kada je vif manje jednako 5, odnosno tol vece jednako 0.2
kada ima multikolinearnosti u modelu
kada je vif vece od 5, odnosno tol manji od 0.2
sta se jos koristi osim vifa
tol - faktor tolerancije
kako odredjujemo autokorelaciju
autokorelacionom semom prvog reda i durbin-watson testom
kada su mali uzorci, kakva je oblast u kojoj ne moze da se odredi postojanje autokorelacije
siroka
posledice autokorelacije
ocene regresionih parametara su neefikasne iako su nepristrasne, tj vise nisu najbolje linearne nepristrasne ocene, pa se mogu doneti pogresni zakljucni, KVD ce vrv da pokazuje vecu vrednost u odnosu na stvarnu, ocena varijanse slucajne greske je pristrasna, rezultati t i f testa su pristrasni i nepouzdani, IP neprecizni, predvidjanje nepouzdano
kako se resava autokorelacija
GMNK - generalizovana metoda najmanjih kvadrata - jos pretpostavki ili modifikacija modela
sta je homoskedasticnost
pojava da je varijasna slucajnih odstupanja konstantna, raspodela slucajnih gresaka je ista za sve opservacije
sta je heteroskedasticnost
kada varijansa nije konstantna, nego se menja sa promenom vrednosti nezavisne, reziduali zavise od x, raspodela slucajnih gresaka se razlikuje za svaku ospervaciju
posledice heteroskedasticnosti
ocene regresionih parametara b1, b2…bk su i dalje nepristrasne, ali neefikasne, SGR ovih ocena ce biti netacne, rezultati t i F testa nepouzdani, statisticiki testovi se ne mogu primeniti, nisu pouzdani, predvidjanja imaju veliku varijansu
kako se resava HS
primenom MNK
koji je problem sa resenjem HS
ocene nece biti nepristrasne
kako ispitujemo HS
glejserovim i whiteovim testom
sta pretpostavlja glejserov test
da apsolutne vrednosti reziduala zavise od nekog oblika slucajne promenljive x
sta pretpostavlja whiteov test
da kvadratne vrednosti reziduala zavise od nezavsnih x1 i x2 u originalnim vrednostima i u njihovim kvadratima, kao i od njihovog proizvoda
tri najcesca problema VLRM
multikolinearnost, autokorelacija, heteroskedasticnost
kada postoji autokorelacija
kada su slucajne greske korelisane (cov nije nula)