Theorie Flashcards
Schiefe
Maß für die Asymmetrie einer Verteilung
=0 symmetrisch
>0 rechts schief
<0 links schief
Wölbung
Maß für die WSK-Masse in den tails
=3 Normalverteilung
>3 heavy tails
Kovarianz
Maß des linearen Zusammenhangs zwischen X und Z
=0 unabhängig aber nicht viceversa
Cov(X,Z)>0 positiver linearen Zusammenhang
Bedingte Verteilung
Verteilung von Y gegeben die Realisation von einer anderen Zufallsvariable X
Korrelation
Corr(X,Z)=Cov(X,Z)/sqrt(Var(X)Var(Z))
Gesetz der großen Zahlen
CLT
Ȳ ist ein konstanter Schätzer für mu
Konsistenz
Ȳ konvergiert in WSK gegen den wahren Erwartungswert mu
Zentraler Grenzwertsatz (CLT)
Ȳ kann gut durch die Normalverteilung approximiert werden
p-Wert
WSK ein Schätzergebnis zu bekommen, das mindestens genauso stark gegen die Null Hypothese spricht wie das tatsächliche berechnete
Signifikanzniveau
2 Fehlerarten
Vorher festgelegte WSK der fälschlichen Ablehnung der Nullhypothese
-Fehler 1. Art
Fehler 2. Art → WSK Hypothese nicht abzulehnen obwohl sie falsch ist
95%-Konfidenzintervall
→ beinhaltet den wahren Wert von mu in 95% von wiederholten Stichproben
↳ Menge von Werten , bei denen ein Hypothesentest zum 5% Signifikanzniveau die Nullhypothese ablehnt
Was versteht man unter Unverzerrtheit eines Schätzers?
Der Erwartungswert des Schätzers entspricht dem tatsächlichen Erwartungswert in der Grundgesamtheit.
Was versteht man unter Konsistenz?
Konsistenz eines Schätzers bedeutet, dass dieser im Zeitablauf (n geht gegen unendlich) gegen den wahren Wert konvergiert, wenn die Zufallsvariablen unabhängig und identisch verteilt sind und die Stichprobenvarianz kleiner als unendlich ist.
Wie hängt die Eigenschaft der Konsistenz mit der Varianz des Schätzers und der Stichprobengröße zusammen.
Wenn die Varianz des Schätzers gegen null und die Stichprobengröße gegen unendlich geht, nähert sich der Schätzer dem wahren Wert in der Grundgesamtheit an (Konsistenz).
OLS-Schätzer
minimiert die Summe der quadrierten Abweichungen zwischen den beobachteten Werten und den geschätzten Werten auf der Regressionsgeraden
Maße für die Güte der Anpassung
Lineare Regression mit einem Regressor
Wie gut erklärt die Regressionsgerade die Daten?
→ Standardfehler der Regression (SER)
→ root mean squared error (RMSE)
→ Bestimmtheitsmaß R2
Standardfehler der Regression (SER)
Misst die Größe eines typischen Residuums in der Einheit von Y.
→ misst die Spannweite der Verteilung von Y
→ (fast) die Stichproben-Standardabweichung der OLS Residuen
→ misst die durchschnittliche “Größe” der OLS Residuen
↳ (n-2): Korrektur um die Freiheitsgrade
root mean squared error (RMSE)
ähnlich SER → mit 1/n statt 1/(n-2)
Bestimmtheitsmaß R2
Misst den Anteil der Varianz von y der durch x erklärt wird.
↳ Anteil “erklärter” Variation von durch die Regression
• Dimensionslos
• 0 ≤ R2 ≤ 1 → kann negativ sein, wenn ohne Konstante geschätzt wird
OLS-Annahmen
Lineare Regression mit einem Regressor
- Unsystematische Fehler, Exogenität und Homoskedastizität
- i.i.d.-Stichproben
- Größere Ausreißer sind selten
- Unsystematische Fehler, Exogenität und Homoskedastizität
E(u)=0 → keine systematischen Fehler
→ u ist unabhängig von X → Fehler sind exogen → unverzerrt
→ u ist abhängig von Y (exogen) und nicht von X
Var(u)=sigma^2 → Varianz der Residuen ist = und unabhängig von X und anderen Größen (Homoskedastizität)
↳ Schätzer (ß1) ist varianzminimal
- i.i.d.-Stichproben
X und Y zufällig gezogen
Dies liefert die Stichprobenverteilung von den Parameter ß0 und ß1
- Größere Ausreißer sind selten
Technisch, X und Y haben endliche vierte Momente (Wöllbung)
→ Ausreißer können zu unsinnigen Ergebnissen von führen
Kontrollmöglichkeiten:
- Betrachtung eines Streudiagramms
- Bei mehr als 2 Dimensionen: Cook-Distanz → >1: Beobachtung aus dem Datensatz entfernen
Homoskedastizität
Varianz aller Residuen ist gleich und hängt weder von X noch von anderen Größen ab.
Zwei Probleme (wenn nicht):
→ Die Standardfehler der geschätzten Parameter sind nicht mehr konsistent.
(Ineffizienz)
→ OLS Schätzer ist nicht mehr BLUE, d.h. Varianz nicht minimal
aber es verursacht keine Verzerrungen
Inkonsistente Standardfehler
→ wenn es Heteroskedastie gibt
↳ Egal, ob die Störterme homoskedastisch oder heteroskedastisch sind, ist man auf der sicheren Seite, wenn man die robusten Standardfehler verwendet
Weighted Least Squares
↳ Bei Heteroskedastizität kann dervarianzminimierende Schätzer über die Methode der gewichteten kleinsten Quadrate (Weighted Least Squares, WLS) gefunden werden.
→ WLS benötigt die Kenntnis der Störterm-Varianzen
Vorteile von OLS
6
→ unverzerrt und konsistent
→ beste Schätzer, da er die geringste Varianz von allen konsistenten Schätzern hat
Heteroskedastie-robuste Standardfehler vorhanden
→ einfach Konfidenzintervalle & Hypothesen
→ akzeptierte Methode
↳ erleichtert die Kommunikation in der Wissenschaft
→ wichtige Sprache der Regressionsanalyse
→ einfache Interpretation der geschätzten Parameter (marginaler Effekt ceteris paribus)”
Nachteile von OLS
2
→ Annahmen sind oft nicht erfüllt
- Homoskedastie
- Unabhängigkeit von den Residuen und der unabhängigen Variable
- i.i.d. vor allen bei Zeitreihendaten
→ Starke Sensibilität gegenüber Ausreißern ↳ Andere Schätzer, die nicht auf quadratischen Abweichungen basieren, können effizienter sein
Multiple lineare Regressionsmodelle
Vektor-Matrizen-Schreibweise
→ y=Xβ+u
Gütemaße für multiple Regressionen
→ SER
→ RSME
→ R2
→ “adjustiertes” bzw. “korrigiertes” R2
adjustiertes R2
→ mit Korrektur der Freiheitsgrade, wodurch Schätzunsicherheit berücksichtigt wird
→ korrigiert das Problem (R2 wächst immer, wenn man einen weiteren Regressor hinzufügt) indem es uns für das Hinzufügen weiterer Regressoren “bestraft”
OLS-Annahmen für die multiple Regression
- Der bedingte Erwartungswert von u gegeben X ist Null.
- X und y sind i.i.d
- Ausreißer sind selten (endliche vierte Momente)
- Homoskedastizität
- Keine perfekte Multikollinearität
Perfekte Multikollinearität
Ein Regressoren ist die exakte lineare Funktion des anderen Regressoren
Imperfekte Multikollinearität
tritt auf, wenn zwei oder mehr Regressoren sehr hoch korreliert sind, aber nicht exakt linear voneinander abhängig sind.
→ ähnliche Punktediagramm einer geraden Linie
↳ ein oder mehrere Regressionskoeffizienten ungenau geschätzt werden
Lösung: Korrelationen bestimmen (deskriptive Statistik)
Zeigen Sie, dass der OLS-Schätzer unverzerrt ist
E(β̂) = E((X’X)^-1 X’y)
=E((X’X)^-1 X’(Xβ+u))
=β+E((X’X)^-1 X’u)
=β
Wodurch können bei OLS-Schätzungen Verzerrungen auftreten?
Verzerrungen entstehen, wenn
- Variablen, die mit dem Regressor X korreliert und Determinanten des Regressanden y sind, ausgelassen werden (omitted variable bias).
↳ Diese Variablen sollten in die Regression aufgenommen werden. - Eine oder mehrere X-Variablen von y abhängen. Man spricht auch von Endogenität von X, da X und u nicht mehr unabhängig sind, weil y von u und somit auch X von u abhängt.
Zeigen Sie, im Fall homoskedastischer Störterme (in Matrixnotation), die Cov(β)
^Cov(β̂) = (X’X)^-1 X’ Σ X(X’X)^-1
= (X’X)^-1X’X(X’X)^-1 Σ
= (X’X)^-1X’X(X’X)^-1 σ^2_u I
= (X’X)^-1 σ^2_u
^Σ= Varianz-Kovarianzmatrix der Residuen I = Einheitsmatrix
Gemeinsame Hypothese
Spezifiziert einen Wert für zwei oder mehr Koeffizienten, d.h. sie legt für zwei oder mehr Koeffizienten eine Restriktion auf.
Im Allgemeinen kann eine gemeinsame Hypothese q Restriktionen beinhalten.
Dieser “eine nach der anderen”-Test ist nicht valide: der resultierende Test verwirft zu oft unter der Nullhypothese (in mehr als 5% der Fälle)!
Warum können wir die Koeffizienten nicht einen nach dem anderen testen?
- Weil die Verwerfungsrate unter der Nullhypothese nicht 5% ist.
- Weil die Koeffizienten nicht unabhängig voneinander sind.
Die Wahrscheinlichkeit, die Nullhypothese mit diesem Test fälschlicher- weise zu verwerfen, ist 9.5% – nicht die gewünschten 5%!
Die F-Statistik
Testet alle Teile einer gemeinsamen Hypothese auf einmal.
Verwerfe wenn groß ist!
→ Die F-Statistik ist groß, wenn eine oder mehrere t-Werten der einzelnen Hypothesen groß sind.
→ Die F-Statistik korrigiert (auf genau die richtige Weise) für die Korrelation zwischen den t-Werten (t1 und t2)
hinreichend große n ist die F-Statistik Chi2 verteilt mit q Freiheitsgraden
(t-Werte sind normalverteilt)
Bei kleineren Stichproben gilt die F-Verteilung mit den Freiheitsgraden q und n-k-1
Die Verteilung der F-Statistik in großen Stichproben
Chi^2/q
Die Verteilung der F-Statistik in großen Stichproben ist die Verteilung des Durchschnitts zweier unabhängiger quadrierter standardnormalverteilter Zufallsvariablen.
Chi-Quadrat-Verteilung
mit q Freiheitsgraden
ist definiert als die Verteilung der Summe von q unabhängigen quadrierten standardnormalverteilten Zufallsvariablen.
Die F-Statistik bei Homoskedastie
→ restringierte und umrestringiertes Modell
verwirft, wenn Hinzufügen der Variablen das R^2 “genügend” erhöht, d.h. wenn Hinzufügen der Variablen die Anpassung der Regression “hinreichend” verbessert.
→ Wenn die Fehler heteroskedastisch sind, muss F anders berechnet werden.
↳ Heteroskedastie-robuste F-Statistik
Konfidenzbereich
Die Überdeckungswahrscheinlichkeit eines Konfidenzbereichs ist die Wahrscheinlichkeit, dass der Konfidenzbereich die wahren Parameterwerte enthält.
3.00 ist der kritische Wert der F-Verteilung zum 5%-Niveau.
Überdeckungswahrscheinlichkeit von 95%, da der zugrundeliegende Test ein Niveau von 5% hat.
Warum ist die Varianz-Kovarianzmatrix der Residuen bei Heteroskedastie eine Diagonalmatrix? Welche Dimension hat sie? Warum ist sie symmetrisch? Was könnte die Ursache dafür sein, dass diese Matrix in anderen Fällen auch mal keine Diagonalmatrix ist?
Bei der Varianz-Kovarianzmatrix stehen in der Hauptdiagonalen die Varianzen und in den übrigen Elementen die Kovarianzen.
↳ Bei Homoskedastie gibt es eine Identitätsmatrix
Eine Diagonalmatrix ist eine quadratische Matrix, bei der alle Elemente außerhalb der Hauptdiagonale Null sind. Daher hat die Matrix die Dimension n*n und ist symmetrisch.
Da die Kovarianzen null sind, ist die Varianz-Kovarianzmatrix der Residuen bei Heteroskedastie eine Diagonalmatrix.
Keine Diagonalmatrix kann entstehen, wenn zwischen den Störgrößen Korrelationen vorliegen (z.B. bei Zeitreihendaten: Saisoneffekte). Die Kovarianzen sind nicht mehr alle null.
Erklären Sie verbal, warum sich bei Betrachtung mehrerer Parameter gleichzeitig als Konfidenzbereich eine Ellipse bzw. in höher-dimensionalen Räumen ein Ellipsoid ergibt
In eckigen Klammern steht eine Ellipsengleichung (Normalform: x²/a²+y²/b²=1).
↳ Wegen der unterschiedlichen Standardfehler wird der Kreis gestaucht und somit ellipsenförmig und wegen der Interaktionseffekte liegt diese Ellipse schräg im β1-β2-Raum.
Im höherdimensionalen Raum (z.B. drei βs) würde aufgrund von mehr Einflussfaktoren eine Ellipsoidgleichung vorliegen, sodass statt der Ellipse ein Ellipsoid entsteht.
Das “richtige” Modell
Multiple lineare Regressionsmodelle
→ Urteilskraft + die ökonomische Theoriefür Variablen Wahl
→ Theorien auch testen, indem man für jede Theorie eine Schätzgleichung spezifiziert und dann die Ergebnisse vergleicht.
→ Das Weglassen relevanter Variablen kann zu verzerrten Schätzern führen.
↳ Wenn solche Variablen zur Verfügung stehen, sollten sie auch benutzt werden.
→ Es geht nicht darum, ein möglichst hohes R2 zu erzielen.
→ Nicht-Signifikanzen sind wichtig (wenn das korrekte Modell geschätzt wurde)
→ Nachdenken, ob die geschätzten Effekte wirklich kausal interpretiert werden können. (Korrelationen)
→ möglicher Probleme beim Interpretieren der Ergebnisse
Probleme der OLS-Schätzung bei Nichtlinearität
nichtlinearer Zusammenhang kann nur abschnittsweise durch eine lineare Funktion approximiert werden
↳ Approximation schlecht → Schätzer verzerrt & heteroskedastisch
Verzerrung → Störgrößen sind in der Mitte tendenziell positiv und am Rand negativ (u ist abhängig von X)
Heteroskedastie → in der Mitte und an den Rändern ist die Varianz von am größten.
Problem bei nonlinear least squares (NLS)
Es kann mehrere lokale Minima geben.
Das iterative Verfahren (Programm sucht in Richtung negativer Steigung nach dem Minimum) konvergiert nicht immer, insbesondere dann, wenn einige Variablen mit zwei Koeffizienten verknüpft sind.
Taylorapproximation
Das nichtlineare Modell wird durch ein lineares approximiert
Probleme:
- Zahl der Parameter steigt quadratisch mit k
- Annäherung ist gut nur in kleiner Umgebung der “Stützstelle”.
Interaktionsterme
Wähle einige sinnvolle Kreuzprodukte → modelliert Interaktionen zwischen x1x2 Regressoren
↳ Der Effekt einer Änderung in x1 auf y hängt ab von x2 (und umgekehrt).
Stolper-Samuelson-Theorems
Interaktionsterme
Befragungsdaten über Einstellungen zur Globalisierung
- Schätzung ohne Interaktionsterm: positiver Einfluss von Bildung: Gebildete Menschen sind weltoffen.
- Schätzung mit Interaktionsterm: Vorzeichen der ersten Schätzung dreht sich um.
→ positiver Einfluss der Variable “Inld. Bildung x BIP/Kopf des Wohnsitzlandes”.
→ BIP/Kopf ist ↑ in Ländern, mit ↑ Bildung
↳ Menschen mit ↑ Bildung, die in Ländern leben, die reichlich mit Humankapital ausgestattet sind, sind für Globalisierung.
↳ Menschen mit ↑ Bildung, die in Ländern mit schlechter Humankapitalausstattung leben, sind gegen Globalisierung.
Bestätigung des Stolper-Samuelson-Theorems
Externe Einflüsse
Interaktionsterme: steitige Variable mit Dummy
Oft tritt der Fall auf, dass
→ für einen Teil der Stichprobe ein bestimmter konstanter Effekt einer Änderung in x2 vorliegt aber für einen anderen Teil der Stichprobe ein anderer (ebenfalls konstanter) Effekt
→ wir wollen herausbekommen, ob solche Unterschiede bestehen (Dummy Variablen)
Warum Logarithmen?
→ Auffangen der Effekte von Größenunterschieden für Parameterschätzungen
→ Partielles Auffangen größenbedingter Heteroskedastie
→ Interpretation der Parameter als Elastizitäten bzw. Semielastizitäten.
Elastizitäten und Semielastizitäten
Linear y - log(x) → Δy - (ß/100)% Δx
log(y) - linear x → %Δy -(100ß) Δx
log - log → Δ %-Punkte
Woher weiß man, dass Nichtlinearitäten vorliegen?
Graphische Analyse
Tests
Ökonomische Theorie
Interne Validität
Die statistische Inferenz bezüglich kausaler Effekte ist für die betrachtete Population valide (gute Statistik)
Fünf Gefahren für die interne Validität
→ Schätzer ist verzerrt und inkonsistent
- Ausgelassene Variablen
- Fehlerhafte funktionale Form
- Messfehler in den Variablen
- Verzerrung durch selektive Stichproben
- Simultane Kausalität/Beeinflussung
- Ausgelassene Variablen
omitted-variable-biased
Sie entsteht, wenn eine ausgelassene Variable eine Determinante von y ist und mit mindestens einem einbezogenen Regressor korreliert.
↳ Wann unberücksichtigten Variablen mit einem oder mehreren Variablen aus X korreliert sind, dann sind X und u korreliert.
Lösungen:
→ Variable in die Regression einfügen
→ Paneldaten
→ Randomisiertes kontrolliertes Experiment durchführen (teuer)
- Fehlerhafte funktionale Form
↳ Verzerrung + Heteroskedastie
Lösungen:
→ Stetige abhängige Variable: “geeignete” nichtlineare Transformationen für X (Log, Interaktionen, quadratische) oder NLS
→ Diskrete (bspw. binäre) abhängige Variable: Schätzung mit Maximum-Likelihood-Methoden (“probit” oder “logit”).
- Messfehler in den Variablen/Daten
↳ Verzerrung
- Fehler beim Verarbeiten administrativer Daten
- Erinnerungslücken in Umfragen
- Unklare Fragen
- Absichtlich falsche Antworten
Lösungen:
→ Bessere Daten
→ spezielles Modell für den Messfehlerprozess: möglich nur wenn man viel über den Messfehler weiß
- Stichprobenverzerrung → Verzerrung durch selektive Stichproben
↳ entsteht, wenn der Auswahlprozess: das Vorhandensein der Daten beeinflusst unddieser Prozess mit der abhängigen Variablen in Verbindung steht.
Lösungen:
→ Daten sammeln
→ randomisiertes kontrolliertes Experiment
- Simultane Kausalität/Beeinflussung (Endogenität)
↳ X beeinflusst kausal y aber y beeinflusst auch kausal X
Wenn y über von u abhängt und X von y abhängt, dann hängt X von u ab.
ist dann verzerrt und inkonsistent
Lösungen:
→ Randomisiertes kontrolliertes Experiment
→ Mehrgleichungsmodell
→ vollständiges Modell beider Kausalitätsrichtungen
Externe Validität
↳ statistische Inferenz kann mit zu anderen Populationen/Situationen übertragen werden, wobei die “Situationen” sich auf etwa die rechtliche, politische, zeitliche oder physische Umgebung beziehen.
Wie weit kann man die Ergebnisse verallgemeinern?
→ Unterschiede in Populationen
→ Unterschiede in den Rahmenbedingungen
Prognosen
Prognose und Schätzung von kausalen Effekten sind recht unterschiedliche Ziele
→ R2 ist (sehr!) wichtig.
→ wichtig: ein guter Fit und ein vertrauenswürdiges Modell
→ Externe Validität ist sehr wichtig
→ Verzerrung durch ausgelassene Variablen ist egal!
→ Interpretieren der Koeffizienten ist nicht wichtig
Problem: out of sample - Prognosen
Vorteile des linearen Modells
Regression mit binären/dichotomen abhängigen Variable
- einfach zu schätzen und zu interpretieren
- Inferenz ist die gleiche wie bei der multiplen Regression (braucht Heteroskedastie-robuste Standardfehler) “
Nachteile des linearen Modells
Regression mit binären/dichotomen abhängigen Variable
Warum sollte die Wahrscheinlichkeit in x linear sein?
Vorhergesagte WSK können negativ oder größer als 1 sein!
Die Nachteile können durch das Verwenden eines nichtlinearen WSK-modells beseitigt werden: Probit- und Logit-Regression. “
Probit-Regression
modelliert die WSK, dass y = 1, durch die Verteilungsfunktion der Standardnormalverteilung, ausgewertet an der Stelle z=Xβ (z-Index)
Probit-Regression
Formel
Pr(y=1 | x)= ɸ(β0+β1x1+…)
ɸ: Verteilungsfunktion der Standardnormalverteilung
Schätzung mithilfe der Maximum-Likelihood-Methode (ML)
Wähle die Parameter so, dass die Wahrscheinlichkeit für das Zustandekommen des Stichprobenergebnisses maximiert wird!
→ Daten ordnen, zuerst alle = 1 und dann alle =0
Likelihoodfunktion einer Probit-Schätzung
Erklären Sie die Formel verbal und erläutern Sie anhand der Formel die Idee/ das Konzept hinter dem ML-Verfahren!
L=∏(Φ(xiβ)) ∏(1-Φ(xiβ))
Φ(xiβ) ist die Wahrscheinlichkeit dafür, dass ein bestimmtes yi 1 ist
Produkt von WSK:
- Gesamt-WSK, dass y=1 ist
- Gesamt-WSK, dass y=0 ist
→ L logarithmiert
→ L ist – als Produkt von WSK – sehr klein
↳ ln(L)<0
Asymptotische Eigenschaften des ML
→ Konsistenz
→ Normalverteilung
→ Effizienz
Anmerkungen
Probit
Das Koeffizient kann nicht als marginaler Effekt von x auf die WSK interpretiert werden, sondern
↳ wir müssen es mit der Stelle, der Dichtetunktion multiplizieren
↳ für jedes Individuum gibt es eine andere WSK
Gütemaße
Probit
→ Log-Likelihood (je größer, desto besser).
→ Pseudo R2, basierend auf dem Likelihood-Verhältnistes, mit verschiedenen Berechnungsmöglichkeiten
→ Akaike-Informationskriterium (“bestraft” große Zahl von Regressoren): je kleiner, desto besser
Restringierte vs. unrestringierte Modellen
Likelihood-Verhältnistest:
↳Chi^2 -verteilt (Zahl der Freiheitsgrade = Zahl der Restriktionen)
Wald-Test mit Chi^2-verteilter Teststatistik → braucht keine 2. Schätzung
Logit-Regression
+ Formel
WSK, dass y=1 ist über die kumulierte standard-logistische Verteilungsfunktion
Pr(y=1 | x)= 1/(1+e^(-β0-β1x1-…))
Logit und Probit
→ Ähnliche Ergebnisse → Gleiche Interpretation → Gleiche Gütekriterien und Tests
- Koeffizienten sind normalverteilt für große n
- Hypothesentests oder Konfidenzintervalle in großen Stichproben funktionieren wie üblich.
Paneldaten
enthalten Beobachtungen von Objekten, wobei jedes Objekt zu verschiedenen Zeitpunkten beobachtet wurde
Vorteile von Paneldaten
3
Berücksichtigung von Faktoren, die:
→ sich zwischen verschiedenen Objekten unterscheiden, aber nicht zeitabhängig variieren
→ durch Auslassung Verzerrungen verursachen könnten
→ nicht beobachtbar sind oder nicht gemessen wurden und daher nicht in die Regression aufgenommen werden können
unbeobachtete Heterogenität
Eigenschaften der Individuen/Beobachtungen die konstant sind, aber nicht beobachtbar sind (kann zu Verzerrungen führen)
Verzerrung wegen fehlender Variablen (“omitted variable bias”)
(Paneldaten)
Beobachtete Heterogenität
Paneldaten helfen uns, die “omitted variable”-Verzerrung zu eliminieren, sofern die ausgelassene Variable in einem Staat über die Zeit konstant ist
Differenzenbildung
Z_i ist der Faktor, der sich, zumindest im Zeitablauf der beobachteten Jahre, nicht ändert und spezifisch für Beobachtung
→ unbeobachtete Heterogenität
nicht beobachtet (vllt. nicht einmal bekannt) → “omitted variable“-Verzerrung
Bei mehr als zwei Zeitperioden könnte man ebenfalls durch Differenzenbildung eliminieren
Problem: Die neue Störgröße ist autokorreliert → Störgröße ist nicht iid
“Fixed effects”-Schätzung
ɑi → fixed effects → spezifische Achsenabschnitte für die jeweilige Beobachtungseinheit
Zwei Schätzmethoden
“Fixed effects”
→ Identische Ergebnisse
- Schätzung aller ɑi
- “entity-demeaned“ OLS-Regression: Subtrahiere von allen Variablen ihren zeitlichen Mittelwert
→ Unterschiede:
Rechenaufwand für große n
Ergebnisse für ɑi→ Braucht man sie überhaupt? Begrenzte # Beobachtungen (z.B. Länder)
Möglichkeit einer weiteren Regression zur Bestimmung der Einflussgrößen von
Spezifische Annahmen
Paneldaten
- Störgrößen haben Erwartungswert null
↳ keine Kopplung von u in die Zukunft von X - Alle x und y sind iid
erfüllt, sofern Objekte zufällig aus der Grundgesamtheit gezogen werden
setzt nicht voraus, dass die Beobachtungen für ein Objekt über die Zeit iid sind - Keine Autokorrelation der Störterme
↳ Unbeobachtete Größen, die in enthalten sind, dürfen nicht zeitlich korreliert sein
↳ Eine Verletzung hat dieselben Effekte wie Heteroskedastizität (ineffiziente Schätzung)
Bei “fixed effcts”-Schätzungen dürfen keine zeitinvarianten Regressoren benutzt werden → Multikollinearität
time fixed effects
→ für jede Zeiteinheit wird eine Dummy Variable genommen damit die unbeobachtete Heterogenität tauchen
→ Berücksichtigung von zeitspezifischer unbeobachteter Heterogenität
pooled regression
Normale OLS-Schätzung ohne Berücksichtigung der Besonderheiten von Paneldaten
↳ Funktioniert nur dann gut, wenn die unbeobachtete Heterogenität nicht mit den Regressoren korreliert ist
“Random effects”-Schätzung
ɑi → zusätzliche spezifisch Störgröße → Normalverteilt
Vorteil von random effects
Möglichkeit der gleichzeitigen Berücksichtigung zeitinvarianter Merkmale und unbeobachteter Heterogenität
Nachteile von random effects
- Hohe Anforderungen an Unabhängigkeit von ɑi und ui
- Komplizierte mehrstufige Schätzung
- Unterschiedliche Programme produzieren unterschiedliche Ergebnisse
OLS Schätzer
Multiple Regression
β̂ = (X’X)^(-1) X’y
Konfidenzbereich und Ellipse
Der Ausdruck der Konfidenzbereich ist eine quadratische Form in β̂1 und β̂2.
In einem Diagram ist das dann eine Ellipse, wenn die Standardfehler von beide β̂ unterschiedlich sind und ein Kreis, wenn sie gleich sind.
Ellipseform → x²/a²+y²/b²=1