Theorie Flashcards
Zeitreihendaten
Zeitreihendaten werden für dasselbe Untersuchungsobjekt zu mehreren Zeitpunkten erhoben.
Autokorrelation
Korrelation einer Zeitreihe mit ihren eigenen verzögerten Werten
Erste Autokorrelation
- beschreiben die Gemeinseme Verteilung von
(Yt,Yt-1) in der Population
- h-te Autocovarianz
- h-te Autokorrelation
- h-te empirische Autokorrelation
Stationarität
- Die Wahrscheinlichkeitsverteilung einer Zeitreihe ändert sich über die Zeit nicht.
- Erfordert, dass sich Zukunft und Vergangenheit gleich verhalten.
- Muster (z.B. längere Auf- oder Abwärtsphasen) sind erlaubt, aber es darf keine systemastische Veränderung des Musters im Laufe der Zeit geben.
- Variabilität/Ausschläge sind über die Zeit konstant
Schwache Stationarität
(Bedingungen)
Kovarianzstationarität
Autoregression
Regressionsmodell, in dem Yt auf eigene Lags Yt-1, Yt-2,… regressiert wird.
AR(p)-Prozess
(mit und ohne Backshift-Operator)
AR(1)-Prozess
→ Die Autokorrelationen klingen exponentiell ab für h gegen unendlich.
Moving Average Prozess
(mit und ohne Backshift-Operator)
→ einfaches Zeitreihenmodell
MA(1)-Prozess
AR(1) als MA(∞)
ARMA(p,q) Prozess
Lag Polynome als Filter
- Wir können Lag Polynome als Filter interpretieren: Angewendet auf eine Zeitreihe, entsteht eine neue Zeitreihe.
- Transformation einer Zeitreihe mit zwei Lag Polynomen nacheinander ist gleichbedeutend mit der einmaligen Transformation einer Zeitreihe mit dem Lag Polynom, welches das Produkt der beiden ursprünglichen Lag Polynome darstellt.
Inverse eines Filters
- Inverse des Lag Polynoms
- Im Allgemeinen existiert die Inverse eines Polynoms φ(B) sofern bestimmte Bedingungen für die Parameter erfüllt sind.
- In diesem Fall ist φ(B) invertierbar.
- Existiert die Inverse von θ(B) also θ−1(B), lassen sich MA Prozesse als AR(∞) Prozesse formulieren.
Inverse eines Filters
(im AR(1)-Prozess)
Inverse eines Filters
(im MA(1)-Prozess)
Redundanz von Parametern
Ziel: die Dynamik einer Zeitreihe mit wenigste möglich Parametern zu modellieren
- ”Sparsamkeit” bei der Modellierung ist wichtig, um Schätzfehler zu minimieren und präzise Prognosen zu erreichen.
Invertierbarkeit von Lag Polynomen
- Modelle mit MA Komponente → MA Lag Polynom muss invertierbar sein.
- Modelle mit AR Komponente →AR Lag Polynom muss invertierbar sein
- nur genau dann ist der Prozess stationär
Überprüfung der Invertierbarkeit von Lag Polynomen
φ(z)=1−φ1z−φ2z2…−φpzp =0.
Überprüfung der Invertierbarkeit von Lag Polynomen
AR(1)
- φ(z) = 1− φ1z − φ2z2… − φpzp = 0
- Das AR Lag Polynom ist invertierbar, wenn die Wurzeln von φ(z) außerhalb des Einheitskreises liegen
- φ(z) = 0 für |z| > 1
- Falls |z| = 1 → Prozess nicht stationär
Stationäre Lösung AR(2) Prozess
- (1 − φ1B − φ2B2)Yt = c + wt
- Charakteristische Gleichung:
1 − φ1z − φ2z2 = 0 - Stationär, wenn:
- −1 < φ2 <1
- φ1 + φ2 <1
- φ2 − φ1 <1
Invertierbarkeit bei ARMA(p,q) Prozessen
- Ist das MA Lag Polynoms invertierbar, kann der Prozess als AR(∞) geschrieben werden und die Koeffizienten πj bestimmt werden
ARIMA(p,d,q) Prozess
- Integrationsgrad I(1) → einmaliges Differenzieren (d=1) reicht aus, um einen stationären Prozess zu erhalten
- Integrationsgrad I(2)→ d=2 wird benötigt, um einen stationären Prozess zu erhalten
- Stationär, wenn d=0
- Überdifferenzieren kann Abhängigkeiten induzieren, wo keine sind
Dickey Fuller (DF) Test
Augmented Dickey Fuller (ADF) Test
Allgemeiner und erlaubt mehr Lags (p>1)
Testspezifikationen
ADF-Test
Drei verschiedene Testspezifikationen sind zu unterscheiden:
- Ohne Konstante, ohne deterministischen Zeittrend:
- ∆Yt = δYt−1 +γ1∆Yt−1 +…+γp−1∆Yt−p+1 +wt
- ∆Yt = δYt−1 +γ1∆Yt−1 +…+γp−1∆Yt−p+1 +wt
- Mit Konstante, ohne deterministischen Zeittrend:
- ∆Yt =c+δYt−1+…+γp−1∆Yt−p+1+wt
- H1: Y ist stationär um eine Konstante
- Mit Konstante, mit deterministischen Zeittrend:
- ∆Yt =c+ζt+δYt−1+…+γp−1∆Yt−p+1+wt
- H1: Y ist trendstationär
Welches Schätzverfahren bei welchem Modell?
- Momentenmethode
- KQ Methode
- Maximum Likelihood Methode
- bei AR Modellen führen alle Modelle asymptotisch zur gleichen Verteilung (konsistent, asymptotisch normalverteilt).
- Sind MA Terme involviert:
- Momentenmethode nicht effizient
- höhere Schätzvarianz)
- Manchmal erhalten wir keine Lösung
- Momentenmethode nicht effizient
Momentenmethode bei AR Modellen
Cov (Yt,Yt−h) =
φ1Cov (Yt−1,Yt−h)+φ2Cov (Yt−2,Yt−h)+Cov (wt,Yt−h)
Yule-Walker Gleichungen bei einem AR(p) Prozess:
γh =φ1γh−1+…+φpγh−p
σ2 =γ0−φ1γ1−…−φpγh−p
Daraus können die Modellparameter φ1, φ2 und σ2 bestimmt werden
Momentenmethode bei MA Modellen
- nichtlinear in den Koeffizienten
- Das Verhältnis der Varianzen zwischen Momentenschätzer und Maximum Likelihood Schätzer in großen Stichproben z.B. θ = 0.5 ist ca. 3.5.
Modellidentifikation
AR(p), MA(q), ARMA(p,q)
anhand ACF und PACF
Partiellen Autokorrelationsfunktion
- X, Y und Z seien Zufallsvariablen.
- Die partielle Korrelation zwischen X und Y, gegeben Z, erhalten wir durch Regression von X auf Z (um Xˆ zu erhalten) und Regression von Y auf Z (um Yˆ zu erhalten)
Bayes Information Criterion
- Term: ↑p (# Lags) → bessere Anpassung an die Daten, ↓SSR
- Term ↑ mit ↑p (da Strafterm ist)
- Je kleiner BIC(p), desto besser
Akaike Information Criterion
- Der ”Strafterm” beim Akaike Kriterium ist geringer als beim Bayes Kriterium (2 < lnT) für T ≥ 8.
- AIC schätzt eine höhere Ordnung p als BIC.
- AIC überschätzt p, ist also keine konsistente Schätzfunktion
Fehlerdiagnosen
Ziel:
- Identifikation und statistische Erfassung von Fehlern
- weißes Rauschen (keine Stuktur oder Abhängigkeiten) für die Störterme → i.i.d. Annahme
- Weist die Fehlerdiagnose auf verbliebene Struktur in den Residuen hin, muss man den Prozess der Modellidentifikation neu beginnen
ARMAX Modelle
- nutzt eine oder mehrere exogene Variablen, Xi, um die Zeitreihe zu modellieren
- Xi müssen stationär sein