Zeitreihenanalyse Flashcards
Zeitreihe Definition
Zeitliche Verläufe eines bestimmten Merkmals (Merkmalsausprägungen);
Zeit als diskrete Variable (Zeitpunkte, zu denen Messung erfolgt);
oft äquidistant (Voraussetzung für zeitreihenanalytische Auswertung)
Was unterscheidet die Datenpunkt der Zeitreihenanalyse von den Datenpunkten anderer inferenzstatistischer Verfahren?
Daten einer Zeitreihe weisen eine bestimmte Ordnung auf und sind auch seriell abhängig voneinander.
Was sind Anwendungsbereiche der Zeitreihenanalyse in der Psychologie?
Erkennen der Systematik einer Zeitreihe (Gibt es einen Anreiz für das Ableiten einer Schlussfolgerung oder Einsetzen einer Intervention?)
Beurteilung einer Interventionswirkung (Niveau, Trend, Variabilität)
Zusammenfassung der Information (z.B., periodische Schwankungen)
Identifikation der internen Struktur der Zeitreise (z.B., autoregressive Prozesse), um diese zu eliminieren und die Anwendung von anderen statistischen Verfahren zu ermöglichen –> “Prewhitening”
Analyse der gegenseitigen Beeinflussung zweier Zeitreihen (Überprüfen kausaler Ursache-Wirkungs-Richtungen) –> Multivariate ZRA
Was ist die Univariate Zeitreihenanalyse und wofür wird sie angewandt?
Entwicklung eines Vorhersagemodells bzgl. der Gesetzmäßigkeit einer Zeitreihe zur Untersuchung der natürlichen (nicht-experimentellen) intra-individuellen Variabilität und Stabilität von Verhalten im zeitlichen Verlauf
–> Überprüfung, ob serielle Abhängigkeit vorlieft
–> falls ja: Elimination serieller Abhängigkeit (“Prewhitening”), um andere Verfahren einsetzen zu können
Was ist die bivariate Zeitreihenanalyse und wofür wird sie angewandt?
Interventionsanalyse –> bivariate Zeitreihenanalyse
Entwicklung eines Interventionsmodells zur Untersuchung der Auswirkungen einer Intervention auf das Verhalten
–> Abgleich???
Was ist die multivariate Zeitreihenanalyse und wofür wird sie angewandt?
Analyse dynamischer Interaktionen im Zeitverlauf (mehrere Zeitreihen) zur Überprüfung kausaler Hypothesen über die Wirkungsrichtung der Beeinflussung (zeitliche Richtung der Beeinflussung)
Wie unterscheiden sich die Daten einer Zeitreihe von den Daten “herkömmlicher” Messungen?
Bei den Daten einer Zeitreihe ist die Abfolge (Ordnung) der Datenpunkte relevant, während bei Daten aus “herkömmlichen” Untersuchungen/Studiendesigns die Reihenfolge der einzelnen Werte belanglos ist.
Die Werte einer Zeitreihe unterliegen meist einer seriellen Abhängigkeit. Diese interne Struktur kann entweder inhaltlich bedeutsam sein oder (oft) wird sie herausgerechnet (“Prewhitening”) um mit der bereinigten Zeitreihe einen statistischen Test (z.B., t-Test) durchzuführen.
Was genau meint serielle Abhängigkeit bei den Daten einer Zeitreihe?
Daten, die im Zeitverlauf gewonnen werden, schwanken meist nicht völlig zufällig, sondern aufeinanderfolgende Werte sind sich ähnlicher als zeitlich entfernt liegende Werte.
–> Trägheit oder Gedächtnis des Systems
Die Zeitreihenanalyse (ZRA) als Multiple Regression — Welche Prädiktoren gibt es?
- Prädiktoren, die auf der Zeit (t) beruhen
- Prädiktoren, die sich aus der Zeitreihe selbst ergeben
- Autoregressive Effekte
- Moving Average - Eine andere Zeitreihe dient als Prädiktor
ZRA: Was sind Prädiktoren, die auf der Zeit (t) selbst beruhen?
Beispiele:
linearer Trend (y = b0 + b1 * t)
Sinusfunktion - periodische Schwankung (y = sin(t))
–> Funktionen über die Zeit, die einen Großteil der Varianz der Zeitreihe beschreiben.
ZRA: Was sind Autoregressive Effekte?
Ein autoregressiver Effekt tritt dann auf, wenn vorherige Werte der Zeitreihe den aktuellen Wert beeinflussen.
Die Ordnung des autoregressiven Effekts gibt an, wie viele Werte einen direkten Einfluss haben (2 vorhergehende Werte haben einen direkten Einfluss –> autoregressiver Effekt 2.Ordnung; AR-2).
Wie werden die Autoregressionen verschiedener Ordnungen berechnet?
Autoregression k-ter Ordnung: Die um k Werte verschobene Zeitreihe wird als Prädiktor verwendet.
–> Autoregression/Autokorrelation = Korrelation einer Variable und derselben Variablen zu k Messzeitpunkten vorher
Bezeichnung der verschobenen Zeitreihe: Lag-k-Reihe
–> Eine Lag-k-Reihe ordnet als jedem Wert y den Wert vor k Messzeitpunkten zu.
Beispiel: Der Zusammenhang zwischen der Zeitreihe und der Lag-1-Zeitreihe, also die Korrelation zwischen einer Variablen und derselben Variablen zu einem Messzeitpunkt vorher, entspricht der Autokorrelation erster Ordnung.
Die Autokorrelation nimmt mit steigendem k ab,
Was bedeutet es, wenn die k e (1; 16) Autokorrelationen der täglichen Temperaturen sehr hoch und signifikant sind?
Die Temperatur ändert sich nicht stark von Tag zu Tag.
Wie unterscheiden sich direkte und indirekte Einflüsse innerhalb der Autoregression?
Welche Einflüsse enthält die Autokorrelation?
Indirekt: Der Einfluss eines früheren Zeitpunktes t-2 kommt nur dadurch zustande, dass dieser mit t-1 und t-1 wiederum mit t zusammenhängt (t-1 als “Moderatorvariable”).
Direkt: Über den Einfluss von t-1 hinaus hat t-2 auch noch einen eigenständigen Einfluss auf t.
Die Autokorrelation enthalt den direkten und indirekten Effekt einer Ordnung k>1.
Was wird benötigt um die Ordnung des Autoregressiven Prozesses zu identifizieren (also: Wie viele vorherige Messungen nehmen noch Einfluss auf die jetzige Messung?)
Partialautokorrelation für k>1 berechnen:
Partialautokorrelation zu Lag 1 = normaler Autokorrelation
Partialautokorrelation zu Lag 2 = Korrelation von Lag 1 zu Lag 2 und Korrelation von Lag 1 zu Lag 0 wird ausgerechnet –> Die Korrelation der Residuen von Lag 2 und Lag 0 entspricht der Partialautokorrelation zu Lag 2 (2. Ordnung)
Wie sehen die Partialautokorrelationen für k>0 für gewöhnlich aus?
Die Partialautokorrelation zu Lag 1 (bzw. die normale Autokorrelation) ist für gewöhnlich recht hoch. Die Partialautokorrelation höherer Ordnung (k>1) fallen meist um einiges kleiner aus und rutschen schnell unter das Signifikanzniveau.
Meist bewertet man den Einfluss einer vorherigen Messung auf die jetzige Messung anhand des Signifikanzniveaus. Jedoch dürfen quantitative Unterschiede des Einflusses auch über dem Signifikanzniveau nicht vernachlässigt werden.
Was bezeichnet man als Zufallsschock in der Zeitreihenanalyse?
Was ist “White Noise”?
Zufallsschock (at) = Zufallskomponente, die die Ausprägung der Zufallsvariablen beeinflusst
(enthält keine Systematik, im Gegensatz zur Zufallsvariablen y)
Entspricht dem “Fehler” in herkömmlichen Regressionsmodellen
White noise: besteht nur aus Zufallsschocks, die nur zum jeweiligen Zeitpunkt wirken (also keine serielle Abhängigkeit (keine autoregressiven Effekte) und keinen Effekt der Zeit
Was bezeichnet man als den Moving-Average-Prozess?
Moving Average: Der Effekt vorheriger Fehler (at-k) auf den jetzigen Messwert.
Bei k vorherigen Fehlern mit direktem Einfluss auf den aktuellen Messwert, lieft ein Moving Average k-ter Ordnung vor (MA-k).
Was bedeutet MA-2?
MA-2 bezeichnet den Moving Average Prozess zweiter Ordnung und gibt den Einfluss des Fehlers der Messung vor zwei Zeitpunkten auf den jetzigen Messwert an (nur direkter Einfluss von at-2, ohne indirekten Einfluss über at-1).
Wie kann eine andere Zeitreihe als Prädiktor einer Zeitreihe dienen?
Die Werte einer anderen Zeitreihe X mit Messungen zu denselben Zeitpunkten (z.B., eine Intervention, kodiert mit 0,1) hab eine zeitgleiche oder zeitverschobene Wirkung auf die Werte der Zeitreihe Y.
–> yt kann also von xt und/oder von xt-1 beeinflusst werden