4 Multivariate Zufallsvariablen und Statistik Flashcards
Bivariate Zufallsvariablen
Ordnen Ereignissen (Elementen eines Ereignisraums) Wertepaare reeller Zahlen zu
Bivariate diskrete Zufallsvariablen
Können nur eine endliche oder abzählbare Menge an Wertepaaren annehmen
Bivariate kontinuierliche Zufallsvariablen
Können unendlich viele Wertepaare annehmen und haben eine kontinuierliche (stetige) Verteilungsfunktion
Berechnung kumulative Verteilungsfunktion der Randverteilungen
aus der Randwahrscheinlichkeitsfunktion bzw der Randdichte oder mit einem Grenzwert aus der bivariaten Verteilungsfunktion
gemeinsame Verhalten einer bivariaten Zufallsvariablen
Durch die gemeinsame bivariate Verteilung festgelegt.
abhängige Zufallsvariablen
die bedingte Verteilung von X2|X1 hängt von der bedingten Information ab
unabhängige Zufallsvariablen
Die Verteilung von X1 hat keinen Einfluss auf die Verteilung von X2 (und umgekehrt)
Erwartungswert einer Zufallsvariablen
Der Erwartungswert einer Zufallsvariablen beschreibt die Zahl, die die Zufallsvariable im Mittel annimmt
Multivariate Zufallsvariablen
ordnen Ereignissen (Elementen eines Ereignisraums) n-dimensionale Vektoren reeller Zahlen zu
Verteilungsfunktion
Die Verteilungsfunktion der Randverteilungen / bedingten Verteilung lässt sich aus der Randdichte / bedingten Dichte berechnen
gemeinsame Verhalten einer multivariaten Zufallsvariablen
ist durch die gemeinsame Verteilung festgelegt
Eigenschaften Multivariate Zufallsvariablen
ermöglichen das Modellieren von Abhängigkeiten zwischen Zufallsvariablen
schwieriger aus Daten zu schätzen als eindimensionale Verteilungen
Kovarianz
Die Kovarianz ist ein Maß für die lineare Abhängigkeit zwischen X und Y
Korrelation
symmetrischen statistischen Zusammenhang
normierte Kovarianz mit den beiden Standardabweichungen
tritt dann auf, wenn sich zwei beobachtete Größen so verhalten, als würden sie in einer linearen Beziehung zueinander stehen
Stichprobenkorrelation
Eine Realisation des Schätzers für eine bivariate Stichprobe
Wenn X und Y unabhängig sind,
sind sie auch unkorrelliert aber nicht umgekehrt
Kausalität
Beziehung zwischen Ursache und Wirkung
Kausalzusammenhänge
Verkettung von Ereignissen mit klarer Zuordnung von Ursache und Wirkung (asymmetrisch) und sind in der Regel ’perfekt reproduzierbar’
Bsp: regnen –> nass
Scheinkorrelation
Korrelation zwischen Größen, die aufgrund einer indirekten kausalen Beziehung oder zufällig auftritt
- Reverse causality
- Third factor / confounding variable
- Spurious relationship
Lineare Regression
Setzt Variablen in eine lineare Beziehung zueinander
Das Ziel von linearer Regression ist üblicherweise die Prognose und die Evaluation von statistischen Abhängigkeiten
Einfache lineare Regression
modelliert den bedingten Mittelwert von Y gegeben einer Realisation der Variablen X - also den Mittelwert der bedingten Verteilung Y |X.
Die unbekannten Modellparameter werden durch die Minimierung der Fehlerquadratsumme geschätzt
Multiple lineare Regression
Bei multipler linearer Regression werden einfach p erklärende Variablen in der Modellgleichung verwendet.
Die Modellparameter werden wieder durch die Minimierung der Fehlerquadratsumme geschätzt.
Bestimmtheitsmaß R^2
Maß für die Güte des linearen Regressionsmodells / wie gut der ’Fit’ des Modells für die gegebenen Daten ist
Anteil der Variabilität der Beobachtungen, welcher durch das lineare Regressionsmodell erklärt
ANOVA
ANalysis Of VAriance
Mittelwert von Y durch eine kategorische Variable erklärt, von der wir annehmen, dass sie nicht zufällig ist.
one-way (eine Variable) / two-way (zwei Variablen)