Grundideen der baysianischen Statistik Flashcards
Frequentistische Deutung:
Die Wahrscheinlichkeit ist die relative Häufigkeit eines Ereignisses bei sehr häufiger Wiederholung
Bayessche/Bayesianische Deutung:
Die Wahrscheinlichkeit ist der Grad der subjektiven Überzeugung über das Eintreten eines Ereignisses
Axiomatische Deutung
Beschreibt die mathematischen Eigenschaften der WSK ohne diese inhaltlich zu bestimmen (vgl Kolmogorov)
Parameterschätzung, klassisch
wie wahrscheinlich die gefundenen Daten unter der Annahme eines Parameterwertes sind:
Über die Dichtefunktion finden wir das
95%- Konfidenzintervall.
Konfidenzintervall
Ein Konfidenzintervall enthält den wahren Wert oder es enthält ihn nicht.
Wir wissen nicht, ob ein einzelnes Konfidenzintervall den wahren Wert enthält.
Bei wiederholter Stichprobenziehung (jeweils mit Bildung eines Konfidenzintervalls) werden 95% der 95%-Konfidenzintervalle den wahren Wert enthalten und 5% nicht.
Parameterschätzung, Bayes
wahrscheinlich welche Parameterwerte sind, gegeben die Werte der Daten
Statt davon auszugehen, dass 𝜇 eine Konstante ist, wird in der Bayes-Inferenz davon ausgegangen, dass der Populationswert eine Zufallsvariable ist.
Der Parameter wird als
𝜃 bezeichnet
beobachteten Werte der Stichprobe
𝑋 = 𝑥.
Posteriori-Verteilung 𝑓( 𝜃 /𝑥)
die Verteilung der Populationswerte in Abhängigkeit vom Stichprobenwert.
𝑓(𝜃/𝑥)
Posteriori Verteilung
𝑓(𝑥/𝜃)
Likelihood-Verteilung (diese kennen wir aus der klassischen Vorgehensweise)
𝑓(𝜃)
Priori-Verteilung (das „geronnene“ Vorwissen)
Wenn keinerlei Informationen in der Priori-Verteilung enthalten ist, entspricht die Posteriori- Verteilung der
Likelihood-Verteilung
Erwartungswert der Verteilung der beste Punktschätzer für
die Population
Die mittleren 95% der Posteriori-Verteilung bilden das
95%-Kredibilitätsintervall.
Kredibilitätsintervall
Ein 95%-Kredibilitätsintervall enthält mit einer Wahrscheinlichkeit von 95% den unbekannten (und zufälligen) Parameter
Prior
Nichtinformativ (ohne Vorwissen)
Informativ (mit Vorwissen)
Likelihood
(Ergebnis der Datenerhebung)
Posterior
Ergebnis der Studie
Hypothesentest, klassisch
Hypothese und damit auch angenommene Parameterwerte
Dann fragen wir uns, wie wahrscheinlich die gefundenen Daten unter der Gültigkeit der Hypothese sind:
Wenn die gefundenen Daten hinreichend unwahrscheinlich sind,
wird der angenommene Parameterwert (& damit die Hypothese) abgelehnt.
Hypothesentest in Bayes
Im Bayes-Kontext gibt es in der Bedeutung kein Äquivalent für den p-Wert! Hypothesen können durch den Blick auf die Posteriorverteilung beurteilt werden
(zB „Liegt ein vermuteter Parameter im Kredibilitätsintervall?“)
Hypothesen können auch in einem Modellvergleich durch den Bayes-Faktor verglichen werden.
Hypothesentest in Bayes: Bayes-Faktor
Wahrscheinlichkeiten 𝑃(𝑀 ) und 𝑃(𝑀 ) zuordnen. 11
❖ Wenn wir keine Priorität haben, könnte gelten 𝑃(𝑀 ) = 𝑃(𝑀 ) = 1
informativer Prior
Wenn es vor der Studie schon merkliches Vorwissen bezüglich der Parameter gab
Wenn wir uns schon vor der Studie sehr sicher waren, hat der Prior
eine geringere Streuung.
Wenn wir sehr sicher waren vor der Studie und den Prior entsprechend schmal gewählt haben, kann es natürlich auch sein, dass wir falsch lagen. Dann
behindert uns dies daran, aus den Daten die richtigen Erkenntnisse zu ziehen.
Bayes-Faktoren anstelle von p-Werten?
Wenn es dabei aber um den Vergleich einer klassischen Null- und Alternativhypothese geht, bietet p-Werte und Bayes-Faktoren als Funktionen der Likelihood quasi die gleiche Information (sie sind auch stark korreliert).
Die bayesianische Interpretation bietet aber den Vorteil einer Interpretation der Hypothesen als unterschiedlich wahrscheinlich.
Da in der bayesianischen Statistik die Parameterwerte direkt geschätzt werden können, sind Hypothesentests eigentlich überflüssig.