S5 Bayes Flashcards
Frequentistische Statistik
Fragestellung > 1 Parameter > Daten sammeln > Modell > Schlüsse
korrekte freq. Output-Interpretation von p = 0.062
(2-seitiger Effekt generell, p-Wert Bedeutung, KI, 1-seitiger p-Wert, wann ok, 2 Vorteile, 1 Nachteil, !!!)
- 2-seitiger Effekt: kein Hinweis aud Effekt, H0 kann nicht abgelehnt werden
- p-Wert: Falls es keinen Effekt gibt, ist Wahrscheinlichkeit bei trainierter Gruppe einen um (beta) größeren/kleineren Wert zu beobachten, 0.062
- KI: Wahrer Effekt liegt mit 95%iger Sicherheit zwischen -0.3 und 12.4, Training könnte also keinen bis großen Effekt gehabt haben
- 1-seitiger p-Wert: durch 2 teilen (0.031), ABER nur erlaubt wenn Vorzeichen in erwartete Richtung des Effekts geht (bei neg. Vorzeichen muss p > 0.5 sein, dann 1-0-031 = 0.969)
- 1-seitiger p-Wert Vorteil: stärkere Aussage, 2-seitig inhaltlich schwer begründbar (man erwartet irgendeinen Effekt aber nicht keinen Effekt);
Nachteil: Test erkennt neg. Effekt nicht (nur am Vorzeichen, dann ab da aber explorativ, bräuchte sonst neue Daten, kann H nicht verändern)
!!! sind 2-seitige Hs überhaupt sinnvoll? beta = 0 eigentlich sehr unwahrscheinlich im echten Leben
Bayesianische Statistik
(Formel, posterior/prior, Spezialfall, 2x posterior, CI, posterior und Varianz, Fläche unter Kurve)
- P (beta | Daten) = ( P(Daten|beta) * P(Effekt) ) / Konstante
- Posterior und Prior
- Spezialfall: flat/uninformative prior = Gleichverteilung (kein Wissen über wahren Effekt) –> Prior = 1, fällt also weg –> entspricht freq. Statistik aber bessere Interpretation
- posterior = Wahrscheinlichkeitsverteilung von beta | Daten & Prior
- posterior wird bestimmt mit MCMC Methode
- in Bayes entspricht “KI” credibility interval CI
- Posterior entspricht gewichtetem Mittel aus Daten und Prior, Gewichtung: inverse Varianz; wenn Prior größere Varianz, hat er kleineren Einfluss; Posterior hat immer kleinste Varianz
- aus Posterior lässt sich Wahrscheinlichkeit von beta für jedes Interval berechnen, z.B. beta > 0 -> Fläche unter der Kurve
Wahl der Prior
(Verteilungsbedeutung, Extremfall, beta aus anderer Studie, Wissensaktualisierung, Vorteil, Nachteil, SS prior)
- Verteilung, die (Un-)Wissen über beta ausdrückt; je unsicherer, umso größer Varianz
- Extremfall: unendliche Varianz = flache (Gleich-)Verteilung; jede andere informative prior hat Einfluss auf Ergebniss
- wenn beta bereits aus anderer Studie bekannt –> als prior verwenden; wenn unsicher ob Übertragung auf aktuelle Studie ok, SD erhöhen
- Prior als Methode um Wissen zu aktualisieren
- Vorteil: kann Schätzung in kleinen Stichproben stabilisieren
- Nachteil: Subjektivität der Prior: resultiert evtl. in unterschiedlichen Schlüssen, ABER Bayes macht Vorannahmen transparent (=/ freq. Statistik, wo so getan wird als gäbe es kein prior Wissen)
- sufficiently sceptical prior: sceptical = Erwartungswert 0, sufficient = minimal mögliche Varianz
Übung zu Bayes
(Interpretationsvorteil 1, kl. Stichproben 3, Gefahr von Bayes 2)
Interpretationsvorteil:
- liefert Wahrscheinlichkeit dafür, dass H1 zutrifft
kl. Stichproben:
- bei kl. Stichproben oft großes KI, Zufallsfehler und keine stabile Schätzung
- mit Bayes Vorwissen Zusatzinfo, die die Schätzung stabilisiert (i.e. Varianz verringert)
- je kleiner Prior Varianz, umso mehr Stabilisierung
Gefahr von Bayes:
- Prior Subjektivität könnte missbraucht werden um Ergebniss zu beeinflussen (ähnlich zu p-hacking
- ABER nicht möglich wenn Prior prä-registriert wurde oder mit einer bestimmten Ref. begründet werden muss - komische/unbegründete Prior würden im Reviewprozess Fragen aufwerfen
Bayes Factor
- Wahrscheinlichkeitsverteilung von H1 zu H0 steckt in Bayes Factor
- posterior: um wieviel wahrscheinlicher ist H1 vs H0 nach Daten?
- BF10 = 1 weak/inconclusive, 3-10 moderate, 10-30 strong