Inferentielle Datenanalyse IV Flashcards
Kritik an Signifikanztests und Konfidenzintervallen:
Beruhen auf unrealistischen Voraussetzungen.
Führen zu Missverständnissen und Fehlinterpretationen.
Grundlagen der Bayes’schen Inferenzstatistik
Einbeziehung von Vorinformationen.
Berechnung der Wahrscheinlichkeit von Hypothesen.
Warum Signifikanztests nicht funktionieren (Teil 1)
Unrealistische Voraussetzungen:
Annahme “kein Effekt” in der Population ist unplausibel.
Zufall als alleinige Ursache für Streuung ist unwahrscheinlich.
Missverständnisse:
Signifikanztests liefern die Wahrscheinlichkeit der Daten unter der Nullhypothese (p(D|H)), nicht die Wahrscheinlichkeit der Hypothese selbst.
Warum Signifikanztests nicht funktionieren (Teil 2)
Beispiel: Eine Studie liefert einen Anteil von p = 0,25 für Vegetarier*innen unter Psychologiestudierenden. Der Signifikanztest sagt nichts darüber aus, ob dieser Anteil verallgemeinerbar ist.
Fazit: Signifikanztests geben keine Information über die Wahrscheinlichkeit der Hypothese (p(H|D)).
Warum Konfidenzintervalle nicht funktionieren
Kritik:
Beruhen auf der Annahme eines wahren Populationseffekts.
Die Wahrscheinlichkeit bezieht sich auf das Intervall, nicht auf die Hypothese.
Fehlannahme: KI liefert die Wahrscheinlichkeit, dass der gesuchte Parameter im Intervall liegt.
Fazit: KI führen eher zu Fehlinterpretationen als zu nützlichen Erkenntnissen.
Bayes’sche Inferenzstatistik - Grundidee
Einbeziehung von Vorwissen: Vorinformationen werden in die statistische Analyse eingebunden.
Ziel: Wahrscheinlichkeit von Hypothesen bestimmen und diese im Licht neuer Daten revidieren.
Erkenntnisfortschritt: Durch die wiederholte Revision von Hypothesenwahrscheinlichkeiten.
Bayes-Faktor
Definition: Der Bayes-Faktor drückt die Überlegenheit einer Hypothese gegenüber einer anderen aus.
Berechnung: Verhältnis von zwei p-Werten.
Interpretation:
1 bis 3: Kaum der Rede wert.
3 bis 10/20: Positiv.
10/20 bis 100/150: Stark.
100/150: Sehr stark.
Fazit zur inferentiellen Datenanalyse
Schlussfolgerungen:
Vertrauenswürdigkeit der Daten prüfen.
Vergleichbarkeit der Stichprobe mit der Population sicherstellen.
Beide Aspekte können nicht quantifiziert, sondern müssen durch informierte Urteile der Forschenden bewertet werden.
Kritik an der Nullhypothese
Unrealistische Annahme: Die Nullhypothese (kein Effekt in der Population) ist häufig unplausibel und unrealistisch.
Konsequenz: Die Ablehnung der Nullhypothese sagt wenig über die tatsächliche Bedeutung oder Relevanz des Effekts aus.
Problematik der Zufallsannahme
Fehlende Praxisrelevanz: Signifikanztests setzen perfekte Zufallsziehungen, keine fehlenden Werte und perfekt zuverlässige Messinstrumente voraus.
Realität: In der Praxis sind diese Bedingungen selten erfüllt, was die Aussagekraft der Tests erheblich einschränkt.
Falsche Interpretation von p-Werten
Fehlinterpretation: p-Werte werden oft fälschlicherweise als Wahrscheinlichkeit für die Hypothese selbst interpretiert.
Tatsache: Ein p-Wert gibt die Wahrscheinlichkeit der Daten unter der Annahme der Nullhypothese an (p(D|H)), nicht die Wahrscheinlichkeit der Hypothese (p(H|D)).
Beispiel zur Fehlinterpretation
Münzwurf-Experiment: Die Wahrscheinlichkeit, 5-mal hintereinander “Kopf” zu werfen, ist p = 0,031. Dies sagt jedoch nichts darüber aus, ob die Münze tatsächlich fair ist.
Übertragung: Signifikanztests prüfen nur, ob Daten zufällig zustande gekommen sein könnten, nicht ob die Nullhypothese tatsächlich wahr ist.
Konfidenzintervalle - Fehlannahmen
Fehlannahme: Ein Konfidenzintervall gibt die Wahrscheinlichkeit an, dass der gesuchte Parameter im Intervall liegt.
Tatsache: Das Konfidenzintervall gibt an, dass von 100 Konfidenzintervallen 95 den wahren Wert enthalten würden – nicht, dass der wahre Wert mit 95% Wahrscheinlichkeit im spezifischen Intervall liegt.
Einfluss der Stichprobengröße auf Konfidenzintervalle
Korrekte Interpretation: Kürzere Konfidenzintervalle deuten auf verlässlichere Schätzungen hin.
Problem: Diese Information lässt sich auch direkt aus der Stichprobengröße ableiten, ohne Konfidenzintervalle zu berechnen.
Revision von Hypothesenwahrscheinlichkeiten (Bayes’sche Statistik)
Grundprinzip: Wahrscheinlichkeiten für Hypothesen werden durch neue Daten (posterior) revidiert, basierend auf Vorwissen (prior).
Vorteil: Erkenntnisfortschritt wird bereits bei einer einzigen Studie erzielt und durch Replikation weiter verbessert.