Tests und Verfahren Flashcards
Alles somewhat relevantes, was mman rechnen könnt
Arithmetisches Mittel (x)
Mathematisch optimal aber empfindlich
Gewogenes Mittel (x_gew)
“Gesamtmittel” mehrerer (k) Teilstichproben
Gleitendes Mittel (xi)
mit dynamischen Fenster
Geographisches Mittel
bei Wachstumsraten nützlich
Minimiert extreme Werte und gibt ein faires Mittel
Standardabweichung (SD)
Universelles Maß der Variation
s² = Varianz
Standardfehler (SE) d Mittelwerts
zeigt wie stark die Streuung ist.
Ein kleiner SE bedeutet, dass der Mittelwert eine verlässliche Schätzung ist.
Variationskoeffizient (CV)
misst relative Streuung einer Verteilung im Verhältnis zum Mittelwert (x) in Prozent
t-Test
Berechnet den Abstand der Mittelwerte zweier Gruppen, relativ zur gemeinsamen Varianz. Das Ziel ist es, zu prüfen, ob dieser Abstand groß genug ist, um einen signifikanten Unterschied zwischen den Mittelwerten zu belegen.
Varianzen müssen homogen sein
F-Test
testen ob sich die Varianzen signifikant unterscheiden.
F = größere Varianz / kleinere Varianz
wird oft vor dem t-Test durchgeführt
Welch-Satterthwaite-Approximation
häufig angewendet statt dem normalen t-Test, bei deutlicher inhomogenität der Varianzen, deutlich ungleichen n, oder knappen p
U-Test (Mann-Whitney)
prüft unabhängige Stichproben nach einem signifikanten Unterschied, wenn Normalität nicht unterstellt werden kann.
nicht-parametrisch, konservativ
Daten werden nach Größe geordnet u. bekommen Rangzahlen zugeordnet.
Aus Rangsummen wird auf Ua, Ub geschlossen.
Brunner-Munzel-Test
überlegene Alternative des U-Tests
völlig äquivalent zum Welch-t-Test, aber mit Rangdaten.
Normalität nicht erfordert und robust gegen Heterogenität bei Varianzen
Wilcoxon-Test
Optimaler Rangtest für verbundene Stichproben.
Paardifferenzen sollen symmetrisch um Null sein.
Übereinstimmende Paare werden verworfen
Die kleinste Rangsumme unter kritischem Schwellenwert = Signifikanz
x²-Statistik
x²: Prüfgröße für Güte der Anpassung
(0 < x² < +unendlich)
Abweichung zwischen [B] Beobachtung und [E] Erwartung zufällig = nicht Signifikant
Summe der Abweichungen über alle Klassen
stetige Verteilungsmodelle in diskrete Kategorien zerlegen, falls möglich
Standardverfahren wenn plausible Erwartung vorliegt
Fisher Test
“Exakter Test” nach Ronald A. Fisher
konservativ
Alternativ zu Vierfeldertafeln mit kleinen Besetzungen
Wahrscheinlichkeit P:
Bei gegebenen Randsummen die beobachtete oder eine noch extremere Besetzung anzutreffen
Vierfeldertafeln
Bei vorgegebenen Randsummen ist nur eine Zelle frei wählbar
Signifikanzprüfung hängt nur von der Zahl des FG ab
Gesamtstichprobe sollte > 40 sein sonst Fisher Test.
Häufigkeiten müssen absolut sein und können von einer 3. Hintergrund-Variablen abhängen.
Vorzeichentest nach McNemar
Untersuchung an denselben Individuen
Informativ ist nur der Wechsel von Datenpaaren zu einer anderen Kategorie
K-S-Test
Kolmogorov & Smirnov
scharfer Test auf Inhomogenitäten aus Häufigkeitsverteilungen.
Maximale Abweichung in einer Klasse
Anwendbar um zu prüfen welches Wahrscheinlichkeitsmodell passt
geringere Power als U-Test
Test von Cramer & von Mises
Weiterentwicklung des K-S-Tests
berücksichtigt die Summe aller (quadrierten) Differenzen zwischen kumulativen Häufigkeiten zweier Stichproben.
Mehr Power: ist bei Überschneidungen und kleinen Stichproben zulässig
Klassisches Bonferroni-Verfahren
lokal jede H0 prüfen
stets zulässig aber sehr konservativ
p = alpha / k
Sequenzielles Bonferroni-Verfahren
Berechnung aller k-Tests
p = alpha / k
p = alpha / (k - 1)
p = alpha / (k - 2)
…
p = alpha
größere Power
False Discovery Rate
Benjamin Hochberg
p = alpha * k / k
p = alpha * (k - 1) / k
p = alpha * (k - 2) / k
…
p = alpha / k
Maximale Power
Einfaktorielle Varianzanalyse (ANOVA)
erfordert metrische Zielvariablen
Gleich große Stichprobenumfänge erhöhen die Teststärke
Wenn: Varianz zwischen Gruppen höher ist als innerhalb von Gruppen ist der Unterschied überzufällig
Varianzen müssen homogen sein, sonst Welch-Test (wesentlich weniger Power)
Grobe Varianzunterschiede können bei kleinen Stichproben fälschlicherweise Signifikanzbefunde vorspiegeln.
Bei sehr schiefen Verteilungen oder kleinen Stichproben lieber Rangverteilung (H-Test)
Post-hoc-Test
Multiple Vergleiche zur Lokalisierung, welche Gruppen sich unterscheiden, nachdem ein globaler Test (zb ANOVA) signifikant geworden ist.
Wie groß muss ein Unterschied zwischen Gruppen-Mittelwerten bei gegebenen Varianzverhältnissen sein, um als überzufällig zu gelten?
1) Lineare Kontraste (Scheffe)
- ungleiche Stichprobengröße
- beliebige Mittelwerte
- konservativ
2) Tukey-Verfahren
- beliebige Mittelwerte
-diverse Modifikationen
- etwas schärfer
Zweifache Varianzanalyse (ANOVA)
Stichproben & Mittelwerte nach zwei kategorialen Variablen klassifiziert:
Zeilen- & Spalteneffekte
(Wechselwirkungen zwischen Effekten möglich)
Gesamtvarianz besteht aus:
1) Haupteffekt A
H0: Mittelwerte d. Stufen von A sind gleich
2) Haupteffekt B
H0: Mittelwerte d. Stufen von B sind gleich
3) Interaktionseffekt A*B
H0: keine Interaktion
H0s werden mit der F-Statistik geprüft
Haupteffekt ohne Interaktion → Haupteffekt ist aussagekräftig ✅
Interaktion ohne Haupteffekt → Haupteffekt kann irreführend sein❗
H-Test nach Kruskal-Wallis
Erweiterung des U-Tests (global)
Wird verwendet, um Unterschiede zwischen den Medianen von unabhängigen Gruppen zu testen.
Nullhypothese: Alle Mediane sind gleich
Verteilungsformen müssen gleich sein.
Stichproben können ungleich groß sein.
Datenpunkte werden mit Rangzahlen der Größe nach geordnet.
Wenn H signifikant: Post-hoc-Test machen um zu sehen welche Gruppen sich unterscheiden.
Der Friedmanntest
man möchte herausfinden, ob es Unterschiede zwischen drei oder mehr verbundenen (abhängigen) Gruppen gibt. 🎯
nicht parametrische Rang-Varianzanalyse verbundener Stichproben.
Alle k Stichproben haben den exakt gleichen Umfang n.
Nullhypothese: Rangsummen sind zu verschiedenen Zeitpunkten gleich.
Bei Hinweisen auf Inhomogenität, wird der spezielle Post-hoc-Test nach Wilcoxon & Wilcox für die Lokalisierung angewendet.
Bei “gerichteten” verbundenen Stichproben ist der Page-Test noch trennschärfer