Tests und Verfahren Flashcards

Alles somewhat relevantes, was mman rechnen könnt

1
Q

Arithmetisches Mittel (x)

A

Mathematisch optimal aber empfindlich

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Gewogenes Mittel (x_gew)

A

“Gesamtmittel” mehrerer (k) Teilstichproben

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Gleitendes Mittel (xi)

A

mit dynamischen Fenster

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Geographisches Mittel

A

bei Wachstumsraten nützlich
Minimiert extreme Werte und gibt ein faires Mittel

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Standardabweichung (SD)

A

Universelles Maß der Variation
s² = Varianz

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Standardfehler (SE) d Mittelwerts

A

zeigt wie stark die Streuung ist.
Ein kleiner SE bedeutet, dass der Mittelwert eine verlässliche Schätzung ist.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Variationskoeffizient (CV)

A

misst relative Streuung einer Verteilung im Verhältnis zum Mittelwert (x) in Prozent

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

t-Test

A

Berechnet den Abstand der Mittelwerte zweier Gruppen, relativ zur gemeinsamen Varianz. Das Ziel ist es, zu prüfen, ob dieser Abstand groß genug ist, um einen signifikanten Unterschied zwischen den Mittelwerten zu belegen.
Varianzen müssen homogen sein

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

F-Test

A

testen ob sich die Varianzen signifikant unterscheiden.
F = größere Varianz / kleinere Varianz
wird oft vor dem t-Test durchgeführt

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Welch-Satterthwaite-Approximation

A

häufig angewendet statt dem normalen t-Test, bei deutlicher inhomogenität der Varianzen, deutlich ungleichen n, oder knappen p

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

U-Test (Mann-Whitney)

A

prüft unabhängige Stichproben nach einem signifikanten Unterschied, wenn Normalität nicht unterstellt werden kann.

nicht-parametrisch, konservativ

Daten werden nach Größe geordnet u. bekommen Rangzahlen zugeordnet.
Aus Rangsummen wird auf Ua, Ub geschlossen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Brunner-Munzel-Test

A

überlegene Alternative des U-Tests
völlig äquivalent zum Welch-t-Test, aber mit Rangdaten.
Normalität nicht erfordert und robust gegen Heterogenität bei Varianzen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Wilcoxon-Test

A

Optimaler Rangtest für verbundene Stichproben.
Paardifferenzen sollen symmetrisch um Null sein.
Übereinstimmende Paare werden verworfen
Die kleinste Rangsumme unter kritischem Schwellenwert = Signifikanz

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

x²-Statistik

A

x²: Prüfgröße für Güte der Anpassung
(0 < x² < +unendlich)

Abweichung zwischen [B] Beobachtung und [E] Erwartung zufällig = nicht Signifikant

Summe der Abweichungen über alle Klassen

stetige Verteilungsmodelle in diskrete Kategorien zerlegen, falls möglich

Standardverfahren wenn plausible Erwartung vorliegt

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Fisher Test

A

“Exakter Test” nach Ronald A. Fisher
konservativ
Alternativ zu Vierfeldertafeln mit kleinen Besetzungen

Wahrscheinlichkeit P:
Bei gegebenen Randsummen die beobachtete oder eine noch extremere Besetzung anzutreffen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Vierfeldertafeln

A

Bei vorgegebenen Randsummen ist nur eine Zelle frei wählbar

Signifikanzprüfung hängt nur von der Zahl des FG ab

Gesamtstichprobe sollte > 40 sein sonst Fisher Test.

Häufigkeiten müssen absolut sein und können von einer 3. Hintergrund-Variablen abhängen.

17
Q

Vorzeichentest nach McNemar

A

Untersuchung an denselben Individuen

Informativ ist nur der Wechsel von Datenpaaren zu einer anderen Kategorie

18
Q

K-S-Test

A

Kolmogorov & Smirnov

scharfer Test auf Inhomogenitäten aus Häufigkeitsverteilungen.

Maximale Abweichung in einer Klasse

Anwendbar um zu prüfen welches Wahrscheinlichkeitsmodell passt

geringere Power als U-Test

19
Q

Test von Cramer & von Mises

A

Weiterentwicklung des K-S-Tests

berücksichtigt die Summe aller (quadrierten) Differenzen zwischen kumulativen Häufigkeiten zweier Stichproben.

Mehr Power: ist bei Überschneidungen und kleinen Stichproben zulässig

20
Q

Klassisches Bonferroni-Verfahren

A

lokal jede H0 prüfen
stets zulässig aber sehr konservativ
p = alpha / k

21
Q

Sequenzielles Bonferroni-Verfahren

A

Berechnung aller k-Tests
p = alpha / k
p = alpha / (k - 1)
p = alpha / (k - 2)

p = alpha

größere Power

22
Q

False Discovery Rate

A

Benjamin Hochberg
p = alpha * k / k
p = alpha * (k - 1) / k
p = alpha * (k - 2) / k

p = alpha / k

Maximale Power

23
Q

Einfaktorielle Varianzanalyse (ANOVA)

A

erfordert metrische Zielvariablen

Gleich große Stichprobenumfänge erhöhen die Teststärke

Wenn: Varianz zwischen Gruppen höher ist als innerhalb von Gruppen ist der Unterschied überzufällig

Varianzen müssen homogen sein, sonst Welch-Test (wesentlich weniger Power)

Grobe Varianzunterschiede können bei kleinen Stichproben fälschlicherweise Signifikanzbefunde vorspiegeln.

Bei sehr schiefen Verteilungen oder kleinen Stichproben lieber Rangverteilung (H-Test)

24
Q

Post-hoc-Test

A

Multiple Vergleiche zur Lokalisierung, welche Gruppen sich unterscheiden, nachdem ein globaler Test (zb ANOVA) signifikant geworden ist.

Wie groß muss ein Unterschied zwischen Gruppen-Mittelwerten bei gegebenen Varianzverhältnissen sein, um als überzufällig zu gelten?

1) Lineare Kontraste (Scheffe)
- ungleiche Stichprobengröße
- beliebige Mittelwerte
- konservativ

2) Tukey-Verfahren
- beliebige Mittelwerte
-diverse Modifikationen
- etwas schärfer

25
Q

Zweifache Varianzanalyse (ANOVA)

A

Stichproben & Mittelwerte nach zwei kategorialen Variablen klassifiziert:
Zeilen- & Spalteneffekte
(Wechselwirkungen zwischen Effekten möglich)

Gesamtvarianz besteht aus:
1) Haupteffekt A
H0: Mittelwerte d. Stufen von A sind gleich
2) Haupteffekt B
H0: Mittelwerte d. Stufen von B sind gleich
3) Interaktionseffekt A*B
H0: keine Interaktion

H0s werden mit der F-Statistik geprüft

Haupteffekt ohne Interaktion → Haupteffekt ist aussagekräftig ✅
Interaktion ohne Haupteffekt → Haupteffekt kann irreführend sein❗

26
Q

H-Test nach Kruskal-Wallis

A

Erweiterung des U-Tests (global)

Wird verwendet, um Unterschiede zwischen den Medianen von unabhängigen Gruppen zu testen.
Nullhypothese: Alle Mediane sind gleich

Verteilungsformen müssen gleich sein.
Stichproben können ungleich groß sein.

Datenpunkte werden mit Rangzahlen der Größe nach geordnet.

Wenn H signifikant: Post-hoc-Test machen um zu sehen welche Gruppen sich unterscheiden.

27
Q

Der Friedmanntest

A

man möchte herausfinden, ob es Unterschiede zwischen drei oder mehr verbundenen (abhängigen) Gruppen gibt. 🎯
nicht parametrische Rang-Varianzanalyse verbundener Stichproben.

Alle k Stichproben haben den exakt gleichen Umfang n.

Nullhypothese: Rangsummen sind zu verschiedenen Zeitpunkten gleich.

Bei Hinweisen auf Inhomogenität, wird der spezielle Post-hoc-Test nach Wilcoxon & Wilcox für die Lokalisierung angewendet.

Bei “gerichteten” verbundenen Stichproben ist der Page-Test noch trennschärfer