Tag 2 - ANOVA Flashcards
wie funktioniert ein statistischer Test
- alpha-Fehler: P anzunehmen dass es Effekt gibt obwohl keiner da
- beta-Fehler: P vorhandenen Effekt zu übersehen
- statistische Macht = 1 - beta, P Effekt zu finden wenn er existiert
Statistische Macht - abhänigig von
- Art des Tests (parametrisch > nicht-parametrisch)
- Akteptiertem alpha-Fehler, meist 0.05
- Größe der Stichprobe (steigt nicht linear, problemat. bei sehr großen n findet man immer was)
- Größe des Effekts
alpha-Fehler = 50%
- schwer zu interpretieren: keine Evidenz für Effekt und auch keine für keinen Effekt
durch:
– zu hohe zuf. Var durch unsauberes Arbeiten
– zu hohe Var
– kein Effekt
– n zu klein (P Effekt zu finden ist gering bei kleinem n) - hohes Palpha oft als Evidenz für kein Effekt gesehen, stimmt aber nicht, ist unmöglich zu beweisen, kann man nur plausibel machen
- p 0.05 ist nur Konvention, immer ganzen p-Wert angeben
ANOVA
- Standardmethode um Untersch zw MWs zu beurteilen, berechnet P dass Untersch Zufall sind
- untersucht Einfluss ein oder mehrerer Faktoren auf abh Variable
- Faktoren sind kategorisch, lassen sich als Buchstaben ausdrücken
- schaut welcher Teil der Varianz wegen Faktor und welcher Zufall ist
- berechnet Abw der Einzelwerte vom Gruppenmittel (“Fehler”)
Prinzip Varianzanalyse
- nimmt Abw der Einzelwerte vom GesamtMW und zerlegt sie in Abw des GruppenMW vom GesamtMW (SStreat)und Abw der Einzelwerte vom GruppenMW (SSfehler)
- SStot = SStreat + SSfehler/SSresidual
- SStot = normale sum of squares
- Stärke Behandlungseffekt = SStreat/SStot, so viel % der Var kommen von treat
Annahmen für F-Test
- Replikate unabhänigig
- Werte innerhalb Behandlung normvert, oft schwiereig weil wenig Replikate, also Residuen aller Werte normvert, ist da gleiche
- Homogenität Varianzen (innerhalb der Treats)
- > Abweichung von Annahmen ist häufig, sollte nur nicht zu groß sein
Was wenn keine Normvert?
- häufig: rechtsschief, spannweite sehr groß
- log-transformieren, spätestens wenn Faktor 10 Unterschiede
Folgen von Transformationen
- Varianz ändert sich
- alles jetzt auf bsp log-Skala: Grafiken, MWs rücktransformieren, SEs auch (sind dann asymm)
- Modell jetzt multiplikativ nicht mehr additiv, also jetzt BM1 5% größer, statt 5g größer, man arbeitet mit Verhältnissen
nach ANOVA: welche Werte unterscheiden sich?
- man kann nicht per Hand paarweise Vgl machen weil steigt Fehlerwahrsch
- a priori Tests: vorher, orthogonale Kontraste, zerlegen Faktoreffekt in Einzeleffekte
- a posteriori Tests: nachher, einfacher, korrigieren für zusätzliche Fehler, bsp tukey-Test, HSD berechnen (honestly significant difference, Werte die sich um HSD unterscheiden sind untersch)
Orthogonale Kontraste
bsp: Kontrast A-B und Kontrast AB-C, also hier Unterschiede zwischen MWs testen
- Codieren sodass Summe innerhalb Kontrast = 0, übereinander schreiben, Produkte senkrecht bilden, wenn Summe davon = 0 dann sind unabhängig
- ein Faktor hat so viele unabh Kontraste wie er df hat
- zu jedem Kontrast gehört: df = 1, meansquare, F-Wert
- > man schaut sich nur Kontraste an, die orthogonal sind!
- > man kann schauen wie viel von einem Faktoreffekt auf den Unterschied zw 2 bestimmten Treats zurückzuführen sind!
Problem der multiple Zielvariablen
- bsp: 3 Düngestufen, 40 Arten untersucht in Plots
- wenn man für jede Art einzeln ANOVA macht addieren sich alpha-Fehler (auch wenn man bsp für jede Pflanze mehrere Merkmale misst) -> Fehler riesig, p-Werte sinnlos
Lösungen:
- nur wenige Variabeln betrachten
- Sammelmaße betrachten (Diversität, BMgesamt)
- multifaktorielle ANOVA
- Bonferroni-Korrektur: p-Wert anpassen, bsp bei 0.05-Level und 50 Tests: erst 0.01 als signifikant ansehen (p durch Tests teilen = neues p)
- Problem wenn man viele Tests hat ist nix mehr signifikant, und wenn man nicht weiß wie viele Tests es mal werden, also umstritten
- für false discovery rate korrigieren, ist weniger radikal
- Ordination machen