einfaktorielle between-Subject Varianzanalyse Flashcards
Ziel: Der Varianzanalyse
Auswertung von Stichproben von mehr als zwei Bedingungen/Gruppen
was bedeutet einfaktoriell?
eine unabhängige Variable (ein “Faktor”) mit (i.d.R.)
mehr als zwei Stufen
Was bedeutet between-subject?
jede Stufe wird an einer separaten Stichprobe
erhoben; die Stichproben sind unabhängig voneinander gezogen
(vgl. t-Test für zwei unabhängige Stichproben)
Wenn wir wissen wollen, ob sich die drei µ´s der drei Populationen unterschieden: warum nicht drei t-tests?
aufgrund von α-Kumulation
Das Problem: Die Wahrscheinlichkeit, dass ein Test signifikant wird, obwohl alle Nullhypothesen gelten, ist kleiner als die Wahrscheinlichkeit, dass mindestens einer der Tests signifikant wird, obwohl alle Nullhypothesen gelten.
Wie groß ist die Wahrscheinlichkeit, dass ein Test fälschlicherweise signifikant wird?
α (Fehler 1. Art) = 0,05
α-Kumulation: Als was kann jeder einzelne Test gesehen werden? Mit welcher Verteilung kann die Wahrscheinlichkeit berechnet werden, dass mind. eine Test signifikant wird?
- als Bernoulli-Experiment
- Die Wahrscheinlichkeit dafür, dass m von k Tests signifikant werden, kann dann mit der Binomialverteilung berechnet werden.
Mögliche Korrekturen der α-Kumulation
- α-Adjustierung
- Varianzanalyse
Mögliche Korrekturen der α-Kumulation:
1. α-Adjustierung
Wahl eines kleineren α´, sodass die Gesamtwahrscheinlichkeit mindestens einer Fehlentscheidung α nicht überschreitet.
Bonferroni-Korrektur:
α′ = α/k
Das würde heißen alle k t-Tests mit α′ durchführen
Varianzanalyse: Faktor
Begriff für die unabhängige (manipulierte) Variable in der Varianzanalyse
im Beispiel: 1 Faktor “Schlafentzug”
ein Faktor hat J Stufen (im Beispiel: J = 3)
Varianzanalyse: abhängige Variable
Variable, die gemessen wird (üblicherweise hier: Y )
im Beispiel: Anzahl erinnerter Wörter
Varianzanalyse: Stichproben müssen sie gleich groß sein?
Stichproben hinter den J Faktorstufen müssen nicht gleich groß sein, d.h.
wir schreiben den Umfang jeder Stichprobe als nj
Was beschreibt im Allgemeinen der Wert Yij?
den Wert (Y) einer Person (i) in der Stichprobe/Stufe (j)
Annahmen bei der einfaktoriellen between-subject Varianzanalyse
- J Stichproben werden unabhängig voneinander gezogen
- abhängige Variable Y (mindestens) intervallskaliert
- abhängige Variable in jeder Population j normalverteilt mit einer gemeinsamen Varianz (=Varianzhomogenität):
Yj ∼ N(µj, σ2) ∀j ∈ {1, . . . , J}
Hypothesen der einfaktoriellen between-subject Varianzanalyse
die hier behandelte Varianzanalyse ist eine Verallgemeinerung des t-Tests für zwei unabhängige Stichproben daher werden auch die Hypothesen entsprechend verallgemeinert:
H0 :µ1 = µ2 = . . . = µJ
H1 :µk ≠ µm für mindestens ein Paar k, m ∈ {1, . . . , J}
Die H0 schließt wie immer auf die Gleichheit von (in diesem Fall) Erwartungswerten
Die konzeptuelle Idee der Varianzanalyse: Charakteristika
- Je unterschiedlicher die Gruppen- /Bedingungsmittelwerte sind, desto eher unterscheiden sich vermutlich auch die Populationsmittelwerte
- Bei großer Populationsvarianz sind größere
Unterschiede der Mittelwerte sowieso wahrscheinlich
Die konzeptuelle Idee der Varianzanalyse:
Mittelwertsunterschiede bei steigender Populationsvarianz
- Differenz zwischen Mittelwerten: je größer Populationsvarianz, desto größer im Mittel die Differenz der beiden Gruppenmittelwerte
- Mehr als zwei Gruppen: ist eine Differenz nicht mehr berechenbar:
a) Lösung: die Varianz der Mittelwerte berechnen: sie bildet auch die Unterschiedlichkeit der Mittelwerte ab und ist auch bei mehr als zwei Gruppen/Bedingungen anwendbar - Die Varianz von zwei Mittelwerten nimmt zu, wenn die Populationsvarianz steigt.
S. F 25
Die konzeptuelle Idee der Varianzanalyse:
Was spricht gegen die Nullhypothese und für eine Unterschiedlichkeit in den Populationsmittelwerten?
- eine große Varianz der Gruppen- /Bedingungsmittelwerte
2 eine kleine Varianz innerhalb jeder Population
Die konzeptuelle Idee der Varianzanalyse:
Welche Eigenschaften muss die Gesuchte Prüfgröße erfüllen?
- die beide Aspekte so vereint, dass sie umso extremere Werte annimmt, je mehr die Daten gegen die Nullhypothese sprechen
- deren theoretische Dichtefunktion bestimmbar ist.
-> der F-Bruch
F-Bruch Sprachlich ausgedrückt
F = Variabilität der Stichprobenmittelwerte/Populationsmittelwerte geteilt durch die Variabilität in den Stichproben/den Populationen
Anders Ausgedrückt:
F =
Variabilität zwischen den Gruppen (Zähler)
Variabilität innerhalb der Gruppen (Nenner)
=
Effekte + Messfehler
Messfehler
F-Bruch bei An- und Abwesenheit von Effekten
bei Abwesenheit von Effekten: F ≈ 1
bei Anwesenheit von Effekten: F > 1
-> Der F-Bruch wird also umso größer, je “stärker” Effekte sind.
Rechnerische Durchführung:
Gruppenmittelwerte und -varianz
Im allgemeinen Fall gehen wir davon aus, dass es J-viele Gruppen/Bedingungen mit jeweils nj VP gibt.
Dann berechnen sich Gruppenmittelwerte und -Varianzen so wie üblich, lediglich einige Indizes müssen eingeführt werden, um klar zu machen, zu
welcher Gruppe der Wert gehört
s. F. 33
Rechnerische Durchführung:
Quadratsummenzerlegung
Wir teilen die Gesamtvariabilität in einen systematischen Anteil und einen Messfehleranteil
auf.
Die Variabilitäten werden in der Regel Quadratsummen (QS) bzw. Sums of Squares (SS) genannt und wir benötigen hier drei Quadratsummen:
- Gesamt-QS (Sums of Squares total): SStot
- QS zwischen den Gruppen (Sums of Squares between)2: SSA
- QS innerhalb der Gruppen (Sums of Squares within): SS
Die Formel der Quantifizierung
SStot = SSA + SSw
Wie viele Freiheitsgrade hat SSa?
J-1
das ist der Zählerfreiheitsgrad oder df1
Wie viele Freiheitsgrade hat SSw?
N-J
Das ist der Nennerfreiheitsgrad oder df2
Wie wird der F-Bruch berechnet?
F = MSA / MSW
Wie wird MSW berechnet und was ist MSW?
MSW = SSw / (N-J)
1. Mittlere Abweichung innerhalb der Gruppen: MSW ist die mittlere Abweichung innerhalb der Gruppen und wir auch als Mittlere Fehler-Quadratsumme bezeichnet: sie quantifiziert die Variabilität innerhalb der Gruppen
2. MSW spiegelt also die Abweichung der einzelnen Datenpunkte innerhalb einer Gruppe vom Gruppenmittelwert wieder und stellt damit eine nicht-erklärte “zufällige” Variabilität dar.
Wie wird MSA berechnet und was ist MSA? Wann wird MSA größer?
MSA = SSA / (J-1)
1. Mittlere Quadratsumme zwischen den Gruppen: MSA ist die mittlere Quadratsumme zwischen den Gruppen. Sie quantifiziert die Variabilität der Gruppenmittelwerte
2. In die MSA gehen die Abweichungen der Gruppenmittelwerte zueinander bzw. vom Gesamtmittelwert ein.
3. Je MSA wird umso größer, je stärker die Mittelwerte voneinander abweichen.
Wie ist eine Zufallsvariable F verteilt, die jeder
Kombination von J Stichproben den empirischen F-Bruch zuweist?
- nicht symmetrisch
- Werte < 0 kommmen nicht vor
- ähnelt auf den ersten Blick einer χ²-Verteilung
- Tatsächlich kann man zeigen, dass bei Gültigkeit der H0 der F-Bruch (zentral) F-verteilt ist.
- Eine (zentrale) F-Verteilung hat zwei Parameter:
a) Zähler- und
b) Nennerfreiheitsgrade - Bei F (2,2) dreht sich der Funktion um, und ist nach oben geöffnet
S. F. 50
Welche Parameter hat die F-Verteilung?
Zählerfreiheitsgrade: die Freiheitsgrade von SSA, also J − 1
Nennerfreiheitsgrade: die Freiheitsgrade von SSw, also N − J
Merkmale der F-Verteilung mit m und n Freiheitsgraden
Erwartungswert:
E(F) = n / (n-2) für n >2
Varianz:
Var(F)= (2n²(m + n-2)) / (m(n-2)²(n-4)) für n > 4
was ist fkrit?
- einen Wert Fkrit, rechts von dem noch 5% der Fläche unter der Dichteverteilung liegen (bei einem festgelegten α = 0.05)
- Dieser Wert ist das (1 − α)-Quantil der F-Verteilung mit m und n Freiheitsgraden:
Fkrit = Fm,n;1−α
Entscheidungsregel 1 F-Test/Varianzanalyse
“Wenn F ≥ Fkrit ist, dann tritt der F-Wert (bzw. ein noch größerer) so selten auf, wenn die H0 gelten würde, dass wir an dieser Annahme Zweifel haben. Wir entscheiden uns daher für die H1.”
mathematisch ausgedrückt: Verwirf die H0, falls F > oder = F_J-1,N-1; α
P-Wert für F-Verteilungen
der p-Wert ist die Wahrscheinlichkeit dafür, dass ein empirischer F-Wert oder ein größerer
F-Wert auftritt, wenn die Nullhypothese gilt
Entscheidungsregel 2 F-Test/Varianzanalyse
Wenn p ≤ α ist, dann tritt der F-Wert bzw. ein noch größerer F-Wert so selten auf, wenn die H0 gelten würde, dass wir an dieser Annahme Zweifel
haben. Wir entscheiden uns daher für die H1.”
Was ist bei den Entscheidungsregeln wichtig?
- Beide Entscheidungsregeln kommen zur gleichen Entscheidung.
- Bei einer Entscheidung zugunsten der H1, redet man auch von einem signifikanten Ergebnis.
Was ist der p-Wert bei genauerer Betrachtung?
Er wurde bestimmt unter Annahme der Gültigkeit der H0:
Der p-Wert ist daher eine bedingte Wahrscheinlichkeit über Daten, gegeben H0 gilt (d.h., P(H0) = 1):
p = p(Daten|H0)
Der p-Wert sagt etwas über Wahrscheinlichkeiten von Daten aus. . . .
. . . aber nicht über die Wahrscheinlichkeit der Nullhypothese.
Die Gültigkeit der Nullhypothese wird angenommen, d.h. P(H0) = 1.
t-Test vs. Varianzanalyse:
gerichtete und ungerichtete Aussagen
Eine Varianzanalyse testet eigentlich immer ungerichtet & berücksichtigt keine Vorhersagen über Richtungen von Unterschieden
beim t-Test haben wir zwischen ungerichteten und gerichteten Test unterschieden
Was gilt bei einer Varianzanalyse J = 2?
- t-Test der ungerichtete t-Test mit m Freiheitsgraden entspricht einer Varianzanalyse mit J = 2 Gruppen
- F-Test: hat dann 1 Zählerfreiheitsgrad und m Nennerfreiheitsgrade
- t-Wert: muss quadriert werden, d.h. F = t²
Effektstärke und ihre Schätzung: Effektstärke für Mittelwertsunterschiede
δ = (µA - µB) / σ
geschätzt durch
d = (MA - MB) / σ^
Effektstärke für Mittelwertsunterschiede bei J > 2
Bei mehr als zwei Gruppen, also J > 2, gibt es aber keine Mittelwertdifferenz mehr, die alle Gruppen gleichermaßen erfasst. Daher muss ein anderer Ansatz gewählt werden –> Bei Varianzanalyse können wir δ als Maß nicht benutzen
was bedeutet αj?
αj = µj - µ
Jeder Populationsmittelwert µj weicht vom Gesamterwartungswert µ ab.
Diese Abweichung wird Effekte der Stufen j des Faktors genannt und mit αj bezeichnet.
Achtung: dieses αj hat nichts mit dem Signifikanzniveau α zu tun.
Wie viele Effekte αj gibt es?
genau so viele wie es Stufen des Faktors gibt
zu was summieren sich alle αj auf?
zu 0, daher muss man noch einen Schritt weiter gehen und die Effektvarianz berechnen
Was gibt die Größe der Effektvarianz an?
je näher die Effektvarianz an Null liegt, desto weniger unterschieden sich die Populationsmittelwerte µj voneinander. Dies ermöglicht auch eine alternative Formulierung der Hypothesen:
H0: σ²α = 0 H1: σ²α > 0
Maße der Effektstärke an der wir die Effektvarianz relativieren können
Effektstärke f²
Effektstärke η²
Dies sind Populationsparameter, die wir anhand der Daten nur Schätzen können
Formel für f²
und was ist f²?
f² = σ²α / σ²
Die Effektvarianz wird an der Fehlervarianz relativiert
Formel für η²
und was ist η² ?
η² = σ²α / (σ²α + σ²) = σ²α / σ²tot
der Anteil der Gesamtvarianz der Daten, der durch die Effektvarianz erklärt wird
Wie stehen η² und f² im Verhältnis zueinander?
η² = f² / (1 + f²)
f² = η² / ( 1-η² )
Konventionen nach Cohen für f² und η²
klein: f = 0.1 , η² = 0.01
mittel: f = 0.25, η² = 0.06
groß: f= 0.40 η² = 0.14
Achtung: hier ist f also die Wurzel aus f² angegeben!!!!
Schätzung von η²
Wie bekommt an ihn in R?
Es gibt zwei Varianten:
1. η^² = SSA / SStot
R: ezANOVA() oder. anova_out()
Diese Variante überschätzt den Populationseffekt systematisch, auch wenn η² =0 findet sich hier η^² > 0
- η^² = (SSA - (J -1) MSw) / (SStot + MSw)
Dieser Schätzer wird in der Literatur auch als w² bezeichnet, ist aber auch nicht erwartungsgetreu
Levene-Test
Test für Varianzhomogenität. Frage: Haben zwei Populationen die selbe Varianz( dies ist eine Voraussetzung für t-Test & Varianzanalyse)
Wichtig: Vorher das Paket car laden!
wichtiger Wert ist PR(>F). Das ist der p-Wert des Tests
Wir testen hier die Varianzhomogenität
unsere H0 = σ²A = σ²B, H1= σ²A ≠ σ²B
Wenn der PR(>F) Wert < α, dann entscheiden wir uns für die H1
Wenn PR(>F) Wert > α, dann entschieden wir uns für die H0, nehmen als Varianzhomogenität an
Varianz bei R
R rechnet die korrigierte Varianz aus mit der Formel var(x)
wir brauchen aber i.d.R. die unkorrigierte Varianz, um das hinzubekommen machen wir
var(x) * (n-1) /n
Die Standardabweichung ist dann die Wurzel der Varianz
ezANOVA()
wid: “within-id” -> das heißt hier geben ich die VP an
dv: “dipendend Variable” -> das heißt hier gebe ich die AV
between: hier gebe ich den between Faktor an
Wie würden die Ergebnisse einer Varianzanalyse in Textform angegeben werden?
Die Varianzanalyse ergab einen signifikaten/ nicht signifikanten Effekt der X /Y, F(df1, df2) = F-Wert, P -Wert
non-zentrale F-Verteilung
- gilt die Nullhypothese, dann ist F zentral verteilt
- gilt die Alternativhypothese, dann ist F non-zentral verteilt
- Die non-zentrale F-Verteilung hat neben den beiden Freiheitsgraden noch zusätzlich einen Nonzentralitätsparameter, der Proportional zur vorliegenden Effektstärke ist
- je größer der Nonzentralitätsparameter (bzw. die Effektstärke), desto weiter “nach rechts” wird die resultierende F-Verteilung verschoben
Testet eine Varianzanalyse gerichtet oder ungerichtet?
Eine Varianzanalyse testet immer ungerichtet und lässt keine Vorhersagen über Richtungen von Unterschieden zu
Welche Beziehung gibt es zw. t-Test und Varianzanalyse bzw. t und F?
- Der t-Test ist nur ein “Spezialfall” der Varianzanalyse mit J = 2.
- Der ungergerichtete t-Test mit m Freiheitsgraden entspricht also einer Varianzanalyse mit J= 2 Gruppen
- Der F-Test hat dann 1 Zählerfreiheitsgrad und m Nennerfreiheitsgrade
- es gilt: F = t², der t-Wert muss also quadriert werden
Was ist die Power? Was ist Beta?
1, Power: Die Wahrscheinlichkeit bei Gültigkeit der Alternativhypothese ein signifikantes Ergebnis zu bekommen 1-ß
2. ß : die max. Wahrscheinlichkeit für einen Fehler 2. Art, die Fläche unter der non-zentralen F-Verteilung bis Fkrit.
Power mit R bestimmen
library(pwr) vorher laden
k = Anzahl der Gruppen
n = NULL, das wollen wir ja herrausfinden
f = angenommener Effekt, Wurzel aus f²
sig.level = Alpha (also 0.05 außer anders angegeben)
power = wird in der Aufgabenstellung geben
Konfidenzintervalle
Das Intervall in dem mit einer so und so großen Sicherheit der wahre Populationsmittelwert liegt.
Konfidenzintervalle: Warum muss bei der Berechnung mit MSw Varianzhomogenität gegeben sein?
Weil MSw auf den Daten aller Gruppen beruht und somit präzisier ist, das jedoch nur, wenn Varianzhomogenität besteht. MSw gibt die Variabilität innerhalb der Gruppen an. MSw ist also ein gemeinsamer Schätzer einer Populationsvarianz. Würde sich die Gruppen in Wahrheit in ihren Populationsvarianzen unterscheiden, dann würde MSw keinen sinn machen. Ein gemeinsamer Schätzer wäre dann nicht angebracht.
Was ist die SStot konzeptuell?
Das n-fache der unkorrigierten Varianz aller Elemente der Stichproben gemeinsam
Was ist SSA konzeptuell?
- Gewichtung: Durch diese Multiplikation bekommen Mittelwerte aus großen Stichproben mehr Gewicht verliehen als die aus kleinen Stichproben:
- gewichtete Varianz: SSA ist also eine Art gewichtete Varianz der Gruppenmittelwerte um den Gesamtmittelwerte.
- Abhängigkeit vom Effekt: Dabei hängt SSA nur von tatsächlichen Effekten ab und quantifiziert daher den Einfluss des Faktors
Was ist SSW konzeptuell?
–> wird auch als Fehlerquadratsumme bezeichnet
Dem rechten Teil der Formel zufolge werden hier also die Gruppenvarianzen an ihrem
Stichprobenumfang gewichtet und dann aufsummiert, und SSw stellt daher die Grundlage
für σˆ 2 – den gesuchten Schätzer der Populationsvarianz – dar.
Was verdeutlicht die Quadratsummenzerlegung?
Das Grundprinzip der Varianzanalyse: Eine Art Gesamtvarianz der Daten wird zerlegt in etwas, das auf Unterschiede
zwischen den Gruppen zurückgeht (hier: SSA), und etwas, das die Varianz innerhalb der
Gruppen widerspiegelt (hier: SSw).
Warum haben SSa und SSW unterschiedliche Freiheitsgrade?
- SSW: wird auf Basis der einzelnen Datenpunkte berechnet, Werte einzelner VP gehen mit ein
- SSA: geht lediglich auf den Mittelwerten der Gruppen zurück.
- Dies drückt sich in einer unterschiedlichen Anzahl von Freiheitsgraden aus
Warum Berechnen wir noch die Mittleren Quadratsummen?
Die mittleren Quadratsummen werden aus den jeweiligen Quadrastsummen (SSA oder SSW) geteilt durch ihre Freiheitsgrade berechnet. Dies tun wir, um die Quadratsummen vergleichbar zu machen
Verhältnis von F und t
F = t²
Dabei entsprechen die Nennerfreiheitsgrade (als dfw) den Freiheitsgraden der dazugehörigen t-Verteilung
Eigenschaften des F-Bruchs
- Der F-Bruch kann nicht negativ werden, da Nenner und Zähler jeweils aus quadrierten Termen bestehen
- Der F-Bruch wird umso größer, je mehr Daten gegen die H0 Sprechen
- F wird größer, wenn der Zähler groß (Variabilität zwischen den Gruppen) wird und wenn der Nenner (Variabilität innerhalb der Gruppe) klein wird
Warum testet eine einfaktorielle Varianzanalyse nur ungerichtete Hypothesen?
Weil sich die Prüfgröße aus einer Quadratsumme ergibt, welche sämtliche größer/kleiner-Relationen vernichtet. Sie berücksichtigt damit nur, dass Mittelwerte sich (relativ zur Fehlervarianz) unterscheiden, nicht aber wie sie dies genau tun
Wie berechne ich, wie viele t-Test ist bei N Populationen/ Stichproben benötige?
Mit Hilfe der Kombinatorik, durch den Fall “ohe Beachtung der Reihenfolge und ohne Zurücklegen”. Dabei wird aus einer Menge N (z.B.: = 5) möglichen Gruppen n = 2 gezogen
(N über 2)
Wie vermeidet die Varianzanalyse eine Alpha-Kumulation?
Die Varianzanalyse testet eine globale Nullhypothese (nämlich, dass keine der Gruppenerwartungswerte
sich unterscheiden) mit nur einem Test. Da man nur einen Test durchführt, gibt es auch keine αKumulation. In den einzelnen F-Bruch fließt die Gesamtvarianz der Gruppenmittelwerte ein – im Umkehrschluss bedeutet das auch, dass aus einem signifikanten Ergebnis der Varianzanalyse noch
nicht darauf geschlossen werden kann, welche (Gruppen-)Mittelwerte sich signifikant unterscheiden.
Warum überschätzt η² und ω² den Populationseffekt systematisch?
- Weil SSA im Zähler den Effekt der UV systematisch überschätzt, SSA, also die Gruppenvariabilität, ist nämlich nicht nur von der UV determiniert, sondern kann sich auch durch zufällige Gruppenunterschiede vergrößern.
- Aber auch ω² überschätzt den Populationseffekt. Zwar stehen bei der Berechnung zwei Erwartungsgetreue Schätze für sigma²A und Sigma²w, nämlich SStot und MSw sowohl im Zähler als auch im Nenner, trotzdem überschätzt er den Effekt.
- Gegen unendlich gehende Stichproben η² und ω² konvergieren gegen einen gemeinsamen Wert.
Warum werden im F-Bruch nicht einfach die Varianzen berechnet?
Wir würden dann Probleme mit der Bestimmung der Dichtefunktion des F-Bruchs bekommen, daher die Quadratsummen
Voraussetzungsverletzungen: Was denn Normalverteiltheitsannahme verletzt ist?
- ist recht robus, besonders bei nj > 25, ansonsten helfen:
a) geeignete Transformationen der Daten
b) non-parametrische Alternativen (Kruskal-Wallis-Test)
–> Kruskal-Wallis-Test ist verfahren der Wahl, wenn Daten nur Ordinalskalenniveau haben
Verletzung der Varianzhomogenität: Wann problematisch und Umgang mit Varianzheterogenität
- ungleiche Stichprobenumfänge: Verletzungen der Varianzhomogenität sind insbesondere dann problematisch, wenn ungleiche Stichprobenumfänge in den einzelnen Gruppen realisiert wurden. Dies sollte daher bereits bei Planung einer Studie berücksichtigt werden
- Umgang mit Varianzheterogenität: Erweiterung des Welch-Tests oder der Brown-Forsythe-Test: Berechnen F-Wert und Freiheitsgrade auf eine andere Art und weise und kompensieren die entstandene Liberalität des F-Tests
- Transformation der Daten:
a) Um Varaianz homogener zu machen
b) besonders sinnvoll, wenn Mittelwerte und Varianzen proportional zueinander sind.
c) genaue Art der Transformation hängt von den Daten ab
Wie sind SSA und SSW unter der H0 verteilt?
Beide Quadratsummen geteilt durch sigma² sind χ²-verteilt mit ihren jeweiligen Freiheitsgraden unter der H0.
Wann ist eine Variable χ²-verteilt?
Die Summe n-vieler quadrierter standardnormalverteilter
Zufallsvariablen ist χ2-verteilt mit n Freiheitsgraden
Varianzheterogenität: Wie müssen die Daten transformiert werden?
- Häufigkeiten: Y ′ = wurzel(Y + 1/2)
2.(Reaktions-)Zeiten: Y ′ = log(Y + 1) - Anteile (z.B. bei Fehlern): 2 · arcsin(√Y )