einfaktorielle between-Subject Varianzanalyse Flashcards

1
Q

Ziel: Der Varianzanalyse

A

Auswertung von Stichproben von mehr als zwei Bedingungen/Gruppen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

was bedeutet einfaktoriell?

A

eine unabhängige Variable (ein “Faktor”) mit (i.d.R.)
mehr als zwei Stufen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Was bedeutet between-subject?

A

jede Stufe wird an einer separaten Stichprobe
erhoben; die Stichproben sind unabhängig voneinander gezogen
(vgl. t-Test für zwei unabhängige Stichproben)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Wenn wir wissen wollen, ob sich die drei µ´s der drei Populationen unterschieden: warum nicht drei t-tests?

A

aufgrund von α-Kumulation
Das Problem: Die Wahrscheinlichkeit, dass ein Test signifikant wird, obwohl alle Nullhypothesen gelten, ist kleiner als die Wahrscheinlichkeit, dass mindestens einer der Tests signifikant wird, obwohl alle Nullhypothesen gelten.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Wie groß ist die Wahrscheinlichkeit, dass ein Test fälschlicherweise signifikant wird?

A

α (Fehler 1. Art) = 0,05

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

α-Kumulation: Als was kann jeder einzelne Test gesehen werden? Mit welcher Verteilung kann die Wahrscheinlichkeit berechnet werden, dass mind. eine Test signifikant wird?

A
  1. als Bernoulli-Experiment
  2. Die Wahrscheinlichkeit dafür, dass m von k Tests signifikant werden, kann dann mit der Binomialverteilung berechnet werden.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Mögliche Korrekturen der α-Kumulation

A
  1. α-Adjustierung
  2. Varianzanalyse
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Mögliche Korrekturen der α-Kumulation:
1. α-Adjustierung

A

Wahl eines kleineren α´, sodass die Gesamtwahrscheinlichkeit mindestens einer Fehlentscheidung α nicht überschreitet.
Bonferroni-Korrektur:
α′ = α/k
Das würde heißen alle k t-Tests mit α′ durchführen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Varianzanalyse: Faktor

A

Begriff für die unabhängige (manipulierte) Variable in der Varianzanalyse
im Beispiel: 1 Faktor “Schlafentzug”
ein Faktor hat J Stufen (im Beispiel: J = 3)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Varianzanalyse: abhängige Variable

A

Variable, die gemessen wird (üblicherweise hier: Y )
im Beispiel: Anzahl erinnerter Wörter

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Varianzanalyse: Stichproben müssen sie gleich groß sein?

A

Stichproben hinter den J Faktorstufen müssen nicht gleich groß sein, d.h.
wir schreiben den Umfang jeder Stichprobe als nj

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Was beschreibt im Allgemeinen der Wert Yij?

A

den Wert (Y) einer Person (i) in der Stichprobe/Stufe (j)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Annahmen bei der einfaktoriellen between-subject Varianzanalyse

A
  1. J Stichproben werden unabhängig voneinander gezogen
  2. abhängige Variable Y (mindestens) intervallskaliert
  3. abhängige Variable in jeder Population j normalverteilt mit einer gemeinsamen Varianz (=Varianzhomogenität):

Yj ∼ N(µj, σ2) ∀j ∈ {1, . . . , J}

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Hypothesen der einfaktoriellen between-subject Varianzanalyse

A

die hier behandelte Varianzanalyse ist eine Verallgemeinerung des t-Tests für zwei unabhängige Stichproben daher werden auch die Hypothesen entsprechend verallgemeinert:
H0 :µ1 = µ2 = . . . = µJ
H1 :µk ≠ µm für mindestens ein Paar k, m ∈ {1, . . . , J}
Die H0 schließt wie immer auf die Gleichheit von (in diesem Fall) Erwartungswerten

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Die konzeptuelle Idee der Varianzanalyse: Charakteristika

A
  1. Je unterschiedlicher die Gruppen- /Bedingungsmittelwerte sind, desto eher unterscheiden sich vermutlich auch die Populationsmittelwerte
  2. Bei großer Populationsvarianz sind größere
    Unterschiede der Mittelwerte sowieso wahrscheinlich
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Die konzeptuelle Idee der Varianzanalyse:
Mittelwertsunterschiede bei steigender Populationsvarianz

A
  1. Differenz zwischen Mittelwerten: je größer Populationsvarianz, desto größer im Mittel die Differenz der beiden Gruppenmittelwerte
  2. Mehr als zwei Gruppen: ist eine Differenz nicht mehr berechenbar:
    a) Lösung: die Varianz der Mittelwerte berechnen: sie bildet auch die Unterschiedlichkeit der Mittelwerte ab und ist auch bei mehr als zwei Gruppen/Bedingungen anwendbar
  3. Die Varianz von zwei Mittelwerten nimmt zu, wenn die Populationsvarianz steigt.

S. F 25

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Die konzeptuelle Idee der Varianzanalyse:
Was spricht gegen die Nullhypothese und für eine Unterschiedlichkeit in den Populationsmittelwerten?

A
  1. eine große Varianz der Gruppen- /Bedingungsmittelwerte
    2 eine kleine Varianz innerhalb jeder Population
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Die konzeptuelle Idee der Varianzanalyse:
Welche Eigenschaften muss die Gesuchte Prüfgröße erfüllen?

A
  1. die beide Aspekte so vereint, dass sie umso extremere Werte annimmt, je mehr die Daten gegen die Nullhypothese sprechen
  2. deren theoretische Dichtefunktion bestimmbar ist.
    -> der F-Bruch
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

F-Bruch Sprachlich ausgedrückt

A

F = Variabilität der Stichprobenmittelwerte/Populationsmittelwerte geteilt durch die Variabilität in den Stichproben/den Populationen
Anders Ausgedrückt:
F =
Variabilität zwischen den Gruppen (Zähler)
Variabilität innerhalb der Gruppen (Nenner)
=
Effekte + Messfehler
Messfehler

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

F-Bruch bei An- und Abwesenheit von Effekten

A

bei Abwesenheit von Effekten: F ≈ 1
bei Anwesenheit von Effekten: F > 1
-> Der F-Bruch wird also umso größer, je “stärker” Effekte sind.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Rechnerische Durchführung:
Gruppenmittelwerte und -varianz

A

Im allgemeinen Fall gehen wir davon aus, dass es J-viele Gruppen/Bedingungen mit jeweils nj VP gibt.
Dann berechnen sich Gruppenmittelwerte und -Varianzen so wie üblich, lediglich einige Indizes müssen eingeführt werden, um klar zu machen, zu
welcher Gruppe der Wert gehört
s. F. 33

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Rechnerische Durchführung:
Quadratsummenzerlegung

A

Wir teilen die Gesamtvariabilität in einen systematischen Anteil und einen Messfehleranteil
auf.
Die Variabilitäten werden in der Regel Quadratsummen (QS) bzw. Sums of Squares (SS) genannt und wir benötigen hier drei Quadratsummen:

  1. Gesamt-QS (Sums of Squares total): SStot
  2. QS zwischen den Gruppen (Sums of Squares between)2: SSA
  3. QS innerhalb der Gruppen (Sums of Squares within): SS
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Die Formel der Quantifizierung

A

SStot = SSA + SSw

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Wie viele Freiheitsgrade hat SSa?

A

J-1
das ist der Zählerfreiheitsgrad oder df1

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Q

Wie viele Freiheitsgrade hat SSw?

A

N-J
Das ist der Nennerfreiheitsgrad oder df2

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
26
Q

Wie wird der F-Bruch berechnet?

A

F = MSA / MSW

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
27
Q

Wie wird MSW berechnet und was ist MSW?

A

MSW = SSw / (N-J)
1. Mittlere Abweichung innerhalb der Gruppen: MSW ist die mittlere Abweichung innerhalb der Gruppen und wir auch als Mittlere Fehler-Quadratsumme bezeichnet: sie quantifiziert die Variabilität innerhalb der Gruppen
2. MSW spiegelt also die Abweichung der einzelnen Datenpunkte innerhalb einer Gruppe vom Gruppenmittelwert wieder und stellt damit eine nicht-erklärte “zufällige” Variabilität dar.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
28
Q

Wie wird MSA berechnet und was ist MSA? Wann wird MSA größer?

A

MSA = SSA / (J-1)
1. Mittlere Quadratsumme zwischen den Gruppen: MSA ist die mittlere Quadratsumme zwischen den Gruppen. Sie quantifiziert die Variabilität der Gruppenmittelwerte
2. In die MSA gehen die Abweichungen der Gruppenmittelwerte zueinander bzw. vom Gesamtmittelwert ein.
3. Je MSA wird umso größer, je stärker die Mittelwerte voneinander abweichen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
29
Q

Wie ist eine Zufallsvariable F verteilt, die jeder
Kombination von J Stichproben den empirischen F-Bruch zuweist?

A
  1. nicht symmetrisch
  2. Werte < 0 kommmen nicht vor
  3. ähnelt auf den ersten Blick einer χ²-Verteilung
  4. Tatsächlich kann man zeigen, dass bei Gültigkeit der H0 der F-Bruch (zentral) F-verteilt ist.
  5. Eine (zentrale) F-Verteilung hat zwei Parameter:
    a) Zähler- und
    b) Nennerfreiheitsgrade
  6. Bei F (2,2) dreht sich der Funktion um, und ist nach oben geöffnet
    S. F. 50
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
30
Q

Welche Parameter hat die F-Verteilung?

A

Zählerfreiheitsgrade: die Freiheitsgrade von SSA, also J − 1
Nennerfreiheitsgrade: die Freiheitsgrade von SSw, also N − J

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
31
Q

Merkmale der F-Verteilung mit m und n Freiheitsgraden

A

Erwartungswert:
E(F) = n / (n-2) für n >2

Varianz:
Var(F)= (2n²(m + n-2)) / (m(n-2)²(n-4)) für n > 4

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
32
Q

was ist fkrit?

A
  1. einen Wert Fkrit, rechts von dem noch 5% der Fläche unter der Dichteverteilung liegen (bei einem festgelegten α = 0.05)
  2. Dieser Wert ist das (1 − α)-Quantil der F-Verteilung mit m und n Freiheitsgraden:
    Fkrit = Fm,n;1−α
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
33
Q

Entscheidungsregel 1 F-Test/Varianzanalyse

A

“Wenn F ≥ Fkrit ist, dann tritt der F-Wert (bzw. ein noch größerer) so selten auf, wenn die H0 gelten würde, dass wir an dieser Annahme Zweifel haben. Wir entscheiden uns daher für die H1.”

mathematisch ausgedrückt: Verwirf die H0, falls F > oder = F_J-1,N-1; α

34
Q

P-Wert für F-Verteilungen

A

der p-Wert ist die Wahrscheinlichkeit dafür, dass ein empirischer F-Wert oder ein größerer
F-Wert auftritt, wenn die Nullhypothese gilt

35
Q

Entscheidungsregel 2 F-Test/Varianzanalyse

A

Wenn p ≤ α ist, dann tritt der F-Wert bzw. ein noch größerer F-Wert so selten auf, wenn die H0 gelten würde, dass wir an dieser Annahme Zweifel
haben. Wir entscheiden uns daher für die H1.”

36
Q

Was ist bei den Entscheidungsregeln wichtig?

A
  1. Beide Entscheidungsregeln kommen zur gleichen Entscheidung.
  2. Bei einer Entscheidung zugunsten der H1, redet man auch von einem signifikanten Ergebnis.
37
Q

Was ist der p-Wert bei genauerer Betrachtung?

A

Er wurde bestimmt unter Annahme der Gültigkeit der H0:
Der p-Wert ist daher eine bedingte Wahrscheinlichkeit über Daten, gegeben H0 gilt (d.h., P(H0) = 1):
p = p(Daten|H0)
Der p-Wert sagt etwas über Wahrscheinlichkeiten von Daten aus. . . .
. . . aber nicht über die Wahrscheinlichkeit der Nullhypothese.
Die Gültigkeit der Nullhypothese wird angenommen, d.h. P(H0) = 1.

38
Q

t-Test vs. Varianzanalyse:
gerichtete und ungerichtete Aussagen

A

Eine Varianzanalyse testet eigentlich immer ungerichtet & berücksichtigt keine Vorhersagen über Richtungen von Unterschieden

beim t-Test haben wir zwischen ungerichteten und gerichteten Test unterschieden

39
Q

Was gilt bei einer Varianzanalyse J = 2?

A
  1. t-Test der ungerichtete t-Test mit m Freiheitsgraden entspricht einer Varianzanalyse mit J = 2 Gruppen
  2. F-Test: hat dann 1 Zählerfreiheitsgrad und m Nennerfreiheitsgrade
  3. t-Wert: muss quadriert werden, d.h. F = t²
40
Q

Effektstärke und ihre Schätzung: Effektstärke für Mittelwertsunterschiede

A

δ = (µA - µB) / σ
geschätzt durch

d = (MA - MB) / σ^

41
Q

Effektstärke für Mittelwertsunterschiede bei J > 2

A

Bei mehr als zwei Gruppen, also J > 2, gibt es aber keine Mittelwertdifferenz mehr, die alle Gruppen gleichermaßen erfasst. Daher muss ein anderer Ansatz gewählt werden –> Bei Varianzanalyse können wir δ als Maß nicht benutzen

42
Q

was bedeutet αj?

A

αj = µj - µ
Jeder Populationsmittelwert µj weicht vom Gesamterwartungswert µ ab.
Diese Abweichung wird Effekte der Stufen j des Faktors genannt und mit αj bezeichnet.
Achtung: dieses αj hat nichts mit dem Signifikanzniveau α zu tun.

43
Q

Wie viele Effekte αj gibt es?

A

genau so viele wie es Stufen des Faktors gibt

44
Q

zu was summieren sich alle αj auf?

A

zu 0, daher muss man noch einen Schritt weiter gehen und die Effektvarianz berechnen

45
Q

Was gibt die Größe der Effektvarianz an?

A

je näher die Effektvarianz an Null liegt, desto weniger unterschieden sich die Populationsmittelwerte µj voneinander. Dies ermöglicht auch eine alternative Formulierung der Hypothesen:
H0: σ²α = 0 H1: σ²α > 0

46
Q

Maße der Effektstärke an der wir die Effektvarianz relativieren können

A

Effektstärke f²
Effektstärke η²
Dies sind Populationsparameter, die wir anhand der Daten nur Schätzen können

47
Q

Formel für f²
und was ist f²?

A

f² = σ²α / σ²
Die Effektvarianz wird an der Fehlervarianz relativiert

48
Q

Formel für η²
und was ist η² ?

A

η² = σ²α / (σ²α + σ²) = σ²α / σ²tot
der Anteil der Gesamtvarianz der Daten, der durch die Effektvarianz erklärt wird

49
Q

Wie stehen η² und f² im Verhältnis zueinander?

A

η² = f² / (1 + f²)
f² = η² / ( 1-η² )

50
Q

Konventionen nach Cohen für f² und η²

A

klein: f = 0.1 , η² = 0.01
mittel: f = 0.25, η² = 0.06
groß: f= 0.40 η² = 0.14
Achtung: hier ist f also die Wurzel aus f² angegeben!!!!

51
Q

Schätzung von η²
Wie bekommt an ihn in R?

A

Es gibt zwei Varianten:
1. η^² = SSA / SStot
R: ezANOVA() oder. anova_out()
Diese Variante überschätzt den Populationseffekt systematisch, auch wenn η² =0 findet sich hier η^² > 0

  1. η^² = (SSA - (J -1) MSw) / (SStot + MSw)
    Dieser Schätzer wird in der Literatur auch als w² bezeichnet, ist aber auch nicht erwartungsgetreu
52
Q

Levene-Test

A

Test für Varianzhomogenität. Frage: Haben zwei Populationen die selbe Varianz( dies ist eine Voraussetzung für t-Test & Varianzanalyse)
Wichtig: Vorher das Paket car laden!
wichtiger Wert ist PR(>F). Das ist der p-Wert des Tests
Wir testen hier die Varianzhomogenität
unsere H0 = σ²A = σ²B, H1= σ²A ≠ σ²B
Wenn der PR(>F) Wert < α, dann entscheiden wir uns für die H1
Wenn PR(>F) Wert > α, dann entschieden wir uns für die H0, nehmen als Varianzhomogenität an

53
Q

Varianz bei R

A

R rechnet die korrigierte Varianz aus mit der Formel var(x)
wir brauchen aber i.d.R. die unkorrigierte Varianz, um das hinzubekommen machen wir
var(x) * (n-1) /n
Die Standardabweichung ist dann die Wurzel der Varianz

54
Q

ezANOVA()

A

wid: “within-id” -> das heißt hier geben ich die VP an
dv: “dipendend Variable” -> das heißt hier gebe ich die AV
between: hier gebe ich den between Faktor an

55
Q

Wie würden die Ergebnisse einer Varianzanalyse in Textform angegeben werden?

A

Die Varianzanalyse ergab einen signifikaten/ nicht signifikanten Effekt der X /Y, F(df1, df2) = F-Wert, P -Wert

56
Q

non-zentrale F-Verteilung

A
  1. gilt die Nullhypothese, dann ist F zentral verteilt
  2. gilt die Alternativhypothese, dann ist F non-zentral verteilt
  3. Die non-zentrale F-Verteilung hat neben den beiden Freiheitsgraden noch zusätzlich einen Nonzentralitätsparameter, der Proportional zur vorliegenden Effektstärke ist
  4. je größer der Nonzentralitätsparameter (bzw. die Effektstärke), desto weiter “nach rechts” wird die resultierende F-Verteilung verschoben
57
Q

Testet eine Varianzanalyse gerichtet oder ungerichtet?

A

Eine Varianzanalyse testet immer ungerichtet und lässt keine Vorhersagen über Richtungen von Unterschieden zu

58
Q

Welche Beziehung gibt es zw. t-Test und Varianzanalyse bzw. t und F?

A
  1. Der t-Test ist nur ein “Spezialfall” der Varianzanalyse mit J = 2.
  2. Der ungergerichtete t-Test mit m Freiheitsgraden entspricht also einer Varianzanalyse mit J= 2 Gruppen
  3. Der F-Test hat dann 1 Zählerfreiheitsgrad und m Nennerfreiheitsgrade
  4. es gilt: F = t², der t-Wert muss also quadriert werden
59
Q

Was ist die Power? Was ist Beta?

A

1, Power: Die Wahrscheinlichkeit bei Gültigkeit der Alternativhypothese ein signifikantes Ergebnis zu bekommen 1-ß
2. ß : die max. Wahrscheinlichkeit für einen Fehler 2. Art, die Fläche unter der non-zentralen F-Verteilung bis Fkrit.

60
Q

Power mit R bestimmen

A

library(pwr) vorher laden
k = Anzahl der Gruppen
n = NULL, das wollen wir ja herrausfinden
f = angenommener Effekt, Wurzel aus f²
sig.level = Alpha (also 0.05 außer anders angegeben)
power = wird in der Aufgabenstellung geben

61
Q

Konfidenzintervalle

A

Das Intervall in dem mit einer so und so großen Sicherheit der wahre Populationsmittelwert liegt.

62
Q

Konfidenzintervalle: Warum muss bei der Berechnung mit MSw Varianzhomogenität gegeben sein?

A

Weil MSw auf den Daten aller Gruppen beruht und somit präzisier ist, das jedoch nur, wenn Varianzhomogenität besteht. MSw gibt die Variabilität innerhalb der Gruppen an. MSw ist also ein gemeinsamer Schätzer einer Populationsvarianz. Würde sich die Gruppen in Wahrheit in ihren Populationsvarianzen unterscheiden, dann würde MSw keinen sinn machen. Ein gemeinsamer Schätzer wäre dann nicht angebracht.

63
Q

Was ist die SStot konzeptuell?

A

Das n-fache der unkorrigierten Varianz aller Elemente der Stichproben gemeinsam

64
Q

Was ist SSA konzeptuell?

A
  1. Gewichtung: Durch diese Multiplikation bekommen Mittelwerte aus großen Stichproben mehr Gewicht verliehen als die aus kleinen Stichproben:
  2. gewichtete Varianz: SSA ist also eine Art gewichtete Varianz der Gruppenmittelwerte um den Gesamtmittelwerte.
  3. Abhängigkeit vom Effekt: Dabei hängt SSA nur von tatsächlichen Effekten ab und quantifiziert daher den Einfluss des Faktors
65
Q

Was ist SSW konzeptuell?

A

–> wird auch als Fehlerquadratsumme bezeichnet
Dem rechten Teil der Formel zufolge werden hier also die Gruppenvarianzen an ihrem
Stichprobenumfang gewichtet und dann aufsummiert, und SSw stellt daher die Grundlage
für σˆ 2 – den gesuchten Schätzer der Populationsvarianz – dar.

66
Q

Was verdeutlicht die Quadratsummenzerlegung?

A

Das Grundprinzip der Varianzanalyse: Eine Art Gesamtvarianz der Daten wird zerlegt in etwas, das auf Unterschiede
zwischen den Gruppen zurückgeht (hier: SSA), und etwas, das die Varianz innerhalb der
Gruppen widerspiegelt (hier: SSw).

67
Q

Warum haben SSa und SSW unterschiedliche Freiheitsgrade?

A
  1. SSW: wird auf Basis der einzelnen Datenpunkte berechnet, Werte einzelner VP gehen mit ein
  2. SSA: geht lediglich auf den Mittelwerten der Gruppen zurück.
  3. Dies drückt sich in einer unterschiedlichen Anzahl von Freiheitsgraden aus
68
Q

Warum Berechnen wir noch die Mittleren Quadratsummen?

A

Die mittleren Quadratsummen werden aus den jeweiligen Quadrastsummen (SSA oder SSW) geteilt durch ihre Freiheitsgrade berechnet. Dies tun wir, um die Quadratsummen vergleichbar zu machen

69
Q

Verhältnis von F und t

A

F = t²
Dabei entsprechen die Nennerfreiheitsgrade (als dfw) den Freiheitsgraden der dazugehörigen t-Verteilung

70
Q

Eigenschaften des F-Bruchs

A
  1. Der F-Bruch kann nicht negativ werden, da Nenner und Zähler jeweils aus quadrierten Termen bestehen
  2. Der F-Bruch wird umso größer, je mehr Daten gegen die H0 Sprechen
  3. F wird größer, wenn der Zähler groß (Variabilität zwischen den Gruppen) wird und wenn der Nenner (Variabilität innerhalb der Gruppe) klein wird
71
Q

Warum testet eine einfaktorielle Varianzanalyse nur ungerichtete Hypothesen?

A

Weil sich die Prüfgröße aus einer Quadratsumme ergibt, welche sämtliche größer/kleiner-Relationen vernichtet. Sie berücksichtigt damit nur, dass Mittelwerte sich (relativ zur Fehlervarianz) unterscheiden, nicht aber wie sie dies genau tun

72
Q

Wie berechne ich, wie viele t-Test ist bei N Populationen/ Stichproben benötige?

A

Mit Hilfe der Kombinatorik, durch den Fall “ohe Beachtung der Reihenfolge und ohne Zurücklegen”. Dabei wird aus einer Menge N (z.B.: = 5) möglichen Gruppen n = 2 gezogen
(N über 2)

73
Q

Wie vermeidet die Varianzanalyse eine Alpha-Kumulation?

A

Die Varianzanalyse testet eine globale Nullhypothese (nämlich, dass keine der Gruppenerwartungswerte
sich unterscheiden) mit nur einem Test. Da man nur einen Test durchführt, gibt es auch keine αKumulation. In den einzelnen F-Bruch fließt die Gesamtvarianz der Gruppenmittelwerte ein – im Umkehrschluss bedeutet das auch, dass aus einem signifikanten Ergebnis der Varianzanalyse noch
nicht darauf geschlossen werden kann, welche (Gruppen-)Mittelwerte sich signifikant unterscheiden.

74
Q

Warum überschätzt η² und ω² den Populationseffekt systematisch?

A
  1. Weil SSA im Zähler den Effekt der UV systematisch überschätzt, SSA, also die Gruppenvariabilität, ist nämlich nicht nur von der UV determiniert, sondern kann sich auch durch zufällige Gruppenunterschiede vergrößern.
  2. Aber auch ω² überschätzt den Populationseffekt. Zwar stehen bei der Berechnung zwei Erwartungsgetreue Schätze für sigma²A und Sigma²w, nämlich SStot und MSw sowohl im Zähler als auch im Nenner, trotzdem überschätzt er den Effekt.
  3. Gegen unendlich gehende Stichproben η² und ω² konvergieren gegen einen gemeinsamen Wert.
75
Q

Warum werden im F-Bruch nicht einfach die Varianzen berechnet?

A

Wir würden dann Probleme mit der Bestimmung der Dichtefunktion des F-Bruchs bekommen, daher die Quadratsummen

76
Q

Voraussetzungsverletzungen: Was denn Normalverteiltheitsannahme verletzt ist?

A
  1. ist recht robus, besonders bei nj > 25, ansonsten helfen:
    a) geeignete Transformationen der Daten
    b) non-parametrische Alternativen (Kruskal-Wallis-Test)
    –> Kruskal-Wallis-Test ist verfahren der Wahl, wenn Daten nur Ordinalskalenniveau haben
77
Q

Verletzung der Varianzhomogenität: Wann problematisch und Umgang mit Varianzheterogenität

A
  1. ungleiche Stichprobenumfänge: Verletzungen der Varianzhomogenität sind insbesondere dann problematisch, wenn ungleiche Stichprobenumfänge in den einzelnen Gruppen realisiert wurden. Dies sollte daher bereits bei Planung einer Studie berücksichtigt werden
  2. Umgang mit Varianzheterogenität: Erweiterung des Welch-Tests oder der Brown-Forsythe-Test: Berechnen F-Wert und Freiheitsgrade auf eine andere Art und weise und kompensieren die entstandene Liberalität des F-Tests
  3. Transformation der Daten:
    a) Um Varaianz homogener zu machen
    b) besonders sinnvoll, wenn Mittelwerte und Varianzen proportional zueinander sind.
    c) genaue Art der Transformation hängt von den Daten ab
78
Q

Wie sind SSA und SSW unter der H0 verteilt?

A

Beide Quadratsummen geteilt durch sigma² sind χ²-verteilt mit ihren jeweiligen Freiheitsgraden unter der H0.

79
Q

Wann ist eine Variable χ²-verteilt?

A

Die Summe n-vieler quadrierter standardnormalverteilter
Zufallsvariablen ist χ2-verteilt mit n Freiheitsgraden

80
Q

Varianzheterogenität: Wie müssen die Daten transformiert werden?

A
  1. Häufigkeiten: Y ′ = wurzel(Y + 1/2)
    2.(Reaktions-)Zeiten: Y ′ = log(Y + 1)
  2. Anteile (z.B. bei Fehlern): 2 · arcsin(√Y )