3. Einfaktorielle Varianzanalyse Flashcards

1
Q

Nennen Sie die Voraussetzungen den Varianzanalyse.

A
  1. Mindestens Intervallskalenniveau und Normalverteilung innerhalb der Stichprobe bei der abhängigen Variable
  2. Mindestens 20 Elemente pro Stichprobe (Gruppe, Zelle)
  3. Ähnlich stark besetzte Gruppen (Zellen)
  4. Varianzhomogenität der abhängigen Variablen zwischen den einzelnen Stichproben
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Was bedeutet Varianzhomogenität der einfaktoriellen Varianzanalyse und wie kann diese geprüft werden?

A

• Varianzhomogenität bedeutet, dass die Varianzen (Streuung) in beiden Gruppen gleich sind.

• Diese muss für die Durchführung einer einfaktoriellen Varianzanalyse erfüllt sein
_________________________________________________

Prüfung der Varianzhomogenität durch:

• Bartlett-Test: Gegenüber Verletzungen der Normalverteilungsannahme sehr empfindlich (sollte eher selten eingesetzt werden), Bartlett-Test nicht signifikant = Varianzhomogenität, basiert auf y-Verteilung

• Levene-test: Durchführung einer einfaktoriellen Varianzanalyse über den Betrag der Abweichungen der individuellen Werte vom Gruppenmittelwert, sehr stabil gegenüber Verletzung der Normalverteilung, progressives Prüfverfahren

• Fmax-Statistik: Durchführung nur bei gleichgroßen Stichproben, hierbei werden die Größte und kleinste Varianz der Faktorstufen ins Verhältnis gesetzt, relativ einfacher Test

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Erklären Sie die Bedeutung des Determinantionskoeffizienten R² in einer einfaktoriellen Varianzanalyse.

A

Definition: ein Gütemaß der linearen Regression, gibt in der einfaktoriellen Varianzanalyse an, wie viel der Variabilität der abhängigen Variablen durch die unabhängige Variable erklärt wird.

• die erklärende Varianz wird hierbei zur Gesamtvarianz ins Verhältnis gesetzt

• liegt immer zwischen 0 (0% = unbrauchbares Modell) und 1 (100% = perfekte Modellanpassung)

• je höher der Wert, desto stärker ist die Beziehung zwischen den Variablen

• 0=die unabhängige Variable hat keinen Einfluss auf die abhängige Variable

• 1= die unabhängige Variable erklärt die abhängige Variable vollständig

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Was bedeuten df, MS, SS und p in der Varianzanalyse?

A

• df: Degrees of Freedom (Freiheitsgrade): beschreiben die Anzahl der Beobachtungen, die für die Berechnung bestimmter statistischer Größen verwendet werden.

• SS: Sum of Squares (Summe der Quadrate): Beschreibt die Quadratsummen über die gesamte Verteilung. Vorstufe zur Berechnung der Varianz.

• MS: Mean Square (Mittelwert der Quadrate): Für die Berechnung der Varianz in der ANOVA ist es erforderlich die Quadratsumme (SS) durch die dazugehörigen Freiheitsgerade (df) zu teilen. Die Varianz wird als MS bezeichnet.

• p: P-Wert: Der P-Wert gibt an, wie wahrscheinlich es ist, dass ein bestimmter statistischer Test zu einem bestimmten Ergebnis führt, wenn die Nullhypothese (kein Unterschied zwischen den Gruppen oder Behandlungen) tatsächlich gültig ist. Ab wann ein p-Wert asl signifikant gilt, hängt davon ab, welches Signifikanzniveau (a) gewählt wurde. Meist ist dies 0,05 (5%). Ein kleiner PWert (typischerweise unter 0,05) wird als Indiz dafür angesehen, dass die Nullhypothese abgelehnt werden sollte und dass es einen signifikanten Unterschied zwischen den Gruppen oder Behandlungen gibt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Erkläre den Vorteil der Varianzanalyse gegenüber der Durchführung mehrerer T-Tests.

A

• Varianzanalyse (ANOVA - engl. Analysis of Variance) überprüft, ob statistisch signifikante Unterschiede zwischen mehr als zwei Gruppen vorliegen. Hierfür werden die Mittelwerte der jeweiligen Gruppen miteinander verglichen.

• Im Gegensatz zum t-Test, der prüft, ob es einen Unterschied zwischen lediglich zwei Gruppen gibt.

• Problem bei mehrere tTests: bei jedem
t-Test besteht Gefahr eines aFehlers (Ablehnung der „richtigen“ Nullhypothese). Bei mehreren t-test würde die Summierung dieser Fehler zu einer aFehler-Inflation führen. Je mehr t-Tests durchgeführt werden, desto größer ist also die Wahrscheinlichkeit, bei mindestens einem dieser t-Tests einen aFehler zu begehen.

• Einsatz von Korrekturen, die das AlphaNiveau herabsetzen, wodurch auch die Chance signifikante Unterschiede zu finden, gering wird

• Um Gefahr von aFehler-Inflationierung/große Anzahl von Korrekturen zu umgehen: Varianzanalyse, welche Mittelwertsvergleich mit mehr als zwei Gruppen ohne jegliche Korrektur erlaubt, statt mehrere t-Tests durchzuführen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Erklären Sie das Prinzip der Quadratsummenzerlegung in der einfaktoriellen Varianzanalyse.

A

Vorstufe zur Berechnung der Varianz. Die Gesamtvarianz der abhängigen Variablen y wird zerlegt in:
• Varianz zwischen den Gruppenmittelwerten
• Varianz zwischen den Messwerten innerhalb der Gruppen

• Aufteilung erfolgt über Zerlegung der Gesamtquadratsumme (SStotal) in die Quadratsumme zwischen den Gruppen (SSbetween) und die Quadratsumme innerhalb der Gruppen (SSwithin)

• Demnach gilt: SStotal = SSbetween + SSwithin
_________________________________________________

Qudratsumme innerhalb der Gruppen (SSwithin):

• Fehlervarianz, dieser Fehler kann nicht auf Veränderungen zurückgeführt werden und wird daher als Messfehler betrachtet

• gibt Aufschluss über die Mittelwertsunterschiede, kann somit auf die Variation der unabhängigen Variablen zurückgeführt werden

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Erklären Sie den F-Test in der ANOVA

A

• überprüft, ob die Varianzen verschiedener Gruppen gleich sind oder nicht

• um herauszufinden, ob die Streuung in der Stichprobe auf den Effekt oder auf den Zufall zurückzuführen ist, vergleicht man die Varianz zwischen den Gruppen (MSbetween) mit Varianz innerhalb der Gruppen (MSwithin)

• Signifikanzprüfung erfolgt für die Varianzanalyse für feste Effekte also über den sogenannten F-Test. Dieser „einfache“ F-Test gilt allerdings nur für gleich große Gruppen. Bei unterschiedlicher Gruppengröße muss eine Gewichtung vorgenommen werden.

• F-Test ist immer ungerichtet, da die Verteilung der FWerte immer eine schiefe Verteilung mit nur positiven Werten beschreibt. Somit kann nur geprüft werden, ob Mittelwerte sich unterscheiden. Eine gerichtete Testung von Mittelwertunterschieden ist nur über Kontraste möglich.

• signifikanter F-Test gibt nur Aufschluss darüber, dass es mind. es einen signifikanten Mittelwertsunterschied zwischen Gruppenmittelwerten gibt (nicht, welche Gruppenmittelwerte sich signifikant unterscheiden)

• hoher F-Wert = Varianz der Mittelwerte zwischen den Gruppen (Vorhersagevarianz) ist relativ hoch ist im Vergleich zur Varianz innerhalb der Gruppen (Fehlervarianz) = statistisch signifikanter Unterschied zwischen den Gruppen

• Umso größer der F-Wert, desto größer ist die Streuung zwischen den einzelnen Gruppen im Vergleich zur Fehlervarianz. Und desto höher die Streuung zwischen den Gruppen, desto eher gibt es signifikante Unterschiede zwischen ihnen. Um unsere Nullhypothese ablehnen zu können und ein signifikantes Testergebnis zu erhalten, sollte F-Wert möglichst hoch sein.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Erläutern Sie das Prinzip der geplanten Kontraste + Beispiel.

A

statistisch signifikante ANOVA sagt uns lediglich, dass sich mindestens zwei Gruppen statistisch voneinander unterscheiden, aber nicht, welche

• Um Unterschied zu lokalisieren: zwei verschiedene Möglichkeiten: post-hoc Tests und Kontraste:

• Definition von orthogonale (unabhängige) und non-orthogonale (abhängige) Kontrasten

• Bei der ersten Form muss keine Korrektur des a«-Fehler-Niveaus erfolgen, beim zweiten Typ von post-hoc-Vergleichen allerdings schon.

• Orthogonale Kontraste: werden formuliert, wenn a priori Hypothesen darüber bestehen, welche Gruppenmittelwerte sich in welcher Richtung unterscheiden

• non-orthogonalen Kontraste: erlauben es, spezifische Vergleiche zwischen Gruppen durchzuführen, anstatt nur die statistische Signifikanz des Gesamtunterschieds zwischen allen Gruppen oder Behandlungen zu überprüfen
_________________________________________________

Beispiel: Angenommen, ein Wissenschaftler führt ein Experiment durch, um die Wirksamkeit von drei verschiedenen Diäten (Diät A, Diät B und Diät C) auf Gewichtsverlust zu untersuchen. Er plant geplante Kontraste, um folgende Hypothesen zu überprüfen:

  1. Diät A ist wirksamer als Diät B
  2. Diät C ist wirksamer als Diät B
  3. Diät A ist wirksamer als Diät C

• Vergleich der Mittelwerte/statistischen Signifikanz der Unterschiede der drei Gruppen

• auf spezifische Hypothesen über die Unterschiede zwischen den Diäten kann so näher eingegangen werden

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Erläutere das Post hoc Testprinzip

A

• Post-hoc-Tests werden bei explorativem Vorgehen eingesetzt, wenn a priori keine Hypothesen über spezifische Mittelwertsdifferenzen aus einer Theorie formuliert werden können

• Über post-hoc können alle möglichen Gruppenpaare auf Mittelwertsdifferenzen geprüft werden.

• Außerdem fordern sie im Gegensatz zu den Kontrasten keine Unabhängigkeit der vorgenommenen Mittelwertsvergleiche.

• 8 Post-hoc-Verfahren: LSD-Test, SNK-Test, Duncan-Test, Turkey-HSD-Test, Tukey-Kramer-Test, Peritz-Test, Games-Howell-Test und der Scheffe-Test

Alle PosthocTests besitzen unterschiedliche Effizienz, die über die Teststärke (1ß) erfasst wird.

• Ein Post-hoc-Test ist ein statistisches Verfahren, das verwendet wird, um festzustellen, welche Gruppen oder Behandlungen in einer Varianzanalyse signifikant voneinander abweichen. Es wird nach einem signifikanten Ergebnis bei einem Haupteffekt-Test (wie z.B. ANOVA) durchgeführt. Das Ziel eines Post-hoc-Tests ist es, die spezifischen Unterschiede zwischen den Gruppen oder Behandlungen zu identifizieren, die für das signifikante Ergebnis verantwortlich sind.

un ıs-.085s « Tukey-HSD-Test “ « Scheffe-Test «e LSD-Test

How well did you know this?
1
Not at all
2
3
4
5
Perfectly