Kontraste & Modellgleichung Varianzanalyse Flashcards
Welche Arten von Kontraste gibt es?
- a posteriori
- a priori
Wann benutzt man welchen Kontrast?
a posteriori: Varianzanalyse war signifikant, jetzt
Lokalisierung der Unterschiede
a priori: statt einer Omnibus-Varianzanalyse
Eigenschaften: a posteriori Kontrast
- auch post hoc Vergleiche genannt
- werden nach einer signifikanten Varianzanalyse zur Lokalisierung paarweiser signifikanter Unterschiede genutzt
- nur ungerichtet Hypothesen können getestet werden
- kein eigentlicher Hypothesentest (da nicht vorab formuliert)
- Alpha-Adjustierung ist essenziell, daher werden Verfahren verwendet, in denen diese bereits integriert ist: Scheffé-Test, Tukey’s “honestly significant difference (HSD)”-Methode, . . .
Eigenschaften: a priori Kontrast
- Im Vorhinein in varianzanalytischem Design nur theoretisch interessante Vergleiche durchführen –> deren Hypothesen auf theoretisch begründeten Vorhersagen beruht
- gezieltes Testen von Hypothesen
- nicht nur Unterschiede zwischen zwei Erwartungswerten, sondern auch beliebige Kombinationen von Erwartungswerten sind möglich
und vieles mehr
Kontrast Definition
ein Kontrast ist eine Linearkombination von Populationsparametern, d.h. die Populationsparameter µj werden mit Koeffizienten cj multipliziert und dann aufsummiert, die Summe nennen wir psi
Wichtige Restriktion bei Kontrasten
um als Kontrast zu zählen, müssen sich die Koeffizienten zu Null aufsummieren
Hypothesenpaare bei Kontrasten im ungerichteten Fall und im gerichteten Fall
- ungerichteter Fall:
H0: psi = 0
H1: psi ≠ 0 - gerichteter Fall:
Das Gleichzeichen ist immer in der H0
Welche Annahmen gelten für Kontraste
Die gleichen wie für die Varianzanalyse:
1. J Stichproben werden unabhängig voneinander gezogen
- abhängige Variable Y (mindestens) intervallskaliert
- abhängige Variable in jeder Population j normalverteilt mit einer gemeinsamen Varianz (=Varianzhomogenität):
Entscheidungsregel Kontraste
Verwirft die H0 (entschiede dich für die H1), falls der Betrag (!) von t größer/gleich tN-J; α/2 bzw. p größer/ gleich Alpha ist
Modellgleichung der einfaktoriellen Varianzanalyse: Effekt αj und yij
αj: die Abweichungen der Gruppenmittelwerte vom Gesamtmittelwert M. Diese Abweichung wird oft die erklärte Abweichung genannt.
yij: Die Abweichung der einzelnen Vp vom Gruppenmittelwert Mj
S. F. 63/ 64
Modellgleichung der einfaktoriellen Varianzanalyse: Messfehler
Messfehler: Die Abweichungen der einzelnen Personen vom Gruppenmittelwert bzw. eigentlich: dem
Gruppenerwartungswert: eij = yij − μj
Oft nicht-erklärte Abweichung genannt, da sie nicht auf die Wirkung des untersuchten Faktors zurückgeht.
Modellgleichung der einfaktoriellen Varianzanalyse: Verteilung des Messfehlers eij
wegen der eingangs gemachten Voraussetzungen der Varianzanalyse gilt für eine Zufallsvariable yij, dass
auch diese normalverteilt ist:
yij ~ N(μj , σ²)
Daraus folgt, dass auch die Messfehler normalverteilt sind, und zwar mit einem Erwartungswert von Null und der gleichen Varianz, die wir für die abhängige Variable angenommen haben:
eij ~ N(0, σ²)
Modellgleichung der einfaktoriellen Varianzanalyse: Auf der Ebene der einzelnen Messwerte, woraus setzt sich yij zusammen?
Insgesamt ergibt sich auf der Ebene der einzelnen Messwerte, dass sich eine einzelne Beobachtung yij additiv zusammensetzt aus (1) dem Gesamtmittelwert, (2) dem Effekt der Stufe j und (3) dem Messfehler eij :
yij = μ + αj + eij
Diese Gleichung bezeichnet man auch als Modellgleichung der einfaktoriellen Varianzanalyse auf Messwertebene.
Modellgleichung der einfaktoriellen Varianzanalyse auf Messwertebene
yij = μ + αj + eij
Modellgleichung d der einfaktoriellen Varianzanalyse auf Parameterebene
μj = μ + αj
Der geeignete Schätzer für Pis
ist psi-Dach:
Die Summe aus cj mal Mj
Der Erwartungswert und Varianz von Psi-Dach
E(pis-Dach) = Psi
V(psi-Dach) = Sigma² * die Summe aus Cj²/nj
–> Als erwartungsgetreuen Schätzer für V(psi-Dach):
Sigma² ersetzen wir durch MSw
Warum ist psi-Dach normalverteilt?
Da sich psi-Dach aus den normalverteilten Zufallsvariablen Mj zusammensetzt
Was muss die Prüfgröße von Kontrasten erfüllen?
- Ihr Wert wird besonders extrem, wenn die Daten gegen die Gültigkeit der H0 sprechen
- Wir kennen die Verteilung einer entsprechenden Zufallsvariablen unter Annahme der Gültigkeit der H0
Eigenschaften des t-Bruchs bei Kontrasten
- t-Bruch größer: Da im Nenner, des an die Kontraste angepassten t-Bruchs die gemeinsame Varianzschätzung mittels MSw steht (also auf Basis aller VPs) wird i.d.R. der Nenner kleiner und der t-Bruch entsprechend größer als im Fall eines einfachen t-Tests
- tkrit kleiner: Es wird zudem eine t-Verteilung mit mehr Freiheitsgraden herangezogen, wodurch der kritische t-Wert kleiner wird
- Power höher: Die Power von Kontrasten ist i.d.R. höher als die der entsprechenden t-Tests
Was ist die erklärte Abweichung und was ist die nicht-erklärte Abweichung
- Die erklärte Abweichung: Die Effekte Alphaj, also die Abweichung der Gruppenmittelwerte vom Gesamtmittelwert M
- die nicht-erklärte Abweichung: Der Messfehler, die Abweichung der einzelnen Personen vom Gruppenmittelwert bzw. Gruppenerwartungswert
Wie kommt die Modellgleichung auf Parameterebene zustande?
Die Formel entsteht, indem wir die Erwartungswerte der Modellgleichung auf Messwertebene für die Zusammenstellung nutzen. Da wir wissen, dass der Erwartungswert von y_ij gleich µ_j ist, steht auf der linken Seite µ_j und nicht mehr y_ij. Im rechten Teil stellen wir µ und α_j als konstanten da. Der Erwartungswert von e_ij ist Null, daher ist er auf Parameterebene in der Formel nicht zu finden. Es folgt, dass sich der Erwartungswert der Gruppe aus dem Gesamterwartungswert und dem Effekt der Gruppe additiv zusammensetzt.
Wie kann ich mit einem Kontrast Linearität testen?
Wenn Linearität vorliegt, sind die Differenzen zwischen den Mittelwerte gleich groß, d.h. µ1 - µ2 = µ2 - µ3. Die Hypothesen kann ich dann so aufstellen. Als ungerichtete Hypothese.
Fkrit bei R
qf( p = 0.95, df1 = x, df2 = x)
p-Wert bei R: Fläche bestimmen, die bis zum F-Wert unter der F-Verteilung geht und Fläche bestimmen ab dem F-Wert unter der F-Verteilung
- Berechnet die Fläche bis zum F-Wert:
pf( q = F-Wert, df1 = x, df2 = x) - Berechnet die Fläche ab dem F-Wert (Also den p-Wert):
1 - pf(q = F-wert, df1 = x, df2 = x)
posteriori Kontraste: Scheffé-Test und Tukey´s HSD
Verfahren, die automatisch eine Alpha-adjustierung beinhalten:
1. Scheffé-Test:
a) Korrigiert die Prüfgröße entsprechend so, dass beliebig viele Vergleiche durchgeführt werden, ohne dass das nominelle Alpha-Niveau überschritten wird
b) ist jedoch auch konservativer
2. HSD: ist weniger koservativ