Tests Flashcards
t-Test: Voraussetzungen an die Daten
- Normalverteilt
- Varianzhomogenität: Messwerte in allen Gruppen haben selbe (theoretische) Varianz
- Unabhängigkeit: Messwerte hängen nicht von einander ab
t-Test Hypothesen
einseitig (pos.):
H0 : µx ≤ µy (µx − µy ≤ 0)
HA : µx > µy (µx − µy > 0)
einseitig (neg.):
H0 : µx ≥ µy (µx − µy ≥ 0)
HA : µx < µy (µx − µy < 0)
zweiseitig:
H0 : µx = µy (µx − µy = 0)
HA : µx ungleich µy (µx − µy ungleich 0)
t-Test; Ablehnen von H0, wenn
einseitig (pos.): T > tdf ,1−α
einseitig (neg.): T < tdf ,α
zweiseitig: T < tdf ,α/2 oder T > tdf ,1−α/2
⇒ d.h. |T| > tdf ,1−α/2
Was ist der p-Wert und wann lehnt man H0 ab?
Fehlerwahrscheinlichkeit mit der H0 abgelehnt werden kann
Wenn p-Wert < α –> H0 ablehnen
Was passiert mit dem p-Wert, wenn wir zweiseitig testen
p-Werte zweiseitiger Tests sind (i.d.R.) doppelt so groß wie die
entsprechender einseitiger Tests
Testentscheidung mittels KI
einseitig (pos.): H0 : µx ≤ µy
KI = [δ(u), ∞)
einseitig (neg.): H0 : µx ≥ µy
KI = (-∞, δ(o)]
zweiseitig: H0 : µx = µy
KI = [δ(u), δ(o)]
Ablehnen von H0, wenn 0 kein Element des KIs ist!!!!
Voraussetzungen an Welch-t-Test (3)
- Normalverteilung
- Varianzheterogenität (bei Zweifel über Varianz lieber Welch-t-Test nehmen)
- Unabhängigkeit der Daten
Testentscheidung bei Welch-t-Test
Ablehnen von H0, wenn:
einseitig (pos.): T > tdf Welch,1−α
einseitig (neg.): T < tdf Welch,α
zweiseitig: T < tdf Welch,α/2 oder T > tdf Welch,1−α/2
⇒ d.h. |T| > tdf Welch,1−α/2
Was passiert mit Freiheitsgrad, wenn exakter Wert nicht in Quantiltabelle gegeben ist
Abrunden
Robust / nicht robust gegenüber? (Welch-t-Test) (5)
- absolut robust gegenüber homogenen Varianzen: i.d.R. leicht konservativ → geringere Gute (etwas größere p-Werte)
- robust gegenüber symmetrischer Nicht-Normalverteilung
- relativ robust gegenüber schiefen Verteilungen, insbesondere bei nicht zu kleinen Fallzahlen (> 10)
- wenig robust gegenüber diskreten Verteilungen, insbesondere bei vielen Bindungen (gleich große Werte, ties) und kleinen Fallzahlen,
z.B. Bonituren: 2,2,4,5 - nicht robust gegenüber Ausreißern
t-Test für abhängige Daten (Voraussetzungen)
- Normalverteilung
- Messwerte jeweils vom selben Messobjekt, Abhängigkeit (Stichproben
hängen voneinander ab) - Balanciertheit: selbe Fallzahlen (keine fehlenden Werte)
Was muss beim t-Test für abhängige Daten geschehen, bevor Teststatistik berechnet werden kann
- Umwandlung des ursprünglichen Zweistichprobenproblems in ein Einstichprobenproblem
Freiheitsgrad berechnen (t-Test für abhängige Daten)
df = n - 1
Freiheitsgrad berechnen (t-Test)
df = nx + ny − 2
Hypothesen beim t-Test für abhängige Daten
einseitig (pos.):
H0 : µx ≤ µy (µD ≤ 0)
HA : µx > µy (µD > 0)
einseitig (neg.):
H0 : µx ≥ µy (µD ≥ 0)
HA : µx < µy (µD < 0)
zweiseitig:
H0 : µx = µy (µD = 0)
HA : µx ungleich µy (µD ungleich 0)
Wozu dient der WMW-U-Test, welche Varianten gibt es, parametrisch / nichtparametrisch?
ein nichtparametrischer Test zum Vergleich von Verteilungsfunktionen bzw. relativen Effekten
- Wilcoxon-Rangsummentest
- U-Test
Voraussetzungen an die Daten (Wilcoxon-Rangsummentest und U-Test)
- stetige Daten
- lediglich schwache Voraussetzung, oft nicht erfüllt
–> mindestens quantitativer oder qualitativer ordinaler Variablentyp
- lediglich schwache Voraussetzung, oft nicht erfüllt
- Varianzhomogenität
- Unabhängigkeit
Hypothesen (Wilcoxon-Rangsummentest und U-Test)
zweiseitig:
H0 : FX (z) = FY (z) (P(x > y) = 0.5)
HA : FX (z) ungleich FY (z) (P(x > y) ungleich 0.5)
einseitig (pos.):
H0 : FX (z) ≥ FY (z) (P(x > y) ≤ 0.5)
HA : FX (z) < FY (z) (P(x > y) > 0.5)
einseitig (neg.):
H0 : FX (z) ≤ FY (z) (P(x > y) ≥ 0.5)
HA : FX (z) > FY (z) (P(x > y) < 0.5)
Testentscheidung (Wilcoxon-Rangsummentest)
Ablehnen von H0, wenn
zweiseitig: WX < Wnx ,ny ,α/2 oder WX > Wnx ,ny ,1−α/2
einseitig (pos.): WX > Wnx ,ny ,1−α
einseitig (neg.): WX < Wnx ,ny ,α
Welche Werte lese ich ab für Quantiltabelle (Wilcoxon-Rangsummentest)
Erste Fallzahl für Spalte (n1)
Zweite Fallzahl für Reihe (n2)
Testentscheidung (U-Test)
Ablehnen von H0, wenn
zweiseitig: UX < Unx ,ny ,α/2 oder UX > Unx ,ny ,1−α/2
einseitig (pos.): UX > Unx ,ny ,1−α
einseitig (neg.): UX < Unx ,ny ,α
Wann brauche ich die alternative Variante zum Wilcoxon- und U-Test
Approximation für große Fallzahlen (ca. n >20
Was sind Bindungen (beim Wilcoxon-Rangsummentest und U-Test)
- gleich große Werte
- im Prinzip Verletzung der Stetigkeitsannahme
- nur kritisch, wenn zwischen beiden Stichproben
Was passiert mit Bindungen und was muss eventuell angewandt werden
==> beide bekommen halben Rang höher (z.B. beide 1 –> beide 1.5)
- ab ca. 20% der Messwerte sind Bindungen
–> Bindungskorrektur
χ2-Test parametrisch/nichtparametrisch
nichtparametrischer Test
Welche Arten des χ2-Test gibt es
- Anpassungstest (Vergleich einer empirischen mit bekannten Verteilung)
- Homogenitätstest (Vergleich zweier Multinomialverteilungen
(Spezialfall des Unabhängigkeitstests)
Voraussetzung an die Daten ( χ2-Anpassungstestest) (2)
Multinomialverteilung
Wievielmal von insg. N trat Ereignis i = 1, . . . , k ein?
z.B.: N-maliges Würfeln, ¨ i = 1, . . . , 6
Unabhängigkeit (der Einzelmesswerte)
Hypothesen (χ2-Anpassungstest)
zweiseitig: H0 : FX (z) = F0(z) vs. HA : FX (z) ungleich F0(z)
einseitig: nicht sinnvoll, da nicht auf Lokation verglichen wird
Berechnung Freiheitsgrad (χ2-Test)
Anzahl der Kategorien (Unterschiedliche Messstellen, die vergleichen werden)
-1
(Bsp. 4 Erbsenarten, wie häufig sie vorkommen => 4-1 = df = 3
Voraussetzung an die Daten (χ2-Homogenitätstest)
- Binomialverteilung
- Unabhängigkeit (der Einzelmesswerte)
Hypothesen (χ2-Homogenitätstest)
zweiseitig: H0 : πx = πy vs. HA: πx ungleich πy
einseitig (pos.): H0 : πx ≤ πy vs. HA: πx > πy
einseitig (neg.): H0 : πx ≥ πy vs. HA: πx < πy
Wie ist der Freiheitsgrad bei der χ2-Homogenitätstest (Vierfeldertafel)
df = 1
Testentscheidung (χ2-Homogenitätstest)
Ablehnen von H0, wenn
zweiseitig: χ2 > χ2 1,1−α
einseitig (pos.): χ2 > χ2 1,1−2α und px > py
einseitig (neg.): χ2 > χ2 1,1−2α und px < py
Wann benutzt man die (Kontinuitäts-) Korrektur nach Yates, X2-Homogenitätstest)
Für n = 20-60
Wann benutzt man den exakten Test nach Fisher(X2-Homogenitätstest)
Bei n <20 oder bei starker Asymmetrie der Vierfeldertafel
Was ist die Korrelationsanalyse
Analyse der linearen Abhängigkeit quantitativer Zufallsvariablen
In welchem Ergebnisbereich liegt das Ergebnis bei der Korrelationsanalyse und was bedeuten die Werte
ρx,y = -1 bis 1
Interpretation:
ρx,y < 0: negativer linearer Zusammenhang, X ∼ −Y
ρx,y = 0: kein linearer Zusammenhang
ρx,y > 0: positiver linearer Zusammenhang, X ∼ Y
Was macht man bei der einfachen parametrischen Korrelationsanalyse
Analyse der linearen Abhängigkeit zweier normalverteilter Zufallsvariablen
Voraussetzung an die Daten (Einfache parametrische Korrelationsanalyse)
Normalverteilung
Messwerte aus einer Stichprobe/Gruppe
Messwerte jeweils vom selben Messobjekt
Balanciertheit
Was ist das Bestimmtheitsmaß (Einfache parametrische Korrelationsanalyse)
Maß für die Stärke des wechselseitigen Zusammenhangs der Variablen X und Y
–> Maß dafür, wie gut sich Merkmale X und Y gegenseitig erklären
- Anteil der Varianz eines Merkmals an der Varianz des anderen
==> Anteil gemeinsamer Varianz
Hypothesen (Einfache parametrische Korrelationsanalyse)
zweiseitig:
H0 : ρx,y = 0 vs. HA : ρx,y ungleich 0
einseitig (pos.):
H0 : ρx,y ≤ 0 vs. HA : ρx,y > 0
einseitig (neg.):
H0 : ρx,y ≥ 0 vs. HA : ρx,y < 0
Wie berechnet man den Freiheitsgrad (Einfache parametrische Korrelationsanalyse)
df = n - 2
Was sagt ein hoher Wert der Teststatistik aus (Einfache parametrische Korrelationsanalyse)
je mehr ρx,y von 0 abweicht, desto höher ist der Betrag
Testentscheidung (Einfache parametrische Korrelationsanalyse)
Ablehnen von H0, wenn
zweiseitig: |Tρ| > tdf ,1−α/2
einseitig (pos.): Tρ > tdf ,1−α
einseitig (neg.): Tρ < tdf ,α
Wovon hängt es ab. ob ρx,y signifikant ist?
Abhängig von Fallzahl
Wann benutzt man die z-Transformation nach Fisher (bei Einfacher parametrischer Korrelationsanalyse)
bei kleinen Fallzahlen
Was ist eine Scheinkorrelation
- Daten lediglich “mathematisch“ oder zufällig korreliert
- Nichtberücksichtigung von Einflussgrößen –> Verletzung der Voraussetzung
- gemeinsame Abhängigkeit von dritten Zufallsgröße
Warum berechnet man die partielle Korrelation
Um bei 3 Einflussgrößen zu trennen, welche wirklich mit welcher korreliert (ausklammern einer dritten Einflussgröße bei Korrelation)
Voraussetzung an die Daten (Nichtparametrische Korrelationsanalyse)
stetige Verteilung
lediglich schwache Voraussetzung, oft nicht erfüllt
→ mindestens quantitativer oder qualitativ ordinaler Variablentyp
Messwerte aus einer Stichprobe/Gruppe
Messwerte jeweils vom selben Messobjekt
Balanciertheit
Was ist Nichtparametrische Korrelationsanalyse
Analyse der linearen Abhängigkeit zweier nicht normalverteilter
Zufallsvariablen
Vorgehen beim Rangkorrelationskoeffizient nach Spearman
- Stichprobenkorrelation, Schätzer für ρ
- analog zum Korrelationskoeffizient nach Pearson, aber für die Ränge der Daten
- Rangvergabe für jede Variable separat
- bei Bindungen i.d.R. mittlere Ränge
- zugehöriger Test mittels Hotelling-Papst-Statistik
Was ist der Rangkorrelationskoeffizient nach Kendall und wo wird er bevorzugt verwendet
- gleichberechtigte, alternative Variante (zum Rangkorrelationskoeffizient nach Spearman)
- oft verwendetet in Psychologie, Sozialwissenschaften
Was ist die Multiple Korrelationsanalyse
Analyse der linearen Abhängigkeit einer normalverteilten
Zufallsvariablen von p anderen normalverteilten Zufallsvariablen
Womit befasst sich die Regressionsanalyse
Analyse des funktionalen Zusammenhangs zwischen quantitativen
Zielgrößen und quantitativen Einflussgrößen
Was versteht man unter Zielgröße und Einflussgröße bei der Regressionsanalyse
Zielgröße: Regressand, abhängige Variable, Y
Einflussgröße: Regressor, unabhängige Variable, X
Formel für Regressionsgrade
y = a + bx
Was ist die lineare einfaktorielle Regression
Analyse des linearen Zusammenhangs einer quantitativen Zielgröße und einer quantitativen Einflussgröße
Was beschreibt die Modellgleichung (yij = α + βxi + ϵij)
bzw. was sagen die Parameter α, β und ϵij aus
i = 1, . . . , m Messstellen, unterschiedliche x-Werte
j = 1, . . . , ni Wiederholungen (pro Messstelle)
α: Absolutglied (intercept)
→ Erwartungswert der y für x = 0
β: Steigungsparameter (slope)
→ bei Erhöhung von x um eine Einheit erhöht sich y um β
ϵij : zufällige Fehler, Restfehler
Voraussetzung an die Daten (Lineare einfaktorielle Regression)
- m >/= 2 Messstellen
- n >/= 3 Messwerte pro Messstelle
- Normalverteilung
- Varianzhomogenität
- Unabhängigkeit der Daten
- keine Fehler bzgl. der xi-Werte (Modell 1 –> Einflussgrößen hängen nicht vom Zufall ab)
Freiheitsgrad bei Linearen einfaktoriellen Regression
df = N - 2
Was sind die Konfidenzstreifen
- Menge der KI für den erwarteten Wert von y an allen Stellen x0
- Bereich, in dem sich die “echte“ Regressionsgerade befindet
- unterschiedlich breit, am schmalsten bei ¯x
Was sind die Prognosestreifen
- Menge der Prognoseintervalle für die y-Werte an allen Stellen x0
- Bereich, in dem sich mögliche (zukünftige) ¨ y-Werte befinden
- am schmalsten bei ¯x, breiter als der Konfidenzstreifen
Was ist das Bestimmtheitsmaß (Lineare einfaktorielle Regression)
- Maß für die Qualität der Modellgleichung/Regression
→ Maß dafür, wie gut Merkmal Y durch X erklärt wird - Verhältnis der Varianz der geschätzten y-Werte zur Varianz der
beobachteten y-Werte
→ Verhältnis der erklärten Varianz zur Gesamtvarianz der y-Werte
→ Anteil erklärbarer Varianz
Wofür eignet sich das Bestimmtheitsmaß (lineare einfaktorielle Regression) nicht
- keinesfalls allein zur Bewertung der Qualität der Regression
heranzuziehen - nicht geeignet für Vergleiche mehrerer Modellgleichungen
Wozu dient das adjustierte Bestimmtheitsmaß bzw. welche Vorteile gegenüber normalen Bestimmtheitsmaß
- berücksichtigt im Vergleich zum herkömmlichen auch die Anzahl der unabhängigen Variablen
- steigt nur dann, wenn mit der Kompliziertheit des Modells auch ein deutlicher Gewinn an Aussagekraft einhergeht (Befreiung von überflüssigen Einflussgrößen)
- Adjustiertes Bestimmtheitsmaß
- AIC/BIC
Was davon ist besser je höher und was besser je niedriger
- besser je höher
- besser je niedriger
Wozu dient die Residuenanalyse
grafische Methoden zur Bewertung der Qualität der
Modellgleichung/Regression bzw. zur Kontrolle der Voraussetzungen an die Daten
Was sind Residuen
Unterschiede zwischen den tatsächlichen (beobachteten) Werten und den vorhergesagten Werten
=> Differenzen zwischen den beobachteten Werten (Y) und den vorhergesagten Werten (Y-Dach) ausgedrückt
Wozu dient ein Residuenboxplot
- Visualisierung der Verteilung der Residuen
- überprüft, ob Voraussetzung an Daten erfüllt sind: Normalverteilung (Check durch Symmetrie der Box) und Erwartungswert = 0
Wozu dient der Residuenplot
- Überprüft, ob die Varianz der Residuen konstant über alle Werte der unabhängigen Variablen streut (Varianzhomogenität bzw. Homoskedastizität)
- Symmetrische Streuung nach oben und unten? (z.B. V-Struktur spricht dagegen)
Wozu dient der Normal-Q-Q-Plot
- dient zur Überprüfung der Normalverteilung:
wenn ja, liegen Werte ungefähr auf 45° Linie
Wozu dient die Varianzanalyse
Analyse des Einflusses qualitativer Einflussgrößen auf quantitative Zielgrößen
Was sagen die verschiedenen Variablen der Modellgleichung
yij = µ + αi + ϵij
aus
(Einweg-Analyse)
- i = 1, . . . , a Messstellen,
Stufen, Level der Einflussgröße - j = 1, . . . , ni Wiederholungen
(pro Stufe) - µ: Gesamtmittel (-wert)
→ Erwartungswert der y ohne
Berücksichtigung der ¨
Einflussgröße - αi: Effekte der Einflussgröße A
→ für Level i haben die y den Erwartungswert µ + αi - ϵij : zufällige Fehler, Restfehler
Voraussetzung an die Daten (Einweg-ANOVA)(
- a >/= 2 Messstellen
- n >/= a + 1 Messwerte pro Messstelle
- Normalverteilung
- Varianzhomogenität
- Unabhängigkeit der Daten
- Additivität (Effekt der Einflussgröße addiert sich)
- keine Fehler bezüglich der xi (Modell 1)
Hypothesen (Einweg-ANOVA)
nur zweiseitig, da einseitig nicht sinnvoll
- mitterlwerbasierte Formulierung: H0 : µ1 = µ2 = . . . = µa vs. HA : mind. ein ungleich
modellbasierte Formulierung:
H0 : α1 = α2 = . . . = αa = 0 vs. HA : mind. ein ungleich
Freiheitsgrad bei Einweg-ANOVA
Freiheitsgrad…
..insgesamt: dfG = N - 1 bzw. dfA + dfR
..der Einflussgröße A: dfA = a - 1
..des Restfehlers: dfR = N - a
Lesen in Quantiltabelle: dfA –> erster Wert (Zeile)
dfR –> zweiter Wert (Spalte)
Wann sind die Unterschiede der Faktorstufen signifikant (Einweg-ANOVA)
Wenn sich Faktorstufenmittel (Subgruppen) stärker um Gesamtmittel streuen, als die Messwerte um die jeweilige Faktorstufenmittel
–> Streuung innerhalb der Gruppen zum Mittelwert der Subgruppe muss kleiner sein als Streuung der Mittelwerte der Subgruppen zum Gesamtmittelwert
Testentscheidung (Einweg-ANOVA)
Ablehnen von H0, wenn FA > FdfA,dfR,1−α
1−α trotz zweiseitigen Testproblems
Wozu dient das Bestimmtheitsmaß (Einweg-ANOVA)
- Maß für die Güte der Modellgleichung/ANOVA
→ Maß dafür, wie gut Merkmal Y durch die Einflussgröße(n) erklärt
wird - Verhältnis der Varianz der geschätzten y-Werte zur Varianz der
beobachteten y-Werte
→ Verhältnis der erklärten Varianz zur Gesamtvarianz der y-Werte
→ Anteil erklärbarer Varianz