Tests Flashcards

1
Q

t-Test: Voraussetzungen an die Daten

A
  • Normalverteilt
  • Varianzhomogenität: Messwerte in allen Gruppen haben selbe (theoretische) Varianz
  • Unabhängigkeit: Messwerte hängen nicht von einander ab
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

t-Test Hypothesen

A

einseitig (pos.):
H0 : µx ≤ µy (µx − µy ≤ 0)
HA : µx > µy (µx − µy > 0)
einseitig (neg.):
H0 : µx ≥ µy (µx − µy ≥ 0)
HA : µx < µy (µx − µy < 0)
zweiseitig:
H0 : µx = µy (µx − µy = 0)
HA : µx ungleich µy (µx − µy ungleich 0)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

t-Test; Ablehnen von H0, wenn

A

einseitig (pos.): T > tdf ,1−α
einseitig (neg.): T < tdf ,α
zweiseitig: T < tdf ,α/2 oder T > tdf ,1−α/2
⇒ d.h. |T| > tdf ,1−α/2

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Was ist der p-Wert und wann lehnt man H0 ab?

A

Fehlerwahrscheinlichkeit mit der H0 abgelehnt werden kann
Wenn p-Wert < α –> H0 ablehnen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Was passiert mit dem p-Wert, wenn wir zweiseitig testen

A

p-Werte zweiseitiger Tests sind (i.d.R.) doppelt so groß wie die
entsprechender einseitiger Tests

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Testentscheidung mittels KI

A

einseitig (pos.): H0 : µx ≤ µy
KI = [δ(u), ∞)

einseitig (neg.): H0 : µx ≥ µy
KI = (-∞, δ(o)]

zweiseitig: H0 : µx = µy
KI = [δ(u), δ(o)]

Ablehnen von H0, wenn 0 kein Element des KIs ist!!!!

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Voraussetzungen an Welch-t-Test (3)

A
  • Normalverteilung
  • Varianzheterogenität (bei Zweifel über Varianz lieber Welch-t-Test nehmen)
  • Unabhängigkeit der Daten
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Testentscheidung bei Welch-t-Test

A

Ablehnen von H0, wenn:
einseitig (pos.): T > tdf Welch,1−α
einseitig (neg.): T < tdf Welch,α
zweiseitig: T < tdf Welch,α/2 oder T > tdf Welch,1−α/2
⇒ d.h. |T| > tdf Welch,1−α/2

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Was passiert mit Freiheitsgrad, wenn exakter Wert nicht in Quantiltabelle gegeben ist

A

Abrunden

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Robust / nicht robust gegenüber? (Welch-t-Test) (5)

A
  • absolut robust gegenüber homogenen Varianzen: i.d.R. leicht konservativ → geringere Gute (etwas größere p-Werte)
  • robust gegenüber symmetrischer Nicht-Normalverteilung
  • relativ robust gegenüber schiefen Verteilungen, insbesondere bei nicht zu kleinen Fallzahlen (> 10)
  • wenig robust gegenüber diskreten Verteilungen, insbesondere bei vielen Bindungen (gleich große Werte, ties) und kleinen Fallzahlen,
    z.B. Bonituren: 2,2,4,5
  • nicht robust gegenüber Ausreißern
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

t-Test für abhängige Daten (Voraussetzungen)

A
  • Normalverteilung
  • Messwerte jeweils vom selben Messobjekt, Abhängigkeit (Stichproben
    hängen voneinander ab)
  • Balanciertheit: selbe Fallzahlen (keine fehlenden Werte)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Was muss beim t-Test für abhängige Daten geschehen, bevor Teststatistik berechnet werden kann

A
  • Umwandlung des ursprünglichen Zweistichprobenproblems in ein Einstichprobenproblem
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Freiheitsgrad berechnen (t-Test für abhängige Daten)

A

df = n - 1

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Freiheitsgrad berechnen (t-Test)

A

df = nx + ny − 2

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Hypothesen beim t-Test für abhängige Daten

A

einseitig (pos.):
H0 : µx ≤ µy (µD ≤ 0)
HA : µx > µy (µD > 0)
einseitig (neg.):
H0 : µx ≥ µy (µD ≥ 0)
HA : µx < µy (µD < 0)
zweiseitig:
H0 : µx = µy (µD = 0)
HA : µx ungleich µy (µD ungleich 0)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Wozu dient der WMW-U-Test, welche Varianten gibt es, parametrisch / nichtparametrisch?

A

ein nichtparametrischer Test zum Vergleich von Verteilungsfunktionen bzw. relativen Effekten
- Wilcoxon-Rangsummentest
- U-Test

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Voraussetzungen an die Daten (Wilcoxon-Rangsummentest und U-Test)

A
  • stetige Daten
    • lediglich schwache Voraussetzung, oft nicht erfüllt
      –> mindestens quantitativer oder qualitativer ordinaler Variablentyp
  • Varianzhomogenität
  • Unabhängigkeit
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Hypothesen (Wilcoxon-Rangsummentest und U-Test)

A

zweiseitig:
H0 : FX (z) = FY (z) (P(x > y) = 0.5)
HA : FX (z) ungleich FY (z) (P(x > y) ungleich 0.5)
einseitig (pos.):
H0 : FX (z) ≥ FY (z) (P(x > y) ≤ 0.5)
HA : FX (z) < FY (z) (P(x > y) > 0.5)
einseitig (neg.):
H0 : FX (z) ≤ FY (z) (P(x > y) ≥ 0.5)
HA : FX (z) > FY (z) (P(x > y) < 0.5)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Testentscheidung (Wilcoxon-Rangsummentest)

A

Ablehnen von H0, wenn
zweiseitig: WX < Wnx ,ny ,α/2 oder WX > Wnx ,ny ,1−α/2
einseitig (pos.): WX > Wnx ,ny ,1−α
einseitig (neg.): WX < Wnx ,ny ,α

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Welche Werte lese ich ab für Quantiltabelle (Wilcoxon-Rangsummentest)

A

Erste Fallzahl für Spalte (n1)
Zweite Fallzahl für Reihe (n2)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Testentscheidung (U-Test)

A

Ablehnen von H0, wenn
zweiseitig: UX < Unx ,ny ,α/2 oder UX > Unx ,ny ,1−α/2
einseitig (pos.): UX > Unx ,ny ,1−α
einseitig (neg.): UX < Unx ,ny ,α

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Wann brauche ich die alternative Variante zum Wilcoxon- und U-Test

A

Approximation für große Fallzahlen (ca. n >20

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Was sind Bindungen (beim Wilcoxon-Rangsummentest und U-Test)

A
  • gleich große Werte
  • im Prinzip Verletzung der Stetigkeitsannahme
  • nur kritisch, wenn zwischen beiden Stichproben
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Was passiert mit Bindungen und was muss eventuell angewandt werden

A

==> beide bekommen halben Rang höher (z.B. beide 1 –> beide 1.5)
- ab ca. 20% der Messwerte sind Bindungen
–> Bindungskorrektur

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Q

χ2-Test parametrisch/nichtparametrisch

A

nichtparametrischer Test

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
26
Q

Welche Arten des χ2-Test gibt es

A
  • Anpassungstest (Vergleich einer empirischen mit bekannten Verteilung)
  • Homogenitätstest (Vergleich zweier Multinomialverteilungen
    (Spezialfall des Unabhängigkeitstests)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
27
Q

Voraussetzung an die Daten ( χ2-Anpassungstestest) (2)

A

Multinomialverteilung
Wievielmal von insg. N trat Ereignis i = 1, . . . , k ein?
z.B.: N-maliges Würfeln, ¨ i = 1, . . . , 6
Unabhängigkeit (der Einzelmesswerte)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
28
Q

Hypothesen (χ2-Anpassungstest)

A

zweiseitig: H0 : FX (z) = F0(z) vs. HA : FX (z) ungleich F0(z)
einseitig: nicht sinnvoll, da nicht auf Lokation verglichen wird

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
29
Q

Berechnung Freiheitsgrad (χ2-Test)

A

Anzahl der Kategorien (Unterschiedliche Messstellen, die vergleichen werden)
-1
(Bsp. 4 Erbsenarten, wie häufig sie vorkommen => 4-1 = df = 3

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
30
Q

Voraussetzung an die Daten (χ2-Homogenitätstest)

A
  • Binomialverteilung
  • Unabhängigkeit (der Einzelmesswerte)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
31
Q

Hypothesen (χ2-Homogenitätstest)

A

zweiseitig: H0 : πx = πy vs. HA: πx ungleich πy
einseitig (pos.): H0 : πx ≤ πy vs. HA: πx > πy
einseitig (neg.): H0 : πx ≥ πy vs. HA: πx < πy

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
32
Q

Wie ist der Freiheitsgrad bei der χ2-Homogenitätstest (Vierfeldertafel)

A

df = 1

33
Q

Testentscheidung (χ2-Homogenitätstest)

A

Ablehnen von H0, wenn
zweiseitig: χ2 > χ2 1,1−α
einseitig (pos.): χ2 > χ2 1,1−2α und px > py
einseitig (neg.): χ2 > χ2 1,1−2α und px < py

34
Q

Wann benutzt man die (Kontinuitäts-) Korrektur nach Yates, X2-Homogenitätstest)

A

Für n = 20-60

35
Q

Wann benutzt man den exakten Test nach Fisher(X2-Homogenitätstest)

A

Bei n <20 oder bei starker Asymmetrie der Vierfeldertafel

36
Q

Was ist die Korrelationsanalyse

A

Analyse der linearen Abhängigkeit quantitativer Zufallsvariablen

37
Q

In welchem Ergebnisbereich liegt das Ergebnis bei der Korrelationsanalyse und was bedeuten die Werte

A

ρx,y = -1 bis 1
Interpretation:
ρx,y < 0: negativer linearer Zusammenhang, X ∼ −Y
ρx,y = 0: kein linearer Zusammenhang
ρx,y > 0: positiver linearer Zusammenhang, X ∼ Y

38
Q

Was macht man bei der einfachen parametrischen Korrelationsanalyse

A

Analyse der linearen Abhängigkeit zweier normalverteilter Zufallsvariablen

39
Q

Voraussetzung an die Daten (Einfache parametrische Korrelationsanalyse)

A

Normalverteilung
Messwerte aus einer Stichprobe/Gruppe
Messwerte jeweils vom selben Messobjekt
Balanciertheit

40
Q

Was ist das Bestimmtheitsmaß (Einfache parametrische Korrelationsanalyse)

A

Maß für die Stärke des wechselseitigen Zusammenhangs der Variablen X und Y
–> Maß dafür, wie gut sich Merkmale X und Y gegenseitig erklären
- Anteil der Varianz eines Merkmals an der Varianz des anderen
==> Anteil gemeinsamer Varianz

41
Q

Hypothesen (Einfache parametrische Korrelationsanalyse)

A

zweiseitig:
H0 : ρx,y = 0 vs. HA : ρx,y ungleich 0
einseitig (pos.):
H0 : ρx,y ≤ 0 vs. HA : ρx,y > 0
einseitig (neg.):
H0 : ρx,y ≥ 0 vs. HA : ρx,y < 0

42
Q

Wie berechnet man den Freiheitsgrad (Einfache parametrische Korrelationsanalyse)

A

df = n - 2

43
Q

Was sagt ein hoher Wert der Teststatistik aus (Einfache parametrische Korrelationsanalyse)

A

je mehr ρx,y von 0 abweicht, desto höher ist der Betrag

44
Q

Testentscheidung (Einfache parametrische Korrelationsanalyse)

A

Ablehnen von H0, wenn
zweiseitig: |Tρ| > tdf ,1−α/2
einseitig (pos.): Tρ > tdf ,1−α
einseitig (neg.): Tρ < tdf ,α

45
Q

Wovon hängt es ab. ob ρx,y signifikant ist?

A

Abhängig von Fallzahl

46
Q

Wann benutzt man die z-Transformation nach Fisher (bei Einfacher parametrischer Korrelationsanalyse)

A

bei kleinen Fallzahlen

47
Q

Was ist eine Scheinkorrelation

A
  • Daten lediglich “mathematisch“ oder zufällig korreliert
  • Nichtberücksichtigung von Einflussgrößen –> Verletzung der Voraussetzung
  • gemeinsame Abhängigkeit von dritten Zufallsgröße
48
Q

Warum berechnet man die partielle Korrelation

A

Um bei 3 Einflussgrößen zu trennen, welche wirklich mit welcher korreliert (ausklammern einer dritten Einflussgröße bei Korrelation)

49
Q

Voraussetzung an die Daten (Nichtparametrische Korrelationsanalyse)

A

stetige Verteilung
lediglich schwache Voraussetzung, oft nicht erfüllt
→ mindestens quantitativer oder qualitativ ordinaler Variablentyp
Messwerte aus einer Stichprobe/Gruppe
Messwerte jeweils vom selben Messobjekt
Balanciertheit

50
Q

Was ist Nichtparametrische Korrelationsanalyse

A

Analyse der linearen Abhängigkeit zweier nicht normalverteilter
Zufallsvariablen

51
Q

Vorgehen beim Rangkorrelationskoeffizient nach Spearman

A
  • Stichprobenkorrelation, Schätzer für ρ
  • analog zum Korrelationskoeffizient nach Pearson, aber für die Ränge der Daten
  • Rangvergabe für jede Variable separat
  • bei Bindungen i.d.R. mittlere Ränge
  • zugehöriger Test mittels Hotelling-Papst-Statistik
52
Q

Was ist der Rangkorrelationskoeffizient nach Kendall und wo wird er bevorzugt verwendet

A
  • gleichberechtigte, alternative Variante (zum Rangkorrelationskoeffizient nach Spearman)
  • oft verwendetet in Psychologie, Sozialwissenschaften
53
Q

Was ist die Multiple Korrelationsanalyse

A

Analyse der linearen Abhängigkeit einer normalverteilten
Zufallsvariablen von p anderen normalverteilten Zufallsvariablen

54
Q

Womit befasst sich die Regressionsanalyse

A

Analyse des funktionalen Zusammenhangs zwischen quantitativen
Zielgrößen und quantitativen Einflussgrößen

55
Q

Was versteht man unter Zielgröße und Einflussgröße bei der Regressionsanalyse

A

Zielgröße: Regressand, abhängige Variable, Y
Einflussgröße: Regressor, unabhängige Variable, X

56
Q

Formel für Regressionsgrade

A

y = a + bx

57
Q

Was ist die lineare einfaktorielle Regression

A

Analyse des linearen Zusammenhangs einer quantitativen Zielgröße und einer quantitativen Einflussgröße

58
Q

Was beschreibt die Modellgleichung (yij = α + βxi + ϵij)
bzw. was sagen die Parameter α, β und ϵij aus

A

i = 1, . . . , m Messstellen, unterschiedliche x-Werte
j = 1, . . . , ni Wiederholungen (pro Messstelle)
α: Absolutglied (intercept)
→ Erwartungswert der y für x = 0
β: Steigungsparameter (slope)
→ bei Erhöhung von x um eine Einheit erhöht sich y um β
ϵij : zufällige Fehler, Restfehler

59
Q

Voraussetzung an die Daten (Lineare einfaktorielle Regression)

A
  • m >/= 2 Messstellen
  • n >/= 3 Messwerte pro Messstelle
  • Normalverteilung
  • Varianzhomogenität
  • Unabhängigkeit der Daten
  • keine Fehler bzgl. der xi-Werte (Modell 1 –> Einflussgrößen hängen nicht vom Zufall ab)
60
Q

Freiheitsgrad bei Linearen einfaktoriellen Regression

A

df = N - 2

61
Q

Was sind die Konfidenzstreifen

A
  • Menge der KI für den erwarteten Wert von y an allen Stellen x0
  • Bereich, in dem sich die “echte“ Regressionsgerade befindet
  • unterschiedlich breit, am schmalsten bei ¯x
62
Q

Was sind die Prognosestreifen

A
  • Menge der Prognoseintervalle für die y-Werte an allen Stellen x0
  • Bereich, in dem sich mögliche (zukünftige) ¨ y-Werte befinden
  • am schmalsten bei ¯x, breiter als der Konfidenzstreifen
63
Q

Was ist das Bestimmtheitsmaß (Lineare einfaktorielle Regression)

A
  • Maß für die Qualität der Modellgleichung/Regression
    → Maß dafür, wie gut Merkmal Y durch X erklärt wird
  • Verhältnis der Varianz der geschätzten y-Werte zur Varianz der
    beobachteten y-Werte
    → Verhältnis der erklärten Varianz zur Gesamtvarianz der y-Werte
    → Anteil erklärbarer Varianz
64
Q

Wofür eignet sich das Bestimmtheitsmaß (lineare einfaktorielle Regression) nicht

A
  • keinesfalls allein zur Bewertung der Qualität der Regression
    heranzuziehen
  • nicht geeignet für Vergleiche mehrerer Modellgleichungen
65
Q

Wozu dient das adjustierte Bestimmtheitsmaß bzw. welche Vorteile gegenüber normalen Bestimmtheitsmaß

A
  • berücksichtigt im Vergleich zum herkömmlichen auch die Anzahl der unabhängigen Variablen
  • steigt nur dann, wenn mit der Kompliziertheit des Modells auch ein deutlicher Gewinn an Aussagekraft einhergeht (Befreiung von überflüssigen Einflussgrößen)
66
Q
  1. Adjustiertes Bestimmtheitsmaß
  2. AIC/BIC
    Was davon ist besser je höher und was besser je niedriger
A
  1. besser je höher
  2. besser je niedriger
67
Q

Wozu dient die Residuenanalyse

A

grafische Methoden zur Bewertung der Qualität der
Modellgleichung/Regression bzw. zur Kontrolle der Voraussetzungen an die Daten

68
Q

Was sind Residuen

A

Unterschiede zwischen den tatsächlichen (beobachteten) Werten und den vorhergesagten Werten
=> Differenzen zwischen den beobachteten Werten (Y) und den vorhergesagten Werten (Y-Dach) ausgedrückt

69
Q

Wozu dient ein Residuenboxplot

A
  • Visualisierung der Verteilung der Residuen
  • überprüft, ob Voraussetzung an Daten erfüllt sind: Normalverteilung (Check durch Symmetrie der Box) und Erwartungswert = 0
70
Q

Wozu dient der Residuenplot

A
  • Überprüft, ob die Varianz der Residuen konstant über alle Werte der unabhängigen Variablen streut (Varianzhomogenität bzw. Homoskedastizität)
  • Symmetrische Streuung nach oben und unten? (z.B. V-Struktur spricht dagegen)
71
Q

Wozu dient der Normal-Q-Q-Plot

A
  • dient zur Überprüfung der Normalverteilung:
    wenn ja, liegen Werte ungefähr auf 45° Linie
72
Q

Wozu dient die Varianzanalyse

A

Analyse des Einflusses qualitativer Einflussgrößen auf quantitative Zielgrößen

73
Q

Was sagen die verschiedenen Variablen der Modellgleichung
yij = µ + αi + ϵij
aus
(Einweg-Analyse)

A
  • i = 1, . . . , a Messstellen,
    Stufen, Level der Einflussgröße
  • j = 1, . . . , ni Wiederholungen
    (pro Stufe)
  • µ: Gesamtmittel (-wert)
    → Erwartungswert der y ohne
    Berücksichtigung der ¨
    Einflussgröße
  • αi: Effekte der Einflussgröße A
    → für Level i haben die y den Erwartungswert µ + αi
  • ϵij : zufällige Fehler, Restfehler
74
Q

Voraussetzung an die Daten (Einweg-ANOVA)(

A
  • a >/= 2 Messstellen
  • n >/= a + 1 Messwerte pro Messstelle
  • Normalverteilung
  • Varianzhomogenität
  • Unabhängigkeit der Daten
  • Additivität (Effekt der Einflussgröße addiert sich)
  • keine Fehler bezüglich der xi (Modell 1)
75
Q

Hypothesen (Einweg-ANOVA)

A

nur zweiseitig, da einseitig nicht sinnvoll
- mitterlwerbasierte Formulierung: H0 : µ1 = µ2 = . . . = µa vs. HA : mind. ein ungleich
modellbasierte Formulierung:
H0 : α1 = α2 = . . . = αa = 0 vs. HA : mind. ein ungleich

76
Q

Freiheitsgrad bei Einweg-ANOVA

A

Freiheitsgrad…
..insgesamt: dfG = N - 1 bzw. dfA + dfR
..der Einflussgröße A: dfA = a - 1
..des Restfehlers: dfR = N - a
Lesen in Quantiltabelle: dfA –> erster Wert (Zeile)
dfR –> zweiter Wert (Spalte)

77
Q

Wann sind die Unterschiede der Faktorstufen signifikant (Einweg-ANOVA)

A

Wenn sich Faktorstufenmittel (Subgruppen) stärker um Gesamtmittel streuen, als die Messwerte um die jeweilige Faktorstufenmittel
–> Streuung innerhalb der Gruppen zum Mittelwert der Subgruppe muss kleiner sein als Streuung der Mittelwerte der Subgruppen zum Gesamtmittelwert

78
Q

Testentscheidung (Einweg-ANOVA)

A

Ablehnen von H0, wenn FA > FdfA,dfR,1−α
1−α trotz zweiseitigen Testproblems

79
Q

Wozu dient das Bestimmtheitsmaß (Einweg-ANOVA)

A
  • Maß für die Güte der Modellgleichung/ANOVA
    → Maß dafür, wie gut Merkmal Y durch die Einflussgröße(n) erklärt
    wird
  • Verhältnis der Varianz der geschätzten y-Werte zur Varianz der
    beobachteten y-Werte
    → Verhältnis der erklärten Varianz zur Gesamtvarianz der y-Werte
    → Anteil erklärbarer Varianz