Statistik 2 Flashcards

1
Q

Wie hängt der p-Wert bei statistischen Tests mit einem Stichprobenkennwert und der H0 zusammen?

A

Der p-Wert sagt vorraus, wie wahrscheinlich das Zustandekommen des vorliegenden Stichprobenkenntwerts unter Annahme der H0 ist. Ist diese WK gering, kann die H0 abgelehnt werden (fällt in den Ablehnungsbereich von 5 oder 1% der unwahrscheinlichsten Ereignisse).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Grenzen Sie absolute und relative Effektgröße voneinenader ab. Geben Sie je ein konkretes Beispiel, in dem eher absolute bzw. relative Effektgrößen verwendet werden.

A

Absolut: z.B. eine Differenz in Rohwerten (z.B. Größe, gewicht)

Relativ: z.B. in Standardabweichungen (Absolutwerte nicht aussagekräftig) - r, d, t, F, chi2 (IQ)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Beschreibung “Unbiasedness” von Populationsschätzern und zwei Beispiele

A

Unbiasedness = Erwartungstreue. Erwartungstreue ist eine Eigenschaft eines Schätzers. Er ist erwartungstreu, wenn sein Erwartungswert gleich dem wahren Wert des zu schätzenden Parameters ist.

Beispiel:
gut erfüllt: Mittelwert eines Merkmals bei sehr großer Stichprobe erwartungstreu
nicht gut erfüllt: Mittelwert eines Merkmals bei kleiner Stichprobe

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Beschreibung “Resistence” von Populationsschätzern und zwei Beispiele

A

Resistence = Resistenz. Anfälligkeit gegenüber Ausreißern.

Beispiel:
mittlere Abweichung besser bzgl. Resistenz als Standardabweichung, da bei S die Abweichungen quadriert werden, Modalwert besser als Mittelwert

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Beschreibung “Efficiency” von Populationsschätzern und zwei Beispiele

A

Efficiency = Präzision einer Schätzung, d.h. wie eng sich Kennwerte über viele Ziehungen hinweg um den Populationsparameter clustern (z.B. Mittelwert clustert enger als Median)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Beschreibung “Sufficiency” von Populationsschätzern und zwei Beispiele

A

Sufficiency = Erschöpfendheit. Wie gut der Parameter alle ihm zur Verfügung stehenden Informationen nutzt.

Beispiel:
gut erfüllt: Mittelwert
nicht gut erfüllt: Modelwert (hier “stecken nicht alle Werte drin”)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Warum benötigt man die t-Veteilung und nimmt nicht stattdessen die z-Verteilung für die entsprechnden Tests zu Mittelwertsvergleichen?

A

σ = sigma

Sigma (Streuung in der Population) ist meist unbekannt, s ist zwar ein erwartungstreuer Schätzer für sigma, s nährt sich sigma aber nur über unendlich viele Ziehungen an. Die Stichprobenkenntwertverteilung für s ist asymmetrisch, d.h. es liegen mehr Werte links der Mitte. Bei einer einzigen Ziehung würde der Mittelwert also unterschätzt werden. Die t-Verteilung gleicht diesen systematischen Fehler aus!

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Was charakterisiert die Theorie von Neyman & Pearson gegenüber der von Fisher zum Signifikanztest?

A

Fischer: Ausgangspunkt ist die H0 - Berücksichtigung der Wahrscheinlichkeit, ob das vorliegende Ergebnis unter Annahme der H0 zustande gekommen sein könnte. Nicht signifikante Ergebnisse sollen nicht interpretiert werden. Es werden keine Aussagen darüber gemacht, wie groß die Chancen sind, einen vorhandenen Effekt zu entdecken. Wenn H0 nicht abgelehnt werden kann, weiß man nicht mehr als vorher (v.A. weiß man nicht, ob die H0 wahr ist!)

Neyman & Pearson: Fehler 1. und 2. Art werden unterschieden und der H0 wird die H1 entgegengesetzt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Was besagt der zentrale Grenzwertsatz?

A

Die Summe (und der Mittelwert) zweier oder mehrerer unabhängiger Zufallsvariablen ist über viele (unendlich viele) Ziehungen normalverteilt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Erläutern Sie das Prinzip des Boostrappings bzw. Resamplings anhand eines Mittelwertvergleichs zwischen zwei Stichproben. Verwenden Sie dabei den Begriff “Stichprobenkennwerteverteilung”.

A

Bootstrapping = Schaffung einer künstlichen Stichprobenkennwerteverteilung. Die Werte der vorliegenden Stichprobe werden immer wieder in einen Topf geworfen und neue, zufällige Sitchproben daraus gezogen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

SInd Standardfehler und Standardabweichung das gleiche? Wenn ja, warum? Wenn nein, warum nicht?

A

Nein, denn:

Standardfehler = Streuung der Kennwerte in der Stichprobenkennwertverteilung
Standardabweichung = Merkmalsmessung in der Stichprobe
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Besagt der p-Wert beim statistischen Test, wie wahrscheinlich die H0 ist? Wenn ja, warum? Wenn nein, was besagt der p-Wert dann?

A

Nein, der p-Wert sagt nur aus, wie wahrscheinlich das Auftreten der vorliegenden Statistik unter Annahme der H0 ist. Fällt diese WK unter 5%, kann die H0 abgelehnt werden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Nennen Sie jeweils ein Beispiel für eine Wahrscheinlichkeitsverteilung und eine Wahrscheinlichkeitsdichteverteilung. Worin besteht der Unterschied?

A

Wahrscheinlichkeitsverteilung gibt an, wie sich die Wahrscheinlichkeiten aus die möglichen Werte einer Zufallsvariablen verteilen, z.B.: Binomialverteilung. Es handelt sich um abzählbare Ereignismengen.

Wahrscheinlichkeitsdichteverteilung: gibt die Wahrscheinlichkeit an, mit der eine Zufallsvariable einen Wert zwischen a und b annimmt, antspricht dem Inhalt der Fläche s unter dem Graph der Wahrscheinlichkeitsdichtefunktion f. Die Wahrscheinlichkeit für ein Ereignis ist “überabzählbar” (z.B. IQ_Wert 103,54) - also praktisch null, deswegen gibt man hier Warscheinlichkeitsdichten an (quasi die WK, dass ein IQ zwischen 103 und 104 auftritt - Normalveteilung)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Nennen Sie die Definition des Begriffs “Stichprobenkennwerteverteilung”

A

Stichprobenkennwerteverteilung = (auch: Testverteilung) WK-Verteilung für einen Stichprobenkennwert unter Annahme der H0

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Nennen Sie die Definition des Begriffs “Ablehnungsbereich”

A

Bereich der unwahrscheinlichsten (extremsten) Stichprobenkennwerte unter Zufallsannahme: liegt ein Stichprobenkennwert in diesem Bereich, kann die Zufallsannahme abgelehnt werden - Annahme eines systematischen Effekts - H0 abgelehnt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Nennen Sie die Definition des Begriffs “Zufallsannahme”

A

Zufallsannahme = Nullhypothese/H0 - Annahme, dass ein vorliegender Stichprobenkennwert durch einen unsystematischen Zufall zustande gekommen ist, es besteht kein signifikanter Unterschied (z.B. mehr als 5%).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Nennen Sie die Definition des Begriffs “Stichprobenkennwert”

A

Stichprobenkennwert = quantitative Größe, die charakteristische Merkmaler einer Stichprobenverteilung beschreibt. Kennwerte der zentralen Tendenz und der Dispersion werden unterschieden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Nennen Sie die Definition des Begriffs “Zufallsstichprobe”

A

randomisierte Ziehung v. Individuen aus einer Gesamtpopulation

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Inwiefern unterscheidet sich das gerichtete von dem ungerrichteten Testen?

A

Gerichteter Test = Abweichungen in nur eine Richtung sind von Interesse

Ungerichteter Test = Abweichungen des Mittelwerts sind in beide Richtungen bedeutsam

Je nach Fragestellung ergibt sich ein anderer Ablehnungsbereich bei gleichem Signifikanzniveau!

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Welche Art von Verteilung wird benötigt, um Häufigkeiten eines Ereignisses mit zwei Ergebnisalternativen abzutragen? Welches Skalenniveau ist die Veraussetzung zur Verwendung dieser Verteilung?

A

Die Binomialverteilung, mindestens die Nominalskala

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Erklären Sie die Logik statistischen Testens!

A
  • Aufstellen einer Forschungshypothese
  • Erhebnung einer Zufallsstichprobe
  • (statistisch Testbare) Nullhypothese aufstellen
  • Stichprobenkennwerteverteilung unter Annahme der H0 erstellen (Bootstrapping/Resampling)
  • Vergleich, ob der Zufallsstichprobenwert in den Bereich der unwahrscheinlichsten/extremsten Bereiche fällt
  • Entscheidung: wenn ja, wird H0 abgelehnt und die Forschungshypothese (H1) bestätigt
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Beschreiben Sie kurz (1-2 Sätze), womit sich die Inferenzstatistik im Allgemeinen befasst.

A

Die Inferenzstatistik (schließende Statistik) zieht Rückschlüsse von der Stichprobe auf die Population und ermöglicht das Testen von Hypothesen.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Was besagt der p-Wert?

A

Wie wahrscheinlich das Zustandekommend der vorliegenden Statistik unter annahme der H0 ist.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

Was sind alpha und beta-Fehler? Welche ist der “schlimmere” und warum?

A

Alpha-Fehler = H1 wird für wahr befunden, obwohl in Wirklichkeit die H0 gilt

Beta-Fehler = H0 wird fälschlicherweise für falsch befunden

Der Alpha-ehler ist der “schlimmere”; da er für die Wirklichkeit gravierendere Konsequenzen haben kann als eine Beibehaltung der H0 pbwohl die H1 gelten würde - siehe Medikamententests. Ist aber im Endeffekt auch individuell vom Forschungsgegenstand abhängig.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Q

Was bedeutet Signifikanzniveau und welche konventionell festgelegten Grenzen werden in der Psychologie verwendet?

A

Signifikanzniveau = Irrtumswahrscheinlichkeit - die vorab festgelegte Wahrscheinlichkeit, einen alpha-Fehler zu begehen. Konventionell: 5% oder 1% Signifikanzniveau.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
26
Q

Was bedeutet interne Validität und wie wird sie noch genannt?

A

Auch CT/ceteris paribus = “alles andere vergleichbar”

Nur die UV verändert sich, alles andere bleibt gleich, Annahme dass Störvariablen kontrolliert werden. Wird erreicht durch “random assignment”

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
27
Q

Was ist eine Standardnormalverteilung und wodurch unterscheidet sie sich von der Normalverteilung?

A

Standardnormalverteilung hat als Mittelwert immer = 0 und als Standardabweichung = 1, Normalverteilung nicht.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
28
Q

Warum ist es sinnvoll, die Standardnormalverteilung in der Inferenzstatistik zu verwenden?

A

Man muss dann nicht für alle möglichen Mittelwertsstandardabweichungs-Kombinationen separate Tabellen anlegen, Messwerte werden besser vergleichbar.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
29
Q

Was muss bei der z-Transformation einer Stichprobe in eine Standardnormalverteilung beachtet werden?

A

Eine z-Transformation „irgendeiner“ Stichprobe führt nicht zu einer Normalverteilung, es sei denn, sie wäre schon vorher normalverteilt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
30
Q

Welche Kritik gibt es an Pearsons Chi-Quadrat?

A
  1. ) kein Testen gerichteter Hypothesen möglich
  2. ) Größere Kontingenztafeln sind schwer interpretierbar (Signifikanz schon erreicht, wenn eine Zelle aus der Reihe tanzt)
  3. ) Chi-Quadrat ist eine kontinuierliche Funktion, Häufigkeiten sind aber diskret verteilt – Chi-Quadrat ist für kleine Stichproben ungeeignet, da in diesem Fall stetige und kontinuierliche Verteilungen sehr unterschiedlich aussehen – bei kleinen Stichproben (E < 5) lieber Fischers exakter Test für 2x2 Tafeln!
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
31
Q

Welcher Test ist für eine 2x2 Tafel mit gerichteter Hypothese zu verwenden?

A

Fischers exakter Test / Chi-Quadrat Test

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
32
Q

Welche Voraussetzungen müssen gegeben sein, um Pearsons Chi-Quadrat-Test durchführen zu dürfen?

A
  1. ) E > 5
  2. ) ungerichtete Hypothese
  3. ) Unabhängigkeit der Beobachtungen (nicht der Variablen!)
  4. ) Inklusion von „nonocurrences“ beachten: kein Test mit nur einer Variable, da ich Gegen-/Vergleichsvariable benötige!
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
33
Q

Geben Sie eine Definition für Wahrscheinlichkeit nach der analytischen Sichtweise (z.B. La Place).

A

Die Wahrscheinlichkeit eines Ereignisses einer Menge gleich wahrscheinlicher Fälle: Anzahl der für das Ereignis günstigen Ereignisse geteilt durch die Anzahl aller möglichen Ereignisse.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
34
Q

Geben Sie Beispiele für unabhängige, abhängige und sich wechselseitig ausschließende Ereignisse.

A

Abhängig: zwei Wähler, die in Wahlkabine die Wahl des anderen sehen können
Unabhängig: zwei Münzen, die nacheinander geworfen werden
Ausschließend: zwei Münzen, die aneinandergeklebt sind

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
35
Q

Was besagen Kolmogorows drei Axiome?

A

1.) 0

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
36
Q

Was besagen das Additions- und Multiplikationsgesetz?

A

Die Wahrscheinlichkeit für das gemeinsame Auftreten zweier unabhängiger Ereignisse erhält man durch Multiplikation der Einzelwahrscheinlichkeiten:
z.B. beim Würfeln 2 mal die 3: 1/6 * 1/6 = 1/36

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
37
Q

Beschreiben Sie den Unterschied zwischen Wahrscheinlichkeit und Wahrscheinlichkeitsdichte.

A

Wahrscheinlichkeit gilt für diskrete Zufallsvariablen,
Wahrscheinlichkeitsdichte (Dichtefunktion) gilt für stetige Zufallsvariablen. Die Fläche unter der Dichtefunktion gibt dabei die Wahrscheinlichkeit an. Integral des ges. Definitionsbereichs muss immer 1 sein.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
38
Q

Grenzen Sie Permutationen, Kombinationen und Variationen voneinander ab und geben Sie für jeden Begriff ein Beispiel.

A
  • Permutation: Mögliche Anordnungen einer bestimmten Zahl von Elementen, wobei die Reihenfolge eine Rolle spielt, z.B. die Anordnung von 20 Kindern in einer Reihe
  • Variation: Mögliche Anordnungen von k Elementen aus n Gesamtelementen, wobei die Reihenfolge eine Rolle spielt, z.B. aus einem Kartenspiel nacheinander 5 Karten ziehen
  • Kombination: Mögliche Auswahl von k Elementen aus n Gesamtelementen, wobei die Reihenfolge egal ist, z.B. Lottozahlen
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
39
Q

Was besagt das Gesetz der großen Zahl?

A

Die relative Häufigkeit eines Zufallsergebnisses pendelt sich auf die theoretische Wahrscheinlichkeit eines Zufallsergebnisses ein, wenn man das Zufallsexperiment nur oft genug wiederholt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
40
Q

Welche Voraussetzungen gelten für die Anwendung eines Chi-Quadrat-Tests?

A
  • Mindestens nominal- oder ordinalskalierte Variablen
  • erwartete Häufigkeit in jeder Kategorie muss mindestens 1 betragen
  • Bei höchstens 20% der Kategorien darf die erwartete Häufigkeit unter 5 liegen, damit die Teststatistik näherungsweise der Chi-Quadrat-Verteilung folgt.
  • Die Messungen müssen unabhängig voneinander sein.
  • Die Stichprobe muss zufällig entnommen worden sein, und der Test darf nur auf Häufigkeiten angewendet werden, nie auf relative Werte (z.B. %-Angaben)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
41
Q

Welche Idee steckt hinter der Chi-Quadrat-Formel?

A

Der Chi Quadrat Wert wird aus der Summe der beobachteten Häufigkeiten minus der erwarteten Häufigkeiten berechnet (quadriert) und durch die erwartete Häufigkeit geteilt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
42
Q

Was testet man mit einem Chi-Quadrat-Test?

A

Beim Chi Quadrat-Test werden Häufigkeiten verglichen. Man testet, ob die beobachtete Häufigkeitsverteilung sich von der erwarteten Häufigkeitsverteilung (unter Annahme der unter Nullhypothese angenommenen Gleichverteilung) unterscheidet, und: Unterscheidet sich die beobachtete Verteilung einer Variable von einer Normalverteilung?

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
43
Q

Erläutern Sie die Probleme, die mit dem Chi-Quadrat-Test in Verbindung stehen.

A
  • je größer die Stichprobe ist, desto eher werden auch kleine Unterschiede signifikant (sig. Ergebnis =/= Effekt)
  • Test sagt nur aus, ob es Unterschiede gibt, nicht aber über die Richtung des Effekts (keine Aussage, ob die beobachteten Werte größer o. kleiner sind als die erwarteten)
  • keine Aussage über die Stärke des Effekts (dafür bräuchte man Cramers V o. Kontingenzkoeffizienten C)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
44
Q

Wann verwendet man Fisher’s exakten Test und worin unterscheidet er sich vom Chi-Quadrat-Test?

A

Der Chi Quadrat Test ist nur ein näherungsweiser Test, weil die Prüfgröße nur näherungsweise der Chi Quadrat Verteilung entspricht. Den Fisher’s exakten Test verwendet man, wenn man herausfinden will, ob Zeilenvairable und Spaltenvariable unabhängig voneinander sind (was laut H0 stimmen würde). Bei kleinen Zellenhäufigkeiten kann der Chi Quadrat Test ungenau sein, Fisher’s exakter Test ist jedoch selbst dann genau.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
45
Q

Beschreiben Sie den Zusammenhang zwischen der Chi-Quadrat-Verteilung und der Normalverteilung.

A

Die Chi Quadrat Verteilung leitet sich aus der Summe von unabhängigen, quadrierten standardnormalverteilten Zufallsgrößen her.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
46
Q

Was bedeutet random sample und wie hängt es mit der externen Validität zusammen?

A

Bedeutet: „Zufallsstichprobe“ – externe Validität ist nur gegeben, wenn Untersuchungsergebnisse generalisierbar und repräsentativ sind. Durch ein random sample, oder die Zufallsziehung entsteht eine einfache Zufallsstichprobe, durch deren Untersuchung Rückschlüsse auf die Grundgesamtheit getroffen werden sollen. Durch die zufällige Zusammenstellung wird versucht, systematische Verzerrung (z.B. durch Geschlecht, Herkunft) auf die Ergebnisse zu vermeiden.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
47
Q

Was bedeutet random assignment und wie hängt es mit der internen Validität zusammen?

A

Bedeutet „zufällige Zuordnung“ und beschreibt die zufällige Zuweisung von Versuchspersonen zu verschiedenen Gruppen in einem Experiment (z.B. Versuchs- vs. Kontrollgruppe) mittels Randomisierung – z.B. mit einem Münzwurf oder einem random number generator. Diese zufällige Zuweisung stellt sicher, dass Unterschiede zwischen den Gruppen und innerhalb der Gruppen nicht systematisch zu Beginn des Experiments sind. Auf diese Weise können Unterschiede zwischen Gruppen zu Ende des Experiments sicherer den experimentellen Prozeduren zugeordnet werden. Random assignment dient also quasi der Sicherstellung interner Validität, um die Ergebnisse eines Experiments auf die Manipulation einer unabhängigen Variable zurückzuführen zu können und zu vermeiden, dass in Wirklichkeit die abhängigen Variablen der Grund für den Effekt sind könnten.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
48
Q

Was besagen Effektgrößen?

A

Effektgrößen machen Aussagen zum Ausmaß eines Behandlungseffekts oder die unterschiedliche Wirkung zweier Interventionen. Es ist ein standarisiertes Maß, das unterschiedliche Verfahren, Studien oder Interventionen miteinander vergleichbar machen soll.
Distanzmaß d = Abweichung der Mittelwerte normiert an der mittleren Standardabweichung (größeres d = Mittelwerte liegen weit auseinander). Wächst mit größerem Abstand der Mittelwerte und mit kleinerer Streuung, also auch größerem n, da dann kleinere Standardabweichung.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
49
Q

Geben Sie Beispiele für d-Maße als Effektgröße.

A

Absolute Effektgrößen (=mittlere Differenz der Originalwerte) sind nur aussagekräftig, wenn die Originalwerte es auch sind! „Difference“-Maß! Z.B. Cohen’s d
d=0.2 – klein
d=0.5 – mittel
d=0.8 – groß

50
Q

Geben Sie Beispiele für r-Maße als Effektgröße.

A
Auch „Korrelation“, Zusammenhangsmaß von 2 Variablen. Sind schlecht zu interpretieren, wenn möglich nicht nehmen. „Relationship“-Maß!
z.B. „Phi“
< 0.3 – kleiner Effekt
0.3-0.5 – mittlerer Effekt
> 0.5 – großer Effekt
51
Q

Worum handelt es sich bei Cohens Kappa?

A

Das Maß für die Übereinstimmung zweier verbundener kategorialen Stichproben. Entweder die zweifache Bewertung eines Beurteilers oder die einfache Bewertung zweier verschiedener Beurteiler. Bei zwei Beurteilern: Interraterreliabilität, bei wiederholter: Intraraterreliabilität.

52
Q

Skizzieren Sie die Sichtweise von Jones & Tukey zum Hypothesentesten.

A

Die H0 kann niemals 100%ig wahr sein.
 „Conclusion 1“: μ1< μ2
 „Conclusion 2“: μ1> μ2
Wenn keine der „Conclusions“ abgelehnt werden kann, dann wird daraus geschlossen, dass die Beweislage ungenügend für eine Entscheidung ist – die Populationsmittelwerte sind unterschiedlich, ohne dass wir wissen welcher größer ist

53
Q

Was versteht man unter Freiheitsgraden?

A

Die Freiheitsgrade eines Schätzers ist die Nummer an unabhängigen Informationen, die in die Schätzung des Schätzwerts eingeflossen sind.

54
Q

Beschreiben Sie das Konzept des Standardfehlers.

A

Der Standardfehler oder Stichprobenfehler ist ein Streuungsmaß für eine Schätzfunktion für einen unbekannten Parameter der Grundgesamtheit. Der Standardfehler ist definiert als die Standardabweichung der Schätzfunktion, also die Wurzel der Varianz.

55
Q

Was unterscheidet verbundene (joint) von bedingten (conditional) Wahrscheinlichkeiten?

A

Bedingte Wahrscheinlichkeiten: die WK des Eintretens eines Ereignisses A unter der Bedingung, dass ein Ereignis B bereits vorher eingetreten ist: P (AIB) = die WK, dass A und B beide wahr sind.

Verbundene: das Auftreten zweier unabhängiger Ereignisse erhält man durch Multiplikation der Einzelwahrscheinlichkeiten: WK der Schnittmenge. Bsp: Die WK, dass beim Würfeln mit 2 Würfeln zweimal die 3 fällt ist 1/6 mal 1/6.

56
Q

Wozu werden Konfidenzintervalle verwendet?

A

Geben den Bereich an, in dem mit 95%iger WK (oder 99%, abhängig vom Testniveau) der wahre Populationswert liegt. H0 wird abgelehnt, wenn der Stichprobenmittelwert sich außerhalb des KI befindet. Die Grenzen werden in Originalwerten angegeben (nicht standarisiert).

57
Q

Was sind Vertrauensintervalle im Vergleich zu Punktschätzern?

A

Vertrauensintervalle können Information über die Abweichung von unbekannten Parametern geben, Punktschätzer nicht. Punktschätzer liefern eine einzelne Zahl, KIs einen Intervall.

58
Q

Was beeinflusst die Teststärke (Power), sodass sie größer wird?

A

Hinreichend großer Datensatz / n.

59
Q

Sollte man die Teststärke post hoc berechnen? Wenn ja, warum? Wenn nein, warum nicht?

A

Es macht keinen Sinn, die Teststärke post-hoc zu berechnen, weil bei einem nicht signifikanten Ergebnis die Teststärke immer niedrig ist. Es wird del facto niemals ein Ergebnis zustande kommen, in dem p > .5 und Power > .80 oder höher! Der Informationsgehalt dieser Berechnung ist gleich null, und es wird eher der Test angezweifelt als die Arbeitshypothesen und die zugrunde liegenden Schlüsse.

Stattdessen lieber das Konfidenzintervall berechnen!

60
Q

Was sind Korrelationen im Vergleich zu Regressionen?

A

Korrelationen berechnen die Stärke eines Zusammenhangs zwischen zwei Variablen, Regressionen basieren darauf und ermöglichen bestmögliche Vorhersagen für eine Variable. Korrelationen können aussagen, dass bestimmte Werte auf der einen Variablen mit bestimmten Werten auf der anderen Variablen zusammenhängen, es wird quasi eine Vorhersage getroffen aber keine Kausalbeziehung hergestellt.
Bei Regressionen muss festgelegt werden, welche Variable durch eine andere Variable vorhergesagt werden soll. Anhand des Prädiktors wird das Kriterium vorhergesagt.

61
Q

Was sind Prädiktor und Kriterium?

A
Prädiktor = die Variable, die für die Vorhersage bei einer Regression eingesetzt wird
Kriterium = die Variable, die vorhergesagt werden soll
62
Q

Gibt es einen Unterschied zwischen Kovarianz und Korrelation? Wenn ja, welchen?

A

Ja, die Korrelation ist die standarisierte Kovarianz (unstandarisiert).

63
Q

Welchen Mehrwert bietet die Korrelation gegenüber der Kovarianz?

A

???? Am ehesten gibt es den Vorteil der Kovarianz gegenüber der Korrelation (bessere Vergleichbarkeit zwischen den Korrelationen), aber Korrelationen sind unabhängig von Maßeinheiten (cm, kg).

64
Q

Was beschreiben Residuen?

A

Bei Regressionen: Abweichungen der wahren y-Werte von den durch die Regressionsgerade repräsentierten Werte werden Residuen genannt (nicht durch die Gerade erklärte „Reste“)
= der Teil, der nicht schon durch die Kovariate vorausgesagt wird
Quadrierte Abweichung der wahren Y-Werte von den durch die Gerade repräsentierten Werte („Y-Dach“) minimal ist: Methode der kleinsten Quadrate

65
Q

Was ist der Korrelations-Kausalitäts-Fehlschluss? Nennen Sie ein Beispiel.

A

Ein Fehlschluss, bei dem das gemeinsame Auftreten von Ereignissen oder die Korrelation zwischen Merkmalen ohne genauere Prüfung als Kausalzusammenhang aufgefasst wird.
Beispiel: Storchenpopulation und Geburtenrate In den 20er Jahren wurde eine Korrelation von Storchenpopulation und Geburtenrate festgestellt, die beiden Ereignisse hängen jedoch nicht kausal zusammen. (Stattdessen: Industrialisierung?)

66
Q

Was ist der Standardschätzfehler und wozu wird er verwendet?

A

Fehler, der bei Regressionsvorhersagen gemacht wird, also Prognosen von einem oder mehreren Prädiktoren auf eine Kriteriumsvariable.
Kennzeichnet die Streuung der y-Werte um die Regressionsgerade und ist ein Gütemaßstab für die Vorhersage durch die Regressionsgleichung. Je größer der Standardschätzfehler, desto größer ist das Konfidenzintervall.

67
Q

Warum ist r ein schlechter Populationsschätzer und welcher ist der bessere Populationsschätzer?

A

z.B. gibt es zufällige Korrelationen, weil zwischen zwei Punkten immer eine exakte Linie gezogen werden kann.
Besserer Schätzer: adjustierter Korrelationskoeffizient.

68
Q

Was bezeichnet der Determinationskoeffizient r2? Wie ist das Ergebnis zu interpretieren?

A

Dient als Gütemaß der linearen Regression.
Verhältnis: Variabilität d. aufgrund von x geschätzten y-Werte / Variabilität der empirischen y-Werte
Interpretation: Anteil in der Variabilität der y-Werte, der auf x zurückgeht.

69
Q

Welche Voraussetzungen gibt es zur Berechnung einer Regression?

A
  1. die Gültigkeit des linearen Modells (die Punkte müssen halbwegs auf einer Geraden liegen)
  2. Der Erwartungswert der Residuen (Abweichungen von der Geraden) ist = 0
  3. Die statistische Unabhängigkeit der Residuen voneinander
  4. Varianzhomogenität in der Population für Arrays, d.h. für die Verteilung aller Y-Werte, die zu einem X-Wert gehören
  5. Normalverteilung für Arrays
70
Q

Welche Voraussetzungen gibt es zur Berechnung einer Korrelation?

A
    1. die Gültigkeit des linearen Modells (die Punkte müssen halbwegs auf einer Geraden liegen)
    1. bivariate Normalverteilung („Hütchen“), da ja nach dem statistischen Modell auch die X-Werte eine Zufallsvariable darstellen
71
Q

Mit welchen ungelösten Problemen sind Sie bei der Berechnung einer Korrelation konfrontiert?

A
  • Keine Aussage zu Kausalbeziehungen
  • Unresistent ggü. Nichtlinearen Transformationen einer/beiden Variablen
  • Nur lineare Beziehungen zugelassen
72
Q

Welche Selektionsfehler kann es bei der Berechnung einer Korrelation geben?

A

Selektionsfehler: Ausreißer, unterbrochene Verteilung (Extremgruppen überschätzen Zusammenhang), Einschränkung des Wertebereichs, Heterogene Unterstichproben

73
Q

In welchen Fällen werden ANOVAs statt t-Tests berechnet?

A
  • mehr als zwei Stichproben die verglichen werden sollen
  • um die Alpha Fehler-Kumulierung zu umgehen
  • wenn die Wirkung von zwei Variablen gleichzeitig bestimmt werden soll
  • wenn die Interaktion zwischen den Variablen interessiert.
74
Q

Stchproben- und Populationskennwerte der zentralen Tendenz:

A

Modalwert, Median, Mittelwert

75
Q

Stichproben- und Populationskennwerte der Dispersion:

A

Range, mean absolute deviation, Varianz, Standardabweichung

76
Q

Definition Standardabweichung

A

Wurzel aus Varianz - NICHT durchschnittlicher Abstand, sondern wie sehr die Werte um den Mittelwert streuen!!

77
Q

Definition Varianz

A

Durchschnittlicher quadratischer Abstand

78
Q

Überlegen Sie sich jeweils ein Beispiel für einen Haupteffekt und eine Interaktion in einer Studie Ihrer Wahl.

A

Haupteffekt: Wirkt sich das Geschlecht auf die Intelligenz aus?

Interaktion: Wirkt sich Rauchen für beide Geschlechter verschieden auf die Intelligenz aus? (Unterschiedliche Wirkung einer Variablen aus den verschiedenen Stufen der anderen Variablen?)

79
Q

In welche Bestandteile lässt sich eine Varianz zerlegen?

A

Mittelwert der Population, Treatmentanteil, Fehler.

80
Q

Welche Voraussetzungen müssen Sie bei der Berechnung einer ANOVA beachten?

A
  • Varianzhomogenität / Homoskedastizität
  • Normalverteilung der Population in jeder Bedingung / Normalverteilung der Fehler in jeder Bedingung
  • Unabhängigkeit aller Beobachtungen / Fehler
81
Q

Was gibt der F-Wert an?

A

Das Verhältnis von Treatment- und Fehlervarianz.

82
Q

Erläutern Sie kurz, was die Formel zum F-Bruch beinhaltet.

A

F = Quersumme treatment / df treatment DURCH Quersumme error / df error

83
Q

Was bedeutet Sphärizität und bei welchem Verfahren muss sie vorhanden sein?

A

Die Varianzen aller möglichen Treatmentdifferenzen sind gleich. Bei der ANOVA mit Messwiederholung.

84
Q

Wie robust gegenüber Verletzungen von Anwendungsvoraussetzungen ist die ANOVA?

A

Verletzungen der Normalverteilung eher unkritisch
Populationen sollten in etwa symmetrisch oder mind. Etwa gleichförmig sein, größte Varianz nicht > 4 mal der kleinsten Varianz
Wenn Varianzen sehr unterschiedlich wenigstens Stichprobengröße in den Gruppen etwa gleich

Genauer Testen: Levene-Test, wenn sign.: Welch-Verfahren

85
Q

Was lässt sich mit dem Levene-Test testen?

A

ANOVA über die quadrierten Abweichungen vom jeweiligen Gruppenmittel statt über die Rohdaten

86
Q

Ab welcher ungefähren Stichprobengröße wird der t-Test verwendet?

A

Etwa n > 11 (dann gilt die t-Verteilung)

87
Q

Welche Annahmen müssen beachtet werden bei der Verwendung eines t-Tests für zwei unabhängige Gruppen?

A

• Gleiche Stichprobengröße (n1 = n2)
• Homogenität der Varianzen in beiden Populationen
• Normalverteilung bzgl. Stichprobenkenntwertverteilung der Mittelwertsdifferenzen
2 und 3 sind IMMER verletzt – Frage: wie stark?

88
Q

Wie schlimm sind die Verletzungen der Anwendungsvoraussetzungen eines t-Tests für unabhängige Stichproben?

A

Annahme gleiche Stichprobengröße: unproblematisch, solange die Varianzen gleich sind. Wenn nicht gleich, müssen Varianzen gepoolt werden.
Annahme der Varianzhomogenität: sollte getestet werden (Levene-Test), wenn signifikant muss eine korrigierte t-Verteilung zum ablesen der kritischen Werte benutzt werden.
Annahme der Normalität der Stichprobenkennwertverteilung: allgemein robust ggü. Verletzungen, solange Populationen halbwegs normalverteilt oder Verteilungen halbwegs ähnlich aussehen (ideal: symmetrisch)
Probleme, wenn: beide Verteilungen asymmetrisch (und in verschiedene Richtungen) und sehr kleine Stichproben (n < 5)

Dann lieber kein t-Test sondern ein nichtparametrischer Test (z.B. auf Ordinalskalenniveau)

89
Q

Was müssen Sie beachten, wenn bei der Berechnung eines t-Tests, Ihre beiden unabhängigen Stichproben unterschiedlich groß sind?

A

Dass die Varianzen dann gleich sein müssen (wenn sie das nicht sind: Varianzen poolen und damit rechnen!)

90
Q

Wie lassen sich die Freiheitsgrade bei einem t-Test für zwei unabhängige Stichproben berechnen?

A

Bei jeder Stichprobe verliert man für die Schätzung einen df, d.h.:
Df = (n1-1) + (n2-1) = N - 2

91
Q

Nennen Sie ein Beispiel für die Verwendung eines t-Tests für wiederholte Messungen. Wie gehen Sie bei der Berechnung vor?

A

Vergleich von Körpergewicht vor und nach einer Diät.

Die Vorher- und Nachher Differenzen zwischen den Mittelwerten werden vergleichen. (X1-X2 = eine Stichprobe)

92
Q

SPSS berechnet das Signifikanzniveau für zweiseitige t-Tests. Wie können Sie den p- Wert für einen einseitigen Test erhalten?

A

Den zweiseitigen p-Wert durch 2 teilen, um den einseitigen Wert zu erhalten.

93
Q

Warum benötigt man die t-Verteilung, und nimmt nicht stattdessen die z-Verteilung für die entsprechenden Tests zu Mittelwertsvergleichen?

A

Die t-Verteilung kann benutzt werden, wenn die Standardabweichung der Grundgesamtheit nicht bekannt ist (bräuchte man für die z-Verteilung).

94
Q

Welcher Zusammenhang besteht zwischen ipsativen Daten und der Messwiederholungs-ANOVA? Gehen Sie in Ihrer Antwort explizit ein auf Besonderheiten bei der Berechnung der Freiheitsgrade.

A

Ipsative Daten = Mittelwerte aller Probanden sind 0, da die Veränderungen innerhalb der Probanden interessieren.
Im Gegensatz zur ANOVA für unabhängige Stichproben muss wegen der Umwandlung in ipsative Daten für jeden Probanden ein df abgezogen werden, da der jeweilige Probanden-Mittelwert auf 0 fixiert wurde und dadurch je ein Wert weniger variieren kann.
(k-1)*(n-1) k = Anzahl Gruppen, n = Anzahl der Messwerte pro Gruppe

95
Q

Welcher Zusammenhang besteht zwischen dem F-Bruch und η2? Beschreiben Sie außerdem kurz den Zusammenhang zu ω2.

A
  • F-Bruch: Varianz zwischen Gruppen im Verhältnis zur Varianz innerhalb der Gruppen (Treatmentvarianz/Fehlervarianz)
  • Eta2 als Varianzaufklärung: Anteil der Treatmentquadratsumme an Totaler Quadratsumme
  • Omega: ähnlich, aber besserer Populationsschätzer Eta2
  • etwas kleiner als Eta2, da weniger biased
  • auch Anteil der Treatmentquadratsumme an Totaler Quadratsumme, aber MS Error und k geht noch mit ein
96
Q

Welche Faktoren beeinflussen (in welcher Richtung) die Teststärke, und was bedeutet es, wenn die Teststärke gering ist?

A
  • Alpha größer (H0 schneller abgelehnt)
  • Reale Unterschied zwischen den Populationen größer (Effektgröße)
  • Stichprobe ist größer (n) (Standardfehler dadurch kleiner)
  • Merkmalsstreuung kleiner
  • Abhängig vom Testverfahren (Intervallskalenniveau-Tests teststärker als auf Ordinal- o. Nominalskalenniveau)
97
Q

Welche zusätzliche Annahme wird bei einer ANOVA für abhängige (im Vergleich zu unabhängigen) Stichproben gemacht? Wie gehen Sie vor, wenn diese Annahme verletzt ist?

A

• zusätzliche Annahme der ANOVA mit Messwiederholung:

  • Sphärizität (Varianzen aller möglicher Treatmentdifferenzen gleich)
  • z.B. die Varianz der morgens-mittags, morgens-abends und mittags- abends-Differenzen gleich (Tests: z.B. Levene oder Mauchly, s. SPSS)
  • bei Verletzung (Mauchly-Test signifikant) gibt SPSS korrigierte df- und p-Werte aus (z.B. Greenhouse-Geisser)
98
Q

Nennen Sie drei mögliche post hoc-Tests und beschreiben Sie diese kurz aufgrund ihrer Unterschiede.

A

LSD (Least significant difference): keine Kontrolle des Fehlers 1. Art, deshalb zu liberal
Bonferroni und Tukey: sehr strenge Kontrolle des Fehlers 1. Art, zu geringe Teststärke, deshalb zu konservativ. Bei wenigen Paarvergleichen hat Bonferroni mehr Teststärke, bei vielen Paarvergleichen hat Tukey mehr Teststärke
Tamhane-T2, Dunnett-T3, Dunnett-C: robust bei ungleichen Varianzen, aber zu konservativ.

99
Q

Warum wird das Konfidenzintervall für einen vorhergesagten Y-Wert bei einer Regression größer, je mehr man zu den Rändern des Wertebereichs von X kommt?

A

Weil sich bei Annahme der Normalverteilung die meisten Werte im mittleren Wertebereich befinden (Vorhersage wird mit größerem KI unsicherer).

100
Q

Was ist der Unterschied zwischen einer ordinalen und einer disordinalen Interaktion? Verwenden Sie bei ihrer Antwort den Begriff „einfacher Haupteffekt“ (EHE, simple effect)?

A

Bei der ordinalen Interaktion sind die Haupteffekte beider Faktoren global interpretierbar, bei einer disordinalen dagegen ist keiner der Haupteffekte global interpretierbar.

101
Q

Was muss man bei der Berechnung des Mittelwerts mehrerer Korrelationen beachten?

A

• Vorgehen (bei gleichgroßen Stichproben):
1. Fishers z-Werte aufgrund der r bilden
- z = 0,5*ln((1+r)/(1-r))
Achtung: das sind keine normalen z-Werte, deswegen nennt z.B. Howell sie r‘ (s. Tabelle im Appendix)!
2. arithmetisches Mittel der z-Werte berechnen
3. Rücktransformieren
r=(e2z-1)/(e2z+1)
- Korrektur bei ungleichen Stichproben s. z.B. Bortz, 2004

102
Q

Warum ändert sich bei der ANOVA für abhängige Stichproben die Freiheitsgradberechnung im Vergleich zur ANOVA für unabhängige Stichproben?

A

Im Gegensatz zur ANOVA für unabhängige Stichproben muss wegen der Umwandlung in ipsative Daten für jeden Probanden ein df abgezogen werden, da der jeweilige Probanden-Mittelwert auf 0 fixiert wurde und dadurch je ein Wert weniger variieren kann.

103
Q

Beschreiben Sie mindestens drei Probleme bei der Berechnung/ Interpretation einer Korrelation.

A
  • Keine Aussage über Kausalbeziehungen
  • Unresistent ggü. Nichtlinearen Transformationen einer/beider Variablen
  • Nur linearer Zusammenhang wird „zugelassen“ (Parabelbeziehung würde z.B. r=0 ergeben)
104
Q

Erläutern Sie die Verbindung zwischen r2 und η2.

A

Ist der Determinationskoeffizient r2 als Gütemaß der linearen Regression groß, deutet das ebenfalls auf ein großes Eta-Quadrat hin (Effektstärke für ANOVAs).

105
Q

Erläutern Sie das Vorgehen und die inhaltliche Bedeutung beim Hypothesentesten mit r.

A

Die Stichprobenkennwerteverteilung von Korrelationen ist bei unendlich großem N normalverteilt und bei kleinerem N t-verteilt mit df = N – 2
Bei einem signifikanten Zusammenhang zwischen z.B. zwei Testwerten wird H0 verworfen.

106
Q

Erläutern Sie mögliche Selektionsfehler in der Datenerhebung und deren Auswirkung auf entsprechende Korrelationen. Veranschaulichen Sie Ihre Erläuterungen graphisch.

A
  • Ausreißer (v.A. bei kleiner Stichprobe) – Korrelation verringert sich!
  • Unterbrochene Verteilung (Extremgruppen überschätzen einen Zusammenhang) – Korrelation wird überschätzt!
  • Eingeschrängte Variationsbreite – Korrelation wird unterschätzt!
  • Heterogene Untergruppen – ???????????????????
107
Q

Wann verwenden sie einen t-Test für abhängige und wann für unabhängige Stichproben? Nennen sie jeweils zwei Beispiele und begründen sie.

A

Abhängige Stichproben: Konzentrationstest vor und nach Mittagsschlaf
Zufriedenheitsrating vor und nach Urlaub
Unabhängige Stichproben: Multitasking Männer vs. Frauen
Lungenkapazitätstest Raucher vs. Nichtraucher

108
Q

Wann verwendet man einseitige, wann zweiseitige t-Tests?

A

Einseitige t-Tests: Vorzeichen der potentiellen Differenz in den Mittelwerten ist bekannt (gerichtete Fragestellung)
• Mittelwert im Bereich der höchsten ODER niedrigsten zu erwartenden Mittelwerten unter Annahme der H0?
• Ermitteln des 5% höchsten ODER niedrigsten z-Wertes
Zweiseitige t-Tests: Vorzeichen der potentiellen Differenz in den Mittelwerten ist unbekannt (ungerichtete Fragestellung)
• Mittelwert im Bereich der EXTREMSTEN zu erwartenden Mittelwerte unter Annahme der H0?
• Ermitteln der 2.5% niedrigsten UND höchsten z-Werte

109
Q

Welche Fehlertypen gibt es und was beschreiben sie jeweils?

A

Alpha-Fehler/Type 1 Fehler: Wahrscheinlichkeit, H0 fälschlicherweise abzulehnen obwohl sie gilt
Beta-Fehler/Type 2 Fehler: Wahrscheinlichkeit, H0 fälschlicherweise beizubehalten obwohl sie nicht gilt

110
Q

Wie verändert sich ihre Teststärke wenn sie den Stichprobenumfang verändern? Warum?

A

Die Teststärke nimmt mit steigenden Stichprobenumfang zu, weil der Standardfehler kleiner wird.

111
Q

Wie hängen Teststärke und α-Niveau zusammen?

A

Die Teststärke nimmt zu, wenn das Alpha-Niveau zunimmt (weil die H0 schneller abgelehnt wird).

112
Q

Gibt es einen Zusammenhang zwischen α- und β- Fehler?

A

Je kleiner der α-Fehler in einer Untersuchung ist, umso seltener wird fälschlicherweise die Nullhypothese abgelehnt – allerdings steigt dann die Wahrscheinlichkeit, zu Unrecht die Nullhypothese anzunehmen und die Alternativhypothese abzulehnen (β-Fehler). Man kann jedoch aus der Größe des Alpha-Fehlers nicht direkt die Größe des Beta-Fehlers ableiten, ebenso wenig wie andersherum. Die beiden Fehlerarten werden unabhängig voneinander und mit verschiedenen Methoden bestimmt. Die Größe des Alpha-Fehlers wird durch das Signifikanzniveau kontrolliert, die Größe des Beta-Fehlers richtet sich nach der H1.

113
Q

Die Teststärke wird nur manchmal durch die Merkmalsstreuung beeinflusst! Stimmt diese Aussage, warum, warum nicht?

A

Nein, die Teststärke wird immer von der Merkmalsstreuung beeinflusst (größer, wenn Merkmalsstreuung kleiner ist)
Berechnung der Teststärke hängt von der Streuung ab, da je größer sigma um so kleiner d um so kleiner die Teststärke

114
Q

Intelligenz und Schuhgröße korrelieren mit einem Korrelationskoeffizienten von +1.78. Ist diese Aussage sinnvoll? Bitte begründen Sie Ihre Entscheidung.

A

Die Schuhgröße könnte konfundiert sein durch z.B. Körpergröße und demnach auch das Alter der Probanden. Rein inhaltlich ist nicht augenscheinlich ersichtlich, inwiefern es sinnvoll ist einen solchen korrelativen Zusammenhang zu beschreiben.

115
Q

Wo liegt der Unterschied zwischen two-way ANOVAS und einem 4-Felder-Chi-Quadrat Test?

A

Chi Quadrat wird genutzt, um zwei kategoriale Variablen (z.B. Geschlecht und Raucher ja/nein), um festzustellen ob die eine Variable mit der anderen zusammenhängt oder nicht. Bei einer ANOVA gibt es 2 Gruppen oder mehr, bei der eine Variable kategorial sein muss und die andere kontinuierlich (z.B. Marijuanagebrauch bei Klassenzugehörigkeit – 9. Klasse, 10. Klasse, 11. Klasse, u.s.w.)

116
Q

Braucht man ANOVAs überhaupt? Bitte Begründen sie Ihre Antwort!

A

Ja, um der Alpha-Fehler Kummulierung bei multiplen t-Tests vorzubeugen.

117
Q

Was bedeutet Quadratsummenzerlegung?

A

Es wird Vorstufe der Varianz (Sum of Squares) berechnet.
SStotal = SSbetween + SSwithin.
SS between lässt sich auf die Mittelwertsunterschiede zurückführen, also auf die Variation der unabhängigen Variablen,
SSwithin ist die Fehlervarianz, Messfehler, nicht erklärbar.
Quadratsumme aus (individueller Wert - Mittelwert) für alle Variablen.

118
Q

Beschreiben sie die Grundidee des F-Tests. Welche Rolle spielen dabei MS, df und QS?

A

Entscheidung für einen Gruppenunterschied, wenn Varianz zwischen Gruppen im Verhältnis zur Varianz innerhalb der Gruppen bedeutsam größer ist (F-Bruch).
Dieser wird Konstruiert durch Quadratsummenzerlegung (QS), Freiheitsgradbestimmung (df) und den Vergleich des Werts mit der F-Tabellierung (Verteilung F wenn H0 wahr).

119
Q

Was bedeutet Fehlerkumulierung? Bitte geben sie ein Beispiel.

A

Wenn ich eine einzige Hypothese mit zwei unabhängigen Tests mit je α = 0,05 teste (error rate per comparison: α‘), beträgt meine Gesamtfehlerwahrscheinlichkeit (familywise error: FW) zur Beurteilung der Hypothese 0,0975 (und nicht mehr 0,05)!

120
Q

Wie hängen α-Fehlerkumulierung und α-Adjustierung zusammen.

A

damit FW beim festgelegten Niveau bleibt, müssen die einzelnen Tests bei entsprechend kleinerem (adjustierten) α durchgeführt werden, z.B. αadj = FW/c (nach Bonferroni)

121
Q

Warum berechnet man geplante Kontraste?

A

Um zusätzlich Gruppen von Mittelwerten miteinander zu vergleichen, z.B. M1 sich von der „kombinierten“ Gruppe (M2 und M3) unterscheidet.
Grundidee: Erstellen einer Linearkombination ( : „psi“) der Mittelwerte, in der die einzelnen Mittelwerte mit sog. Kontrastkoeffizienten gewichtet werden, wobei die Summe der Koeffizienten Null ergeben sollte ( )

• Kontraste können orthogonal oder nicht-orthogonal sein: Kontraste die orthogonal sind, bezeichnet das es Tests sind die statistisch unabhängig sind.
• Zwei Kontraste sind orthogonal, wenn die Summe der Produkte ihrer Koeffizienten Null ist:
• (es können numerisch beliebige Werte gewählt werden, solange sie null ergeben)
• Abhängig davon wieviele Gruppen man definiert hat, kann eine bestimmte Anzahl an orthogonalen Kontrasten definiert werden (k-1 orthogonale Kontraste) (k=Anzahl der Gruppen)
• Beispiel: 3 Gruppen = 2 orthogonale Kontraste (man kann auch andere Kontraste formulieren, diese sind aber dann nicht orthogonal)
geplante Kontraste: Wahl der Koeffizienten z.B. bei 5 Mittelwerten die ersten 3 mit den letzten beiden vergleichen (1/3M1 + 1/3M2 + 1/3M3 - 1/2M4 - 1/2*M5); Summe der Kontrastkoeffizienten muss immer 0 sein.
• orthogonale Kontraste (unabhängig): z.B. bei 5 Mittelwerten; besondere Form der Wahl mehrerer Linearkombinationen, insgesamt: Anzahl Gruppen – 1 (= df treat)

122
Q

Wann würden sie eine multifaktorielle ANOVA berechnen?

A

Um z.B. Interaktionen zu beurteilen (könnte man nicht bei 2 einfaktoriellen ANOVAs), für eine höhere Generalisierbarkeit (z.B. Medikamentenwirkung bei Frauen UND Männern) und wenn ökonomisch gearbeitet werden soll.