FB 1 und 2 Flashcards

1
Q

Schritte der Hypothesenprüfung

A

-1: Hypothesen (Null- und Alternativhypothese) aus präziser Fragestellung (Menge der relevanten Variablen muss erkennbar sein) ableiten
-2: Signifikanzniveau festlegen i.d.R. 5%
Effektgröße, a- und ß-Fehler bestimmen, um optimalen Stichprobenumfang zu berechnen
-3: Skalenniveau der abhängigen Variablen und Stichprobenart festlegen (abhängig/unabhängig)
-4: Daten erheben
-5: Auswahl des Testverfahrens (Leitfragen) und Kennwerte berechnen
-6: Signifikanztest (p<a-->H0 verwerfen und H1 annehmen)
-7: Effektgröße und Teststärke berechnen</a-->

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Leitfragen Testauswahl

A

-1: Welches Skalenniveau weist die abhängige Variable auf? Nominal-, Ordinal- oder Intervallskalenniveau?
-2: Die Kennwerte der zentralen Tendenz aus wie vielen Stichproben sollen miteinander verglichen werden? Eine, zwei oder mehr?
-3: Wurden die Kennwerte aus voneinander anhängigen oder unabhängigen Stichproben erhoben?
-4: Wie groß sind die einzelnen Stichproben? Wie viele Personen werden pro Gruppe untersucht?

–> Bleiben mehrere Testverfahren übrig, wird das teststärkste ausgewählt

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Einfluss auf Teststärke

A

-1: je höher a- Niveau
-2: Je höher Stichprobenumfang
-3: Je niedriger ß-Fehler, 1-ß
-4: einseitige Testung höher als zweiseitige
-5: abhängige Stichprobe höher als unabhängige
-6: Je mehr Voraussetzungen an Merkmalsverteilung (wie Normalverteilung und Varianzhomogenität)
-7: Je höher Infogehalt des statistischen Testverfahrens (Häufigkeiten, Rangdaten, Intervallskalenniveau)
-8: Je größer statistischer Effekt
-9: Je niedriger Freiheitsgrad

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Teststärke

A
  • Trennschärfe. Power
  • Wahrscheinlichkeit, einen in Population vorhandenen Unterschied bei statistischer Testung zu finden bzw. richtigerweise H1 auszuwählen
  • Definiert über (1-ß) da gegenläufig zum ß-Fehler
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Nullhypothese

A
  • auch Negativhypothese, H0
  • es liegt kein Zusammenhang/Unterschied in Population vor oder Unterschied durch Zufall
  • Basis zur Bewertung der Mittelwertdifferenzen oder Zusammenhänge
  • Bei Ablehnung wird H1 genommen, da komplementär
  • Beide Hypothesen schließen sich gegenseitig aus
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Alternativhypothese

A
  • auch Positivhypothese, H1
    -es liegt Zusammenhang/Unterschied in Population vor
  • aus Theoriegebäude, Vorstudien oder Literatur abgeleitet
  • gerichtet oder ungerichtet
  • Gerichtet:
    Richtung (positiv/negativ) eines Mittelwertsunterschieds ist bekannt
    Theoretische Vorüberlegungen/Voruntersuchungen notwendig
    Theoriegeleitete Vorgehensweise–> wissenschaftlich
    a Niveau nur auf positiver/negativer Seite einer Verteilung, verringert kritischen Wert, H0 wird eher verworfen
    –>teststärker
    Einseitige Testung bei der Mittelwertsdifferenzen schneller signifikant werden
  • Ungerichtet:
    Richtung des Mittelwertsunterschied ist unbekannt
    Keine Vorüberlegungen notwendig, da nur Unterschied/Zusammenhang geprüft wird–> explorativ
    a Niveau auf beiden Seiten der Verteilung, erhöht kritischen Wert, H0 wird später verworfen
    –>weniger teststark
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

a-Niveau

A
  • Irrtumswahrscheinlichkeit (Höhe des Risikos einen Fehler zu machen)
  • muss a priori festgelegt werden, Veränderungen im Nachhinein unwissenschaftlich
  • Fläche unter einer Theoretischen Verteilung (meistens 5%)
  • Grenzwert zum Konfidenzintervall (Annahme-/Ablehnungsbereich)
  • Liegt der ermittelte Kennwert außerhalb des Intervalls wird H0 verworfen
  • nach Bortz: 0,05% signifikant, 0,01% hochsignifikant, 0,001% höchst signifikant
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

a-Fehler und ß-Fehler

A
  • a-Fehler
    Ablehnung der richtigen Nullhypothese bei geltender Nullhypothese
    Fehler erster Art
    Bsp: Feuermelder löst Alarm aus, obwohl es nicht brennt

-ß-Fehler
Beibehaltung der falschen Nullhypothese bei geltender Alternativhypothese
Fehler zweiter Art
Bsp: Feuermelder löst keinen Alarm aus, obwohl es brennt

–> Entscheidung fällen was schlimmere Konsequenzen hätte

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Einflussfaktoren ß-Fehler

A

-1: Je höher a-Niveau desto niedriger
-2: bei einseitiger Testung niedriger als bei zweiseitiger
-3: bei Homogenität der Merkmalsverteilung (Streuung des Merkmals) also geringerer Streuung niedriger
je höher Stichprobengröße desto niedriger
-4: je höher statistischer Effekt, desto niedriger
Studien so planen das es zu messbarem Effekt kommt
wenn erwartet wird das dieser gering ist muss Stichprobe erhöht werden
-5: bei abhängiger Stichprobe niedriger als bei unabhängiger
-6: Je höher Teststärke und Skalenniveau desto geringer (1-ß)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Erklärung Optimaler Stichprobenumfang

A
  • bei zu kleiner Stichprobe wird Effekt (Effektgröße) nicht abgesichert
  • bei zu großer Stichprobe werden unbedeutende Effekte signifikant
  • es gibt Mindestgröße: je größer desto besser die Generalisierung von Stichprobe auf Bevölkerung
  • je weniger Testpersonen desto weniger Zeit und Geld Aufwand
  • wird berechnet mithilfe von: a priori ermitteltem a- und ß-Fehler, erwarteter Effektgröße mit z.B. Statistikprogramm G-Power, Cohens Tabellenwerk
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Einflüsse Optimaler Stichprobenumfang

A
  • je niedriger a- und ß-Fehler desto höher Stcihprobenumfang
  • Effektgröße 0,2 Stichprobenumfang höher, bei 0,8 niedriger
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

parametrische Verfahren

A
  • viele Voraussetzungsannahmen: wenn diese erfüllt sehr guter Schätzer (teststark), wenn nicht, schlechter Schätzer (nicht robust)
  • schnell und einfach
  • Variablen müssen mindestens intervallskaliert und normalverteilt sein
  • brauchen theoretische Prüfverteilung (meistens Normalverteilung, um Signifikanz eines statistischen Kennwerts zu prüfen
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

nicht-parametrische Verfahren

A
  • Verteilungsfreie Verfahren, brauchen keine theoretische Prüfverteilung
  • Variablen nominal oder ordinalskaliert
  • Testschwächer
  • benötigen größeren Stichprobenumfang bei Finden eines identischen Effekts als parametrische Verfahren
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Restriction of Range

A
  • Künstliche Variationsbeschränkung (oft bei Hochbegabten Studie)
  • Selektionsfehler bei Stichprobenziehung (Ziehung vieler Extremwerte)
  • Stichproben- , sowie Populationskorrelation wird unterschätzt–> je kleiner Korrelation, desto größer Unterschätzung
  • Entstehung von Decken- und Bodeneffekten
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Regressionseffekt

A
  • Tendenz zur Mitte–> Es ist wahrscheinlicher dem Durchschnitt zu entsprechen, als Extremwerte zu erreichen
  • Wenn bei 1. Messung extrem niedrige/hohe Werte, bei 2. Messung höchstwahrscheinlich durchschnittlichere Werte
  • In Interpretation mit einbeziehen oder komplett vermeiden
  • Bsp: Therapie von extrem Depressiven, nach Therapie besser. Tendenz zur Mitte oder Wirkung von Therapie?
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Standardabweichung

A
  • Wurzel aus Varianz
  • Maß für die Streuung von Werten um Mittelwert
  • Schätzt bei normalverteilten Variablen den Populationsparameter der die Breite der Verteilung steuert
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Standardschätzfehler

A
  • Wurzel aus MSwithin
  • Streuung der wahren y-Werte um die Regressionsgerade, identisch mit Streuung der Regressionsresiduen
  • Maß für Güte der Regressiongeraden
  • je kleiner der Standardschätzfehler, desto präziser die Vorhersage
  • Standardschätzfehler wird oft unterschätzt
  • unabhängig von der Stichprobengröße–> bei größeren Stichproben wird nur die Schätzung besser
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Einflüsse auf Standardschätzfehler

A

-1: Je größer die Streuung des Kriteriums, desto höher
-2: Je größer die Korrelation zwischen Prädiktor und Kriterium desto niedriger
-3: Je größer die Streuung des Prädiktors desto niedriger

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Effektgröße

A
  • Differenz zwischen zwei Mittelwerten, an der Streuung relativiert (standardisiert)
  • Feststellung ob statistischer Effekt auch eine praktische Relevanz hat
  • Cohens d
  • Je nach genutzter Streuung verändert sich der Effekt:
    Prä-Streuung der Stichprobe
    Prä-Streuung der Kontrollgruppe
    Prä-Streuung der Gesamtgruppe
    Prä-Post-Streuung der jeweiligen Gruppen
    Prä-Post Differenz mit Korrektur
    Prä-post Differenz ohne Korrektur
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

df

A
  • degree of freedom
  • Anzahl der frei wählbaren Werte zur Berechnung eines statistischen Kennwerts
  • Stichprobenanzahl reduziert um den als bekannt vorausgesetzten Kennwert (N-1)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Vier Elemente der statistischen Signifikanzprüfung

A

-1: Signifikanzniveau (a)
-2: ß-Fehler (und Teststärke 1-ß)
-3: Effektgröße
-4: Stichprobenumfang

22
Q

Lineare Regression

A
  • Ziel: Vorhersage einer Variablen y (Kriterium) durch eine Variable x (Prädiktor), die mit der Variablen y korreliert ist
  • Lineare Regression geht von einem linearen Zusammenhang zwischen Prädiktor und Kriterium aus–> vorausgesagte (geschätzte) Werte auf geraden darstellbar
  • je größer linearer Zusammenhang (Korrelation), desto sicherer Vorhersage
23
Q

Kleinste Quadrate Kriterium

A
  • Vorhersagefehler: Abweichung der tatsächlichen y-Werte von vorhergesagten y-Werten
  • kleine Abweichungen vom wahren Wert fallen für Schätzung weniger ins Gewicht–> Abweichungen werden quadriert, so dass starke Abweichung stärker berücksichtigt werden
  • Regressionsgerade=Gerade, bei welcher die Summe der quadrierten Vorhersagefehler minimal ist
24
Q

Voraussetzungen der linearen Regression

A

-1: Linearität
-2: Regressionsresiduen sind unabhängig und normalverteilt
-3: Prädiktor und Kriterium sind intervallskaliert
-4: Homoskedastizität
-5: Abwesenheit von einflussreichen Beobachtungen

25
Q

Kreuzvalidierung

A
  • Entweder Prüfung zwei natürlicher Stichproben oder zwei künstlicher Teilstichproben
  • Überprüfung der externen Validität einer empirisch ermittelten Regressionsgleichung durch Übertragung dieser von der ersten auf die zweite Stichprobe
26
Q

Schritte der Kreuzvalidierung

A

-1: Berechnung einer Regressionsgleichung anhand der Daten der 1. Stichprobe
-2: Anwendung der Regressionsgleichung zur Vorhersage in der 2. Stichprobe
-3: Vergleich von vorhergesagten mit wahren y-Werten
-4: Umgekehrte Wiederholung von Schritt 1-3

27
Q

einfaktorielle Varianzanalyse mit festen Effekten

A
  • Abhängige Variable: eine intervallskalierte Variable
  • Unabhängige Variable: eine nominalskalierte Variable mit mindestens 2 Stufen
  • Prinzip: t-Test für unabhängige Stichproben wird auf mehr als zwei Gruppen ausgeweitet–> Analyse, ob sich Mittelwerte dieser Gruppen (Faktorstufen) signifikant unterscheiden
28
Q

mehrfaktorielle Varianzanalyse mit festen Effekten

A
  • Abhängige Variable: Eine intervallskalierte Variable
  • Unabhängige Variable: Mehrere nominalskalierte Variablen mit mindestens 2 Stufen
  • Prinzip: Ausbau der einfaktoriellen Varianzanalyse mit festen Effekten–> Analyse, ob sich Mittelwerte dieser Gruppen signifikant unterscheiden
  • Suche nach Unterschieden bzgl. des ersten (Haupteffekt 1) und zweiten Faktors (Haupteffekt 2)
  • Zusätzlich: Möglichkeit, den Einfluss von Kombinationen beider unabhängiger Variablen zu untersuchen
29
Q

Varianzanalyse mit Messwiederholung

A
  • Abhängige Variable: intervallskalierte Variable, welche bei den Probanden mehrmals erhoben wird
  • Unabhängige Variable: nominalskalierte Variable mit mindestens zwei Stufen, welche die Messzeitpunkte beschreibt
  • Prinzip: Ausweitung des t-Test für abhängige Stichproben auf mehr als zwei Messzeitpunkte–> abhängige Variable muss mehrfach bei einem Probanden erhoben werden
30
Q

Voraussetzungen der ein- und zweifaktoriellen Varianzanalyse

A

-1: Mindestens Intervallskalenniveau und Normalverteilung innerhalb der Stichproben bei der abhängigen Variablen
-2: Mindestens 20 Elemente pro Stichprobe (Gruppe, Zelle)
-3: Ähnlich stark besetzte Gruppen (Zellen)–> die größte Gruppe darf nicht größer als das 1.5-fache der kleinsten Gruppe sein
-4: Varianzhomogenität der abhängigen Variablen zwischen den einzelnen Stichproben

31
Q

Schritte der Varianzanalyse

A

-1: Bestimmung von SSbetween und SSwithin
-2: Berechnung von MSbetween und MSwithin
-3: Durchführung des F-Tests: F=MSbetween geteilt durch MSwithin
-4: Signifikanzprüfung durch einen Vergleich des beobachteten F-Werts mit dem kritischen F-Wert aus einer Tabelle

32
Q

Post-hoc-Test

A
  • Führen Mittelwertsvergleiche bei signifikantem F-Test mit mindestens 2 Gruppen durch
  • Anwendung nur bei ungerichteten Hypothesen
  • Durchführung immer a posteriori
  • post-hoc formuliert
  • exploratives Vorgehen zum Generieren neuer Hypothesen
  • uneingeschränkte Anzahl von Mittelwertsvergleichen
  • weniger teststark, da a-Adjustierung wegen der abhängigen Post-hoc-Tests notwendig
33
Q

Beispiele Post-hoc-Tests

A

-1: LSD-Test
-2: Tukey-HSD-Test
-3: Peritz-Test
-4: Scheffé-Test

34
Q

Was besagt das 95% Konfidenzintervall für einen Regressionsparameter ß ?

A
  • es wird die Nullhypothese geprüft, dass die unbekannten, wahren Regressions-/ Steigungsparameter ß1 sich nicht von null unterscheidet
  • Nullhypothese lautet: H0:ß1=0–> Es liegt keine Steigung vor
  • Es liegt kein Einfluss in Grundgesamtheit vor
  • Alternativhypothese H1 lautet: ß1 ungleich 0–> es liegt eine Steigung vor
  • mit Hilfe des Standardschätzfehlers kann um jeden geschätzten Wert ein Konfidenzintervall gelegt werden, in dem mit einer Wahrscheinlichkeit von 95% der wahre y-Wert liegt
35
Q

Welchen Vorteil bietet die zweifaktorielle Varianzanalyse gegenüber der Durchführung von zwei einfaktoriellen Varianzanalysen auf demselben Datensatz?

A
  • Berechnung des Interaktionseffekts
  • Anteil der nicht erklärbaren Varianz (Fehlervarianz) kann um die auf den zweiten Faktor und auf die Interaktion zurückgehende Varianz reduziert werden
  • Faktor kann signifikant werden der in der einfaktoriellen Varianzanalyse nicht signifikant werden würde
36
Q

Interaktionsformen

A
  • Ordinale Interaktion: Beide Haupteffekte sind inhaltlich interpretierbar und möglicherweise signifikant
    Linienzüge laufen nicht parallel. Kreuzen sich aber auch nicht. Geraden haben immer denselben Trend: monoton steigend/monoton fallend
  • Hybride Interaktion: nur einer der beiden Haupteffekte ist inhaltlich interpretierbar. Linienzüge kreuzen sich oder haben eine gegenläufige Tendenz. Es handelt sich um eine Zwischenform der ordinalen und disordinalen Interaktion. Faktor der sich nicht kreuzt ist interpretierbar
  • Disordinale Interaktion: Keine der beiden Haupteffekte ist interpretierbar. Linienzüge kreuzen sich in beiden Grafiken. Hier sind keine globalen Aussagen möglich. Die Linienzüge verlaufen immer gegeneinander.
37
Q

Kontraste

A
  • die Mittelwertsvergleiche werden vor der Durchführung der Varianzanalyse hypothesengeleitet (a priori) bestimmt
  • die Summe aller Gewichte muss 0 ergeben
  • die Kontraste müssen unabhängig voneinander sein
  • bei p Gruppen gibt es nur (p-1) unabhängige Kontraste
  • a priori formuliert
  • strukturiertes, hypothesengeleitetes Vorgehen
  • teststark, da keine a-Adjustierung wegen der Kontraste notwendig
  • begrenzte Anzahl von Mittelwertsvergleichen
38
Q

z-Test

A

Der Erwartungswert in der Population, aus der die Stichprobe gezogen wurde, ist gleich groß wie ein bekannter Populationsmittelwert.

39
Q

t-Test für eine Stichprobe

A

Der Erwartungswert in der Population, aus der die Stichprobe gezogen wurde, ist gleich groß wie ein bekannter Poulationsmittelwert.

40
Q

t-Test für abhängige Stichprobe

A

Die mittlere Differenz der Messwertpaare ist auf Populationsebene gleich null.

41
Q

t-Test für heterogene und homogene Varianzen

A

Der Erwartungswert ist in der Population, aus der die 1. Stichprobe gezogen wurde, gleich groß wie der Erwartungswert in der Population, aus der die 2. Stichprobe gezogen wurde.

42
Q

Binomial-Test

A

Die mittlere Auftretenshäufigkeit in der Population, aus der die Stichprobe gezogen wurde, unterscheidet sich nicht von einem bekannten Populationsparameter.

43
Q

X2-Test

A

Die beiden nominalskalierten Variablen X und Y sind voneinander unabhängige Zufallsvariablen, d.h. es besteht kein Zusammenhang zwischen X und Y.

44
Q

McNemar

A

In einer abhängigen Stichprobe entspricht die Anzahl der Personen, welche bei einem dichotomen Merkmal von der Ausprägung A bei der zweiten Messung zu B wechseln, der Anzahl der Personen, welche von der Ausprägung B bei der zweiten Messung zu A wechseln. Somit entsprechen sich die Erwartungswerte der Zellen b und c.

45
Q

Cochran-Test

A

Die Wahrscheinlichkeit für die beiden Merkmalsausprägungen A und B eines dichotomen Merkmals ändern sich über die verschiedenen Messzeitpunkte nicht.

46
Q

Mediantest

A

Das Verhältnis der Personen, die einen Wert über dem Median haben, sowie der Personen, die einen Wert unter dem Median haben, unterscheidet sich zwischen den untersuchten Populationen nicht.

47
Q

U-Test von Mann-Whitney

A

Die Summe der Rangplätze unterscheiden sich zwischen den untersuchten Populationen nicht.

48
Q

Vorzeichentest

A

Die Anzahl der positiven Klassifizierungen (X<Y) ist gleich der Anzahl der negativen Klassifizierungen (X>Y).

49
Q

Vorzeichenrangtest von Wilcoxon

A

Die Summe der Rangplätze mit positiven Veränderungen ist auf Populationsebene gleich der Summe der Rangplätze mit negativen Veränderungen.

50
Q

H-Test von Kruskal und Wallis

A

Die Summe der Rangplätze in den untersuchten Populationen unterscheidet sich nicht.

51
Q

Friedman-Test

A

Die Summen der Rangplätze zu den verschiedenen Messzeitpunkten unterscheiden sich auf Populationsebene nicht:

52
Q

Was bedeutet Varianzhomogenität in der einfaktoriellen Varianzanalyse und wie kann diese geprüft werden?

A
  • auch homoskedastizität genannt
  • kann erst nach Berechnung der Varianzanalyse bestimmt werden
  • ist gegeben wenn Varianz in allen Gruppen etwa gleich
  • Überprüfung mit Levene-Test