FB 1 und 2 Flashcards
Schritte der Hypothesenprüfung
-1: Hypothesen (Null- und Alternativhypothese) aus präziser Fragestellung (Menge der relevanten Variablen muss erkennbar sein) ableiten
-2: Signifikanzniveau festlegen i.d.R. 5%
Effektgröße, a- und ß-Fehler bestimmen, um optimalen Stichprobenumfang zu berechnen
-3: Skalenniveau der abhängigen Variablen und Stichprobenart festlegen (abhängig/unabhängig)
-4: Daten erheben
-5: Auswahl des Testverfahrens (Leitfragen) und Kennwerte berechnen
-6: Signifikanztest (p<a-->H0 verwerfen und H1 annehmen)
-7: Effektgröße und Teststärke berechnen</a-->
Leitfragen Testauswahl
-1: Welches Skalenniveau weist die abhängige Variable auf? Nominal-, Ordinal- oder Intervallskalenniveau?
-2: Die Kennwerte der zentralen Tendenz aus wie vielen Stichproben sollen miteinander verglichen werden? Eine, zwei oder mehr?
-3: Wurden die Kennwerte aus voneinander anhängigen oder unabhängigen Stichproben erhoben?
-4: Wie groß sind die einzelnen Stichproben? Wie viele Personen werden pro Gruppe untersucht?
–> Bleiben mehrere Testverfahren übrig, wird das teststärkste ausgewählt
Einfluss auf Teststärke
-1: je höher a- Niveau
-2: Je höher Stichprobenumfang
-3: Je niedriger ß-Fehler, 1-ß
-4: einseitige Testung höher als zweiseitige
-5: abhängige Stichprobe höher als unabhängige
-6: Je mehr Voraussetzungen an Merkmalsverteilung (wie Normalverteilung und Varianzhomogenität)
-7: Je höher Infogehalt des statistischen Testverfahrens (Häufigkeiten, Rangdaten, Intervallskalenniveau)
-8: Je größer statistischer Effekt
-9: Je niedriger Freiheitsgrad
Teststärke
- Trennschärfe. Power
- Wahrscheinlichkeit, einen in Population vorhandenen Unterschied bei statistischer Testung zu finden bzw. richtigerweise H1 auszuwählen
- Definiert über (1-ß) da gegenläufig zum ß-Fehler
Nullhypothese
- auch Negativhypothese, H0
- es liegt kein Zusammenhang/Unterschied in Population vor oder Unterschied durch Zufall
- Basis zur Bewertung der Mittelwertdifferenzen oder Zusammenhänge
- Bei Ablehnung wird H1 genommen, da komplementär
- Beide Hypothesen schließen sich gegenseitig aus
Alternativhypothese
- auch Positivhypothese, H1
-es liegt Zusammenhang/Unterschied in Population vor - aus Theoriegebäude, Vorstudien oder Literatur abgeleitet
- gerichtet oder ungerichtet
- Gerichtet:
Richtung (positiv/negativ) eines Mittelwertsunterschieds ist bekannt
Theoretische Vorüberlegungen/Voruntersuchungen notwendig
Theoriegeleitete Vorgehensweise–> wissenschaftlich
a Niveau nur auf positiver/negativer Seite einer Verteilung, verringert kritischen Wert, H0 wird eher verworfen
–>teststärker
Einseitige Testung bei der Mittelwertsdifferenzen schneller signifikant werden - Ungerichtet:
Richtung des Mittelwertsunterschied ist unbekannt
Keine Vorüberlegungen notwendig, da nur Unterschied/Zusammenhang geprüft wird–> explorativ
a Niveau auf beiden Seiten der Verteilung, erhöht kritischen Wert, H0 wird später verworfen
–>weniger teststark
a-Niveau
- Irrtumswahrscheinlichkeit (Höhe des Risikos einen Fehler zu machen)
- muss a priori festgelegt werden, Veränderungen im Nachhinein unwissenschaftlich
- Fläche unter einer Theoretischen Verteilung (meistens 5%)
- Grenzwert zum Konfidenzintervall (Annahme-/Ablehnungsbereich)
- Liegt der ermittelte Kennwert außerhalb des Intervalls wird H0 verworfen
- nach Bortz: 0,05% signifikant, 0,01% hochsignifikant, 0,001% höchst signifikant
a-Fehler und ß-Fehler
- a-Fehler
Ablehnung der richtigen Nullhypothese bei geltender Nullhypothese
Fehler erster Art
Bsp: Feuermelder löst Alarm aus, obwohl es nicht brennt
-ß-Fehler
Beibehaltung der falschen Nullhypothese bei geltender Alternativhypothese
Fehler zweiter Art
Bsp: Feuermelder löst keinen Alarm aus, obwohl es brennt
–> Entscheidung fällen was schlimmere Konsequenzen hätte
Einflussfaktoren ß-Fehler
-1: Je höher a-Niveau desto niedriger
-2: bei einseitiger Testung niedriger als bei zweiseitiger
-3: bei Homogenität der Merkmalsverteilung (Streuung des Merkmals) also geringerer Streuung niedriger
je höher Stichprobengröße desto niedriger
-4: je höher statistischer Effekt, desto niedriger
Studien so planen das es zu messbarem Effekt kommt
wenn erwartet wird das dieser gering ist muss Stichprobe erhöht werden
-5: bei abhängiger Stichprobe niedriger als bei unabhängiger
-6: Je höher Teststärke und Skalenniveau desto geringer (1-ß)
Erklärung Optimaler Stichprobenumfang
- bei zu kleiner Stichprobe wird Effekt (Effektgröße) nicht abgesichert
- bei zu großer Stichprobe werden unbedeutende Effekte signifikant
- es gibt Mindestgröße: je größer desto besser die Generalisierung von Stichprobe auf Bevölkerung
- je weniger Testpersonen desto weniger Zeit und Geld Aufwand
- wird berechnet mithilfe von: a priori ermitteltem a- und ß-Fehler, erwarteter Effektgröße mit z.B. Statistikprogramm G-Power, Cohens Tabellenwerk
Einflüsse Optimaler Stichprobenumfang
- je niedriger a- und ß-Fehler desto höher Stcihprobenumfang
- Effektgröße 0,2 Stichprobenumfang höher, bei 0,8 niedriger
parametrische Verfahren
- viele Voraussetzungsannahmen: wenn diese erfüllt sehr guter Schätzer (teststark), wenn nicht, schlechter Schätzer (nicht robust)
- schnell und einfach
- Variablen müssen mindestens intervallskaliert und normalverteilt sein
- brauchen theoretische Prüfverteilung (meistens Normalverteilung, um Signifikanz eines statistischen Kennwerts zu prüfen
nicht-parametrische Verfahren
- Verteilungsfreie Verfahren, brauchen keine theoretische Prüfverteilung
- Variablen nominal oder ordinalskaliert
- Testschwächer
- benötigen größeren Stichprobenumfang bei Finden eines identischen Effekts als parametrische Verfahren
Restriction of Range
- Künstliche Variationsbeschränkung (oft bei Hochbegabten Studie)
- Selektionsfehler bei Stichprobenziehung (Ziehung vieler Extremwerte)
- Stichproben- , sowie Populationskorrelation wird unterschätzt–> je kleiner Korrelation, desto größer Unterschätzung
- Entstehung von Decken- und Bodeneffekten
Regressionseffekt
- Tendenz zur Mitte–> Es ist wahrscheinlicher dem Durchschnitt zu entsprechen, als Extremwerte zu erreichen
- Wenn bei 1. Messung extrem niedrige/hohe Werte, bei 2. Messung höchstwahrscheinlich durchschnittlichere Werte
- In Interpretation mit einbeziehen oder komplett vermeiden
- Bsp: Therapie von extrem Depressiven, nach Therapie besser. Tendenz zur Mitte oder Wirkung von Therapie?
Standardabweichung
- Wurzel aus Varianz
- Maß für die Streuung von Werten um Mittelwert
- Schätzt bei normalverteilten Variablen den Populationsparameter der die Breite der Verteilung steuert
Standardschätzfehler
- Wurzel aus MSwithin
- Streuung der wahren y-Werte um die Regressionsgerade, identisch mit Streuung der Regressionsresiduen
- Maß für Güte der Regressiongeraden
- je kleiner der Standardschätzfehler, desto präziser die Vorhersage
- Standardschätzfehler wird oft unterschätzt
- unabhängig von der Stichprobengröße–> bei größeren Stichproben wird nur die Schätzung besser
Einflüsse auf Standardschätzfehler
-1: Je größer die Streuung des Kriteriums, desto höher
-2: Je größer die Korrelation zwischen Prädiktor und Kriterium desto niedriger
-3: Je größer die Streuung des Prädiktors desto niedriger
Effektgröße
- Differenz zwischen zwei Mittelwerten, an der Streuung relativiert (standardisiert)
- Feststellung ob statistischer Effekt auch eine praktische Relevanz hat
- Cohens d
- Je nach genutzter Streuung verändert sich der Effekt:
Prä-Streuung der Stichprobe
Prä-Streuung der Kontrollgruppe
Prä-Streuung der Gesamtgruppe
Prä-Post-Streuung der jeweiligen Gruppen
Prä-Post Differenz mit Korrektur
Prä-post Differenz ohne Korrektur
df
- degree of freedom
- Anzahl der frei wählbaren Werte zur Berechnung eines statistischen Kennwerts
- Stichprobenanzahl reduziert um den als bekannt vorausgesetzten Kennwert (N-1)