Quantitative Auswertungsmethoden Flashcards
Datenaufbereitung
umfasst die Schritte und Prozeduren, mit denen die Rohdaten einer empirischen Untersuchung in eine Form gebracht werden, die eine gezielte Beantwortung der Forschungsfragen &die Überprüfung der Hypothesen mithilfe von Auswertungsverfahren erlaubt.
Ziele der Datenaufbereitung
- Daten, die noch nicht in quantitativer Form vorliegen, in Zahlenform überführen,
- diese quantitativen Daten in ein per Software analysierbares Datenformat übertragen
- die Daten so organisieren, dass sie im Hinblick auf die Fragestellungen oder Hypothesen effektiv analysiert werden können.
Deskriptivstatistik
beinhaltet Verfahren, mit deren Hilfe quantitative Daten zusammenfassend beschrieben &dargestellt werden.
Die univariate Deskriptivstatistik
a) die Bestimmung von Häufigkeiten des Auftretens von Werten &von Häufigkeitsverteilungen;
b) die Berechnung von Kennwerten (Parametern), die zusammenfassende Aussagen über die gesamte Stichprobe erlauben (Maße der zentralen Tendenz Streuungsmaße);
multivariate Deskriptivstatistik
Zusammenhänge mehrerer Variablen, darunter Korrelation &Regression;
Tabellen;
Diagramme &Grafiken.
Auswertung von Häufigkeitsdaten erfordert
die Festlegung von Kategorien.
Die absolute Häufigkeit bezeichnet
die Anzahl von Werten pro Kategorie.
Die relative (und prozentuale) Häufigkeit
den Anteil der Werte an allen Werten.
Die kumulative Häufigkeit bezeichnet
die Häufigkeit aller Werte bis zu einer bestimmten Kategorie (in aufsteigender Reihenfolge); mit 100 multipliziert ergibt sich der Prozentrang
Histogramm
Häufigkeitsverteilung mit Kategoriegrenzen auf der x-Achse und Häufigkeiten auf der y-Achse.
Kreisdiagramm
relative bzw. prozentuale Häufigkeiten durch die Größe der Sektoren eines Kreises.
Maße der zentralen Tendenz
Modalwert: bezeichnet die größte absolute Häufigkeit einer Verteilung; er kann ab Nominalskalenniveau für alle Skalenniveaus informativ sein
Median: bezeichnet denjenigen Wert, unterhalb dessen 50% aller (ranggeordneten) Werte liegen; er kann ab Ordinalskalenniveau informativ sein
arithmetische Mittel: ist der Quotient aus der Summe &der Anzahl aller Werte; es kann ab Intervallskalenniveau informativ sein
Der Modalwert
bezeichnet die größte absolute Häufigkeit einer Verteilung; er kann ab Nominalskalenniveau für alle Skalenniveaus informativ sein
Der Median
bezeichnet denjenigen Wert, unterhalb dessen 50% aller (ranggeordneten) Werte liegen; er kann ab Ordinalskalenniveau informativ sein
arithmetische Mittel
ist der Quotient aus der Summe und der Anzahl aller Werte; es kann ab Intervallskalenniveau informativ sein
Streuungsmaße
Unterschiedlichkeit der Messwerte einer Verteilung wird durch Streuungsmaße angegeben
Varianz: die Summe der Abweichungsquadrate, relativiert an der Größe der Stichprobe; die Quadratwurzel der Varianz ist die Standardbweichung
Interquartilbereich (ab Ordinalskalenniveau sinnvoll) oder der Abstand zwischen kleinstem und größtem Wert (Spannbreite) sind weitere Streuungsmaße
Varianz
ist die Summe der Abweichungsquadrate, relativiert an der Größe der Stichprobe; die Quadratwurzel der Varianz ist die Standardbweichung
Der Interquartilbereich (ab Ordinalskalenniveau sinnvoll) oder der Abstand zwischen kleinstem und größtem Wert (Spannbreite) sind weitere Streuungsmaße
ab Ordinalskalenniveau sinnvoll) oder der Abstand zwischen kleinstem und größtem Wert (Spannbreite) sind weitere Streuungsmaße
Je größer die Streuung, desto
weniger repräsentiert ein Maß der zentralen Tendenz die Verteilung.
Die Kenntnis der Streuung ist zudem wichtig, da die
nomothetisch orientierte Forschung in der Regel die Unterschiedlichkeit (Variabilität) einer Merkmalsausprägung zu erklären versucht.
Schiefe
Verteilung von einer symmetrischen Form abweicht
Exzess
wie breitgipflig (versus schmalgipflig) eine Verteilung ist
Regressions- bzw. Betakoeffizient
Maß für die Stärke des Zusammenhangs zwischen einem Prädiktor & einem Kriterium.
Bivariate Regression
Zusammenhang zwischen dem Kriterium und einem Prädiktor.
Multiple Regression:
Zusammenhang zwischen dem Kriterium und mehreren Prädiktoren.
Inferenzstatistik
Schluss von einer Stichprobe auf eine zugehörige Population. Aussagen der Inferenzstatistik gehen damit über das Beobachtbare hinaus &sind mit Unsicherheit behaftet.
•μ (sprich: mü)
für den Mittelwert,
•σ (sprich: sigma)
für die Standardabweichung und
π (sprich: pi)
für die relative Häufigkeit (den Anteil).
Signifikanztest
Entscheidungen über ein Hypothesenpaar: die Nullhypothese (H0) & die dazu komplementäre Alternativhypothese (H1).
Nullhypothese (H0)
postuliert Gleichheit von Parametern bzw. das Vorliegen von Null-Zusammenhängen
Alternativhypothese
postuliert das Vorliegen eines Unterschieds zwischen Parametern bzw. das Vorliegen eines Zusammenhangs.
Überschreitungswahrscheinlichkeit
Wahrscheinlichkeit, dass ein gefundenes Stichprobenergebnis oder ein noch stärker von der H0 abweichendes Ergebnis zustande kommt, falls die H0 in der Population zutrifft.
Signifikanzniveau
konventionell festgelegte Grenze, unterhalb derer die Überschreitungswahrscheinlichkeit so gering ist, dass die H0 abgelehnt wird.
Signifikanz
ob ein gefundener Unterschied nur mit geringer Wahrscheinlichkeit durch zufällige Abweichungen zu erklären ist.
Effektgröße
wie groß ein festgestellter Unterschied ist.
Auswahlkriterien für inferenzstatistische Testverfahren sind
Angemessenheit&Sparsamkeit
t-Test für eine Stichprobe
Wahrscheinlichkeit berechnet, dass bei unterstellter Gültigkeit der Nullhypothese der in einer Stichprobe festgestellte Mittelwert erzielt wird.
Der t-Test für abhängige Stichproben wird dann eingesetzt,
wenn die beiden Stichproben paarweise miteinander assoziiert sind (d.h., wenn die beiden Stichproben an Paaren von Merkmalsträgern oder denselben Merkmalsträgern erhoben wurden).
t-Test für unabhängige Stichproben
eingesetzt, wenn zwei Stichproben aus unterschiedlichen Versuchspersonen verglichen werden.
Varianzanalyse
zerlegt die Varianz aller beobachteten Werte einer abhängigen Variable in diejenige Varianz, die durch die unabhängige/n Variable/n erklärt werden kann (erklärte Varianz, Primärvarianz) und diejenige Varianz, die hierdurch nicht zu erklären ist (Fehlervarianz, Sekundärvarianz).
Zweifaktorielle (bzw. mehrfaktorielle) Varianzanalyse
eingesetzt, um die Effekte von zwei (bzw. mehreren) unabhängigen Variablen (UV) und ihrer Interaktion auf eine abhängige Variable (AV) zu testen.
zweifaktorielle Varianzanalyse testet drei Hypothesen:
UV A hat einen signifikanten Effekt auf die AV
UV B hat einen signifikanten Effekt auf die AV
Die Interaktion von UV A und UV B hat einen signifikanten Effekt auf die AV.
Korrelation
Zusammenhang zwischen 2 Varibalen
Regression
Zusammenhang zwischen einer oder mehrerer Variablen & eoner Zielvariablen
Intrument zur Vorhersage (Prognose) der Ausprägung eines Kriteriums (AV) durch sog. Prädiktoren (UV)