Alles 1 Flashcards
Was ist eine Kausalhypothese?
🔹 Eine Kausalhypothese beschreibt eine Ursache-Wirkungs-Beziehung zwischen zwei Variablen.
🔹 Sie behauptet, dass eine Veränderung der unabhängigen Variable (Ursache) eine Veränderung der abhängigen Variable (Wirkung) verursacht.
🔹 Kausalhypothesen gehen über Korrelationen hinaus, da sie einen direkten kausalen Mechanismus vermuten.
👉 Kernfrage: „Verändert sich Y, weil X verändert wurde?“
Was ist eine Nominaldefinition?
🔹 Eine Nominaldefinition legt fest, wie ein Begriff verwendet wird, ohne zu behaupten, was das Wesen der Sache ist.
🔹 Sie ist eine sprachliche Konvention, die eine eindeutige und zweckmäßige Definition eines Begriffs für eine bestimmte Untersuchung oder Theorie festlegt.
🔹 Nominaldefinitionen sind willkürlich gewählt, aber müssen klar und konsistent sein, um Missverständnisse zu vermeiden.
👉 Kernfrage: „Wie wird dieser Begriff in diesem Kontext definiert?“
✅ Künstliche Festlegung: Ein Begriff wird durch andere, bereits bekannte Begriffe erklärt.
✅ Nicht empirisch überprüfbar: Eine Nominaldefinition ist weder wahr noch falsch, sondern nur nützlich oder unklar.
✅ Ermöglicht präzise Begriffsverwendung: Wissenschaftliche Theorien und Hypothesen bauen auf Nominaldefinitionen auf, um Missverständnisse zu vermeiden.
✅ Unterscheidet sich von Realdefinitionen: Sie behauptet nicht, das „wahre Wesen“ eines Begriffs zu erfassen.
Was ist eine Realdefinition?
🔹 Eine Realdefinition versucht, das „wahre Wesen“ eines Begriffs oder einer Sache zu erfassen.
🔹 Sie geht über eine bloße sprachliche Festlegung (Nominaldefinition) hinaus und behauptet, eine objektive, unveränderliche Wahrheit über das Definierte zu beschreiben.
🔹 Realdefinitionen sind in der Philosophie, Wissenschaft und Theoriebildung umstritten, weil sie oft auf subjektiven Annahmen oder metaphysischen Konzepten beruhen.
👉 Kernfrage: „Was ist X in seinem innersten Wesen?“
✅ Behauptet, das „wahre Wesen“ eines Begriffs zu erfassen.
✅ Nicht rein sprachlich festgelegt, sondern soll inhaltlich gültig sein.
✅ Meist normativ oder philosophisch aufgeladen.
✅ Schwer überprüfbar, da keine klaren empirischen Kriterien existieren.
Vergleiche Nominal, Ordinal, Intervall und Ratioskala
🔹 Skalenniveaus beschreiben die Eigenschaften von Daten und welche mathematischen Operationen darauf angewendet werden können.
🔹 Je nach Skalenniveau sind unterschiedliche Berechnungen (z. B. Mittelwert, Differenzen, Verhältnisse) sinnvoll.
🔹 Steigende Präzision: Nominal < Ordinal < Intervall < Ratio
👉 Kernfrage: „Welche Eigenschaften haben die Daten, und welche Berechnungen sind erlaubt?“
- Nominalskala (Kategorische Skala)
🔹 Definition:
Eine Nominalskala klassifiziert Merkmale in Kategorien, ohne eine Reihenfolge oder Rangordnung.
- Ordinalskala (Rangskala)
🔹 Definition:
Eine Ordinalskala ordnet Kategorien in eine Rangfolge, aber die Abstände zwischen den Werten sind nicht gleich.
Vergleiche („mehr/weniger“) sind möglich, aber keine genauen Differenzen.
- Intervallskala (Metrische Skala ohne absoluten Nullpunkt)
🔹 Definition:
Eine Intervallskala hat eine feste Reihenfolge UND gleiche Abstände zwischen den Werten, aber keinen absoluten Nullpunkt.
Differenzen sind sinnvoll, aber Verhältnisse nicht.
- Ratioskala (Metrische Skala mit absolutem Nullpunkt)
🔹 Definition:
Eine Ratioskala hat eine Reihenfolge, gleiche Abstände UND einen absoluten Nullpunkt.
Sinnvolle Verhältnisse („doppelt so viel“) sind möglich.
Was sind analytische Kollektivmerkmale
🔹 Analytische Kollektivmerkmale beschreiben Eigenschaften von Gruppen oder Kollektiven, die aus Einzelmerkmalen ihrer Mitglieder abgeleitet werden.
🔹 Sie ergeben sich durch Aggregation oder Kombination der individuellen Merkmale und existieren nicht unabhängig von den Individuen.
🔹 Analytische Kollektivmerkmale sind mathematisch berechnet und keine direkten Beobachtungen.
👉 Kernfrage: „Wie lassen sich Eigenschaften von Gruppen aus den Eigenschaften ihrer Mitglieder ableiten?“
✅ Aggregiert aus individuellen Daten (z. B. Durchschnitt, Summe, Anteil).
✅ Mathematisch berechnet, nicht direkt beobachtbar.
✅ Veränderungen des Kollektivmerkmals entstehen durch Veränderungen in den Einzelmerkmalen.
✅ Ermöglichen quantitative Vergleiche zwischen Gruppen.
Was sind strukturelle Kollektivmerkmale?
🔹 Strukturelle Kollektivmerkmale sind Eigenschaften einer Gruppe oder eines Kollektivs, die nicht direkt aus den individuellen Merkmalen der Mitglieder abgeleitet werden können, sondern sich aus der Interaktion oder Anordnung der Mitglieder innerhalb der Gruppe ergeben.
🔹 Sie sind emergente Phänomene, das heißt, sie entstehen durch das Zusammenspiel der Individuen, haben aber eine eigene Existenz auf Gruppenebene.
👉 Kernfrage: „Welche Eigenschaften hat eine Gruppe als Ganzes – unabhängig von den Einzelmerkmalen ihrer Mitglieder?“
Beispiel 3: Gesellschaftliche Ungleichheit
Merkmale der Individuen: Einkommen einzelner Bürger.
Strukturelles Kollektivmerkmal: Verteilung der Einkommen in der Gesellschaft (z. B. hohe vs. niedrige Einkommensungleichheit).
✅ Resultieren aus der Organisation oder den Interaktionen innerhalb der Gruppe.
✅ Existieren unabhängig von den individuellen Eigenschaften der Mitglieder.
✅ Werden durch Gruppendynamik und nicht durch bloße Aggregation erzeugt.
✅ Können sich verändern, ohne dass sich individuelle Merkmale ändern.
Was sind statistische (probalistische) Hypothesen?
🔹 Statistische (probabilistische) Hypothesen sind Annahmen über Zusammenhänge oder Unterschiede zwischen Variablen, die nicht absolut gültig, sondern nur mit einer bestimmten Wahrscheinlichkeit zutreffen.
🔹 Sie beruhen auf Wahrscheinlichkeiten und werden durch statistische Tests überprüft.
🔹 Im Gegensatz zu deterministischen Hypothesen, die behaupten, dass etwas immer gilt, sagen statistische Hypothesen nur aus, dass etwas mit einer bestimmten Wahrscheinlichkeit zutrifft.
👉 Kernfrage: „Wie wahrscheinlich ist es, dass ein beobachteter Effekt nicht zufällig ist?“
Wann ist der Informationsgehalt einer Wenn-Dann Hypothese hoch und wann gering?
Je größer der Informationsgehalt der DANN Komponente und umso kleiner je größer der Informationsgehalt der WENN Komponente.
Was ist eine deduktiv nomologische Erklärung ?
Erklärung durch ein Gesetz.
✅ Logische Ableitung (Deduktion): Die Erklärung folgt einer strikten logischen Struktur.
✅ Universelle Gesetzmäßigkeit: Sie verwendet allgemeine Natur- oder Sozialgesetze.
✅ Deterministisch: Wenn die Bedingungen erfüllt sind, tritt das Ereignis zwangsläufig ein.
✅ Allgemeingültigkeit: Die Erklärung gilt unabhängig von Zeit und Ort.
✅ Falsifizierbar: Eine D-N-Erklärung kann durch Gegenbeweise widerlegt werden.
Was ist eine induktiv statistische Erklärung?
Erklärung durch Wahrscheinlichkeit:
✅ Beruht auf Wahrscheinlichkeiten, nicht auf deterministischen Gesetzen.
✅ Nutzen von statistischen Gesetzmäßigkeiten: Aussagen wie „90 % der Raucher haben ein erhöhtes Krebsrisiko“.
✅ Erklärt nicht absolute Sicherheit, sondern nur, wie wahrscheinlich ein Ereignis ist.
✅ Können durch neue Daten oder bessere statistische Modelle angepasst werden.
Was ist die Konzeptspezifikation?
🔹 Die Konzeptspezifikation ist der Prozess der präzisen Definition und Klärung theoretischer Begriffe in der wissenschaftlichen Forschung.
🔹 Sie stellt sicher, dass abstrakte theoretische Konzepte so formuliert werden, dass sie klar, messbar und in einer Untersuchung verwendbar sind.
🔹 Ohne eine präzise Konzeptspezifikation kann es zu Missverständnissen, unklaren Messungen oder widersprüchlichen Ergebnissen kommen.
👉 Kernfrage: „Wie kann ein abstrakter Begriff so spezifiziert werden, dass er messbar und operationalisierbar ist?“
✅ Vermeidung von Mehrdeutigkeiten: Viele Begriffe haben unterschiedliche Bedeutungen in verschiedenen Kontexten (z. B. „Macht“, „Gerechtigkeit“).
✅ Grundlage für die Operationalisierung: Bevor ein Begriff messbar gemacht werden kann, muss er klar definiert sein.
✅ Vergleichbarkeit von Studien: Einheitliche Begriffsdefinitionen ermöglichen bessere Vergleiche zwischen verschiedenen Forschungsarbeiten.
✅ Theoretische Klarheit: Die Konzeptspezifikation hilft, Widersprüche zu vermeiden und Konzepte logisch in eine Theorie einzubinden.
Was bedeutet Operationalisierung?
🔹 Operationalisierung ist der Prozess, abstrakte Begriffe oder theoretische Konzepte in messbare Größen zu überführen.
🔹 Sie ist der Übergang von Theorie zur Empirie und sorgt dafür, dass ein Begriff in der Forschung beobachtbar und überprüfbar wird.
🔹 Ohne Operationalisierung können keine Daten erhoben oder Hypothesen getestet werden, da wissenschaftliche Begriffe sonst zu vage bleiben.
👉 Kernfrage: „Wie kann man ein theoretisches Konzept so formulieren, dass es messbar wird?“
Was bedeutet Reliabilität?
Wann ist eine hohe Reliabilität gegeben?
🔹 Reliabilität bezeichnet die Zuverlässigkeit und Genauigkeit einer Messung.
🔹 Ein Messinstrument ist reliabel, wenn es bei wiederholter Anwendung unter gleichen Bedingungen stabile und konsistente Ergebnisse liefert.
🔹 Sie ist ein zentrales Gütekriterium in der empirischen Forschung, neben Validität (Gültigkeit) und Objektivität.
👉 Kernfrage: „Erhalte ich bei wiederholten Messungen die gleichen Ergebnisse?“
🔹 Hohe Reliabilität bedeutet:
Das Messinstrument liefert konsistente Werte.
Messfehler sind gering.
🔹 Niedrige Reliabilität bedeutet:
Die Ergebnisse sind unzuverlässig und schwanken.
Hohe Messfehler beeinflussen die Werte.
Was bedeutet Intertemporale Stabilität?
Messwerte sind über Zeiträume stabil
Was bedeutet Intersubjektive Stabilität?
Messwerte bleiben bei verschiedenen Beobachtern oder Testleitern stabil.
Was bedeutet Interinstrumentelle Stabilität?
Messwerte bleiben bei unterschiedlichen Messinstrumenten stabil.
Cronbachs Alpha Formel
Was bedeutet Validität?
🔹 Validität beschreibt, ob ein Messinstrument tatsächlich das misst, was es messen soll.
🔹 Ein Test oder eine Messung kann nur dann als gültig betrachtet werden, wenn sie das zugrunde liegende Konzept oder die Theorie korrekt erfasst.
🔹 Hohe Validität bedeutet, dass die Messergebnisse sinnvoll interpretierbar sind und auf das gewünschte Konzept angewendet werden können.
👉 Kernfrage: „Messe ich wirklich das, was ich messen will?“
✅ Vermeidung von Fehlschlüssen: Eine Messung kann reliabel sein (zuverlässig), aber trotzdem das Falsche messen.
✅ Grundlage für wissenschaftliche Aussagen: Wenn ein Test nicht valide ist, sind alle darauf basierenden Schlussfolgerungen fragwürdig.
✅ Sinnvolle Anwendung der Ergebnisse: Wenn ein Intelligenztest eigentlich nur Sprachfertigkeiten misst, ist er für nicht-sprachliche Intelligenz ungeeignet.
Was bedeutet Inhaltsvalidität?
Inhaltsvalidität (Content Validity)
🔹 Misst der Test alle relevanten Aspekte des Konstrukts?
Beispiel: Ein Mathetest sollte nicht nur Addition testen, sondern auch Geometrie und Algebra beinhalten.
Typische Überprüfung: Expertenbewertung der Testinhalte.
✅ Hohe Inhaltsvalidität: Der Test deckt alle wichtigen Bereiche eines Konzepts ab.
❌ Niedrige Inhaltsvalidität: Wichtige Aspekte fehlen oder es sind irrelevante Elemente enthalten.
Was bedeutet Kriteriumsvalidität?
Kriteriumsvalidität (Criterion Validity)
🔹 Hängt die Messung mit einem relevanten Außenkriterium zusammen?
Beispiel: Ein neuer Intelligenztest sollte ähnliche Ergebnisse wie ein etablierter IQ-Test liefern.
Typische Überprüfung: Korrelationen mit bereits validierten Tests oder realen Ergebnissen.
Arten der Kriteriumsvalidität:
✅ Übereinstimmungsvalidität (Concurrent Validity):
Das Messinstrument wird mit einem gleichzeitig existierenden Kriterium verglichen.
Beispiel: Ein neuer Burnout-Test wird mit bereits etablierten Burnout-Skalen verglichen.
✅ Prognostische Validität (Predictive Validity):
Die Messung sagt zukünftige Ergebnisse korrekt vorher.
Beispiel: Ein Einstellungstest für Bewerber sollte den späteren Berufserfolg vorhersagen können.
❌ Niedrige Kriteriumsvalidität: Die Werte eines Tests stimmen nicht mit anderen relevanten Messungen überein.
Was bedeutet Konstruktvalidität?
Konstruktvalidität (Construct Validity)
🔹 Messe ich wirklich das Konzept (Konstrukt), das ich messen will?
Beispiel: Ein Test für „soziale Intelligenz“ sollte nicht einfach nur allgemeine Intelligenz oder extrovertiertes Verhalten messen.
Methoden zur Prüfung der Konstruktvalidität:
✅ Konvergente Validität (Convergent Validity):
Der Test sollte mit anderen Tests, die dasselbe Konzept messen, hoch korrelieren.
Beispiel: Ein neuer Depressionsfragebogen sollte mit einem etablierten Depressionsfragebogen übereinstimmen.
✅ Diskriminante Validität (Discriminant Validity):
Der Test sollte nicht mit Tests für andere, nicht verwandte Konzepte korrelieren.
Beispiel: Ein Selbstbewusstseinstest sollte nicht mit einem Test für Aggressivität verwechselt werden.
❌ Niedrige Konstruktvalidität: Ein Test misst ungewollt etwas anderes als das intendierte Konzept.
Was ist ein Index?
🔹 Die Indexbildung ist ein Verfahren zur Messung komplexer theoretischer Konzepte, indem mehrere Indikatoren zu einem Gesamtwert (Index) zusammengefasst werden.
🔹 Indizes werden verwendet, wenn ein einzelner Messwert nicht ausreicht, um ein umfassendes Konzept abzubilden.
🔹 Beispiele für Indizes: Human Development Index (HDI), Demokratieindex, Konsumklimaindex
👉 Kernfrage: „Wie können verschiedene Messwerte kombiniert werden, um ein komplexes Phänomen zu erfassen?“
✅ Ermöglicht die Messung komplexer Konzepte, die nicht durch eine einzelne Variable erfasst werden können.
✅ Vereinfachung der Analyse, indem mehrere Faktoren zu einer Kennzahl zusammengefasst werden.
✅ Ermöglicht Vergleiche über Zeit oder zwischen Einheiten (Ländern, Regionen, Gruppen).
✅ Erhöht die Reliabilität und Validität der Messung, indem mehrere Indikatoren kombiniert werden.
📌 Beispiele für Konzepte, die Indizes erfordern:
Demokratiequalität (kann nicht nur durch Wahlbeteiligung gemessen werden).
Wirtschaftliche Entwicklung (benötigt mehrere Indikatoren wie Einkommen, Bildung, Lebenserwartung).
Soziale Ungleichheit (beruht auf Einkommen, Bildung, Zugang zu Gesundheitsversorgung usw.).
Was ist die additive Indexbildung?
Additive Indexbildung (Summenindex)
🔹 Definition: Die Werte aller Indikatoren werden einfach addiert.
🔹 Beispiel: Demokratieindex als Summe aus Wahlbeteiligung, Pressefreiheit und Korruptionsniveau.
✅ Vorteil: Einfach zu berechnen, leicht interpretierbar.
❌ Nachteil: Alle Indikatoren werden gleich gewichtet, auch wenn manche wichtiger sein könnten.
Was ist die multiplikative Indexbildung?
Multiplikative Indexbildung
🔹 Definition: Die Werte der Indikatoren werden miteinander multipliziert.
🔹 Beispiel: Produktivitätsindex = Arbeitsstunden × Output pro Stunde.
✅ Vorteil: Verstärkt die Wirkung einzelner Indikatoren, da ein niedriger Wert einen starken Einfluss auf das Endergebnis hat.
❌ Nachteil: Wenn ein Wert 0 ist, wird der gesamte Indexwert 0, was problematisch sein kann.
Nicht-lineare Beziehung: Ein einzelner sehr niedriger Wert kann den gesamten Index stark reduzieren.
Berücksichtigt Wechselwirkungen: Indikatoren beeinflussen sich gegenseitig und können sich verstärken oder abschwächen.
Eignet sich für Indikatoren, die sich gegenseitig bedingen oder einen Synergieeffekt haben.
Was ist ein gewichteter Index?
Gewichteter Index
🔹 Definition: Indikatoren werden unterschiedlich gewichtet, je nach ihrer Bedeutung für das Konzept.
🔹 Beispiel: Human Development Index (HDI)
Bildung (Gewicht: 1/3)
Lebenserwartung (Gewicht: 1/3)
Einkommen (Gewicht: 1/3)
✅ Vorteil: Berücksichtigt die relative Bedeutung der Indikatoren.
❌ Nachteil: Die Gewichtung kann subjektiv oder willkürlich gewählt sein.
Was ist ein Durchschnittsindex?
Durchschnittsindex (Mittelwertbildung)
🔹 Definition: Der Indexwert wird als Durchschnitt aller Indikatoren berechnet.
🔹 Beispiel: Gesundheitsindex als Mittelwert aus Lebenserwartung, Sterblichkeitsrate und Zugang zu Gesundheitsversorgung.
✅ Vorteil: Glättet extreme Werte, verhindert Verzerrungen durch Ausreißer.
❌ Nachteil: Kann die Bedeutung einzelner Indikatoren verwässern.
Was versteht man Grundsätzlich unter Auswahlverfahren?
🔹 Auswahlverfahren bestimmen, welche Elemente einer Grundgesamtheit in eine Stichprobe aufgenommen werden.
🔹 Sie sind entscheidend für die Repräsentativität einer Stichprobe und beeinflussen die Gültigkeit der Ergebnisse.
🔹 Ziel: Eine Stichprobe zu ziehen, die möglichst genau die Grundgesamtheit widerspiegelt, um Verzerrungen zu vermeiden.
👉 Kernfrage: „Wie wählen wir eine Stichprobe, die verlässliche Aussagen über die Population ermöglicht?“
✅ Begrenzte Ressourcen: Oft ist es nicht möglich, eine gesamte Population zu untersuchen.
✅ Repräsentativität: Eine gut gewählte Stichprobe erlaubt verlässliche Schlussfolgerungen über die Grundgesamtheit.
✅ Vermeidung von Verzerrungen: Eine zufällige oder systematische Auswahl verhindert systematische Fehler.
✅ Grundlage für statistische Inferenz: Stichproben müssen so gewählt werden, dass Ergebnisse auf die Gesamtbevölkerung verallgemeinerbar sind.
Was sind Zufallsbasierte Auswahlverfahren. Beispiele
Zufallsbasierte Verfahren (Wahrscheinlichkeitsauswahl)
✅ Jede Einheit hat eine bekannte Wahrscheinlichkeit, ausgewählt zu werden.
✅ Ermöglicht statistische Inferenz (Hochrechnung auf die Population).
Was sind nicht-zufallsbasierte Auswahlverfahren? Beispiele
Nicht-zufallsbasierte Verfahren (Nicht-Wahrscheinlichkeitsauswahl)
❌ Nicht alle Einheiten haben eine bekannte oder gleiche Auswahlchance.
❌ Nicht repräsentativ – keine Hochrechnung auf die Population möglich.
Was ist versteht man unter Overcoverage?
Overcoverage (Übererfassung)
🔹 Definition: Es werden mehr Einheiten erfasst als zur Zielpopulation gehören.
🔹 Problem: Die Stichprobe enthält irrelevante oder unpassende Gruppen, die die Ergebnisse verfälschen können.
✅ Beispiele für Overcoverage:
Eine Wählerumfrage enthält auch Nicht-Wahlberechtigte.
Eine Bildungsstudie bezieht auch Teilnehmer ein, die nicht zur Altersgruppe gehören.
Eine Umfrage zur Kundenzufriedenheit befragt auch Nicht-Kunden.
❌ Folge: Verzerrte Ergebnisse, weil Personen enthalten sind, die nicht zur Zielgruppe gehören.
🔹 Lösung:
✔ Genauere Definition der Grundgesamtheit.
✔ Datenbereinigung und Filterung vor der Analyse.
Was versteht man unter Undercoverage?
Undercoverage (Untererfassung)
🔹 Definition: Bestimmte Gruppen der Zielpopulation werden nicht oder unzureichend erfasst.
🔹 Problem: Bestimmte Merkmale oder Meinungen werden nicht repräsentiert, was zu systematischen Verzerrungen (Selection Bias) führen kann.
✅ Beispiele für Undercoverage:
Eine Telefonumfrage erfasst keine Haushalte ohne Festnetzanschluss.
Eine Online-Umfrage erreicht keine Personen ohne Internetzugang.
Eine Befragung zur Arbeitslosigkeit schließt informell Beschäftigte aus.
❌ Folge: Schiefe Ergebnisse, da bestimmte Gruppen unterrepräsentiert sind.
🔹 Lösung:
✔ Verwendung mehrerer Erhebungsmethoden (z. B. Telefon + Online + Face-to-Face).
✔ Gewichtung der Stichprobe, um Verzerrungen auszugleichen.
Was sind Zufallsfehler (Messfehler)?
🔹 Der Zufallsfehler beschreibt zufällige Abweichungen in Messungen oder Stichproben, die nicht systematisch sind, sondern durch natürliche Schwankungen entstehen.
🔹 Er tritt auf, weil nicht die gesamte Population untersucht wird, sondern nur eine Stichprobe, die zufällige Schwankungen aufweisen kann.
🔹 Zufallsfehler sind nicht vermeidbar, aber sie können durch größere Stichproben und statistische Methoden reduziert werden.
👉 Kernfrage: „Wie stark beeinflusst der Zufall unsere Messungen und Ergebnisse?“
✅ Individuelle Unterschiede: Menschen reagieren unterschiedlich, selbst in gleichen Situationen.
✅ Zufällige Stichprobenschwankungen: Jede Stichprobe unterscheidet sich leicht von der Gesamtpopulation.
✅ Unkontrollierte äußere Einflüsse: Tagesform, Umgebungseinflüsse, unbewusste Verzerrungen bei der Befragung.
🔹 Wichtig: Ein Zufallsfehler verzerrt das Ergebnis nicht systematisch, sondern beeinflusst es in beide Richtungen gleich wahrscheinlich.
Was sind systematische Messfehler?
🔹 Ein systematischer Fehler ist eine Verzerrung in einer Messung oder einer Stichprobe, die in eine bestimmte Richtung wirkt und zu falschen Ergebnissen führt.
🔹 Im Gegensatz zum Zufallsfehler, der zufällig und unvorhersehbar ist, wiederholt sich ein systematischer Fehler bei jeder Messung oder Stichprobenerhebung in derselben Weise.
🔹 Systematische Fehler sind besonders problematisch, weil sie nicht durch größere Stichproben reduziert werden können – sie müssen direkt identifiziert und korrigiert werden.
👉 Kernfrage: „Beeinflusst etwas systematisch unsere Messung, sodass wir in eine bestimmte Richtung verzerrte Ergebnisse bekommen?“
Was versteht man unter selection bias?
Auswahlverzerrung (Selection Bias)
🔹 Fehlende oder verzerrte Stichprobe führt zu falschen Ergebnissen.
✅ Beispiel:
Eine Online-Umfrage über politische Einstellungen erreicht nur internetaffine Menschen → verzerrte Ergebnisse.
Was versteht man unter measurement bias?
Messfehler (Measurement Bias)
🔹 Das Messinstrument misst nicht, was es soll, oder ist fehlerhaft.
✅ Beispiel:
Ein Intelligenztest, der nur mathematische Fähigkeiten misst, aber nicht verbale Intelligenz.
Was versteht man unter response bias?
Befragungseffekte (Response Bias)
🔹 Die Art der Fragestellung beeinflusst die Antworten.
✅ Beispiel:
Suggestivfragen oder Fragen mit sozial erwünschten Antworten („Wie oft recyceln Sie?“ – die meisten wollen nicht „nie“ sagen).
Wie kann man systematische Fehler vermeiden?
✅ 1. Repräsentative Stichproben wählen → Zufallsstichproben oder stratifizierte Auswahl verwenden.
✅ 2. Messinstrumente kalibrieren → Testen, ob Messungen stabil sind.
✅ 3. Neutrale Fragen formulieren → Suggestivfragen vermeiden.
✅ 4. Doppelblind-Studien durchführen → Um experimentelle Verzerrungen zu vermeiden.
✅ 5. Daten bereinigen und statistische Korrekturen anwenden → Falls systematische Verzerrungen entdeckt werden.
Welche Faktoren beeinflussen die Representativität?
** Auswahlverfahren der Stichprobe**
Das Auswahlverfahren bestimmt, ob die Stichprobe zufällig oder verzerrt ist.
Beispiel: Eine einfache Zufallsauswahl ist repräsentativer als eine Befragung von Freiwilligen (Selbstselektion).
Stichprobengröße
Eine zu kleine Stichprobe kann zufällige Verzerrungen enthalten.
Je größer die Stichprobe, desto stabiler sind die Ergebnisse.
Non-Response Bias (Teilnahmeverzerrung)
Wenn bestimmte Gruppen systematisch seltener an der Befragung teilnehmen, entsteht eine Verzerrung.
Beispiel: Menschen mit wenig Zeit oder politisch Desinteressierte nehmen seltener an Umfragen teil.
Overcoverage und Undercoverage
Messinstrument und Erhebungsmethode
Frageformulierung, Befragungskontext und Erhebungsmethode beeinflussen die Ergebnisse.
Gemeinsamkeiten und Unterschiede Experimentelles Design und nicht experimentelles Design
Experimentelles Design
🔹 Definition:
Die Forscher manipulieren bewusst die unabhängige Variable (X) und untersuchen deren Effekt auf die abhängige Variable (Y).
Es gibt eine Kontrollgruppe und eine Experimentalgruppe, um den Einfluss der unabhängigen Variable zu testen.
Zufällige Zuweisung (Randomisierung) minimiert Störfaktoren.
✅ Merkmale eines Experiments:
Kausale Zusammenhänge prüfbar („X verursacht Y“).
Manipulation der unabhängigen Variable durch den Forscher.
Randomisierung zur Kontrolle von Drittvariablen.
Hohe interne Validität, da Störvariablen eliminiert werden.
Nicht-experimentelles Design
🔹 Definition:
Die Forscher beobachten und analysieren natürliche Zusammenhänge, ohne eine Variable zu manipulieren.
Kein aktiver Eingriff – es werden bestehende Daten genutzt oder beobachtet.
Kann korrelative Beziehungen untersuchen, aber keine direkten Kausalitäten beweisen.
✅ Merkmale:
Keine aktive Manipulation der Variablen.
Natürliche Bedingungen bleiben erhalten.
Oft große Stichproben, aber keine direkte Kontrolle von Drittvariablen.
Hohe externe Validität, aber niedrige interne Validität.
Was sind Kohorteneffekte?
Generationseffekte.
ähnliche kollektive Erfahrungen.
z.B. Weltkrieg, Digitalisierung
Was sind Periodeneffekte?
Zeitgeisteffekt
Er entsteht durch gesellschaftliche, politische oder wirtschaftliche Ereignisse, die unabhängig vom individuellen Alter oder der Generation auf die gesamte Bevölkerung wirken.
z.B. Coronapandemie
Was ist der Lebenszykluseffekt?
Reifungseffekt
Interessen, Haltungen verändern sich über die Lebenszeit.
eher “ruhiger, gelassener, “weiser” im Alter
eher radikal, Meinungsoffen, sprunghaft in der Jugend
2 Fehlerquellen bei der Datenerhebung (Befragungssituation)
Non-Attitude Problem:
🔹 Das Non-Attitude-Problem beschreibt eine Verzerrung in Befragungen, die entsteht, wenn Personen Antworten geben, obwohl sie keine feste Meinung oder kein Wissen zu einem Thema haben.
🔹 Statt „Ich weiß nicht“ oder „Ich habe keine Meinung“ zu sagen, wählen Befragte oft eine zufällige oder sozial erwünschte Antwort.
🔹 Folge: Die erhobenen Daten spiegeln nicht die tatsächlichen Einstellungen wider und können zu falschen Schlussfolgerungen führen.
👉 Kernfrage: „Antworten Menschen in Umfragen auch dann, wenn sie eigentlich keine Meinung haben?“
Sozial erwünschtes Handeln:
Antwort Sets:
Soziale Erwünschtheit (Social Desirability Bias)
🔹 Definition: Befragte geben Antworten, die gesellschaftlich akzeptiert sind, anstatt ihre echte Meinung zu äußern.
🔹 Beispiel:
Befragte geben an, regelmäßig Sport zu treiben, obwohl sie es nicht tun.
Wähler in Umfragen behaupten, demokratische Parteien zu bevorzugen, obwohl sie radikale Parteien wählen.
🔹 Lösung:
✅ Anonymisierte Befragungen.
✅ Indirekte Fragetechniken („Was denken Sie, wie andere darüber denken?“).
Was sind analytische Aussagen.
Nenne Beispiele
🔹 Definition: Eine Aussage ist analytisch, wenn sie a priori (ohne Erfahrung) als wahr erkannt werden kann, weil ihre Wahrheit nur von der Bedeutung der verwendeten Begriffe abhängt.
🔹 Charakteristik: Logisch wahr, unabhängig von der Realität.
📌 Beispiele:
„Alle Junggesellen sind unverheiratet.“ (Wahr aufgrund der Definition von „Junggeselle“.)
„Ein Dreieck hat drei Seiten.“ (Logische Definition eines Dreiecks.)
„2 + 2 = 4.“ (Mathematische Wahrheit.)
„Entweder es regnet oder es regnet nicht.“ (Logisches Gesetz des ausgeschlossenen Dritten.)
„Alle Mütter haben Kinder.“ (Definitorisch wahr, weil „Mutter“ das beinhaltet.)
✅ Erklärung: Analytische Aussagen sind unabhängig von der Realität, sondern beruhen nur auf Begriffslogik.
Was sind tautologische Aussagen?
Nenne Beispiele
🔹 Definition: Eine Tautologie ist eine Aussage, die immer wahr ist, unabhängig von den Umständen.
🔹 Charakteristik: Basiert auf logischer Struktur, enthält aber keine neue Information.
📌 Beispiele:
„Es wird morgen regnen oder nicht regnen.“
„Alle Menschen sind Menschen.“
„Wenn es schneit, dann schneit es.“
„Jedes Auto ist entweder fahrbereit oder nicht fahrbereit.“
„Wer lebt, der ist nicht tot.“
✅ Erklärung: Tautologien sind inhaltsleer, da sie keinen neuen Erkenntnisgewinn liefern.
Was sind tautologische Aussagen?
nenne Beispiele
Was sind empirische Aussagen?
Nenne Beispiele
🔹 Definition: Eine empirische Aussage ist eine Aussage, die durch Beobachtung oder Experimente überprüfbar ist.
🔹 Charakteristik: Wahr oder falsch – abhängig von der Realität.
📌 Beispiele:
„Die Erde dreht sich um die Sonne.“ (Durch Astronomie überprüfbar.)
„Wasser kocht bei 100°C auf Meereshöhe.“ (Physikalisch messbar.)
„Die Weltbevölkerung beträgt über 8 Milliarden Menschen.“ (Statistisch überprüfbar.)
„In Brasilien gibt es den Amazonas-Regenwald.“ (Geografisch nachprüfbar.)
„Der Klimawandel führt zu steigenden Temperaturen.“ (Wissenschaftlich belegbar.)
✅ Erklärung: Empirische Aussagen sind in der Wissenschaft zentral, weil sie überprüft und falsifiziert werden können.
Was sind metaphysische Aussagen?
Nenne Beispiele
🔹 Definition: Eine metaphysische Aussage bezieht sich auf Dinge, die über die physische Welt hinausgehen und nicht empirisch überprüfbar sind.
🔹 Charakteristik: Kann weder bewiesen noch widerlegt werden.
📌 Beispiele:
„Es gibt ein Leben nach dem Tod.“
„Das Universum hat einen höheren Sinn.“
„Gott existiert.“
„Die Seele ist unsterblich.“
„Zeit ist eine Illusion.“
✅ Erklärung: Metaphysische Aussagen sind oft Gegenstand philosophischer oder religiöser Debatten, aber nicht wissenschaftlich überprüfbar.
Was sind Kontradiktische Aussagen?
Nenne Beispiele
🔹 Definition: Eine kontradiktorische Aussage ist eine Aussage, die immer falsch ist, weil sie sich selbst widerspricht.
🔹 Charakteristik: Logisch unmöglich, weil sich der Satz selbst aufhebt.
📌 Beispiele:
„Ein verheirateter Junggeselle existiert.“
„Dieses Quadrat hat fünf Ecken.“
„Es ist gleichzeitig Tag und Nacht.“
„Ich lüge gerade.“ (Paradoxon, weil es sich selbst aufhebt.)
„Kein Satz kann wahr oder falsch sein.“ (Selbstwiderspruch.)
✅ Erklärung: Kontradiktionen enthalten unvereinbare Aussagen und können nicht wahr sein.
Was sind normative Aussagen?
nenne Beispiele
🔹 Definition: Eine normative Aussage beschreibt, was sein sollte, und gibt Handlungsanweisungen oder Vorschriften vor.
🔹 Charakteristik: Nicht überprüfbar durch Empirie, sondern wertgebunden.
📌 Beispiele:
„Jeder Mensch sollte gleich behandelt werden.“
„Stehlen ist moralisch falsch.“
„Der Staat sollte kostenlose Bildung anbieten.“
„Man sollte seine Eltern respektieren.“
„Unternehmen sollten nachhaltig wirtschaften.“
✅ Erklärung: Normative Aussagen drücken Regeln oder Werte aus, aber ihre Gültigkeit ist nicht empirisch nachweisbar.
Was sind Werturteilende Aussagen?
Nenne Beispiele
🔹 Definition: Eine werturteilende Aussage enthält eine subjektive Bewertung oder Meinung.
🔹 Charakteristik: Nicht objektiv nachweisbar, weil sie auf individuellen Überzeugungen basiert.
📌 Beispiele:
„Dieses Gemälde ist wunderschön.“
„Schokolade schmeckt besser als Vanille.“
„Die deutsche Sprache klingt hart.“
„Rom ist die schönste Stadt der Welt.“
„Dieses Buch ist langweilig.“
✅ Erklärung: Werturteile basieren auf individuellen Präferenzen und sind nicht objektiv überprüfbar.
Was misst der Korrelationskoeffitient?
Wie wendet man ihn an?
🔹 Der Korrelationskoeffizient misst die Stärke und Richtung des Zusammenhangs zwischen zwei Variablen.
🔹 Er gibt an, wie stark zwei Variablen miteinander zusammenhängen, aber nicht, ob eine die andere verursacht.
🔹 Der häufigste Korrelationskoeffizient ist die Pearson-Korrelation
👉 Kernfrage: „Wie stark hängen zwei Merkmale zusammen?“
Wie sind die einzelnen Schritte der Operationalisierung?
1. Konzeptspezifikation
Definition des theoretischen Begriffs: Klärung, was genau untersucht wird.
Festlegung von Dimensionen: Zerlegung eines abstrakten Konzepts in Teilaspekte.
Beispiel: „Politische Partizipation“ kann in Wählen, Demonstrationen und Parteimitgliedschaft unterteilt werden.
2. Bestimmung von Indikatoren
Messbare Merkmale bestimmen: Welche beobachtbaren Variablen erfassen das Konzept?
Beispiel: „Demokratiequalität“ kann durch Wahlbeteiligung, Pressefreiheit und Korruptionsniveau operationalisiert werden.
3. Festlegung der Korrespondenzregeln
Zuweisung von Indikatoren zu Konzepten: Wie werden theoretische Begriffe mit empirischen Beobachtungen verknüpft?
Beispiel: Wahlbeteiligung wird als Prozentsatz gemessen.
4. Auswahl der Messmethoden
Datenquelle bestimmen: Befragungen, Beobachtungen, Statistiken.
Beispiel: Politische Einstellungen werden durch Umfragen gemessen.
5. Festlegung des Skalenniveaus
Welche Skala wird verwendet? Nominal, ordinal, intervall oder ratio.
Beispiel: „Bildungsniveau“ kann ordinal (Grundschule < Abitur < Studium) oder metrisch (Anzahl der Schuljahre) erfasst werden.
6. Pretest und Validierung
Überprüfung, ob die Messung zuverlässig und valide ist.
Beispiel: Test eines Fragebogens, um unklare Fragen zu eliminieren.
Was ist die Likert-Skalierung: Teilschritte, Maßzahlen, um die Eignung für eine Likert-Skala festzustellen
🔹 Die Likert-Skalierung ist eine Methode zur Messung von Einstellungen, Meinungen oder Wahrnehmungen mittels mehrstufiger Antwortmöglichkeiten.
🔹 Sie wird häufig in Umfragen verwendet, um subjektive Einschätzungen quantitativ zu erfassen.
🔹 Eine klassische Likert-Skala besteht aus einer geraden oder ungeraden Anzahl von Antwortoptionen, typischerweise 5 oder 7 Stufen (z. B. von „stimme voll zu“ bis „stimme überhaupt nicht zu“).
- Teilschritte der Likert-Skalierung
📌 1️⃣ Formulierung der Items
✅ Erstellung mehrerer Aussagen (Items), die das zu messende Konzept erfassen sollen.
✅ Die Aussagen sollten sowohl positiv als auch negativ formuliert sein, um Antworttendenzen zu vermeiden.
📌 2️⃣ Festlegung der Antwortkategorien
✅ Standardmäßig 5 bis 7 Antwortoptionen, z. B.:
1: Stimme überhaupt nicht zu
2: Stimme nicht zu
3: Neutral
4: Stimme zu
5: Stimme voll zu
📌 3️⃣ Pretest der Fragen
✅ Überprüfung, ob die Formulierungen verständlich sind und die Skala sinnvoll genutzt wird.
✅ Sicherstellen, dass keine Suggestivformulierungen enthalten sind.
📌 4️⃣ Datenerhebung
✅ Die Befragten beantworten die Fragen anhand der Likert-Skala.
✅ Antworten werden numerisch kodiert (z. B. 1 = „stimme nicht zu“, 5 = „stimme voll zu“).
📌 5️⃣ Überprüfung der Skalenqualität (Reliabilität & Validität)
✅ Interne Konsistenz prüfen (Cronbachs Alpha).
✅ Faktorielle Validierung: Überprüfung, ob alle Items dasselbe Konstrukt messen.
Was ist die Zielgesamtheit?
🔹 Die Zielgesamtheit (Grundgesamtheit, Population) ist die gesamte Menge an Einheiten, über die eine wissenschaftliche Untersuchung Aussagen treffen will.
🔹 Sie umfasst alle Individuen, Gruppen oder Objekte, die für eine Forschungsfrage relevant sind.
🔹 Beispiel: Wenn eine Umfrage zur Wahlabsicht durchgeführt wird, wäre die Zielgesamtheit alle wahlberechtigten Bürger eines Landes.
👉 Kernfrage: „Über welche Gruppe sollen die Forschungsergebnisse generalisiert werden?“
✅ Klare Definition notwendig → Wer gehört dazu, wer nicht?
✅ Muss sich auf die Forschungsfrage beziehen → Keine zu enge oder zu weite Definition.
✅ Soll idealerweise vollständig erfassbar sein → Praktische Einschränkungen oft durch Stichproben gelöst.
📌 Beispiel 1: Politikwissenschaft
Forschungsfrage: „Wie hoch ist die Wahlbeteiligung bei der Bundestagswahl?“
Zielgesamtheit: Alle wahlberechtigten Bürger Deutschlands.
📌 Beispiel 2: Marktforschung
Forschungsfrage: „Wie zufrieden sind Kunden mit einem neuen Produkt?“
Zielgesamtheit: Alle Käufer des Produkts innerhalb eines bestimmten Zeitraums.
📌 Beispiel 3: Medizinische Studie
Forschungsfrage: „Wie wirkt ein neues Medikament auf Patienten mit Bluthochdruck?“
Zielgesamtheit: Alle Personen mit Bluthochdruck, die für die Studie in Frage kommen.
Was ist die Auswahlgesamtheit?
🔹 Die Auswahlgesamtheit ist die Teilmenge der Zielgesamtheit, die tatsächlich eine Chance hat, für eine Untersuchung ausgewählt zu werden.
🔹 Sie stellt die Gruppe von Personen oder Objekten dar, aus der die Stichprobe gezogen wird.
🔹 Nicht immer deckt sich die Auswahlgesamtheit vollständig mit der Zielgesamtheit, weil manche Elemente nicht erreichbar sind.
👉 Kernfrage: „Welche Personen oder Objekte haben eine realistische Chance, in die Stichprobe zu gelangen?“
- Verhältnis von Zielgesamtheit, Auswahlgesamtheit und Stichprobe
📌 1️⃣ Zielgesamtheit:
Die gesamte Population, über die Aussagen getroffen werden sollen.
Beispiel: Alle Wahlberechtigten in Deutschland.
📌 2️⃣ Auswahlgesamtheit:
Die Gruppe, aus der die Stichprobe tatsächlich gezogen wird.
Beispiel: Wahlberechtigte mit Telefonanschluss (bei Telefonumfragen).
📌 3️⃣ Stichprobe:
Die tatsächlich untersuchte Teilmenge.
Beispiel: 1.500 zufällig ausgewählte Bürger, die in einer Telefonumfrage befragt werden.
🛑 Problem: Wenn die Auswahlgesamtheit nicht die gesamte Zielgesamtheit abbildet, kann es zu Verzerrungen (Selection Bias) kommen!
Nenne Maßzahlen zur Überprüfung der Eignung einer Likert-Skala
📌 1️⃣ Cronbachs Alpha (
α
α) – Interne Konsistenz
✅ Gibt an, wie gut die Items einer Skala miteinander zusammenhängen.
✅ Wertebereich:
größer 0,8 -> sehr hohe Reliabilität
0,7-0,8 -> gute Reliabilität
kleiner 0,7 -> schlechte Reliabilität
kleiner als 0,6 -> komplett unzuverlässig.
📌 2️⃣ Item-Trennschärfekoeffizient
✅ Gibt an, wie stark ein einzelnes Item mit der Gesamt-Skala korreliert.
✅ Items mit niedriger Trennschärfe sollten entfernt oder überarbeitet werden.
📌 3️⃣ Faktorielle Validität (Explorative Faktorenanalyse, EFA)
✅ Testet, ob die Items einer Skala tatsächlich dasselbe Konstrukt messen.
✅ Faktorladungen sollten über 0.4 liegen.
📌 4️⃣ Mittelwert und Standardabweichung der Antworten
✅ Hohe Varianz der Antworten zeigt, dass die Skala differenziert misst.
✅ Zu niedrige Standardabweichung → Skala nicht aussagekräftig.
📌 5️⃣ Test-Retest-Reliabilität
✅ Wiederholung der Messung nach einiger Zeit → Überprüfung der Stabilität.
✅ Hohe Korrelation (r>0.7 r>0.7) bedeutet stabile Ergebnisse.