Auswahlverfahren Flashcards
Welche Aussagen will empirische Sozialforschung machen?
Was ist dafür (oft) notwendig?
ESF will Aussagen über soziale Sachverhalte machen
- Exploration
- Deskription
- Hypothesentest
- Erklärung
- Prognose
Notwendig: Präzisierung des Objektbereichs (Über welche Objekte sollen Aussagen gemacht werden?)
→ Definition der Grundgesamtheit
Wodurch ist die Definition der Grundgesamtheit bestimmt?
Definition der Grundgesamtheit keine Frage der Praktikabilität, sondern durch Erkenntnisinteresse bestimmt
Defintion Grundgesamtheit Grundgesamtheit (auch: Population)
= Menge der Objekte, für welche
die Aussagen einer Studie gelten sollen
Was erfolgt durch Definition der Grundgesamtheit?
• Festlegung der Erhebungseinheit = Elemente der Population, auf die
sich Aussagen beziehen sollen (Personen, Organisationen, Länder
etc.)
• raum-zeitliche Eingrenzung (z.B. Bevölkerung Deutschlands in
Privathaushalten im Jahr 2010)
Welche Entscheidung wird nach der Definition der Grundgesamtheit getroffen?
Entscheidung darüber, ob alle oder nur ein Teil der Elemente der Grundgesamtheit untersucht werden sollen
Vollerhebung:
Erhebung der Daten aller Elemente der
Grundgesamtheit (z.B. Volkszählung; sehr kleine Grundgesamtheit)
Teilerhebung (Stichprobe):
Erhebung der Daten eines Teils der Elemente der Grundgesamtheit (z.B. Mikrozensus mit 1 Prozent Stichprobe der deutschen Wohnbevölkerung)
→ Auswahlverfahren (Stichprobendesigns)
Voll- versus Teilerhebung
Vollerhebung: -vollständige Erhebung des interessierenden Sachverhalts -keine Verzerrung durch Fehler des Stichprobendesigns
Teilerhebung (Stichprobe)
-schneller und kostengünstiger
-unter bestimmten Bedingungen ermöglichen
Stichproben Rückschluss auf Grundgesamtheit
innerhalb von gewissen Fehlermargen
(Aufgabe der Inferenzstatistik)
-unter Umständen weniger fehleranfällig
(Interviewereffekte, bessere Kontrolle und
Auswertung)
-unter Umständen Vollerhebung nicht möglich
(„destruktive Tests“)
im Falle von Stichproben zu unterscheiden:
welches Ziel dabei?
- angestrebte Grundgesamtheit
- Auswahlgesamtheit (faktische Grundgesamtheit)
- Inferenzpopulation
- overcoverage
- undercoverage
Ziel: möglichst hohe Übereinstimmung von Inferenzpopulation mit
angestrebter Grundgesamtheit
angestrebte Grundgesamtheit:
Menge aller Objekte, über die eine Aussage angestrebt wird
Auswahlgesamtheit (faktische Grundgesamtheit):
alle Objekte mit der prinzipiellen Chance, ausgewählt zu werden
Inferenzpopulation:
Grundgesamtheit, über die tatsächlich Aussagen
möglich sind (Menge von Objekten, über die anhand der vorliegenden
Stichprobe tatsächlich Aussagen möglich sind)
overcoverage:
Einschluss von Elementen, die nicht zur
Grundgesamtheit gehören (z.B. möglich bei Auswahl aus nicht aktuellen
Einwohnermelderegistern)
undercoverage:
Auslassen von Elementen, die zur Grundgesamtheit
gehören (z.B. Personen ohne Telefonanschluss bei telefonischer
Befragung)
unterschiedliche Auswahlverfahren
- Zufallsauswahl
- bewusste Auswahl
- willkürliche Auswahl
- Zufallsauswahl
Kennzeichen: jedes Element der Grundgesamtheit hat berechenbare,
von Null verschiedene Chance in die Stichprobe zu gelangen
Grundlegende Logik: Inferenz
Rückschluss von Verhältnissen in Stichprobe auf Verhältnisse in
Grundgesamtheit, jedoch unter (angebbarer) Unsicherheit
→ statistische Kennzahlen in der Stichprobe als Schätzer für Parameter
der Grundgesamtheit
Beispiel: in Stichprobe ermittelter durchschnittlicher Lohnunterschied
zwischen Männern und Frauen als Schätzer für „wahres“ gender-wagegap
- Zufallsauswahl
unterschiedliche Zufallsauswahlverfahren
a) einfache Zufallsstichprobe
b) geschichtete Zufallsstichprobe
c) Klumpenstichprobe
d) mehrstufige Auswahlverfahren
- Zufallsauswahl
a) einfache Zufallsstichprobe
Kennzeichen:
• Auswahlwahrscheinlichkeit für alle Elemente identisch und größer Null
(equal probability selection method = EPSEM)
• Auswahl erfolgt in einem einstufigen Auswahlprozess
praktische Stichprobenziehung (in der Regel basierend auf Verwendung
von Listen):
• Lotterieverfahren (bei kleiner Grundgesamtheit)
• Erzeugung von Zufallszahlen
- Zufallsauswahl
b) geschichtete Zufallsstichprobe
Kennzeichen:
• Ziehung einfacher Zufallsstichproben innerhalb von Bevölkerungsgruppen
(Schichten), die entsprechend der Forschungsfrage definiert
werden
zu unterscheiden:
• proportionale Schichtung
• disproportionale Schichtung
b) geschichtete Zufallsstichprobe
proportionale Schichtung:
Umfang der einfachen Zufallsstichproben entspricht Anteil der Schichten
in Grundgesamtheit
→ gleiche Ziehungswahrscheinlichkeit für alle Elemente (also EPSEMStichprobe)
b) geschichtete Zufallsstichprobe
disproportionale Schichtung:
Umfang der einfachen Zufallsstichproben entspricht nicht dem Anteil der
Schichten in Grundgesamtheit
→ unterschiedliche Ziehungswahrscheinlichkeit für Elemente der
jeweiligen Schichten (keine EPSEM-Stichprobe)
→ spätere Rückgewichtung (Designgewicht, Inverse der Auswahlwahrscheinlichkeit)
vor allem geeignet bei Untersuchung relativ kleiner Gruppen der
Grundgesamtheit (z.B. MigrantInnen, Langzeitarbeitslose)
- Zufallsauswahl
b) geschichtete Zufallsstichprobe
Vor- und Nachteile
Vorteile -präzisere Schätzung, wenn Einheiten innerhalb von Schichten homogen sind, interessierendes Merkmal sich aber zwischen Schichten stark unterscheiden (Schichtungseffekt) -Schichten können jeweils als unabhängige Stichproben verwendet werden -disproportionale Schichtung zur Datenerhebung bei relativ kleinen Teilpopulationen
Nachteile -Schichtungsmerkmale müssen vor eigentlicher Ziehung der Stichprobe festgestellt werden -Vorwissen über Merkmalsverteilung notwendig (z.B. Einkommensverteilung)
- Zufallsauswahl
c) Klumpenstichprobe
Kennzeichen:
• Ziehung einer (Zufalls-) Stichprobe von Makroeinheiten (Schulen,
Organisationen, Haushalten = cluster), innerhalb derer eine vollständige
Befragung aller Personen erfolgt
- Zufallsauswahl
c) Klumpenstichprobe
Vor- und Nachteile
Vorteil Anwendung auch wenn keine Liste der Grundgesamtheit, wohl aber eine Liste übergeordneter Einheiten (cluster) erstellt werden kann
Nachteil „Klumpeneffekt“: Genauigkeitsverlust der Schätzung im Vergleich zu einfacher Zufallsstichprobe bei Homogenität innerhalb der Cluster sowie bei hoher Anzahl von Elementen in Cluster
- Zufallsauswahl
d) mehrstufige Auswahlverfahren
Kennzeichen
Kennzeichen:
• Reihe nacheinander durchgeführter Zufallsstichproben (Prinzip:
Zufallsstichprobe aus Zufallsstichprobe ist wieder Zufallsstichprobe)
Vorgehen: Hierarchische Einteilung der Grundgesamtheit
1. Ziehung von Elementen der Stufe 1 (primary sampling units = PSUs)
2. Ziehung von Elementen der Stufe 2 innerhalb der gezogenen
Elemente der Stufe 1
3. Ziehung von Elementen der Stufe 3 innerhalb der gezogenen
Elemente der Stufe 2
4. …
- Zufallsauswahl
d) mehrstufige Auswahlverfahren
wann notwendig, Vorteil, Unterschied zur Schichtung, Designeffekte
Einsatz oft notwendig
• wenn kein zentrales aber ein dezentrales Register an Elementen der
Grundgesamtheit vorhanden ist
• bei komplexer Stichprobenziehung (z.B. Grundgesamtheit: allgemeine
Bevölkerung)
weiterer Vorteil: Kostenersparnis regionaler Klumpung bei
Interviewereinsatz
Unterschied zur Schichtung: nicht in jeder Gruppe auf Stufe 1 wird
Stichprobe gezogen, sondern nur in Stichprobe von Gruppen der Stufe
Designeffekte: verringerte Präzision der Schätzung aufgrund der
größeren Homogenität innerhalb der PSUs (Klumpeneffekte)
d) mehrstufige Auswahlverfahren
Ziehungswahrscheinlichkeiten bei mehrstufiger Auswahl
I) gleiche Ziehungswahrscheinlichkeiten der Sekundäreinheiten
gleiche Anzahl an Sekundäreinheiten in Primäreinheiten der Grundgesamtheit
und gleiche Ziehungswahrscheinlichkeiten der Primäreinheiten
und gleiche Anzahl an gezogenen Sekundäreinheiten in Primäreinheiten
II) ungleiche Ziehungswahrscheinlichkeiten der Sekundäreinheiten
ungleiche Anzahl an Sekundäreinheiten in Primäreinheiten der Grundgesamtheit
und gleiche Ziehungswahrscheinlichkeit der Primäreinheiten
und gleiche Anzahl an gezogenen Sekundäreinheiten in Primäreinheiten
ungleiche Ziehungswahrscheinlichkeiten → gleiche Ziehungswahrscheinlichkeiten
• Berücksichtigung des Wissens um Größe der Primäreinheiten bei
Bestimmung der Ziehungswahrscheinlichkeiten der Primäreinheiten:
- Auswahl der Primäreinheiten proportional zu ihrer Größe (probability
proportional to size = PPS) oder
- Nutzung von Designgewichten für spätere Rückgewichtung
• analog bei tiefer gestuften Auswahlen, z.B. 2. Stufe Haushaltsebene
und 3. Stufe Personenauswahl innerhalb verschieden großer Haushalte
d) mehrstufige Auswahlverfahren
Beispiel I: ADM-Design für persönliche Interviews (face-to-face)
- Schritt: Flächenstichprobe: Auswahl von Sampling-Points
64000 originäre oder synthetische Stimmbezirke (=Fläche, Sampling-Points) mit
jeweils mehr als 400 Wahlberechtigten; Ziehung von jeweils 210 bzw. 48
Sampling-Points in West- bzw. Ostdeutschland (PPS-Design) = Netz; insgesamt
128 Netze, meist Auswahl mehrerer Netze - Schritt: Auswahl von Haushalten
zufällig ausgewählte Startadressen mit Begehungsanordnung (Random-Route) - Schritt: Auswahl von zu interviewender Person innerhalb der Haushalten
Kish-Selection-Grid (Schwedenschlüssel)
Begehungsanweisung
Ermittlung der zu interviewenden Person im Haushalt
alles akribisch vorgeschrieben
d) mehrstufige Auswahlverfahren
Beispiel II: Auswahldesigns für telefonische Interviews
- Schritt: Auswahl von Telefonnummern
• Auswahl aus Telefonverzeichnissen (Problem mit Coverage)
• Auswahl mit zufällig generierten Telefonnummern - Schritt: Auswahl von zu interviewenden Person innerhalb des Haushalts
• Personenauswahl mit einer Zufallszahlenreihe (Schwedenschlüssel) oder
mittels Geburtstagsverfahren - Schritt: Auswahl von Telefonnummern
a) Random Digital Dialing (RDD) (Ursprung USA)
10 Ziffern pro Telefonnummer, die ersten 6 folgen regionalem Schlüssel
zweistufige Ziehung der Region (erste 6 Ziffern) und des Anschlusses (letzte 4 Ziffern)
• jedoch: viele Anschluss-Nummern nicht vergeben; Hilfe durch computergestütztes
Verfahren des Wählens
Deutschland hat keine einheitliche Systematik bei Nummernvergabe, die
ersten 3-? Ziffern geben Region an; Anschluss kann 3-? Ziffern haben
zusätzlich: große „Lücken“ bei Nummernvergabe, nicht alle „Blöcke“ von Nummer
besetzt
b) modifiziertes Random Digital Dialing
Zufallswahl der letzten 2 Stellen (Randomized Last Digits = RLD)
Problem bei Verwendung von Telefon-CD als Basis für RLD: ungleiche
Auswahlwahrscheinlichkeiten („Blöcke“ mit vielen eingetragen Nummern haben
höhere Ziehungswahrscheinlichkeit)
Vorgehen daher (Gabler-Häder-Verfahren): - Bildung von Intervallen theoretisch möglicher Telefonnummern innerhalb eines
Ortsnetzes - Prüfung, mit Hilfe eines Telefonnummernverzeichnisses, ob Intervalle mindestens
eine gültige Telefonnummer enthalten - Ziehung aus denjenigen Intervalle, für die diese Prüfung positiv ausfällt
- Schritt: Auswahl von zu interviewenden Person innerhalb des Haushalts
• Personenauswahl mit einer Zufallszahlenreihe (Schwedenschlüssel) oder mittels
Geburtstagsverfahren
• Achtung: Überdurchschnittliche Ziehungswahrscheinlichkeit für kleine Haushalte
→ Gewichtung notwendig
- bewusste Auswahl
Kennzeichen:
Auswahl erfolgt nach angebbaren und überprüfbaren
Kriterien; allerdings keine Zufallsauswahl, daher keine Möglichkeit der
statistischen Inferenz
- bewusste Auswahl
verschiedene Auswahlverfahren:
a) Auswahl extremer Fälle
b) Auswahl typischer Fälle
c) Auswahl nach Konzentrationsprinzip
d) Auswahl mittels Schneeball-Verfahren
e) Auswahl mittels Quota-Verfahren
- bewusste Auswahl
verschiedene Auswahlverfahren:
a) Auswahl extremer Fälle
Problem: Umdefinition der Grundgesamtheit
Anwendungsmöglichkeit: spezielle (kleine) Populationen (z.B.
Elitenforschung)
- bewusste Auswahl
verschiedene Auswahlverfahren:
b) Auswahl typischer Fälle
Problem: erfordert Vorwissen bzw. bestimmt Ergebnis
- bewusste Auswahl
verschiedene Auswahlverfahren:
c) Auswahl nach Konzentrationsprinzip
• Auswahl von Fällen, die dominant für die Verteilung des
interessierenden Merkmals sind
• nur geeignet bei speziellen Fragestellungen
• erfordert Vorwissen
- bewusste Auswahl
verschiedene Auswahlverfahren:
d) Auswahl mittels Schneeball-Verfahren
Grundidee: Fragebögen werden an einige Untersuchungspersonen
verteilt, welche die Fragebögen ihrerseits an weitere Untersuchungspersonen
verteilen
Problem: oftmals keine Zufallsstichprobe
Erweiterung von Schneeballtechnik durch Netzwerkanalyse erlaubt
Berechnung von Ziehungswahrscheinlichkeiten (Respondent Driven
Sampling)
notwendige Bedingungen:
• 1. hohe Interaktionsdichte zwischen Elementen der Grundgesamtheit
(soziales Kollektiv)
• 2. Erhebung der Netzwerkstruktur bei Stichprobenziehung
- bewusste Auswahl
verschiedene Auswahlverfahren:
e) Auswahl mittels Quota-Verfahren
Grundidee
Grundidee: Quota-Auswahl als Abbild der Grundgesamtheit
• Auswahl von Beobachtungseinheiten so, dass bestimmte Merkmale in
der Stichprobe denselben Anteil („quota“) aufweisen, wie in der
Grundgesamtheit
• angestrebte Stichprobe soll hinsichtlich der ausgewählten Merkmale
der Grundgesamtheit entsprechen
- bewusste Auswahl
verschiedene Auswahlverfahren:
e) Auswahl mittels Quota-Verfahren
Voraussetzungen
Voraussetzungen:
- bekannte Verteilung in Grundgesamtheit
- Korrelation mit inhaltlich interessierenden Variablen
- Erkennbarkeit des Quotenmerkmals bei Personen vor Befragung
- bewusste Auswahl
verschiedene Auswahlverfahren:
e) Auswahl mittels Quota-Verfahren
Pro
-kostengünstige Stichprobenziehung
-Quotenmerkmale korrelieren mit anderen
relevanten Merkmalen (= repräsentativ für
nicht quotierte Merkmale)
-Quotenvorgabe nähert Zufallsauswahl an, da
Ermessenspielraum des Interviewers
eingeschränkt
-Design entspricht in der Praxis einer
proportional geschichteten Zufallsstichprobe,
Schichten sind weitgehend homogen
- bewusste Auswahl
verschiedene Auswahlverfahren:
e) Auswahl mittels Quota-Verfahren
Contra
-keine Anwendung der Inferenzstatistik
-Korrelation mit den verwendeten
Globalvariablen ist typischerweise
niedrig
-Interviewer ist frei, sich Netzwerke von
interviewbereiten Personen zu schaffen
(führt zu systematischer Verzerrung)
-Annahme homogener Schichten würde
sehr starke Prädiktoren erfordern, die
die Quotenvariablen i.d.R. nicht sind
- willkürliche Auswahl
Kennzeichen; Problem
Kennzeichen: Auswahl erfolgt lediglich nach Ermessen des
Auswählenden; daher keine Zufallsauswahl und keine Möglichkeit der
statistischen Inferenz
Problem: für wissenschaftliche Zwecke nicht sinnvoll einsetzbar
Auswahlverfahren und Repräsentativität
Grundidee der Repräsentativität:
Stichprobe als verkleinertes Abbild der
Grundgesamtheit
Repräsentationsnachweis durch Vergleich von Stichprobenverteilungen
mit Verteilungen der Grundgesamtheit sind jedoch problematisch, da sie
in der Regel auf bekannte Standardmerkmale (Alter, Geschlecht…)
beschränkt sind
Kriterium stattdessen: angemessener Auswahlmechanismus (d.h. in der
Regel Zufallsstichprobe)
Nonresponse
Total survey error setzt sich zusammen aus:
• Zufallsfehler der Stichprobe (sampling error)
• systematischen Verzerrungen aufgrund des Verfahrens der
Stichprobenauswahl (z.B. Probleme mit Random Route)
• nonsampling bias: systematische Verzerrungen aufgrund von
a) Messfehlern
b) Fehlerquellen im Interview
c) Diskrepanz zwischen Ziel- und Surveypopulation (coverage)
d) Befragungsausfall (nonresponse)
zwei Typen von nonresponse zu unterscheiden:
- unit nonresponse (keine Daten für gesamte Untersuchungseinheit)
- item nonresponse (fehlende Daten für einzelne Variablen der
Untersuchungseinheit)
Typen von unit nonresponse:
- Nicht-Befragbare → eher kleine Gruppe
- Schwer Erreichbare → Abhilfe: callbacks, Erinnerung
- Verweigerer → Abhilfe: Verweis auf Bedeutung, Anonymität, Anreize
unit nonresponse und Ausschöpfungsquote
Ausschöpfungsquote= realisierte Interviews / (Bruttostichprobe-stichprobenneutrale Ausfälle)
Ausschöpfungsquote liegt in der Regel nur zwischen 40 bis 60 Prozent,
teilweise sogar deutlich darunter
für Liste von Ausfallursachen siehe American Association for Public
Opinion Research, AAPOR, www.aapor.org