Woche 5-6 Flashcards
Techniken der Datenerhebung: Primärerhebung
Erhebung neuer Daten mittels verschiedener Methoden
- Befragung
- Beobachtung
- usw.
Techniken der Datenerhebung: Sekundärerhebung
Sammlung vorhandene Daten
Forschungsdesign im weiten Sinn
Alle Entscheidungen über das Vorgehen bei einer empirischen Untersuchung.
Forschungsdesign im engeren Sinn (v.a. bei standardisierter Sozialforschung)
Entscheide zum „Wie“, „Wo“, „Wer“ und „Wie oft“ einer wissenschaftlichen Studie
wissenschaftliche Studie: Untersuchungsarten „Wie?“
- experimentiell
- quasi-experimentiell (eine Variable wird angeschaut, jedoch eine zufällige Zuteilung der Teilnehmer zu den Untersuchungsbedingungen ist nicht möglich)
- nicht experimentiell
wissenschaftliche Studie: Ort/ Raum „Wo?“
- Labor
- Feld
wissenschaftliche Studie: Stichprobe „Wer?“
- Vollerhebung
- Stichprobe
- Einzelfall
wissenschaftliche Studie: Häufigkeit
- Querschnitt (ein Messzeitpunkt): Eine oder mehrere Stichproben zum selben Zeitpunkt. Ziel: Erfassung einer Momentaufnahme.
- Längsschnitt (mehrere Messzeitpunkten): Untersuchungseinheiten werden wiederholt bezüglich den gleichen Variablen untersucht. Ziel: Aufzeigen von sozialen und individuellen Wandlungsprozessen.
—> Trend: unterschiedliche Stichproben aus der gleichen Popilation. Bsp.: Mediennutzung, Konsumverhalten
—> Panel: gleiche Stichprobe wird über eine längere Zeit mehrmals befragt. Bsp.: Nationaler Bildungspanel in DE, Gesellschaft für Konsumforschung
Experimentielle Untersuchung
- Ziel: Überprüfen von kausalen Zusammenhängen
- Voraussetzung: Versuchsbedingungen sind planbar, wiederholbar und variierbar.
- Experimentialgruppe wird manipuliert und Ergebnisse i.d.R. mit Kontrollgruppe (ohne Manipulation) verglichen
- I.d.R.: Pre-Post-Test (Vorher-Nachher-Messung)
Nicht-experimentielle Untersuchung
- Es findet keine aktive Manipulation der Probanden statt (kein Experiment)
- Ziel: Untersuchung von Zusammenhängen zwischen vorliegenden Variablen.
Im Labor
Untersuchung findet unter „isolierten“ kontrollierbaren Bedingungen statt (ceteris-paribus), z.B. in einem Labor
- Vorteil: Versuchsbedingungen sind streng kontrollierbar.
- Nachteil: Die Daten werden meist realitätsfremden Bedingungen erhoben (Kontextfaktoren fallen weg).
Im Feld
Untersung findet im natürlichen Umfeld der Probanden statt (z.B. am Arbeitsplatz)
- Vorteil: die Daten werden unter „unverfälschten“ Bedingungen erhoben
- Nachteil: nur bedingte Kontrollierbarkeit von Störgrössen (z.B. Lärm, Licht), Wiederholbarkeit nur eingeschränkt möglich.
Vollerhebung
Die gesamte Population wird untersucht (z.B. Mitarbeiterbefragung). Bei diesen Untersuchungen handelt es sich i.d.R. um quantitative Studien.
Stichprobe
Eine Teilmenge der Population wird untersucht. Damit Ergebnisse von der Stichprobe für die Population verallgemeinbar sind, braucht es eine Zufallsstichprobe.
Einzelfall
- Es werden einzelne Fälle gründlich und intensiv untersucht (z.B. Fallstudie).
- I.d.R. Qualitative Methoden
- Ergebnisse sind explorativer Natur
- überprüft wird Verhaltensweise einer einzelnen Person bzw. eines einzelnen Objekts
Wissenschaftliche Untersuchungen haben meist den Anspruch, die erzielten Befunde über die untersuchte Gruppe hinaus verallgemeinern zu können. Da Untersuchung der gesamten Population unökonomisch ist, werden meist Stichproben genommen. Was ist da wichtig?
Dankt über Stichprobenerhebung gültige Aussagen gemacht werden können, müssen die Stichproben REPRÄSENTATIV sein, d.h. sie muss in ihrer Zusammensetzung der Population möglichst stark ähneln
Stichprobengewinnung: Mögliche Vorgehen (Übersicht)
- Nicht zufällig
- -> willkürlich
- -> bewusst - Zufällig
- -> mehrstufige Auswahlen
- -> einstufige Auswahlen
a. Geschichtete Stichproben
b. nicht geschichtete Stichproben
- einfache Zufallsstichprobe
- Klumpenstichprobe
Stichprobengewinnung: Nicht zufällig
- willkürlich
- bewusst
(Diese Methode ist meistens nicht repräsentativ)
Willkürlich: Umfasst Probanden, die “man nimmt, wie sie gerade kommen”.
Bewusste Auwahl:
- Auswahl nach festgelegten, subjektiven Kriterien (z.B. extrem Gruppen, typische Fälle).
- Quotenauswahl: Die Stichprobe weist in bestimmten Merkmalen die gleiche Verteilung auf, wie die Grundgesamtheit (z.B. Anteil Männer/Frauen; Anteil verschiedener Altersgruppen). Die Auswahl der Befragten ist aber nicht zufällig.
- Schneeballsystem: Die Probanden werden ausgehend von einem bestimmten Personenkreis «rekrutiert».
Vorteile zufällige Stichprobengewinnung + mögliche Methoden
Vorteile:
- Jedes Element der Grundgesamtheit (Population) hat eine bekannte und gleiche Auswahlwahrscheinlichkeit.
- Systematische Verzerrungen der Stichprobe werden unterbunden («unbiased»).
- Bessere Übertragbarkeit der Ergebnisse auf die Population (Repräsentativität), sofern die Stichprobe genügend gross ist.
Mögliche Methoden:
- Losverfahren
- Zufallszahlengenerator (Software)
Stichprobengewinnung: zufällig, einstufige Auswahlen
nicht geschichtete Stichprobe
- Einfache Zufallsstichprobe: Gleiche Wahrscheinlichkeit für jedes Element der Grundgesamtheit in die Stichprobe zu gelangen. Repräsentativität sichergestellt, auch ohne genaue Kenntnis der Struktur der Grundgesamtheit.
- Klumpenstichprobe: Nicht eine Untersuchungseinheit (Mitarbeiter) wird ausgewählt, sondern ein Teilkollektiv (ein Klumpen, z. B. Abteilung). Anschliessend Vollerhebung des zufällig ausgewähltes Klumpens
Stichprobengewinnung: zufällig, einstufige Auswahlen
geschichtete Stichprobe
Grundgesamtheit wird in Schichten aufgeteilt (z.B. Männer/Frauen; Altersgruppen; Hierarchiestufen)
Stichprobengewinnung: zufällig, mehrstufige Auswahlen
Ein mehrstufiges Vorgehen bietet sich vor allem dann an, wenn die Grundgesamtheit einen hierarchischen Aufbau hat (z.B. Mitarbeiter, Team, Abteilung, Geschäftsleitung).
Stufe 1: Auswahl der Primäreinheiten: Aus der Grundgesamtheit werden zufällig Primäreinheiten bestimmt (z.B. Abteilungen)
Stufe 2: Auswahl der Sekundäreinheiten: Aus den ausgewählten Primäreinheiten erfolgt zufällig die Bestimmung der Elemente der Stichprobe
Befragung: klassischer Ablauf
insbesondere bei standardisierten Befragungen
- Forschungsfrage/ Literaturstudium
- Konzept der Befragung
- Frage(bogen)Konstruktion
- Pretest
- Durchführung
- Datenaufbereitung & -auswertung
Frage(bogen)Konstruktion: Herausforderung der Operationalisierung.
Es handelt sich um Konstrukte, wenn man an Merkmale interessiert ist, die man nicht direkt erheben kann. (Bsp. Zufriedenheit, Vertrauen, Loyalität).
Damit diese Konstrukte messbar sind muss man diese operationalisieren.
Bsp.
- Konstrukt: Positives Betriebsklima
- Messbare Indikatoren (Items):
- -> in diesem Betrieb herrscht gutes Klima
- -> In unserem Betrieb gibt es viele Streitigikeiten
- Skala: stimme zu, stimme eher zu, stimme nicht zu usw.
Was werden bei einem Pretest für ein Fragebogen überprüft?
- Verständlichkeit der Instruktion und Fragen?
- Dauer zum Ausfüllen des Fragebogens?
- Kann der Fragebogen ohne Probleme ausgefüllt werden?
- Welche allgemeinen Anregungen haben die Testpersonen (z.B. zur Reihenfolge der Fragen, zu den Antwortmöglichkeiten)?
Ausserdem kann man mit den Pretest überprüfen, ob man mit den generierten Daten zu den gewünschten Auswertungen kommt.
Befragung: Grad der Standardisierung der Fragen (3)
- Standardisiert (z.B. Fragebogen mit geschlossenen Fragen) –> Quantitative Daten
- halb-standardisiert (Fragebogen mit offenen Fragen, leitfadenstützdendes Interview) –> Qualitative Daten
- nicht standardisiert (narratives Interview) –> Qualitative Daten
Befragung: unterschiedliche Kommunikationformen
- Schriftlich auf Papier
- Schriftlich (digital)
- telefonisch
- persönlich
Vorteile standardisierte Befragung
- Auskünfte einer grossen Anzahl von Personen
- Befragungen sind anonym (was sich günstig auf die Bereitschaft zu ehrlichen Angaben und gründlicher Auseinandersetzung bewirken kann).
- Geringe Kosten, geringer Zeitaufwand
Nachteile standardisierte Befragung
- Wer hat den Fragebogen tatsächlich ausgefüllt (postalisch, internetgestützt)
- Geringe Rücklaufquote
- Eingeengtes Reaktionsspektrumder Befragten
- Keine Nachfrage bei unklaren Antworten
nicht-/ halbstandardisierte Befragung: Leitfadeninterview
- Gespräch wird anhand eines Leitfadens geführt. Adaptive Vorgehensweise ist wichtig.
- Leitfaden enthält alle relevanten und anzusprechenden Themen und dient als Gedächtnisstütze. Er wird aus den Vorüberlegungen zur Interviewthematik erstellt.
- Leitfaden nach dem Prinzip «So offen wie möglich, so strukturiert wie nötig» erstellt.
- Von Interesse ist die persönliche Perspektive sowie persönliche Erfahrungen der Interviewten.
nichtstandardisierte Befragung: Experteninterview
- Interviewpartner besitzen Expertenwissen über das Forschungsinteresse.
- Von Interesse ist eine möglichst neutrale und breite Sichtweise auf den Forschungsgegenstand.
- Experteninterviews werden i.d.R. halb-standardisiert (mit einem Leitfaden) durchgeführt, können aber auch nicht standardisiert sein.
Vorteile nicht standardisierte Befragung
- Anpassungsfähigkeit: Interviewer kann direkt auf Antworten reagieren (z.B. mit Rückfragen).
- Befragungstiefe
- Interviewpartner sind bekannt
Nachteile nicht standardisierte Befragung
- Zeit-& kostenintensiv (Durchführung, Datenaufbereitung und -auswertung): i.d.R. kann nur eine kleine Anzahl von Personen befragt werden.
- Beschränkte Zuverlässigkeit: Je nach Zeitpunkt und Interviewer vielleicht ganz anderer Gesprächsverlauf.
- Keine Anonymität; je nach Thema muss zuerst eine Vertrauensbasis geschaffen werden.
Techniken der Datenerhebung
- Primärerhebung (Erhebung neuer Daten)
a. Befragung
b. Beobachtung - Sekundärerhebung (Sammlung vorhandene Daten)
Primärerhebung: Beobachtung
–> fünf Dimensionen
- Systematisch (stark strukturiert)vs. unsystematisch (schwach strukturiert)
- Teilnehmend (hohe Partizipation) vs. nicht-teilnehmend (geringe Partizipation)
- Verdeckt vs. offen
- Natürlich (Feld) vs. künstlich (Labor) 5. Selbstbeobachtung (sich selber) vs. Fremdbeobachtung (andere Personen)
strukturierte Beobachtung: klassischer Ablauf
- Forschungsfrage/ Literaturstudium
- Konzeption der Beobachtung
- Entwicklung Beobachtungsinstrument
- Schulung von Beobachtenden
- Durchführung
- Datenaufbereitung und -auswertung
(strukturierte) Beobachtung: Methodische Aspekte
- Findet die Beobachtung nicht im öffentlichen Raum statt (z.B. ein Park, eine Einkaufsstrasse) muss eine Bewilligungfür den Feldzugang eingeholt werden.
- Damit eine strukturierte Beobachtungwissenschaftlichen Standards genügt, muss eine sorgfältige Beobachterschulungdurchgeführt werden. Nur so kann gewährleistet werden, dass die Beobachtung möglichst objektiv, reliabel und valide geschieht.
Vorteile Beobachtung
- Soziales Verhalten kann festgehalten werden, unabhängig von der Bereitschaft/Fähigkeit der Probanden, ihr Verhalten zu beschreiben.
- Gerüche, Witterungsverhältnisse und wahrgenommene Emotionen u. ä. können dokumentiert werden.
- Bei verdecktem Design: nicht auf Mitarbeit der Probanden angewiesen.
- Falls Beobachtung aufgezeichnet wird (z.B. Video): wiederholte Betrachtung möglich.
Nachteile Beobachtung
- Räumliche Begrenzung der Beobachtung durch Reichweite der Sinnesorgane.
- Es kann nur ein Ausschnitt der sozialen Realität erfasst werden.
- Wiederholbarkeit begrenzt möglich: Beobachtungseffekt bei den Probanden.
- Verzerrung durch Beobachter möglich (Informationsselektion nicht vollkommen kontrollierbar; Gefahr der subjektiven Interpretation)
Forschung: Was wird unter “Mixed Method” verstanden?
Üblicherweise wird die Kombination zwischen qualitativen und quantitativen Forschungsmethoden in einem Untersuchungsdesign verstanden.
“Mixed Method” - Was für Kombinationsmodelle von qualitativer und quantitativer Methode gibt es?
- Verallgemeinerungsmodell
- Vertiefungsmodell
- Tringulationsmodell
“Mixed Method” - Was versteht man unter dem Verallgemeinerungsmodell?
Ziel des Verallgemeinerungsmodells ist ebenfalls die quantitative Überprüfung von Datenmaterial. Allerdings wird in diesem Modell im ersten Forschungsschritt mehr Gewicht auf die qualitativen Daten einer fallorientierten, deskriptiven Studie gelegt, die sorgfältig ausgewertet wird. Im zweiten quantitativen Schritt wird dann anhand einer repräsentativen Stichprobe überprüft, inwieweit die Ergebnisse der Fallstudie verallgemeinert werden können.
“Mixed Method” - Was versteht man unter dem Vertiefungsmodell?
Im Rahmen des Vertiefungsmodells steht am Beginn des Forschungsprozesses eine quantitative Studie an einer großen Stichprobe.Das Datenmaterial dieser Studie wird quantitativ ausgewertet. Erst dann folgt eine qualitative Studie, mit deren Hilfe das vorliegende quantitative Material besser interpretiert werden kann. Die qualitative Studie dient der Vertiefung der erzielten Ergebnisse, sie liefert Material für die Interpretation von erwarteten und unerwarteten Effekten und illustriert anhand von Fallbeispielen die Ergebnisse der quantitativen Studie.
“Mixed Method” - Was versteht man unter dem Tringulationsmodell?
Quantitative und Qualitative Methode gehen Hand in Hand. Forschungsfrage wird multiperspektivisch betrachtet, die Daten werden nahezu zeitgleich erhoben oder ausgewertet.
Datenauswertung (qualitative Daten): Übersicht
- Qualitative Inhaltsanalyse:
•Zusammenfassende Inhaltsanalyse
•Strukturierende Inhaltsanalyse
•Explizierende Inhaltsanalyse - GroundedTheory(gegenstandsbezogene Theoriebildung):
•Offenes Kodieren
•Axiales Kodieren
•Selektives Kodiere
Datenauswertung: Arten der Analysen
- Deskriptive Analyse
a. Verteilungsparameter (Mittelwert, Median, Modus)
b. Streuungsparameter (Standardabweichung, Varianz) - Unterschiede (z.B. Mittelwertvergleiche)
- Zusammenhänge (z.B. Korrelation)
- Interdependenzenanalyse
a. Gruppierung von Objekten (Clusteranalyse)
b. Gruppierung von Variablen (Faktorenanalyse)