Methoden Flashcards
Hypothesen
Falsifikationsprinzip
Nach Karl Popper kann eine Hypothese durch konforme Beobachtungen gestärkt werden, niemals aber „bewiesen“. Sie gilt solange sie nicht falsifiziert (widerlegt) ist.
Hypothesen
Deduktion
Ableitung des Einzelfalles vom Allgemeinen – eine Hypothese wird aus bisher bekannten Studienbefunden abgeleitet.
Hypothesen
Induktion
von einem bestimmten Einzelfall auf das Allgemeine schließen – Studienbefunde werden auf weitere Geltungsbereiche übertragen (Generalisiert)
Nullhypothese
Hypothese, die postuliert, dass es zwischen den beobachteten Gruppen einer Studie
keinen Unterschied (Unterschiedshypothese) gibt, bzw., dass kein Zusammenhang
zwischen zwei Variablen besteht (Zusammenhangshypothese). In Studien i.d.R. die
Hypothese, die der Forscher gern verwerfen (falsifizieren) möchte.
Alternativhypothese
Hypothese, die postuliert, dass es zwischen den beobachteten Gruppen einer Studie einen Unterschied (Unterschiedshypothese) gibt, bzw., dass ein Zusammenhang zwischen zwei Variablen besteht (Zusammenhangshypothese). In Studien i.d.R. die Hypothese, die der Forscher gern stützen (verifizieren) möchte.
Probabilistische Hyp.
Hypothesen, die einen wahrscheinlichen Zusammenhang / Unterschied postulieren.
Zur Prüfung werden inferenzstatistische Verfahren (z.B. Varianzanalyse, t-Test etc.)
verwendet, die die Wahrscheinlichkeit eines Unterschieds / Zusammenhanges berechnen.
Deterministische Hyp.
Hypothesen, die einen deterministischen (absoluten) Zusammenhang / Unterschied
postulieren. Inferenzstatistik ist hier nicht notwendig – ein Gegenbeleg genügt, um die
Hypothese zu verwerfen.
Unabhängige Variable (UV)
Diejenige Größe, die in Studien unabhängig vom Untersucher vorliegen, von diesem
ausgewählt (Feldstudie) oder bewusst gestaltet werden (Experiment).
Ihre Auswirkung wird untersucht (z.B. Medikamentengabe vs. Plazebo). Auch:
- Ursache
- Erklärende Variable
- Exogene Variable
- Prädiktor
- Treatment
Abhängige Variable (AV)
In einer wissenschaftlichen Untersuchungen diejenige Messgröße, die sich abhängig
von der Ausprägung der UV verhalten soll. Wird vom Untersucher gemessen. Auch:
- Wirkung
- Erklärte Variable
- Endogene Variable
- Zielgröße (Kriterium)
- Outcome
Störvariablen / Konfounder
& Kontrolle
Variablen, die in Studien auch eine Rolle spielen, aber weder UV noch AV sind. Können
systematische Fehler darstellen (z.B. wird vielleicht die Medikamentengabe immer
von ärztlicher Zuwendung begleitet, die Placebogruppe bekommt diese Zuwendung
aber nicht – worauf ist dann ein therapeutischer Effekt zurückzuführen?)
Müssen in Studien ermittelt und kontrolliert werden (z.B. Parallelisierung der Durchführung, zufällige Verteilung, Ausschaltung von Unterschieden), um die Studienergebnisse davon unabhängig interpretieren zu können.
Unsystematische Fehler treten zufällig auf, z.B. Messfehler. Müssen durch qualitativ
hochwertige Messinstrumente und eine sorgfältige Studiendurchführung ausgeglichen
werden
Moderatorvariablen
ändert den Effekt einer UV auf eine AV, z.B.
UV (x): Ernährungsprogramm der GKV
AV (y): Umstellung der Ernährung auf Bio-Produkte
Moderator (z): Einkommen der Klienten
Mediatorvariablen
vermittelt den Effekt einer UV auf eine AV, z.B. UV (x): Lebensstiländerung
AV (y): Herzinfarktrisiko, Mediator (z): Blutdrucksenkung
Zufallsstichprobe
Jedes Element der Grundgesamtheit hat dieselbe Chance, in die Stichprobe aufgenommen zu werden.
Vorteile:
- Keine systematischen Verzerrungen der ausgewählten Personen
- Merkmale der Probanden entspricht bei großen Stichproben denen der
Grundgesamtheit die Stichprobe ist dann repräsentativ
Schwierigkeit:
- Können wir für alle Mitglieder der Grundgesamtheit eine gleiche Auswahlwahrscheinlichkeit herstellen?
Klumpen-(Cluster-)st.
Ist die Gesamtpopulation in natürliche Gruppen (Klumpen, z.B. Studenten der MLU,
HU, FU, LMU) gegliedert, werden per Zufall Klumpen ausgewählt und dann vollständig
untersucht
Vorteile:
- Weniger Untersuchungsaufwand
- Für die ausgewählten Klumpen besteht eine hohe Aussagekraft
Nachteil:
- Generalisierbarkeit ist eingeschränkt (Ergebnisse gelten z.B. für hallenser und
münchner Studenten, eingeschränkt aber für hamburger Studenten)
Quotenstichprobe
Es wird versucht, eine „Miniaturausgabe“ der Grundgesamtheit abzubilden. Zentrale
Merkmale der Grundgesamtheit sollen explizit abgebildet werden (z.B. Altersstruktur,
Geschlechter-verteilung etc.)
Vorteile:
- Hohe Repräsentativität und damit hohe Generalisierbarkeit der Ergebnisse
Nachteile:
- Wir müssen definieren, was „zentrale“ Merkmale sind
- Wir müssen die zu definierenden Anteile (Quoten) kennen
Geschichtete Stichprobe
Es werden zunächst „Klumpen“ ausgewählt, für die dann ggf. eine Quotenbestimmung
erfolgt. Entsprechend der Quoten erfolgt eine zufällige Auswahl geeigneter Kandidaten.
Vorteile:
- Hohe Repräsentativität und damit hohe Generalisierbarkeit der Ergebnisse
- Verweigerung der Studienteilnahme Einzelner kein Problem
Nachteile:
- Hoher organisatorischer Aufwand (Klumpenwahl, Definition zentraler Merkmale)
Randomisierung
Werden Probanden zufällig auf zwei Untersuchungsgruppen aufgeteilt (z.B. Medikamentengruppe vs. Placebogruppe), sorgt der Zufall dafür, dass sich die beiden Gruppen nicht systematisch unterscheiden. D.h., alle möglichen Störvariablen verteilen sich
bei ausreichend großen Stichproben gleichmäßig auf die Gruppen – der Untersucher
muss diese Störgrößen nicht explizit kontrollieren (sollte aber die ihm bekannten dennoch messen, um zu prüfen, ob wirklich keien systematische Verzerrung stattgefunden
hat)
Latente Merkmale
Nicht direkt messbar – werden über Indikatoren erschlossen (z.B. Persönlichkeit, Intelligenz, Depressivität werden über Tests, Fragebögen oder Interviews ermittelt).
Nominal
Gleich vs. ungleich (z.B. Diagnose, Geschlecht). Modus / Modalwert
Ordinal
Daten können zusätzlich in Rangreihe gebracht werden (z.B. Likert-Skalen, Krankheitsstadien) – Median; Range / Interquartilabstand
Intervall
Daten können zusätzlich bzgl. ihrer Abstände beurteilt werden (Celsius-Skala, Zeitrechnung) – arithmetisches Mittel; Standardabweichung / Varianz
Verhältnis
Daten können zusätzlich bzgl. ihrer Verhältnisse beurteilt werden, da ein natürlicher
Nullpunkt vorliegt (z.B. Kelvin-Skala, physikalische Maße) – arithmetisches Mittel;
Standardabweichung / Varianz
Likert-Skala
Verfahren zur Messung persönlicher Einstellungen - besteht aus mehreren Aussagen,
denen die Befragten auf einer vorgegebenen mehrstufigen Antwortskala mehr oder
weniger stark zustimmen oder die sie ablehnen können.
Visuelle Analogskala
Skala zur Messung subjektiver Einstellungen (z.B. Schmerzforschung und Schmerztherapie) eingesetzt. Meistens handelt es sich um eine Linie, deren Endpunkte extreme
Zustände darstellen, wie z. B. „kein Schmerz“ und „unerträglicher Schmerz.