Forschungsmethoden Flashcards
Was ist der Gegenstand der Psychologie?
Gegenstand der Psychologie ist das breite Spektrum des menschlichen Erlebens, Verhaltens und Handelns. Die Psychologie beschäftigt sich mit der Erforschung der mentalen Prozesse, des Verhaltens, der Emotionen, der Entwicklung, der zwischenmenschlichen Beziehung, der Wahrnehmung, des Denkens und der Vielfalt des menschlichen Erlebens.
Ist eine Disziplin, die versucht, das Verständnis des menschlichen Verhaltens zu erweitern, indem sie die inneren Prozesse, die das Verhalten beeinflussen, erforscht
Definition Erkenntnisgewinnung
Allgemeines Ziel jeder wissenschaftlichen Tätigkeit ist das Generieren von beständigem Wissen.
(generieren von zuverlässigen (reliablen) und gültigen (validen) Erkenntnissen)
Psychologie als Wissenschaft möchte Erkenntnisse zu ihrem Gegenstandsbereich schaffen, möchte Antworten auf Fragen geben,die das menschliche Erleben, Verhalten und Handeln betreffen.
Erkenntnis= Problem, das der Wissenschaftler lösen will
Definition WIssenschaft
WIssenschaft ist der Problemlöseprozess zur Gewinnung eindeutiger und zuverlässiger Antworten
Problemlöseprozess
Die Wissenschaft in der Psychologie ist ein Problemlöseprozess, der darauf abzielt, eindeutige und zuverlässige Antworten zu generieren.
Gemäß Hussy liegt ein Problem vor, wenn ein gegebener Ausgangszustand, oft eine vorläufige Antwort/Hypothese, in einen Zielzustand, eine geprüfte Aussage, überführt werden soll.
Dieser Prozess wird durch Barrieren erschwert, die die Überführung behindern
4 methodischen Grundaufgaben der Psychologie
- Beschreiben
= Merkmal klassifizieren, benennen,definieren und auch Zusammenhänge erfassen - Erklären
= Erklärungen sind Angaben über Bedingungsverhältnisse von Sachverhalten bzw. Angaben über Abhängigkeiten zwischen Sachverhalten -> UV bedingt AV
Erklärung 1.Ordnung: unmittelbares Bedingungsgefüge (Ohne Variablen)
Erklärung 2.Ordnung: AV->intervenierende Variable-> Ursache (UV)
3) Vorhersagen
=vorwärts gerichtete Erklärungen
- setzt das genau beschreiben und erklären voraus
4) Verändern
= kann man Erklären, will man verändern
Bsp: Welche Therapiemethode ist effektiv, um depressive Patienten zu heilem?
Abhängige Variable
Stellt die vom Verursacher vermutetet Wirkung der unabhängigen Variable dar z.B Klassengröße
Unabhängige Variable (UV)
Ursache, Bedingung, von der sich Forscher bestimmte Wirkung erwartet z.B. Schulnote
Kausalität
Von kausalen Beziehung spricht man, wenn ein vorausgehendes Ereignis als Ursache und das nachfolgende Ereignis als Wirkung bezeichnet wird
-> statistische Zusammenhänge
alleine erlauben keine Aussage über Kausalität
Intervenierende Variable
Merkmal, dass die Beziehung zwischen UV und AV beeinflusst (z.B. NAchhilfeunterricht)
Empirische Wissenschaft
Ist daran interessiert, Hypothesen und Theorien zu den Fragen zu entwerfen, mit denen man sich gerade beschäftigt
-> diese Hypothesen und Theorien werden nun ihrerseits mit der Realität konfrontiert. Man vergleicht gedankliche Antwort auf die Frage mit den in der Realität vorfindende Sachverhalten
Forschungsmethoden Definition
Die generelle bzw. Wissenschaftliche Vorgehensweise beim Aufstellen der Fragestellung, der Planung, der Durchführung und der Auswertung einer Untersuchung
Ablauf einer Forschungsmethoden
- Formulierung einer wissenschaftlichen Fragestellung (Literaturrecherche, Bildung einer Hypothese)
Wissenschaftliche Fragestellung= Mitteilung darüber, welcher Sachverhalt untersucht werden soll
Hypothese= formulierte Vermutung über dem Ausgang einer erst noch zu unternehmenden Untersuchung
Zusammenhänge zwischen 2 Merkmalen
Hypothese Muss so formuliert sein, dass die Untersuchung verifiziert oder falsifiziert ist
Z.B. Z.B. Gibt einen Zusammenhang zwischen Intelligenz und Ängstlichkeit
Empirischer Nachweis (Prüfung) muss geführt werden
Wenn die empirische Prüfung positiv ausfällt, gibt die Hypothese als geprüfte Aussage - Planung der Untersuchung
- was wird untersucht? (variable)
- wer wird untersucht? (Stichprobe)
- Wie wird untersucht?(Erhebungsmethode, Erhebungsdesign,Operationalisierung)
- welche Fehlerquellen können auftreten und wie geht man mit ihnen um? - Datenerhebung -> Anwendung Erhebungsmethoden
- Datenanalyse -> Statistik
- Interpretation -> Beantwortung der Forschungsfrage
Operationalisierung
Ein Merkmal beobachtbar und messbar zu machen, oft in Form eines Zahlenwertes
- Geschieht mithilfe eines Messinstruments
- aus Operationalisierung ergibt sich das Skalenniveau der entstehenden Daten
Bsp: Intelligenz als IQ Wert wird operational definiert Mund mithilfe eines Intelligenztests messbar gemacht
Reaktivität von Gegenmaßnahmen
Reaktivität= Veränderung bzw.. Verzerrung der erhobenen Daten schon aufgrund der Kenntnis der untersuchten Personen darüber, dass sie Gegenstand der Untersuchung sind
Aufgrund von Reaktivität verändert sich die Beschaffenheit des zu erforschenden Gegenstands
REDUZIERUNG VON REAKTIVITÄT
- in UnKenntnis über die untersuchen lassen (eventuell ethisch problematisch)
- Anonymität zusichern
- eine Coverstory über den Untersuchungszweck mitteilen
- Mit nichtreaktiven oder indirekten/implizierten Messverfahren untersuchen, deren Ergebnisse nicht direkt beeinflusst werden können (z.B. biologischer MArker, Reaktionszeit)
Validität
Gültigkeit von Aussagen auf Basis von Erfahrungen
Konstruktvalidität
- Konstruktvalidität
-> wird. Tatsächlich, dass gemessen, dass gemessen werden soll?
->übergreifender Validitätsbegriff
-> ist Konstruktvalidität gefährdet-> alle anderen Formen der Validität auch
Gegenbeispiel: (sozial) erwünschtes Verhalten
In einem Persönlichkeits Test werden nicht die Antworten angekreuzt, die die eigene Persönlichkeit am besten widerspiegeln, sondern diejenigen, die mich am besten im Licht da stehen lassen
-> statt Persönlichkeit werden Erwartungen der Versuchsperson gemessen (falsches Konstrukt)
Interne Validität
Ist die Veränderung einer abhängen Variable kausal auf die Veränderung unabhängiger Variable zurückzuführen oder gibt es Alternativlösungen?
Gegenbeispiel: untersuchungsbedingte Störvariable
Eine Statistik Klausur von zwei Kursen findet in zwei verschiedenen Räumen statt. Der Kurs im ersten Raum wird durch laute mehr MähArbeiten gestört, der Kurs im zweiten Raum nicht
-> unterschiede in den Leistungen nicht auf verschiedene Kurse zurückzuführen, sondern (teilweise)K auf die Störung des zweiten Kurses
Externe Validität
KAnn das Ergebnis über die Untersuchung hinaus verallgemeinert werden?
Gegenbeispiel: zu Ende gewählte Stichprobe?
Es soll anhand eines Planspiels untersucht werden, wie sich die Risiko Einschätzung auf unternehmerische Entscheidungen auswirkt. Die Teilnehmer werden ausschließlich unter Studierende der SRH Hochschule Heidelberg rekrutiert
-> Ergebnisse der Studierenden lassen sich ohne weiteres auf Unternehmer übertragen. Ist nicht repräsentativ für die zu untersuchende Grundgesamtheit.
Statistische Validität
Kann aus den statistischen Berechnungen eine Aussage über die Forschungsfrage gemacht werden?
Gegenbeispiel: Falsches Skalenniveau gewählt
Parteienpräferenz wurde wie folgt codiert : CDU=1 , SPD =2, Sonstige= 3
In der deskriptiven Statistik wurde der Mittelwert 1.4 angegeben
-> für das Skalenniveau Mittelwert nicht sinnvoll interpretiert -> Modus!!
Stichprobe / Grundgesamtheit
Grundgesamtheit/Population = Ist die Menge, über die man eine Aussage machen möchte
Bsp: alle Bundesbürger, alle Studierende der SRH Heidelberg, alle Ärzte…
-> Population ist meist zu groß, um vollständig untersucht zu werden
-> daher zieht man aus einer Population zufällig eine Stichprobe mit möglichst vielen PErsonen und untersucht diese
-> je größer Stichprobe, desto aussagekräftiger ist Untersuchung
Repräsentativität
= Stichprobe und Grundgesamtheit stimmen in allen wesentlichen Merkmalen überein
- Verallgemeinerung der Stichprobe ist nur möglich, wenn die Stichprobe repräsentativ für die Grundgesamtheit ist
-> betrachtet man nur einen bestimmten Ausschnitt der Grundgesamtheit, wird die Untersuchung verzerrt
Z.B. viel mehr Frauen als Männer, nur deutsche Probanden -> kein Rückschluss auf gesamte Menschheit
Auswahlverfahren der Stichprobe
Zufällige Auswahl (ermöglicht Verallgemeinerung)
- einfache Zufallsauswahl: Ziehung aller Personen gleich wahrscheinlich
-geschichtete Auswahl: Einteilung in Schichten (z.B. Abteilung eines Unternehmens)
- Klumpenauswahl: Einteilung in Klumpen (Cluster z.B. Schulklassen-> zufällige Auswahl eines oder mehreren Klumpen, die dann vollständig untersucht werden
Nicht zufällige Auswahl:
- Quotenauswahl: feste Quoten z.B. Männer und Frauen
- Anfallende Auswahl: ( Gelegenheitsstichprobe)
Erhoben wird, wer gerade da ist (Häufigster Fall) z.b. Marktforschung
Qualitative Erhebungsmethode
= verstehen die Sozialwissenschaften eine sinnverstehende, interpretative wissenschaftliche Verfahrensweise bei Erhebung und Aufbereitung sozial relevanter Daten
- weniger repräsentativ
- eher beschreibend, einordnend, verstehend, sehr flexibel
- wird gerne zur Ableitung neuer Theorien genutzt
- Einzelpersonen stehen im Mittelpunkt
Quantitative Erhebungsmethode
= Werden im Rahmen der quantitativen Forschung eingesetzt und repräsentieren eine Vorhergehensweise zur numerischen Darstellung empirischer Sachverhalte
- stärker Systematisch, weniger flexibel, befasst sich mit der Interpretation von Zahlen
- betrachtetet Stichprobe steht im Mittelpunkt
- wird gerne zur Hypothesenprüfung genutzt
Beide Erhebungsmethoden:
- Beschreiben Ansätze, in welcher Form Daten erhoben werden
- Nicht als Gegensätze zu betrachten, sondern als Kontinuum
-> in jeder Untersuchung wird eine Mischform zwischen rein quantitativen und rein qualitativen Methoden gewählt - beide sind empirisch und wissenschaftliche Erhebungsansätze, die sich in der Gewichtung verschiedener Merkmale unterscheiden
Quantitative Methoden
- als Grundlage psychologischer Forschung= Infos in Form von Zahlen
-> Zahlen sind präzise
-> Zahlen sind vergleichbar (zwischen und innerhalb Personen)
-> Zahlen sind verknüpfbar ( können verrechnet werden z.B. Mittelwert) übersichtlich und sparsam
Quantitative Erhebungsmethode Gütekriterien
- wissenschaft wird an Gütekriterien gemessen
-> Objektivität: Ergebnisse sind unabhängig vom Erheber
-> Reliabilität: Vergleichbare Ergebnisse unter vergleichbaren Umständen
-> Validität: Ergebnisse spiegeln das wider, was gemessen werden soll
-> für valide Untersuchung sind alle 3 Kriterien nötig
Verfahrensarten ( Quantitative Erhebungsmethode)
- Beobachten, zählen, messen
Wissenschaftliche Beobachtung : die systematische und regelgeleitete Registrierung des Auftretens bzw. Der Ausprägung von Merkmalen und Ereignissen z.B. aggressives Verhalten -> auch rein qualitativ möglich
Beobachtungsplan:
->was soll beobachtet werden?
-> Welche Aspekte sind relevant?
-> Welche Interpretationsspielraum haben die Beobachter?
-> wann, wo, wie lange, bei wem soll Beobachtung erfolgen
-> Wie wird Beobachtung registriert?-> Reliabilität, Validität, Objektivität
Zählen: wie häufig ist z.B. ein bestimmtes Verhalten aufgetreten?(z.B. Häufigkeit aggressives Verhalten)
-> Nominalskalenniveau ausreichend
Messen: Erfassen von (feinen) Merkmalsausprägungen (z.B. Intensität aggressives Verhalten)
-> Intervallskalenniveau - Selbstbericht
- psychologische Tests
- Biopsychologische/ neurowissenschaftliche Verfahren
2.Selbstbericht
Wenn ich wissen will, as jemand denkt oder fühlt: „einfach“ fragen (wie ängstlich bist du gerade)
3 Prozesse des Selbstberichts
> Interpretation der Frage („Wie zufrieden sind sie mit ihren Dozenten?“)
Urteilsbild („Dozent ist okay, bedeckt man, dass das Thema eher trocken ist“;Vielzahl von Überlegungen (Erfahrungen etc.) können eine Rolle spielen
Kommunizieren: (okay=geht so, okay=ganz gut ; Zahlenskala: -1(schlecht) - 0 (mittel) +1 (sehr gut)
Befragung
Variante und Konstruktionsprinzipien
- Befragung basieren auf Fragen
- Einzelfragen werden als Items bezeichnet
Items = eine als Frage oder als Urteil formulierte Aussage, zu der die befragte Person ihre Zustimmung oder Ablehnung -ggfs.in unterschiedlichen Intensität- äußern kann
Befragungsarten
- schriftliche vs. Mündliche Befragung : Fragebogen/ Interview
- standardisierte vs nichtstandardisierte Befragung : Wortlaut und Reihenfolge fest vorgegeben
Halbstrukturiert: Leitfaden
Nichtstrukturiert: keine Vorgaben zur Formulierung und Reihenfolge - einzelbefragungen vs Gruppenbefragungen
- Ratings: bei einem Rating geben Befragte ein Urteil auf einer numerischen interpretierbaren Skala an
Urteilstendenzen
= Antworten auf Ratingskalen können durch spezielle Urteilstendenzen beeinflusst werden
- Tendenzen zur Mitte: Vermeidung von Extremurteilen (Abhilfe: gerade Anzahl von Antwortmöglichkeiten)
- Gedankenlose Reproduktion: Probanden „schließen sich auf Frageformat ein“ und kreuzen immer das gleiche an (Abhilfe:umpolen,Mischen von Fragen)
- Halo-Effekt: Die Beurteilung eines Merkmals bestimmt die Beurteilung des ganzen Objekts
Z.B. wird eine Person für gutmütig gehalten, dann auch: zuverlässig, freundlich etc.
->Urteilstendenzen gefährden die Konstruktvalidität der Untersuchung: Statt des zu messenden Merkmals werden die entsprechenden Tendenzen erfasst
Variable Definiton
= ist ein Merkmal oder Eigenschaft eines Menschen, Objekts, Systems, etc. , das unterschiedliche Ausprägungsgerade (=Stufe) annehmen kann, welches also variiert
-> Ausprägungsgrad eines Merkmals kann zwischen verschiedenen Personen aber auch innerhalb einer Person variieren ( Inter und intraindividuelle Varianz)
Qualitative Variable
Drückt die Qualität (Beschaffenheit) aus z.B. Augenfarbe
quantitative Variable
Merkmalsausprägungen kann in Zahlenwert ausgedrückt werden z.B. Alter
Konkrete (einfache) Variable
- können leicht erfasst/gemessen werden z.B. Reaktionszeit
-> Einfache/Komplex: Anzahl der Bedeutungsaspekte
Abstrakte (Komplexe) Variable
- können NICHT direkt beobachtet werden, sie benötigen differenzierte Messinstrumente z.B. Intelligenz
- meist in eine psychologische Theorien eingebettet (z.B. Selbstwirksamkeit)
Nominalskalenniveau (EG)
- Klassifikation, Kategorie
- Daten lassen sich weder in logische Reihenfolge sortieren, noch quantitativ differenzieren
(Mit Zahlen, die durch die Operationalisierung entstanden sind, kann nicht gerechnet werden) - Merkmalsausprägungen zweier Merkmale lassen sich also lediglich in Gleichheit oder Ungleichheit unterschieden
Z.B. Geschlecht, Automarke, Stadt, Studiengang
-> Modus ( häufigste Wert)
Ordinalskala (1.OG)
- Ist zusätzlich eine Reihenfolge Bestimmbar?
- Ausprägung der Variablen können zu einer Unterscheidung nach geordnet werden
- zahlen können nicht interpretierbar werden
- Keine Sinn Differenzen zu berechnen
Z.B. Schulnoten, Bildungsstand
-> Median (Mittelwert zwischen höchsten und niedrigsten Wert) ; Modus: häufigst auftretender Wert
Intervallskalenniveau (2. OG)
-Sind zusätzlich Abstände mess- und interpretierbar?
- Unterschiede können exakt bestimmt werden
- Intervalle können empirisch sinnvoll interpretiert werden
- Nullpunkt ist willkürlich und sinnlos
Z.B. Temperatur, IQ, Fragebogen Extraversion
-> Mittelwert, Median, Modus
Verhältnisskala&Absolutskala
Gibt es natürlichen Nullpunkt?
- gibt natürlich Nullpunkt
Verhältnis der Zahlen kann berechnet werden
Z.B. Körpergröße, Gehalt, Reaktionsgeschwindigkeit, Gewicht
-> Mittelwert, Median, Modus
Wozu brauchen wir Statistik?
Benötigen wir vor allem, um informierte (= richtige oder bessere) Entscheidungen für Probleme treffen zu können, die sich nicht auf Einzelfälle, sondern auf die Gesamtheit oder Massenerscheinungen beziehen oder von Population betroffen sind
Konzept der zentralen Tendenz
Beschrieben die Lage der Häufigkeitsverteilung einer gemessenen Variable
Gängigste Maße: Mittelwert, Median, Modus
Mittelwert
- bei großen Stichproben ist der Mittelwert das Lagemaß der Wahl
- bei kleinen Stichproben ist der Mittelwert auffällig für Extremwerte (=Ausreißer), die den Mittelwert stark verzerren können
-> in solchem Fall bietet sich der Median/Modus an
Mittelwert= (Summe aller Werte) / (Anzahl der Werte)
Median
= zeigt den Wert innerhalb einer Verteilung an, bei 50% der gemessenen Werte unter und die anderen 50% über dem Median liegen
- alle gemessene Werte werden nach der Größe sortiert und genau in der Mitte der Rangfolge einen Schnitt gemacht
Vorteil: Ausreißer ist nur einer von vielen Werten innerhalb einer gleichberechtigten Rangfolge, kann nicht durch Ausreißer verzerrt werden
Nachteil: Benötigt einen nicht allzugleich Stichprobengröße
- Werte in aufsteigender oder absteigender Reihenfolge sortieren
Anzahl der Werte ungerade?- Median befindet sich direkt in der Mitte der sortierten Liste
Anzahl gerade?- Durchschnitt der beiden Mittelwerte (a+b)/2
Modus
= ermittelt den Wert innerhalb der Stichprobe, der am häufigsten vorkommt
- dann weniger aussagekräftig, wenn es viele Werte innerhalb der Verteilung gibt, die gleich oft vorkommen
-> mehrere Modus= Modi (bimodale
Konzept der Streuung
Bezeichnet die Verteilung von Daten und gibt an, wie weit die einzelnen Werte innerhalb eines Datensatzes gestreut sind
- wichtigste Streuungsmaße: Varianz, Standardabweichung, Spannweite
Variationsbreite/Range/Spannweite
Max(x) - Min(x)
-> stark durch Ausreißer beeinflusst
Interquartilabstand (IQ)
Aufteilen der sortierten Daten in 4 Teile, die jeweils 25% der Daten erhalten, Abstand des 1. und 3. Quartils
- Differenz zwischen dem dritten Quartil und dem ersten Quartil (Q3-Q1)
- unempfindlich gegenüber Ausreißern als Spannweite
-> Ordinalskala
Varianz
- maß für die Streuung für Intervallskala
- zeigt die Abweichung von Mittelwert x bzw. Vom erwartungswert
- Quadrierung der Abstände vom Mittelwert führt zu folgenden Eigenschaften der Varianz:
- Abstände können sich nicht auf Null aufaddieren (Quadrierte werte sind immer positiv)
- größere Abstände vom Mittelwert werden stärker gewichtet
- Maßeinheit quadriert sich (z.B. Alter) -> um Maßeinheit wieder herzustellen -> Standardabweichung
Standardabweichung
- ist die Quadratwurzel der Varianz
- sie gibt an wie stark die einzelnen werte im Durchschnitt von ihrem Mittelwert abweichen
- Intervallskala
Graphische Darstellung
Graphische Darstellungsformen sind visuelle Methoden, um Daten oder Informationen in Form von Diagrammen, Grafiken oder anderen visuellen Elementen zu präsentieren. Diese Visualisierungen dienen dazu, komplexe Informationen verständlicher zu machen, Muster, Trends oder Beziehungen in den Daten aufzuzeigen und den schnellen Vergleich von Daten zu ermöglichen.
- Punktwolken sind eine einfache graphische Darstellung für Paare von Messwerten
Häufigkeitsverteilung
Eine Häufigkeitsverteilung ist eine Darstellung, die die Häufigkeit oder Anzahl, mit der bestimmte Werte in einer Datenmenge auftreten, darstellt. Sie zeigt die Verteilung der verschiedenen Werte und wie oft sie in einem Datensatz vorkommen.
Die Erstellung einer Häufigkeitsverteilung beinhaltet normalerweise die Identifizierung der verschiedenen Werte in einem Datensatz und die Zählung, wie häufig jeder dieser Werte auftritt. Anschließend werden diese Häufigkeiten typischerweise in einer Tabelle oder einem Diagramm zusammengefasst.
Häufigkeitsverteilungen werden oft visuell dargestellt, z. B. durch Säulendiagramme oder Histogramme, um die Verteilung der Werte deutlicher zu zeigen.
Darstellungsform Histogramm
Stellt die Verteilung von kontinuierlichen Daten dar. Es gruppiert die Daten in Intervalle und zeigt die Häufigkeit oder Anzahl der Beobachtungen innerhalb dieser Intervalle in Form von Säulen.
- nützliche Methode, um Muster, Schwerpunkte oder Abweichungen in den Daten zu erkennen
Konstrukt
bezieht sich auf eine abstrakte Idee, eine Hypothese oder ein Konzept, das nicht direkt beobachtbar ist, sondern aufgrund von Beobachtungen und Schlussfolgerungen angenommen wird. Konstrukte sind mentale Konzepte oder Eigenschaften, die verwendet werden, um etwas zu beschreiben, das nicht physisch gemessen oder direkt beobachtet werden kann.
(Z.B Intelligenz)
Hypothese
Vorläufige (vermutete) Antwort, die Forscher auf ihre Fragen geben.
Um Vermutungen handelt es sich so lange, als der wissenschaftliche Nachweis noch aussteht
Merkmal einer Hypothese
- präzise und widerspruchsfreie Formulierungen
- prinzipielle Widerlegbarkeit
- Operationalisiert
- Begründbarkeit
Hypothesenarten
- universelle Hypothesen
- beschränkt universelle Hypothesen
- quasiuniverselle Hypothesen
Deduktiv
= Ableitung des Besonderen und Einzelnen aus dem Allgemeine (aus Regeln, Gesetzesmäßigkeiten
Ausgangspunkt ist eine Theorie auf der Grundlage des bislang vorhandenen Wissens über den Gegenstand.
Aus dieser Theorie wird eine Hypothese gebildet.
Diese Hypothese wird in Untersuchungen (Datenerhebungen, Auswertung) geprüft
Generierung
- Bildung Hypothese
- Studium der Literatur
- Kenntnis der bestehenden Theorien
Induktiv
Methode des Schlussfolgerns von Einzelfällen auf das Allgemeine & Gesetzmäßigkeiten
- Erfahrungen zu sammeln und daraus allgemeinverbindliche Aussagen treffen
- hilft neue Gesetzmäßigkeiten zu erkennen
Generierung
Ausgangspunkt ist der Einzelfall und aus diesem Einzelfall wird eine Hypothese gebildet
Statistische Hypothese
Annahme oder Vermutung über eine bestimmte Eigenschaft oder Beziehung in einer Population, die durch Daten und statistische Methoden getestet werden kann.
In der Regel werden Hypothesen aufgestellt, um Unterschiede, Effekte,Beziehungen zwischen zwei Variablen zu untersuchen
Nullhypothese
Ist die Annahme, dass es keinen Effekt oder keine Beziehung gibt
-> Unterschiede/Zusammenhänge sind auf zufällige Variation zurückzuführen
Alternativhypothese
Ist das Gegenteil einer Nullhypothese
-> postuliert, dass es einen echten Effekt oder Beziehung in der Population gibt, der über zufällige Variationen hinausgeht
Grundaufgaben der Psychologie
Beschreiben, Erklären, Vorhersagen, Verändern
Unabhängige Variable
Ist die Ursache, Bedingung , von der sich der Forscher eine bestimmte Wirkung erwartet
Z.B. Schulnoten
Abhängige Variable
Stellt die vom Verursacher vermutete Wirkung der unabhängigen Variable dar z.B. Klassengrösse
Erhebungsdesign
Beschreibung der organisatorischen Details einer Untersuchung
Erhebungsdesign Zeitliche Dimension
Beschreibt Anzahl der möglichen Messzeitpunkte des Designs und deren zeitlichen Fokussierung
Erhebungsdesign kausale Dimension
Beschreibt Qualität der zulässigen Aussagen eines Designs
- einfache Variablenbeziehung (ohne Kausalität): korrelatives Design
- Ursache-Wirkungs-Zusammenhang (Kausalität): Experiment