Prüfungsvorbereitung Flashcards

1
Q

Regression

A

prüft ob und in welche Richtung zwei quantitative Variablen zusammenhängen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

multivariate Regression

A

hat mehrere unabhängige/erklärende Variablen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Arten von Variablen

A
  1. unabhängig/erklärend
  2. abhängig (Ergebnisvariable)
  3. Kontrollvariable
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Koeffizienten

A

alpha und beta als Parameter der linearen Regression

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Freiheitsgrade

A
  • werden mithilfe des Stichprobenumfangs und Anzahl Parameter berechnet
  • können in Datensatz frei variieren ohne Bedingungen zu verletzen
  • wichtig bei Parameterschätzung und Hypotherentests
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Standardfehler

A

wird mithilfe der Zusammenfassung von Residuen (Fehlerquadratsumme) berechnet

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Residuen

A

Differenzen zwischen tatsächlichen und errechneten Werten (Abstand zwischen Punkten auf Korrelationsgeraden)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

t-Verteilung

A
  • symmetrisch und glockenförmig
  • um Mittelwert 0
  • breit/flach mit “dickeren” Tails (Enden der Verteilung haben sehr flache Steigung, die nie 0 erreicht)
  • abhängig von df
  • für kleine Stichproben und unbekannte Varianz
  • mit df -> ∞ nähert sie sich der Normalverteilung an
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Standardnormalverteilung

A
  • symmetrisch und glockenförmig
  • um Mittelwert 0 mit Standardabweichung 1
  • schmal mit dünnen Tails
  • unabhängig von df
  • für grosse Stichproben mit bekannter Streuung
  • wenig Wahrscheinlichkeit für Extremwerte
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Verzerrung durch…

A
  • Selektionsverzerrung (nicht bei Zufallsstichprobe)
  • Mess-/Beobachtungsverzerrung (Befragungsmedium)
  • ausgelassene Variablen (siehe Störfaktoren)
  • systematische Nicht-Beantwortung von Fragen
  • Antwortverzerrung
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Intervallskalierte Variable

A
  1. lässt sich ordnen
  2. Abstände sind bedeutungsvoll (messbar und immer gleich)
  3. quantitativ (ausser man ist sich sicher, dass kategoriale Variablen definierte Abstände haben)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Ordinalskalierte Variable

A
  1. lässt sich ordnen
  2. Abstände sind nicht immer gleich
  3. kategoriale und quantitative Variablen
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Nominalskalierte Variable

A
  1. keine Reihenfolge
  2. kein numerischer Wert (ausser er wird ihr zugeteilt)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Deskriptive Statistik

A

Zusammenfassung von Stichprobendaten (Mittelwert, Verteilung, Standardabweichung, Minimum, Maximum…) zur Beschreibung von Sachverhalten und Informationsvereinfachung

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Spannweite

A
  • engl. Range
  • Differenz von Maximum und Minimum
  • Verzerrt durch Ausreisser
  • Ist in Stichproben immer kleiner als in der Population
  • kein erwartungsgetreuer Schätzer
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

z-Tabelle wird verwendet…

A
  1. um Wahrscheinlichkeiten für Standardnormalverteilung zu berechnen
  2. wenn Populationsvarianz bekannt ist
  3. wenn n > 30
  4. bei Stichprobenanteilen (%)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

einseitiger Hypothesentest

A
  • gerichteter Hypothesentest
  • wenn p für > z oder < -z gesucht wird dann (1-p)
  • wenn p für < z oder > -z gesucht wird dann (p)
  • “kleiner gleich” und “grösser als” (oder umgekehrt) muss geprüft werden
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

zweiseitiger Hypothesentest

A
  • ungerichteter Hypothesentest
  • um z-Wert zu ermitteln muss p-Wert + linke Hälfte des verbleibenden Intervalls gerechnet werden (bspw. 90% + 5%), dann kann man Wert ablesen
  • gleich oder ungleich
  • Berechnung obere und untere Grenze
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

Nullhypothese

A
  • Keine Veränderung der Zustände
  • immer mit =
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

Forschungshypothese

A

-Veränderung der Zustände
- direkt aus dem Text zu entnehmen
- von Forschenden vertreten
- entweder strikt grösser oder kleiner

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

Kausaler Effekt

A

Def: etwas bewirkt etwas anderes
- Kausaler Effekt von X auf Y
-> Unterschied in Beobachtung für Y wenn sich Wert von X für diese Beobachtung ändert
Y(X=verändert) - Y(X=unverändert)
-> wenn negativer Wert, dann verringert eine Zunahme von X den Wert von Y (negativer Zusammenhang VWL)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q

Experiment

A
  • Beobachtungen werden zufällig (!!) einem Wert von X (einer Gruppe) zugeschrieben (Zufallsstichprobe)
  • wegen zufälliger Zuweisung ähneln die Effekte von X denjenigen von anderen Variablen (der Population zB)
  • weist Kausalität nach
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

Bedingte Unabhängigkeit

A
  • zwei Variablen sind voneinander Unabhängig (zB durch Randomisierung)
  • Korrelation zwischen X und Y kann nicht mit Drittvariablen erklärt werden
    -> eliminiert systematische Verzerrungen
24
Q

Quasi-Experimente

A

Exogener Schock schreibt Werte quasi-zufällig der Variablen X
-> Gruppen existieren meist schon vorher durch exogenen Schock (wurden aber nicht extra so konzipiert)
-> Störfaktoren sind zB wenn man sich freiwillig unabhängig des exogenen Schocks einer Kategorie zuordnet

25
Q

Diff-in-Diff-Ansatz

A

Vergleich von Vorher-Nachher Unterschied der abhängigen Variablen bei denen sich die primäre unabhängige Variable geändert hat durch einen exogenen Schock (Diff.1 ) mit dem Vorher-Nachher-unterschied derjenigen, deren unabhängige Variable sich nicht geändert hat (Diff. 2)
-> Differenz von Diff. 1 und Diff. 2 wird ermittelt

26
Q

Treatment

A

primäre erklärende Variable einer Ergebnisvariablen

27
Q

Zufallsvariable

A

Ergebnis eines Zufallsexperiments (Ziehung von n aus N Elementen)
-> Zufallsstichprobe

28
Q

negative z-Werte

A

die Wahrscheinlichkeiten für “grösser als” entsprechen denen, die für positive z-Werte für “kleiner als” in der Tabelle stehen

29
Q

z-Quantilwahrscheinlichkeit p < 0.5 (nicht in z-Tabelle ablesbar)

A

(-1) * (1- p) und dann mit z-Formel auflösen

30
Q

Stichprobenkennwerteverteilung

A

Wahrscheinlichkeitsverteilung von Stichproben-Mittelwerten
-> gleicht einer Normalverteilung wenn n > 30
-> folgt t-Verteilung wenn n < 30

31
Q

Standardfehler

A
  • gibt Genauigkeit der Mittelwertschätzung an
  • genauer, je grösser die Stichprobe ist (da so Populationsmittelwert besser geschätzt werden kann)
  • entspricht der Standardabweichung bei genug grossen Stichproben und wenn Mittelwert dem Erwartungswert entspricht
32
Q

Teststatistik

A

Wert der Unterschied zwischen Beobachtung und Messung angibt

33
Q

Formaler Test

A

statistische Methode um Hypothese zu überprüfen (H0 annehmen oder verwerfen)

34
Q

obere Grenze

A

p + z * se

35
Q

untere Grenze

A

p - z * se

36
Q

Hypothesentest Ablauf

A
  1. Teststatistik (mit Standardfehler für formale Tests)
  2. z- oder t-Wert in der Tabelle nachschauen
    3a. bei H1 “grösser als” -> 1- zugehörige Quantilwahrscheinlichkeit
    3b. bei H1 “kleiner als” -> nur zugehörige Quantilwahrscheinlichkeit
  3. mit Signifikanzniveau vergleichen
  4. H0 annnehmen oder ablehnen
37
Q

t-Tabelle wird verwendet…

A
  1. wenn Populationsvarianz (Standardabweichung) unbekannt ist
  2. wenn n < 30
  3. meistens bei Vergleich von Mittelwerten (weil Standardabweichung geschätzt werden muss, was zu mehr Unsicherheit führt, wofür t-Tabelle geeigneter ist)
38
Q

Signifikanzniveau

A

gibt die Wahrscheinlichkeit an, mit der Forschende bereit sind die H0 fälschlich zu verwerfen
-> je grösser der Wert (je kleiner das Niveau), desto wahrscheinlicher, dass fälschlich verworfen wird
-> je kleiner der Wert (je grösser das Niveau), desto wahrscheinlicher, dass H0 fälschlich angenommen wird
=> Zielkonflikt den Wert nicht zu gross oder zu klein zu machen (meist nutzt man 1% oder 0.5%)

39
Q

R^2

A
  • Mass für Stärke der Korrelation von ergebnisvariable mit allen unabhängigen Variablen im Modell
  • fasst zusammen, wie gut Werte von x die Werte von y vorhersagen können
    -> Bestimmungsmass (zeigt, wie x, y verändern kann)
40
Q

bereinigtes (adjusted) R^2

A

korrigiert, dass R^2 immer ansteigt, wenn erklärende Variablen hinzugefügt werden, obwohl sie keine Erklärungskraft haben
-> umso kleiner, je weniger Variation in der Ergebnisvariablen stattfindet (je kleiner die Korrelation)

41
Q

R^2 Rechenweg & Formel

A
  1. Modell mit Mittelwerten und Vorhergesagten Werten durch die man die Residuen berechnet
  2. Modell mit y= a + b * x und dadurch Vorhersagefehler berechnen
  3. Summe der quadrierten Felher für beide Modelle 1. (TSS) und 2. (SSE) berechnen
    -> R^2 = TSS - SSE / TSS
42
Q

Kontrollvariablen

A
  • Multivariates Regressionsmodell indem Auswirkung von unabhängiger Kontrollvariable z auf Zusammenhang von x und y untersucht wird (testen ob x und y unabhängig von z korrelieren)
  • operationalisieren oftmals alternative Erklärungen für Korrelation
    -> y= a + b1* x1 + b2*z
43
Q

Multiple Ursachen

A

y kann durch verschiedene Variablen erklärt sein ( z korreliert mit x aber beide korrelieren aber auch mit y)

44
Q

Intervenierende-/Mediatorvariablen

A

Beziehung von x und y wird durch andere Variable vermittelt
-> Bsp: Bildungsniveau (x) bedingt Lebenslänge (y) nur durch Einkommen (z), welches mit x korreliert und y bedingt

45
Q

Störfaktor

A
  • z verändert Korrelation zwischen x und y
    -> Scheinkorrelation: x und y zeigen Korrelation obwohl durch testen von z klar wird, dass Zusammenhang verschwindet
  • z besteht aus den Variablen, die mit x korrelieren aber auch y beeinflussen können
  • wenn ausgelassen kommt es zu Verzerrung durch ausgelassene Variablen
46
Q

Interagierende Variable

A
  • verändern Beziehung von x und y NUR wenn z bestimmte Werte annimmt
  • werden durch Multiplikation mit primären unabhängigen Variable ins Modell eingeschlossen (y= a + b1 x1 + b2 x2 + b3 x3 z)
    -> Bsp: Einkommen (y) hängt von Bildung (x) ab aber verändert sich wenn Geschlecht (z) mit einbezogen wird (schwache Korrelation, wenn z=weiblich und starke, wenn z=männlich)
47
Q

Annahme der bedingten Unabhängigkeit

A
  • wichtig bei Interpretation von Korrelation nach Kontrolle für Störfaktoren (z)
  • besagt, dass Korrelation zwischen x und y nicht von ausgelassenen Variablen beeinflusst ist
48
Q

Kausaler Effekt und nicht Korrelation wenn…

A
  1. Variablen korrelieren
  2. Variablen in zeitlicher Abfolge stehen (x vor y)
  3. Korrelation nicht durch Kontrollvariablen erklärt werden kann
49
Q

Diskrete Variable

A
  • Werte sind klar voneinander abgegrenzt (vgl. intervallskaliert)
  • häufig mit Balkendiagrammen (mit Abstand zwischen Säulen) dargestellt
50
Q

Kontinuierliche Variable

A
  • kann jeden Wert im Intervall annehmen
  • unendlich viele Werte (alle Zwischenwerte und so)
  • häufig mit Histogrammen (ohne Abstand zwischen säulen) oder Dichtekurven (über einem Histogramm gezeichnet) dargestellt
51
Q

Streuung

A
  • Masse der Streuung sind Varianz und Standardabweichung
52
Q

Zentraler Grenzwertsatz (Gesetz der grossen Zahlen)

A
  1. Unabhängigkeit: Die Zufallsvariablen müssen unabhängig sein
  2. Verteilung: Die Einzelvariablen können beliebig verteilt sein (z. B. binomial, gleichverteilt)
  3. Stichprobengrösse: Der ZGS gilt näherungsweise ab einer ausreichend großen Stichprobe n>30
  4. Ergebnis: Der Mittelwert der Stichprobe nähert sich bei wachsendem n einer Normalverteilung mit:
    - Mittelwert: μ = Erwartungswert der Einzelvariablen
    - Standardabweichung: σ/Wurzel n
53
Q

effizienter Schätzer

A

der Schätzer unter den erwartungstreuen Schätzern, der die niedrigste Varianz vom vorgegebenen Parameter hat (zB am nächsten am Populationswert dran)

54
Q

Hypothesentest des beta-Koeffizienten

A

H0= beta unterscheidet sich nicht signifikant von 0 (beta=0) und somit beeinflusst die unabhängige Variable die Ergebnisvariable nicht
H1= beta unterscheidet sich signifikant und es besteht eine Korrelation

Formel: t=beta/se(beta)

  1. Werte in Code ablesen (Beta, t und p)
  2. p mit Signifikanzniveau abgleichen
  3. beurteilen ob H0 verworfen wird oder nicht
55
Q

Chi-Quadrat-Test

A

1) Gesamtsummen der Zeilen und Spalten berechnen (und Gesamt vom Gesamt)
2) erwartetet Häufigkeiten der Kontingenztabelle berechnen
-> (ges Zeile * ges Spalte) / ges Gesamt
3) Freiheitsgrade berechnen
-> df = (Anzahl Zeilen -1) + (Anzahl Spalten -1)
4) Chi-Quadrat-Teststatistik berechnen
5) Ergebnis anhand von df in Chi-Tabelle suchen und so p-Wert ermitteln
6) mit Signifikanzniveau abgleichen

56
Q

Einseitiger Test von Populationsunterschieden mit zwei Teilstichproben

A
  1. n>60 bei beiden Teilstichproben
  2. n*pi / (1-pi) >9
  3. n* (1-pi) / pi > 9
57
Q

Partielle Steigung von Treatment im Regressionsmodell

A
  • ist die Korrelation der primären unabhängigen Variable bereinigt für (also ohne) die Variation die in unabhängiger und Ergebnisvariable durch Kontrollvariable erklärt wird (durch Berechnung von Residuen)