Semester 2 Flashcards

1
Q

Modellvergleiche

A

Für lineare Modelle : F-Test
Für GLMs: Likelihood-Quotienten Test

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Likelihood-Quotienten-Test

A

LQ = volles Modell / H0 Modell
(Geht nur für genestete, parametrische Modelle)

Zur ML-Schätzung: Welcher Wert?
-> Likelihood wird maximiert um plausibelsten Wert für Parameter zu finden

Für Modell Vergleich: Wie gut Passung?
-> Schätzer bereits bestimmt
-> Likelihood Wert an dieser Stelle = Max der Likelihood -> wird für Modellvergleich verwendet
-> Je höher Max, desto besser passt Modell zu den Daten

In R:
Anova(lm1, lm2, lm3, test = „Chisq“)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Informationskriterien

A

AIC/BIC -> je kleiner desto besser
BIC: bestraft #Parameter stärker -> bevorzugt sparsame Modelle -> verhindert overfitting -> eher bei grossen SP geeignet

Stepwise Forward/Backward

Problem: Reihenfolge und SP abhängig

In R:
- AIC() / BIC()
Starmodell <- lm0
Grösstes_modell <- y~.
Stepwise_lm <- step(startmodell, scope = grösstes_modell, direction = „forward“)
Summary(stepwise_lm)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Kreuzvalidierung

A

Zur realistischen Abschätzung der Vorhersagegüte

  • Trainingsdatensatz in k Teile teilen
  • K-1 Teile für LernSP
  • Letzter Teil für TestSP

Bei Overfitting ist Fehlklassifikationsrate deutlich kleiner als FKR nach Kreuzvalidierung

Sparsamkeit & Praxistauglichkeit bei Modellauswahl berücksichtigen

Achtung!!: Signifikanztest nach Variablenselektion nicht mehr zuverlässig -> frische Daten/korrektur nötig

In R:
cv(lm1, K=5)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Mischverteilungsmodelle / latent class Modelle

A
  • Wahre Gruppenzugehörigkeit nicht bekannt/unsupervised/interessieren nicht
  • Multimodale Verteilungen (mehrere NV ineinander)
  • # Klassen werden vorher festgelegt
  • gewichtetes Mittel
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Clusteranalyse

A
  • keine y-Variable
  • kennt Gruppenzugehörigkeit nicht
  • Ziel: Personen anhand ihrer Ähnlichkeit in Gruppen einteilen
    -> Dendrogramm
  • wenn nötig vorher standardisieren

Einfach: bei 1 x
Kompliziert: bei mehreren x
- Euklidische Distanz (wie Pythagoras)
- Manhattan/Cityblock Distanz

Distanz zwischen Cluster:
- single linkage = Distanz zw nächsten Beobachtungen
- complete linkage = Distanz zw weitest entfernten Beobachtungen (besser wenn alle Beobachtungen sehr nahe)
- average linkage = Mittelwert über Distanz zw allen Beobachtungen

In R:
- hc <- hclust(dist(dd, method = „euclidean“/„manhattan“), method = „single“/„complete“)
- plot(hc)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Gemischte Modelle / Mixed Models

A

!!! Nicht Mischverteilungs/latent class Modelle !!!

Spezialannahme: Werte der Personen müssen nicht unabhängig sein (Messwiederholung, genestete)

Random Intercept Model:
- gleiche Steigung, anderes Intercept
- zufällige & feste Effekte (gemischt)
- Durchschnittsgerade (zb Klasse von der Schüler abweicht)
- Jede Klasse andere Regressionsgerade die anderes Intercept als Durchschnitt hat

Random Intercept & Slope Model: (!! Nicht Quantilregression !!)
- andere Steigung und anderes Intercept
- zufällige & feste Effekte
- Durchschnittsgerade (zb Klasse von der Schüler abweicht)
- Jede Klasse andere Regressionsgerade die anderes Intercept und andere Steigung als Durchschnitt hat

Feste Effekte = normale Regression (wenige Kategorien, einzelne Effekte interessant)
Zufällige Effekte = Abweichung vom Durchschnitt (viele Kategorien, Individuen, nicht interessant)

In R:
- rim <- lmer(y ~ x1 + x2 + (1|x3), data = dd)
-> Intercept je nach Klasse (x3) unterschiedlich
- rsm <- lmer(y ~ x1+ x2 + (x1|x3), data = dd)
-> Intercept und Steigung (Interaktion mit Note (x1), je nach Klasse (x3) unterschiedlich

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Fehlende Werte

A

MCAR: Missing completely at random
- zufall
- keine syst. Verzerrung
- nur Infoverlust

MAR: Missing at random
- fehlende Werte nur von anderen Variablen abhängig
- mit stat. Verfahren behandelbar
-> unabh. Variablen konstant halten
-> Ergebnisse getrennt betrachten

MNAR: Missing not at random
- fehlende Werte abhängig von Variable selber
- syst. Verzerrung
- stat. nicht zu retten

-> gibt kein Test für welcher Fehler vorliegt

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Umgang mit fehlenden Werten

A
  • vermeiden
  • Anreiz/Komfort für Vpn
  • Intervall statt genauen Wert abfragen
  • Anonymität zusichern
  • Zwang (in Fragebogen)
  • Wichtigkeit klar machen
  • Kontakt halten (bei Wegzug)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Statistischer Umgang mit fehlenden Werten

A

Ausschlussverfahren:
- Listwise/Casewise Deletion:
Personen mit fehlenden Werten ausschliessen -> verliere aber viele Daten
- Pairwise Deletion:
Person ausschliessen, die in aktueller Variabel fehlenden Wert hat -> aber untersch. SP für untersch. Analysen

Imputation:
- Mittelwertsimputation:
Fehlende Werte durch Variablen Mittelwert ersetzen -> aber Varianzreduktion, Unterschätzung der Korr.
- Regressionsimputation:
Regression schätzen und daraus fehlende Werte prognostizieren -> aber Varianzreduktion, Überschätzung der Korr.
- Stochastische Regressionsimputation:
Gleich, einf. auch noch zufälligen Fehler dazu simulieren
- Multiple Imputation:
Fehlende Werte durch mehrere Werte ersetzen -> mehrere Datensätze -> Unsicherheit darstellen

Weitere Verfahren:
- EM- Algorithmus
- Surrogate Variable

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Survivalanalyse

A

Zeit bis best. Ereignis eintritt
Trifft Ereignis ein ist Datensatz für diese Vpn abgeschlossen

Verliert man Vpn schon vorher -> Zensierung:
- Rechtszensierung: Ereignis liegt gedanklich weiter rechts
- Linkszensierung: Ereignis liegt schon vor Studienbeginn
- Intervallzensierung: Wenn geneuer Zeitp. des Ereignis unbekannt

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Survivalfunktion

A

Gibt für jeden Zeitpuznkt Wahrscheinlichkeit an, diesen Zeitpunkt zu überleben
Schätzung mit Kaplan-Meier-Schätzung
Berücksichtigt Zensierung

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Hazardrate

A

Rate in einem kurzen Zeitintervall nach Zeitpunkt t zu sterben, wenn man bis t überlebt hat

  • zunehmend: zb Alterung
  • abnehmend: zb Abstossung nach Organtransplantation
  • Badewanne: Alterung bei hoher Säuglingssterblichkeit
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Cox-Regression

A
  • Y = überlebenszeiten
  • Proportional Hazards Annahme
  • Abweichung von Baseline Hazardrate
  • Logarithmieren damit Addition möglich ist
  • Hazardrate für alle konstant aber für gew. Gruppen höher/tiefer
  • Cox-regr. vergleicht verschiedene Regressionen miteinander
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Metaanalyse

A

Ergebnisse mehrerer Studien zur selben Frage zusammenzufassen
-> gewichteter Mittelwert der Effektstärken allen Studien

Zutaten:
- Effektstärke Mass
- Standardfehler des Effektstärkemass

Schritte:
- Ein-/Ausschlusskriterien festlegen
- Suche in lit. Datenbank
- Tabelle mit Studiendaten
- Zusmf grafisch/rechnerisch
- Diskussion (von Publication bias)

Probleme:
- mindestanz. Primärstudien
- Publication Bias
- Apfel-Birne Problem
- Garbage in / out
- Missing data

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Publication bias

A

Nur signifikante Ergebnisse werden publiziert

Lösungsansätze:
- Präregistrierung
- Publikation unabhängig vom Effekt machen
- Aufruf unpublizierte Daten zu schicken
- statistische Überlegungen

17
Q

Bayesianische Schätzung

A

Ziel: Aus Daten & Vorwissen beste Parameter bekommen
-> Likelihood + a priori -> a posteriori

Aus posteriori bestimmen:
- Punktschätzung
MAP = Modus = Max. A posteriori Schätzung
EAP = Mittelwert = expected a posteriori
- Intervallschätzung
HPD: highest posteriori density

  • Je grösser SP desto grösser ist der Einfluss der Daten und kleiner der Einfluss der apriori
    -> aber wenn SP genug gross ist wird meist auch nicht bayesianische Schätzung verwendet, sondern ML -> Bayes sollte eig nur bei zu kleiner SP verwendet werden -> macht kei Sinn
  • Wenn apriori eine Gleichverteilung ist: MAP = ML Schätzer
  • gibt auch andere uniformative Verteilungen wie Gleichverteilung
    -> Sensitivitätsanalyse: prüfen wie Ergebnis mit anderen a priori wäre
18
Q

Nicht-Parametrische Regression - B-Splines

A
  • Wertebereich von x mit Knotenpunkte in Intervalle einteilen
  • Approximation der unbekannten Funktion durch gewichtete Summe von Basisfunktionen
  • l = Grad der Basisfunktion (0,1,2,3) (Basis-Splines)
  • m = #Knoten
  • d = m + l - 1
  • wenige Knoten = glatt
  • viele Knoten = overfitting
19
Q

Nicht-Parametrische Regression - P-Splines

A

Nachteil von B-Splines: Vorhersagefunktion kann stark schwanken
-> P-Splines: Penalisierung/Bestrafung von Schwankung
-> Gewichtung durch Penalisierungsparameter „lambda“
- hohes „lamda“ = glatt -> Wellen werden bestraft
- kleines „lamda“ = wellig -> beschreibt Daten gut

Weitere Verfahren:
- k nearest neighbors
- LOESS & LOWESS
- Kriging

20
Q

Regularisierte Regression

A
  • viele x die stark miteinander korrelieren (multikollinearität)
  • viele davon ohne Effekt auf y -> loswerden/shrinkage
  • Betas werden durch Strafterm gegen 0 gedrückt
  • Kovariablen müssen vorher standardisiert werden
  • „Lambda“/Penalisierungswert wird mithilfe von Kreuzvalidierung gewählt
  • Ziel = Kompromiss zwischen möglichst kleinen Residuen, KQ und Strafregion -> grosse Regressionsparameter vermeiden

Ridge Regression:
- Betas werden nur nahe 0 geshrinked
- Lamda = Kreis

Lasso-Regression:
- Kleine Koeff. werden genau auf 0 geshrinked -> fliegen raus
- Lambda = Quadrat -> so wird ein Beta eher genau 0
- kann auch für Variablenselektion verwendet werden

Ergebnisdarstellung: profile/trace plot:
- Verlauf verschiedener Beta
- gestrichelte Linie = bestes Modell gemäss Kreuzvalidierung

21
Q

Fallzahlplanung

A

Power-Analyse:
Festlegen: alpha Niveau, angestrebte Power, erwartete Effektgrösse, statistisches Modell
Man erhält: mindest SP Umfang um Power zu erreichen
-> SP Umfang a priori festlegen und dabei bleiben

Sequentielle Designs:
- wenn Ergebnisse schnell nötig und man vor Ende mal in Daten schauen muss
- festlegen: alpha Niveau
- man erhält: Grenzen für # Interimsanalysen um alpha-Infflation bei optional stopping zu verhindern
-> Bestrafung für jedesmal das ich vorher in Daten schaue
- Regeln für sequentielles Design auch a priori festlegen und dabei bleiben
-> Zwischenanalysen finden auf strengerem Niveau statt

  • Pocock
  • Peto
  • O‘Brien/Fleming