mock exam solutions Flashcards

1
Q

In der Regression neigen “einfache” Modelle dazu
1. zum overfitting/überanpassen
2. einen großen Bias zu haben
3. eine große Varianz zu haben

Was ist richtig?

A

einen großen Bias zu haben

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

In einem maschinellen Lernproblem fügt man einen Regularisierungsterm zur Lossfunktion
hinzu, weil
1. dies manchmal eine nicht differenzierbare Kostenfunktion in eine differenzierbare
Kostenfunktion umwandelt
2. dies dazu führen kann, Overfitting/Überanpassung zu vermeiden
3. dies ein Regressionsproblem in ein Klassifikationsproblem umwandelt.

Was ist richtig?

A

dies dazu führen kann, Overfitting/Überanpassung zu vermeiden

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Die k-nächste-Nachbarn Methode
1. kann sowohl für Regression als auch Klassifikation verwendet werden,
2. kann bis zu k Klassen klassifizieren,
3. kann nur angewendet werden, wenn die Daten linear separierbar sind.

Was ist richtig?

A

kann sowohl für Regression als auch Klassifikation verwendet werden

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Welche Laufzeit hat eine Iteration des Gradientenabstiegs für die Least-Square-Regression?

A

Θ(nd), wobei n die Anzahl der Datenpunkte und d die Dimension ist

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Kann die logistische Regression mit dem Gradientenabstieg optimiert werden?

A

Ja

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Kann man die Modellkomplexität mithilfe der Kreuzvalidierung verkleinern?

A

Nein

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Sie haben einen Datensatz mit vielen Ausreißern. Angenommen, Sie führen keine Vorverarbeitung durch. Welche Verlustfunktionen würden Sie verwenden, um eine lineare Regression
auf diesem Datensatz durchzuführen?

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Welche der folgenden Funktionen sind konvex?

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Wie kann Overfitting vermieden werden?

A

Kleiner Trainingsfehler und großer Testfehler deuten auf Overfitting hin. Man
kann overfitting verringern/vermeiden indem man
1. stärker regularisiert, oder
2. ein Modell wählt, das kleinere Modellkomplexität hat (z.B. anstatt Polynomregression Lineare Regression), oder
3. mehr Trainingsdaten nutzt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Wann ist Naive-Bayes von Vorteil?

A

viele (am besten bedingt unabhängig, aber nicht nötig) Features und wenig Datenpunkte

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Nenn Vorteile von Naive Bayes

A
  • einfach zun implementieren
  • schnell zu trainieren
  • funktioniert gut bei wenig Datenpunkten und vielen Features
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Nenn einen Nachteil von Naive Bayes

A

Features sind selten bedingt unabhängig, d. h. Voraussetzungen sind selten erfüllt

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Was ist Laplacian Smoothing?

A

Wenn ein Wort niemals in einer Ham-Email auftaucht, dann ist die entsprechende
geschätzte Wahrscheinlichkeit 0. Nun wird jeder Email, die man klassifizieren möchte,
die dieses Wort enthält, automatisch eine Wahrscheinlichkeit von 0 zugeordnet, Ham
zu sein. Das ist etwas zu strikt. Laplacian Smoothing schafft hier Abhilfe, indem
die Wahrscheinlichkeiten anpasst, indem jedes Wort einmal zu den Spam-Emails
hinzugezählt wird und einmal zu den Ham-Emails.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly