mock exam solutions Flashcards
In der Regression neigen “einfache” Modelle dazu
1. zum overfitting/überanpassen
2. einen großen Bias zu haben
3. eine große Varianz zu haben
Was ist richtig?
einen großen Bias zu haben
In einem maschinellen Lernproblem fügt man einen Regularisierungsterm zur Lossfunktion
hinzu, weil
1. dies manchmal eine nicht differenzierbare Kostenfunktion in eine differenzierbare
Kostenfunktion umwandelt
2. dies dazu führen kann, Overfitting/Überanpassung zu vermeiden
3. dies ein Regressionsproblem in ein Klassifikationsproblem umwandelt.
Was ist richtig?
dies dazu führen kann, Overfitting/Überanpassung zu vermeiden
Die k-nächste-Nachbarn Methode
1. kann sowohl für Regression als auch Klassifikation verwendet werden,
2. kann bis zu k Klassen klassifizieren,
3. kann nur angewendet werden, wenn die Daten linear separierbar sind.
Was ist richtig?
kann sowohl für Regression als auch Klassifikation verwendet werden
Welche Laufzeit hat eine Iteration des Gradientenabstiegs für die Least-Square-Regression?
Θ(nd), wobei n die Anzahl der Datenpunkte und d die Dimension ist
Kann die logistische Regression mit dem Gradientenabstieg optimiert werden?
Ja
Kann man die Modellkomplexität mithilfe der Kreuzvalidierung verkleinern?
Nein
Sie haben einen Datensatz mit vielen Ausreißern. Angenommen, Sie führen keine Vorverarbeitung durch. Welche Verlustfunktionen würden Sie verwenden, um eine lineare Regression
auf diesem Datensatz durchzuführen?
Welche der folgenden Funktionen sind konvex?
Wie kann Overfitting vermieden werden?
Kleiner Trainingsfehler und großer Testfehler deuten auf Overfitting hin. Man
kann overfitting verringern/vermeiden indem man
1. stärker regularisiert, oder
2. ein Modell wählt, das kleinere Modellkomplexität hat (z.B. anstatt Polynomregression Lineare Regression), oder
3. mehr Trainingsdaten nutzt.
Wann ist Naive-Bayes von Vorteil?
viele (am besten bedingt unabhängig, aber nicht nötig) Features und wenig Datenpunkte
Nenn Vorteile von Naive Bayes
- einfach zun implementieren
- schnell zu trainieren
- funktioniert gut bei wenig Datenpunkten und vielen Features
Nenn einen Nachteil von Naive Bayes
Features sind selten bedingt unabhängig, d. h. Voraussetzungen sind selten erfüllt
Was ist Laplacian Smoothing?
Wenn ein Wort niemals in einer Ham-Email auftaucht, dann ist die entsprechende
geschätzte Wahrscheinlichkeit 0. Nun wird jeder Email, die man klassifizieren möchte,
die dieses Wort enthält, automatisch eine Wahrscheinlichkeit von 0 zugeordnet, Ham
zu sein. Das ist etwas zu strikt. Laplacian Smoothing schafft hier Abhilfe, indem
die Wahrscheinlichkeiten anpasst, indem jedes Wort einmal zu den Spam-Emails
hinzugezählt wird und einmal zu den Ham-Emails.