Vorlesung 5 Flashcards

1
Q

Sind Regularisierer unempfindlich gegenüber Merkmals-Skalierung?

A

Nein, in der Regel sind sie empfindlich demgegenüber

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Was folgt aus der Empfindlichkeit gegenüber Feature Scaling von Regularisierern?

A

Es ratsam, immer die Features zu skalieren, um auf der sicheren Seite zu sein.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Wenn man Trainingsdaten normalisiert, oder regularisiert, was muss man dann für die Testdaten beachten?

A

Dieselbe Skalierungsmethode und Skalierungsparameter auch auf die Testdaten anwenden

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Wie normalisiert man seine Daten?

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Beschreib Klassifikation, insbesondere Eingaberaum und Ausgaberaum

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Beschreib die Idee von KNNs

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Wie funktioniert KNN?

A
  • Sei ein gelabelter Trainingsdatensatz (x^(i), y^(i))_i und ein neuer Datenpunkt x gegeben. KNN klassifiziert den neuen Punkt, indem es die k nächsten Nachbarn aus dem Trainingsdatensatz findet.
  • Das Klassenlabel des neuen Punktes x wird durch die Mehrheitsabstimmung seiner k nächsten Nachbarn x^(i) bestimmt.
  • Die Mehrheitsabstimmung für das Label kann ungewichtet oder gewichtet erfolgen.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Was ist die Manhattan-Distanz?

A

entspricht der l1-Norm

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Wozu kann ein kleiner Wert von k bei KNN führen?

A

Overfitting

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Wozu kann ein großer Wert von k bei KNN führen?

A

Underfitting

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Wie kann ein guter Wert für k gefunden werden?

A

Mittels Kreuzvalidierung

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Nenn Vorteile von KNN

A
  • Einfach und leicht zu verstehen
  • Keine Trainingsphase erforderlich
  • Erlaubt komplexe Entscheidungsgrenzen
  • Anwendbar auf Probleme mit vielen Labels
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Nenn Einschränkungen von KNN

A
  • Rechenaufwendig für große Datensätze
  • Empfindlich gegenüber unwichtigen Merkmalen und Rauschen in den Daten
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Wie kann man KNN als Regression verwenden?

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Wie kann die Leistung bei Rauschen in den Daten und unwichtigen Merkmalen bei KNN weiter verbessert werden?

A

durch Dimensionsreduktion (wie Large-Margin-Nearest-Neighbor-Methoden)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Nenn den Satz von Bayes

A
17
Q

Wie funktioniert Naive Bayes?

A
18
Q

Wie wird der Satz von Bayes bei Naive Bayes manipuliert?

A
19
Q

Was ist das Laplacian Smoothing?

A
20
Q

Was ist der Vorteil von Naive Bayes?

A

Es müssen nur sehr wenige Parameter geschätzt werden. Damit ist es ein sehr gutes Verfahren, wenn es viele Features und wenig Datenpunkte gibt.

21
Q

Nehmen Sie an, dass Sie einen Datensatz mit n Datenpunkten haben, die jeweils d Features haben. Wie hoch ist die Laufzeit des kNN-Algorithmus für die Klassifizierung eines Punktes?

A

O(n*k*d)

22
Q

Nenn Methoden zur Verringerung der Laufzeit von kNN

A
  1. Methoden der Datenreduktion
  2. Methoden der Datenspeicherung und -suche
  3. Methoden der Dimensionsreduktion
23
Q

Wie berechnet man die euklidische Distanz zwischen zwei Punkten?

A
24
Q

Wie berechnet man die Manhattan Distanz zwischen zwei Punkten?

A
25
Q

Wie funktioniert die Min-Max-Skalierung?

A

Dabei werden die Daten auf das Intervall [0, 1] abgebildet.