06 SVM Flashcards

1
Q

Lineare Support Vektor Methode

A

Problem:
Klassifikation, Trenne die beiden Mengen

Lösung:
Finde die beste Trenn-Gerade

Intuition: Größe des Randes (margin) Generalisierung

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Entscheidungsfuntkon eines Hyperebenen Klassifikators

A

h_(w,b)(z) = sign(wz + b)

Abstand des nächsten Punktes: 1/|w|
Abstand zw. den 2 Klassen: 2/|w|

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Minimierung: Lagrange-Methode

A

Äquivalentes Problem (primäres Optimierungsproblem)

finde den eindeutigen Sattelpunkt der Funktion
L_p = L(w,b,alpha) = 1/2 |w|<2 - sum(alpha_i (y_i (w*x+b)-1))

alpha > 0

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Support Vektoren

A

Support-Vektoren sind alle Vektoren x_i mit alpha_i > 0

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Klassifikation auf k Klassen

A

Einer gegen Alle

  • k SVM’s (für jede Klasse eine)
  • Abstimmungsverfahren

Einer gegen Einen

  • k(k-1)/2 SVM’s
  • Abstimmungsverfahren

Mehrfachzugehörigkeit (multiple)

  • k SVMs (für jede Klasse eine)
  • Abstimmungsverfahren

k-class SVM von Watkins

  • ein gemeinsames Optimierungsverfahren
  • kein Abstimmungsverfahren
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Dichte-Träger Schätzung

A

Gesucht: Eine Funktion f, die für eine “kleine” Region, welche die meisten Lernbeispiele enthält, den Wert > 0 und sonst den Wert 0 oder < 0 annimmt.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Kernel Perceptron

A

Klassifikation: Trennung an Hyperebene mit Normalenvektor w in einem transformierten Raum
h(z) = sign(w*phi(z))

Lineare Trennung im transformierten Raum führt zu komplexer Trennung im Ursprungsraum

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Pro und Kontra SVM

A

Pro:
+ optimale Hyperebene –> gute lernergebnisse
+ finden der optimalen VC-Dimension –> korrektes lernen
+ verarbeitung hochdimensionaler Daten –> schnelle Auswertung
+ Anwendugsspezifische Kernels mit Datenverarbeitung
+ Entscheidung wird anhand der RAndregionen gefällt
+ Viele Anwendungen: klasifikation, regression, pca
+ probabilistische sicht - wichtig für semi-überwachtes lernen
+ vs-beschreibung - gut geeignet für aktives lernen

kontra:
- vorverarbeiung extern (kein deep learning)
- finden des optimalen kernels - “aktuelle” forschung
- parametrisierung des kernels - “aktuelle” forschung
- speicher und rechenaufwand (speizell für das trainieren)
- anzahl der sv abhängig von problem und parameter - aber erweiterte ansätze möglich

How well did you know this?
1
Not at all
2
3
4
5
Perfectly