Repr. Learn. mit Manifolds: MDS und ISOMAP, LLE und kPCA Flashcards

1
Q

Multidimensional Scaling (MDS)?

= kPCA

A

Ähnlichkeitsstrukturanalyse

Konzeptionell nimmt MDS die Unterschiede oder Entfernungen zwischen den in den Daten beschriebenen Elementen auf und generiert eine Karte zwischen den Elementen

Es werden also Informationen über Paare von Objekten erhoben, um daraus metrische Informationen über die Objekte zu ermitteln

MDS: Koordinatenpunkte finden, Distanzen euklidisch berechnen und beibehalten, wenn in kleinere Dim. projiziert.
Die Objekte räumlich so anordnen, dass die Distanzen im Raum exakt den Un/ähnlichkeiten entsprechen. Je weiter die Objekte voneinander entfernt sind, desto unähnlicher sind sie.
Paarweise Ähnlichkeiten beurteilen - Distanzen in Euklidmetrik berechnen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

PCA und MDS Unterschied?

A

Die Methoden finden die gleichen Feature am Ende, Mathemathik ist ähnlich/gleich.

PCA: Ermittelt Korrelation zwischen Datenpunkten

MDS: Ermittelt Distanzen zwischen Datenpunkten. Reproduziert Unterschiedlichkeiten auf der Karte direkter und genauer als PCA

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

nicht metrische MDS

A

Nichtlineare Methode zur Reduzierung der Dim., erweitert die metrische MDS durch Einbeziehung der geodätischen Entfernungen , die durch einen gewichteten Graphen vorgegeben werden .

lineare Subspace oft zu einfach –> also zum Manifold übergehen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

ISOMAP

kPCA mit spezifischem Kernel

A
nutzt MDS (nicht-metrisch) 
Euclidean -> geodätische Distanzen
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Wie die euklidischen Distanzen zu geodätischen machen? (ISOPMAP)

A

Die euklidischen Distanzen lokal nutzen –> mehrere euklidische Distanzen addieren (oder Integral)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Geodätische und euklidische Distanz?

A

Geodätisch: Die Distanz auf einer Mannigfaltigkeit (Oberfläche einer Kurve) gemessen (euklidische würde kürzer sein). die kürzeste mögliche Verbindung zwischen zwei Punkten unter bestimmten Bedingungen. Kreisbogen auf der Erde (nicht durch die Erde buddeln)

euklidisch: Länge oder auch der Betrag des Verbindungsvektors zweier Punkte oder Vektoren

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

ISOMAP Vorgang

A

1a: Nachbarschaft definieren.
Diese Nachbarschaft kann entweder durch Auswahl der
- K (nächstgelegenen Punkte) oder
- Epsilon (Menge der Punkte innerhalb eines Radius)
berechnet werden –> diese werden vorbestimmt.

1b: Nachbarn verbinden
1c: jede Kante gewichtet mit dem euklidischen Abstand zwischen zwei Punkten
2: –> geodätischer Abstand berechnen: kürzester Weg von A nach B mit den euklidischen Distanzen

2a: Abstand zwischen allen Paaren über allen verbundenen Wegen
2b: die kürzeste Distanz finden ( Stressmatrix minimieren)

wir haben dann Stressmatrix –> Gram Matrix –> Eigenvektoranalyse –> Lösung (Eigenwerte: wichtige Feature?)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Was muss beachtet werden bei der Nachbarschaft? ISOMAP

A

darf nicht zu klein/groß sein –> sonst trifft keine Datenpunkte/könnte die Struktur (der Spirale) zerstören

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

LLE?

= kPCA

A

LLE ist lokal, nicht global wie PCA

  1. Nachbarschaft definieren (wie ISOMAP)
  2. vermuten, dass wir lokale lineare Struktur haben: wir schätzen jeden Datenpunkt mit einer Gewichteten Summe dessen Nachbarn
    - -> Fehler, wenn wir das mit dem originalen Datenpunkt vergleichen –> minimization/optimization problem wo wir die weights definieren.
  3. eine Dim. wählen und behalten die weights, die von den Nachbarn und nicht vom Space abhängen
  4. die neuen Datenpunkte finden (feature) durch linearen Strukturen ,die vermutet werden erhalten zu bleiben,
  5. Bedingung festlegen: das die Summe der weights =1 für jeden Datenpunkt
    - -> gelöst sparse Sigenwertprobem
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

kPCA?
Kernel?
kernel Trick?

A

Kernel:

  • Klasse von Algorithmen, die sich eines Kernels (Kern) bedienen, um Berechnungen in höherdim. Raum auszuführen  Support Vector Mashines und Kerne-PCA
  • Eine Ähnlichkeitsfunktion, die zwei Eingaben entgegennimmt und die Ähnlichkeit zwischen den beiden zurückgibt. Gram Matrix)
  • Für nicht-lineare Probleme

Kernel trick:

  • Anwendung linearer Klassifikator auf nicht linear klassifizierbare Daten
  • Daten werden in höherdim. Raum transformiert  Hoffnung aufbessere lineare Seperierbarkeit
  • Mit Phi als Featuremapping/Merkmalsabbildung in einem Featurespace/Merkmalsraum
  • Phi: R^2  R^3 trotzdem vergrößern wir nicht wirklich die Dim., sondern eine andere Dim. Dazu projizieren.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

LLE Algorithmus?

A
  1. k/Epsilon Nachbarschaft def.
  2. Weightmatrix finden durch Fehler minimieren über X (in Dim N)
  3. die neuen Datenpunkte/Feature in M finden durch minierung der embetteten Kostenfunktioen (Fehler Minimieren über Y, die Koeffizienten beibehalten, mit Bedingung)
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Was würde passieren wenn die Größe der Nachbarchaft zu groß ist? (alle Datenpunkte abdecken)

Wie wählt man die Dimension des Featurespace M?

wie

A

man würde etwas wie die PCA bekommen.

  • Wenn Dimension der Manifold nicht bekannt: Mit einer niedrigen Dim. Starten und dann sequentiell vergrößern bis zu Einbettungen,die das Problem lösen
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

typischer kernel?

A

Gaußscher Kernel

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Kernelfunktion?

A

eine Funktion, die ein Skalarprodukt zurück bringt in den projizierten Raum: jede positive semi-definite pxp Matrix (kann Kpxp sein?)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Trick vom kPCA?

A

Wir machen etwas lineares in einem höher dim. Raum, im originalen Raum nichtlinear ist

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Wann sehen MDS und kPCA gleich aus?

A

Wenn wir bei der kPCA isotropische Kernel benutzen (Gaußschen Kernel)