Überwachtes Lernen Flashcards

1
Q

Basisidee Backpropagation

A

Basisidee ist der Gradientenabstieg

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Was ist das Gradienten-Verfahren?

A

Iterative Strategie zur Berechnung von Minima mehrdimensionaler Funktionen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Suchstrategie des Gradientenabstiegs

A
  1. Gegeben ist eine Funktion f(x)
  2. Gesucht sei das Minimum x(k) = min(f(x))

Ziel: sukzessiv x(k) zu nähern mit f’(x(k))=0

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Hinreichende und notwendige Bedigungung für ein Minimum

A

f’(x) = 0
f’‘(x) != 0
f’‘(x) > 0

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Wofür wird beim Gradientenabstieg der Gewichtungsfaktor “σ” genutzt?

A

σ = Lerntate
-> bestimmt wie weit gesprungen wird
delta w_ji = σ * delta a

  • Skalierungsmaß für die
  • Korrekturschritte auf der
  • Suche nach dem Minimum der Funktion

-> Testen auf Konvergenz, Divergenz

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Was ist der Fixpunkt des Gradientenverfahrens?

A

Ein Fixpunkt ist ein Punkt, an dem sich die Lösung nicht mehr ändert. Das bedeutet, dass die Änderung der Gewichte Null ist und somit das Minimum der Funktion erreicht wurde.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Backpropagation Methode

A
  • Fehlerrückführung
  • Rechenvorschrift, mit der Gewichte der versteckten Schicht modifiziert werden können
  • Allgemeiner als Delta-Regel
How well did you know this?
1
Not at all
2
3
4
5
Perfectly