Backpropagation Flashcards

1
Q

Teile der Backpropagation

A

Forward Pass
- Präsentieren der Teststimuli
- Berechnung des Resultats

Bestimmung des Fehlers
- Differenz zwischen Soll und Ist
- Quadratischer Fehler
- ist der Fehler nicht akzeptabel

-> Backward Pass
- Rückführung der Erkenntnisse in umgekehrte Richtung
- Gradientenabstieg

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Welche Methode gibt es, um sich einem Minimum sukzessive anzunähern und wie ist die mathematische Formel dafür?

A

Gradienten Abstieg
x(t) = x(t-1) - σ grad(f(x(t-1)))

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Welches Ziel möchte man mit Backpropagation erreichen?

A

Ein neuronales Netzwerk so zu verändern, dass der Ausgang möglichst den erwarteten Ausgangswerten entspricht. Das bedeutet den Fehler in dem Netzwerk zu minimieren

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Wie lässt sich der Fehler in einem Netzwerk berechnen?

A

Summe aller (Ausgänge Outputlayer - Erwartete Ausgänge)²

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Was ist die Grundformel für die Berechnung der Gradienten

A
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Wie lässt dich der Gradient eines Netzwerkes grundlegend berechnen?

A

Indem die Funktion für den Fehler in einem Netzwerk nach den Weights und Biases abgeleitet wird. Dadurch entsteht eine Matrix mit Gradienten, welche das Netzwerk, nach abziehen von den jeweiligen Weights und Biases, in Richtung eines Fehlerminimums bewegt

How well did you know this?
1
Not at all
2
3
4
5
Perfectly