Backpropagation Flashcards
Teile der Backpropagation
Forward Pass
- Präsentieren der Teststimuli
- Berechnung des Resultats
Bestimmung des Fehlers
- Differenz zwischen Soll und Ist
- Quadratischer Fehler
- ist der Fehler nicht akzeptabel
-> Backward Pass
- Rückführung der Erkenntnisse in umgekehrte Richtung
- Gradientenabstieg
Welche Methode gibt es, um sich einem Minimum sukzessive anzunähern und wie ist die mathematische Formel dafür?
Gradienten Abstieg
x(t) = x(t-1) - σ grad(f(x(t-1)))
Welches Ziel möchte man mit Backpropagation erreichen?
Ein neuronales Netzwerk so zu verändern, dass der Ausgang möglichst den erwarteten Ausgangswerten entspricht. Das bedeutet den Fehler in dem Netzwerk zu minimieren
Wie lässt sich der Fehler in einem Netzwerk berechnen?
Summe aller (Ausgänge Outputlayer - Erwartete Ausgänge)²
Was ist die Grundformel für die Berechnung der Gradienten
Wie lässt dich der Gradient eines Netzwerkes grundlegend berechnen?
Indem die Funktion für den Fehler in einem Netzwerk nach den Weights und Biases abgeleitet wird. Dadurch entsteht eine Matrix mit Gradienten, welche das Netzwerk, nach abziehen von den jeweiligen Weights und Biases, in Richtung eines Fehlerminimums bewegt