Optimierungen Flashcards

1
Q

Wie sollten Gewichte initialisiert werden?

A

Gewichte sollten “zufällig” initialisiert werden mit einer starken Streuung

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Um welchen Wert sollte die Streuung sein?

A

Bestenfalls Streuung um den Nullpunkt

  • Besser für den Trainingsverlauf
  • Kleine Gewichtswerte um 0
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Datengetriebener Entwurf (Lernverfahren)

A

Modell lernt Zusammenhang zwischen Eingangs- & Ausgangsdaten
Mehrfaches Iterieren notwendig
Kein garantierter Weg zur besten Lösung
Vergleich mit anderen Methoden: hoher Rechenaufwand, aber oft notwendig

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Unterschied Backpropagation zu Datengetriebener Entwurf

A

Fehlerrückführung zur Gewichtsoptimierung
Gradientenabstieg zur Fehlerreduktion
Gefahr: lokale Minima, Konvergenzproblem
Hoher Rechenaufwand, besonders bei großen Netzen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Was ist der Flache Plateaus?

A

Geringer Fehlergradient → Gewichtsaktualisierungen sind minimal
Lernprozess verzögert sich oder stagniert
Besonders problematisch bei Gradientenabstieg, da keine klare Richtung zur Fehlerreduktion vorgegeben ist

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Folgen einer nicht angepassten Schrittweite?

A

gute Minima können übersprungen werden
Ergebnis wird sup-optimal

-> Das Verfahren konvergiert
gegen ein lokales Minimum

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Was ist Oszillation?

A

Oszillation
* Schrittweite, ungünstige Auswahl
* „Hin und her springen“
* Korrekturterm hat dauerhaft
den gleichen Betrag
* oszillierendes Vorzeichen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Was ist Indirekte Oszillation?

A

Ähnlich wie beim direkten Oszillieren
springt das Verfahren über mehrere
Schritte wieder zum Ausgangspunkt
zurück

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Was geschieht bei einem Sattelpunkt?

A

Partielle Ableitungen sind am
Sattelpunkt null
* Das Verfahren stagniert, obwohl
kein Minimum der Fehlerfunktion
erreicht ist

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Was sind Lösungsansätze für Optimierungsprobleme? (Schrittweite, Oszillation, Sattelpunkt, etc..)

A

Lösungsansätze:
* Variation der Gewichte
* Variation der Datenauswahl (Startpunkt des Verfahrens)
* Variation der Netzstruktur (Komplexität)
* Veränderung der Lernparameter, Gewichtungsfaktor

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Was hat das erhöhen der Lernrate für Auswirkungen?

A

Erhöhen der Lernrate (Korrektursprünge erhöhen)
* Plateaus werden schneller durchlaufen
* Lokale Minima werden gegebenenfalls übersprungen
* Gegebenenfalls schnellere Konvergenz

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Was hat das reduzieren der Lernrate für Auswirkungen?

A

Reduktion der Lernrate (Korrektursprünge reduzieren)
* Gegebenenfalls wird das globale Minimum gefunden
* Gegebenenfalls wird Oszillation vermieden

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Was ist das Adaline Lernen?

A

Verändern der Lernrate über der Zeit (vgl. Adaline Lernen)
* „grob-fein“ Lernen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Vorgehen Backpropagation mit variabler Schrittlänge

A

Die Schrittlänge (Lernrate σ) wird während des Trainings dynamisch angepasst, um die Konvergenz zu verbessern.

Mehrfaches Wiederholen der Gewichtsaktualisierung, bis die Fehlerkurve steigt (Anzeichen für zu große Schritte).

Anpassung der Lernrate je nach Anzahl der Iterationen:

Viele Iterationen (langsames Lernen) → Erhöhung von σ, um schneller zu konvergieren.
Wenige Iterationen (instabiles Lernen) → Verringerung von σ, um Überspringen guter Minima zu vermeiden.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Was ist Batch mode Backpropagation?

A

Batch mode Backpropagation (Off-Line)
* Betrachtung aller Trainingsbeispiele
* Berechnung des Korrekturterms
in Abhängigkeit aller Beispiele

How well did you know this?
1
Not at all
2
3
4
5
Perfectly