Grundlagen und Verfahren der Optimierung Flashcards

1
Q

Formelle Definition eines Optimierungsproblems

A

Formell:
min 𝑓(𝒙)(Zielfunktion)
mit 𝑔1…𝑛g(𝒙) ≤ 0 (Ungleichheitsbedingungen)
und ℎ1…𝑛h(𝒙) = 0 (Gleichheitsbedingungen)

Gesucht: 𝒙∗ = arg min 𝑓(𝒙)
(Entwurfsvariable, die 𝑓 minimiert)

Optimierungsaufgaben werden in der Literatur als Minimierungsaufgaben behandelt. Maximierungsaufgaben können immer in Minimierungsaufgaben umgewandelt werden über max(f(x))=min(-f(x))

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Definition: Optimalitätsbedingung

A

Ist die Zielfunktion 𝑓 zweimal stetig differenzierbar, dann gilt für ein Minimum:

∇𝑓(𝑥∗) = 0 → verschwindender Gradient am Punkt 𝑥∗

∇2𝑓(𝑥∗) = 𝑯 → HESSE-Matrix 𝑯 positiv-definit am Punkt 𝑥∗ (nur positive Eigenwerte)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Definition: Optimum

A

Gibt es in einem Bereich x um den Punkt keinen weiteren Punkt mit einen niedrigeren Funktionswert dann liegt ein Optimum (pl. Optima) vor.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Optimierungsalgorithmen

A

Optimierungsprobleme werden allgemein iterativ gelöst, durch gezieltes Explorieren, Evaluieren und Variieren/Kombinieren von Lösungen

Einteilung in:

gradientenbasierte
und
gradientenfreie

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Definition: Optimierungsalgorithmus

A

Satz mathematischer Schritte zur Lösung eines Optimierungsproblems

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Definition: Gradientenbasierte Optimierungsalgorithmus

A

Nutzen lokaler Ableitungsinformationen (1. u./o. 2. Ableitung),
um ausgehend von einem Startpunkt schrittweise in Richtung fallender Zielfunktion „abzusteigen“

Vorstellung: Kugel, die Hang hinabrollt

Notwendigkeit, die Schrittweite 𝜂 passend zu wählen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Eigenschaften von Gradientenbasierte Optimierungsalgorithmen

A

Auch bei vielen Entwurfsvariablen (große Suchräume!) sehr schnell, wenn Ableitungen effizient bestimmbar

Garantierte Konvergenz für konvexe Probleme

Lösung hängt vom Startpunkt ab
→ Gefahr, in lokale Minima zu laufen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Definition: Grandientenfreie Optimierungsalgorithmus

A

Iterative Auswertung und Variation eines Satzes Lösungskandidaten

Synthese neuer Kandidaten durch gezielte Kombination bekannter Kandidaten

Suchverfahren können deterministisch sein, z.B. Nelder-Mead-Verfahren.

Naturinspirierte Verfahren (z.B. genetische Algorithmen) beinhalten oft zusätzlich zufallsbasierte Variationen zur verstärkten Suchraum-Exploration

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Eigneschaften: Gradientenfreie Optimierungsalgorithmen

A

Keine Ableitungsinformationen nötig

Bieten die Möglichkeit, lokalen Minima zu entkommen

Oft langsame Konvergenz und zahlreiche Funktionsaufrufe

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Definition: Nebenbedingungen

A

Nebenbedingungen, auch „Restriktionen“ genannt, können …
den Entwurfsraum 𝑥 und/oder…
den Zustandsraum 𝑓(𝑥) …
beschränken

Es gibt
Ungleichheits- (𝑔) und
Gleichheits-Restriktionen (ℎ)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Lösungstechniken: Restringierte Optimierung

A

Straffunktionen 𝑠(𝒙) addieren
- Einfache Implementierung
- aber die Nebenbedingung wird nicht exakt eingehalten

„Geschicktes Formulieren des Problems“

Lagrange-Funktion 𝐿 aufstellen + Prüfen der
Karush-Kuhn-Tucker-Bedingungen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

KKT-Bedingungen

A

Karush-Kuhn-Tucker-Bedingungen:

Es gibt keinen Satz hinreichender Bedingungen für allgemeine Optimierungs-probleme, der eine direkte Bestimmung des Optimums ermöglicht

Dies ist nur für bestimmte Optimierungsprobleme möglich, z.B. unter Slater-Bedingungen:
- Zielfunktion 𝑓 ist konvex,
- Ungleichheits-NB 𝑔1…𝑛g
sind konvex oder affin-linear
- Gleichheits-NB ℎ1…𝑛h
sind affin-linear

Für Slater-Optimierungsprobleme gilt: Erfüllt ein Punkt 𝒙∗ die KKT-Bedingungen, so ist 𝒙∗ auch das globale (!) Optimum

Slater-Bedingungen für lineare Elastostatik mit SIMP-Topologieoptimierung praktisch erfüllt

es gibt fünf KKT-Bedingungen

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Kritische Bemerkungen zum Thema Optimierung

A

Vielzahl von Optimierungsverfahren verfügbar:
- Es gibt kein „bestes“ Optimierungsverfahren

Globales Optimum wünschenswert, aber:
- Ohne Vorwissen über die Zielfunktion 𝑓 kann ein globales Optimum nicht garantiert werden

How well did you know this?
1
Not at all
2
3
4
5
Perfectly