Teorie TO Flashcards

1
Q

Problema optimizare stationara

A

O problema de optimizare stationara impune determinarea minimului dupa x a unei functii (fx), une f este functie scalara iar x e R un vector.

Minimizarea functiei trebuie facuta in conditiile in care x satisface h(x) = 0, g(x) < 0

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

Interpretarea geometrica a pasului optim

A

Pasul optim este lungimea pasului pentru care functia capata valoarea minima pe directia de deplasarea aleasa

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

Clasificarea generala a metodelor de optimizare stationara

A

Metode:
- directe
- indirecte

Dupa principiul metodelor avem:
- de explorare
- de eliminarea
- analitice
- de cautare

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

Teorema de baza la metode analitice pt problemele de optimizare stationara cu restrictii inegalitate

A

Kuhn Tucker
conditii necesare de extrem:
-se impune ca f ,gi sa aiba derivata de ord 1 continue intr-o vecinatate a lui x care e presupus pct de minim pe domeniul definit de restrictie
- restrictiile satisfac in x
conditiile de regularitate
Dgi(x) sa fie liniar independenti
* toti vectorii care patrund in S indeplinesc : <D gi(x*), z <= 0
* X=convexa, g(x) = convexa pe X a.i g(x) < 0

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Esenta metodelor bazate pe directii conjugate

A

X* = x0 + xS = x0 + suma de la 0 la n-1 OiPi
din x0 se poate ajunge in x* daca se adauga un vector potrivit xS
pi = vectorul bazei
0i = lungimea directiilor de deplasare coresc fiecarei baze

Este posibil sa ajungem prin deplasari succesive pe directiile axelor pana la minim daca avem o regula potrivita pt lungimile pasilor pe aceste directii ( se foloseste deplasarea cu pasi optimi. Aceasta metoda are vit de convergenta relativ mare si este mai avantajoasa decat metoda gradientului
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Ce reprezinta pasul optim

A

Pasul optim este lungimea pasului de deplasare pentru care functia ia valoarea minima pe directia de deplasare aleasa

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

Clasificare metodelor de cautare

A

Metode:
orind 1 (se utilizeaza functia obiectiv
ordin 2 (se utilizeaza derivata 1 a lui f(x)
ordin 3 (se utilizeaza derivate de ordin 2 a lui f(x)

D.p.d.v al pasului:
	-metode cu pas constant
	-cu pas variabil
	-cu pas optim
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Precizati in cati pasi este atins minimul unei functii patratice in cazul metodelor: gradient optimal, gradient conjugat, directii conjugate, Newton-Raphson, DFP

A
gradient optimal:   numar infinit de pasi
-----------------------------------------
gradient conjugat:  n pasi
-----------------------------------------
directii conjugate: numar infinit de pasi
-----------------------------------------
Newton-Raphson:     un singur pas
-----------------------------------------
DFP:                n + 1 pasi
-----------------------------------------
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Ameliorari ale criteriului Newton-Raphson:

A

->nr de aproximare a functiei
-> aproximare de ordinul 2, se considera ca aceeasi aproximare e valabila intr-o regiune de incredere. Se foloseste pasul newton pana la limita regiunii de increde, in nou pct, se reface aproximarea functiei
-> se foloseste pasul optim in locul pasului unitar, s-a modificat h pt asigurarea convergentei,

-> se aprox matrx H sau inversa acesteia (fara a folosi derivate de ordin 2)

-> combinarea cu metoda gradientului
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Metode de eliminare

A
  • este dificla pentru n>=3
    Sunt folosite pt stabilirea grosiera a domeniului in cazul n=1 sunt cele mai folosite
    Se bazeaza pe ipoteza de unimodalitate (adica existenta unui singur ectrem in domeniul ales
    Domeniul se impare in 2 printr-un plan de separare si printr-o procedura specifica se det in care semiplan se afla minimul. se elimina cealalta parte si procedura continua pana se ajunge la un domeniu de incertitudine prestabilit prin precizia impusa
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

Metode de cautare

A
  • cele mai des folosite
    Se porneste de la un pct initial x0 ales fie cu ajutorul unei proceduri fie prin intamplare
    Se cauta iterativ x1, x2, xk care tind la x*. Aceasta iteratie inceteaza cand este indeplinit un criteriu de stop
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

Forma generala principiului de optimizare stationara

A

Se cere aflarea min f(x) respectand restrictiile

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

Metode de explorare

A

In domeniul considerat se stabilesc niste puncte de explorare in care se calculeaza valoarea functiei si in urma comparatiei se precizeaza intervalul de incertitudine in care este minimul
Avantaj: localizarea se face in jurul punctului de minim global

Exista 2 categorii de metode de explorare
-> explorare exhaustiva: intregul domeniu se partitioneaza dupa fiecare axa la intervale echidistante si stabilesc noduri
-> explorare aleatoare: se aleg un nr de puncte stabilite printr-o regula bazata pe numere aleatoare.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

Metoda gradientului optimal:

A

Se foloseste formula iterativa

xk+1 = xk - 0kRk, rk = gradient f(xK)

Directiile de deplasare sunt ortogonale, acest tip de deplasare nu este favorabil, cu cat ne apropiem de minim, pasul devine mai mic, viteza de convergenta mica

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Avantaje + Dezavantaje la metoda Newton-Raphson

A

(A) La functii patratice minimul se obtine intr-un singur pas
(D) la functii generale minimul se obtine intr-un nr inifinti de pasi (dar are convergenta rapida (A) )
(D) trebuie calculate dervivatele de ordin 2
(D) nu are garantata convergenta globala

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

Metoda Cvasi-Newton

A

-> se aproximeaza matr H sau inversa acesteia
-> se urmareste ca aproximarea sa fie pozitiv definita pt asigurarea convergentei
->se pierde din viteza de convergenta

Formula de calcul:
	xK+1 = xK - 0k*Gk*rK

rk = gradient f(xK)
Gk = aprox inv matr Hk
0K = pasul optim

Conditii cvasi-newton: Gk+1 * Yk = PK