Extras din referat
Algoritm de optimizare N-derivativ
Se aproximeaza functia obiectiv f printr-o dezvoltare in serie Taylor de grad 2:
in care H(xk) reprezinta Hessianul functiei obiectiv f evaluat in punctual de interes xk .
Conditia de optim se atinge in punctele pentru care:
Astfel, daca H(xk) este inversabila, atunci solutia de optim pentru aproximarea patratica, care devine urmatorul punct de aproximare, este:
Avantaje
Daca functia obiectiv este patratica, atunci optimul se gaseste intr-un singura iteratie (pas) ;
Dacă hessianul este lipschitzian (toate elementele matricii sunt continue si reale) intr-o vecinatate a optimului, atunci metoda Newton are o convergenta patratica ;
Dezavantaje
Daca pe parcursul etapelor intermediare procesului de optimizare apare situatia unei matrice hessiene care nu poate fi inversata atunci procesul de optimizare se blocheaza. Trebuie gasite alte solutii pentru continuarea procesului ;
Complexitatea calculului este O(n3), data de necesitatea inversarii hessianului;
Volumul de memorie necesat este O(n2).
Conținut arhivă zip
- Metoda Newton Modificata, cu Cautare Liniara.pptx