ALGORITMUSAI DR. NAGY TAMÁS. egyetemi docens. Miskolci Egyetem Alkalmazott Matematikai Tanszék



Hasonló dokumentumok
DR. NAGY TAMÁS. egyetemi docens. Miskolci Egyetem Alkalmazott Matematikai Tanszék

DIFFERENCIÁLÁS, GRADIENS VEKTOR, HESSE MÁTRIX, LÁNCSZABÁLY,

Konjugált gradiens módszer

2. SZÉLSŽÉRTÉKSZÁMÍTÁS. 2.1 A széls érték fogalma, létezése

ALGORITMUSAI. DR. NAGY TAMÁS egyetemi docens. Miskolci Egyetem Alkalmazott Matematikai Tanszék

Taylor-polinomok. 1. Alapfeladatok április Feladat: Írjuk fel az f(x) = e 2x függvény másodfokú Maclaurinpolinomját!

DR. NAGY TAMÁS. egyetemi docens. Miskolci Egyetem Alkalmazott Matematikai Tanszék

Megoldott feladatok november 30. n+3 szigorúan monoton csökken, 5. n+3. lim a n = lim. n+3 = 2n+3 n+4 2n+1

Gyakorló feladatok. Agbeko Kwami Nutefe és Nagy Noémi

ÉS TESZTEK A DEFINITSÉG

10. Előadás. 1. Feltétel nélküli optimalizálás: Az eljárás alapjai

SCILAB programcsomag segítségével

Egyenletek, egyenlőtlenségek VII.

Függvények július 13. f(x) = 1 x+x 2 f() = 1 ()+() 2 f(f(x)) = 1 (1 x+x 2 )+(1 x+x 2 ) 2 Rendezés után kapjuk, hogy:

Numerikus módszerek beugró kérdések

15. LINEÁRIS EGYENLETRENDSZEREK

Szakdolgozat. Miskolci Egyetem. Nemlineáris programozás. Készítette: Horváth Gábor Programtervező informatikus hallgató

MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉP SZINT Függvények

MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉP SZINT Függvények

Lineáris leképezések. 2. Lineáris-e az f : R 2 R 2 f(x, y) = (x + y, x 2 )

Gauss-eliminációval, Cholesky felbontás, QR felbontás

L'Hospital-szabály március 15. ln(x 2) x 2. ln(x 2) = ln(3 2) = ln 1 = 0. A nevez határértéke: lim. (x 2 9) = = 0.

KOVÁCS BÉLA, MATEMATIKA I.

b) Ábrázolja ugyanabban a koordinátarendszerben a g függvényt! (2 pont) c) Oldja meg az ( x ) 2

Komplex számok trigonometrikus alakja

Gauss-Seidel iteráció

Gauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei

Feladatok megoldásokkal a 9. gyakorlathoz (Newton-Leibniz formula, közelítő integrálás, az integrálszámítás alkalmazásai 1.

Határozott integrál és alkalmazásai

MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉPSZINT Függvények

alakú számot normalizált lebegőpontos számnak nevezik, ha ,, és. ( : mantissza, : mantissza hossza, : karakterisztika) Jelölés: Gépi számhalmaz:

9. gyakorlat Lineáris egyenletrendszerek megoldási módszerei folyt. Néhány kiegészítés a Gauss- és a Gauss Jordan-eliminációhoz

Hajlított tartó elmozdulásmez jének meghatározása Ritz-módszerrel

MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK MEGOLDÁSAI KÖZÉP SZINT Függvények

Kétváltozós függvények differenciálszámítása

Többváltozós, valós értékű függvények

Numerikus módszerek II. zárthelyi dolgozat, megoldások, 2014/15. I. félév, A. csoport. x 2. c = 3 5, s = 4

KOVÁCS BÉLA, MATEMATIKA I.

MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK MEGOLDÁSAI KÖZÉPSZINT Függvények

Függvények Megoldások

Ipari matematika 2. gyakorlófeladatok

9. TÖBBVÁLTOZÓS FÜGGVÉNYEK DIFFERENCIÁLSZÁMITÁSA. 9.1 Metrika és topológia R k -ban

1. Parciális függvény, parciális derivált (ismétlés)

7. gyakorlat. Lineáris algebrai egyenletrendszerek megoldhatósága

6. Függvények. 1. Az alábbi függvények közül melyik szigorúan monoton növekvő a 0;1 intervallumban?

f(x) vagy f(x) a (x x 0 )-t használjuk. lim melyekre Mivel itt ɛ > 0 tetszőlegesen kicsi, így a a = 0, a = a, ami ellentmondás, bizonyítva

MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK MEGOLDÁSAI KÖZÉPSZINT Függvények

First Prev Next Last Go Back Full Screen Close Quit

Numerikus módszerek I. zárthelyi dolgozat (2017/18. I., A. csoport) Megoldások

minden x D esetén, akkor x 0 -at a függvény maximumhelyének mondjuk, f(x 0 )-at pedig az (abszolút) maximumértékének.

KOVÁCS BÉLA, MATEMATIKA I.

Gazdasági Matematika I. Megoldások

Matematika A2 vizsga mgeoldása június 4.

Keresztmetszet másodrendű nyomatékainak meghatározása

11. Előadás. 11. előadás Bevezetés a lineáris programozásba

Numerikus matematika vizsga

Brósch Zoltán (Debreceni Egyetem Kossuth Lajos Gyakorló Gimnáziuma) Megoldások

Többváltozós, valós értékű függvények

Optimalizálás alapfeladata Legmeredekebb lejtő Lagrange függvény Log-barrier módszer Büntetőfüggvény módszer 2017/

1. Determinánsok. Oldjuk meg az alábbi kétismeretlenes, két egyenletet tartalmaz lineáris egyenletrendszert:

A L Hospital-szabály, elaszticitás, monotonitás, konvexitás

Függvények július 13. Határozza meg a következ határértékeket! 1. Feladat: x 0 7x 15 x ) = lim. x 7 x 15 x ) = (2 + 0) = lim.

Itô-formula. A sztochasztikus folyamatok egyik legfontosabb formulája. Medvegyev Péter Matematika tanszék

Függvények vizsgálata

Függvény határérték összefoglalás

Maple: Deriváltak és a függvény nevezetes pontjai

LINEÁRIS PROGRAMOZÁSI FELADATOK MEGOLDÁSA SZIMPLEX MÓDSZERREL

5 = hiszen és az utóbbi mátrix determinánsa a középs½o oszlop szerint kifejtve: 3 7 ( 2) = (példa vége). 7 5 = 8. det 6.

Figyelem, próbálja önállóan megoldani, csak ellenőrzésre használja a következő oldalak megoldásait!

Függvényhatárérték és folytonosság

MATE-INFO UBB verseny, március 25. MATEMATIKA írásbeli vizsga

Bináris keres fák kiegyensúlyozásai. Egyed Boglárka

MATEMATIKA 2. dolgozat megoldása (A csoport)

Numerikus integrálás

Nemlineáris programozás 2.

Sztojka Miroszláv LINEÁRIS ALGEBRA Egyetemi jegyzet Ungvár 2013

LINEÁRIS EGYENLETRENDSZEREK október 12. Irodalom A fogalmakat, definíciókat illetően két forrásra támaszkodhatnak: ezek egyrészt elhangzanak

Határozatlan integrál (2) First Prev Next Last Go Back Full Screen Close Quit

Numerikus módszerek 1.

IV. INTEGRÁLSZÁMÍTÁS Megoldások november

A derivált alkalmazásai

: s s t 2 s t. m m m. e f e f. a a ab a b c. a c b ac. 5. Végezzük el a kijelölt m veleteket a változók lehetséges értékei mellett!

Lineáris algebra numerikus módszerei

Számítógépes Grafika mintafeladatok

13.1.Állítás. Legyen " 2 C primitív n-edik egységgyök és K C olyan számtest, amelyre " =2 K, ekkor K(") az x n 1 2 K[x] polinomnak a felbontási teste

Losonczi László. Debreceni Egyetem, Közgazdaság- és Gazdaságtudományi Kar

LNM folytonos Az interpoláció Lagrange interpoláció. Lineáris algebra numerikus módszerei

Fraktálok. Kontrakciók Affin leképezések. Czirbusz Sándor ELTE IK, Komputeralgebra Tanszék. TARTALOMJEGYZÉK Kontrakciók Affin transzformációk

függvény grafikonja milyen transzformációkkal származtatható az f0 : R R, f0(

Analízisfeladat-gyűjtemény IV.

Lineáris algebra 2. Filip Ferdinánd december 7. siva.banki.hu/jegyzetek

Feladatok megoldásokkal a harmadik gyakorlathoz (érintési paraméterek, L Hospital szabály, elaszticitás) y = 1 + 2(x 1). y = 2x 1.

FELVÉTELI VIZSGA, szeptember 12.

7. gyakorlat. Lineáris algebrai egyenletrendszerek megoldhatósága

Norma Determináns, inverz Kondíciószám Direkt és inverz hibák Lin. egyenletrendszerek A Gauss-módszer. Lineáris algebra numerikus módszerei

A dierenciálszámítás alapjai és az érint

Függvények határértéke, folytonossága

Numerikus módszerek 1.

karakterisztikus egyenlet Ortogonális mátrixok. Kvadratikus alakok főtengelytranszformációja

Lagrange-féle multiplikátor módszer és alkalmazása

Átírás:

FELTÉTEL NÉLKÜLI OPTIMALIZÁLÁS ALGORITMUSAI DR. NAGY TAMÁS egyetemi docens Miskolci Egyetem Alkalmazott Matematikai Tanszék A bemutatott kutató munka a TÁMOP-4...B-0//KONV-00-000 jel½u projekt részeként az Európai Unió támogatásával, az Európai Szociális Alap társ nanszírozásával valósul meg This research was carried out as part of the TAMOP-4...B-0//KONV-00-000 project with support by the European Union, co- nanced by the European Social Fund. Miskolc, 0

TARTALOMJEGYZÉK Tartalomjegyzék Bevezetés Newton típusú módszerek. Newton módszer.................................. Levenberg-Marquardt módszer (módosított Newton módszer)......... 8. Trust region módszer............................... 9.4 Kvázi Newton módszerek............................. 9 Vonalmenti minimumkeres½o eljárások 5. Egyváltozós minimumkeres½o eljárások...................... 6.. Szimultán keresés............................. 7.. Szekvenciális keresés........................... 8.. Deriváltakat használó egyváltozós keres½o eljárások........... 6. Többváltozós vonalmenti keres½o eljárások.................... 9.. Deriváltakat nem használó többváltozós vonalmenti keres½o eljárások. 9.. Deriváltakat használó többváltozós vonalmenti keres½o eljárások.... 5

. BEVEZETÉS. Bevezetés Tekintsük a min ff(x) : x R n g többváltozós feltétel nélküli minimalizálási feladatot. E feladat megoldására leggyakrabban az alábbi két módszercsalád valamelyikét alkalmazzuk. Az egyiknél a rf(x) 0 szükséges feltételt, mint egyenletrendszert valamilyen gyökkeres½o eljárással megoldjuk, a másiknál pedig a vonalmenti minimumkeres½o eljárásokat alkalmazunk. A rf(x) 0 egyenletrendszer megoldására a Newton típusú módszereket ismertetjük. A vonalmenti keres½o eljárások közül többet is bemutatunk, egyrészt azokat a módszereket, amelyek nem használják a deriváltakat ill. azokat, amelyeknél megköveteljük a minimalizálandó függvény di erenciálhatóságát. Vegyük sorra ezeket a módszereket.. Newton típusú módszerek.. Newton módszer El½oször egyenletrendszer megoldására mutatjuk be a Newton módszert, majd utána optimalizálási feladat megoldására alkalmazzuk. Legyenek f ; f ; : : : ; f m : R n! R többváltozós di erenciálható valós függvények. Tekintsük az alábbi m egyenletb½ol álló egyenletrendszert: f (x) 0 f (x) 0 f m (x) 0 Közelítsük ezeket a függvényeket a többváltozós valós függvényekre megismert els½ofokú Taylor polinommal egy x k R n helyen, azaz : : : f (x) f (x k ) + rf (x k )(x x k ) f (x) f (x k ) + rf (x k )(x x k ) ::: f m (x) f m (x k ) + rf m (x k )(x x k ) Az egyszer½ubb írásmód végett térjünk át a mátrix-vektoros jelölésre. Legyen F : R n! R m, az F vektor elemei legyenek az f (x); f (x); : : : ; f m (x) függvények. Legyen továbbá a J(x k ) m n-es mátrix olyan, amelynek i-edik sorvektora az i-edik függvény x k pontbeli gradiense, azaz J(x k ) rf(x k ). Ezt a mátrixot Jacobi mátrixnak nevezzük. Ekkor a fenti formulák az alábbi mátrix-vektoros formában írhatók: F(x) F(x k ) + J(x k )(x x k ): Válasszuk meg az x k+ -edik közelítést úgy, hogy a közelít½o Taylor polinom zérus legyen, azaz F(x k ) + J(x k )(x k+ x k ) 0; ebb½ol pedig x k+ -et az alábbi lineáris egyenletrendszer megoldása szolgáltatja: J(x k )(x k+ x k ) F(x k ):

. NEWTON TÍPUSÚ MÓDSZEREK 4 Amennyiben a J(x k ) mátrix négyzetes (az egyenletek száma megegyezik a változók számával) és létezik inverze, úgy az x k+ x k J(x k ) F(x k ): formulát is használhatjuk a következ½o közelítés számítására. A Newton módszer tehát az alábbiakból áll. Kiindulunk egy tetsz½oleges x R n vektorból és a J(x k )(x k+ x k ) F(x k ) ill. x k+ x k J(x k ) F(x k ) iterációs formulák valamelyikével meghatározzuk az x ; x ; : : : ; x k ; : : : sorozatot. Az eljárást addig folytatjuk, amíg két egymást követ½o közelítés távolsága egy pontossági t½urés (") alá nem esik, azaz kx k+ x k k < ". Természetesen más terminálási módszereket is alkalmazhatunk. Most alkalmazzuk a Newton módszert a feltétel nélküli optimalizálásra, azaz keressük az f : R n! R, vagyis egy n változós valós függvény minimumát. Mint tudjuk a lokális minimum szükséges feltétele rf(x) 0. Ez pedig nem más mint egy n változós n egyenletb½ol álló egyenletrendszer. Ennek megoldására pedig rendelkezésünkre áll az el½oz½oekben vázolt Newton módszer, egyszer½uen F(x) helyébe rf(x)-et kell írnunk. A Jacobi mátrix ebben az esetben olyan mátrix lesz, amelynek i-edik sorvektora nem más, mint az f(x) függvény gradiense i-edik elemének a gradiense, azaz H(x) rrf(x) r f(x). Ez a mátrix pedig nem más, mint az f(x) függvény H(x) Hesse mátrixa. Az f(x) függvény minimumának meghatározására szolgáló Newton módszer tehát az alábbiakból áll. Kiindulunk egy tetsz½oleges x k R n (k ) vektorból és a H(x k )(x k+ x k ) rf(x k ): lineáris egyenletrendszer megoldásából meghatározzuk a következ½o, azaz az x k+ közelítést. A H(x) Hesse mátrix, mint tudjuk négyzetes, amennyiben viszont létezik az inverze, akkor az x k+ x k H(x k ) rf(x k ) formula is használható. Mindkét formula a Newton módszert írja le, de célszer½unek tartjuk bevezetni a Newton I. és a Newton II. módszert, mert kés½obb szó lesz a kvázi Newton módszerekr½ol és ezeket a módszereket a közölt két formulából vezetjük le. Továbbá célszer½u bevezetni az s k x k+ x k különbségvektort, amely tehát az ismeretlen x k+ közelítés és az el½oz½o x k közelítés különbsége. Ebben az esetben ennek a különbségvektornak a meghatározására az alábbi formulákat használjuk: Newton I. módszer esetén H(x k )s k rf(x k ); Newton II. módszer esetén s k H(x k ) rf(x k ):

. NEWTON TÍPUSÚ MÓDSZEREK 5 Az s k különbségvektor ismeretében az formulával kapjuk a következ½o közelítést. x k+ x k + s k Megjegyezzük, hogy az f(x) függvény minimumának meghatározására szolgáló Newton módszert levezethetjük a következ½oképpen is. Tekintsük az f(x) függvény másodfokú Taylor polinomját az x k pontban. Jelölje ezt q(x), amely az alábbi q(x) f(x k ) + rf(x k )(x x k ) + (x x k)h(x k )(x x k ): Határozzuk meg q(x) minimumát. Mint tudjuk a minimum szükséges feltétele rq(x) 0 Elvégezve a gradiensképzést, kapjuk hogy rf(x k ) + H(x k )(x x k ) 0; amelyb½ol a Newton módszerre korábban kapott formula adódik. Példa: Határozzuk meg az f(x ; x ) x + x x + x 6x 8x + függvény minimumát Newton módszerrel az x [0; 0] startvektorból kiindulva! Megoldás: A gradiensvektor és a Hesse mátrix a következ½o: x + x rf(x) 6 x + 4x 8 Ezeknek az x pontbeli értékeik a következ½ok: 6 rf(x ) 8 ; H(x) ; H(x ) 4 4 Az s [s ; s ] ismeretlen különbségvektort meghatározó H(x )s rf(x ) lineáris egyenletrendszer vektor-mátrixos formában: s 6 ; 4 8 skaláris formában: s s + s 6 s + 4s 8 A lineáris egyenletrendszer megoldását sokféleképpen meghatározhatjuk, például pivotálással vagy a két egyenletet kivonva egymásból. A megoldás: s ; s 6 s, ezekb½ol a keresett különbségvektor s [; ] : : :

. NEWTON TÍPUSÚ MÓDSZEREK 6 Az s [s ; s ] különbségvektor meghatározására szolgáló lineáris egyenletrendszert a Hesse mátrix inverzének segítségével is megoldhatjuk, így egy mátrix és egy vektor szorzásával kapjuk a megoldást (Newton II. formula: s k H(x k ) rf(x k )), de az invertálást el kell végezni. Az invertálást pivotálással is végezhetjük, de a -es mátrix inverze egyszer½uen számolható, mégpedig úgy, hogy a f½oátlóban lév½o elemeket felcseréljük, a mellékátlóban lév½o elemeknek pedig az el½ojelét váltjuk ellenkez½ore és minden elemet elosztunk a mátrix determinánsával. A Hesse mátrix inverze: H(x ) 4 : 4 A megoldás s H(x ) rf(x ) 4 4 Az s különbségvektor ismeretében a következ½o közelítés: x x +s [0; 0]+[; ] [; ]. A példában azt tapasztaltuk, hogy egyetlen lépésben megkaptuk az optimális megoldást. Könnyen ellen½orizhet½o, hogy az optimumpont x [; ]. Az optimális célfüggvény érték f min 8. Ez mindig így van, ha a minimalizálandó függvény kvadratikus és konvex. Emlékezzünk a Newton módszer második levezetésére, amikor az f(x) függvényt annak másodfokú Taylor polinomjával helyettesítettük, ez pedig kvadratikus függvényeknél mindig önmagával egyezik meg. Példa: Határozzuk meg az f(x ; x ) x 4 x + x x + 7 függvény minimumát Newton módszerrel az x [; 6 8 ] startvektorból kiindulva! Megoldás: A gradiensvektor és a Hesse mátrix a következ½o: 4x rf(x) x + 4x x x x x 4 + 4x x ; H(x) x + 4x 8x x + 8x x 8x x + 8x x x 4 + 4x : Ezeknek az x pontbeli értékeik a következ½ok 8 rf(x ) ; H(x 6 ) 6 6 6 6 : rf(x k ), amely az s [s ; s ] isme- A megoldandó lineáris egyenletrendszer: H(x k )s k retlen különbségvektor két koordinátájára az alábbi: 6s 6s 8 6s + 6s 6 A megoldás, azaz az x vektorhoz tartozó s különbségvektor s segítségével való egyenletrendszer megoldással: s H(x ) 6 6 4 rf(x )) 60 6 6 0 ; 0, vagy az inverz 0 0 :

. NEWTON TÍPUSÚ MÓDSZEREK 7 Az x közelítés: x x + s [; ] + ; 0 0 7 ; 8 0 0. Láthatjuk, hogy közelebb kerültünk az optimumhoz. További lépéseket nem végzünk, mivel a módszer lényegét bemutattuk. Példa: Határozzuk meg az f(x ; x ) (x + x x 4x + 6) függvény minimumát Newton módszerrel az x [0; ] startvektorból kiindulva! Megoldás: A gradiensvektor és a Hesse mátrix a következ½o: rf(x) H(x) 4 6 4 x (x +x x 4x +6) x 4 (x +x x 4x +6) Az x pontbeli értékeik pedig rf(x ) 5 ; (x +x x 4x +6) (x ) (x +x x 4x +6) (x )(x 4) (x +x x 4x +6) (x )(x 4) (x +x x 4x +6) (x 4) (x +x x 4x +6) (x +x x 4x +6) 9 9 ; H(x ) A megoldandó lineáris egyenletrendszer az s vektor két koordinátájára 7 s 8 7 s 8 7 s 9 7 s 9 A megoldás, azaz az x vektorhoz tartozó s különbségvektor s ; 5 5, vagy s H(x ) 4 rf(x )) ( ( 9 )( 7 ) 5 4 4 9 ) 7 8 7 7 4 amelyb½ol az x közelítés x x + s x + s [0; ] + ; 5 5 ; 5 5. Azt tapasztaljuk, hogy távolodunk az optimumponttól, a célfüggvényérték pedig nem csökken, hanem növekszik. Könnyen ellen½orizhet½o, hogy az optimumpont x [; ]. Az 5 x új közelítéshez tartozó célfüggvény érték f(x ) 0:6 nagyobb lett, mint 5 a kezd½oponthoz tartozó f(x ) 0: célfüggvény érték, a minimumérték pedig f min 0:0. 5 A Newton módszer alkalmazásánál, mint e példa is mutatta, el½ofordulhat, hogy a Newton módszer nem konvergál az optimumponthoz. Ezen próbál segíteni az alábbi két módszer. Ezen módszerek mellett az is segít, ha a Newton módszert összekapcsoljuk egy vonalmenti optimalizálással. Ezt be is fogjuk mutatni a kés½obbiekben, ennek a példának a megoldásával. 5 5 8 7 7 : : 7 5 :

. NEWTON TÍPUSÚ MÓDSZEREK 8 Megjegyzés: A három példamegoldásban az olvasónak bizonyára feltüntek azonos jelölések, mint például az x ; x ; x ; x ; s ; s. A félkövér bet½u mindig vektort jelöl, a normál bet½u pedig skalárt, általában vektorkoordinátát jelöl. A további példákban is ezt a jelölést alkalmazzuk, de ezen megjegyzés alapján a továbbiakban az olvasónak nem okozhat gondot a formulák jó értelmezése. Ha az olvasót ez mégis zavarja, akkor használhatja a vektorok megkülönböztetésére a fels½o indexet, ez hasznos lehet a nem nyomtatott, kézi írásnál... Levenberg-Marquardt módszer (módosított Newton módszer) Legyen adott az x k R n közelít½o vektor és a H(x k ) Hesse mátrix. A Hesse mátrixot helyettesítsük egy B szimmetrikus pozitív de nit mátrix-szal, amelyet a következ½oképpen de niálunk B H(x k ) + " k E; ahol " k > 0 paraméter, az E pedig az egységmátrix. Ezzel a módosítással megnöveljük a Hesse mátrix f½oátlójában lév½o elemek értékét. A Newton módszerben az s k meghatározása a Bs k (H(x k ) + " k E)s k rf(x k ) lineáris egyenletrendszer megoldására fog módosulni. Az algoritmus során az " k paramétert módosítjuk, mégpedig egy arány függvényében. Ez az arány az x k+ és x k pontokbeli függvényértékek különbségének hányadosa, számlálóban a minimalizálandó függvény, nevez½oben pedig annak kvadratikus közelít½o függvénye szerepel. Legyen ez az arány r k, képletben r k f(x k+) f(x k ) q(x k+ ) q(x k ) : Levenberg és Marquardt az alábbi eljárást javasolta: Induló lépés (k ): Kiindulunk egy tetsz½oleges x k R n vektorból és egy " k > 0 paraméterb½ol. Közbüls½o lépés:. Kísérletet teszünk a B H(x k )+" k E mátrix Cholesky felbontására. Ha nem sikerül az LL T felbontás, akkor az " k paraméter értékét négyszeresére növeljük, azaz: " k : 4" k. Addig folytatjuk a kísérletet a Cholesky felbontásra és vele párhuzamosan az " k értékének módosítását, amíg nem sikerül az LL T felbontás.. Ha sikerül az LL T felbontás, azaz a H(x k ) + " k E mátrix pozitív de nit, akkor megoldjuk az LL T s k rf(x k ) egyenletrendszert s k -ra.. Meghatározzuk a következ½o közelítést: x k+ x k + s k. 4. Megállunk, ha kx k+ x k k < ", egyébként folytatjuk az eljárást a következ½o sorral. 5. Kiszámítjuk az r k arányt. Ha 0 < r k < 0:5, akkor legyen " k+ 4" k : Ha r k > 0:75, akkor legyen " k+ " k: Ha 0:5 5 r k 5 0:75, akkor legyen " k+ " k. Ha r k 5 0, akkor legyen " k+ 4" k és az x k+ értékét visszaállítjuk x k -ra, azaz x k+ : x k : 6. Folytatjuk az eljárást, k : k +.

. NEWTON TÍPUSÚ MÓDSZEREK 9.. Trust region módszer Minden x k közelítéshez de niálunk egy megbizhatósági tartomány (trust region) a következ½oképpen: k fx : kx x k k 5 k g ; ahol k > 0 trust region paraméter. Ebben a tartományban keressük az x k+ közelítést, mégpedig a q(x) kvadratikus közelít½o függvény minimumaként. Itt az algoritmus során a k paramétert módosítjuk, hasonlóan a módosított Newton módszernél látottakhoz. Trust region módszer algoritmusa: Induló lépés (k ): Kiindulunk egy tetsz½oleges x k R n vektorból és egy k > 0 paraméterb½ol. Közbüls½o lépés:. Megoldjuk a min fq(x) : x k g optimalizálási feladatot, legyen az optimális megoldás x k+.. Megállunk, ha kx k+ x k k < ", egyébként folytatjuk az eljárást a következ½o sorral.. Kiszámítjuk az r k arányt. 4. Ha 0 < r k < 0:5, akkor legyen k+ kx k+ x k k 4: Ha r k > 0:75 és kx k+ x k k k (az x k+ a trust region határán van), akkor legyen k+ k : Ha a fenti két eset egyike sem áll fenn, akkor legyen k+ k. Ha r k 5 0, akkor legyen k+ kx k+ x k k 4 és az x k+ értékét visszaállítjuk x k -ra, azaz x k+ : x k : 5. Folytatjuk az eljárást, k : k +..4. Kvázi Newton módszerek A Newton módszernek egyenletrendszer megoldására szolgáló változata esetén szükségünk van az adott pontban a Jacobi mátrixra ill. optimalizálás esetén a Hesse mátrixra. A kvázi Newton módszereknél ezeket az els½orend½u ill. a másodrend½u deriváltakat nem számítjuk ki, hanem helyette egy egyszer½u képlettel számítjuk ki azok közelítését. Tekintsük az F(x) 0 egyenletrendszert, ahol F : R n! R m. Ha az F függvényt az x k R n pontbeli els½ofokú Taylor polinommal közelítjük, akkor az x k+ pontban a függvényérték a közelítése F(x k+ ) F(x k ) + J(x k )(x k+ x k ): Mivel a mi feladatunk alapvet½oen egy f : R n! R függvény minimumának a meghatározása, ezért a kvázi Newton módszerhez szükséges levezetéseket csak optimalizálás esetére végezzük el. A szükséges feltétel szerint az optimalizálásban a rf(x) 0 egyenletrendszert kell megoldani, tehát a fenti összefüggés az alábbiakra módosul rf(x k+ ) rf(x k ) + H(x k )(x k+ x k ): Vezessük be az y k jelölést a gradiensek különbségére, az s k jelölést pedig az x vektorok különbségére, azaz legyen s k x k+ x k y k rf(x k+ ) rf(x k )

. NEWTON TÍPUSÚ MÓDSZEREK 0 ekkor a fenti összefüggés az alábbi egyszer½u alakban írható y k H(x k )s k : Ha most a H(x k ) Hesse mátrixot egy B k mátrix-szal helyettesítjük, akkor y k B k s k : Válasszuk meg a Hesse mátrix következ½o helyettesítését, a B k+ mátrixot úgy, hogy egyenl½oség álljon fenn az el½oz½o formulában, azaz y k B k+ s k : Ezt az összefüggést kvázi Newton feltételnek vagy más elnevezéssel szel½o egyenletnek is szokás nevezni. A B k+ mátrixot sokféleképpen meg lehet határozni. Szokásos eljárás a B k+ meghatározására az, hogy a B k mátrixhoz egy vagy több diadikus mátrixot adunk hozzá. Egy diadikus mátrix alkalmazása (egyrangú formula) Legyen u; v R n, R és módosítsuk a B mátrixot az alábbiak szerint B k+ B k + uv T : Ennek ki kell elégíteni a kvázi Newton feltételt, azaz y k B k+ s k (B k + uv T )s k B k s k + (v T s k )u: Ebb½ol az egyenletb½ol u y k B k s k, (v T s k ) adódik, v pedig egy alkalmasan választott vektor. Szokásos a v u, vagy a v s k választás, amelyb½ol az új B mátrix B k+ B k + (y k B k s k )(y k B k s k ) T (y k B k s k ) T s k ill. B k+ B k + (y T k B k s k )s k s T k s : k Két diadikus mátrix alkalmazása (kétrangú formula) Az egyszer½uség kedvéért az egyes diádokban most ugyanazokat a vektorokat használjuk, legyen u; v R n, ; R és módosítsuk a B mátrixot az alábbiak szerint Ekkor B k+ B k + uu T + vv T : y k B k+ s k (B k + uu T + vv T )s k B k s k + (u T s k )u + (v T s k )v: Ebb½ol az egyenletb½ol u y k, v B k s k, (u T s k ), új B mátrix B k+ B k + y ky T k y T k s k (B k s k )(B k s k ) T (B k s k ) T s k : (v T s k ) adódik, amelyb½ol az

. NEWTON TÍPUSÚ MÓDSZEREK Most további eljárásokat ismertetünk. Míg az el½oz½oekben a Hesse mátrixot, most a Hesse mátrix inverzét helyettesítjük. A kiinduló formula az el½oz½oekb½ol ismert rf(x k+ ) rf(x k ) + H(x k )(x k+ x k ): A Hesse mátrix inverzét használva az ismert jelöléseket gyelembe véve az alábbi formulát kapjuk s k H(x k ) y k : Ha most a H(x k ) mátrixot egy D k mátrix-szal helyettesítjük, akkor Válasszuk meg a D k+ mátrixot úgy, hogy s k D k y k : s k D k+ y k : Ezt az összefüggést szintén kvázi Newton feltételnek szokás nevezni. A D k+ mátrix meghatározását a B k+ mátrix meghatározásához hasonlóan végezzük. A levezetést az olvasóra bízzuk, itt csupán a formulákat közöljük. Egy diadikus mátrix alkalmazása (egyrangú formula) D k+ D k + (s k D k y k )(s k D k y k ) T (s k D k y k ) T y k : Két diadikus mátrix alkalmazása (kétrangú formula) D k+ D k + s ks T k s T k y k (D k y k )(D k y k ) T (D k y k ) T y k : Érdemes megjegyezni a formulák közötti duális kapcsolatot, miszerint a D és B, valamint az s és y bet½uk cseréjével egyik formulából adódik a másik formula. Összefoglalóan, a sok lehetséges kvázi Newton módszert használó eljárások közül egyegy eljárást ismertetünk. A Hesse mátrixot helyettesít½o eljárások közül a leggyakrabban használt eljárás a BFGS eljárás, míg a Hesse mátrix inverzét helyettesít½o eljárások közül a leggyakrabban használt eljárás a DFP eljárás. BFGS (Broyden-Fletcher-Goldfarb-Shanno) eljárás Induló lépés (k ): Kiindulunk egy tetsz½oleges x k R n vektorból és egy szimmetrikus pozitív de nit B k mátrixból. Közbüls½o lépés:. Megoldjuk a B k s k rf(x k ) lineáris egyenletrendszert s k különbségvektorra.. Meghatározzuk a következ½o közelítést: x k+ x k + s k :

. NEWTON TÍPUSÚ MÓDSZEREK. Az alábbi formulákkal kiszámítjuk az y k vektort és a Hesse mátrixot helyettesít½o mátrix következ½o, B k+ közelít½o mátrixát: y k rf(x k+ ) rf(x k ); B k+ B k + y ky T k y T k s k (B k s k )(B k s k ) T (B k s k ) T s k : Az eljárást addig folytatjuk, amíg kx k+ x k k < ". A fenti eljárást kidolgozóiról Broyden, Fletcher, Goldfarb, Shanno kutatókról nevezték el. Megjegyezés: Az egyrangú formula esetén, ha a v s k választást használjuk, akkor a módszert Broyden módszernek nevezzük. DFP (Davidon-Fletcher-Powell) eljárás Induló lépés (k ): Kiindulunk egy tetsz½oleges x k R n vektorból és egy szimmetrikus pozitív de nit D k mátrixból. Közbüls½o lépés:. Kiszámítjuk az s k különbségvektort a következ½o formulával s k D k rf(x k ):. Meghatározzuk a következ½o közelítést: x k+ x k + s k :. Az alábbi formulákkal kiszámítjuk az y k vektort és a Hesse mátrix inverzét helyettesít½o mátrix következ½o, D k+ közelít½o mátrixát: y k rf(x k+ ) rf(x k ); D k+ D k + s ks T k s T k y k (D k y k )(D k y k ) T (D k y k ) T y k : Az eljárást addig folytatjuk, amíg kx k+ x k k < ". A fenti eljárást kidolgozóiról Davidon, Fletcher, Powell kutatókról nevezték el. Fentebb a kétrangú formulát használtuk D k+ számítására, értelemszer½uen alkalmazható az egyrangú formula is. Példa: Oldjuk meg az alábbi optimalizálási feladatot Broyden-Fletcher-Goldfarb-Shanno módszerrel! f(x ; x ) x + x + 7! min! Legyen az x startvektor és a Hesse mátrixot helyettesít½o B startmátrix az alábbi: x (; ); B : 4 Megoldás: El½okészületként határozzuk meg a célfüggvény gradiensét x rf(x ; x ) : x

. NEWTON TÍPUSÚ MÓDSZEREK. lépés: x (; ), rf(x ) (; ) A megoldandó egyenletrendszer (B s rf(x )): s s s + 4s Az egyenletrendszer megoldása: s ; s 0, így s ( ; 0).. lépés: x x + s (; ) ( ; 0) (0; ) Most el½okészítjük a B mátrix számítását. rf(x ) (0; ) y rf(x ) rf(x ) (0; ) (; ) ( ; 0) B s ( ; ), ezt számolás nélkül is tudjuk az egyenletrendszerb½ol, ugyanis B s rf(x ). y y T 0 4 0 0 0 0 y T s 0 0 (B s )(B s ) T (B s ) T s 0 B B + y y T y T s 4 (B s )(B s ) T (B s ) T s 4 + 4 0 0 0 4 0 0 7. lépés: x (0; ), rf(x ) (0; ) A megoldandó egyenletrendszer (B s rf(x )): s s 0 s + 4s Az egyenletrendszer megoldása: s 7 ; s 7, így s ( 7 ; 7 ). 4. lépés: x x + s (0; ) ( ; ) ( ; 9 ) 7 7 7 7 A számítást nem folytatjuk tovább, hiszen a BFGS módszer lépéseit bemutattuk. Feladat: A gyakorlás végett számítsa ki a B mátrixot! Példa:

. NEWTON TÍPUSÚ MÓDSZEREK 4 Oldjuk meg az alábbi optimalizálási feladatot Davidon-Fletcher-Powell módszerrel! f(x ; x ) x + x 9! min! Legyen az x startvektor és a Hesse mátrixot helyettesít½o D startmátrix az alábbi: x ( ; ); D : Megoldás: El½okészületként határozzuk meg a célfüggvény gradiensét x rf(x ; x ) : 4x. lépés: x ( ; ), rf(x ) ( ; 4); s D rf(x ) 4 6 0 vagy más jelöléssel s (6; 0). lépés: x x + s ( ; ) + (6; 0) (5; 9) Most el½okészítjük a D mátrix számítását. rf(x ) (0; 6) y rf(x ) rf(x ) (0; 6) ( ; 4) (; 40) D y (5; 9) 40 6 6 60 s s T 6 0 0 60 00 s T y 6 0 47 40 5 704 4784 (D y )(D y ) T 5 9 9 4784 8464 (D y ) T y 5 9 404 40 D D + s s T (D y )(D y ) T s T y (D y ) T y + 6 60 47 60 00 4 495 74 74 495 74 7787 74 0:4480 0:05594 0:05594 0:45 704 4784 404 4784 8464. lépés: x (5; 9), rf(x ) (0; 6) 0:4480 0:05594 s D rf(x ) 0:05594 0:45 jelöléssel s ( 5:046; 8:9875) 0 6 5:046 8:9875 vagy más

. VONALMENTI MINIMUMKERES½O ELJÁRÁSOK 5 4. lépés: x x + s (5; 9) + ( 5:046; 8:9875) ( 0:046; 0:05) A számítást nem folytatjuk tovább, hiszen a DFP módszer lépéseit bemutattuk. Megjegyzés: További formulák is származtathatók a (A + uv T ) A A uv T A ( + v T A u) ; + vt A u 6 0: Sherman-Morrison-Woodbury formula segítségével. A BFGS eljárásban szerepl½o B mátrix inverzét használhatjuk a DFP eljáráshoz D mátrixként, ekkor a D mátrixra vonatkozó formula: BF GS Dk+ D k + + (D ky k ) T y k sk s T k s k (D k y k ) T + (D k y k )s T k s T k y k s T k y : k s kt y k A DFP eljárásban szerepl½o D mátrix inverzét használhatjuk a BFGS eljáráshoz B mátrixként, ekkor a B mátrixra vonatkozó formula: B DF k+ P B k + + (B ks k ) T s k yk yk T y k (B k s k ) T + (B k s k )yk T yk T s k yk T s : k y kt s k Hasonlóan érvényes a dualítás ebben az esetben is.. Vonalmenti minimumkeres½o eljárások A módszerek lényege a következ½oképpen foglalható össze. Induló lépés (k ): Kiindulunk egy x k R n pontból és választunk egy alkalmas d k R n keres½o irányvektort. Közbüls½o lépés: A d k irányban megkeressük a függvény minimumát, azaz a min ff(x k + d k ) : 0g minimalizálási feladatot kell megoldani. Ez a feladat egy egyváltozós minimalizálási probléma. Legyen a '() f(x k + d k ) egyváltozós függvény minimuma k. Ekkor a következ½o közelítés x k+ x k + k d k. A módszerek abban fognak különbözni, hogy a keres½o irányt milyen módon határozzuk meg. Miel½ott azonban ezekre a módszerekre rátérnénk bemutatjuk az egyváltozós minimalizálási technikákat, hisz a vonalmenti minimumkeres½o eljárások magját az egyváltozós optimalizálási probléma adja.

. VONALMENTI MINIMUMKERES½O ELJÁRÁSOK 6.. Egyváltozós minimumkeres½o eljárások Tekintsük a min ff(x) : x Rg egyváltozós minimalizálási feladatot. Els½o lépésként határozzunk meg egy olyan [a; b] intervallumot, amely tartalmazza a minimumpontot. Ezt az intervallumot szokás bizonytalansági intervallumnak is tekinteni, hiszen csak azt tudjuk, hogy a minimumpont itt keresend½o, de a helyér½ol nincs információnk. A következ½okben bemutatott módszerek lényege abban áll, hogy a bizonytalansági intervallumot lépésr½ol lépésre sz½ukítjük. Ehhez nem teszünk mást, mint az intervallumot részekre osztjuk (általában két bels½o pont felvételével) és az osztópontokban a függvényértéket kiszámítjuk, a függvényértékek nagysága alapján fogjuk az új (sz½ukebb) bizonytalansági intervallumot meghatározni. Ahhoz, hogy az eljárás konvergens legyen a függvénynek bizonyos konvexitási tulajdonsággal kell rendelkeznie. Megjegyezzük, hogy sok esetben anélkül is alkalmazzuk az alábbi eljárásokat, hogy meggy½oz½odnénk a konvexitásról, ekkor azonban nincs garancia az eljárások konvergenciájára. Az alábbi tétel adja meg a sz½ukítés lehet½oségét. TÉTEL Legyen f : R! R szigorúan kvázikonvex függvény az [a; b] intervallumon. c; d (a; b) olyan, hogy c < d. Legyen (a) Ha f(c) > f(d), akkor f(x) f(d) minden x [a; c) esetén, így az új bizonytalansági intervallum [c; b] : (b) Ha f(c) 5 f(d), akkor f(x) f(c) minden x (d; b] esetén, így az új bizonytalansági intervallum [a; d] : Bizonyítás (a) Indirekte tegyük fel, hogy f(x) < f(d) minden x [a; c) esetén. Mivel c x + ( )d, (0; ) és a függvény szigorúan kvázikonvex, így f(c) < max ff(x); f(d)g f(d): Ez pedig ellentmond annak, hogy f(c) > f(d). (b) Hasonlóan bizonyítható (i)-hez. Q.e.d. A tétel és a bizonyítás jobb megértését az alábbi ábrával segítjük el½o: Az alábbi alfejezetekben háromféle keresési módszercsaládot mutatunk be: a szimultán keresést, a szekvenciális keresést és a függvény deriváltjait is használó keresést.

. VONALMENTI MINIMUMKERES½O ELJÁRÁSOK 7... Szimultán keresés Uniform keresés A szimultán keresési módszerek közül a legelterjedtebb módszer az uniform keresés. Osszuk be az [a; b] intervallumot n egyenl½o részre. Az így kapott a x 0 ; x ; : : : ; x i ; x i ; x i+ ; : : : ; x n b pontokban számítsuk ki a függvényértékeket, majd határozzuk meg ezek minimumát. Tegyük fel, hogy a minimum az x i pontban éretik el. Az el½oz½o tétel alapján mondhatjuk, hogy sem az x i pont el½ott, sem az x i+ pont után nem lehet a minimumpont, így az új bizonytalansági intervallum [x i ; x i+ ]. Ha azt akarjuk, hogy az új bizonytalansági intervallum kicsi legyen, akkor elég nagy számú függvény-kiértékelést kell végezni, ezért gyakran használják azt a módszert, hogy el½oször kevesebb részre osztják az intervallumot, aztán kés½obb nomítják a beosztást. Az eljárást addig folytatjuk, amíg olyan [a k ; b k ] bizonytalansági intervallumhoz nem érünk, amelynek hossza (L k b k a k ) kisebb, mint egy el½ore megadott t½urés (") kétszerese, azaz ha valamely k-ra L k < ". Ha a minimumpontot a megállásnál kapott [a k ; b k ] intervallum középpontjára választjuk, akkor "-nál kisebb hibát követünk el a minimumpont közelítésében. Példa: Oldjuk meg az f(x) x 5x + 0! min! egyváltozós optimalizálási feladatot uniform keresés módszerrel, ha a bizontalansági intervallum [a; b] [; 5], " 0:5. Megoldás:. lépés: Az els½o közelítésbeli bizonytalansági intervallum [a ; b ] [; 5], melynek hossza L 4. Osszuk be az [a ; b ] intervallumot n 5 egyenl½o részre. Ekkor a lépésköz h L n 0:8, az x i értékek pedig x i a + i h (i 0; ; :::; n). Az így kapott a x 0 ; x ; : : : ; x i ; x i ; x i+ ; : : : ; x n b pontokat és a hozzájuk tartozó a függvényértékeket az alábbi táblázatban közöljük. i 0 4 5 x i :8 :6 :4 4: 5 f(x i ) 6:0 4:4 :76 4:56 6:64 0:0 A függvényértékek minimuma :76 és ezt az x helyen veszi fel. Az új bizonytalansági intervallum tehát a minimumpontot közvetlenül megel½oz½o és követ½o intervallumok uniója, azaz [:8; :4].. lépés: A második közelítésbeli bizonytalansági intervallum [a ; b ] [:8; :4], melynek hossza L :6. Osszuk be az [a ; b ] intervallumot n 4 egyenl½o részre. Ekkor a lépésköz h L n 0:4. Az így kapott a x 0 ; x ; : : : ; x i ; x i ; x i+ ; : : : ; x n b pontokat és a hozzájuk tartozó a függvényértékeket az alábbi táblázatban közöljük. i 0 4 x i :8 : :6 :0 :4 f(x i ) 4:4 :84 :76 4:0 4:56 A függvényértékek minimuma :76 és ezt az x helyen veszi fel. Az új bizonytalansági intervallum tehát a minimumpontot közvetlenül megel½oz½o és követ½o intervallumok uniója, azaz [:; :0].

. VONALMENTI MINIMUMKERES½O ELJÁRÁSOK 8. lépés: A harmadik közelítésbeli bizonytalansági intervallum [a ; b ] [:; :0], melynek hossza L 0:8. Itt megállunk, mivel L < ". A minimumpont közelítésére az intervallum felez½opontját választjuk, így x min :6. Megjegyezzük, hogy jobb eredmény eléréséhez általában kisebb " értéket szokás megadni. Az osztópontok száma is általában nagyobb a gyakorlatban.... Szekvenciális keresés A szekvenciális keresések lényege az, hogy az [a; b] intervallum belsejében felveszünk két pontot, jelölje ezeket c; d (c < d). A közölt tétel értelmében ha f(c) > f(d), akkor az új bizonytalansági intervallum [c; b], ha pedig f(c) 5 f(d), akkor az új bizonytalansági intervallum [a; d]. Mivel nem tudjuk, hogy melyik eset fog el½ofordulni, így a c és d pontokra az optimális választás az, amelynél az új bizonytalansági intervallumok hossza megegyezik. Az alábbi eljárások mindegyikében ez az optimális elv érvényesül. Az eljárások különböz½osége a két pont konkrét megválasztásában van. Az eljárások ismertetése el½ott bevezetjük a következ½o jelöléseket. Jelölje az eredeti [a; b] intervallumot [a ; b ]. A további intervallumokat pedig jelölje [a k ; b k ]. Az [a k ; b k ] intervallumban választott két pontot jelölje c k ; d k. Továbbá jelölje az intervallumok hosszát L k, ahol L k b k a k. A szekvenciális eljárások közül hármat ismertetünk, nevezetesen a Dichotomous keresést, a Golden section (aranymetszés) keresést és a Fibonacci keresést. Dichotomous keresés Legegyszer½ubben úgy tudjuk biztosítani az új bizonytalansági intervallumok hosszának megegyezését, ha az intervallum középpontjától balra és jobbra azonos távolságra választjuk meg a c és a d pontokat. Jelölje a középponttól való távolságot, egy alkalmasan választott > 0 szám. Ekkor az alábbi formulák adódnak (k ; ; ; : : :): c k a k + b k d k a k + b k a k + L k ; + a k + L k + : Az új bizonytalansági intervallum számítása: Ha f(c k ) > f(d k ), akkor az új bizonytalansági intervallum [a k+ ; b k+ ] [c k ; b k ], ha f(c k ) 5 f(d k ), akkor az új bizonytalansági intervallum [a k+ ; b k+ ] [a k ; d k ]. Nyilvánvaló, hogy mindkét esetben L k+ L k +. Az alábbi ábra szemlélteti a fent leírtakat:

. VONALMENTI MINIMUMKERES½O ELJÁRÁSOK 9 Az eljárást addig folytatjuk, amíg valamely k-ra L k < ", ahol " > 0 a pontossági el½oírás. Ha a minimumpontot a megállásnál kapott [a k ; b k ] intervallum középpontjára választjuk, akkor "-nál kisebb hibát követünk el a minimumpont közelítésében. A következ½okben egy összefüggést adunk az L k+ és az els½o intervallumbeli L között. Azt tudjuk, hogy L k+ L k +, ezt felhasználva: L L + L L L + + + L + + L 4 L L + + + + L + + + : : : L k+ L + k + k + : : : + k + L k! + k L k + k Az utolsó összefüggésnél felhasználtuk azt, hogy ott egy hányadosú mértani sorozat k darab tagjának összege szerepel. A képlet segítségével el½ore megállapíthatjuk a lépésszámot egy adott " pontossági el½oíráshoz. A L + k < " egyenl½otlenségb½ol kellene k-t k kifejezni, amely nem bonyolult, ha a k ~ k helyettesítéssel élünk, mert k-re ~ egy másodfokú egyenl½otlenség adódik, utána pedig a k is egyszer½uen meghatározható. Példa: Oldjuk meg az f(x) x 5x + 0! min! egyváltozós optimalizálási feladatot dichotomous módszerrel, ha a bizontalansági intervallum [a; b] [; 5], 0:, " 0:5. Megoldás:. lépés: Az els½o közelítésbeli bizonytalansági intervallum [a ; b ] [; 5], melynek hossza L 4. A két közbüls½o pont és a hozzájuk tartozó függvényértékek:. lépés: c a + L :8; f(c ) :84; d a + L + :; f(d ) 4:4

. VONALMENTI MINIMUMKERES½O ELJÁRÁSOK 0 Mivel f(c ) < f(d ), így az új bizonytalansági intervallum [a ; b ] [a ; d ] [; :], melynek hossza L :. A két közbüls½o pont és a hozzájuk tartozó függvényértékek: c :9; f(c ) 4:; d :; f(d ) :79. lépés: Mivel f(c ) > f(d ), így az új bizonytalansági intervallum [a ; b ] [c ; b ] [:9; :], melynek hossza L :. A két közbüls½o pont és a hozzájuk tartozó függvényértékek: c :5; f(c ) :775; d :75; f(d ) :85 4. lépés: Mivel f(c ) < f(d ), így az új bizonytalansági intervallum [a 4 ; b 4 ] [a ; d ] [:9; :75], melynek hossza L 4 0:85. Itt megállunk, mivel L 4 < ". A minimumpont közelítése x min a 4+b 4 :5. Általában kisebb " értéket szokás megadni, de ezzel is elég közel kerültünk a pontos minimumhelyhez, az x :5 értékhez. Golden section (aranymetszés) keresés A másik, szintén nem bonyolult megoldás arra, hogy az új intervallumok mindkét esetben azonos hosszúságúak legyenek a következ½o. Válasszuk meg a c; d pontokat úgy, hogy a [c; b] és az [a; d] intervallum hossza az intervallum -szerese ( < < ) legyen, azaz b c L d a L Ekkor az alábbi képletek határozzák meg az osztópontokat az egyes lépésekben c k b k L k a k + ( )L k ; d k a k + L k : Természetesen használhatjuk az alábbi képleteket is c k a k + ( )L k b k L k ; d k b k ( )L k : Nyilvánvaló, hogy mindkét esetben L k+ L k. Az új bizonytalansági intervallum számítása: Ha f(c k ) > f(d k ), akkor az új bizonytalansági intervallum [a k+ ; b k+ ] [c k ; b k ], ha f(c k ) 5 f(d k ), akkor az új bizonytalansági intervallum [a k+ ; b k+ ] [a k ; d k ]. A értéke az (; ) intervallumban szabadon megválasztható. Mivel az eljárás legid½oigényesebb része a függvényérték kiszámítása, ezért célszer½u a szorzót úgy megválasztani, hogy az új bizonytalansági intervallum egyik bels½o pontja megegyezzen az el½oz½o bizonytalansági intervallum egyik bels½o pontjával, azaz ha el½oírjuk, hogy az [a k+ ; b k+ ] [c k ; b k ] intervallumban c k+ d k ;