Online tanulás nemstacionárius Markov döntési folyamatokban

Hasonló dokumentumok
Kockázati folyamatok. Sz cs Gábor. Szeged, szi félév. Szegedi Tudományegyetem, Bolyai Intézet

Komponensek keresése a megerősítéses tanulásban

KÖZGAZDASÁGTAN ALAPJAI

Bemenet modellezése II.

Általános statisztika II. Kriszt, Éva Varga, Edit Kenyeres, Erika Korpás, Attiláné Csernyák, László

Analízisfeladat-gyűjtemény IV.

Széchenyi István Egyetem, 2005

MATEMATIKA Kiss Árpád Országos Közoktatási Szolgáltató Intézmény Vizsgafejlesztő Központ

Kecskeméti Fıiskola GAMF Kar Informatika Tanszék. Johanyák Zsolt Csaba

A MAGYAR KIEGYENLÍTŐENERGIA-PIACI ÁRKÉPZÉSI RENDSZER VIZSGÁLATA

p j p l = m ( p j ) 1

Miskolci Egyetem GÉPÉSZMÉRNÖKI ÉS INFORMATIKAI KAR. Analízis I. példatár. (kidolgozott megoldásokkal) elektronikus feladatgyűjtemény

86 MAM112M előadásjegyzet, 2008/2009

Félévi időbeosztás (nagyjából) házi feladat beadási határidőkkel (pontosan) Valószínűségszámítás 2. matematikusoknak és fizikusoknak, 2009 tavasz

JANUS PANNONIUS TUDOMÁNYEGYETEM. Schipp Ferenc ANALÍZIS I. Sorozatok és sorok

MATEMATIKA évfolyam

EGÉSZSÉGÜGYI DÖNTÉS ELŐKÉSZÍTŐ

4. sz. Füzet. A hibafa számszerű kiértékelése 2002.

A kvantummechanika általános formalizmusa

MATEMATIKA TANTERV Bevezetés Összesen: 432 óra Célok és feladatok

Doktori munka. Solymosi József: NUKLEÁRIS KÖRNYEZETELLENŐRZŐ MÉRŐRENDSZEREK. Alkotás leírása

MATEMATIKA I. RÉSZLETES ÉRETTSÉGI VIZSGAKÖVETELMÉNY A) KOMPETENCIÁK

Regressziószámítás alkalmazása kistérségi adatokon

Sztochasztikus folyamatok 1. házi feladat

Pénzügyi matematika. Medvegyev Péter szeptember 8.

Veres Judit. Az amortizáció és a pénzügyi lízingfinanszírozás kapcsolatának elemzése a lízingbeadó szempontjából. Témavezető:

Mikrohullámok vizsgálata. x o

Számsorozatok Sorozat fogalma, példák sorozatokra, rekurzív sorozatokra, sorozat megadása Számtani sorozat Mértani sorozat Kamatszámítás

9. Áramlástechnikai gépek üzemtana

Lineáris programozás. Modellalkotás Grafikus megoldás Feladattípusok Szimplex módszer

Helyi tanterv Német nyelvű matematika érettségi előkészítő. 11. évfolyam

statisztikai menürendszere Dr. Vargha András 2007

Nemzeti alaptanterv 2012 MATEMATIKA

A TERMELÉSI FOLYAMATOK HATÉKONY ÉS OPTIMÁLIS IRÁNYÍTÁSA A KOMPLEX MÓDSZER ALKALMAZÁSÁVAL

SZOLGÁLTATÁSI FOLYAMATOK LOGISZTIFIKÁLÁSÁNAK MATEMATIKAI MODELLJE MATHEMATICAL MODELL OF THE LOGISTIFICATION OF SERVICE FLOWS

Tevékenység: Olvassa el a fejezetet! Gyűjtse ki és jegyezze meg a ragasztás előnyeit és a hátrányait! VIDEO (A ragasztás ereje)

Vidékfejlesztési sajátosságok, adaptálható megoldások a svájci vidékfejlesztési gyakorlat alapján

4. Hazai kísérletek a lokális térségek versenyképességének elemzésére

MATEMATIKA ÉVFOLYAM

A KÖZPONTI STATISZTIKAI HIVATAL NÉPESSÉGTUDOMÁNYI KUTATÓ INTÉZETÉNEK KUTATÁSI JELENTÉSEI DEMOGRÁFIAI TÁJÉKOZTATÓ FÜZETEK 15.

Részletes szakmai beszámoló

6. RADIOAKTIVITÁS ÉS GEOTERMIKA

* Jelen cikk a szerzõk nézeteit tartalmazza, és nem feltétlenül tükrözi a Magyar Nemzeti Bank hivatalos álláspontját. 1

Dinamikus programozás alapú szivattyú üzemvitel optimalizálási technikák (főként) kombinatorikus vízműhálózatokra

A MEGBÍZHATÓSÁGI ELEMZŐ MÓDSZEREK

SZTOCHASZTIKUS MÓDSZEREK

Cagan-modell Egyéb modellek a pénzkeresletre. Gazdaságpolitika Tanszék Budapesti Corvinus Egyetem

TERMELÉSMENEDZSMENT. Gyakorlati segédlet a műszaki menedzser szak hallgatói számára. Összeállította: Dr. Vermes Pál főiskolai tanár 2006.

Számelméleti feladatok az általános iskolai versenyek tükrében dr. Pintér Ferenc, Nagykanizsa

KÉRDÉSEK_GÉPELEMEKBŐL_TKK_2016.

Valószín ségelmélet házi feladatok

Matematika. Specializáció évfolyam

MATEMATIKA ÍRÁSBELI ÉRETTSÉGI-FELVÉTELI FELADATOK május 19. du. JAVÍTÁSI ÚTMUTATÓ

SZÉCHENYI ISTVÁN EGYETEM MŰSZAKI TUDOMÁNYI KAR RENDSZERELEMZÉS I.

Matematika emelt szint a évfolyam számára

10. OPTIMÁLÁSI LEHETŐSÉGEK A MŰVELET-ELEMEK TERVEZÉSEKOR

MODERN BAYES-I ÖKONOMETRIAI ELEMZÉSEK

SCHERMANN ZSOLT TDK DOLGOZAT

Matematikai statisztikai elemzések 6.

NUMERIKUS MÓDSZEREK FARAGÓ ISTVÁN HORVÁTH RÓBERT. Ismertető Tartalomjegyzék Pályázati támogatás Gondozó

5 Egyéb alkalmazások. 5.1 Akkumulátorok töltése és kivizsgálása Akkumulátor típusok

Szakmai zárójelentés

GAZDASÁGI STATISZTIKA

KIFEJEZÉSE: A GAMMA KOEFFICIENS. Csapó Benő Szegedi Tudományegyetem, Neveléstudományi Tanszék MTA-SZTE Képességkutató Csoport

Relációs algebra áttekintés és egy táblára vonatkozó lekérdezések

MATEMATIKA JAVÍTÁSI-ÉRTÉKELÉSI ÚTMUTATÓ

DIFFERENCIAEGYENLETEK

A szakképző iskolát végzettek iránti kereslet és kínálat várható alakulása 2016

Vízhasználatok gazdasági elemzése

MATEMATIKA JAVÍTÁSI-ÉRTÉKELÉSI ÚTMUTATÓ

KULCS_GÉPELEMEKBŐL III.

MFI mérés BUDAPESTI MŰSZAKI ÉS GAZDASÁGTUDOMÁNYI EGYETEM GÉPÉSZMÉRNÖKI KAR POLIMERTECHNIKA TANSZÉK HŐRE LÁGYULÓ MŰANYAGOK FOLYÓKÉPESSÉGÉNEK VIZSGÁLATA

Loványi István vizsgakérdései kidolgozva (béta)

Gyakorló feladatok a Közönséges dierenciálegyenletek kurzushoz

KÖZLEKEDÉSMÉRNÖKI ÉS JÁRMŰMÉRNÖKI KAR

XIII. Bolyai Konferencia Bodnár József Eötvös József Collegium, ELTE TTK, III. matematikus. A véletlen nyomában

MATEMATIKA ÉRETTSÉGI május 9. EMELT SZINT

NESZVEDA JÓZSEF APERIODIKUS ALKALMAZÁSÚ KATONAI BERENDEZÉSEK MEGBÍZHATÓSÁGA

Válasz Szőnyi Tamásnak az Optimális térlefedő kódok kutatása című doktori értekezés opponensi bírálatára

MATEMATIKA Emelt szint évfolyam

Hazánkban jelentõs múlttal rendelkeznek a klasszikus tesztelméleti módszerekkel

MATEMATIKA. Tildy Zoltán Általános Iskola és Alapfokú Művészeti Iskola Helyi tanterv 1-4. évfolyam 2013.

Szakdolgozat. Pongor Gábor

(11) Lajstromszám: E (13) T2 EURÓPAI SZABADALOM SZÖVEGÉNEK FORDÍTÁSA

Számítógépvezérelt rendszerek mérnöki tervezése

Szepesvári Csaba ápr. 11

Áttekintés a felhasznált lineáris algebrai ismeretekről.

Matematika évfolyam

Miskolci Egyetem. Részbenrendezés maximális kompatibilis kiterjesztéseir l ütemezéselméleti vonatkozásokkal. PhD értekezés

Bóra Eszter. Véletlen gráfok és társadalmi hálózatok. Eötvös Loránd Tudományegyetem Természettudományi Kar. Témavezet : Backhausz Ágnes

HIDRAULIKAI SZÁMÍTÁSOK AZ ÉPÜLETGÉPÉSZETBEN ÉS AZ ENERGETIKÁBAN

> 2. iíc 3. Hibridintegrált aktív transzformátorok és zajviszonyaik

Differenciaegyenletek

Az ALL YOU CAN MOVE sportkártya működése

Opponensi vélemény. Fullér Róbert: Multicriteria Decision Models with Imprecise Information. című akadémiai doktori értekezéséről

( ) ( ) ( ) Fourier: : minden (idı)függvény( összetehetı harmonikus. függvényekbıl. (Fourier. transzformáció) mennyiség a teljesítmény-spektrum

A dolgozatot a négy érdemi fejezetben tárgyalt eredményeket tartalmazó 9 oldalas Összefoglalás ( o.) zárja le.

AutoN cr. Automatikus Kihajlási Hossz számítás AxisVM-ben. elméleti háttér és szemléltető példák február

OPERÁCIÓKUTATÁS, AZ ELFELEDETT TUDOMÁNY A LOGISZTIKÁBAN (A LOGISZTIKAI CÉL ELÉRÉSÉNEK ÉRDEKÉBEN)

2. előadás: További gömbi fogalmak

Átírás:

Online tanulás nemstacionárius Markov döntési folyamatokban Neu Gergely Számítástudományi és Információelméleti Tanszék Budapesti Műszaki és Gazdaságtudományi Egyetem PhD értekezés tézisei Témavezető: Dr. Györfi László Külső témavezetők: Dr. György András Dr. Szepesvári Csaba Budapest 2013

1. Bevezetés A doktori értekezésben bemutatott munka a szekvenciális gépi tanulás elméletének két modelljét általánosítja. Ezek az online tanulás (online learning, [12, 10]) és a megerősítéses tanulás (reinforcement learning, [35, 8, 38, 34]) modelljei, melyek jellegzetességeit alább foglaljuk össze. Online tanulás: Az online tanulási probléma legegyszerűbb változatában a döntéshozó minden t = 1,2,...,T lépésben választ egy a t A akciót, ahol A egy véges döntéshalmazt jelöl. Ezen döntés következtében a döntéshozó r t (a t ) jutalomban részesül, valamint megismeri az egyéb akciókért járó r t (a) jutalmakat is. A tanulóalgoritmus feladata a jutalmak T r t (a t ) összegének a maximalizálása. Bár a fenti probléma a klasszikus statisztika eszközeivel könnyen kezelhető, amennyiben a jutalmak független, azonos eloszlású (independent and identically distributed, i.i.d.) valószínűségi változók, ez a feltevés a gyakorlatban nem mindig állja meg a helyét. Ezzel szemben az online tanulás területének eredményei kiterjednek időben dinamikusan változó jutalomfüggvények esetére is: A kiindulási feltevés, hogy a jutalomfüggvények (r t ) T, r t : A [0,1] sorozatát egy külső mechanizmus (a környezet) választja a döntéseinktől függetlenül. A jutalmakat generáló környezetről semmilyen statisztikai feltevést nem teszünk, így a jutalmak (r t ) T sorozatát előre rögzített de ismeretlen sorozatként is kezelhetjük. A statisztikai feltevések elvetése után természetesen le kell tennünk a T r t (a t ) összeg aszimptotikus maximalizálásáról, be kell érnünk egy kevésbé nagyratörő célkitűzéssel. Az online tanulás algoritmusainak célja, hogy megközelítőleg annyi jutalmat gyűjtsenek össze, mint amennyi a legjobb fix akció választásával elérhető. A tanulási folyamat során elveszített jutalmak összegét regretnek (kb. megbánás ) nevezzük, és formálisan a következő képlettel definiáljuk: L T = max a A T T r t (a) r t (a t ). Fontos megjegyezni, hogy a fenti kifejezésben szereplő maximum csak a teljes jutalomsorozat ismeretében, azaz csak a döntési folyamat utolsó lépése után számítható ki. Bár a regret minimalizálása intuitíven nagyon nehéz feladatnak tűnik, mára jól ismertek optimális megoldások abban az esetben is, amikor a tanuló minden lépése után csak a saját r t (a t ) jutalmáról értesül (a teljes r t jutalomfüggvény helyett). A probléma ezen változata bandita-probléma néven ismert. Az utóbbi években számos algoritmus született az online tanulási probléma különféle változatainak a megoldására, például speciálisan strukturált A döntéshalmazok vagy a döntéshozó részére hiányosan eljuttatott visszajelzések esetére. Az online tanulás modelljének azonban van egy komoly hiányossága: nem ad megnyugtató választ arra a kérdésre, hogy milyen garanciák adhatók olyan esetekben, amelyekben a környezet reagálhat a döntéshozó döntéseire azaz a formalizmus nem engedi, hogy az r t jutalomfüggvény függjön a megelőző a 1,...,a t 1 sorozattól. A disszertációban bemutatott modell lehetőséget nyújt az ilyen esetek megfelelő kezelésére. 2

Megerősítéses tanulás: A megerősítéses tanulás alapproblémájának minden t = 1, 2,..., T lépésében a döntéshozó (vagy ágens) megfigyeli a környezet x t állapotát, kiválaszt egy a t akciót a véges A akciótérből, majd ennek következtében r (x t, a t ) jutalomban részesül. Ezt követően a környezet következő időpontbeli x t+1 állapota a P( x t, a t ) eloszlás szerint módosul. Feltesszük, hogy az állapotok a véges X állapottér elemei, a r : X A [0,1] jutalomfüggvény és a P : X X A [0, 1] átmeneti függvény rögzített, ám ismeretlen függvények. Az ágens célja a jutalmak T r (x t, a t ) összegének maximalizálása az (X,A,P,r ) négyes által leírt Markov döntési folyamatban (Markov decision process, MDP). A megoldásokat gyakran szokás a stacionárius politikák (röviden: politika, policy) körében keresni: egy π : X A politika olyan viselkedést ír le, amely az x X állapotban a π(x) A akciót választja. Egy π politika értékét az általa T lépés alatt összegyűjtött jutalmak összegének várható értéke adja meg: [ T R π T = E r (x t,π(x t ], )) ahol x t+1 P( x t,π(x t )). Az ágens várható összjutalmát a következőképp jelöljük: [ ] T R T = E r (x t, a t ), A fenti jelölések felhasználásával bevezethetjük a regret fogalmát: L T = max π Rπ T R T. A regret a tanulási folyamat során elveszett jutalmakat, azaz azt az árat adja meg, amit az ágens azért fizet, mert nem ismeri a jutalom- és átmeneti függvényeket a tanulási folyamat elején. Így ez a mennyiség jó mérőszáma a tanulóalgoritmusunk teljesítményének. Az MDP formalizmus fő korlátja, hogy nem képes modellezni az r és a P függvények esetleges időbeli változásait, azaz csak időben változatlan struktúrájú döntési folyamatokat képes leírni. A disszertációban olyan modellt mutatunk be, amely képes ezen hiányosság kiküszöbölésére, valamint olyan algoritmusokat dolgozunk ki, melyek a megerősítéses tanulás irodalmában szokásos sztochasztikus feltevéseknél gyengébb feltételek mellett képesek garantáltan jól teljesíteni. Ebben a disszertációban olyan komplex megerősítéses tanulási feladatokat vizsgálunk, amelyekben nem feltétlenül teljesül, hogy az állapotok időbeli fejlődése leírható Markov-modellel. A bevezetett formalizmus a megerősítéses tanulás és az online tanulás fogalmain alapszik: a fent említett komplex feladatokat olyan Markov döntési feladatokként kezeljük, amelyekben a jutalomfüggvény az idő előrehaladtával változhat. Célunk olyan tanulóalgoritmusok konstruálása, amelyek jó teljesítménye elméletileg garantálható. Algoritmusaink teljesítményét az online tanulás irodalmából ismert ún. worst-case regret segítségével mérjük. A fent vázolt formalizmus 3

/01*2' a t ; <='!"#$%&'()*"+,-.' ; <=' ; <=' r t 314"#5'67*-8%*' x t ; <=' y t 9*-%*2#%::15' ()*"+,-.' ; <=' 1. ábra. A döntéshozó és a környezet interakciója. A t-edik időpontban a t az ágens akciója, x t a markovi környezet állapota, y t az autonóm környezet állapota; q 1 az időbeli egylépéses eltolás operátora. számos olyan gyakorlati probléma modellezésére alkalmas, amelyben a környezet nehezen modellezhető, komplex része csak a döntéshozó által kapott jutalmakat befolyásolja. Az összefoglaló hátralevő szakaszaiban bemutatjuk a modellünk különféle változatait és rámutatunk, ezek a változatok hogyan kapcsolódnak a fent vázolt tanulási paradigmákhoz. A 3. szakaszban megfogalmazzuk a disszertáció fő téziseit. A 4. szakaszban bemutatjuk az irodalomban fellelhető legfontosabb egyéb kapcsolódó eredményeket. Végül az 5. szakaszban röviden bemutatunk néhány gyakorlati problémát, amelyekben a formalizmusunk alkalmazható. 2. A tanulási modell A döntéshozó és a környezet interakcióját az 1. ábra szemlélteti. A környezet két különálló részre bontható: egy markovi tulajdonságú és egy autonóm részre, amelyről semmilyen statisztikai feltételezést nem teszünk. Az ágens minden diszkrét t időpontban megfigyeli a markovi környezet x t állapotát, valamint a feladat jellegétől függően információt kaphat az autonóm környezet előző y t 1 állapotáról. A döntéshozó ezen megfigyelések alapján dönt a következő a t akciójáról, amit elküld a környezetnek. A környezet ezután átlép a következő állapotába: a markovi környezet x t+1 állapotát a P( x t, a t ) eloszlás, az autonóm környezet y t+1 állapotát pedig egy tetszőleges, ám az akcióktól és a markovi környezet állapotaitól független folyamat generálja. Az állapotátmenet után az ágens a környezet teljes állapotától és a saját választott akciójától függő 4

nagyságú r (x t, y t, a t ) jutalmat kap. Az ágens célja a kapott jutalmak összegének maximalizálása. Gyakorlati feladatok modellezésekor a környezet akciók által kauzálisan befolyásolt részét Markov-modellel közelítjük, a fennmaradó részből áll össze az autonóm dinamika, melyre nem alkotunk explicit modellt. Számos operációkutatási és irányításelméleti probléma rendelkezik a fent vázolt struktúrával. Példaként tekinthetünk olyan gyártási és erőforrás-allokációs problémákat, amelyekben a fő nehézséget az költségek modellezése jelenti, különféle számítástudományi problémákat (kszerver probléma, virtuálismemória-kezelési feladatok), valamint összetett weboptimalizálási problémákat (hirdetésallokáció késedelmes visszajelzéssel). Konkrét példákért ld. a 5. szakaszt. A továbbiakban a markovi környezet x t állapotára egyszerűen az állapotként hivatkozunk, a jutalmak y t -től való függését pedig a t időtől való függésként kezeljük, bevezetve az r t (, ) = r (, y t,cdot) jelölést. A döntéshozó célja tehát az [ ] T R T = E r t (x t, a t ) P, várható összjutalom maximalizálása, ahol az E[ P] jelöléssel hangsúlyoztuk, hogy az (x t ) T állapotsorozatot a P átmeneti függvény generálta. A π : X A formában megadott kontrollereket stacionárius, determinisztikus politikáknak nevezzük, ahol X a Markov-modell állapottere és A az akciótér. Egy tetszőleges π politika teljesítményét a R π T = E [ T r t (x t,π(x t )) P,π ], várható összjutalommal mérjük, ahol a (x t )T állapotsorozatot a π politika futtatása generálta a P átmeneti függvénnyel leírt MDP-ben. A tanulóalgoritmus célja, hogy közel annyi jutalmat gyűjtsön össze, mint ha a legjobb (a teljes jutalomsorozat ismeretében) rögzített stacionárius politikát követte volna a tanulási folyamat elejétől kezdve. Formálisan tehát a cél az alább definiált teljes várható regret minimalizálása: L T = max π Rπ T R T. (1) Mivel feltesszük, hogy a döntéshozó képtelen az autonóm környezet viselkedésének modellezésére, olyan felső korlátokat kell adnunk a regretre, amelyek minden (y t ) (illetve (r t )) sorozatra érvényesek. Ennek megfelelően az alacsony regret garantálása robusztus irányítási garanciát jelent. Ezen megközelítés potenciális előnye, hogy a kapott eredmények általánosabban alkalmazhatók és algoritmusaink robusztusabbak lesznek, mint a tradicionálisabb, klasszikus statisztikán alapuló módszerek alkalmazása esetén. Megjegyezzük, hogy bár a robusztus irányítási garanciák gyakran túl konzervatívak a gyakorlati alkalmazhatósághoz, a felügyelt tanulás esetére vonatkozó eredmények alapján [11, 27, 36] az online tanulási technikák el tudják kerülni a túlzott pesszimizmus csapdáját az erős worst-case garanciák megőrzése mellett. 5

3. Új eredmények Az előzőekben leírt problémát számos különféle, a Markov-modell struktúráját és a döntéshozónak juttatott visszajelzéseket illető feltevés mellett vizsgáltuk. Az új eredményeink bemutatása előtt az alábbi listában informálisan ismertetjük a feltevéseinket. 1. Körmentes epizodikus környezeteknek nevezzük az olyan epizodikus markovi környezeteket, amelyekben az átmenetek csak előre lehetségesek. Az epizodikus MDP-k olyan tanulási feladatok modellezésére alkalmasak, amelyben az ágensnek hasonló, de komplex, több állapotátmenetből álló feladatok sorozatát kell újra és újra megoldania. Az ágens minden epizódban a rögzített x 0 kezdőállapotból indul, az epizód végét az x L végállapot elérése jelenti. Feltesszük, hogy az X állapottér minden további állapota epizódonként legfeljebb egyszer elérhető, azaz az átmeneti struktúra nem tartalmazhat köröket. Az r t : X A [0,1] jutalomfüggvény a t = 1,2,...,T epizódon belül változatlan, azonban epizódonként tetszőlegesen változhat. A döntéshozó a t-edik epizód minden l = 0,1,...,L 1 lépésében megfigyeli a markovi környezet x (t) állapotát, és döntést hoz az a (t) akcióról. A l l döntéshozó várható összjutalma T epizód után a π politika összjutalma pedig R T = E [ T L 1 l=0 R π T = E [ T L 1 l=0 r t (x (t) l ], a (t) ) l P, r t (x l, a l ) P,π ahol a E[ P,π] jelöléssel hangsúlyoztuk, hogy az (x l, a l )L 1 trajektóriát a P átmeneti modell és a π politika generálta. A legkisebb állapotlátogatási l=0 valószínűség α = min x X min π A X P[ l : x l = x P,π ]. (a) Teljes visszajelzés ismert átmeneti függvénnyel: Feltesszük, hogy a P átmeneti függvény teljesen ismert az első epizód kezdete előtt, és hogy a döntéshozó minden t epizód végén teljes egészében megismeri az r t jutalomfüggvényt. (b) Bandita-visszajelzés ismert átmeneti függvénnyel: Feltesszük, hogy a P átmeneti függvény teljesen ismert az első epizód kezdete előtt, de a döntéshozó csak a saját trajektóriája mentén ismeri meg a jutalmakat. Más szóval az ágensnek adott visszajelzés a t-edik epizód után ( x (t) l, a (t),r t (x (t), a (t) ) l l l ], ) L 1. l=0 (c) Teljes visszajelzés ismeretlen átmeneti függvénnyel: Feltesszük, hogy a P átmeneti függvény ismeretlen az első epizód kezdete előtt, de a döntéshozó minden t epizód 6

végén teljes egészében megismeri az r t jutalomfüggvényt. Az állapottér rétegszerkezetéről és az akciótérről szintén feltesszük, hogy ismertek. Az ágens tehát minden t epizód végén a megfigyeli a következő visszajelzést: ( ( x (t) l, a (t) l ) L 1 l=0,r t 2. Unichain környezetnek nevezzük az olyan folytatódó (nem-epizodikus) markovi környezeteket, amelyekben minden politika indukál egy stacionárius eloszlást. A döntéshozó minden t = 1,2,...,T időpontban megfigyeli az x t állapotot és kiválasztja az a t akciót, az r t : X A [0,1] jutalomfüggvény minden lépés után korlátozás nélkül változhat. Tetszőleges π : X A politikához definiáljuk a P π átmeneti mátrixot, melynek elemei ). P π (x y) = P(x y,π(y)) ( x, y X). Feltesszük, hogy minden π politikához tartozik pontosan egy µ π eloszlás az állapottér felett, amelyre minden x X esetén teljesül, hogy µ π (x) = y Xµ π (y)p π (x y). A µ π eloszlást a π politikához tartozó stacionárius eloszlásnak nevezzük. A legkisebb stacionárius látogatási valószínűség α = min x X min π A X µπ (x). Feltesszük, hogy minden π politikához tartozik egy véges τ π keverési idő, amely jellemzi a stacionárius eloszlás megközelítésének a sebességét, valamint hogy a döntéshozó ismer egy τ sup π τ π felső korlátot a leglassabban keverő politika keverési idejére. A döntéshozó várható összjutalma T lépés után [ ] T R T = E r t (x t, a t ) P, a π politika összjutalma pedig R π T = E [ T r t (x t, a t ) P,π ], ahol az (x t, a t ) trajektóriát a P átmeneti modell és a π politika generálta. (a) Teljes visszajelzés ismert átmeneti függvénnyel: Feltesszük, hogy a P átmeneti függvény teljesen ismert az első lépés előtt, és hogy a döntéshozó minden t lépés után teljes egészében megismeri az r t jutalomfüggvényt. 7

(b) Bandita-visszajelzés ismert átmeneti függvénnyel: Feltesszük, hogy a P átmeneti függvény teljesen ismert az első lépés előtt, de a döntéshozó csak a saját állapotakció párjában ismeri meg a jutalmat. Más szóval, a döntéshozónak adott visszajelzés a t-edik lépés után (r t (x t, a t ), x t+1 ). 3. Online tanulás váltási költségekkel: Ez a probléma az általános online tanulási probléma egy speciális változata, amelyben a döntéshozó csak valamilyen K > 0 költség ellenében változtathat akciót lépések között. Ezt a problémát tekinthetjük az általános modellünk speciális esetének is, mivel könnyen felépíthetünk egy online MDP-t, amellyel modellezhető az összes olyan online tanulási probléma, amelyben drága az akciók közötti váltás. Az (X,A,P,(r t ) T ) online MDP a következőképp specifikálható: A környezet x t+1 állapota megegyezik a döntéshozó előző a t akciójával. Másképpen, X = A és a P átmeneti függvényre teljesül, hogy minden x, y, z A hármasra P(y x, y) = 1, valamint P(z x, y) = 0 amennyiben z y. A r t : X A [0,1] jutalomfüggvényt az eredeti g t : A [0,1] jutalomfüggvény és a K váltási költség segítségével a r t (x, a) = g t (a) K I {a x} képlettel definiáljuk az összes (x, a) A 2 párra. A probléma két változatát vizsgáljuk. (a) Online predikció szakértőkkel: Feltesszük, hogy az A akciótér aránylag kicsi és a környezet szabadon rendelhet jutalmakat mindegyik akcióhoz. Ilyen esetekben az akciókra gyakran hivatkozunk szakértőkként (experts). (b) Online kombinatorikus optimalizálás: Feltesszük, hogy minden akció reprezentálható egy d-dimenziós bináris vektorral, és a környezet a fenti d komponenshez rendelhet jutalmakat. Formálisan, a döntéshozó akciótere A {0,1} d, a környezet pedig minden t időpontban kiválasztja a jutalmak g t R d vektorát. Az a A akcióért járó jutalmat a g t (a) = a g t belső szorzat adja meg. 4. Az online veszteséges forráskódolás problémája a 3. pontban vázolt problémaosztály egy példánya, amelyben a döntéshozó feladata a z 1, z 2,..., z T forrásszimbólumok sorozatának kódolt továbbítása egy zajmentes csatornán, majd a továbbítottak alapján a ẑ 1, ẑ 2,..., ẑ T reprodukciós szimbólumok sorozatának előállítása. A (z) T forrásszimbólumokhoz (y)t csatornaszimbólumokat rendelő f kódoló és a (y) T csatornaszimbólumokhoz (ẑ)t rekonstrukciós szimbólumokat rendelő g dekódoló rendezett ( f, g ) párját kódolási sémának nevezzük. Feltesszük, hogy a döntéshozónak rendelkezésére áll kódolási sémák egy rögzített F halmaza. A döntéshozó célja, hogy minden t = 1,2,...,T időpontban úgy válassza meg a (f t, g t ) F kódolási sémáját, hogy az eredményként előálló (ẑ) T sorozat és a forrássorozat közötti kumulált torzítás a lehető legkisebb legyen: D T = T d t (z t, ẑ t ) min, 8

ahol d egy adott torzítási metrika. A forrásszimbólumok sorozatáról semmilyen statisztikai feltevést nem teszünk. Egy fix (f, g ) F kódolási séma össztorzítását D T (f, g )-vel jelölve, a tanulóalgoritmus célja felírható a R T = 1 ( E [ ) ] D T min T D T (f, g ), (f,g ) F várható normalizált torzítás-redundancia minimalizálásaként, amely egyenértékű a teljes várható regret minimalizálásával egy olyan online tanulási problémában, amelyben a jutalmakat a negatív torzítások adják. A szokásos tanulási problémán felül a dinamikus kódolási sémánknak biztosítania kell, hogy a vevő a megfelelő g t dekódert alkalmazza a t- edik csatornaszimbólum dekódolására. Feltesszük, hogy a g t dekóder identitásának közlése kizárólag a kódolt forrásszimbólumok továbbítására használt csatornán lehetséges. Ezen körülmény miatt költségessé válik a kódolási sémák közötti váltás, így a redundancia minimalizálásához a 3. pontban leírt problémát kell megoldanunk. A disszertációban bemutatott, az egyes fent vázolt problémákra vonatkozó új eredményeket az alábbiakban foglaljuk össze. 1. Tézis. Hatékony algoritmusokat dolgoztam ki az online tanulási probléma megoldására ismert körmentes epizodikus környezetek esetén. Teljesítménygaranciákat bizonyítottam az 1a. és 1b. pontokban leírt tanulási problémákra. A bebizonyított korlátok függése az epizódok számától optimális. [C2, S1] A körmentes epizodikus környezetekhez kidolgozott algoritmusaink azon a megfigyelésen alapulnak, hogy a regret minimalizálásának globális feladata felbontható több egyszerű párhuzamos döntési feladatra. A döntéshozó feladata így a regret minimalizálása ezekben a részfeladatokban a (π t ) T politikasorozat megválasztásával. A dekompozícióhoz a q t akcióértékelő- és a v t értékelőfüggvények bevezetésével juthatunk el, mely függvények az ún. Bellman egyenletek (ld. pl. Puterman [35]) egyedi megoldásaként állnak elő: q t (x, a) = r t (x, a) + P(x x, a)v t (x ), (x, a) X A, x v t (x) = π t (a x)q t (x, a), x X \ {x L }, a (2) valamint v t (x L ) = 0. A fenti jelöléssel megmutatható, hogy a teljes várható regret könnyen korlátozható, amennyiben minden x X esetén képesek vagyunk a T E [ q t (x,π T (x)) v t (x) ] összegek korlátozására. A fenti összeg adott x esetén megfelel egy olyan online tanulási probléma regretjének, amelyben a jutalmak sorozata (q t (x, )) T. Célunk tehát az így előálló döntési feladatok megoldása minden állapotban. Erre a megfigyelésre építve számos online tanulási algoritmust dolgoztunk ki, amelyek mind különféle (állapotfogalom nélküli) online tanulási algoritmus állapotonkénti futtatásán alapulnak. Legfontosabb eredményünk a 1b. pontban vázolt 9

problémára vonatkozik, amelyben az ágens csak a saját megkapott jutalmait képes megfigyelni (szemben a teljes információs esettel, ahol képes megfigyelni a teljes jutalomfüggvényt). A fenti esetre konstruált algoritmusunk minden t = 1,2,...,T 1 epizód után kiszámítja a q t függvény egy torzítatlan ˆq t becslését, majd a politikáját exp ( η t π t+1 (a x) = (1 γ) s=1 ˆq s (x, a) ) x,a exp( η t s=1 ˆq s (x, a ) ) + γ A alakban választja minden (x, a) állapot-akció párban, ahol η > 0 és γ (0, 1) az algoritmus választható paraméterei. A következő tétel garanciát ad az algoritmus teljesítményére. 1.1. Tétel ([C2, S1]). Optimális paraméterbeállítások mellett az algoritmusunk teljes várható regretje a következőképp korlátozható: T A ln A (e 1) L T (L(L + 1)). α (3) 2. Tézis. Hatékony algoritmust dolgoztam ki az online tanulási probléma megoldására ismert unichain környezet esetén. Teljesítménygaranciákat bizonyítottam a 2a. és2b. pontokban leírt tanulási problémákra. A bebizonyított korlátok függése a lépések számától (logaritmikus tényezőktől eltekintve) optimális. [C3, J2] Az általános tanulási probléma ezen változatát illető eredményeink Even-Dar et al. [16] munkájára támaszkodnak: ők adtak meg elsőként az előző tézisben prezentálthoz hasonló dekompozíciót unichain környezet esetére. Ezen dekompozícióra alapozva kidolgoztak egy algoritmust teljes visszajelzést feltételezve (ld. 2a. pont). A π politika r t jutalomfüggvényre vonatkozó stacionárius átlagjutalmát a ρ π t = x,a µ π (x)π(a x)r t (x, a) képlettel definiálva a regret felbontható a következőképpen: ( ) ( [ ]) [ ] T T T L T = R π T T T ρ π T t + ρ π T t E ρ π t t + E ρ π t t R T, (4) ahol (π t ) T a tanulóalgoritmus által választott politikák sorozata. A fenti összeg első tagja egy konstanssal korlátozható, a harmadik tag pedig egyszerűen kezelhető, amennyiben biztosítani tudjuk, hogy a választott politikák lassan változnak az időben, azaz hogy π t ( x) π t+1 ( x) 1 = O(1/ T ). A középső tag korlátozásához a (2) egyenlettel analóg módon definiálhatjuk az akcióértékelő- és az értékelőfüggvényeket. Az előző tézishez hasonlóan bevezetve minden x állapotra a (q t (x, )) T jutalomsorozattal rendelkező online tanulási részfeladatokat, a középső tag a részproblémák regretjeinek korlátozásával kezelhető. A disszertációban kiterjesztjük Even-Dar et al. [16] eredményeit bandita-visszajelzések esetére, valamint kijavítjuk a bizonyításaik apróbb hibáit. Az előző tézisben leírtakhoz hasonlóan 10

bevezetjük az akcióértékelő függvény ˆq t torzítatlan becsléseit, amelyek segítségével a (3) képlettel számoljuk a politikáinkat. Unichain környezet esetén azonban további erőfeszítéseket kell tennünk annak érdekében, hogy a becsléseink jól reprezentálják a politikáink ρ π t t átlagjutalmait. Ennek érdekében a t időpontban kiszámolt π t+1 politikát csak N > 1 lépésnyi késéssel kezdjük el használni, azaz a t időpontban a π t N politikát követjük. Ezen trükk segítségével csökkenthető a ˆq t becsléseink varianciája is, ami nagyon fontos a politikák lassú változásának biztosításához. Algoritmusunk teljesítményére a következő garanciát bizonyítjuk be: 2.1. Tétel ([J2]). Optimális paraméterbeállítások mellett az algoritmusunk teljes várható regretje a következőképp korlátozható: L T = O τ 3/2 T A lnt ln A. α 3. Tézis. Hatékony algoritmust dolgoztam ki az online tanulási probléma megoldására ismeretlen körmentes epizodikus környezetek esetén. Teljesítménygaranciákat bizonyítottam az 1c. pontban leírt tanulási problémára. A bebizonyított korlátok függése az epizódok számától optimális. [C5] Ismeretlen P átmeneti függvény esetén nem lehetséges torzítatlan becslést adni a q t függvényekre. Amennyibe feltesszük, hogy a döntéshozó a t-edik epizód után teljes egészében megfigyeli r t függvényt, nincs szükség ilyen becslésre és az egyedüli feladat a P függvény tanulása a regret minimalizálása közben. Ezen probléma megoldásához Jaksch et al. [24] nyomán olyan P t konfidenciahalmazokat konstruálunk, amelyek nagy valószínűséggel tartalmazzák a valódi átmeneti függvényt. Kombinálva ezt az ötletet a Follow-the-Perturbed-Leader (FPL, [29]) predikciós algoritmussal, minden t időpontban minden (x, a) állapot-akció párhoz választunk egy-egy exponenciális eloszlású Z t (x, a) valószínűségi változót, majd együttesen kiválasztjuk az átmeneti függvényünket és a politikánkat a [ L 1 (π t, P t ) = argmax E R t 1 (x l, a l ) + Z t (x l, a l )) π A X, P P t l=0( ] P,π optimalizálási feladat megoldásával. A fenti képletben R t 1 = t 1 s=1 r t a korábban megfigyelt jutalomfüggvények összege és a (x l, a l ) L 1 l=0 trajektóriát a π politika és a P átmeneti függvény generálja. Más szóval, az átmeneti függvényünket optimista módon választjuk úgy, hogy a modellben maximális legyen az elérhető perturbált összjutalom, majd ebben a modellben követjük az optimális politikát. Az algoritmus teljesítményére az alábbi garanciát bizonyítjuk: 3.1. Tétel ([C5]). Optimális paraméterbeállítások mellett az algoritmusunk teljes várható regretje a következőképp korlátozható: ( L T = Õ L X A ) T. 11

4. Tézis. Hatékony algoritmust dolgoztam ki az online tanulási feladat megoldására akcióváltási költségek esetén. Teljesítménygaranciákat bizonyítottam a 3a. és 3b. pontokban leírt tanulási problémákra. A 3a. pont problémájára adott korlátok a probléma minden paraméterében optimálisak. A 3b. pont problémájára megadtuk az első hatékony algoritmust. [S3, S4] Erre a problémára javasolt algoritmusunk a Follow-the-Perturbed-Leader (FPL, ld. [22, 28, 29]) predikciós algoritmus módosított változata, amelyben a jutalmakat szimmetrikus véletlen sétákkal perturbáljuk. Az alábbiakban a 3b. pont alatt leírt problémaváltozatra (ahol A {0,1} d ) mutatjuk be az algoritmusunkat. Minden t = 1,2,...,T időpontra és i = 1,2,...,d komponensre X i,t N(0,η 2 ) független normális eloszlású valószínűségi változókat választva definiáljuk a Z t = ts=1 X s a t időpontbeli perturbációkat, ahol η > 0 az algoritmus szabadon választható paramétere. Ezen felül legyen G t = s=1 g s a t időpontig megfigyelt jutalomvektorok összege. A döntéshozó minden t = 1,2,...,T időpontban a perturbált összjutalmakat maximalizáló akciót választja: a t = argmax a A a (G t 1 + Z t ). A fentiekből világosan látszik, hogy az algoritmus hatékonyan implementálható amennyiben az A halmazon hatékonyan megoldható a statikus optimalizálás feladata. Feltéve, hogy minden a A akció vektoros reprezentációjában pontosan m darab 1-es szerepel, jól ismert technikákkal megmutatható, hogy az algoritmus regretje O(m dt lnd), megfelelve az FPL-re adott legjobb korlátoknak. Érdekesebb eredmény, hogy a d párhuzamos véletlen séta tulajdonságainak analizálásával (d-től csak logaritmikusan függő módon) korlátozható az akcióváltások várható száma: 4.1. Tétel ([S3, S4]). Optimális paraméterbeállítások mellett az algoritmusunk akcióváltásainak várható száma a következőképp korlátozható: E [ T I {at+1 a t } ] ( = O m(lnd) 5/2 ) T. 5. Tézis. Hatékony algoritmust dolgoztam ki az online veszteséges forráskódolás problémájának megoldására. Teljesítménygaranciákat bizonyítottam a 4. pontban leírt tanulási problémára. A bebizonyított korlátok a függése a továbbított szimbólumok számától (logaritmikus tényezőktől eltekintve) optimális. [C4, S2] Algoritmusunk azon a megfigyelésen alapul, hogy az online veszteséges forráskódolás problémája olyan online tanulási problémaként fogható fel, melyben az akcióváltások költségesek. 12

Ezek a költségek természetes következményei annak, hogy a kódolási séma minden megváltozásakor értesíteni kell a vevőt az új dekódoló identitásáról. Az ilyen jellegű problémák hatékonyan kezelhetők az előző tézisben bemutatott technikával, vagy a Shrinking Dartboard (SD, Geulen et al. [17]) algoritmus alkalmazásával. Ennek megfelelően kidolgozunk és analizálunk egy algoritmust, mely az SD egy módosított változatának segítségével választja ki a használandó kódolási sémákat. Megmutatjuk, hogy ez az algoritmus egyszerre garantálja, hogy a teljes várható redundancia kicsi, miközben a dekóderek lecserélésének a száma szintén alacsony. Eredményeinket a következő tétel foglalja össze: 5.1. Tétel ([C4, S2]). Optimális paraméterbeállítások mellett az algoritmusunk normalizált torzítás-redundanciája a következőképp korlátozható: ( ln(t F ) R T = O ). T 4. Kapcsolódó eredmények Mint korábban említettük, a munkánk szorosan kapcsolódik a megerősítéses tanulás területéhez. A terület legtöbb elméleti eredménye, a mi eredményeinkhez hasonlóan, véges állapotú MDP-kkel kapcsolatos. Bár létezik példa végtelen állapotú MDP-kkel kapcsolatos elméleti eredményre, ezek mind valamilyen egyéb erős feltevést tesznek az MDP szerkezetére (pl. [26, 37, 1]). Az MDP-kben való online tanulással kapcsolatos eredményeinket az 1. táblázat foglalja össze, az irodalomban fellelhető legfontosabb egyéb eredményekkel együtt. Elsőként Even-Dar et al. [15, 16] vizsgálta az online tanulási problémát nemstacionárius MDP-k esetén. Munkájukban feltették, hogy a Markov-modell unichain és a jutalomfüggvények teljesen megfigyelhetők (ld. 2a. pont). MDP-E nevű algoritmusuk online tanulási algoritmusok állapotonkénti futtatásán alapul, a regretjéről bebizonyítják, hogy Õ(τ2 T ). Mint korábban már említettük, eredményeink egy részének bebizonyítására felhasználtuk a globális döntési probléma kisebb részfeladatokra bontására vonatkozó ötletüket. Yu et al. [43] ugyanerre a tanulási problémára dolgozott ki egy FPL-alapú algoritmust. Bár a módszerük számításigénye jelentősen alacsonyabb, az elért regret távol van az optimálistól, Õ(T 3/4+ɛ ). Ugyanezen cikkben bemutattak bandita-visszajelzés esetére is egy algoritmust, melynek regretje o(t ). Yu és Mannor [41, 42] a problémánk azon változatát vizsgálják, amelyben az átmeneti valószínűségek is tetszőlegesen változhatnak a lépések között. Ez a változat jelentősen bonyolultabb az általunk vizsgált eseteknél, ennek megfelelően nem tudtak szublineáris korlátot bizonyítani a regretre (azaz tanulóalgoritmusuk nem konzisztens). Jaksch et al. [24] azt az esetet vizsgálta, amelyben a tanulási folyamat elején a P átmeneti mátrix ismeretlen, a jutalmak pedig független, azonos eloszlású valószínűségi változók. Az átmeneti függvényre tett feltevéseik a unichain feltevésnél gyengébbek: felteszik, hogy létezik egy véges D > 0 konstans, amelyre teljesül, hogy bármely állapotból bármely más állapot elérhető legfeljebb D lépésben (várható értékben). A Markov-láncok elméletében szokásos elnevezéssel 13

r t megfigyelve r t (x t, a t ) megfigyelve 1. Tézis [C2, S1] P ismert Even-Dar et al. [16] unichain környezet L ( T = O τ 2 ) T log A körmentes epizodikus környezet L T = O 2. Tézis [C3, J2] ( L 2 ) T A /α unichain környezet L T = O (τ 3/2 T A /α ) Jaksch et al. [24] i.i.d. jutalmak P ismeretlen irreducibilis környezet L ( T = Õ D X ) T A 3. Tézis [C5] körmentes epizodikus környezet L T = O ( L X A T ) Nyitott kérdés 1. táblázat. Felső korlátok a regretre a döntéshozónak eljuttatott visszajelzésekre tett különféle feltevések mellett. A saját eredményeket félkövér szedés jelzi. A jutalmakról statisztikai feltevést nem teszünk fel, amennyiben ezt külön nem jelezzük. az ilyen MDP-ket irreducibilisnek nevezzük D átmérővel. Jaksch et al. [24] célja a (1) egyenlet szerinti regret minimalizálása, UCRL-2 nevű algoritmusuk garantálja, hogy ez a mennyiség minden lehetséges D átmérőjű MDP és jutalomeloszlás esetén legfeljebb O(D X A T ). Az 1. Tézisben bemutatott eredményeink tekinthetők a determinisztikus online legrövidebb út problémákra vonatkozó eredmények sztochasztikus kiterjesztéseiként is. Ezen a területen György et al. [20] megközelítése áll legközelebb az alapelveinkhez és az algoritmusunkhoz: Auer et al. [3] bandita-algoritmusát implementálják dinamikus programozás segítségével az összes út felett, miközben az egyes élek jutalmait egyenként becslik. Bár ez a megközelítés vonzó lehet a mi problémánk esetén is, közvetlen alkalmazása problematikus: az MDP-struktúra véletlen átmenetei miatt Auer et al. [3] algoritmusa nem számítható ki a fent említett dinamikus programozási eljárással. A közelmúltban Arora et al. [2] adott algoritmust determinisztikus MDP-k esetére, változó jutalmakat és bandita-visszajelzést feltételezve. Ortner [33] eredményeire alapozva megállapítják, hogy az általuk vizsgált környezetben minden politika periodikus viselkedést indukál, így az op- 14

timális politika megtalálása ekvivalens az átmeneti gráf egy optimális körének megtalálásával. Bár az optimális kör egyértelműen értelmezett stacionárius jutalmak esetén, Arora et al. megmutatja, hogy ez tetszőleges jutalomsorozatok esetén nem teljesül, azaz a regret minimalizálása az optimális politikával szemben nem értelmezhető cél. Jobb célkitűzés tehát az olyan metapolitikákkal való versengés, amelyek képesek bármely stacionárius politikát bármely kezdőállapotból futtatni. Arora et al. algoritmusának regretje O(T 3/4 ) a fenti meta-politikák halmaza ellen. Mi vizsgáltuk elsőként az online kombinatorikus optimalizálás problémáját váltási költségek mellett. Bár Geulen et al. [17] eredményei alkalmazhatók erre a problémára, algoritmusuk csak néhány speciális akciótér esetén alkalmazható hatékonyan (példákért ld. pl. [30, 13]). A mi megközelítésünk ezzel szemben minden olyan döntéshalmaz esetén hatékonyan implementálható, amelyhez létezik hatékony statikus optimalizálási eljárás. Ennek az alacsony számításigénynek azonban némileg gyengébb teljesítmény az ára: egyszerű számításokkal megmutatható, hogy Geulen et al. algoritmusa garantálja, hogy az akcióváltások száma O( mt lnd). A tanuláselmélet egyik legérdekesebb nyitott kérdése, hogy a hasonló teljesítmény-számításigény dilemmák valóban szükségszerűek-e, vagy pedig a tanulási problémák jellegéből következően elkerülhetetlenek. Az online veszteséges forráskódolás problémáját tetszőleges forrássorozatok esetére Linder és Lugosi [31] vizsgálta elsőként, akik megmutatták, hogy létezik olyan randomizált kódolási séma, amelynek normalizált torzítása legfeljebb O(T 1/5 lnt )-vel nagyobb, mint a legjobb utólag kiválasztott skalárkvantálónak. Kódolási sémájukat Weissman és Merhav [40] fejlesztette tovább, akik azt az általánosabb esetet vizsgálták, amelyben F kódolási sémák egy véges referenciaosztálya. Bebizonyították, hogy algoritmusuk normalizált torzítás-redundanciája O(T 1/3 ln 2/3 F ). A skalárkvantálók végtelen referenciaosztályának esetére a teljesítménykorlátjuk O(T 1/3 lnt ). Bár Weissman és Merhav [40] eredményeit többen továbbfejlesztették, a mi munkánkat megelőzően senkinek nem sikerült leszorítani a korlátok T -től való függését az optimális szintre. 5. Alkalmazások Ebben a szakaszban röviden leírunk néhány gyakorlati problémát, amelyek modellezhetők a formalizmusunkkal. A bemutatott példák közös tulajdonsága, hogy a környezet állapottere egy X irányított állapottér és egy Y autonóm állapottér szorzataként írható le. A környezet irányított állapota az { X,A,P } Markov-modellel írható le, míg az autonóm környezet állapotainak (y t ) T sorozatáról semmilyen statisztikai feltevést nem tudunk tenni. Feltehető továbbá, hogy az irányított és az autonóm környezet nem léphet egymással közvetlen interakcióba, azaz a (x t ) T sztochasztikus átmeneteit nem befolyásolhatja a (y t ) T sorozat, és fordított irányú hatások sem léphetnek fel. 15

5.1. Leltárkezelés Tekintsünk egy leltárkezelési problémát, melyben a célunk a bevételek maximalizálása. Ebben az optimális irányítási feladatban az irányított rendszer állapota x t, az a t akció a rendelt eszközök mennyiségének felel meg. Az eszközeink mennyiségét szintén befolyásolja a kereslet, amelyet sztochasztikusnak tekinthetünk. Ezen felül a bevételeinkre közvetlen hatással van az eszközök vételi és eladási ára. Feltesszük, hogy a döntések meghozatalakor ezek az árak nem ismertek pontosan. Mivel az árak számos, gyakran megfigyelhetetlen y t tényezőtől függhetnek, időbeli változásuk nehezen modellezhető. Feltehető továbbá, hogy a beszerzéseink hatása az árak jövőbeli alakulására elhanyagolható. Mivel az y t tényezők nem megfigyelhetők, a probléma a 1b. és 2b. pontokban leírt modellel kezelhető. 5.2. Hibrid gépjármű motorjának irányítása A hibrid hajtások fogyasztásának optimalizálásához fontos, hogy a hajtást vezérlő logika a megfelelő időpontokban váltson a belső égésű és a villamos hajtás között (ld. pl. Balluchi et al. [5]). A megfelelő hajtás kiválasztását a vezető szándékaitól az útviszonyokig számos tényező befolyásolja: például lejtmenetben tölthetők a villamos hajtás akkumulátorai, normál útviszonyok között a belső égésű motor segítségével hatékonyabban érhetők el nagyobb sebességek. Feltesszük, hogy a motor részleges x t állapota megfigyelhető, és diszkrét időpontokban dönthetünk a hajtások közötti váltásról. A váltás sztochasztikus dinamikai modelljét ismertnek tesszük fel. A hibrid hajtás állapotának más y t részeit nem feltétlenül tudjuk megfigyelni. Feltesszük, hogy a fent említett és egyéb külső hatások csak erre az állapotváltozóra vannak hatással, és az x t állapotot nem befolyásolják. Ennek megfelelően y t -t egy autonóm folyamat állapotának tekintjük, amely befolyásolja a hatékony üzemelésért járó jutalmakat. Mivel y t nem teljesen megfigyelhető, a problémát a 1b. és2b. pontokban leírt modellekkel kezelhetjük. 5.3. Energiatárolás szélerőművekhez A magyar villamosenergia-rendszer átvételi mechanizmusának szabályozása a szélerőművek számára is előírja, hogy termelési menetrendet adjanak le 15 perces időbontásban, egy hónapra előre. Amennyiben a termelés eltér az előre jelzettől, a termelőnek az eltéréstől függő mértékű szabályozási pótdíjat kell fizetnie. Amint Hartmann és Dán [23] kifejti, a menetrend betartásának egy lehetséges módja az előre jelzett energiamennyiség feletti energia eltárolása, valamint a tárolt energia rendszerbe táplálása alacsony szélteljesítmény esetén. Ebben a feladatban feltesszük, hogy a tároló x t állapota leírható egy (esetleg ismeretlen) Markov-modellel, valamint hogy a y t szélsebesség időbeli fejlődése nem modellezhető sztochasztikus módszerekkel. Mivel a menetrendek jóval a döntési időpontok előtt elérhetőek, a hatásukat kezelhetjük a Markovmodell részeként. Ilyen módon az autonóm környezet állapota kizárólag a jutalmakat (negatív pótdíjakat) befolyásolja, tehát a probléma modellezhető nemstacionárius Markov döntési folyamatként. Mivel y t megfigyelhető, a probléma kezelhető a 1a., 2a. és 1c. pontokban leírt modellekkel. 16

5.4. Adaptív útvonaltervezés számítógéphálózatokban Tekintsük a szekvenciális routing problémáját egy számítógéphálózatban, ahol a cél T csomag eljuttatása az x 0 forráscsomópontból az x L célcsomópontba minimális késleltetéssel (ld. pl. György és Ottucsák [21]). Az egyes összeköttetéseken fellépő késleltetéseket különféle külső események, például egyes csomópontok meghibásodásai befolyásolhatják. Az y t állapot ezen külső hatások leírására szolgál. Feltesszük, hogy minden x (t) l csomópontban kiválaszthatjuk a háló- A interfészét, amely egy egyszerű randomizált algoritmus szerint továbbítja csomópontba. A fenti feltételek mellett a feladat felírható körmentes epizo- zati réteg egy a (t) l a csomagot a x (t) l+1 dikus problémaként, amely problémát a 1. pontban tárgyaltuk. Amennyiben a késleltetéseket csak az egyes csomagok által megtett út mentén tudjuk megfigyelni és az interfészek által alkalmazott algoritmus ismert, a probléma a 1b. pont szerint modellezhető. Amennyiben az összes késleltetést megismerjük az egyes csomagok elküldése után, a 1c. pont esetére kidolgozott algoritmusaink akkor is garantálhatóan jól teljesítenek, ha a hálózati réteg sztochasztikus működése ismeretlen. 5.5. Log-optimális portfólióstratégiák tranzakciós költségekkel Tekintsük a szekvenciális befektetési stratégiák konstruálásának problémáját, amelyben a befektető minden diszkrét időpontban szétosztja a tőkéjét d részvény között (ld. pl. Györfi és Walk [19]). Formálisan, a befektető feladata a a t [0,1] d portfólióvektor kiválasztása minden t időpontban, biztosítva, hogy d i=1 (a t ) i = 1. A a t vektor i -edik komponense adja meg a befektető N t tőkéjének az i részvénybe a t időpontban fektetett hányadát. A piac viselkedését a piacvektorok s 1, s 2,..., s T [0, ) d sorozata adja meg, ahol az s t vektor i -edik komponense adja meg az i -edik részvény árát a t időpontban. Hasznos az y t [0, ) d hozamvektorok definiálása, melynek komponensei (y t ) i = (s t ) i (s t 1 ) i minden t > 1 esetén. Feltesszük, hogy a befektetőnek a t időpontban eladott, illetve vásárolt részvények után c t tranzakciós költséget kell fizetnie, mely költség függ az vásárolt/eladott részvények árától. A befektető célja a N T tőkéje maximalizálása, illetve másképpen a 1 T log N T növekedési ráta (hozamszint) maximalizálása. A fenti maximalizálási feladat felírható online tanulási feladatként egy nemstacionárius Markov döntési folyamatban, amelyben az t időpontbeli állapotot az előző a t 1 portfólióvektor határozza meg, az a t akcióért járó jutalmat az x t = a t 1 állapotban pedig a ( ) Nt c t r (x t, y t, a t ) = log + log ( a t N y ) t t képlet adja meg. Mivel a c t tranzakciós költség összefüggése a a t 1, a t portfóliókkal és a N t tőkével jól ismert, és az y t hozamvektorok hatása a jutalmakra szintén közvetlenül számítható, feltehetjük, hogy a döntéshozó teljes visszajelzésben részesül. A portfóliók és árak diszkretizálása után közvetlenül alkalmazhatjuk a 2a. ponthoz kidolgozott algoritmusainkat. A probléma megközelíthetően modellezhető a 3a. pontban leírt modellel is, amennyiben feltesszük, hogy c t αn t teljesül valamilyen α (0,1) esetére: A g t (a) = log ( a y t ) jutalmakkal és a K = log(1 α) 17

váltási költséggel leírt online tanulási problémán futtatott tanulóalgoritmus regretjét kontrollálva nagyvonalú felső korlátot kaphatunk a szekvenciális befektetési stratégia regretjére. Publikációk [J1] Neu, G. and Szepesvári, Cs. (2009). Training parsers by inverse reinforcement learning. Machine Learning Journal, 77(2):303 337. [J2] Neu, G., György, A., Szepesvári, Cs., and Antos, A. (2013b). Online Markov decision processes under bandit feedback. Accepted for publication at the IEEE Transactions on Automatic Control. [C1] Neu, G. and Szepesvári, Cs. (2007). Apprenticeship learning using inverse reinforcement learning and gradient methods. In Conference on Uncertainty in Artificial Intelligence (UAI), pages 295 302. [C2] Neu, G., György, A., and Szepesvári, Cs. (2010a). The online loop-free stochastic shortestpath problem. In Proceedings of the Twenty-Third Conference on Computational Learning Theory, pages 231 243. [C3] Neu, G., György, A., Szepesvári, Cs., and Antos, A. (2010b). Online Markov decision processes under bandit feedback. In Advances in Neural Information Processing Systems 23. [C4] György, A. and Neu, G. (2011). Near-optimal rates for limited-delay universal lossy source coding. In Proceedings of the IEEE International Symposium on Information Theory (ISIT), pages 2344 2348. [C5] Neu, G., György, A., and Szepesvári, Cs. (2012). The adversarial stochastic shortest path problem with unknown transition probabilities. In Proceedings of the Fifteenth International Conference on Artificial Intelligence and Statistics, volume 22 of JMLR Workshop and Conference Proceedings, pages 805 813, La Palma, Canary Islands. [S1] Neu, G., György, A., and Szepesvári, Cs. (2013a). The online loop-free stochastic shortestpath problem. In preparation. [S2] György, A. and Neu, G. (2013). Near-optimal rates for limited-delay universal lossy source coding. Submitted to the IEEE Transactions on Information Theory. [S3] Devroye, L., Lugosi, G., and Neu, G. (2013). Prediction by random-walk perturbation. Submitted to the Twenty-Sixth Conference on Learning Theory. [S4] Devroye, L., Lugosi, G., and Neu, G. (2013). Prediction by random-walk perturbation. Submitted to the IEEE Transactions on Information Theory. 18

Hivatkozások [1] Abbasi-Yadkori, Y. and Szepesvári, Cs. (2011). Regret bounds for the adaptive control of linear quadratic systems. In Proceedings of the Twenty-Fourth Conference on Computational Learning Theory. [2] Arora, R., Dekel, O., and Tewari, A. (2012). Deterministic MDPs with adversarial rewards and bandit feedback. CoRR, abs/1210.4843. [3] Auer, P., Cesa-Bianchi, N., Freund, Y., and Schapire, R. (1995). Gambling in a rigged casino: The adversarial multi-armed bandit problem. In Proceedings of the 36th Annual Symposium on the Foundations of Computer Science, pages 322 331. IEEE press. [4] Awerbuch, B. and Kleinberg, R. D. (2004). Adaptive routing with end-to-end feedback: distributed learning and geometric approaches. In Proceedings of the 36th ACM Symposium on Theory of Computing, pages 45 53. [5] Balluchi, A., Benvenuti, L., Di Benedetto, M. D., Pinello, C., and Sangiovanni-Vincentelli, A. L. (2000). Automotive engine control and hybrid systems: challenges and opportunities. In Proceedings of the IEEE, pages 888 912. [6] Bartlett, P. L., Dani, V., Hayes, T. P., Kakade, S., Rakhlin, A., and Tewari, A. (2008). Highprobability regret bounds for bandit online linear optimization. In Servedio, R. A. and Zhang, T., editors, 21st Annual Conference on Learning Theory (COLT 2008), pages 335 342. Omnipress. [7] Bartlett, P. L. and Tewari, A. (2009). REGAL: A regularization based algorithm for reinforcement learning in weakly communicating MDPs. In Proceedings of the 25th Annual Conference on Uncertainty in Artificial Intelligence. [8] Bertsekas, D. P. and Tsitsiklis, J. N. (1996). Neuro-Dynamic Programming. Athena Scientific, Belmont, MA. [9] Brafman, R. I. and Tennenholtz, M. (2002). R-MAX - a general polynomial time algorithm for near-optimal reinforcement learning. Journal of Machine Learning Research, 3:213 231. [10] Bubeck, S. and Cesa-Bianchi, N. (2012). Regret Analysis of Stochastic and Nonstochastic Multi-armed Bandit Problems. Now Publishers Inc. [11] Cesa-Bianchi, N., Conconi, A., and Gentile, C. (2004). On the generalization ability of online learning algorithms. IEEE Transactions on Information Theory, 50:2050 2057. [12] Cesa-Bianchi, N. and Lugosi, G. (2006). Prediction, Learning, and Games. Cambridge University Press, New York, NY, USA. 19

[13] Cesa-Bianchi, N. and Lugosi, G. (2012). Combinatorial bandits. Journal of Computer and System Sciences, 78:1404 1422. [14] Dani, V., Hayes, T. P., and Kakade, S. (2008). The price of bandit information for online optimization. In Platt, J. C., Koller, D., Singer, Y., and Roweis, S. T., editors, Advances in Neural Information Processing Systems 20, pages 345 352. MIT Press. [15] Even-Dar, E., Kakade, S. M., and Mansour, Y. (2005). Experts in a Markov decision process. In Saul, L. K., Weiss, Y., and Bottou, L., editors, Advances in Neural Information Processing Systems 17, pages 401 408. [16] Even-Dar, E., Kakade, S. M., and Mansour, Y. (2009). Online Markov decision processes. Mathematics of Operations Research, 34(3):726 736. [17] Geulen, S., Voecking, B., and Winkler, M. (2010). Regret minimization for online buffering problems using the weighted majority algorithm. In Proceedings of the Twenty-Third Conference on Computational Learning Theory. [18] Györfi, L., Ottucsák, Gy., and Urbán, A. (2008). Empirical log-optimal portfolio selections: a survey. Machine Learning Summer School 2007, MLSS 2007 (invited lecture). [19] Györfi, L. and Walk, H. (2012). Empirical portfolio selection strategies with proportional transaction costs. IEEE Transactions on Information Theory, 58(10):6320 6331. [20] György, A., Linder, T., Lugosi, G., and Ottucsák, Gy. (2007). The on-line shortest path problem under partial monitoring. Journal of Machine Learning Research, 8:2369 2403. [21] György, A. and Ottucsák, Gy. (2006). Adaptive routing using expert advice. Computer Journal, 49(2):180 189. [22] Hannan, J. (1957). Approximation to Bayes risk in repeated play. Contributions to the theory of games, 3:97 139. [23] Hartmann, B. and Dán, A. (2012). Cooperation of a grid-connected wind farm and an energy storage unit demonstration of a simulation tool. IEEE Transactions on Sustainable Energy, 3(1):49 56. [24] Jaksch, T., Ortner, R., and Auer, P. (2010). Near-optimal regret bounds for reinforcement learning. J. Mach. Learn. Res., 99:1563 1600. [25] Kakade, S. (2003). On the sample complexity of reinforcement learning. PhD thesis, Gatsby Computational Neuroscience Unit, University College London. [26] Kakade, S., Kearns, M. J., and Langford, J. (2003). Exploration in metric state spaces. In ICML2003, pages 306 312. 20

[27] Kakade, S., Sridharan, K., and Tewari, A. (2009). On the complexity of linear prediction: Risk bounds, margin bounds, and regularization. In NIPS-22, pages 793 800. [28] Kalai, A. and Vempala, S. (2003). Efficient algorithms for the online decision problem. In Schölkopf, B. and Warmuth, M., editors, Proceedings of the 16th Annual Conference on Learning Theory and the 7th Kernel Workshop, COLT-Kernel 2003, pages 26 40, New York, USA. Springer. [29] Kalai, A. and Vempala, S. (2005). Efficient algorithms for online decision problems. J. Comput. Syst. Sci., 71:291 307. [30] Koolen, W., Warmuth, M., and Kivinen, J. (2010). Hedging structured concepts. In Proceedings of the 23rd Annual Conference on Learning Theory (COLT), pages 93 105. [31] Linder, T. and Lugosi, G. (2001). A zero-delay sequential scheme for lossy coding of individual sequences. IEEE Transactions on Information Theory, 47:2533 2538. [32] McMahan, H. B. and Blum, A. (2004). Online geometric optimization in the bandit setting against an adaptive adversary. In Proceedings of the Eighteenth Conference on Computational Learning Theory, pages 109 123. [33] Ortner, R. (2008). Online regret bounds for Markov decision processes with deterministic transitions. In Proceedings of the 19th International Conference on Algorithmic Learning Theory, ALT 2008. [34] Powell, W. B. (2007). Approximate Dynamic Programming: Solving the curses of dimensionality. John Wiley and Sons, New York. [35] Puterman, M. L. (1994). Markov Decision Processes: Discrete Stochastic Dynamic Programming. Wiley-Interscience. [36] Rakhlin, A., Sridharan, K., and Tewari, A. (2011). Online learning: Stochastic and constrained adversaries. In NIPS-24. [37] Strehl, A. L. and Littman, M. L. (2008). Online linear regression and its application to model-based reinforcement learning. In NIPS20, pages 1417 1424. [38] Sutton, R. and Barto, A. (1998). Reinforcement Learning: An Introduction. MIP Press. [39] Szepesvári, Cs. (2010). Algorithms for Reinforcement Learning. Synthesis Lectures on Artificial Intelligence and Machine Learning. Morgan & Claypool Publishers. [40] Weissman, T. and Merhav, N. (2002). On limited-delay lossy coding and filtering of individual sequences. IEEE Transactions on Information Theory, 48:721 733. 21