Bevezetés a lágy számítás módszereibe. Neurális hálózatok Alapok

Hasonló dokumentumok
Neurális hálózatok bemutató

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Intelligens Rendszerek Gyakorlata. Neurális hálózatok I.

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

I. LABOR -Mesterséges neuron

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.

Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás

Neurális hálózatok.... a gyakorlatban

Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok

Bevezetés a neurális számításokba Analóg processzortömbök,

TARTALOMJEGYZÉK. TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS A lágy számításról A könyv célkitűzése és felépítése...

FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE

Intelligens Rendszerek Elmélete

Intelligens orvosi műszerek VIMIA023

Modellezés és szimuláció. Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

NEURÁLIS HÁLÓZATOK 1. eloadás 1

Tanulás az idegrendszerben

Forgalmi modellezés BMEKOKUM209

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

Hibadetektáló rendszer légtechnikai berendezések számára

A hálózattervezés alapvető ismeretei

Kovács Ernő 1, Füvesi Viktor 2

KONVOLÚCIÓS NEURONHÁLÓK. A tananyag az EFOP pályázat támogatásával készült.

Fuzzy rendszerek és neurális hálózatok alkalmazása a diagnosztikában

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

A RADARJELEK DETEKTÁLÁSA NEURÁLIS HÁLÓZAT ALKALMAZÁSÁVAL

ÁRAMKÖRÖK SZIMULÁCIÓJA

5. Hét Sorrendi hálózatok

SAT probléma kielégíthetőségének vizsgálata. masszív parallel. mesterséges neurális hálózat alkalmazásával

Gyártórendszerek irányítási struktúrái

Visszacsatolt (mély) neurális hálózatok

Stratégiák tanulása az agyban

1. Az informatika alapjai (vezetője: Dr. Dömösi Pál, DSc, egyetemi tanár) Kredit

Gépi tanulás a gyakorlatban. Lineáris regresszió

Közösség detektálás gráfokban

Számítógépes döntéstámogatás. Genetikus algoritmusok

I. A DIGITÁLIS ÁRAMKÖRÖK ELMÉLETI ALAPJAI

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Párhuzamos programozási platformok

ÉRZÉKELŐK ÉS BEAVATKOZÓK I. 3. MÉRÉSFELDOLGOZÁS

Dinamikus modellek szerkezete, SDG modellek

Néhány nem hagyományos matematikai modell (Ezeket rejtett modellnek is nevezik, ritkán modell nélküli rendszerről beszélnek.)

Megerősítéses tanulás

Párhuzamos programozási platformok

Algoritmuselmélet 12. előadás

Számítógép-rendszerek fontos jellemzői (Hardver és Szoftver):

Számítógépes döntéstámogatás. Döntések fuzzy környezetben Közelítő következtetések

Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL

Hálózati réteg. WSN topológia. Útvonalválasztás.

Az emberi információfeldolgozás modellje. Az emberi információfeldolgozás modellje. Alakészlelés. Más emberek észlelése.

Mesterséges Intelligencia MI

II. LABOR Tanulás, Perceptron, Adaline

Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )

A MODELLALKOTÁS ELVEI ÉS MÓDSZEREI

Irányítástechnika 2. előadás

Soros felépítésű folytonos PID szabályozó

Konvolúciós neurális hálózatok (CNN)

Teljesen elosztott adatbányászat pletyka algoritmusokkal. Jelasity Márk Ormándi Róbert, Hegedűs István

Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet

Tisztelt Hallgatók! Jó tanulást kívánok, üdvözlettel: Kutor László

Jelek és rendszerek 1. 10/9/2011 Dr. Buchman Attila Informatikai Rendszerek és Hálózatok Tanszék

OPERÁCIÓKUTATÁS, AZ ELFELEDETT TUDOMÁNY A LOGISZTIKÁBAN (A LOGISZTIKAI CÉL ELÉRÉSÉNEK ÉRDEKÉBEN)

Az éghajlati modellek eredményeinek alkalmazhatósága hatásvizsgálatokban

Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)

NEURONHÁLÓK ÉS TANÍTÁSUK A BACKPROPAGATION ALGORITMUSSAL. A tananyag az EFOP pályázat támogatásával készült.

A MEGBÍZHATÓSÁGI ELEMZŐ MÓDSZEREK

TERMÉKTERVEZÉS NUMERIKUS MÓDSZEREI. 1. Bevezetés

Informatika Rendszerek Alapjai

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008

A könyv. meglétét. sgálat

Szekvenciális hálózatok és automaták

Összefoglalás és gyakorlás

Funkcionális konnektivitás vizsgálata fmri adatok alapján

Debreceni Egyetem Informatikai Kar. Fazekas István. Neurális hálózatok

Programozó- készülék Kezelőkozol RT óra (pl. PC) Digitális bemenetek ROM memória Digitális kimenetek RAM memória Analóg bemenet Analóg kimenet

II. rész: a rendszer felülvizsgálati stratégia kidolgozását támogató funkciói. Tóth László, Lenkeyné Biró Gyöngyvér, Kuczogi László

Gépészeti rendszertechnika (NGB_KV002_1)

BAGME11NNF Munkavédelmi mérnökasszisztens Galla Jánosné, 2011.

Számítógépvezérelt irányítás és szabályozás elmélete (Bevezetés a rendszer- és irányításelméletbe, Computer Controlled Systems) 8.

Kvantitatív módszerek

Mérnökinformatikus alapszak (BSc)

Számítsuk ki a nyelvet! Matematika, fizika és algoritmusok a nyelvben

Gépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés

Márkus Zsolt Tulajdonságok, jelleggörbék, stb BMF -

Méréselmélet MI BSc 1

Biometria az orvosi gyakorlatban. Korrelációszámítás, regresszió

Alkalmazott matematikus mesterszak MINTATANTERV

SZTE Eötvös Loránd Kollégium. 2. Móra György: Információkinyerés természetes nyelvű szövegekből

Irányításelmélet és technika II.

Mesterséges intelligencia alapú regressziós tesztelés

A Jövő Internet elméleti alapjai. Vaszil György Debreceni Egyetem, Informatikai Kar

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Az idegrendszeri memória modelljei

kodolosuli.hu: Interaktív, programozást tanító portál BALLA TAMÁS, DR. KIRÁLY SÁNDOR NETWORKSHOP 2017, SZEGED

Digitális jelfeldolgozás

Átírás:

BLSZM-09 p. 1/29 Bevezetés a lágy számítás módszereibe Neurális hálózatok Alapok Werner Ágnes Villamosmérnöki és Információs Rendszerek Tanszék e-mail: werner.agnes@virt.uni-pannon.hu

BLSZM-09 p. 2/29 Bevezetés A mesterséges neurális hálózatok kutatásának, kifejlesztésének célja az emberi információfeldolgozás mechanizmusainak megértése és felhasználása az emberi mentális folyamatok gépi modellezésében. Ezen tevékenység összetevői: A kognitív folyamatok alapvető figyelembevétele, beleértve ebbe az idegélettani kutatások és a pszichológia kapcsolatát is. Hatalmas számú erőteljes kapcsolatrendszerrel bíró párhuzamos számítási egységeket tartalmazó új formájú számítási modell. A megismerésre vonatkozó új koncepciók, melyek áthelyezik a hangsúlyt a szimbolikus feldolgozásról azon állapotokra, melyek tükrözik az ábrázolandó ismeretek és a megalkotott működési struktúrák lehetséges konfigurációi közötti egyezés minőségét. A tanulás - a folyamatos alkalmazkodás és tanulás köré épített mechanizmusok - hangsúlyozása.

BLSZM-09 p. 3/29 Bevezetés A mesterséges intelligencia, azaz a gépi döntés és ítéletalkotás egyik széleskörben alkalmazott eszköze. Felhasználói területe az önálló tájékozódású robotrepülőgépektől, a tőzsdei részvények trendjének elemzésén keresztül az orvosi diagnosztikai alkalmazásokig igen széles. A neurális hálózatok nagyobb bonyolult nemlineáris kapcsolatok leírására szolgáló struktúrák. Ezeket a struktúrákat az emberi agy idegsejtjeinek szerveződése alapján sematizálhatjuk. Az emberi agy egy statikus képe

BLSZM-09 p. 4/29 Bevezetés A mai neurális hálók még messze állnak a teljes céltól, az emberi aggyal összemérhető szintű működéstől. A jelenlegi szinten a matematikai modellek besorolhatók az iteratív numerikus algoritmusok osztályába. Megfigyelhetők azonban jelentős eltérések is: A párhuzamos feldolgozásra való alkalmasság Zajos és hibás input kezelésének képessége Nemlineáris numerikus számítási elemek alkalmazása Elméleti analízisük hiányosságai ellenére sikeresek a gyakorlati alkalmazások

BLSZM-09 p. 5/29 Bevezetés A neurális hálózat egy kísérlet, amely speciális hardver elemek, és összetett szoftver segítségével szimulálni próbálja a neuronok több rétegű, de egyszerű működési elvét. Minden egyes neuron összeköttetésben áll bizonyos számú szomszédjával. Változó összeköttetési együtthatóval vesz részt a kapcsolatban. Tanulási folyamat: a kapcsolatok erősségét változtatjuk olyan irányba, ami a teljes rendszert a helyes eredmény elérésére sarkallja.

BLSZM-09 p. 6/29 Matematikai elméletek A mesterséges neurális hálózatok kutatása, elemzése kapcsán alkalmazott matematikai elméletek Számítástudomány: a kiszámíthatóság fogalmának bevezetése. Vizsgálható a zajés hibatűrés. Komplexitáselmélet: a tanulási feladatok nehézségi fokának meghatározására Numerikus analízis: erős összefonódás Matematikai statisztika: tanulhatóság elmélete és hibabecslő módszerek Statisztikus fizika: nagyméretű rendszerek viselkedése, tárolókapacitás Analízis és valószínűségszámítás: konvergenciakészség elemzése Ljapunov módszer: hálózati algoritmusok konstruálására Sztochasztikus approximáció elmélet: sztochasztikus modellekhez Monte-Carlo módszerek: tanításhoz Heurisztikák: a szükséges hálóméret megtalálására

BLSZM-09 p. 7/29 Főbb alkalmazási területek: mintafelismerés (hang- és képfeldolgozás, alakfelismerés, jelfeldolgozás), nem lineáris rendszerek szimulációja (előrebecslés, tanácsadás), osztályozás, függvényközelítés, optimalizálás, adattömörítés (képtovábbítás), szabályozás.

BLSZM-09 p. 8/29 Példák mesterséges neurális hálók alkalmazására A Teuvo Kohonen által Finnországban kifejlesztett beszédfelismerő rendszer folyamatos finn és japán nyelvű beszéd karaktersorozatokká alakítására volt képes. Az amerikai légierő egy ANN alapú repülésszimulátort készített pilóták kiképzéséhez. Az amerikai General Devices Space Systems Division ANN-t alkalmaz az Atlas rakéták szelepeinél a nyitás és zárás vezérlésére. A Ford autógyár ANN-t alkalmaz a motor szenzorjeleinek figyelésére és a fellépő problémák beazonosítására. A New York-i Gyógyászati Központban, művégtagok mozgatásához szükséges számítások elvégzésére használtak ANN-t. A NASA neurális hálót alkalmazott robotoknál a véletlenszerűen elhelyezkedő tárgyak megfogásához szükséges mozgások vezérlésére. A General Dynamics egy vízalatti figyelőrendszerben alkalmazott ANN-t. Ez képes volt a vízi járművek beazonosítására a vízben terjedő hangjuk alapján. A pennsylvaniai egyetemen kifejlesztett katonai repülőgép-felismerő rendszer képes volt megkülönböztetni 18 hüvelykes részleteket 50 mérföld távolságról, és repülogépeket beazonosítani a teljes minta 10birtokában.

BLSZM-09 p. 9/29 Modellezés Az alkalmazott matematikának a nagy tömegű adatok, jelek feldolgozására kifejlesztett eszközének is tekinthető. Matematikai modellek az idegrendszer analógiájára. A neurális hálók sok - önmagában egyszerű - feldolgozó egység alkalmas hálózatba rendezését jelentik. Nagyfokú rugalmasság: számos jelenséghez tudunk illeszteni alkalmas hálózatot. Leegyszerűsítve: a neurális hálózat egy olyan modell, ahol minden neuron "bekapcsolt", ill. "kikapcsolt" állapotban lehet, és ahol az átkapcsolás "be" állapotba akkor történik, amikor a neuront kellő számú szomszédos neuron stimulálja.

BLSZM-09 p. 10/29 Topológia A neurális hálózat topológiája rétegekkel, a rétegekben elhelyezkedő csomópontokkal és az eltérő rétegekben lévő csomópontok közötti súlyozott kapcsolatokkal írható le.

BLSZM-09 p. 11/29 A neurális hálózatok tervezési folyamatának lépései 1. A neuronok rétegekbe szervezése. 2. A neuronok kapcsolat típusának meghatározása mind a rétegen belül, mind az egyes rétegek között. 3. Meg kell határozni azt a módszert, ahogy egy neuron fogadja az inputot, és kibocsátja az outputot. 4. Meg kell határozni a kapcsolat erősségét a hálózaton belül úgy, hogy lehetővé tegyük a hálózat számára azt, hogy megtanulja a kapcsolatok megfelelő súlyozását egy ún. öntanuló adatbázist felhasználva.

BLSZM-09 p. 12/29 Rétegek közti kapcsolat Teljesen összekapcsolt: Az első réteg összes neuronja összeköttetésben áll a következő réteg összes neuronjával. Részlegesen összekapcsolt: Az első réteg egy neuronjának nem kell feltétlenül kapcsolódnia a következő réteg összes neuronjához. Add tovább kapcsolat: Az első réteg neuronjai a kimenő adataikat továbbküldik a következő réteg számára, de semmiféle visszacsatolást a második rétegtől nem kapnak. Kétirányú kapcsolat: Ebben az esetben a második réteg visszacsatol az első réteg felé. Az Add tovább és a Kétirányú kapcsolat lehet teljesen összekapcsolt és részlegesen összekapcsolt. Hierarchikus kapcsolat: Ha egy neurális hálózat hierarchikus szerkezetű, az alsóbb réteg neuronjai csak egy következő (mélyebb) réteg neuronjaival kommunikálhatnak. Ismétlődő kapcsolat: A rétegek kétirányú kapcsolattal rendelkeznek, és egy meghatározott ideig folyamatosan küldhetik üzeneteiket a kapcsolatokon keresztül mindaddig, amíg egy meghatározott célt el nem ér a rendszer.

BLSZM-09 p. 13/29 Rétegen belüli kapcsolat Visszatérő, ismétlődő kapcsolat: A réteg neuronjai teljesen, vagy részlegesen összekapcsoltak. Miután ezek a neuronok fogadták egy másik réteg adatait (input), a saját kimenő adataikat (output) többször "megbeszélik" egymással, mielőtt azt tovább küldhetnék egy következő réteg számára. Központi/környezetet kizáró kapcsolat: A rétegben lévő neuron ösztönző (támogató) kapcsolatban áll önmagával és közvetlen szomszédjaival, és gátló kapcsolatban van az összes többi neuronnal.

BLSZM-09 p. 14/29 Hálózati jellemzők A neurális hálózatok jellemzői: Taníthatók: létezik olyan eljárás, amellyel a hálózat bemenetére adott mintákhoz tartozó kimeneti minták többszöri megadása után a hálózat valamennyi betanult mintához a kívánt legjobb kimenetet szolgáltatja. Általánosító képességgel rendelkezik: a be nem tanított esetekre is közelítően jó megoldást adnak. Hibatűrők: az előző tulajdonságokból adódóan a bemeneti hibákra kevésbé érzékenyek. Gyors a válaszidejük.

BLSZM-09 p. 15/29 Egy kis biológia emberi agyban 10 11 neuron (idegsejt) neuronok dendritjeiken keresztül kapcsolódnak más neuronokhoz sejttest meghosszabbodott nyúlványa az axon az axon a szinapszisokon keresztül kapcsolódik más neuronok dendritjeihez (néhány ezer) szinapszis küldő végén elhelyezkedő neuron: preszinaptikus fogadó végén lévő neuron: posztszinaptikus a neuronok az axonjaikon keresztül elektromos kisüléssorozatokkal kommunikálnak

BLSZM-09 p. 16/29 Egy kis biológia a jelátvitel bonyolult kémiai folyamat a folyamat során a küldő végről beérkező elektromos kisüléssorozat hatására transmitter anyagok szabadulnak fel, amelyek megnövelik vagy csökkentik a fogadó végén levő sejttest elektromos potenciálját a potenciál elér egy küszöböt a neuron akciós potenciállal válaszol egy rögzített hosszúságú elektromos kisüléssorozatot küld az axonján keresztül a vele összeköttetésben álló neuronok felé: tüzel

BLSZM-09 p. 17/29 Biológiai összevetés Az idegi működés a félvezetők kapcsolási sebességéhez képest lassú (10 2,10 3 sec). Az erőteljes párhuzamos működés miatt mégis nagy teljesítményű. A misztikus az, hogy az a nagyszámú, erőteljes kapcsolódásban lévő elem (a neuronok) melyek látszólag nagyon egyszerű gerjesztő és tiltó jeleket küldenek egymásnak, hogyan hozzák létre ezt a bonyolult emberi gondolkodást. A párhuzamos működésű neurális hálózatok Neumann-elvű soros működésű számítógépen való modellezésének alapját az adja, hogy elvileg nincs különbség egy párhuzamos és egy soros számítógép között. Tulajdonképpen mindkettő Turing-gép. Különbségek csak a számítás hatásfokában, vagy sebességében lehetnek.

BLSZM-09 p. 18/29 Az emberi agy és a számítógép összevetése Számítási egységek: 1 CPU, 10 5 kapu 10 11 neuron Tárolóegységek: 10 10 bit RAM, 10 12 bit HDD 10 11 neuron, 10 14 szinapszis Ciklusidő: 10 10 mp 10 3 mp Sávszélesség: 10 10 bit/mp 10 14 bit/mp Neuronmódosítás/mp: 10 6 10 14 (2002) Megjegyzendő, hogy a számítógép adatai másfél évente megduplázódnak, míg az agy esetében a változás nem észlehető.

BLSZM-09 p. 19/29 Mesterséges neuron több - x - bemenet súlyozott összegét számítja ki az így nyert eredő nettónak (net) nevezett értéket egy aktivációs függvényen bocsátja át a változtatható súlyokat az összeköttetések hordozzák o = f( n i=1 w 1i x i + w k 1) = f(net) első rész: az összegzéssel az n (ill. n + 1) változót egyetlen numerikus értékké alakítja a net egyedi érték a második rész, az aktivizációs függvény bemenete, célja a kimenetet "összeszorítsa" a 0 és 1 vagy 1 és 1 normalizált értékek közé a w 0 bias (rendszerint x 0 = 1 állandó bemeneti értékkel) arra szolgál, hogy nulla eredő bemenetnél a kimenet ne legyen nulla

BLSZM-09 p. 20/29 A McCulloch-Pitts neuron sematikus modellje Az f() aktivizációs függvény ún. unipoláris kemény limitáló vagy küszöbfüggvény net = és a kimenet (o=output) n w 1i x i + w k 1 i=1 o = f(net) = { o = 0, ha net < 0, o = 1, ha net > 0 Két bemenetet feltételezve ez az egyetlen neuronból álló hálózat pl. szét tudja választani az ÉS és a VAGY logikai függvények nulláit és egyeseit.

BLSZM-09 p. 21/29 Neurális hálózatok működése A neurális hálók eltérő működéséért elsősorban az eltérő topológia a felelős. Az előrecsatolt hálók működése nem időfüggő: a jelek áthaladnak a hálón a bemeneti réteg irányából a kimeneti réteg felé. A hálóban több rejtett réteg is lehet. A kimenet a bemenet, a neuronok átviteli jellemzőinek és a súlymátrixnak a függvénye. A hátracsatolt, vagy visszacsatolt hálók működése eltérő: a bemenet ráhatása egy, általában konvergens folyamatot indít el, amelyben a jelek előrefelé és visszafelé is haladnak. A t. időpillanatban számított jelek megjelenhetnek a korábbi rétegek bemenetén a t + 1. időpillanatban. A konvergencia végén a jelek értéke állandósul, ekkor leolvashatjuk a kimenő rétegen a kimenet értékét. A hátracsatolt hálók néhány jellemzője: Lehetnek konvergensek egy stabil állapot felé, vagy instabilak, oszcillálóak. A konvergencia, a stabil állapot elérése hosszabb időt igényelhet. Nehezebben taníthatók és bonyolultabb matematikai apparátussal írhatók le. Rendelkezhetnek belső állapottal.

BLSZM-09 p. 22/29 Előrecsatolt hálózatok a neuronok tipikusan rétegekben vannak elrendezve egy réteg neuronjai általában egyformák a teljesen összekötött alakban az első réteg mindegyik neuronja össze van kötve mindegyik bemenettel a kimenete a következő réteg mindegyik neuronjával össze van kötve rétegen belüli összeköttetések és rétegek közötti visszacsatolások nincsenek az aktivizációs függvények differenciálhatóak szigmoid függvények: népszerűek, mert monotonok, korlátosak, nemlineárisak, egyszerű a differenciálhányadosuk Neuron modell

BLSZM-09 p. 23/29 Tanulási módszerek A tanulást úgy definiáljuk, mint a hálózat memóriájának, azaz a súlymátrixnak a változását. Kategóriái: Felügyelt tanulás (supervised learning) Felügyelet nélküli tanulás (unsupervised learning) Felügyelt tanulás: külső tanárt, ill. globális információt igényel, és olyan technikákat jelent, mint: hiba-javító tanulás (error correction) megerősítő tanulás (reinforcement learning) sztochasztikus tanulás (stochastic learning).

BLSZM-09 p. 24/29 Felügyelt tanulás Hiba-javító tanulás (error correction): az output réteg egyes neuronjainál vizsgált - az elvárt és a valós értékek különbözeteként adódó - értékek alapján a súlymátrix kapcsolatait módosítja Ismertek az adott x i bemenetekhez tartozó helyes, ún. kívánt d k kimenetek. Ismertek a valóságos o k kimenetek. Ismert a kettő különbsége, a d k o k hiba. A hibát a hálózat súlyainak módosításával - a tanítással - lehet csökkenteni.

BLSZM-09 p. 25/29 Felügyelt tanulás Megerősítő tanulás (reinforcement learning): megfelelően végrehajtott akcióknál a súlyok megerősödnek, egyébként gyöngülnek, az akció jóságát az outputvektorból képezett skalár mutatja. Sztochasztikus tanulás (stochastic learning): a súlymátrix random változtatása után meghatározza a hálózat ún. energiaértékét. Ha a változás hatására az energia csökkent, akkor a változást elfogadja, egyébként pedig csak akkor, ha a változás megfelel egy előre választott valószínűségi eloszlásnak. Ez a véletlen elfogadása a változásnak, mely időszakosan ronthatja a rendszer működését, jóságát, lehetővé teszi, hogy kikerüljön a lokális energiaminimum völgyekből, miközben az optimális állapotot keresi.

BLSZM-09 p. 26/29 Felügyelt tanulási módszerek Példák a felügyelt tanulásra: Perceptron (Minsky és Papert, 1969) Adaline Madaline (Widrow és Lehr, 1990) Back-propagation Boltzmann-gép (Ackley, 1985).

BLSZM-09 p. 27/29 Backpropagation eljárás Hiba-visszaterjesztési eljárás Az ismert kimeneti hibákból azok visszaterjesztésével meghatározza a belső réteg(ek) két oldalán jelentkező hibákat. a hibák ismeretében a súlyok módosíthatóak Eljárás ismétlése mindaddig, amíg a kimeneti hiba, a helyes célkimenet és az aktuális kimenet különbsége, egy előírt érték alatt marad. Az eljáráshoz az összetartozó bemeneti és kimeneti mintapárok megfelelő készlete szükséges.

BLSZM-09 p. 28/29 Backpropagation eljárás 1. A tanulás első szakaszában a hálózat mindegyik bemeneti mintát átvezeti a rejtett rétegen, hogy a kimeneti neuronok kimenetén az aktuális kimeneteket nyerje. Ezután a kivánt és az aktuális kimenetek eltéréséből számítja a megfelelő módon definiált kimeneti hibákat. 2. A visszaterjesztéses szakaszban a hálózat a kimeneti hibák deriváltjait visszaterjeszti a rejtett rétegbe az eredeti súlyokon át. Ezután mindegyik rejtett neuron kiszámítja a visszaterjesztett hibák súlyozott összegét, hogy megtalálja a saját indirekt hozzájárulását a kimeneti hibákhoz. Miután ilyen módon meghatározták mindegyik kimeneti és rejtett neuron saját hibaértékét, mindegyik módosítja súlyait, hogy csökkentse a hibáját, közvetve a kimeneti hibát. A súlyok módosítása úgy történik, hogy az minimalizálja a hálózat négyzetes hibáinak összegét.

BLSZM-09 p. 29/29 Backpropagation eljárás - geometriai érzékeltetés két súly esetére felrajzolható a négyzetes hiba összege a hibafelület egy "csészéhez" hasonlatos, amelynek alja jelöli a súlyok azon készletét, amelyhez a legkisebb négyzetes hiba-összeg tartozik a backpropagation módszer a csésze alját úgy keresi meg, hogy adott pontban kiszámítja a hibafelület meredekségét a pillanatnyi súlyokkal, majd a súlyokat a helyi legmeredekebb út irányában a csésze alja felé inkrementálisan változtatja