Visszacsatolt (mély) neurális hálózatok

Hasonló dokumentumok
Neurális hálózatok.... a gyakorlatban

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók 2. Pataki Béla

Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL

Intelligens Rendszerek Gyakorlata. Neurális hálózatok I.

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla

A kibontakozó új hajtóerő a mesterséges intelligencia

Konvolúciós neurális hálózatok (CNN)

Rekurráló neurális hálózatok, beszédfelismerő programok. Szoldán Péter

Deep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök

Megerősítéses tanulás

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Hibadetektáló rendszer légtechnikai berendezések számára

Kovács Ernő 1, Füvesi Viktor 2

NEURÁLIS HÁLÓZATOK 1. eloadás 1

Deep learning. bevezetés

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Neurális hálózatok bemutató

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Intelligens Rendszerek Elmélete

Statisztikai eljárások a mintafelismerésben és a gépi tanulásban

Teljesen elosztott adatbányászat alprojekt

Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Adversarial tanítás neurális hálózatokban

Az idegrendszeri memória modelljei

Bevezetés a neurális számításokba Analóg processzortömbök,

Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban

Szekvenciális hálózatok és automaták

Stratégiák tanulása az agyban

Csima Judit április 9.

Számítógépvezérelt irányítás és szabályozás elmélete (Bevezetés a rendszer- és irányításelméletbe, Computer Controlled Systems) 9.

Google Summer of Code Project

Számítógépvezérelt irányítás és szabályozás elmélete (Bevezetés a rendszer- és irányításelméletbe, Computer Controlled Systems) 8.

Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás

LTI Rendszerek Dinamikus Analízise és Szabályozásának Alapjai

Számítógéppel irányított rendszerek elmélete. Gyakorlat - Mintavételezés, DT-LTI rendszermodellek

Tanulás az idegrendszerben

AKTUÁTOR MODELLEK KIVÁLASZTÁSA ÉS OBJEKTÍV ÖSSZEHASONLÍTÁSA

Híradástechikai jelfeldolgozás

Irányításelmélet és technika II.

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.

Adatbányászati szemelvények MapReduce környezetben

Lineáris regressziós modellek 1

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

PIXEL SZINTŰ SZEGMENTÁLÁS CNN-EL

Rendszertan. Visszacsatolás és típusai, PID

Megerősítéses tanulás

A sz.ot.ag. III. Magyar Számítógépes Nyelvészeti Konferencia december 8. Bíró Tamás, ELTE, Budapest / RUG, Groningen, NL 1/ 16

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE

Véletlenszám generátorok és tesztelésük HORVÁTH BÁLINT

Fraktál alapú képtömörítés p. 1/26

Gyártórendszerek Dinamikája. Irányítástechnikai alapfogalmak

TARTALOMJEGYZÉK. TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS A lágy számításról A könyv célkitűzése és felépítése...

Intelligens orvosi műszerek VIMIA023

Kódverifikáció gépi tanulással

Kombinációs áramkörök modelezése Laborgyakorlat. Dr. Oniga István

Tartalom. 1. Állapotegyenletek megoldása 2. Állapot visszacsatolás (pólusallokáció)

2. DIGITÁLIS ÁRAMKÖRÖK TESZTJEINEK SZÁMÍTÁSA (Dr. Sziray József, 2001.)

I. LABOR -Mesterséges neuron

Correlation & Linear Regression in SPSS

Bevezetés a mesterséges intelligencia mély tanulás eszközrendszerébe

Modellkiválasztás és struktúrák tanulása

Modellezés és szimuláció. Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

AliROOT szimulációk GPU alapokon

Tisztelt Hallgatók! Jó tanulást kívánok, üdvözlettel: Kutor László

Idősor előrejelzés. Szórádi Júlia, BSc konzulens: Dr. Horváth Gábor. Önálló laboratórium (BMEVIMIA362) II. félév

Ha ismert (A,b,c T ), akkor

Csapadékmaximum-függvények változása

Számítógépvezérelt irányítás és szabályozás elmélete (Bevezetés a rendszer- és irányításelméletbe, Computer Controlled Systems) 7.

2017/01/27 08:59 1/6 Gettext Rendszer

Optikai karakterfelismerés

Mesterséges intelligencia a gépi fordításban

Irányítástechnika GÁSPÁR PÉTER. Prof. BOKOR JÓZSEF útmutatásai alapján

Alkalmazások architektúrája

Gyártórendszerek irányítási struktúrái

NEURONHÁLÓK ÉS TANÍTÁSUK A BACKPROPAGATION ALGORITMUSSAL. A tananyag az EFOP pályázat támogatásával készült.

KOOPERÁCIÓ ÉS GÉPI TANULÁS LABORATÓRIUM

Intelligens Rendszerek Elmélete

Searching in an Unsorted Database

Technológia funkciók Számláló, PWM

DIGITÁLIS TECHNIKA II

Deep learning szoftverek

Újrakonfigurálható eszközök

A Számítógépek felépítése, mőködési módjai. A Számítógépek hardverelemei

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Fogalom értelmezések I.

Miskolci Egyetem Gazdaságtudományi Kar Üzleti Információgazdálkodási és Módszertani Intézet. Hypothesis Testing. Petra Petrovics.

Véges állapotú gépek (FSM) tervezése

Osztályozóvizsga követelményei

Szoftverminőségbiztosítás

Deep Learning a gyakorlatban Python és LUA alapon Felhasználói viselkedés modellezés

Irányítástechnika 2. előadás

Kalman-féle rendszer definíció

VI. Magyar Földrajzi Konferencia

Modern szimmetrikus kulcsú rejtjelezők kriptoanalízise

Jelgenerátorok ELEKTRONIKA_2

Neurális hálózatok MATLAB programcsomagban

Osztályozás, regresszió. Nagyméretű adathalmazok kezelése Tatai Márton

Átírás:

Visszacsatolt (mély) neurális hálózatok

Visszacsatolt hálózatok kimenet rejtett rétegek bemenet Sima előrecsatolt neurális hálózat

Visszacsatolt hálózatok kimenet rejtett rétegek bemenet Pl.: kép feliratozás, képből szavak sorozata

Visszacsatolt hálózatok kimenet rejtett rétegek bemenet Pl.: dokumentum osztályozás, szavak sorozatából címke

Visszacsatolt hálózatok kimenet rejtett rétegek bemenet Pl.: gépi fordítás, Magyar szavak sorozatából, angol szavak sorozata

Visszacsatolt hálózatok kimenet rejtett rétegek bemenet Pl.: képkockánkénti video osztályozás, Képkockák sorozatából, címkék sorozata

Statikus bemenet sorrendi feldolgozása Multiple Object Recognition with Visual Attention, Ba et al.,2014 (DeepMind)

Statikus bemenet sorrendi feldolgozása DRAW: A Recurrent Neural Network For Image Generation, Gregor et al., 2015 (DeepMind)

Visszacsatolt neurális hálózat y kimenet Rejtett (és belső visszacsatolást tartalmazó) rétegek RNN x bemenet

Visszacsatolt neurális hálózat Bemeneti x vektorok sorozatát a következőképp tudjuk feldolgozni: yt RNN (ht) Ugyanazt a függvényt, ugyanazzal a W paramétervektorral alkalmazzuk, az x sorozat minden xt elemére xt ht-1

Visszacsatolt neurális hálózat - klasszikusan Bemeneti x vektorok sorozatát a következőképp tudjuk feldolgozni: yt RNN (ht) xt ht-1

Visszacsatolt neurális hálózat - példa Karakter alapú nyelvi modell (char-rnn) Lehetséges bemenetek: [h, e, l, o] Bemeneti tanító adatsor: hello Bemenet kódolása: 1-az-n-ből (one-hot) Kívánt kimenet: következő karakter

Visszacsatolt neurális hálózat - példa Karakter alapú nyelvi modell Lehetséges bemenetek: [h, e, l, o] Bemeneti tanító adatsor: hello

Visszacsatolt neurális hálózat - példa Karakter alapú nyelvi modell Lehetséges bemenetek: [h, e, l, o] Bemeneti tanító adatsor: hello

Szöveg generálása visszacsatolt neurális hálózattal Van egy modellünk, ami egy adott karaktersorozatra megjósolja a következő karakter valószínűségi eloszlását. Sorsoljunk egy karaktert ebből az eloszlásból, és használjuk fel a sorozat következő elemének. https://github.com/karpathy/char-rnn http://karpathy.github.io/2015/05/21/rnn-effectiveness/ yt yt+1 RNN (ht) RNN (ht+1) xt xt+1...

A tanítóadatoknak csak a fantázia szab határt y RNN x

Shakespeare

Wikipedia

Algebrai geometria tankönyv

Linux forráskód

A tanítás közben

Kép feliratozás Microsoft COCO [Tsung-Yi Lin et al. 2014] mscoco.org jelenleg: ~120K kép ~5 mondat mindegyikhez Explain Images with Multimodal Recurrent Neural Networks, Mao et al. Deep Visual-Semantic Alignments for Generating Image Descriptions, Karpathy and Fei-Fei Show and Tell: A Neural Image Caption Generator, Vinyals et al. Long-term Recurrent Convolutional Networks for Visual Recognition and Description, Donahue et al. Learning a Recurrent Visual Representation for Image Caption Generation, Chen and Zitnick

Kép feliratozás

Kép feliratozás X

Kép feliratozás

Kép feliratozás

Kép feliratozás

Kép feliratozás

Kép feliratozás

Kép feliratozás

Komplexitás növelése - több réteg RNN:

Exploding/vanishing gradients probléma http://i.imgur.com/vanahke.gifv RNN vs LSTM gradients on the input weight matrix Error is generated at 128th step and propagated back. No error from other steps. At the beginning of training. Weights sampled from Normal Distribution in (-0.1, 0.1).

Exploding/vanishing gradients probléma - A súlymátrixtól függően a hosszú időbeli kiterítés során a gradiens vagy exponenciálisan csökken, vagy exponenciálisan nő Növekedés esetén: gradient clipping Csökkenés esetén: nincs igazán jó egyszerű megoldás -> új módszerre van szükség: LSTM

Exploding/vanishing gradients probléma - A súlymátrixtól függően a hosszú időbeli kiterítés során a gradiens vagy exponenciálisan csökken, vagy exponenciálisan nő Növekedés esetén: gradient clipping Csökkenés esetén: nincs igazán jó egyszerű megoldás -> új módszerre van szükség: LSTM

LSTM - Long Short-Term Memory [Hochreiter, Schmidhuber:"Long short-term memory", 1997] További infó: http://colah.github.io/posts/2015-08understanding-lstms/

LSTM - Long Short-Term Memory

LSTM - Long Short-Term Memory

LSTM - Long Short-Term Memory

LSTM - Long Short-Term Memory

LSTM - Long Short-Term Memory

LSTM - Long Short-Term Memory A ResNet-hez hasonlóan, a visszaterjesztett gradienst csak additívan móosítjuk (felejtő kaput leszámítva)

GRU - Gated Recurrent Unit [Learning phrase representations using rnn encoder-decoder for statistical machine translation, Cho et al. 2014] - Hasonlóan jó, mint az LSTM Nincs külön cella állapot, csak a kimenet

ESN - Echo state network [Herbert Jaeger Echo State Network 2007] - 1. Random RNN - - 2. Harvest reservoir states - - - Szivárgó (leaky) integrátor minden mindennel összekötve Kimeneti neuronok Tanítóadatokkal szimuláljuk a hálózatot A kimeneti idősort tároljuk el 3. Compute output weights - Lineáris regresszióval - Az eltárolt kimeneti idősor és a kívánt kimenetek között (Extreme learning machine (ELM))

ESN - Echo state network [Herbert Jaeger Echo State Network 2007] Rendszeregyenletek:

ESN - Echo state network [Herbert Jaeger Echo State Network 2007] Rendszeregyenletek: Bemeneti sorozatból rendszerállapot sorozat:

ESN - Echo state network [Herbert Jaeger Echo State Network 2007] Tanítás: Wiener-Hopf vagy pszeudo-inverz vagy Ridge-regression (Tikhonov regularizáció)

Hivatkozások A prezentáció a következő helyekről vett tartalmakkal készült: CS231n: Convolutional Neural Networks for Visual Recognition, Stanford University Understanding LSTM Networks http://cs231n.stanford.edu/syllabus.html http://colah.github.io/posts/2015-08-understanding-lstms/ The Unreasonable Effectiveness of Recurrent Neural Networks http://karpathy.github.io/2015/05/21/rnn-effectiveness/