Deep Learning Szeminárium. MTA, Rényi Alfréd Matematikai Kutatóintézet

Hasonló dokumentumok
Konvolúciós neurális hálózatok (CNN)

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla

Visszacsatolt (mély) neurális hálózatok

Deep learning. bevezetés

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók 2. Pataki Béla

Deep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.

Intelligens orvosi műszerek VIMIA023

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Gépi tanulás a gyakorlatban. Lineáris regresszió

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok

Teljesen elosztott adatbányászat alprojekt

NEURÁLIS HÁLÓZATOK 1. eloadás 1

Neurális hálózatok.... a gyakorlatban

FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE

Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL

Kovács Ernő 1, Füvesi Viktor 2

Intelligens Rendszerek Gyakorlata. Neurális hálózatok I.

Deep learning szoftverek

Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban

NEURONHÁLÓK ÉS TANÍTÁSUK A BACKPROPAGATION ALGORITMUSSAL. A tananyag az EFOP pályázat támogatásával készült.

Google Summer of Code Project

Neurális hálózatok bemutató

Neurális hálók tanítása során alkalmazott optimalizáció

Modellkiválasztás és struktúrák tanulása

Hibadetektáló rendszer légtechnikai berendezések számára

Modellezés és szimuláció. Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék

Osztályozási feladatok képdiagnosztikában. Orvosi képdiagnosztikai 2017 ősz

Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás

Gépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

A kibontakozó új hajtóerő a mesterséges intelligencia

Tanulás az idegrendszerben

Összefoglalás és gyakorlás

Aradi Bernadett. 2017/18 ősz. TensorFlow konvolúciós hálózatokhoz 2017/18 ősz 1 / 11

Deep Learning a gyakorlatban Python és LUA alapon Felhasználói viselkedés modellezés

Adversarial tanítás neurális hálózatokban

Peer-to-peer (P2P) gépi tanulás. Hegedűs István

Deep Learning: Mélyhálós Tanulás

I. LABOR -Mesterséges neuron

[1000 ; 0] 7 [1000 ; 3000]

III.6. MAP REDUCE ELVŰ ELOSZTOTT FELDOLGOZÁSI ALGORITMUSOK ÉS TESZTKÖRNYEZET KIDOLGOZÁSA ADATBÁNYÁSZATI FELADATOK VÉGREHAJTÁSÁHOZ

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Sergyán Szabolcs szeptember 21.

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

A neurális hálózatok tanításának alapjai II.: Módszerek a túltanulás elkerülésére. Szoldán Péter


Stratégiák tanulása az agyban

Társadalmi és gazdasági hálózatok modellezése

Informatikai Kar Eötvös Loránd Tudományegyetem Mesterséges neuronhálók

Funkcionális konnektivitás vizsgálata fmri adatok alapján

12. előadás. Egyenletrendszerek, mátrixok. Dr. Szörényi Miklós, Dr. Kallós Gábor

KÁRTÉKONY NÖVÉNYEK AZONOSÍTÁSA

KONVOLÚCIÓS NEURONHÁLÓK. A tananyag az EFOP pályázat támogatásával készült.

PIXEL SZINTŰ SZEGMENTÁLÁS CNN-EL

Intelligens Rendszerek Elmélete

Megerősítéses tanulás

Digitális jelfeldolgozás

Megerősítéses tanulás 2. előadás

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Új eredmények a mély neuronhálós magyar nyelvű beszédfelismerésben

Rendszámfelismerő rendszerek

1. Bevezetés A kutatás iránya, célkitűzése A dokumentum felépítése Irodalmi áttekintés...8

Miért fontos számunkra az előző gyakorlaton tárgyalt lineáris algebrai ismeretek

Tartalom. 1. Állapotegyenletek megoldása 2. Állapot visszacsatolás (pólusallokáció)

Véleménypolarizáció és választási részvétel. Kmetty Zoltán MTA- ELTE- PERIPATO

Biológiai és mesterséges neurális hálózatok

A TANTÁRGY ADATLAPJA

Adatbányászati szemelvények MapReduce környezetben

BIG DATA ÉS GÉPI TANULÁS KÖRNYEZET AZ MTA CLOUD-ON KACSUK PÉTER, NAGY ENIKŐ, PINTYE ISTVÁN, HAJNAL ÁKOS, LOVAS RÓBERT

Rendszertan. Visszacsatolás és típusai, PID

Probabilisztikus modellek II: Inferencia. Nagy Dávid

Fuzzy rendszerek és neurális hálózatok alkalmazása a diagnosztikában

Valósidejű objektumkövetés mély tanulás segítségével

Bodó / Csató / Gaskó / Sulyok / Simon október 9. Matematika és Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár

Mély neuronhálók az akusztikus modellezésben

Marketing Történelmi mérföldkövek

A TensorFlow rendszer és a mély tanulás. TensorFlow system and deep learning

Szomszédság alapú ajánló rendszerek

Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)

Mély konvolúciós neurális hálózatok. Hadházi Dániel BME IE 338

Fogyasztás, beruházás és rövid távú árupiaci egyensúly kétszektoros makromodellekben

Probabilisztikus modellek V: Struktúra tanulás. Nagy Dávid

A Barabási-Albert-féle gráfmodell

Pletykaalapú gépi tanulás teljesen elosztott környezetben

Közösségek keresése nagy gráfokban

Keleti kikötő negyed, Amszterdam

Bevezetés az informatikába

KUTATÁSI JELENTÉS. Multilaterációs radarrendszer kutatása. Szüllő Ádám

MATEMATIKAI PROBLÉMAMEGOLDÓ GYAKORLAT

Teljesítmény Mérés. Tóth Zsolt. Miskolci Egyetem. Tóth Zsolt (Miskolci Egyetem) Teljesítmény Mérés / 20

Idősor előrejelzés. Szórádi Júlia, BSc konzulens: Dr. Horváth Gábor. Önálló laboratórium (BMEVIMIA362) II. félév

A szimplex algoritmus

Termék modell. Definíció:

A MESTERSÉGES NEURONHÁLÓZATOK BEVEZETÉSE AZ OKTATÁSBA A GAMF-ON

Modern Fizika Labor. Fizika BSc. Értékelés: A mérés dátuma: A mérés száma és címe: 5. mérés: Elektronspin rezonancia március 18.

Lineáris különböz ségek

Véletlen gráfok. Backhausz Ágnes Eötvös Loránd Tudományegyetem és MTA Rényi Alfréd Matematikai Kutatóintézet december 2.

Átírás:

Deep Learning Szeminárium 5. előadás: Mély hálózatok Csiszárik Adrián MTA, Rényi Alfréd Matematikai Kutatóintézet 1

A hálózat mélysége A 2000-es évekig 1-2 rejtett rétegű, sekély hálózatokkal kísérleteztek Több réteg növeli a reprezentáció rugalmasságát Kevesebb neuron is elég lehet Hierarchikus adatreprezentációk tudnak létrejönni Gazdagabb reprezentációs struktúra, jobb általánosítás Sajnos mélyebb hálózatokat nehezebb tanítani! 2

Instabil gradiensek problémája Vanishing gradients: bemenet felé egyre kisebb gradiensek Exploding gradients: bemenet felé egyre nagyobb gradiensek A korai rétegek gradiense egy hosszú szorzat eredménye W T i σ (z i ) alakú tényezőkkel Ahhoz, hogy a különböző rétegek gradiensei hasonló nagyságrendűek legyenek, valamilyen mechanizmusnak gondosan ki kell(ene) egyensúlyoznia ezeket a tényezőket. 3

Instabil gradiensek problémája Sok trükk segíthet ennek kezelésében: Más aktivációs függvények keresése: ReLU Súlyok és eltolások gondos inicializálása Több tanító adat, augmentáció Különféle SGD variánsok átméretezhetik a gradienst Konvolúciós hálók: kevesebb paraméter, gazdagabb gradiens jel Batch Normalization: stabil eloszlás a rétegek bemenetein Reziduális hálózatok 4

Batch Normalization A rétegek bemenetének eloszlása változik a tanulás során Törékenyebb és lassabb a tanulási folyamat A rétegeknek folyamatosan adaptálódniuk kell a megváltozott adatkörnyezethez Ötlet: Normalizáljuk a retegek bemeneteit Mini batch alapján, komponensenként normalizálunk A normalizált eloszlás paraméterei tanulhatóak 5

Batch Normalization Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift Sergey Ioffe, Szegedy Krisztián (2015) https://arxiv.org/abs/1502.03167 Google Scholar szerint 4020 9122 hivatkozás 6

Reziduális hálózatok Deep Residual Learning for Image Recognition He et al. https://arxiv.org/abs/1502.03167 19236 hivatkozás Degradation problem: Egy hálózathoz új rétegeket adva egy ideig nő a pontosság, de gyorsan teĺıtődik és aztán elkezd csökkenni. Pedig a hálózat reprezentációs képessége nő! Hiszen az identitás függvényt kellene megtanulni, hogy az új réteg ne ártson. 7

Reziduális hálózatok Nem könnyű SGD-vel identitás függvényt tanulni. Lényesen egyszerűbb elérni, hogy a hálózat konstans nulla függvényt tanuljon: csupa nulla súly. Ha az optimális leképezés az identitás közelében van: könnyebb megtalálni a konstans nullához viszonyítva. 8

Reziduális hálózatok Nem jön létre új reprezentációs tér A gradiens exponenciálisan sok úton terjed A közvetlen kapcsolatokon keresztül erős gradiens tud áramlani 9

Reziduális hálózatok Residual Networks Behave Like Ensembles of Relatively Shallow Networks Andreas Veit, Michael Wilber, Serge Belongie https://arxiv.org/abs/1605.06431 Tekinthetünk egy reziduális hálóra úgy, mint sok különböző mélységű hálózat együttesére 10

Reziduális hálózatok Egy praktikus megfontolás: paraméterszám csökkentése Bottleneck reziduális blokk 11

Reziduális hálózatok Akár 1000 felett is tudnak javulást hozni új rétegek. Egy idő után nagyon kicsit növekedés nagyon sok paraméterrel A háló figyelmen kívül tudja hagyni a reziduális blokkokat, ahelyett, hogy hasznosítaná őket. A szélesség növelésével (a mélység rovására), ugyanannyi paraméterrel jobb eredményt tudunk elérni Wide Residual Networks Densenets Wide Residual Networks Sergey Zagoruyko, Nikos Komodakis https://arxiv.org/abs/1605.07146 12

Reziduális hálózatok Egyszerű implementálni https: //github.com/zsoltzombori/keras fashion mnist tutorial/ blob/master/fashion mnist resnet.py 13

Optimization An overview of gradient descent optimization algorithms Sebastian Ruder http://ruder.io/optimizing-gradient-descent/ 14

Optimization Visualizing the Loss Landscape of Neural Nets Hao Li, Zheng Xu, Gavin Taylor, Christoph Studer, Tom Goldstein NIPS 2018 https://arxiv.org/abs/1712.09913 15

Optimization Cyclical Learning Rates for Training Neural Networks Leslie N. Smith WACV 2017 https://arxiv.org/abs/1506.01186 16

Optimization On the importance of initialization and momentum in deep learning Sutskever et al. ICML 2013 http://proceedings.mlr.press/v28/sutskever13.pdf 17