Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók 2. Pataki Béla

Hasonló dokumentumok
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla

Konvolúciós neurális hálózatok (CNN)

Deep learning. bevezetés

Visszacsatolt (mély) neurális hálózatok

Intelligens orvosi műszerek VIMIA023

Gépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés

Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.

Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)

A kibontakozó új hajtóerő a mesterséges intelligencia

Modellkiválasztás és struktúrák tanulása

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Neurális hálózatok.... a gyakorlatban

Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

Intelligens Rendszerek Gyakorlata. Neurális hálózatok I.

Neurális hálózatok bemutató

Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok

biometria II. foglalkozás előadó: Prof. Dr. Rajkó Róbert Matematikai-statisztikai adatfeldolgozás

Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban

Deep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök

E x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes)

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE

Mesterséges Intelligencia MI

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Deep Learning: Mélyhálós Tanulás

Gépi tanulás. Féligellenőrzött tanulás. Pataki Béla (Bolgár Bence)

A neurális hálózatok tanításának alapjai II.: Módszerek a túltanulás elkerülésére. Szoldán Péter

Modellezés és szimuláció. Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék

Nagy méretű adathalmazok vizualizációja

Mesterséges Intelligencia Elektronikus Almanach. MI Almanach projektismertetı rendezvény április 29., BME, I. ép., IB.017., 9h-12h.

Fuzzy rendszerek és neurális hálózatok alkalmazása a diagnosztikában

Adversarial tanítás neurális hálózatokban

Mesterséges Intelligencia MI

The nontrivial extraction of implicit, previously unknown, and potentially useful information from data.

Gépi tanulás a Rapidminer programmal. Stubendek Attila

III.6. MAP REDUCE ELVŰ ELOSZTOTT FELDOLGOZÁSI ALGORITMUSOK ÉS TESZTKÖRNYEZET KIDOLGOZÁSA ADATBÁNYÁSZATI FELADATOK VÉGREHAJTÁSÁHOZ

Kísérlettervezés alapfogalmak

Statisztika I. 4. előadás Mintavétel. Kóczy Á. László KGK-VMI. Minta Mintavétel Feladatok.

CARE. Biztonságos. otthonok idős embereknek CARE. Biztonságos otthonok idős embereknek Dr. Vajda Ferenc Egyetemi docens

I. LABOR -Mesterséges neuron

Mesterséges Intelligencia MI

Hálózatok fejlődése A hatványtörvény A preferential attachment A uniform attachment Vertex copy. SZTE Informatikai Intézet

NEURÁLIS HÁLÓZATOK 1. eloadás 1

Statisztika I. 4. előadás Mintavétel. Kóczy Á. László KGK-VMI. Minta Mintavétel Feladatok.

Mesterséges Intelligencia MI

Gépi tanulás. A szükséges mintaszám korlát elemzése. Pataki Béla (Bolgár Bence)

Megerősítéses tanulás

Intelligens Rendszerek Elmélete

Bizonytalan tudás kezelése

Bevezetés a mesterséges intelligencia mély tanulás eszközrendszerébe

Google Summer of Code Project

Véletlen jelenség: okok rendszere hozza létre - nem ismerhetjük mind, ezért sztochasztikus.

Összefoglalás és gyakorlás

Deep Learning a gyakorlatban Python és LUA alapon Felhasználói viselkedés modellezés

Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet

Kétszemélyes játékok

Statisztika I. 8. előadás. Előadó: Dr. Ertsey Imre

Valószínűségi változók. Várható érték és szórás

Modell alapú tesztelés: célok és lehetőségek

BAGME11NNF Munkavédelmi mérnökasszisztens Galla Jánosné, 2011.

Hipotézis, sejtés STATISZTIKA. Kétmintás hipotézisek. Tudományos hipotézis. Munkahipotézis (H a ) Nullhipotézis (H 0 ) 11. Előadás

Biztonságkritikus rendszerek Gyakorlat: Architektúrák

A MESTERSÉGES NEURONHÁLÓZATOK BEVEZETÉSE AZ OKTATÁSBA A GAMF-ON

Stratégiák tanulása az agyban

Statisztika - bevezetés Méréselmélet PE MIK MI_BSc VI_BSc 1

Monte Carlo módszerek a statisztikus fizikában. Az Ising modell. 8. előadás

Gazdasági matematika II. vizsgadolgozat megoldása A csoport

Probabilisztikus modellek II: Inferencia. Nagy Dávid

Megerősítéses tanulás 2. előadás

Termelés- és szolgáltatásmenedzsment

Mérési hibák

[1000 ; 0] 7 [1000 ; 3000]

Statisztika I. 10. előadás. Előadó: Dr. Ertsey Imre

Hipotézis STATISZTIKA. Kétmintás hipotézisek. Munkahipotézis (H a ) Tematika. Tudományos hipotézis. 1. Előadás. Hipotézisvizsgálatok

y ij = µ + α i + e ij STATISZTIKA Sir Ronald Aylmer Fisher Példa Elmélet A variancia-analízis alkalmazásának feltételei Lineáris modell

CSAPADÉKVÍZ GAZDÁLKODÁS A TELEPÜLÉSEKEN

Újfajta, automatikus, döntési fa alapú adatbányászati módszer idősorok osztályozására







Két diszkrét változó függetlenségének vizsgálata, illeszkedésvizsgálat

NEURONHÁLÓK ÉS TANÍTÁSUK A BACKPROPAGATION ALGORITMUSSAL. A tananyag az EFOP pályázat támogatásával készült.

KÖZELÍTŐ INFERENCIA II.

Biomatematika 12. Szent István Egyetem Állatorvos-tudományi Kar. Fodor János

y ij = µ + α i + e ij

Eredmények kiértékelése

3D számítógépes geometria 2

Hibadetektáló rendszer légtechnikai berendezések számára

Mintavétel fogalmai STATISZTIKA, BIOMETRIA. Mintavételi hiba. Statisztikai adatgyűjtés. Nem véletlenen alapuló kiválasztás

Példák jellemzőkre: - minden pixelérték egy jellemző pl. neurális hálózat esetében csak kis képekre, nem invariáns sem a megvilágításra, sem a geom.

Nagy adathalmazok labor

Kiválasztás. A változó szerint. Rangok. Nem-paraméteres eljárások. Rang: Egy valamilyen szabály szerint felállított sorban elfoglalt hely.

Nagy számok törvényei Statisztikai mintavétel Várható érték becslése. Dr. Berta Miklós Fizika és Kémia Tanszék Széchenyi István Egyetem

Új eredmények a mély neuronhálós magyar nyelvű beszédfelismerésben

Teljesen elosztott adatbányászat alprojekt

Átírás:

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók 2. Előadó: Hullám Gábor Pataki Béla BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki

Mély neurális hálózatok 2000-es évek közepén a neurális hálózatok témakörben alig lehetett cikket elfogadtatni 2004 G. Hinton - CIFAR (Canadian Institute for Advanced Research) Új csomagolás a neurális hálózatoknak: deep learning 2006 - Hinton, Osindero, Yee-Whye Teh:A fast learning algorithm for deep belief nets Új áttörés: mély hiedelem hálók rétegenkénti tanítása, Újra beindítja a kutatást

Deep learning ImageNet 2009 - J. Deng, W. Dong, R. Socher, L.-J. Li, K. Li and L. Fei- Fei: ImageNet: A Large-Scale Hierarchical Image Database Adatkészlet, nagy felbontású képek, 14M kép, 10k+ kategória http://www.image-net.org/about-stats

Deep learning - ILSVRC 2012 - Alex Krizhevsky, Ilya Sutskever, Geoffrey E Hinton: Imagenet classification with deep convolutional neural networks Ez az első tisztán neurális hálózatos megoldás, ami az azévi legjobb eredményt éri el (addig SVM) Innentől kezdve lesz mainstream a deep learning

Deep reinforcement learning 2013 DeepMind: Playing Atari with Deep Reinforcement Learning 2016 DeepMind: AlphaGo legyőzi a Go világbajnok Lee Sedolt

DRL: Arcade játékok tanítása 6

Go Google DeepMind Monte Carlo tree search 2016: 9 dan 2017: wins against human champion 7

Deep learning - eredmények Felirat generálás képekhez A. Karpathy, L. Fei-Fei: Deep Visual-Semantic Alignments for Generating Image Descriptions https://research.googleblog.com/2014/11/a-picture-is-worth-thousand-coherent.html

Deep learning - eredmények Stílus tanulás https://github.com/jcjohnson/neural-style https://imgur.com/gallery/4ltaq

Deep learning - eredmények Beszédértés Xiong, W. et al. (2016). Achieving human parity in conversational speech recognition Beszédkeltés Oord, Aaron van den, et al. "Wavenet: A generative model for raw audio." arxiv preprint arxiv:1609.03499 (2016). Képek osztályozása C. Szegedy et al. (2014): GoogLeNet Going Deeper with Convolutions

Neurális hálók típusai https://towardsdatascience.com/the-mostly-complete-chart-of-neural-networks-explained-3fb6f2367464 11

Neurális hálók típusai 2. https://towardsdatascience.com/the-mostly-complete-chart-of-neural-networks-explained-3fb6f2367464 12

A mesterséges neurális háló kérdései Mekkora (hány réteg, rétegenként hány processzáló elem) hálózatot válasszunk? Hogyan válasszuk meg a tanulási tényező, α értékét? Milyen kezdeti súlyértékeket állítsunk be? Hogyan válasszuk meg a tanító és a tesztelő minta készletet? Hogyan használjuk fel a tanító pontokat, milyen gyakorisággal módosítsuk a hálózat súlyait? http://mialmanach.mit.bme.hu/neuralis/index

Kérdések 1. Mekkora hálózatot válasszunk?(hány réteg, rétegenként hány processzáló elem) Nincs egzakt számítás ennek meghatározásához. 1.) Kiindulás egy nagyobb hálózatból, majd a hálózatban megmutatkozó redundancia csökkentése minimális értékre. - pruning technikák (http://mialmanach.mit.bme.hu/neuralis/ch04s03) - regularizáció 2.) Kiindulás egy kisebb méretű hálózatból, majd fokozatos bővítéssel (processzáló elemekkel, ill. rétegekkel ) vizsgáljuk meg tudja-e oldani a feladatot. A két megközelítés nem feltétlenül vezet azonos eredményre!

Kérdések 1. 2.) Kiindulás egy kisebb méretű hálózatból, majd fokozatos bővítéssel (processzáló elemekkel, ill. rétegekkel ) vizsgáljuk meg tudja-e oldani a feladatot. http://mialmanach.mit.bme.hu/neuralis/ch04s03

Kérdések 2. Hogyan válasszuk meg a tanulási tényező értékét? https://www.jeremyjordan.me/nn-learning-rate

Kérdések 2. nincs egyértelmű módszer α (=μ) meghatározására változó, lépésfüggő α alkalmazása kezdeti nagy értékből kiindulva m lépésenként csökkentjük α -t. adaptív α alkalmazása α változtatását attól tesszük függővé, hogy a súlymódosítások csökkentik-e a kritériumfüggvény értékét

Kérdések 3. Milyen kezdeti súlyértékeket állítsunk be? Nincs egyértelmű módszer A priori ismeret hiányában a véletlenszerű súlybeállítás a leginkább megfelelő az egyes súlyokat egy egyenletes eloszlású valószínűségi változó különböző értékeire választhatjuk Szigmoid aktiváció függvénynél kerüljük el, hogy már a tanítás elején telítéses szakaszra kerüljön a rejtett rétegek kimenete Minél nagyobb a hálózat, annál kisebb véletlen értékek választása célszerű

Kérdések 4. Hogyan válasszuk meg a tanító és a tesztelő minta készletet? Általánosan: Tanító minta : felhasználjuk a tanításhoz Tesztelő minta: nem használjuk a tanításhoz csak a minősítéshez

Kérdések 4. Hogyan válasszuk meg a tanító, kiértékelő és tesztelő minta készletet? Neurális hálóknál: Tanító minta : felhasználjuk a tanításhoz Kiértékelő (validációs) minta: nem használjuk súlymódosításhoz, de ahhoz igen, hogy mikor álljon le a tanítás Tesztelő (minősítő) minta: nem használjuk a tanításhoz csak a minősítéshez http://mialmanach.mit.bme.hu/neuralis/ch04s03

Kérdések 4. Hogyan válasszuk meg a tanító, kiértékelő és tesztelő minta készletet? Nagy számú mintánál nem jelent problémát akár három egyenlő részre osztani az adathalmazt A legtöbb valós probléma esetén azonban sosem elég a minta Léteznek elméleti és gyakorlati korlátok a szükséges tanítópontok számára a háló mérete és teszt készleten elvárt hiba alapján Kereszt-kiértékelési (cross validation) eljárások alkalmazása http://mialmanach.mit.bme.hu/neuralis/ch04s03

Kérdések 5. Hogyan védekezzünk a túltanulással szemben? Akkor lép fel (overfitting), ha a tanító készlet mintáira már nagyon kis hibájú válaszokat kapunk, miközben a kiértékelő készletre egyre nagyobb hibával válaszol a hálózat. http://mialmanach.mit.bme.hu/neuralis/ch04s03

Kérdések 5. Hogyan védekezzünk a túltanulással szemben? A hálózat válaszai túlzottan illeszkednek a véges számú tanító pont által megadott leképezéshez Ok: a hálózat mérete (szabadságfoka) a tanító pontok számához viszonyítva túl nagy Miért kell védekezni ellene? Túltanulással romlik az általánosító képesség.

Kérdések 5. Meddig tanítsuk a hálózatot? http://mialmanach.mit.bme.hu/neuralis/ch04s03

Kérdések 6. Hogyan használjuk fel a tanító pontokat, milyen gyakorisággal módosítsuk a hálózat súlyait? Pontonként Súlymódosítás tanítópontonként Kötegelt (batch) eljárás szerint Súlymódosítás k db tanítópontonként vagy Csak a teljes tanító készlet (epoch) felhasználása után