Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla

Hasonló dokumentumok
Intelligens orvosi műszerek VIMIA023

Mesterséges Intelligencia MI

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók 2. Pataki Béla

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Intelligens Rendszerek Gyakorlata. Neurális hálózatok I.

Bevezetés a neurális számításokba Analóg processzortömbök,

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

Neurális hálózatok.... a gyakorlatban

Tanulás az idegrendszerben

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL

NEURÁLIS HÁLÓZATOK 1. eloadás 1

Perceptron konvergencia tétel

Neurális hálózatok bemutató

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

I. LABOR -Mesterséges neuron

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.

Intelligens Rendszerek Elmélete

Debreceni Egyetem Informatikai Kar. Fazekas István. Neurális hálózatok

Deep learning. bevezetés

Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok

Fuzzy rendszerek és neurális hálózatok alkalmazása a diagnosztikában

Visszacsatolt (mély) neurális hálózatok

TARTALOMJEGYZÉK. TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS A lágy számításról A könyv célkitűzése és felépítése...

Modellezés és szimuláció. Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék

Hibadetektáló rendszer légtechnikai berendezések számára

II. LABOR Tanulás, Perceptron, Adaline

Bevezetés a lágy számítás módszereibe. Neurális hálózatok Alapok

FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE

Konvolúciós neurális hálózatok (CNN)

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Neurális hálózatok MATLAB programcsomagban

Szemidenit optimalizálás és az S-lemma

Megerősítéses tanulás

Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás

Deep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök

SAT probléma kielégíthetőségének vizsgálata. masszív parallel. mesterséges neurális hálózat alkalmazásával

Adatbányászati szemelvények MapReduce környezetben

Dinamikus modellek szerkezete, SDG modellek

Stratégiák tanulása az agyban

E x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes)

Google Summer of Code Project

Forgalmi modellezés BMEKOKUM209

Intelligens Rendszerek Elmélete

Mesterséges intelligencia

A RADARJELEK DETEKTÁLÁSA NEURÁLIS HÁLÓZAT ALKALMAZÁSÁVAL

NEURONHÁLÓK ÉS TANÍTÁSUK A BACKPROPAGATION ALGORITMUSSAL. A tananyag az EFOP pályázat támogatásával készült.

Mesterséges Intelligencia Elektronikus Almanach. MI Almanach projektismertetı rendezvény április 29., BME, I. ép., IB.017., 9h-12h.

Mesterséges neurális hálók

Gépi tanulás Gregorics Tibor Mesterséges intelligencia

Gépi tanulás a gyakorlatban. Lineáris regresszió

Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet

Tisztelt Hallgatók! Jó tanulást kívánok, üdvözlettel: Kutor László

A MESTERSÉGES NEURONHÁLÓZATOK BEVEZETÉSE AZ OKTATÁSBA A GAMF-ON

Nem-lineáris programozási feladatok

Osztályozási feladatok képdiagnosztikában. Orvosi képdiagnosztikai 2017 ősz

Kovács Ernő 1, Füvesi Viktor 2

A könyv. meglétét. sgálat

A neurális hálók logisztikai alkalmazhatósága

A lineáris programozás alapjai

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Nemkonvex kvadratikus egyenlőtlenségrendszerek pontos dualitással

Biológiai és mesterséges neurális hálózatok

[1000 ; 0] 7 [1000 ; 3000]

Gépi tanulás a gyakorlatban SVM

A kibontakozó új hajtóerő a mesterséges intelligencia

KONVOLÚCIÓS NEURONHÁLÓK. A tananyag az EFOP pályázat támogatásával készült.

AKTUÁTOR MODELLEK KIVÁLASZTÁSA ÉS OBJEKTÍV ÖSSZEHASONLÍTÁSA

Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban

1/1. Házi feladat. 1. Legyen p és q igaz vagy hamis matematikai kifejezés. Mutassuk meg, hogy

Az idegrendszeri memória modelljei

Néhány nem hagyományos matematikai modell (Ezeket rejtett modellnek is nevezik, ritkán modell nélküli rendszerről beszélnek.)

Gépi tanulás a Rapidminer programmal. Stubendek Attila

Mély neuronhálók az akusztikus modellezésben

Neurális hálók. Sáfár Rebeka. Eötvös Loránd Tudományegyetem Természettudományi Kar. Pr hle Tamás, Alkalmazott matematikus MSc, Sztochasztika szakirány

Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)

Algoritmusok Tervezése. Fuzzy rendszerek Dr. Bécsi Tamás

Algoritmusok Tervezése. 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2006/2007

Modellkiválasztás és struktúrák tanulása

INTERNETES ALKALMAZÁS KOORDINÁTA TRANSZFORMÁCIÓRA NEURÁLIS HÁLÓZATOK ALKALMAZÁSÁVAL. Zaletnyik Piroska

Matematika. 4. konzultáció: Kétváltozós függvények szélsőértéke. Parciális függvény, parciális derivált

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

valós számot tartalmaz, mert az ilyen részhalmazon nem azonosság.

Irányításelmélet és technika II.

Neurális hálózatok Altrichter, Márta Horváth, Gábor Pataki, Béla Strausz, György Takács, Gábor Valyon, József

Norma Determináns, inverz Kondíciószám Direkt és inverz hibák Lin. egyenletrendszerek A Gauss-módszer. Lineáris algebra numerikus módszerei

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Kalkulus 2., Matematika BSc 1. Házi feladat

Bizonytalan tudás kezelése

Név KP Blokk neve KP. Logisztika I. 6 LOG 12 Dr. Kovács Zoltán Logisztika II. 6 Logisztika Dr. Kovács Zoltán

BACK-PROPAGATION NEURON HÁLÓ LOGIKAI JÁTÉK JÁTSZÓ KÉPESSÉGÉNEK VIZSGÁLATA

A félév során előkerülő témakörök

A bemeneti feszültség 10 V és 20 V között van. 1. ábra A fuzzy tagsági függvény

BIOMATEMATIKA ELŐADÁS

Fogalom értelmezések I.

I. A DIGITÁLIS ÁRAMKÖRÖK ELMÉLETI ALAPJAI

Kézzel írt szövegek feldolgozása tanuló algoritmusokkal

Átírás:

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók Előadó: Előadás anyaga: Hullám Gábor Pataki Béla Dobrowiecki Tadeusz BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki

Neurális hálózat - neuronok Neuron doktrina: S. Ramón y Cajal (1852-1934) Mesterséges neuron: W. McCulloch and W. Pitts, 1943 Tanulás: D. Hebb, 1949 SNARC (Stochastic Neural Analog Reinforcement Calculator): M. Minsky, 1951 Perceptron: F. Rosenblatt, 1957 Neuronok becsült száma az emberi agyban: F. Azevedo et al., 2009 86.1 +/- 8.1 milliárd

Perceptron - történelem 1957 - Frank Rosenblatt: Perceptron A perceptron algoritmus első implementációja a Mark I Perceptron gép 1969: Minsky és Papert: Perceptrons c. könyve A perceptronnak súlyos korlátai vannak a képességeit tekintve Hatására kb 10 évig nem történt kutatás a témakörben (AI Winter)

Klasszikus neurális hálózatok 1980-1986 - David E. Rumelhart, Geoffrey E. Hinton and Ronald J. Williams: "Learning representations by back-propagating errors" Hibavisszaterjesztés algoritmusa Újra beindította a kutatást a témakörben 1995 - Vapnik: Support-vector networks Számos problémára sokkal jobb eredményt ad, kevésbé nehézkes a tanítása Hatásásra a neurális hálózatok kutatása (ismét) alábbhagyott

Mély neurális hálózatok 2000-es évek közepén a neurális hálózatok témakörben alig lehetett cikket elfogadtatni 2004 G. Hinton - CIFAR (Canadian Institute for Advanced Research) Új csomagolás a neurális hálózatoknak: deep learning 2006 - Hinton, Osindero, Yee-Whye Teh:A fast learning algorithm for deep belief nets Új áttörés: mély hiedelem hálók rétegenkénti tanítása, Újra beindítja a kutatást

Perceptron bemenet súlyok x 1 w 1 w 1 x 1 x 2 w 2 összegző aktivációs függvény kimenet x 3 w 3 Σ y x n w n x n+1 =1 w n+1 =b bias súlyozott összeg n1 T y sgn( w x ) sgn( w x w ) sgn( b) i i i i n1 i1 i1 n xw

A perceptron képessége n1 T y sgn( w x ) sgn( w x w ) sgn( b) i i i i n1 i1 i1 n xw T xwb0 T xwb0 lineárisan (hipersíkkal) szeparálható függvényt képes reprezentálni

Perceptron tanítása 1. hiba elvárt kimenet w( k) w( k 1) ( k) x( k) - bátorsági faktor, tanulási tényező

Perceptron tanítása 2. Tanítás konvergens, ha A tanító példák lineárisan szeparálhatók Bátorsági tényező elegendően kicsi w( k) w( k 1) ( k) x( k) Küszöb érték

Perceptron és a logikai függvények

XOR (és hasonlóan lineárisan nem szeparálhatók) problémája több réteg kellene tanulás (preceptronnál) csak 1 rétegre hiba értelmezése a kérdés

Mesterséges neuron

Mesterséges neuron aktivációs függvények Szigmoid Tanh

Mesterséges Neurális Háló (Artificial Neural Network) nemlineáris approximációt megvalósító, induktív tanulási algoritmussal tanítható matematikai struktúra.

Mesterséges neurális háló felépítés Bemeneti réteg Rejtett rétegek Kimeneti réteg 15

Mesterséges neurális háló

Mesterséges neurális háló reprezentációs képessége D. Hilbert (1900) 23 matematikai problémája/sejtése: 13. probléma: "Bizonyítsuk be, hogy az x 7 +ax 3 +bx 2 +cx+1=0 hetedfokú egyenlet nem oldható meg pusztán kétváltozós függvények segítségével! "Mutassuk meg, hogy van olyan háromváltozós folytonos függvény, mely nem írható fel véges számú kétváltozós folytonos függvény segítségével! A. Kolmogorov (1957): nem csupán minden háromváltozós függvény, hanem tetszőleges N-változós folytonos függvény felírható csupán egyváltozós függvények és az összeadás segítségével. http://mialmanach.mit.bme.hu/neuralis/ch01s04

Mesterséges neurális háló Már egy rejtett réteggel is univerzális approximátor (bármely függvényt képes reprezentálni) S.Sun, Univ.Toronto

Mesterséges neurális háló tanítása Többrétegű előrecsatolt háló tanítása (elemi alapok) Hibavisszaterjesztés gradiens módszerrel példa bemeneteket mutatunk a hálónak, ha hiba lép fel (a kimenet és a kívánt érték eltér), a súlyokat úgy módosítjuk, hogy a hiba csökkenjen. A trükk a hiba megállapítása és a hibának a hibát létrehozó súlyok közti szétosztása. W E W W

Hiba-/költség-/veszteség-függvény választás Négyzetes hiba regresszió 1 E( d, y) i ( d i y i ) 2 Keresztentrópia osztályozás E( d, y) i d i log y i 2 A cél azon súlyok megtalálása, melyek mellett minimális a hiba * arg min N w E( di, y i), ahol y = f(x,w) w i1

A tanítás nehézségei Kihívás: a neurális hálók tanítása egy nem konvex optimalizálási feladat

A tanítás lépései Kimenet számítása (forward pass) Hiba visszaterjesztése (backpropagation) Input j k 0 k kj k1 a ( x) g( w x w ) Hidden * i( ) ( j0 j ( ) ji ) j1 y x g w a x w

A tanítás lépései Kimenet számítása (forward pass) Hiba visszaterjesztése (backpropagation) Input j k 0 k kj k1 a ( x) g( w x w ) Hidden * i( ) ( j0 j ( ) ji ) j1 y x g w a x w

Backpropagation W E W W k, j k, j k, j W E W 1 2 E ( ) W i di yi ji, 2 j, i j, i

Mesterséges Neurális Háló hibavisszaterjesztés, alapok 1 1 E ( d y ) Err 2 2 2 i i i i i 1 1 E( W) ( d g( W a )) ( d g( W g( W I ))) 2 2 E W ji, 2 2 i i j j, i j i i j j, i k k, j k E W W j, i j, i a ( d y ) g '( W a ) a ( d y ) g '( in ) a j i i j j, i j j i i i j i E W W W a Err g '( in ) W j, i j, i j, i j i i Wji, ji, Err i i g '( ini ) W W a j, i j, i j i

Mesterséges Neurális Háló hibavisszaterjesztés, alapok E W ji, E W W k, j a ( d y ) g '( W a ) a ( d y ) g '( in ) a I j i i j j, i j j i i i j i k k, j k, j E W W W W I k, j k, j k j j k, j g '( in ) W j j i j, i i

Mesterséges Neurális Háló http://mialmanach.mit.bme.hu/neuralis/index

Neurális háló - tulajdonságok Aktivációs függvény A hibavisszaterjesztést alkalmazó (sekély) hálókban általában a szigmoid függvényt vagy annak valamelyik változatát használjuk. A szigmoidnak megvan az a tulajdonsága, hogy deriváltja g ' g(1 g) gx ( ) 1 1 e x

Neurális háló - tulajdonságok Kifejezőképesség Nem rendelkeznek az általános logikai reprezentációk kifejezőképességével. A többrétegű hálók osztálya egészében, mint osztály az attribútumok bármely függvényének reprezentációjára képes. Számítási hatékonyság Legrosszabb esetben a szükséges epochok száma a bemenetek számának, n-nek, még exponenciális függvénye is lehet. A hibafelület lokális minimumai problémát jelenthetnek.

Neurális háló - tulajdonságok Általánosító képesség: jó általánosításra képesek. Zajérzékenység: alapvetően nemlineáris regresszió, nagyon jól tolerálják a bemeneti adatok zajosságát. Átláthatóság: alapvetően fekete doboz. A priori ismeret felhasználása: nem könnyű (még aktívan kutatott terület)