Intelligens orvosi műszerek VIMIA023

Hasonló dokumentumok
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla

Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)

Mesterséges Intelligencia MI

Neurális hálózatok.... a gyakorlatban

Intelligens Rendszerek Gyakorlata. Neurális hálózatok I.

Gépi tanulás. Féligellenőrzött tanulás. Pataki Béla (Bolgár Bence)

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók 2. Pataki Béla

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Bevezetés a neurális számításokba Analóg processzortömbök,

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

[1000 ; 0] 7 [1000 ; 3000]

I. LABOR -Mesterséges neuron

NEURÁLIS HÁLÓZATOK 1. eloadás 1

Konvolúciós neurális hálózatok (CNN)

Neurális hálózatok bemutató

Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás

Intelligens Rendszerek Elmélete

E x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes)

Gépi tanulás a gyakorlatban. Lineáris regresszió

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE

Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban

Osztályozási feladatok képdiagnosztikában. Orvosi képdiagnosztikai 2017 ősz

Tanulás az idegrendszerben

TARTALOMJEGYZÉK. TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS A lágy számításról A könyv célkitűzése és felépítése...

Hibadetektáló rendszer légtechnikai berendezések számára

Perceptron konvergencia tétel

II. LABOR Tanulás, Perceptron, Adaline

Google Summer of Code Project

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

KONVOLÚCIÓS NEURONHÁLÓK. A tananyag az EFOP pályázat támogatásával készült.

Modellezés és szimuláció. Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék

Gépi tanulás. Egyszerű döntés tanulása (döntési fák) (Részben Dobrowiecki Tadeusz fóliáinak átdolgozásával) Pataki Béla (Bolgár Bence)

Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok

Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL

Megerősítéses tanulás

Mesterséges Intelligencia Elektronikus Almanach. MI Almanach projektismertetı rendezvény április 29., BME, I. ép., IB.017., 9h-12h.

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Fuzzy rendszerek és neurális hálózatok alkalmazása a diagnosztikában

Intelligens Rendszerek Elmélete

Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet

CARE. Biztonságos. otthonok idős embereknek CARE. Biztonságos otthonok idős embereknek Dr. Vajda Ferenc Egyetemi docens

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Stratégiák tanulása az agyban

Deep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök

Mély konvolúciós neurális hálózatok. Hadházi Dániel BME IE 338

Neurális Hálók. és a Funkcionális Programozás. Berényi Dániel Wigner GPU Labor

Többváltozós, valós értékű függvények

A MESTERSÉGES NEURONHÁLÓZATOK BEVEZETÉSE AZ OKTATÁSBA A GAMF-ON

A neurális hálók logisztikai alkalmazhatósága

Mesterséges Intelligencia MI

Neurális hálózatok MATLAB programcsomagban

Mély neuronhálók alkalmazása és optimalizálása

Jelek és rendszerek MEMO_03. Pletl. Belépő jelek. Jelek deriváltja MEMO_03

Matematika I. NÉV:... FELADATOK: 2. Határozzuk meg az f(x) = 2x 3 + 2x 2 2x + 1 függvény szélsőértékeit a [ 2, 2] halmazon.

Többváltozós, valós értékű függvények

Mesterséges Intelligencia 1

Intelligens orvosi műszerek VIMIA023

Megerősítéses tanulás 9. előadás

Bevezetés a lágy számítás módszereibe. Neurális hálózatok Alapok

A neurális hálózatok alapjai

Gépi tanulás a Rapidminer programmal. Stubendek Attila

Gépi tanulás a gyakorlatban SVM

A függvényekről tanultak összefoglalása /9. évfolyam/

Visszacsatolt (mély) neurális hálózatok

[Biomatematika 2] Orvosi biometria

Biológiai és mesterséges neurális hálózatok

NEURONHÁLÓK ÉS TANÍTÁSUK A BACKPROPAGATION ALGORITMUSSAL. A tananyag az EFOP pályázat támogatásával készült.

Csoportmódszer Függvények I. (rövidített változat) Kiss Károly

Matematika A1a Analízis

Mesterséges Intelligencia MI

BEKE ANDRÁS, FONETIKAI OSZTÁLY BESZÉDVIZSGÁLATOK GYAKORLATI ALKALMAZÁSA

Nem-lineáris programozási feladatok

A RADARJELEK DETEKTÁLÁSA NEURÁLIS HÁLÓZAT ALKALMAZÁSÁVAL

Debreceni Egyetem Informatikai Kar. Fazekas István. Neurális hálózatok

Intelligens orvosi műszerek (VIMIA023) Gyakorló feladatok, megoldással (2016 ősz)

Kovács Ernő 1, Füvesi Viktor 2

Deep learning. bevezetés

valós számot tartalmaz, mert az ilyen részhalmazon nem azonosság.

Fodor Gábor március 17. Fodor Gábor Osztályozás március / 39

Aleksziev Rita Antónia Alkalmazott matematikus MSc. Transzformációtanulás 2 dimenziós képeken

Dinamikus modellek szerkezete, SDG modellek

A mérési eredmény megadása

HÁZI FELADATOK. 1. félév. 1. konferencia A lineáris algebra alapjai

Gépi tanulás a gyakorlatban. Bevezetés

Aradi Bernadett. 2017/18 ősz. TensorFlow konvolúciós hálózatokhoz 2017/18 ősz 1 / 11

Modellkiválasztás és struktúrák tanulása

Informatika Rendszerek Alapjai

Forgalmi modellezés BMEKOKUM209

III.6. MAP REDUCE ELVŰ ELOSZTOTT FELDOLGOZÁSI ALGORITMUSOK ÉS TESZTKÖRNYEZET KIDOLGOZÁSA ADATBÁNYÁSZATI FELADATOK VÉGREHAJTÁSÁHOZ

Neurális hálózatok Altrichter, Márta Horváth, Gábor Pataki, Béla Strausz, György Takács, Gábor Valyon, József

Likelihood, deviancia, Akaike-féle információs kritérium

Gépi tanulás Gregorics Tibor Mesterséges intelligencia

Gépi tanulás és Mintafelismerés

Gépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés

Mérési struktúrák

Néhány nem hagyományos matematikai modell (Ezeket rejtett modellnek is nevezik, ritkán modell nélküli rendszerről beszélnek.)

Átírás:

Intelligens orvosi műszerek VIMIA023 Neurális hálók (Dobrowiecki Tadeusz anyagának átdolgozásával) 2017 ősz http://www.mit.bme.hu/oktatas/targyak/vimia023 dr. Pataki Béla pataki@mit.bme.hu (463-)2679

A tanulás egyik alapvető fajtája: Felügyelt tanulás egy komponensnek mind a bemenetét, mind a kimenetét észlelni tudjuk (bemeneti minta + kívánt válasz) Sokféle tanítható eszközt kitaláltak: neurális hálók Bayes-hálók kernelgépek döntési fák legközelebbi szomszéd osztályozók stb. stb. A következőkben a neurális hálókkal foglalkozunk mostanában már a harmadik hullámban nőtt meg a népszerűségük. Működésük az emberi gondolkodás számára jóval kevésbé áttekinthető, mint pl. a döntési fáké.

Induktív (ellenőrzött) tanulás (konkrét, egyedi példákból általánosít) A tanítás folyamata: Kiinduló (tanító) mintahalmaz {(x n,d n )}, n=1,,n Például: x n =[x n1 =1,5 ; x n2 =1; x n2 = SZÉP,...] d n = IGAZ h(x) hipotézis, mintákból például: leszűrendő általános szabály/tudás Tanítási algoritmus (hogyan építsük be a mintákban hordozott tudást az eszközbe) Például: döntési fa kialakítása, növesztése

Induktív tanulás A megtanított eszköz felhasználása Új, ismeretlen szituáció leírása: x új Például: x új =[x új1 =2,7 ; x új2 =0; x új3 = CSÚNYA,...] h(x) hipotézis, mintákból leszűrt általános szabály/tudás például: Az új, ismeretlen szituációra ( x új ) javasolt válasz Például: h(x új )= NEM

Neuron doktrina: S. Ramón y Cajal (1852-1934) Mesterséges neuron: W. McCulloch and W. Pitts, 1943 Tanulás: D. Hebb, 1949 SNARC (Stochastic Neural Analog Reinforcement Calculator): M. Minsky, 1951 Perceptron: F. Rosenblatt, 1957 Mély neurális hálók, stb., 2006

Perceptron n1 T y sgn( w x ) sgn( w x w ) sgn( b) i i i i n1 i1 i1 n xw T xwb0 T xwb0 lineárisan (hipersíkkal) szeparálható függvényt képes reprezentálni

Perceptron tanítása wúj wrégi x - bátorsági faktor, tanulási tényező

Perceptron tanítása x 0 =1 x 1 x 2 Első lelkesedés: ilyen egyszerű eszköz, és A tanítás konvergens, ha tanul!!! 1950-1960 körül. a tanító példák lineárisan szeparálhatók a bátorsági tényező elegendően kicsi Például: egy tanítási lépés a táblázatban adott minta alapján. (x 1, x 2, d) a tanítóminta, y a tanítási lépés előtt kapott válasz. 0,1 x 1 x 2 d y -1 1 1-1 0,2-0,4 0,5 d y 2 y x 0 =1 x 1 x 2 w w x 0,2 0,4 1 0,0 0,2 0,1 2 1 0,7 0,5 1 0,0-0,2 0,7 y

XOR (és hasonlóan lineárisan nem szeparálhatók) problémák: egy lineáris szeparáló réteggel nem oldható meg több réteg kell DE a perceptrontanulás csak 1 rétegnél működik (hiba értelmezése csak a kimeneten, nem tudható, hogy a több réteg több neuronjából melyik okozta a hibát)

Módosítás: Egyszerű perceptron Mesterséges neuron A hibavisszaterjesztést alkalmazó hálókban általában a szigmoid függvényt vagy annak valamelyik változatát használjuk. A szigmoidnak megvan az a tulajdonsága, hogy deriváltja: 1 gx () 1e x g '( x) g( x)(1 g( x)) differenciálható!

Mesterséges Neurális Háló (Artificial Neural Network) Nemlineáris approximációt megvalósító, induktív tanulási algoritmussal tanítható matematikai struktúra. Előrecsatolt, teljesen összekötött Egy rejtett réteg Több rejtett réteg

Mesterséges Neurális Háló Többrétegű előrecsatolt háló tanítása (elemi alapok) Hibavisszaterjesztés (backpropagation, BP) gradiens módszerrel - példa: bemeneti mintákat és hozzájuk rendelt kívánt kimeneteket mutatunk a hálónak, - ha hiba lép fel (a kimenet és a kívánt érték eltér), a súlyokat úgy módosítjuk, hogy a hiba csökkenjen. A trükk a hiba megállapítása, és a hibának a hibát okozó súlyok közti szétosztása. W E W W

Tulajdonképpen a differenciálás láncszabályát használjuk d x s=f(x) z=g(s) y y=h(q) (d-y) 2 e 2 2 2 de de dy dz ds dx dy dq ds dx

Mesterséges Neurális Háló http://mialmanach.mit.bme.hu/neuralis/index

Mesterséges Neurális Hálók approximációs képessége D. Hilbert (1900) 23 matematikai problémája/sejtése: A. Kolmogorov (1957): nem csupán minden háromváltozós függvény, hanem tetszőleges N-változós folytonos függvény felírható csupán egyváltozós függvények és az összeadás segítségével. A neuronháló bizonyos feltételekkel bármilyen függvényt tud tetszőleges pontossággal approximálni! (második nagy lelkesedés 1970-1980 körül) http://mialmanach.mit.bme.hu/neuralis/ch01s04

Mesterséges Neurális Háló Sok nyitott kérdés és probléma: mekkora (hány réteg, rétegenként hány processzáló elem) hálózatot válasszunk? hogyan válasszuk meg a tanulási tényező (α) értékét? milyen kezdeti súlyértékeket állítsunk be? hogyan válasszuk meg a tanító és a tesztelő minta készletet? hogyan használjuk fel a tanítópontokat, milyen gyakorisággal módosítsuk a hálózat súlyait? meddig tanítsuk a hálózatot, stb? hogyan védekezzünk a túltanulással szemben? (hogyan gyorsítsuk meg a tanulást?) http://mialmanach.mit.bme.hu/neuralis/index

Mesterséges neurális hálók 1990-es évek fellendülés majd a problémák miatt apály megjelentek 15-20 év múlva a mély neurális hálók. (harmadik nagy lelkesedés 2010-től napjainkig) (Elsősorban a képfeldolgozás területén hozott áttörést, azóta más területeken is erősen kutatják.) Néhány karakterisztikus változás 1. Jóval nagyobb rétegszám! (1990-es évekig 3-4-5 ritkán megy fel 10 rétegig.) Most 150-200-300 rétegű hálók! (Ezért is nevezzük mélynek.) Nagyrészt a hardver fejlődés tette lehetővé (memória, GPU-k megjelenése stb.). Számítási gráf:

2. Mivel a gradiens (derivált) a szigmoidnál 1-nél kisebb, a hibavisszaterjesztés során a sok rétegen visszaterjesztve 0-hoz tart. új nemlinearitást vezettek be a szigmoid helyett. ReLu (Rectified Linear). (Kisebb továbbfejlesztések: a negatív szakasz jóval kisebb meredekséggel, de nem nulla, az origóban a derivált nulla stb.)

3. Dimenzióredukció (max, min, avg) pooling 2 5 7 1 1 3 2 2 9 3 3 2 3 1 8 5 4. Konvolúciós rétegek 5 7 9 8 Az összes konvolúció súlyai (az ábrán 9) azonosak, együtt változnak a tanítás során! Hibavisszaterjesztés mindegyiknél, de az összes kialakuló gradiens eredőjét használjuk.

3. Dropout Alapvetően a túltanulás ellen szolgál, nagyon érdekes módon. A tanítás során egyes aktivációkat valamilyen valószínűséggel nullára állít egy-egy tanítási menetben. A háló redundanciára kényszerül, és egyik dropout konfigurációban (néhány véletlenszerűen választott aktivitás nulla) sem tud nagyon rátanulni a mintákra. 4. Augmentáció Az óriási hálókhoz rengeteg minősített kép/képrészlet kell! (Túltanulás!) Augmentáció: az alapképből eltolással, elforgatással, aszimmetrikus torzítással stb., újabb tanítómintákat hozunk létre. Nekünk pl. egy 1 pixellel eltolt kép észrevehetetlen változást jelent. A számítógépnek egészen más kép! Ezen (is) segít az augmentáció. (A google képfelismerőjét kb. 10 millió minősített képpel tanították.)

A klasszikus és a mély neuronhálók közti egyik fontos koncepcionális különbség: A fejlesztő alakít ki legjobb tudása szerint tulajdonságokat. Például egy képen világos foltokat függőleges vonalakat bizonyos textúrát szemet, bajuszt stb. stb. kiemelő szűrőket alkalmaz. Lényegkiemelés, tulajdonságok keresése a fejlesztő ember végzi A nyers adatokból a gép tanulja a tulajdonságokat

Az óriási adatmennyiség (rendkívül nagy a szabadsági fok, a komplexitás) miatt transfer learning A mások által hatalmas adatmennyiséggel megtanított lényegkiemelő alrendszert átvesszük, nem tanítjuk a mi problémánkra. Abban bízunk, hogy a tanulás során kialakult tulajdonságok jók lesznek a mi problémánkra is. (Ha a két probléma jelentősen eltér baj van.) Csak ezt tanítjuk a problémánkat jellemző a mintáinkkal!

Például egy jópofa játék: stílustranszfer a tulajdonságokat az egyik kép stílusából kinyerjük, a másik képet úgy módosítjuk, hogy hasonlók legyenek a tulajdonságai