Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás

Hasonló dokumentumok
Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban

Intelligens Rendszerek Elmélete

Intelligens Rendszerek Gyakorlata. Neurális hálózatok I.

Intelligens Rendszerek Elmélete

A neurális hálózatok általános jellemzői

Tisztelt Hallgatók! Jó tanulást kívánok, üdvözlettel: Kutor László

Neurális hálózatok.... a gyakorlatban

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Neurális hálózatok bemutató

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

TARTALOMJEGYZÉK. TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS A lágy számításról A könyv célkitűzése és felépítése...

Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok

Fogalom értelmezések I.

Bevezetés a neurális számításokba Analóg processzortömbök,

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.

Állandó tartós halhatatlan, könnyő átvinni reprodukálni,(oktatni a szakértıi rendszerhasználatát kell)

Fuzzy rendszerek és neurális hálózatok alkalmazása a diagnosztikában

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla

Modellezés és szimuláció. Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék

Intelligens orvosi műszerek VIMIA023

I. LABOR -Mesterséges neuron

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Hibadetektáló rendszer légtechnikai berendezések számára

Számítógépes döntéstámogatás. Genetikus algoritmusok

FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Gépi tanulás a gyakorlatban. Bevezetés

Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)

Funkcionális konnektivitás vizsgálata fmri adatok alapján

T E R M É K T Á J É K O Z TAT Ó

Szinkronizmusból való kiesés elleni védelmi funkció

Infobionika ROBOTIKA. X. Előadás. Robot manipulátorok II. Direkt és inverz kinematika. Készült a HEFOP P /1.0 projekt keretében

Fourier-sorfejtés vizsgálata Négyszögjel sorfejtése, átviteli vizsgálata

Adatbányászati szemelvények MapReduce környezetben

Példák jellemzőkre: - minden pixelérték egy jellemző pl. neurális hálózat esetében csak kis képekre, nem invariáns sem a megvilágításra, sem a geom.

BEKE ANDRÁS, FONETIKAI OSZTÁLY BESZÉDVIZSGÁLATOK GYAKORLATI ALKALMAZÁSA

Költségbecslési módszerek a szerszámgyártásban. Tartalom. CEE-Product Groups. Költségbecslés. A költségbecslés szerepe. Dr.

CARE. Biztonságos. otthonok idős embereknek CARE. Biztonságos otthonok idős embereknek Dr. Vajda Ferenc Egyetemi docens

Tartalomjegyzék. Tartalomjegyzék... 3 Előszó... 9

Gépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés

Robotok inverz geometriája

Visszacsatolt (mély) neurális hálózatok

E x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes)

Informatika Rendszerek Alapjai

Kovács Ernő 1, Füvesi Viktor 2

Intelligens Rendszerek Elmélete. Párhuzamos keresés genetikus algoritmusokkal

Első egyéni feladat (Minta)

KONVOLÚCIÓS NEURONHÁLÓK. A tananyag az EFOP pályázat támogatásával készült.

Az UPPAAL egyes modellezési lehetőségeinek összefoglalása. Majzik István BME Méréstechnika és Információs Rendszerek Tanszék

Méréselmélet MI BSc 1

Néhány nem hagyományos matematikai modell (Ezeket rejtett modellnek is nevezik, ritkán modell nélküli rendszerről beszélnek.)

Az egységugrás függvény a 0 időpillanatot követően 10 nagyságú jelet ad, valamint K=2. Vizsgáljuk meg a kimenetet:

NEURÁLIS HÁLÓZATOK 1. eloadás 1

II. LABOR Tanulás, Perceptron, Adaline

Statisztika I. 8. előadás. Előadó: Dr. Ertsey Imre

Statisztikai eljárások a mintafelismerésben és a gépi tanulásban

Mély neuronhálók alkalmazása és optimalizálása

Megújuló energia bázisú, kis léptékű energiarendszer

Irányításelmélet és technika II.

Biometria az orvosi gyakorlatban. Korrelációszámítás, regresszió

[1000 ; 0] 7 [1000 ; 3000]

Minimum követelmények matematika tantárgyból 11. évfolyamon

Generátor differenciálvédelmi funkció blokk leírása

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók 2. Pataki Béla

[Biomatematika 2] Orvosi biometria

Hogyan lesz adatbányából aranybánya?

ÉRZÉKELŐK ÉS BEAVATKOZÓK I. 0. TANTÁRGY ISMERTETŐ

Wavelet transzformáció

Az értékelés során következtetést fogalmazhatunk meg a

Problémás regressziók

SAT probléma kielégíthetőségének vizsgálata. masszív parallel. mesterséges neurális hálózat alkalmazásával

Digitális jelfeldolgozás

Analóg-digitális átalakítás. Rencz Márta/ Ress S. Elektronikus Eszközök Tanszék

biometria II. foglalkozás előadó: Prof. Dr. Rajkó Róbert Matematikai-statisztikai adatfeldolgozás

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Algoritmuselmélet 7. előadás

Matematikai geodéziai számítások 9.

Saj at ert ek-probl em ak febru ar 26.

Intelligens Rendszerek Elmélete. Párhuzamos keresés genetikus algoritmusokkal. A genetikus algoritmus működése. Az élet információ tárolói

2. Elméleti összefoglaló

A 2017/2018 tanévi Országos Középiskolai Tanulmányi Verseny első fordulójának feladatai. INFORMATIKA II. (programozás) kategória

A RADARJELEK DETEKTÁLÁSA NEURÁLIS HÁLÓZAT ALKALMAZÁSÁVAL

TANMENET. a matematika tantárgy tanításához 10. E.osztályok számára

STATISZTIKA. A maradék független a kezelés és blokk hatástól. Maradékok leíró statisztikája. 4. A modell érvényességének ellenőrzése

Multi-20 modul. Felhasználói dokumentáció 1.1. Készítette: Parrag László. Jóváhagyta: Rubin Informatikai Zrt.

Hálózati réteg. WSN topológia. Útvonalválasztás.

DIGITÁLIS TEREPMODELL A TÁJRENDEZÉSBEN

Matematikai geodéziai számítások 9.

Tartalomjegyzék I. RÉSZ: KÍSÉRLETEK MEGTERVEZÉSE

Segédlet a gyakorlati tananyaghoz GEVAU141B, GEVAU188B c. tantárgyakból

Grafikonok automatikus elemzése

Principal Component Analysis

Kvantitatív módszerek

Miskolci Egyetem Gépészmérnöki és Informatikai Kar Informatikai Intézet Alkalmazott Informatikai Intézeti Tanszék

Mérés és modellezés Méréstechnika VM, GM, MM 1

Mérési adatok illesztése, korreláció, regresszió

Konjugált gradiens módszer

Biomatematika 12. Szent István Egyetem Állatorvos-tudományi Kar. Fodor János

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Átírás:

Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás http:/uni-obuda.hu/users/kutor/ IRE 7/50/1

A neurális hálózatok általános jellemzői 1. A neurális hálózatok nagyon egyszerű processzorokból, az un. neuronokból épülnek fel. A processzorok változtatható súlytényezőjű összeköttetések hálózatán át kommunikálnak egymással. 2. A neurális hálózatokat nem programozzuk, hanem tanítjuk. 3. A tárolt információk a hálózatban elosztottan, a súlytényezők közvetítésével ábrázolódnak. 4. A neurális hálózatok hibatűrők. Az elosztott párhuzamos tudásreprezentáció miatt a súlytényezők egy részének jelentős megváltozása sem befolyásolja alapvetően a hálózat működését. 5. A hálózat működését három fő tényező határozza meg: a processzorok átviteli függvénye, a hálózat összeköttetési sémája és a tanítási módszer IRE 7/50/2

Mikor célszerű neurális hálózatokat alkalmazni? w A megoldandó problémával kapcsolatban gazdag adathalmaz áll rendelkezésre w A megoldáshoz szükséges szabályok ismeretlenek w A rendelkezésre álló adathalmaz nem teljes, hibás adatokat is tartalmazhat w Sok összefüggő bemenő adat-, összefüggő kimeneti paraméter áll rendelkezésre IRE 7/50/3

Neurális hálózatok alkalmazásának menete n n n n n A tanító adatok összeállítása. Feladatspecifikus neurális hálózat (paradigma) kiválasztása. A hálózat jellemzőinek (a processzorok átviteli függvényének, a processzorok számának, a tanítási módszereknek és paramétereknek, valamint a kezdeti súlymátrix értékeinek) kiválasztása. Teljesítmény mérő módszer kiválasztása Tanítás és tesztelés, amíg a hálózat a kívánt viselkedést nem mutatja. IRE 7/50/4

A neurális hálózatok legfontosabb meghatározó tényezői 1. A neuronok (processzorok) (neuron, artificial neuron, node, unit, cell) 2. A hálózati topológia ( mit mivel kötünk össze, (súlytényező mátrix) 3. A tanító szabályokat alkalmazó algoritmus ( súlytényezők beállítása, hangolása ) IRE 7/50/5

Két (tanítható) rétegű előrecsatolt hálózat Bemenetek bemeneti réteg rejtett réteg súlytényező kimeneti réteg Kimenetek IRE 7/50/6

Többrétegű neurális hálózatok tanítása (D.E Rummelhart, G.E. Hinton, R.J.Williams, 1986) (David Parker, Yann Le Cun) + Hálózat topológia i j N Processzor: H M k O i O j O k T k i j k Oi Sj f(s) j N O j S = w O Oj =f(s)= 1/(1+e -S ) j i= 1 ji i IRE 7/50/7

A súlytényezők változását leíró egyenletek Súlytényező változtatás a kimeneti rétegben W kj (t+1) = W kj (t) + αδ k Oj Wkj(t+1) = Wkj(t) + αδkoj + βδk(t-1) Δk α= tanulási együttható W kj (t) + α*(t k -O k )*f(s k )*(1-f(S k ))*O j β=momentum ( lendület ) Súlytényező változtatás a rejtett rétegben Δj M W ji (t) + α* (Δk*Wkj)*f(S j )*(1-f(S j ))*O i k=1 IRE 7/50/8

Algoritmus gyorsító megoldások 1. Momentum 2. Csökkenő hibahatár ( descending epsilon ) módszere 3. Kis súlytényezők kiszűrése ( Metszés ) 4. Inkrementális hálózat építés kaszkád korreláció IRE 7/50/9

A tanító adatok szerkezete Benenő adatok Elvárt kimenő adatok célértékek NH c 1 Bemenetek 1-n C 1 C m n m c m Tanító minták 1-k Teszt adatok IRE 7/50/10

Lépésről-lépésre épülő hálózat Kaszkád korreláció (KK) Scott E. Fahlman Christian Lebierre IRE 7/50/11

Kettős spirál tanulása KK algoritmussal 2. IRE 7/50/12

Kettős spirál tanulása KK algoritmussal 2. IRE 7/50/13

Versengéses (competitive) tanulás Carpenter, Grossberg 1988 Processzor I 1 I i S j f O j = f (S j ) 1 f (S j ) I N S j = I i * w ji S j Topológia: egy rétegű előrecsatolt, teljesen összekötött Megkötések: 1.) w ji = 1 2.) Súly értékek: 0<Wj<1 3.) A bemenő vektor bináris IRE 7/50/14

A versengéses tanító algoritmus (Grossberg) Mottó: A győztes visz mindent 1. Kezdeti súlytényezők beállítása (inicializálás, véletlenszerű) 0<Wj<1 2. A tanítóminta i-ik értéke (vektora) alapján, a processzorok kimeneti értékeinek kiszámítása. S j = O i * w ji, O j = f (S j ) 3. A legnagyobb kimeneti értékű processzor kiválasztása. A győztes visz mindent elv alapján, a győztes kimeneti értéket 1-re, az összes többi kimeneti értéket 0-ra változtatjuk 3. A győztes elem súlytényezőit megváltoztatjuk (csak azokat!) Δ W ji (t+1) = W ji (t) + Δ w ji, Δw ji = α (O i /m-w ji (t)) ahol α = tanulási együttható, 0 < α << 1 (tipikusan 0.01-0.3) m = az aktív bemenetek száma 5. A 2. 3. 4. pont ismétlése amíg a kimenetek két egymást követő tanítási ciklus során nem változnak. IRE 7/50/15

Versengéses tanulás folyamata IRE 7/50/16

Versengés oldalirányú gátlással IRE 7/50/17

Kohonen fonetikus írógépe (Teuvo Kohonen, 1982) Jellemzői: 5.4 KHz aluláteresztő szűrő, 12 bit A/D, 13.03 KHz mintavétel, 256 pontos Fourier transzformáció (FFT) Fonémák kézi azonosítása a tanításhoz, Szabály alapú következtetés (15-20 ezer szabály) TMS 32010 digitális processzor Közel folyamatos beszéd feldolgozás 92-97%- os pontosság IRE 7/50/18

A Kohonen hálózat processzora és topológiája Processzor: S j f O j = f (S j ) 1 f (S j ) S j = I i * w ji + társ processzorok aktivációja 1 S j Hálózat topológia: egy rétegű, teljesen összekötött, előrecsatolt IRE 7/50/19

A Kohonen tanító algoritmus 1.) Kezdeti súlytényezők beállítása Kezdeti környezet beállítása 2.) A bemeneti vektor (tanító minta) j rákapcsolása a bemenetekre 3.) Minden processzor elemnél a bemenő vektor és a súlyvektor egyezésének (távolságának) kiszámítása d j = I-W j = (I i -W ji ) 2 ahol N = a bemeneti vektor elemeinek száma I i = a bemeneti vektor (I) i-ik elemének értéke W ji = a j ik processzor elemhez tartozó, az i-ik bemenettől érkező összeköttetés súlytényezője 4.) A legkisebb eltérést mutató processzor kiválasztása (pl. j) 5.) A kiválasztott elem (j) környezetében (N j ) a súlytényezők módosítása 6.) A 2., 3., 4., 5.-ik lépés ismétlése amíg a kimenetek nem változnak IRE 7/50/20

A súlytényező megváltoztatása a Kohonen tanuló algoritmusban W ji (t+1) = W ji (t) + ΔW ji (t) Ahol ΔW ji (t) = α (I i W ji ) α (t) = α (0)(1 t/t), t = az adott tanulási iteráció száma T= a teljes tanulási ciklusok száma A tanulás során módosított környezet nagysága csökken! N j (t) = N(0)(1-t/T) IRE 7/50/21

Az önszerveződés folyamata a Kohonen hálózatban A véletlenszerűen beállított súlytényezők a tanulás során egyre inkább felveszik a tanítóminta statisztikai eloszlását. IRE 7/50/22

Példák 3D-s tárgyak leképezésére 2D-be Bemenetek száma: 3 Kimenetek száma: 20 Tanítóminta: 1000 Tanítási ciklus: 15-30 IRE 7/50/23

Lágy számítási modellek kapcsolata b GA b 1 2 a a 3 NH FL b a 1 a.) a neurális hálózat tanítása (súlykeresés), topológia megkeresése b.) az egyed rátermettségének változtatása a tesztelés során 2 a.) Fuzzy változók tagsági függvényeinek meghatározása, Fuzzy szabályok keresése b.) Fuzzy kiértékelő módszerek alkalmazása az egyedek rátermettségének meghatározására 3 a.) a neurális hálózatok adaptív tulajdonságainak bevitele a Fuzzy logikát alkalmazó rendszerekbe. b.) szabályok automatikus feltárása tapasztalati adatokból IRE 7/50/24