Intelligens Rendszerek Gyakorlata. Neurális hálózatok I.



Hasonló dokumentumok
Intelligens Rendszerek Elmélete

Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban

Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás

Intelligens Rendszerek Elmélete

Neurális hálózatok.... a gyakorlatban

Tisztelt Hallgatók! Jó tanulást kívánok, üdvözlettel: Kutor László

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla

Bevezetés a neurális számításokba Analóg processzortömbök,

Neurális hálózatok bemutató

Fogalom értelmezések I.

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Állandó tartós halhatatlan, könnyő átvinni reprodukálni,(oktatni a szakértıi rendszerhasználatát kell)

Hibadetektáló rendszer légtechnikai berendezések számára

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

TARTALOMJEGYZÉK. TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS A lágy számításról A könyv célkitűzése és felépítése...

Intelligens orvosi műszerek VIMIA023

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

NEURÁLIS HÁLÓZATOK 1. eloadás 1

Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok

Visszacsatolt (mély) neurális hálózatok

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.

A neurális hálózatok általános jellemzői

Fuzzy rendszerek és neurális hálózatok alkalmazása a diagnosztikában

I. LABOR -Mesterséges neuron

II. LABOR Tanulás, Perceptron, Adaline

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Modellezés és szimuláció. Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

KONVOLÚCIÓS NEURONHÁLÓK. A tananyag az EFOP pályázat támogatásával készült.

Irányításelmélet és technika II.

Tanulás az idegrendszerben

Kovács Ernő 1, Füvesi Viktor 2

FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE

Forgalmi modellezés BMEKOKUM209

Biológiai és mesterséges neurális hálózatok

SAT probléma kielégíthetőségének vizsgálata. masszív parallel. mesterséges neurális hálózat alkalmazásával

E x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes)

Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)

Megerősítéses tanulás

Adatbányászati szemelvények MapReduce környezetben

Neurális hálózatok MATLAB programcsomagban

Wavelet transzformáció

MINTA Írásbeli Záróvizsga Mechatronikai mérnök MSc. Debrecen,

Informatika Rendszerek Alapjai

Konvolúciós neurális hálózatok (CNN)

Mesterséges Intelligencia MI

Gauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei

Statisztikai eljárások a mintafelismerésben és a gépi tanulásban

A MESTERSÉGES NEURONHÁLÓZATOK BEVEZETÉSE AZ OKTATÁSBA A GAMF-ON

BEKE ANDRÁS, FONETIKAI OSZTÁLY BESZÉDVIZSGÁLATOK GYAKORLATI ALKALMAZÁSA

Perceptron konvergencia tétel

Irányításelmélet és technika II.

Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )

Segédlet a gyakorlati tananyaghoz GEVAU141B, GEVAU188B c. tantárgyakból

Lineáris regressziós modellek 1

Deep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök

Intelligens Rendszerek Elmélete. Párhuzamos keresés genetikus algoritmusokkal

Normák, kondíciószám

[1000 ; 0] 7 [1000 ; 3000]

Stratégiák tanulása az agyban

Számítógépes döntéstámogatás. Genetikus algoritmusok

AKTUÁTOR MODELLEK KIVÁLASZTÁSA ÉS OBJEKTÍV ÖSSZEHASONLÍTÁSA

A RADARJELEK DETEKTÁLÁSA NEURÁLIS HÁLÓZAT ALKALMAZÁSÁVAL

Véges állapotú gépek (FSM) tervezése

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

NEURONHÁLÓK ÉS TANÍTÁSUK A BACKPROPAGATION ALGORITMUSSAL. A tananyag az EFOP pályázat támogatásával készült.

HORVÁTH ZSÓFIA 1. Beadandó feladat (HOZSAAI.ELTE) ápr 7. 8-as csoport

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Algoritmusok Tervezése. 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás

Vállalati modellek. Előadásvázlat. dr. Kovács László

Mesterséges intelligencia

Mérési hibák

Új dokumentálandó folyamatok, azok minimális tartalmi elvárásai

Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL

Multi-20 modul. Felhasználói dokumentáció 1.1. Készítette: Parrag László. Jóváhagyta: Rubin Informatikai Zrt.

Infobionika ROBOTIKA. X. Előadás. Robot manipulátorok II. Direkt és inverz kinematika. Készült a HEFOP P /1.0 projekt keretében

Információk. Ismétlés II. Ismétlés. Ismétlés III. A PROGRAMOZÁS ALAPJAI 2. Készítette: Vénné Meskó Katalin. Algoritmus. Algoritmus ábrázolása

Aleksziev Rita Antónia Alkalmazott matematikus MSc. Transzformációtanulás 2 dimenziós képeken

Gépi tanulás a Rapidminer programmal. Stubendek Attila

Néhány nem hagyományos matematikai modell (Ezeket rejtett modellnek is nevezik, ritkán modell nélküli rendszerről beszélnek.)

Bevezetés a programozásba I 3. gyakorlat. PLanG: Programozási tételek. Programozási tételek Algoritmusok

Irányításelmélet és technika I.

Konjugált gradiens módszer

A KLT (Kanade Lucas Tomasi) Feature Tracker Működése (jellegzetes pontok választása és követése)

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Az informatika kulcsfogalmai

Számítógépvezérelt irányítás és szabályozás elmélete (Bevezetés a rendszer- és irányításelméletbe, Computer Controlled Systems) 8.

Debreceni Egyetem Informatikai Kar. Fazekas István. Neurális hálózatok

Soros felépítésű folytonos PID szabályozó

Intelligens Rendszerek Elmélete. Párhuzamos keresés genetikus algoritmusokkal. A genetikus algoritmus működése. Az élet információ tárolói

KOOPERÁCIÓ ÉS GÉPI TANULÁS LABORATÓRIUM

Nagyfrekvenciás rendszerek elektronikája házi feladat

Kísérletek tervezése. A gyógyszertervezés lehetségei. Hagyományos módszer. Mi a Neurális hálózat?

Gépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés

A hálózattervezés alapvető ismeretei

Bevezetés a lágy számítás módszereibe. Neurális hálózatok Alapok

Programozó- készülék Kezelőkozol RT óra (pl. PC) Digitális bemenetek ROM memória Digitális kimenetek RAM memória Analóg bemenet Analóg kimenet

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók 2. Pataki Béla

CARE. Biztonságos. otthonok idős embereknek CARE. Biztonságos otthonok idős embereknek Dr. Vajda Ferenc Egyetemi docens

Átírás:

: Intelligens Rendszerek Gyakorlata Neurális hálózatok I. dr. Kutor László http://mobil.nik.bmf.hu/tantargyak/ir2.html IRG 3/1

Trend osztályozás Pnndemo.exe IRG 3/2

Hangulat azonosítás Happy.exe IRG 3/3

Idősor közelítés Grnndemo.exe IRG 3/4

Pontsor közelítése függvénnyel Grnndemo.exe IRG 3/5

A neurális hálózat tervezésének lépései Reprezentatív tapasztalati adat gyűjtése (bemeneti adatok és elvárt válaszok) Megfelelő neurális paradigma kiválasztása Rendszer paraméterek kiválasztása Teljesítmény mérő módszer kiválasztása A rendszer tanítása és tesztelése (amíg az elvárt eredményhez nem jutunk) IRG 3/6

Eldöntendő jellemzők a neurális hálózatok tervezésénél Processzor szinten: - a processzor átviteli függvénye - a bemenő jelek típusa Hálózat szinten: - a hálózat topológiája - rétegelt struktúránál a rétegek száma - processzorok száma a különböző rétegekben - processzorok típusa a különböző rétegekben Tanítási szinten - tanító algoritmus - tanítási paraméterek (pl.: α, β,.) - a tanítás megállásának feltételei IRG 3/7

Az alap neuron (processzor) felépítése i O i I 1 I 2 I i I n-1 w j1 w j2 wji w jn S j j T O j i S j = W ji n i= 1 w ji j I i I n I B I bemenet), w ji súlytényezők, T Átviteli (Transzfer) függvény IRG 3/8

Leggyakrabban használt átviteli függvények 1. Ugrás függvény: O j = 0 vagy -1, ha S <= 0, O j = 1 ha S > 0 2. Korlátozott lineáris függvény O j = 0, ha S <= 0, O j = S ha 0 <= S < 1 O j = 1 ha S > 1 3. Szimoid függvény O j = 1/(1+e -Sj ) 1 1 1 S S 0 1 O j = 1-1/(1+S) ha S >= 0 O j = -1 + 1/(1-S) ha S < 0 1 IRG 3/9 1-1 -1 S S

Tipikus neurális hálózat összeköttetések 1. Előrecsatolt (rétegelt) neurális hálózat (topológia) Bemenetek bemeneti réteg rejtett réteg kimeneti réteg Kimenetek súlytényező IRG 3/10

Az előrecsatolt hálóztok ábrázolása I 1 I 2 I i I n-1 I n O 1 Súlymátrix w 11 w 12 w 1i -- w 1n w 21 w 22 w 2i -- w 2n w j1 w j2 w ji -- w jn w m1 w m2 w mi -- w mn súlytényező IRG 3/11 O 2 O j O m O = f (S) S = I * W Mátrix műveletek!

Visszacsatolt neurális hálózat Rétegelt Teljesen összekötött I 1 I 2 I 3 1 2 3 i j k IRG 3/12 O i O j O k O = I x W1+ O x W2

A hálózat hibája felügyelt tanítás esetén Egy tanító mintánál: E = ½ (T k -O k ) 2 A teljes tanító mintára: E = ½ (T k -O k ) 2 IRE 8/13 k p k A tanítás (súlytényező változtatás) mottója: hiba visszaterjesztés = Back error Propagation A hálózat súlytényezőit a hiba létrehozásában játszott szerepükkel arányosan változtatjuk. = A súlytényezőket a hibafüggvény parciális deriváltja szerint változtatjuk

Tanítási szabályok Tanítás = súlytényezők (kis lépésekkel (?) való) beállítása Tanítási típusok: 1. Felügyelt (felügyeletes) tanítás 2. Felügyelet nélküli (önszerveződő) tanítás Alap tanítási szabályok: i j O i w ji O j i j O i w ji O j C j Hebb szabály (Donald O. Hebb) w ji (t+1) = w ji (t) + α* O i * O j ahol α = tanítási tényező, 0 <= α <= 1 Delta szabály (Widrow- Hoff) w ji (t+1) = w ji (t) + α * O i * (C j O j ) ahol C j O j = Δ j IRG 3/14

A felügyeletes tanítás lényege, algoritmusa Mottó: Addig hangoljuk a súlytényezőket, amíg a bemenetre a hálózat megfelelő-, előre kiszámított választ nem ad. Algoritmusa: 1. Kezdeti súlytényezők beállítása 2. A tanítóminta bemeneti értéke alapján a hálózat kimeneti értékének kiszámítása. 3. A tanítóminta célértékének összehasonlítása a hálózat célértékével. 4. Szükség esetén a hálózat súlytényezőinek módosítása. 5. A tanítás folytatása mindaddig, amíg a hálózat az összes tanítómintára egy előre rögzített hibahatárnál kisebb hibával a célértéknek megfelelő kimeneti értéket nem tudja előállítani. IRE 8/15

A perceptron tanító algoritmus (delta szabállyal) Kezdeti súlytényezők beállítása (random!?) Tanítás iter amíg a hiba el nem éri a hibahatárt (Hi <= Hh) k= 0, Hi= 0 Minták iter amíg k = p nem teljesül (ahol p = tanító minták száma) A k.-ik tanítóminta bemeneti vektora alapján processzoronként az aktiváció kiszámítása S jk = I k j * Wji A köszöb átviteli függvény alapján processzoronként a kimeneti értékek kiszámítása. (O j ) A hálózat súlytényezőinek módosítása. w ji (t+1) = w ji (t) + α * O i * (C j O j ) ahol C j O j = az eltérés (Δ j ) A hálózat hibájának kiszámítása H k j =Cj k -Oj k A hibák összesítése H i =H i +H j K:=K+1 Minták end Tanítás end IRE 8/16

I 1 I 2 I i I n A delta szabály matematikai értelmezése S j S j = w ji * I i ; O j = S j ; i O j T j Lineáris átviteli függvény esetén W ji (t+1)=w ji (t)- α*oj*δe/δw ji δe/δw ji = δe/δo j * δo j /δs j * δs j /δw j δe/δo j = ½ * 2 * (Tj-Oj) * -1= -(Tj-Oj) E = ½ * ( T j O j ) 2 E j w i W i+1 Δw δo j /δs j =1 δs j /δw j = δ(w j1 *I 1 + w ji *I i + w jn *I n )= I i i j O i w ji O j T j Delta szabály w ji (t+1) = w ji (t) + α * I i * Δ j ahol α = tanítási tényező, 0 <= α <= 1, Δ j = T j O j IRE 8/17

Többrétegű neurális hálózatok tanítása (Általánosított delta szabállyal) Hálózat topológia i j N Processzor: H M k i O i w ji O j w kj O k T k j k Oi Sj f(s) j O j S = w O O j =f(s)= 1/(1+e -S ) j IRE 8/18 N i= 1 ji i

A hiba visszavezetése (Általánosított delta szabállyal) Δ 1 Hálózat topológia i j M N H k Δ j w 1j w 2j O i w ji O j w kj O k T k i j k Δ 2 Δ M-1 Átviteli függvények w Mj O k = f(s k ) O j =f(s)= 1/(1+e -S ) Δ M IRE 8/19

Tanítást leíró összefüggések a többrétegű hálózatoknál Általánosított delta szabály: (deriválás a lánc szabály alapján) δe/δw kj = δe/δok * δo k /δs k * δs k /δw kj Súlytényező változtatás a kimeneti rétegben W kj (t+1) = W kj (t) + αδ k Oj = Δk W kj (t+1) =W kj (t) + α*(t k -O k )*f(s k )*(1-f(S k ))*O j Súlytényező változtatás a rejtett rétegben Δj W ji (t+1) = W ji (t) + α*f(s j )*(1-f(S j ) * (Δk*W kj ))*O i (A levezetés a javasolt olvasmányok között található) IRE 8/20 M k=1

Versengéses (competitive) tanulás Carpenter, Grossberg 1988 Processzor I 1 I i S j f O j = f (S j ) 1 f (S j ) I N S j = I i * w ji S j Topológia: egy rétegű előrecsatolt, teljesen összekötött Megkötések: 1.) w ji = 1 2.) Súly értékek: 0<Wj<1 3.) A bemenő vektor bináris IRE 8/21

A versengéses tanító algoritmus (Grossberg) Mottó: A győztes visz mindent 1. Kezdeti súlytényezők beállítása (inicializálás, véletlenszerű) 0<Wj<1 2. A tanítóminta i-ik értéke (vektora) alapján, a processzorok kimeneti S j = O i * w ji, O j = f (S j ) értékeinek kiszámítása. 3. A legnagyobb kimeneti értékű processzor kiválasztása. A győztes visz mindent elv alapján, a győztes kimeneti értéket 1-re, az összes többi kimeneti értéket 0-ra változtatjuk 3. A győztes elem súlytényezőit megváltoztatjuk (csak azokat!) Δ W ji (t+1) = W ji (t) + Δ w ji, Δw ji = α (O i /m-w ji (t)) ahol α = tanulási együttható, 0 < α << 1 (tipikusan 0.01-0.3) m = az aktív bemenetek száma 5. A 2. 3. 4. pont ismétlése amíg a kimenetek két egymást követő tanítási ciklus során nem változnak. IRE 8/22

Teljesítmény mérési lehetőségek 1. Az összes tanító mintát figyelembe véve, mekkora az eltérés RMS (Root-Mean-Square) Egy tanító mintánál: E = ½ (T k -O k ) 2 A teljes tanító mintára: E = ½ (T k -O k ) 2 M k RMS= E/(M*K) M= tanító minták száma K= kimenetek száma 2. A helyes és hibás eredmények aránya IRE 8/23

Logikai függvények tanítása logikai ÉS Kizáró VAGY I 1 * I 2 O 0 0 1 0 0 1 1 1 I 1 +I 2 O 0 0 0 1 0 1 1 1 I 1 logikai VAGY 1 I 1 1 1 1 I 2 I 2 I 1 + I 2 O 0 0 0 1 0 1 1 1 0 IRE 8/24 I 1 1 1 I 2

A négy kvadráns 1 1 0 1 0.5 0.5 0 0 1 0 0.5 1 0 0 0.5 1 IRE 8/25

Neurális hálózat szimulátorok NWDemo http://mobil.nik.bmf.hu/tantargyak/ir2.html C++ Neural Network Simulation Software http://www.bedaux.net/nnet/ Stuttgart Neural Network Simulator http://www.ra.cs.uni-tuebingen.de/snns/ Emergent Neural Network Simulation System http://grey.colorado.edu/emergent/index.php/main_page IRE 8/26

Neurális hálózat szimulátorok IRE 8/27

Az első mesterséges neurális hálózat: a Perceptron Frank Rosenblatt (1957) (amit a következő órán meg kell valósítani) Vetített nyomtatott betűk felismerése tanítás alapján 20 x 20 fotóérzékelő Mc. Culloch-Pitts neuronok Előrecsatolt egyrétegű hálózat I 1 O 1 I 400 O 36 IRE 8/28