Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Hasonló dokumentumok
Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Tanulás az idegrendszerben

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Megerősítéses tanulás

Stratégiák tanulása az agyban

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.

Megerősítéses tanulás

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla

Intelligens Rendszerek Gyakorlata. Neurális hálózatok I.

FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

I. LABOR -Mesterséges neuron

TARTALOMJEGYZÉK. TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS A lágy számításról A könyv célkitűzése és felépítése...

Gépi tanulás a gyakorlatban. Lineáris regresszió

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Intelligens orvosi műszerek VIMIA023

Az idegrendszeri memória modelljei

Bevezetés a neurális számításokba Analóg processzortömbök,

Megerősítéses tanulás 9. előadás

Intelligens Rendszerek Elmélete

NEURÁLIS HÁLÓZATOK 1. eloadás 1

Megerősítéses tanulási módszerek és alkalmazásaik

Neurális hálózatok bemutató

Az idegrendszeri memória modelljei

Neurális hálózatok.... a gyakorlatban

Biológiai és mesterséges neurális hálózatok

E x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes)

Hibadetektáló rendszer légtechnikai berendezések számára

Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás

Kovács Ernő 1, Füvesi Viktor 2

Megerősítéses tanulás 7. előadás

Google Summer of Code Project

Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok

Gépi tanulás Gregorics Tibor Mesterséges intelligencia

Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL

Korszerű információs technológiák

Funkcionális konnektivitás vizsgálata fmri adatok alapján

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Teljesen elosztott adatbányászat pletyka algoritmusokkal. Jelasity Márk Ormándi Róbert, Hegedűs István

Neura lis ha lo zatok

Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban

Megerősítéses tanulás 2. előadás

Neurális hálózatok MATLAB programcsomagban

Lineáris regressziós modellek 1

Debreceni Egyetem Informatikai Kar. Fazekas István. Neurális hálózatok

Konjugált gradiens módszer

Nemlineáris programozás 2.

Least Squares becslés

Modellkiválasztás és struktúrák tanulása

Megerősítéses tanulás

Deep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök

Visszacsatolt (mély) neurális hálózatok

Mikroelektródás képalkotó eljárások Somogyvári Zoltán

NEURONHÁLÓK ÉS TANÍTÁSUK A BACKPROPAGATION ALGORITMUSSAL. A tananyag az EFOP pályázat támogatásával készült.

Kernel gépek vizsgálata

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Mesterséges Intelligencia MI

Konvolúciós neurális hálózatok (CNN)

Bevezetés a lágy számítás módszereibe. Neurális hálózatok Alapok

Gépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés

[1000 ; 0] 7 [1000 ; 3000]

Gépi tanulás a gyakorlatban. Bevezetés

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Adaptív menetrendezés ADP algoritmus alkalmazásával

Tisztelt Hallgatók! Jó tanulást kívánok, üdvözlettel: Kutor László

A RADARJELEK DETEKTÁLÁSA NEURÁLIS HÁLÓZAT ALKALMAZÁSÁVAL

Kódverifikáció gépi tanulással

Adatbányászati szemelvények MapReduce környezetben

Diszkréten mintavételezett függvények

Adatelemzési eljárások az idegrendszer kutatásban Somogyvári Zoltán

Számítógép és programozás 2

Perceptron konvergencia tétel

Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)

Fuzzy rendszerek és neurális hálózatok alkalmazása a diagnosztikában

2. Elméleti összefoglaló

Osztályozás, regresszió. Nagyméretű adathalmazok kezelése Tatai Márton

Modellezés és szimuláció. Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék

társadalomtudományokban

Mérési struktúrák

II. LABOR Tanulás, Perceptron, Adaline

Digitális technika házi feladat III. Megoldások

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Látórendszer modellezése

Bevezetés az informatikába

Algoritmusok Tervezése. 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás

Segédlet a gyakorlati tananyaghoz GEVAU141B, GEVAU188B c. tantárgyakból

Dinamikus modellek szerkezete, SDG modellek

Mesterséges Intelligencia II. kötelező feladat (3. forduló) - Ajánló rendszer 2.

Gépi tanulás a Rapidminer programmal. Stubendek Attila

Egy csodálatos elme modellje

Képfeldolgozás haladóknak Lovag Tamás Novák Gábor 2011

Tanulás Boltzmann gépekkel. Reiz Andrea

A MESTERSÉGES NEURONHÁLÓZATOK BEVEZETÉSE AZ OKTATÁSBA A GAMF-ON

Intelligens Rendszerek Elmélete

Tartalomjegyzék. Tartalomjegyzék... 3 Előszó... 9

Osztályozási feladatok képdiagnosztikában. Orvosi képdiagnosztikai 2017 ősz

Szomszédság alapú ajánló rendszerek

Mély neuronhálók alkalmazása és optimalizálása

Átírás:

Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function

Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez, és ismétlõdõen vagy folyamatosan hozzájárul annak tüzeléséhez, akkor valamely, egyik vagy mindkét sejtre jellemzõ növekedési folyamat vagy metabolikus változás következménye az lesz, hogy az A sejt hatékonysága a B sejt tüzeléséhez való hozzájárulás szempontjából megnõ."

A tanulás problémája matematikailag Modell paramétereinek hangolása adatok alapján Kettős dinamika Változók (bemenet-kimenet leképezés) - gyors Paraméterek - lassú Memória és tanulás különbsége Memória használatánál a bemenetre egy konkrét kimenetet szeretnék kapni a reprezentáció megváltoztatása nélkül Tanulásnál minden bemenetet felhasználok arra, hogy finomítsam a reprezentációt, miközben kimenetet is generálok Alapvető cél: predikciót adni a jövőbeli történésekre a múlt alapján

A tanulás alapvető típusai Felügyelt Az adat: bemenet-kimenet párok halmaza A cél: függvényapproximáció, klasszifikáció Megerősítéses A cél: optimális stratégia a jutalom maximalizálására Nem felügyelt, reprezentációs Az adat: állapotmegfigyelések és jutalmak Az adat: bemenetek halmaza A cél: az adat optimális reprezentációjának megtalálása / magyarázó modell felírása Egymásba ágyazások

Problémák tanulórendszerekben Bias-variance dilemma Strukturális hiba: a modell optimális paraméterekkel is eltérhet a közelítő függvénytől (pl lineáris modellt illesztünk köbös adatra) Közelítési hiba: a paraméterek pontos hangolásához végtelen tanítópontra lehet szükség Pontosság vs. általánosítás A sokparaméteres modellek jól illeszkednek, de rosszul általánosítanak: túlillesztés A magyarázó képességük is kisebb (lehet): Ockham borotvája

Idegrendszeri plaszticitás A plaszticitás helye: szinapszisok, posztszinaptikus sejtek tüzelési küszöbei (excitabilitás) Potenciáció, depresszió STP: kalciumdinamika, transzmitterkimerülés tartam < 1 perc LTP: génexpresszió (induction, expression, maintenance), NMDA magnézium-blokkja tartam > 1 perc Korreláció a molekuláris és pszichológiai szint között

Tanulásra alkalmas neurális rendszerek Egyetlen sejt Előrecsatolt hálózat Rekurrens hálózat Ezen az órán: rátamodell v = f uw Paraméterek: súlyok, küszöbök Különböző kimeneti nemlinearitások Lépcső Szigmoid Lineáris neuron

A Hebb-szabály Timing-dependent plasticity: Ha a posztszinaptikus neuron nagy frekvenciával közvetlenül a preszinaptikus után tüzel, akkor erősödik a kapcsolat Az alacsony frekvenciájú tüzelés gyengíti a kapcsolatot Sok más lehetőség A Hebb-szabály formalizációja: lineáris ráta-modellben dw w =v u dt

Stabilizált Hebb-szabályok Problémák a Hebb szabállyal: csak nőni tudnak a súlyok Nincs kompetíció a szinapszisok között inputszelektivitás nem megvalósítható Egyszerű megoldás: felső korlát a súlyokra BCM: a posztszinaptikus excitabilitás felhasználása a stabilizásra dw w =v u v u dt d u =v 2 u dt Szinaptikus normalizáció Szubsztraktív normalizáció w v 1 u 1 dw =v u dt Nu Globális szabály, de generál egyes megfigyelt mintázatokat (Ocular dominance) Oja-szabály w dw 2 =v u v u dt Lokális szabály, de nem generálja a megfigyelt mintázatokat

Perceptron Bináris neuron: lineáris szeparáció Két dimenzióban a szeparációs egyenes: = x 1 w1 x 2 w 2 Logikai függvények x2 = w 1 x 1 w2 w2

Hebbi tanulás perceptronnal Nem felügyelt A bemeneti adatok főkomponensei irányába állítja be a súlyokat Felügyelt N dw 1 m m w = v u dt N s m=1 s A kimenetet is meghatározzuk Nem minden tanítóhalmazra lehet így megkonstruálni a szeparáló súlyokat

Error-correcting tanulási szabályok Felhasználjuk azt az információt, hogy milyen messze van a céltól a rendszer Rosenblatt-algoritmus bináris neuron m m w w v v u u m Delta-szabály Folytonos kimenetű neuron gradiens-módszer E w b w b wb 1 N m m 2 E = m v v u 2 s N E m m m = m v v u u wb s lineáris neuronra, egy pontpárra vonatkozó közelítéssel: w w v m v u m u m Minsky-paper 1969: a neurális rendszerek csak lineáris problémákat tudnak megoldani

Multi-Layer Perceptron Nemlineáris szeparáció regresszió egyenletesen sűrű l2-ben egy rejtett réteggel A reprezentációs képességet a rejtett réteg növelésével tudjuk növelni Idegrendszerben látórendszer...

Error backpropagation A Delta-szabály alkalmazása Első lépés: minden neuron kimenetét o=sig xw meghatározzuk a bemenet alapján A hibafüggvény parciális deriváltjai: sig ' y =sig y 1 sig y E =o i i w bi k =o k 1 o k o k t k Minden neuronra: Kimeneti rétegben: Rejtett rétegben: =o 1 o w j j j jq q Mivel gradiens-módszer, a hibafüggvény lokális minimumába fog konvergálni.

Megerősítéses tanulás Állapottér: a szenzorikus (vagy egyéb bemeneti) változók lehetséges értékeinek kombinációjából előálló halmaz Jutalomszignál: bizonyos állapotokban kapunk információt a cselekvésünk sikerességéről Cselekvés: a tanuló megvalósít egy állapotátmenetet (legalábbis megpróbálja) Cél: a jutalom hosszú távú maximalizálása Értékfüggvény: az egyes állapotokhoz rendelt hasznosság Értékfüggvény reprezentációja: Táblázattal (machine learningben) Általános függvényapproximátorral pl. előrecsatolt neurális hálózat Beágyazhatunk egy felügyelt rendszert a megerősítésesbe a háló tanítására

Temporal difference learning Prediction error felhasználása a tanuláshoz Az állapotérték frissítése neurális reprezentációban: w w t u t t = r t v t A prediction error kiszámítása A teljes jövőbeli jutalom kellene hozzá Egylépéses lokális közelítést alkalmazunk r t v t r t v t 1 Ha a környezet megfigyelhető, akkor az optimális stratégiához konvergál A hibát visszaterjeszthetjük a korábbi állapotokra is (hasonlóan a backpropagation algoritmushoz) Akciókiválasztás: exploration vs. exploitation

TD tanulás neurális hálózattal Gerald Tesauro: TD-Gammon Bemenet: a lehetséges lépések nyomán elért állapotok Kimenet: állapotérték (nyerési valség) Minden lépésben meg kell határozni a hálózat kimeneti hibáját Előrecsatolt hálózat Reward signal alapján Eredmény: a legjobb emberi játékosokkal összemérhető

The effect of reward in dopaminerg cell of basal ganglia An interpretation: Dopamine cells signals the difference between the expected and received reward.