Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Hasonló dokumentumok
Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Tanulás az idegrendszerben

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla

Megerősítéses tanulás

Stratégiák tanulása az agyban

Intelligens Rendszerek Gyakorlata. Neurális hálózatok I.

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

I. LABOR -Mesterséges neuron

TARTALOMJEGYZÉK. TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS A lágy számításról A könyv célkitűzése és felépítése...

FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE

Intelligens orvosi műszerek VIMIA023

Gépi tanulás a gyakorlatban. Lineáris regresszió

Intelligens Rendszerek Elmélete

Bevezetés a neurális számításokba Analóg processzortömbök,

Az idegrendszeri memória modelljei

NEURÁLIS HÁLÓZATOK 1. eloadás 1

Neurális hálózatok bemutató

Biológiai és mesterséges neurális hálózatok

Az idegrendszeri memória modelljei

E x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes)

Kovács Ernő 1, Füvesi Viktor 2

Neurális hálózatok.... a gyakorlatban

Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás

Hibadetektáló rendszer légtechnikai berendezések számára

Neurális hálózatok MATLAB programcsomagban

Gépi tanulás Gregorics Tibor Mesterséges intelligencia

Debreceni Egyetem Informatikai Kar. Fazekas István. Neurális hálózatok

Funkcionális konnektivitás vizsgálata fmri adatok alapján

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Megerősítéses tanulás

Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok

[1000 ; 0] 7 [1000 ; 3000]

Számítógép és programozás 2

Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL

Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban

Google Summer of Code Project

A RADARJELEK DETEKTÁLÁSA NEURÁLIS HÁLÓZAT ALKALMAZÁSÁVAL

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Nemlineáris programozás 2.

Least Squares becslés

Mikroelektródás képalkotó eljárások Somogyvári Zoltán

Konjugált gradiens módszer

Kernel gépek vizsgálata

Tisztelt Hallgatók! Jó tanulást kívánok, üdvözlettel: Kutor László

Lineáris regressziós modellek 1

Megerősítéses tanulási módszerek és alkalmazásaik

Neura lis ha lo zatok

Teljesen elosztott adatbányászat pletyka algoritmusokkal. Jelasity Márk Ormándi Róbert, Hegedűs István

Algoritmusok Tervezése. 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás

Modellkiválasztás és struktúrák tanulása

Fuzzy rendszerek és neurális hálózatok alkalmazása a diagnosztikában

Bevezetés a lágy számítás módszereibe. Neurális hálózatok Alapok

Adatbányászati szemelvények MapReduce környezetben

NEURONHÁLÓK ÉS TANÍTÁSUK A BACKPROPAGATION ALGORITMUSSAL. A tananyag az EFOP pályázat támogatásával készült.

Konvolúciós neurális hálózatok (CNN)

Gépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés

IONCSATORNÁK. I. Szelektivitás és kapuzás. III. Szabályozás enzimek és alegységek által. IV. Akciós potenciál és szinaptikus átvitel

Perceptron konvergencia tétel

Diszkréten mintavételezett függvények

Megerősítéses tanulás 9. előadás

Nem-lineáris programozási feladatok

Megerősítéses tanulás 2. előadás

2. Elméleti összefoglaló

Deep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök

Forgalmi modellezés BMEKOKUM209

Modellezés és szimuláció. Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék

Osztályozás, regresszió. Nagyméretű adathalmazok kezelése Tatai Márton

Megerősítéses tanulás 7. előadás

Adatelemzési eljárások az idegrendszer kutatásban Somogyvári Zoltán

Visszacsatolt (mély) neurális hálózatok

Mérési struktúrák

Digitális technika házi feladat III. Megoldások

II. LABOR Tanulás, Perceptron, Adaline

Képfeldolgozás haladóknak Lovag Tamás Novák Gábor 2011

Mesterséges intelligencia

Gépi tanulás a gyakorlatban. Bevezetés

A neurális hálók logisztikai alkalmazhatósága

Néhány nem hagyományos matematikai modell (Ezeket rejtett modellnek is nevezik, ritkán modell nélküli rendszerről beszélnek.)

Dinamikus modellek szerkezete, SDG modellek

Bevezetés az informatikába

Osztályozási feladatok képdiagnosztikában. Orvosi képdiagnosztikai 2017 ősz

Intelligens Rendszerek Elmélete

Kódolás az idegrendszerben

Neurális hálózatok Altrichter, Márta Horváth, Gábor Pataki, Béla Strausz, György Takács, Gábor Valyon, József

NEURONHÁLÓS HANGTÖMÖRÍTÉS. Áfra Attila Tamás

társadalomtudományokban

Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet

Tartalomjegyzék. Tartalomjegyzék... 3 Előszó... 9

Magasabb idegrendszeri folyamatok

A MESTERSÉGES NEURONHÁLÓZATOK BEVEZETÉSE AZ OKTATÁSBA A GAMF-ON

Mesterséges Intelligencia II. kötelező feladat (3. forduló) - Ajánló rendszer 2.

Online algoritmusok. Algoritmusok és bonyolultságuk. Horváth Bálint március 30. Horváth Bálint Online algoritmusok március 30.

Kódverifikáció gépi tanulással

Ahonnan letölthető az anyag (egy része):

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Átírás:

Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function

Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez, és ismétlõdõen vagy folyamatosan hozzájárul annak tüzeléséhez, akkor valamely, egyik vagy mindkét sejtre jellemzõ növekedési folyamat vagy metabolikus változás következménye az lesz, hogy az A sejt hatékonysága a B sejt tüzeléséhez való hozzájárulás szempontjából megnõ."

A tanulás problémája matematikailag Modell paramétereinek hangolása adatok alapján Kettős dinamika Változók (bemenet-kimenet leképezés) - gyors Paraméterek - lassú Memória és tanulás különbsége Memória használatánál a bemenetre egy konkrét kimenetet szeretnék kapni a reprezentáció megváltoztatása nélkül Tanulásnál minden bemenetet felhasználok arra, hogy finomítsam a reprezentációt, miközben kimenetet is generálok Alapvető cél: predikciót adni a jövőbeli történésekre a múlt alapján

A tanulás alapvető típusai Felügyelt Az adat: bemenet-kimenet párok halmaza A cél: függvényapproximáció, klasszifikáció Megerősítéses Az adat: állapotmegfigyelések és jutalmak A cél: optimális stratégia a jutalom maximalizálására Nem felügyelt, reprezentációs Az adat: bemenetek halmaza A cél: az adat optimális reprezentációjának megtalálása / magyarázó modell felírása Egymásba ágyazások

Problémák tanulórendszerekben Bias-variance dilemma Strukturális hiba: a modell optimális paraméterekkel is eltérhet a közelítő függvénytől (pl lineáris modellt illesztünk köbös adatra) Közelítési hiba: a paraméterek pontos hangolásához végtelen tanítópontra lehet szükség Pontosság vs. általánosítás A sokparaméteres modellek jól illeszkednek, de rosszul általánosítanak: túlillesztés A magyarázó képességük is kisebb (lehet): Ockham borotvája

Idegrendszeri plaszticitás A plaszticitás helye: szinapszisok, posztszinaptikus sejtek tüzelési küszöbei (excitabilitás) Potenciáció, depresszió STP: kalciumdinamika, transzmitterkimerülés tartam < 1 perc LTP: génexpresszió (induction, expression, maintenance), NMDA magnézium-blokkja tartam > 1 perc Korreláció a molekuláris és pszichológiai szint között

Tanulásra alkalmas neurális rendszerek Egyetlen sejt Előrecsatolt hálózat Rekurrens hálózat Ezen az órán: rátamodell v= f uw Paraméterek: súlyok, küszöbök Különböző kimeneti nemlinearitások Lépcső Szigmoid Lineáris neuron

Timing-dependent plasticity: A Hebb-szabály Ha a posztszinaptikus neuron nagy frekvenciával közvetlenül a preszinaptikus után tüzel, akkor erősödik a kapcsolat Az alacsony frekvenciájú tüzelés gyengíti a kapcsolatot Sok más lehetőség A Hebb-szabály formalizációja: lineáris ráta-modellben w d w dt =v u

Stabilizált Hebb-szabályok Problémák a Hebb szabállyal: csak nőni tudnak a súlyok Nincs kompetíció a szinapszisok között inputszelektivitás nem megvalósítható Egyszerű megoldás: felső korlát a súlyokra BCM: a posztszinaptikus excitabilitás felhasználása a stabilizásra w d w dt =v u v u d u dt =v 2 u Szinaptikus normalizáció Szubsztraktív normalizáció w d w dt =v u v 1 u 1 N u Globális szabály, de generál egyes megfigyelt mintázatokat (Ocular dominance) Oja-szabály w d w dt =v u v2 u Lokális szabály, de nem generálja a megfigyelt mintázatokat

Perceptron Bináris neuron: lineáris szeparáció Két dimenzióban a szeparációs egyenes: = x 1 w 1 x 2 w 2 x 2 = w 1 w 2 x 1 w 2 Logikai függvények

Hebbi tanulás perceptronnal Nem felügyelt A bemeneti adatok főkomponensei irányába állítja be a súlyokat Felügyelt d w w dt = 1 N s N m=1 s v m u m A kimenetet is meghatározzuk Nem minden tanítóhalmazra lehet így megkonstruálni a szeparáló súlyokat

Error-correcting tanulási szabályok Felhasználjuk azt az információt, hogy milyen messze van a céltól a rendszer Rosenblatt-algoritmus bináris neuron w w v m v u m u m Delta-szabály Folytonos kimenetű neuron gradiens-módszer w b w b E w b E = 1 2 m lineáris neuronra, egy pontpárra vonatkozó közelítéssel: w w v m v u m u m N s v m v u m 2 E N s = w m v m v u m u m b Minsky-paper 1969: a neurális rendszerek csak lineáris problémákat tudnak megoldani

Multi-Layer Perceptron Nemlineáris szeparáció regresszió egyenletesen sűrű l2-ben egy rejtett réteggel A reprezentációs képességet a rejtett réteg növelésével tudjuk növelni Idegrendszerben látórendszer...

Error backpropagation A Delta-szabály alkalmazása Első lépés: minden neuron kimenetét meghatározzuk a bemenet alapján A hibafüggvény parciális deriváltjai: sig ' y =sig y 1 sig y o=sig xw Minden neuronra: Kimeneti rétegben: Rejtett rétegben: E w bi =o i i k =o k 1 o k o k t k j =o j 1 o j w jq q Mivel gradiens-módszer, a hibafüggvény lokális minimumába fog konvergálni.