Tanulás az idegrendszerben

Hasonló dokumentumok
Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Megerősítéses tanulás

Stratégiák tanulása az agyban

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

Intelligens Rendszerek Gyakorlata. Neurális hálózatok I.

TARTALOMJEGYZÉK. TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS A lágy számításról A könyv célkitűzése és felépítése...

I. LABOR -Mesterséges neuron

FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE

Probabilisztikus funkcionális modellek idegrendszeri adatok elemzésére

Intelligens orvosi műszerek VIMIA023

NEURÁLIS HÁLÓZATOK 1. eloadás 1

Neurális hálózatok bemutató

Az idegrendszeri memória modelljei

Bevezetés a neurális számításokba Analóg processzortömbök,

Gépi tanulás a gyakorlatban. Lineáris regresszió

Google Summer of Code Project

Intelligens Rendszerek Elmélete

Biológiai és mesterséges neurális hálózatok

Modellkiválasztás és struktúrák tanulása

Neurális hálózatok.... a gyakorlatban

Egy csodálatos elme modellje

Lineáris regressziós modellek 1

A RADARJELEK DETEKTÁLÁSA NEURÁLIS HÁLÓZAT ALKALMAZÁSÁVAL

Az idegrendszeri memória modelljei

Kovács Ernő 1, Füvesi Viktor 2

Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL

Funkcionális konnektivitás vizsgálata fmri adatok alapján

Debreceni Egyetem Informatikai Kar. Fazekas István. Neurális hálózatok

Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Least Squares becslés

Osztályozás, regresszió. Nagyméretű adathalmazok kezelése Tatai Márton

Neurális hálózatok MATLAB programcsomagban

Megerősítéses tanulás 2. előadás

Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok

Gépi tanulás Gregorics Tibor Mesterséges intelligencia

Gépi tanulás a gyakorlatban SVM

Számítógép és programozás 2

E x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes)

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Megerősítéses tanulás

Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban

Fuzzy rendszerek és neurális hálózatok alkalmazása a diagnosztikában

Nem-lineáris programozási feladatok

Konjugált gradiens módszer

Hibadetektáló rendszer légtechnikai berendezések számára

Deep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök

Modellezés és szimuláció. Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék

Forgalmi modellezés BMEKOKUM209

Látórendszer modellezése

KÖZELÍTŐ INFERENCIA II.

Bevezetés a lágy számítás módszereibe. Neurális hálózatok Alapok

Kódverifikáció gépi tanulással

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Adatbányászati szemelvények MapReduce környezetben

A MESTERSÉGES NEURONHÁLÓZATOK BEVEZETÉSE AZ OKTATÁSBA A GAMF-ON

Visszacsatolt (mély) neurális hálózatok

NEURONHÁLÓK ÉS TANÍTÁSUK A BACKPROPAGATION ALGORITMUSSAL. A tananyag az EFOP pályázat támogatásával készült.

CARE. Biztonságos. otthonok idős embereknek CARE. Biztonságos otthonok idős embereknek Dr. Vajda Ferenc Egyetemi docens

Konvolúciós neurális hálózatok (CNN)

KÖZELÍTŐ INFERENCIA II.

Tisztelt Hallgatók! Jó tanulást kívánok, üdvözlettel: Kutor László

Diszkréten mintavételezett függvények

Tartalomjegyzék. Tartalomjegyzék... 3 Előszó... 9

A neurális hálók logisztikai alkalmazhatósága

Megerősítéses tanulási módszerek és alkalmazásaik

Nemlineáris programozás 2.

Megerősítéses tanulás 7. előadás

[1000 ; 0] 7 [1000 ; 3000]

Gépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés

Algoritmusok Tervezése. 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás

Perceptron konvergencia tétel

Adaptív menetrendezés ADP algoritmus alkalmazásával

Mikroelektródás képalkotó eljárások Somogyvári Zoltán

Online algoritmusok. Algoritmusok és bonyolultságuk. Horváth Bálint március 30. Horváth Bálint Online algoritmusok március 30.

Osztályozási feladatok képdiagnosztikában. Orvosi képdiagnosztikai 2017 ősz

Mérési struktúrák

Ellátási lánc optimalizálás P-gráf módszertan alkalmazásával mennyiségi és min ségi paraméterek gyelembevételével

Jelfeldolgozás. Gyakorlat: A tantermi gyakorlatokon való részvétel kötelező! Kollokvium: csak gyakorlati jeggyel!

Mesterséges Intelligencia MI

Teljesen elosztott adatbányászat alprojekt

Kódolás az idegrendszerben

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók 2. Pataki Béla

Projektfeladatok 2014, tavaszi félév

Adatelemzési eljárások az idegrendszer kutatásban Somogyvári Zoltán

Teljesen elosztott adatbányászat pletyka algoritmusokkal. Jelasity Márk Ormándi Róbert, Hegedűs István

Neura lis ha lo zatok

Néhány nem hagyományos matematikai modell (Ezeket rejtett modellnek is nevezik, ritkán modell nélküli rendszerről beszélnek.)

Statisztikai tanulás az idegrendszerben, Bevezetés. Bányai Mihály

Mély neuronhálók alkalmazása és optimalizálása

Mesterséges neurális hálók

SAT probléma kielégíthetőségének vizsgálata. masszív parallel. mesterséges neurális hálózat alkalmazásával

Kollektív tanulás milliós hálózatokban. Jelasity Márk

Átírás:

Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function

Funkcióvezérelt modellezés Abból indulunk ki, hogy milyen feladatot valósít meg a rendszer Horace Barlow: "A wing would be a most mystifying structure if one did not know that birds flew." Teleologikus jellegű megközelítés

Az idegrendszer funkciója Rodolfo Llinás: az egyetlen funkció a mozgatás Adaptív kontroll Helmholtz: tudattalan következtetés

Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez, és ismétlődően vagy folyamatosan hozzájárul annak tüzeléséhez, akkor valamely, egyik vagy mindkét sejtre jellemző növekedési folyamat vagy metabolikus változás következménye az lesz, hogy az A sejt hatékonysága a B sejt tüzeléséhez való hozzájárulás szempontjából megnő."

Kölcsönhatás az MI-vel Az MI azóta machine learning lett (plusz data mining, stb.) Eleinte az idegtudomány inspirálta az MI-t mesterséges neuronhálózatok Az információáramlás jelenleg főként fordított ML módszerek az idegi funkciók modellezésére

A tanulás problémája matematikailag Modell paramétereinek hangolása adatok alapján Kettős dinamika Változók (bemenet-kimenet leképezés) - gyors Paraméterek - lassú Memória és tanulás különbsége Memória használatánál a bemenetre egy konkrét kimenetet szeretnék kapni a reprezentáció megváltoztatása nélkül Tanulásnál minden bemenetet felhasználok arra, hogy finomítsam a reprezentációt, miközben kimenetet is generálok

A tanulás alapvető típusai Felügyelt Az adat: bemenet-kimenet párok halmaza A cél: függvényapproximáció, klasszifikáció Megerősítéses Az adat: állapotmegfigyelések és jutalmak A cél: optimális stratégia a jutalom maximalizálására Nem felügyelt, reprezentációs Az adat: bemenetek halmaza A cél: az adat optimális reprezentációjának megtalálása / magyarázó modell felírása Egymásba ágyazások

Lényegkiemelés - Feature selection - A lényegtelen információ, zaj elhagyása - Nem a tanulás célja, de nagyon megkönnyíti a célfüggvény reprezentációját - Invarianciák tanulása - például vizuális objektumfelismerésnél látószög, távolság,... - valós és véges megyfigyelésszámból következő invarianciák elkülönítése - A kimenet és a bemenet közötti köztes reprezentáció, rejtett változók 8

Computational neuroscience Az agy számításokat végez Numerikus számításokat végzünk az agy modellezése céljából Köze van az idegrendszerhez: - neurokémia - sejtek dinamikája - neuronhálózatok - agyterületek - viselkedés

Idegrendszeri plaszticitás A plaszticitás helye: szinapszisok, posztszinaptikus sejtek tüzelési küszöbei (excitabilitás) Potenciáció, depresszió STP: kalciumdinamika, transzmitterkimerülés tartam < 1 perc LTP: génexpresszió (induction, expression, maintenance), NMDA magnéziumblokkja tartam > 1 perc

Tanulásra alkalmas neurális rendszerek Egyetlen sejt Előrecsatolt hálózat Rekurrens hálózat Ezen az órán: rátamodell = f(uw ) Paraméterek: súlyok, küszöbök Különböző kimeneti nemlinearitások Lépcső Szigmoid Lineáris neuron

A Hebb-szabály Timing-dependent plasticity: Ha a posztszinaptikus neuron nagy frekvenciával közvetlenül a preszinaptikus után tüzel, akkor erősödik a kapcsolat Az alacsony frekvenciájú tüzelés gyengíti a kapcsolatot Sok más lehetőség dw dt = vu

Stabilizált Hebb-szabályok Problémák a Hebb szabállyal: csak nőni tudnak a súlyok Nincs kompetíció a szinapszisok között inputszelektivitás nem megvalósítható Egyszerű megoldás: felső korlát a súlyokra Szinaptikus normalizáció Szubsztraktív normalizáció w dw dt = vu v(1 u)1 N u Globális szabály, de generál egyes megfigyelt mintázatokat (Ocular dominance) Oja-szabály w dw dt = vu v2 u Lokális szabály, de nem generálja a megfigyelt mintázatokat

Perceptron Bináris neuron: lineáris szeparáció Két dimenzióban a szeparációs egyenes: = x 1 w 1 + x 2 w 2 x 2 = w 1 w 2 x 1 + w 2 Logikai függvények

Hebbi tanulás perceptronnal Felügyelt A bemenetet és a kimenetet is meghatározzuk Nem minden tanítóhalmazra lehet így megkonstruálni a szeparáló súlyokat Hogyan lehet jobb szabályt konstruálni? w dw dt = 1 N s XN s m=1 v m u m

Error-correcting tanulási szabályok Felhasználjuk azt az információt, hogy milyen messze van a céltól a rendszer Rosenblatt-algoritmus bináris neuron w = w + (v m Delta-szabály v(u m ))u m Folytonos kimenetű neuron gradiens-módszer w b = w b @E @w b E = 1 2 lineáris neuronra, egy pontpárra vonatkozó közelítéssel: w = w + (v m XN s m=1 (v m v(u m )) 2 @E = @w b v(u m ))u m Minsky-Papert 1969: a neurális rendszerek csak lineáris problémákat tudnak megoldani XN s m=1 (v m v(u m ))u m

Multi-Layer Perceptron Nemlineáris szeparáció regresszió egyenletesen sűrű l2- ben egy rejtett réteggel A reprezentációs képességet a rejtett réteg növelésével tudjuk növelni Idegrendszerben látórendszer...

Error backpropagation A Delta-szabály alkalmazása Első lépés: minden neuron kimenetét meghatározzuk a bemenet alapján A hibafüggvény parciális deriváltjai: o = sig(xw) sig 0 (y) =sig(y)(1 Minden neuronra: Kimeneti rétegben: Rejtett rétegben: sig(y)) @E @w bi = o i i k = o k (1 o k )(o k t k ) j = o j (1 o j ) X w jq q Mivel gradiens-módszer, a hibafüggvény lokális minimumába fog konvergálni.

Deep vs shallow learning Egy rejtett réteggel az előrecsatolt hálózatok tetszőleges véges energiájú függvényt tudnak közelíteni a rejtett neuronok számától függő pontossággal Továbbfejlesztés: Support Vector Machine Deep learning: egymásra épülő rejtett rétegek hierarchiája 19

Rekurrens hálózatok - Megengedjük a rejtett rétegbeli kapcsolatokat - Egy végtelen rejtett réteggel rendelkező előrecsatolt hálónak felel meg - Backproapagation through time 20

Sztochasztikus tanulás Eddig: a paraméterekre és a rejtett változókra pontbecslést adunk. Tanulható teljes eloszlás is. Sztochasztikus neuron: P (o i = 1) = sig(x i w i ) A hálózat sejtjeinek aktivitása az általuk reprezentált változók együttes eloszlása szerint változik 21

Problémák tanulórendszerekben Bias-variance dilemma Strukturális hiba: a modell optimális paraméterekkel is eltérhet a közelítő függvénytől (pl lineáris modellt illesztünk köbös adatra) Közelítési hiba: a paraméterek pontos hangolásához végtelen tanítópontra lehet szükség Pontosság vs. általánosítás A sokparaméteres modellek jól illeszkednek, de rosszul általánosítanak: túlillesztés A magyarázó képességük is kisebb (lehet): Ockham borotvája