Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function



Hasonló dokumentumok
Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Tanulás az idegrendszerben

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Megerősítéses tanulás

Stratégiák tanulása az agyban

Debreceni Egyetem Informatikai Kar. Fazekas István. Neurális hálózatok

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla

Mikroelektródás képalkotó eljárások Somogyvári Zoltán

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Tisztelt Hallgatók! Jó tanulást kívánok, üdvözlettel: Kutor László

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

IONCSATORNÁK. I. Szelektivitás és kapuzás. III. Szabályozás enzimek és alegységek által. IV. Akciós potenciál és szinaptikus átvitel

Orvosi diagnosztikai célú röntgenképfeldolgozás

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Az idegrendszeri memória modelljei

Intelligens Rendszerek Gyakorlata. Neurális hálózatok I.

NEURÁLIS HÁLÓZATOK 1. eloadás 1

I. LABOR -Mesterséges neuron

Nemszinaptikus receptorok és szubmikronos Ca2+ válaszok: A két-foton lézermikroszkópia felhasználása a farmakológiai vizsgálatokra.

Megerősítéses tanulás

DT13xx Gyújtószikramentes NAMUR / kontaktus leválasztók

Neurális hálózatok bemutató

Fogalom értelmezések I.

Bevezetés a neurális számításokba Analóg processzortömbök,

Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL

Tanulás és memória. A tanulás és a memória formái, agyi lokalizációjuk és celluláris mechanizmusok. Pszichofiziológia ea.

NEURONHÁLÓS HANGTÖMÖRÍTÉS. Áfra Attila Tamás

Az idegrendszeri memória modelljei

FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE

Állandó tartós halhatatlan, könnyő átvinni reprodukálni,(oktatni a szakértıi rendszerhasználatát kell)

Miskolci Egyetem Gazdaságtudományi Kar Vezetéstudományi Intézet. Doktori Iskola. Egyetemi tanár A közgazdaságtudományok kandidátusa

Motiváci. ció. élőfej. A motiváci. ció fogalma. Minden belső, cselekvésre ösztönző tényező (Barkóczy)

Intelligens orvosi műszerek VIMIA023

TARTALOMJEGYZÉK. TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS A lágy számításról A könyv célkitűzése és felépítése...

Egy idegsejt működése

Probabilisztikus modellek V: Struktúra tanulás. Nagy Dávid

Biológiai és mesterséges neurális hálózatok

Bevezetés a lágy számítás módszereibe. Neurális hálózatok Alapok

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.

AZ IDEGRENDSZER PLASZTICITÁSA TANULÁS. EMLÉKEZÉS (memória)

I S R G Gépi tanulás, neuronhálók

Kondenzátorvédelmi funkció feszültségváltós kettős csillagkapcsolású telepre

Kemenes György 2003/8. ETOLÓGIA

Az idegrendszer és a hormonális rednszer szabályozó működése

Perceptron konvergencia tétel

100% BIO Natur/Bio kozmetikumok és testápolás

AKTUÁTOR MODELLEK KIVÁLASZTÁSA ÉS OBJEKTÍV ÖSSZEHASONLÍTÁSA

Autoasszociatív mesterséges neurális hálózatok dinamikájának összehasonlító vizsgálata

ELTE TáTK Közgazdaságtudományi Tanszék MUNKAGAZDASÁGTAN. Készítette: Köllő János. Szakmai felelős: Köllő János január

Irányítástechnika. II. rész. Dr. Turóczi Antal

LTI Rendszerek Dinamikus Analízise és Szabályozásának Alapjai

Vektorugrás védelmi funkció blokk

Matematikai alapok. Dr. Iványi Péter

Osztályozás, regresszió. Nagyméretű adathalmazok kezelése Tatai Márton

AZ ESÉLY AZ ÖNÁLLÓ ÉLETKEZDÉSRE CÍMŰ, TÁMOP / AZONOSÍTÓSZÁMÚ PÁLYÁZAT. Szakmai Nap II február 5.

A nyugalmi potenciál megváltozása

Neurális hálózatok.... a gyakorlatban

PARAMÉTERES GÖRBÉK ALKALMAZÁSA VALÓSIDE- JŰ DIGITÁLIS HANGFELDOLGOZÁS SORÁN

AZ EMBERI TEST FELÉPÍTÉSE

A tanulási és emlékezési zavarok pathofiziológiája. Szeged,

Visszacsatolt (mély) neurális hálózatok

Az orvosi biotechnológiai mesterképzés megfeleltetése az Európai Unió új társadalmi kihívásainak a Pécsi Tudományegyetemen és a Debreceni Egyetemen

Az agykéreg és az agykérgi aktivitás mérése

BACK-PROPAGATION NEURON HÁLÓ LOGIKAI JÁTÉK JÁTSZÓ KÉPESSÉGÉNEK VIZSGÁLATA

II. félév, 8. ANATÓMIA elıadás JGYTFK, Testnevelési és Sporttudományi Intézet. Idegrendszer SYSTEMA NERVOSUM

MIKROÖKONÓMIA I. Készítette: K hegyi Gergely és Horn Dániel. Szakmai felel s: K hegyi Gergely június

Az áttétel idegtudományi megközelítése. Bokor László

Fényreceptorok szem felépítése retina csapok/pálcikák fénytör közegek

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Determinisztikus folyamatok. Kun Ferenc

Dr. Kuczmann Miklós JELEK ÉS RENDSZEREK

INFORMATIKAI ALAPISMERETEK


Nevezetes függvények

(11) Lajstromszám: E (13) T2 EURÓPAI SZABADALOM SZÖVEGÉNEK FORDÍTÁSA

Gerhátné Udvary Eszter

JUMO. Beépíthetõ ház DIN szerint. Rövid leírás. Blokkvázlat. Sajátságok. JUMO dtron 16.1

I. Gondolkodási módszerek: (6 óra) 1. Gondolkodási módszerek, a halmazelmélet elemei, a logika elemei. 1. Számfogalom, műveletek (4 óra)

Adatbányászati technikák (VISZM185) 2015 tavasz

HU-3515 Miskolc-Egyetemváros tel.: +36-(46) mellék: 12-16, 12-18, fax : +36-(46) elkke@uni-miskolc.hu

DT1100 xx xx. Galvanikus leválasztó / tápegység. Kezelési útmutató

5 Egyéb alkalmazások. 5.1 Akkumulátorok töltése és kivizsgálása Akkumulátor típusok

Szabályozó rendszerek. Az emberi szervezet különbözı szerveinek a. mőködését a szabályozás szervrendszere hangolja

Egyszerű programozási tételek

Mintavételezés: Kvantálás:


Gyógyszerészeti neurobiológia. Idegélettan

Választható önálló LabView feladatok 2009 A zárójelben szereplő számok azt jelentik, hogy hány főnek lett kiírva a feladat

konfidencia-intervallum Logikai vektorok az R-ben március 14.

DT920 Fordulatszámmérő

XXI. Országos Ajtonyi István Irányítástechnikai Programozó Verseny

Online tanulás nemstacionárius Markov döntési folyamatokban

A sejtmembrán szabályozó szerepe fiziológiás körülmények között és kóros állapotokban

EGÉSZSÉGÜGYI DÖNTÉS ELŐKÉSZÍTŐ

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

Modellezés, predikció és szimuláció a termelésoptimalizálásban

Adatbányászati módszerek alkalmazása a Robert Bosch számára

SAT probléma kielégíthetőségének vizsgálata. masszív parallel. mesterséges neurális hálózat alkalmazásával

Valószínűségi modellek

Átírás:

Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function

Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez, és ismétlõdõen vagy folyamatosan hozzájárul annak tüzeléséhez, akkor valamely, egyik vagy mindkét sejtre jellemzõ növekedési folyamat vagy metabolikus változás következménye az lesz, hogy az A sejt hatékonysága a B sejt tüzeléséhez való hozzájárulás szempontjából megnõ."

Idegrendszeri plaszticitás A plaszticitás helye: szinapszisok, posztszinaptikus sejtek tüzelési küszöbei (excitabilitás) Potenciáció, depresszió STP: kalciumdinamika, transzmitterkimerülés tartam < 1 perc LTP: génexpresszió (induction, expression, maintenance), NMDA magnézium-blokkja tartam > 1 perc Korreláció a molekuláris és pszichológiai szint között

A Hebb-szabály Timing-dependent plasticity: Ha a posztszinaptikus neuron nagy frekvenciával közvetlenül a preszinaptikus után tüzel, akkor erősödik a kapcsolat Az alacsony frekvenciájú tüzelés gyengíti a kapcsolatot Sok más lehetőség A Hebb-szabály formalizációja: lineáris ráta-modellben w d w dt =v u

Stabilizált Hebb-szabályok Problémák a Hebb szabállyal: csak nőni tudnak a súlyok Nincs kompetíció a szinapszisok között inputszelektivitás nem megvalósítható Egyszerű megoldás: felső korlát a súlyokra BCM: a posztszinaptikus excitabilitás felhasználása a stabilizásra w d w dt =v u v u d u dt =v 2 u Szinaptikus normalizáció Szubsztraktív normalizáció w d w dt =v u v 1 u 1 N u Globális szabály, de generál egyes megfigyelt mintázatokat (Ocular dominance) Oja-szabály w d w dt =v u v2 u Lokális szabály, de nem generálja a megfigyelt mintázatokat

A tanulás problémája általánosan Modell paramétereinek hangolása adatok alapján Kettős dinamika Változók (bemenet-kimenet leképezés) - gyors Paraméterek - lassú Memória és tanulás különbsége Memória használatánál a bemenetre egy konkrét kimenetet szeretnék kapni a reprezentáció megváltoztatása nélkül Tanulásnál minden bemenetet felhasználok arra, hogy finomítsam a reprezentációt, miközben kimenetet is generálok Alapvető cél: predikciót adni a jövőbeli történésekre a múlt alapján

A tanulás alapvető típusai Felügyelt Az adat: bemenet-kimenet párok halmaza A cél: függvényapproximáció, klasszifikáció Megerősítéses Az adat: állapotmegfigyelések és jutalmak A cél: optimális stratégia a jutalom maximalizálására Nem felügyelt, reprezentációs Az adat: bemenetek halmaza A cél: az adat optimális reprezentációjának megtalálása / magyarázó modell felírása Egymásba ágyazások

Problémák tanulórendszerekben Bias-variance dilemma Strukturális hiba: a modell optimális paraméterekkel is eltérhet a közelítő függvénytől (pl lineáris modellt illesztünk köbös adatra) Közelítési hiba: a paraméterek pontos hangolásához végtelen tanítópontra lehet szükség Pontosság vs. általánosítás A sokparaméteres modellek jól illeszkednek, de rosszul általánosítanak: túlillesztés A magyarázó képességük is kisebb (lehet): Ockham borotvája

Tanulásra alkalmas neurális rendszerek Egyetlen sejt Előrecsatolt hálózat Rekurrens hálózat Ezen az órán: rátamodell v= f uw Paraméterek: súlyok, küszöbök Különböző kimeneti nemlinearitások Lépcső Szigmoid Lineáris neuron

Perceptron Bináris neuron: lineáris szeparáció Két dimenzióban a szeparációs egyenes: = x 1 w 1 x 2 w 2 x 2 = w 1 w 2 x 1 w 2 Logikai függvények

Hebbi tanulás perceptronnal Nem felügyelt A bemeneti adatok főkomponensei irányába állítja be a súlyokat Felügyelt d w w dt = 1 N s N m=1 s v m u m A kimenetet is meghatározzuk Nem minden tanítóhalmazra lehet így megkonstruálni a szeparáló súlyokat

Error-correcting tanulási szabályok Felhasználjuk azt az információt, hogy milyen messze van a céltól a rendszer Rosenblatt-algoritmus bináris neuron Delta-szabály w w v m v u m u m Folytonos kimenetű neuron gradiens-módszer w b w b E w b E = 1 2 m N s v m v u m 2 E N s = w m v m v u m u m b lineáris neuronra, egy pontpárra vonatkozó közelítéssel: w w v m v u m u m Minsky-paper 1969: a neurális rendszerek csak lineáris problémákat tudnak megoldani

Multi-Layer Perceptron Nemlineáris szeparáció regresszió egyenletesen sűrű l2-ben egy rejtett réteggel A reprezentációs képességet a rejtett réteg növelésével tudjuk növelni Idegrendszerben látórendszer...

Error backpropagation A Delta-szabály alkalmazása Első lépés: minden neuron kimenetét meghatározzuk a bemenet alapján A hibafüggvény parciális deriváltjai: sig ' y =sig y 1 sig y o=sig xw Minden neuronra: Kimeneti rétegben: Rejtett rétegben: E w bi =o i i k =o k 1 o k o k t k j =o j 1 o j w jq q Mivel gradiens-módszer, a hibafüggvény lokális minimumába fog konvergálni.

Megerősítéses tanulás Állapottér: a szenzorikus (vagy egyéb bemeneti) változók lehetséges értékeinek kombinációjából előálló halmaz Jutalomszignál: bizonyos állapotokban kapunk információt a cselekvésünk sikerességéről Cselekvés: a tanuló megvalósít egy állapotátmenetet (legalábbis megpróbálja) Cél: a jutalom hosszú távú maximalizálása Értékfüggvény: az egyes állapotokhoz rendelt hasznosság Értékfüggvény reprezentációja: Táblázattal (machine learningben) Általános függvényapproximátorral pl. előrecsatolt neurális hálózat Beágyazhatunk egy felügyelt rendszert a megerősítésesbe a háló tanítására

Temporal difference learning Prediction error felhasználása a tanuláshoz Az állapotérték frissítése neurális reprezentációban: w w t u t t = r t v t A prediction error kiszámítása A teljes jövőbeli jutalom kellene hozzá Egylépéses lokális közelítést alkalmazunk r t v t r t v t 1 Ha a környezet megfigyelhető, akkor az optimális stratégiához konvergál A hibát visszaterjeszthetjük a korábbi állapotokra is (hasonlóan a backpropagation algoritmushoz) Akciókiválasztás: exploration vs. exploitation

Reward-szignál az agyban A ventrális tegmentális terület dopaminerg rendszerének aktivitása korrelál a jutalom predikciós hibájával: Stimulus-jutalom asszociációt tanítottak meg egy majomnak (A ábra) A dopaminerg rendszer baseline alatti inhibícióval reagál a jutalom elmaradására a tanulás után

Házi feladat Reprodukáljuk a D-A supervised-hebb ábráját! Generáljuk bemeneti vektorok százelemű halmazát, és definiáljunk 100 különböző lineáris szeparációt közöttük! Állítsuk be a súlyokat a supervised Hebb-szabály és a deltaszabály segítségével, random kezdőfeltétellel! A neuron szinaptikus súlyainak száma legyen: 5, 15, 30 Plottoljuk ki a helyesen megtanult szeparációk arányát a következő tengelyeken: Súlyok száma / (bemenetek száma -1) Helyesen megtanult szeparációk aránya