Az idegrendszeri memória modelljei



Hasonló dokumentumok
Az idegrendszeri memória modelljei

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Modellkiválasztás és struktúrák tanulása

Az idegrendszeri memória modelljei

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Egy csodálatos elme modellje

Tanulás az idegrendszerben

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.

Tanulás Boltzmann gépekkel. Reiz Andrea

Látórendszer modellezése

Stratégiák tanulása az agyban

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla

Funkcionális konnektivitás vizsgálata fmri adatok alapján

Monte Carlo módszerek a statisztikus fizikában. Az Ising modell. 8. előadás

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Intelligens Rendszerek Gyakorlata. Neurális hálózatok I.

I. LABOR -Mesterséges neuron

Megerősítéses tanulás

Neurális hálózatok bemutató

Probabilisztikus modellek II: Inferencia. Nagy Dávid

Mesterséges Intelligencia MI

KÖZELÍTŐ INFERENCIA II.

Megerősítéses tanulás 7. előadás

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL

KÖZELÍTŐ INFERENCIA II.

Szekvenciális hálózatok és automaták

FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE

CHT& NSZT Hoeffding NET mom. stabilis november 9.

Magasabb idegrendszeri folyamatok

Markov-láncok stacionárius eloszlása

Véges állapotú gépek (FSM) tervezése

Visszacsatolt (mély) neurális hálózatok

Neura lis ha lo zatok

2) Tervezzen Stibitz kód szerint működő, aszinkron decimális előre számlálót! A megvalósításához

Mesterséges Intelligencia I.

Legyen adott egy S diszkrét halmaz. Leggyakrabban S az egész számoknak egy halmaza, például S = {0, 1, 2,..., N}, {0, 1, 2,... }.

Adatelemzési eljárások az idegrendszer kutatásban Somogyvári Zoltán

Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban

Kettőnél több csoport vizsgálata. Makara B. Gábor

5. Hét Sorrendi hálózatok

Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok

Gépi tanulás a gyakorlatban. Lineáris regresszió

Statisztika - bevezetés Méréselmélet PE MIK MI_BSc VI_BSc 1

VÁLTOZHATOK A TERÁPIÁBAN?!

Georg Cantor (1883) vezette be Henry John Stephen Smith fedezte fel 1875-ben. van struktúrája elemi kis skálákon is önhasonló

Konjugált gradiens módszer

A következő feladat célja az, hogy egyszerű módon konstruáljunk Poisson folyamatokat.

Algoritmusok Tervezése. 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás

Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás

2. SZÉLSŽÉRTÉKSZÁMÍTÁS. 2.1 A széls érték fogalma, létezése

Monte Carlo módszerek a statisztikus fizikában. Az Ising modell. 8. előadás

E x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes)

Probabilisztikus funkcionális modellek idegrendszeri adatok elemzésére

Véges állapotú gépek (FSM) tervezése

ANALÍZIS III. ELMÉLETI KÉRDÉSEK

Least Squares becslés

Statisztikus tanulás az idegrendszerben

Humán emlékezeti fenntartási folyamatok oszcillációs. hálózatainak elektrofiziológiai analízise

Látás Nyelv - Emlékezet

Fraktál alapú képtömörítés p. 1/26

7.hét: A sorrendi hálózatok elemei II.

Inferencia. ADOTTAK:! generatív modell: például: DAG + prior(ok) + likelihood(ok) P(X 1,X 2,,X n ) megfigyelések: D = {X i = x i, X j = x j, }

Intelligens Rendszerek Elmélete

Jelek és rendszerek 1. 10/9/2011 Dr. Buchman Attila Informatikai Rendszerek és Hálózatok Tanszék

Záróvizsgatételek Kognitív Tanulmányok mesterszak, Filozófia:

A Markovi forgalomanalízis legújabb eredményei és ezek alkalmazása a távközlő hálózatok teljesítményvizsgálatában

Megkülönböztetett kiszolgáló routerek az

minden x D esetén, akkor x 0 -at a függvény maximumhelyének mondjuk, f(x 0 )-at pedig az (abszolút) maximumértékének.

Mikroelektródás képalkotó eljárások Somogyvári Zoltán

Többváltozós, valós értékű függvények

Valószínűségi modellek

Principal Component Analysis

Számításelmélet. Második előadás

A sorozat fogalma. függvényeket sorozatoknak nevezzük. Amennyiben az értékkészlet. az értékkészlet a komplex számok halmaza, akkor komplex

x, x R, x rögzített esetén esemény. : ( ) x Valószínűségi Változó: Feltételes valószínűség: Teljes valószínűség Tétele: Bayes Tétel:

Az agyi jelek adaptív feldolgozása MENTÁ LIS FÁ R A DT S ÁG MÉRÉSE

Agy a gépben gép az agyban:

Probabilisztikus modellek V: Struktúra tanulás. Nagy Dávid

Szinkronizmusból való kiesés elleni védelmi funkció

Intelligens adatelemzés

DIGITÁLIS TECHNIKA I

Készítette: Trosztel Mátyás Konzulens: Hajós Gergely

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

12. előadás - Markov-láncok I.

Amortizációs költségelemzés

ACM Snake. Orvosi képdiagnosztika 11. előadás első fele

NEURÁLIS HÁLÓZATOK 1. eloadás 1

3.6. HAGYOMÁNYOS SZEKVENCIÁLIS FUNKCIONÁLIS EGYSÉGEK

Az agykéreg és az agykérgi aktivitás mérése

Irányításelmélet és technika II.

TARTALOMJEGYZÉK. TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS A lágy számításról A könyv célkitűzése és felépítése...

Bevezetés a neurális számításokba Analóg processzortömbök,

Numerikus módszerek 1.

Megerősítéses tanulás 9. előadás

MODELLEK ÉS ALGORITMUSOK ELŐADÁS

Átírás:

Az idegrendszeri memória modelljei

A memória típusai Rövidtávú Working memory - az aktuális feladat Vizuális, auditórikus,... Prefrontális cortex, szenzorikus területek Kapacitás: 7 +-2 minta Hosszútávú Epizodikus, szemantikus Technikailag: asszociatív Temporális lebeny, hippokampusz Interakció a rendszerek között

H. M. Súlyos epilepsziája volt, amit a hippokampusz egy részének eltávolításával orvosoltak 1953-ban. Ettől kezdve elvesztette az epizodikus memóriaformáció képességét a korábbi emlékei megmaradtak. A rövidtávú memóriája ép maradt, valamint a motoros tanulási képessége is. Megtanult pl. tükörben rajzolni. A térbeli memóriája erősen sérült. Bizonyítékot szolgáltatott a különböző memóriarendszerek létezésére.

Munkamemória modelljei Rekurrens hálózati modellek, serkentő-gátló populációkkal Perzisztens aktivitás A kódoló populáció a jel beírása után magasabb rátával tüzel Előfeszített állapot A sejtek a beíráskor facilitált állapotba kerülnek, a kiolvasáskor szinkron tüzelés valósul meg Oszcillációs modell (később) Disztrakció: kis zavaró jelet ignorálni szeretnénk, nagyra viszont elromlik a memória

Perzisztens aktivitás A majom prefrontális kérgében egyes sejtek megnövekedett aktivitást mutatnak bizonos stimulusok után a késleltetési szakaszban, ami meghatározza az adott választ is.

Szinaptikus modell Szinaptikus facilitáció és depresszió dinamikája integrate and fire neuronokban u j t = U u j t F x j t = 1 x j t D U [1 u j t ] k u j t x j t k t t k j t t k j Fixpont vagy oszcillációs dinamika m V i = V i I rec i t I ext i t I i rec t = j j J ij t t t k D ij k J ij t =J ij u j t D ij x j t D ij Több elem tárolása

Asszociatív memória Heteroasszociatív pl. hely-objektum Autoasszociatív Töredékes jelből az eredetit Különbség a számítógép memóriája és az AM között: címzés módja Kapacitás: hány mintát tudunk eltárolni úgy, hogy azok visszahívhatók legyenek (többféle definíció) Stabilitás: minden mintára a legközelebbi tárolt mintát szeretnénk visszakapni

Attraktorhálózatok Attraktorok típusai Pont Periodikus Kaotikus Vonzási tartományok Realizáció: rekurrens neurális hálózatok Attraktorok tárolása: szinaptikus súlyokon Offline tanulás Online tanulás One-shot learning Előhívás: konvergencia tetszőleges pontból egy fix pontba

Hopfield-hálózat Offline learning tanulandó minták: szabály {s 1 s N } W ij = 1 N n Asszociatív memória Bináris MCP-neuronok Minták tárolása: bináris vektorok Szimmetrikus súlymátrix Dale's law: egy sejt nem lehet egyszerre serkentő és gátló ezt most megsértjük Rekurrens (dominánsan) hálózatok az agyban: hippokampusz CA3 régió,... N si n s j n Hebbi x t 1 =sgn Wx t t Léptetési szabályok: szinkron és x 1 K k szekvenciális =sgn i W ik x t i k

A HN dinamikája Nemlineáris rendszerek stabilitás-analízise: Lyapunovfüggvény segítségével definiáljuk az állapotokhoz rendelhető energiát. Ha a függvény: Korlátos Belátható, hogy a léptetési dinamika mindig csökkenti (növeli) Akkor a rendszer minden bemenetre stabil fix pontba konvergál. Hopfield-hálózat Lyapunov-függvénye: E = 1 2 xt W x x Attraktorok az eltárolt mintáknál, de más helyeken is A HN használható kvadratikus alakra hozható problémák optimalizációjára is

A HN kapacitása Információelméleti kapacitás A tárolandó mintákat tekintsük Bernoulli-eloszlású változók halmazának P s i n =1 =P s i n =0 =0.5 Követeljük meg az egy valószínűségű konvergenciát lim n P s a =sgn Ws a =1 a=1 M Ekkor (sok közelítő lépéssel) megmutatható, hogy M N 2log Összehasonlítás a CA3-mal 2 N Kb. 200000 sejt, kb. 6000 minta tárolható Más becslések figyelembevéve a minták ritkaságát P s i n =1 = M N 1 log 2 1

Reprezentációs tanulás Valószínűségi leírás 3féle dolgot tanulhatunk: csak predikció, kimenetek valószínűsége, underlying rejtett változók/dinamika Explicit rejtett változós modellek Implicit rejtett változós modellek Modellösszehasonlítás Becslési algoritmusok: EM

Rejtett változós modellek ẋ= f (x,u,θ u )+ϵ ϵ=ρ (0, Σ ϵ ) y=g (x,θ x )+ν ν=ρ (0,Σ ν ) posterior likelihood p (θ y, M )= p( y θ, M ) p (θ M ) p( y M ) prior Evidence (marginal likelihood) Predictive distribution: p (y ' θ, y, M )

A Boltzmann-gép architektúrája P(s i =1)= 1 1+e b i j s j w ij P(v, h)= v ',h ',h) e E(v E (v ',h ' ) e P(v )= h v ',h' E(v,h) e E(v ',h ') e E(v,h)= i s i v b i + j> i + m >n s v i s v j w + ij k s m v s n h w mn s k h b k + l >k s k h s l h w kl + Geoffrey Hinton, Terry Sejnowski

Mintavételezés A normalizációs tagok kiszámolása exponenciális komplexitású Markov Chain Monte Carlo mintavételezés Elindítjuk a gépet véletlenszerű állapotból, és megvárjuk, hogy beálljon a hőmérsékleti egyensúly Mintavételezés csak a rejtett egységekből: a látható egységeket az adatvektorhoz rögzítjük A rejtett egységek az adatvektor magyarázatát adják, a jobb magyarázatokhoz alacsonyabb energia tartozik

Tanulás Bolzmann-géppel Maximum Likelihood tanulás argmax W p(v W )= v V Gradiens-módszer p (v W )= v V log p (v W ) Pozitív fázis p(v) = s s s s w i j v i j rand ij A látható egységeket fixálva várjuk meg az egyensúlyt, minden tanulóvektorra átlagoljuk a statisztikát A Boltzmann-valószínűség számlálóját növeli Negatív fázis Véletlen kiindulópontból várjuk meg az egyensúlyt jó sokszor, aztán átlagoljunk A Boltzmann-valószínűség nevezőjét csökkenti

Restricted Boltzmann Machine Egy látható és egy rejtett réteg Rétegen belül nincsenek kacsolatok független rejtett egységek A rejtett rétegben egylépéssel elérjük az egyensúlyt A negatív statisztikához indítsuk a hálózatot ebből az állapotból

Contrastive divergence Δw ij s i s j 0 s i s j 1 Az adattól távolabbi minimumokat nem látja Miután valamennyire rátanult a hálózat az adatra, többlépéses CD-re térünk át: CD3, CD6,...

DBM létrehozása előre tanított RBM-ekből Az első RBM a bemenet feature-eit tanulja A második a feature-ök feature-eit Öszzeillesztjük a rétegeket, és együtt finomítjuk a tanult reprezentációt Ruslan Salakhutdinov

Absztrakciós hierarchia a látórendszerben James DiCarlo Rufin VanRullen