Az idegrendszeri memória modelljei

Hasonló dokumentumok
Az idegrendszeri memória modelljei

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Modellkiválasztás és struktúrák tanulása

Az idegrendszeri memória modelljei

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Egy csodálatos elme modellje

Funkcionális konnektivitás vizsgálata fmri adatok alapján

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Kauzális modellek. Randall Munroe

I. LABOR -Mesterséges neuron

Tanulás az idegrendszerben

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.

Látórendszer modellezése

Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL

Neurális hálózatok bemutató

Stratégiák tanulása az agyban

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Megerősítéses tanulás

Valószínűségi modellek

Adatelemzési eljárások az idegrendszer kutatásban Somogyvári Zoltán

Probabilisztikus modellek II: Inferencia. Nagy Dávid

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla

KÖZELÍTŐ INFERENCIA II.

x, x R, x rögzített esetén esemény. : ( ) x Valószínűségi Változó: Feltételes valószínűség: Teljes valószínűség Tétele: Bayes Tétel:

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Neura lis ha lo zatok

Visszacsatolt (mély) neurális hálózatok

Statisztika - bevezetés Méréselmélet PE MIK MI_BSc VI_BSc 1

Agy a gépben gép az agyban:

KÖZELÍTŐ INFERENCIA II.

Gépi tanulás a gyakorlatban. Lineáris regresszió

Intelligens Rendszerek Gyakorlata. Neurális hálózatok I.

FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE

Magasabb idegrendszeri folyamatok

Mesterséges Intelligencia I.

Tanulás Boltzmann gépekkel. Reiz Andrea

E x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes)

Híradástechikai jelfeldolgozás

Probabilisztikus funkcionális modellek idegrendszeri adatok elemzésére

Lineáris regressziós modellek 1

Biológiai rendszerek modellellenőrzése bayesi megközelítésben

Least Squares becslés

Mesterséges Intelligencia MI

CHT& NSZT Hoeffding NET mom. stabilis november 9.

Statisztikai módszerek a skálafüggetlen hálózatok

VÁLTOZHATOK A TERÁPIÁBAN?!

Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban

Nagy számok törvényei Statisztikai mintavétel Várható érték becslése. Dr. Berta Miklós Fizika és Kémia Tanszék Széchenyi István Egyetem

Markov-láncok stacionárius eloszlása

Véletlen jelenség: okok rendszere hozza létre - nem ismerhetjük mind, ezért sztochasztikus.

A maximum likelihood becslésről

Inferencia valószínűségi modellekben

5. Hét Sorrendi hálózatok

Szekvenciális hálózatok és automaták

Kettőnél több csoport vizsgálata. Makara B. Gábor

Véges állapotú gépek (FSM) tervezése

Georg Cantor (1883) vezette be Henry John Stephen Smith fedezte fel 1875-ben. van struktúrája elemi kis skálákon is önhasonló

Az agyi jelek adaptív feldolgozása MENTÁ LIS FÁ R A DT S ÁG MÉRÉSE

Konjugált gradiens módszer

STATISZTIKA. Egymintás u-próba. H 0 : Kefir zsírtartalma 3% Próbafüggvény, alfa=0,05. Egymintás u-próba vagy z-próba

ACM Snake. Orvosi képdiagnosztika 11. előadás első fele

Bevezetés a hipotézisvizsgálatokba

TARTALOMJEGYZÉK. TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS A lágy számításról A könyv célkitűzése és felépítése...

Humán emlékezeti fenntartási folyamatok oszcillációs. hálózatainak elektrofiziológiai analízise

Jelek és rendszerek 1. 10/9/2011 Dr. Buchman Attila Informatikai Rendszerek és Hálózatok Tanszék

Osztályozás, regresszió. Nagyméretű adathalmazok kezelése Tatai Márton

Dinamikus modellek szerkezete, SDG modellek

Principal Component Analysis

Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )

Jelfeldolgozás - ANTAL Margit. impulzusválasz. tulajdonságai. Rendszerek. ANTAL Margit. Sapientia - Erdélyi Magyar Tudományegyetem

Matematikai statisztika c. tárgy oktatásának célja és tematikája

Irányítástechnika GÁSPÁR PÉTER. Prof. BOKOR JÓZSEF útmutatásai alapján

Készítette: Fegyverneki Sándor. Miskolci Egyetem, 2002.

Kódolás az idegrendszerben

Megerősítéses tanulás 7. előadás

Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)

Készítette: Fegyverneki Sándor

Véges állapotú gépek (FSM) tervezése

A következő feladat célja az, hogy egyszerű módon konstruáljunk Poisson folyamatokat.

Intelligens adatelemzés

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Differenciálegyenletek numerikus megoldása

A Statisztika alapjai

A Markovi forgalomanalízis legújabb eredményei és ezek alkalmazása a távközlő hálózatok teljesítményvizsgálatában

Az agykéreg és az agykérgi aktivitás mérése

Kísérlettervezés alapfogalmak

ANALÍZIS III. ELMÉLETI KÉRDÉSEK

Line aris f uggv enyilleszt es m arcius 19.

STATISZTIKA ELŐADÁS ÁTTEKINTÉSE. Matematikai statisztika. Mi a modell? Binomiális eloszlás sűrűségfüggvény. Binomiális eloszlás

Látás Nyelv - Emlékezet

Statisztika I. 8. előadás. Előadó: Dr. Ertsey Imre

Statisztikus tanulás az idegrendszerben

Többváltozós, valós értékű függvények

Algoritmusok Tervezése. 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás

Területi sor Kárpát medence Magyarország Nyugat-Európa

Kísérlettervezés alapfogalmak

2) Tervezzen Stibitz kód szerint működő, aszinkron decimális előre számlálót! A megvalósításához

Átírás:

Az idegrendszeri memória modelljei

A memória típusai Rövidtávú Working memory - az aktuális feladat Vizuális, auditórikus,... Prefrontális cortex, szenzorikus területek Kapacitás: 7 +-2 minta Hosszútávú Epizodikus, szemantikus Technikailag: asszociatív Temporális lebeny, hippokampusz Interakció a rendszerek között

H. M. Súlyos epilepsziája volt, amit a hippokampusz egy részének eltávolításával orvosoltak 1953-ban. Ettől kezdve elvesztette az epizodikus memóriaformáció képességét a korábbi emlékei megmaradtak. A rövidtávú memóriája ép maradt, valamint a motoros tanulási képessége is. Megtanult pl. tükörben rajzolni. A térbeli memóriája erősen sérült. Bizonyítékot szolgáltatott a különböző memóriarendszerek létezésére.

Munkamemória modelljei Rekurrens hálózati modellek, serkentő-gátló populációkkal Perzisztens aktivitás A kódoló populáció a jel beírása után magasabb rátával tüzel Előfeszített állapot A sejtek a beíráskor facilitált állapotba kerülnek, a kiolvasáskor szinkron tüzelés valósul meg Oszcillációs modell (később) Disztrakció: kis zavaró jelet ignorálni szeretnénk, nagyra viszont elromlik a memória

Perzisztens aktivitás A majom prefrontális kérgében egyes sejtek megnövekedett aktivitást mutatnak bizonos stimulusok után a késleltetési szakaszban, ami meghatározza az adott választ is.

Szinaptikus modell Szinaptikus facilitáció és depresszió dinamikája integrate and fire neuronokban u j t = U u t j F x j t = 1 x j t D U [1 u j t ] k u j t x j t k t t k j t t k j Fixpont vagy oszcillációs dinamika m V i = V i I i rec t I i ext t I i rec t = j j J ij t t t k D ij k J ij t =J ij u j t D ij x j t D ij Több elem tárolása

Heteroasszociatív pl. hely-objektum Autoasszociatív Asszociatív memória Töredékes jelből az eredetit Különbség a számítógép memóriája és az AM között: címzés módja Kapacitás: hány mintát tudunk eltárolni úgy, hogy azok visszahívhatók legyenek (többféle definíció) Stabilitás: minden mintára a legközelebbi tárolt mintát szeretnénk visszakapni

Attraktorhálózatok Attraktorok típusai Pont Periodikus Kaotikus Vonzási tartományok Realizáció: rekurrens neurális hálózatok Attraktorok tárolása: szinaptikus súlyokon Offline tanulás Online tanulás One-shot learning Előhívás: konvergencia tetszőleges pontból egy fix pontba

Hopfield-hálózat Asszociatív memória Bináris MCP-neuronok Minták tárolása: bináris vektorok Szimmetrikus súlymátrix Dale's law: egy sejt nem lehet egyszerre serkentő és gátló ezt most megsértjük Rekurrens (dominánsan) hálózatok az agyban: hippokampusz CA3 régió,... Offline learning tanulandó minták: {s 1 s N } W ij = 1 N n N si n s j n Hebbi szabály Léptetési szabályok: szinkron és szekvenciális x t 1 =sgn W x t x k t 1 =sgn i K W ik x i t k

A HN dinamikája Nemlineáris rendszerek stabilitás-analízise: Lyapunov-függvény segítségével definiáljuk az állapotokhoz rendelhető energiát. Ha a függvény: Korlátos Belátható, hogy a léptetési dinamika mindig csökkenti (növeli) Akkor a rendszer minden bemenetre stabil fix pontba konvergál. Hopfield-hálózat Lyapunov-függvénye: E = 1 2 xt W x x Attraktorok az eltárolt mintáknál, de más helyeken is A HN használható kvadratikus alakra hozható problémák optimalizációjára is

A HN kapacitása Információelméleti kapacitás A tárolandó mintákat tekintsük Bernoulli-eloszlású változók halmazának P s i n =1 =P s i n =0 =0.5 Követeljük meg az egy valószínűségű konvergenciát lim n P s a =sgn Ws a =1 a=1 M Ekkor (sok közelítő lépéssel) megmutatható, hogy M N 2 log 2 N Összehasonlítás a CA3-mal Kb. 200000 sejt, kb. 6000 minta tárolható Más becslések figyelembevéve a minták ritkaságát P s i n =1 = M N 1 log 2 1

Reprezentációs tanulás Valószínűségi leírás 3féle dolgot tanulhatunk: csak predikció, kimenetek valószínűsége, underlying rejtett változók/dinamika Explicit rejtett változós modellek Implicit rejtett változós modellek Modellösszehasonlítás Becslési algoritmusok: EM

Boltzmann-gép Eloszlások reprezentációja mennyiségek közti statisztikai összefüggések Sztochasztikus állapotátmenet I=Wu Mv P v a t 1 =1 = 1 1 e I a A hálózat határeloszlása Energia: E v = v T Wu 1 2 vt Mv Boltzmann-eloszlás: P v = e E v v e E v

Tanulás Boltzmann-géppel Felügyelt tanulás, csak W-re, M analóg Hiba: Kullback-Leibler-divergencia a közelítendő és a megvalósított eloszlás között nem függ W-től D KL [ P v u, P v u, W ]= v P v u ln P v u P v u, W a P v u -val súlyozott kimeneti összegzés helyett bemeneteke vett átlag: D KL = 1 N s ln P v m u m, W K Gradient descent egyetlen bemenetre ln P v m u m, W =v m W i u m j v P v u m m, W v i u j ij a Boltzmann-eloszlásból Delta-szabály az összes lehetséges kimenetre való átlagot az aktuális értékkel közelítjük Két fázis: hebbi anti-hebbi Nem felügyelt W ij W ij w v i m u j m v i u m u j m D KL [ P u, P u, W ]

Tanulás Boltzmann-géppel Felügyelt tanulás, csak W-re, M analóg Hiba: Kullback-Leibler-divergencia a közelítendő és a megvalósított eloszlás között nem függ W-től D KL [ P v u, P v u, W ]= v P v u ln P v u P v u, W a P v u -val súlyozott kimeneti összegzés helyett bemeneteke vett átlag: D KL = 1 N s ln P v m u m, W K Gradient descent egyetlen bemenetre ln P v m u m, W =v m W i u m j v P v u m m, W v i u j ij a Boltzmann-eloszlásból Delta-szabály az összes lehetséges kimenetre való átlagot az aktuális értékkel közelítjük Két fázis: hebbi anti-hebbi Nem felügyelt W ij W ij w v i m u j m v i u m u j m D KL [ P u, P u, W ]

Tanulás Boltzmann-géppel Felügyelt tanulás, csak W-re, M analóg Hiba: Kullback-Leibler-divergencia a közelítendő és a megvalósított eloszlás között nem függ W-től D KL [ P v u, P v u, W ]= v P v u ln P v u P v u, W a P v u -val súlyozott kimeneti összegzés helyett bemeneteke vett átlag: D KL = 1 N s ln P v m u m, W K Gradient descent egyetlen bemenetre ln P v m u m, W =v m W i u m j v P v u m m, W v i u j ij a Boltzmann-eloszlásból Delta-szabály az összes lehetséges kimenetre való átlagot az aktuális értékkel közelítjük Két fázis: hebbi anti-hebbi Nem felügyelt W ij W ij w v i m u j m v i u m u j m D KL [ P u, P u, W ]

Tanulás Boltzmann-géppel Felügyelt tanulás, csak W-re, M analóg Hiba: Kullback-Leibler-divergencia a közelítendő és a megvalósított eloszlás között nem függ W-től D KL [ P v u, P v u, W ]= v P v u ln P v u P v u, W a P v u -val súlyozott kimeneti összegzés helyett bemeneteke vett átlag: D KL = 1 N s ln P v m u m, W K Gradient descent egyetlen bemenetre ln P v m u m, W =v m W i u m j v P v u m m, W v i u j ij a Boltzmann-eloszlásból Delta-szabály az összes lehetséges kimenetre való átlagot az aktuális értékkel közelítjük W ij W ij w v i m u j m v i u m u j m Két fázis: hebbi anti-hebbi

Tanulás Boltzmann-géppel Felügyelt tanulás, csak W-re, M analóg Hiba: Kullback-Leibler-divergencia a közelítendő és a megvalósított eloszlás között nem függ W-től D KL [ P v u, P v u, W ]= v P v u ln P v u P v u, W a P v u -val súlyozott kimeneti összegzés helyett bemeneteke vett átlag: D KL = 1 N s ln P v m u m, W K Gradient descent egyetlen bemenetre ln P v m u m, W =v m W i u m j v P v u m m, W v i u j ij a Boltzmann-eloszlásból Delta-szabály az összes lehetséges kimenetre való átlagot az aktuális értékkel közelítjük Két fázis: hebbi anti-hebbi Nem felügyelt W ij W ij w v i m u j m v i u m u j m D KL [ P u, P u, W ]

Rejtett változós modellek ẋ= f ( x, u, θ u )+ϵ ϵ=ρ(0, Σ ϵ ) y= g( x, θ x )+ν ν=ρ (0, Σ ν ) posterior likelihood p y, M = p y, M p M p y M prior Evidence (marginal likelihood) Predictive distribution: p( y' θ, y, M )

Iteratív tanulás További olvasnivaló: C. M. Bishop: Pattern Recognition and Machine Learning Zoubin Ghahramani: Unsupervised Learning

Bayesian Brain Az agy megvalósítja a Bayesiánus posterior becslését A prior az előző megfigyelésekből képzett posterior A posterior minden megfigyelés után priorrá válik Ha nincs input, a priort mintavételezzük Mérésekkel igazolható állatok különböző fejlődési szakaszaiban

Bayesian brain Máté Lengyel, Gergő Orbán, József Fiser, Pietro Berkes