Az idegrendszeri memória modelljei
|
|
- Natália Budainé
- 7 évvel ezelőtt
- Látták:
Átírás
1 Az idegrendszeri memória modelljei
2 A memória típusai Rövidtávú Working memory - az aktuális feladat Vizuális, auditórikus,... Prefrontális cortex, szenzorikus területek Kapacitás: minta Hosszútávú Epizodikus, szemantikus Technikailag: asszociatív Temporális lebeny, hippokampusz Interakció a rendszerek között
3 H. M. Súlyos epilepsziája volt, amit a hippokampusz egy részének eltávolításával orvosoltak 1953-ban. Ettől kezdve elvesztette az epizodikus memóriaformáció képességét a korábbi emlékei megmaradtak. A rövidtávú memóriája ép maradt, valamint a motoros tanulási képessége is. Megtanult pl. tükörben rajzolni. A térbeli memóriája erősen sérült. Bizonyítékot szolgáltatott a különböző memóriarendszerek létezésére.
4 Munkamemória modelljei Rekurrens hálózati modellek, serkentő-gátló populációkkal Perzisztens aktivitás A kódoló populáció a jel beírása után magasabb rátával tüzel Előfeszített állapot A sejtek a beíráskor facilitált állapotba kerülnek, a kiolvasáskor szinkron tüzelés valósul meg Oszcillációs modell (később) Disztrakció: kis zavaró jelet ignorálni szeretnénk, nagyra viszont elromlik a memória
5 Perzisztens aktivitás A majom prefrontális kérgében egyes sejtek megnövekedett aktivitást mutatnak bizonos stimulusok után a késleltetési szakaszban, ami meghatározza az adott választ is.
6 Szinaptikus modell Szinaptikus facilitáció és depresszió dinamikája integrate and fire neuronokban u j t = U u t j F x j t = 1 x j t D U [1 u j t ] k u j t x j t k t t k j t t k j Fixpont vagy oszcillációs dinamika m V i = V i I i rec t I i ext t I i rec t = j j J ij t t t k D ij k J ij t =J ij u j t D ij x j t D ij Több elem tárolása
7 Heteroasszociatív pl. hely-objektum Autoasszociatív Asszociatív memória Töredékes jelből az eredetit Különbség a számítógép memóriája és az AM között: címzés módja Kapacitás: hány mintát tudunk eltárolni úgy, hogy azok visszahívhatók legyenek (többféle definíció) Stabilitás: minden mintára a legközelebbi tárolt mintát szeretnénk visszakapni
8 Attraktorhálózatok Attraktorok típusai Pont Periodikus Kaotikus Vonzási tartományok Realizáció: rekurrens neurális hálózatok Attraktorok tárolása: szinaptikus súlyokon Offline tanulás Online tanulás One-shot learning Előhívás: konvergencia tetszőleges pontból egy fix pontba
9 Hopfield-hálózat Asszociatív memória Bináris MCP-neuronok Minták tárolása: bináris vektorok Szimmetrikus súlymátrix Dale's law: egy sejt nem lehet egyszerre serkentő és gátló ezt most megsértjük Rekurrens (dominánsan) hálózatok az agyban: hippokampusz CA3 régió,... Offline learning tanulandó minták: {s 1 s N } W ij = 1 N n N si n s j n Hebbi szabály Léptetési szabályok: szinkron és szekvenciális x t 1 =sgn W x t x k t 1 =sgn i K W ik x i t k
10 A HN dinamikája Nemlineáris rendszerek stabilitás-analízise: Lyapunov-függvény segítségével definiáljuk az állapotokhoz rendelhető energiát. Ha a függvény: Korlátos Belátható, hogy a léptetési dinamika mindig csökkenti (növeli) Akkor a rendszer minden bemenetre stabil fix pontba konvergál. Hopfield-hálózat Lyapunov-függvénye: E = 1 2 xt W x x Attraktorok az eltárolt mintáknál, de más helyeken is A HN használható kvadratikus alakra hozható problémák optimalizációjára is
11 A HN kapacitása Információelméleti kapacitás A tárolandó mintákat tekintsük Bernoulli-eloszlású változók halmazának P s i n =1 =P s i n =0 =0.5 Követeljük meg az egy valószínűségű konvergenciát lim n P s a =sgn Ws a =1 a=1 M Ekkor (sok közelítő lépéssel) megmutatható, hogy M N 2 log 2 N Összehasonlítás a CA3-mal Kb sejt, kb minta tárolható Más becslések figyelembevéve a minták ritkaságát P s i n =1 = M N 1 log 2 1
12 Reprezentációs tanulás Valószínűségi leírás 3féle dolgot tanulhatunk: csak predikció, kimenetek valószínűsége, underlying rejtett változók/dinamika Explicit rejtett változós modellek Implicit rejtett változós modellek Modellösszehasonlítás Becslési algoritmusok: EM
13 Boltzmann-gép Eloszlások reprezentációja mennyiségek közti statisztikai összefüggések Sztochasztikus állapotátmenet I=Wu Mv P v a t 1 =1 = 1 1 e I a A hálózat határeloszlása Energia: E v = v T Wu 1 2 vt Mv Boltzmann-eloszlás: P v = e E v v e E v
14 Tanulás Boltzmann-géppel Felügyelt tanulás, csak W-re, M analóg Hiba: Kullback-Leibler-divergencia a közelítendő és a megvalósított eloszlás között nem függ W-től D KL [ P v u, P v u, W ]= v P v u ln P v u P v u, W a P v u -val súlyozott kimeneti összegzés helyett bemeneteke vett átlag: D KL = 1 N s ln P v m u m, W K Gradient descent egyetlen bemenetre ln P v m u m, W =v m W i u m j v P v u m m, W v i u j ij a Boltzmann-eloszlásból Delta-szabály az összes lehetséges kimenetre való átlagot az aktuális értékkel közelítjük Két fázis: hebbi anti-hebbi Nem felügyelt W ij W ij w v i m u j m v i u m u j m D KL [ P u, P u, W ]
15 Tanulás Boltzmann-géppel Felügyelt tanulás, csak W-re, M analóg Hiba: Kullback-Leibler-divergencia a közelítendő és a megvalósított eloszlás között nem függ W-től D KL [ P v u, P v u, W ]= v P v u ln P v u P v u, W a P v u -val súlyozott kimeneti összegzés helyett bemeneteke vett átlag: D KL = 1 N s ln P v m u m, W K Gradient descent egyetlen bemenetre ln P v m u m, W =v m W i u m j v P v u m m, W v i u j ij a Boltzmann-eloszlásból Delta-szabály az összes lehetséges kimenetre való átlagot az aktuális értékkel közelítjük Két fázis: hebbi anti-hebbi Nem felügyelt W ij W ij w v i m u j m v i u m u j m D KL [ P u, P u, W ]
16 Tanulás Boltzmann-géppel Felügyelt tanulás, csak W-re, M analóg Hiba: Kullback-Leibler-divergencia a közelítendő és a megvalósított eloszlás között nem függ W-től D KL [ P v u, P v u, W ]= v P v u ln P v u P v u, W a P v u -val súlyozott kimeneti összegzés helyett bemeneteke vett átlag: D KL = 1 N s ln P v m u m, W K Gradient descent egyetlen bemenetre ln P v m u m, W =v m W i u m j v P v u m m, W v i u j ij a Boltzmann-eloszlásból Delta-szabály az összes lehetséges kimenetre való átlagot az aktuális értékkel közelítjük Két fázis: hebbi anti-hebbi Nem felügyelt W ij W ij w v i m u j m v i u m u j m D KL [ P u, P u, W ]
17 Tanulás Boltzmann-géppel Felügyelt tanulás, csak W-re, M analóg Hiba: Kullback-Leibler-divergencia a közelítendő és a megvalósított eloszlás között nem függ W-től D KL [ P v u, P v u, W ]= v P v u ln P v u P v u, W a P v u -val súlyozott kimeneti összegzés helyett bemeneteke vett átlag: D KL = 1 N s ln P v m u m, W K Gradient descent egyetlen bemenetre ln P v m u m, W =v m W i u m j v P v u m m, W v i u j ij a Boltzmann-eloszlásból Delta-szabály az összes lehetséges kimenetre való átlagot az aktuális értékkel közelítjük W ij W ij w v i m u j m v i u m u j m Két fázis: hebbi anti-hebbi
18 Tanulás Boltzmann-géppel Felügyelt tanulás, csak W-re, M analóg Hiba: Kullback-Leibler-divergencia a közelítendő és a megvalósított eloszlás között nem függ W-től D KL [ P v u, P v u, W ]= v P v u ln P v u P v u, W a P v u -val súlyozott kimeneti összegzés helyett bemeneteke vett átlag: D KL = 1 N s ln P v m u m, W K Gradient descent egyetlen bemenetre ln P v m u m, W =v m W i u m j v P v u m m, W v i u j ij a Boltzmann-eloszlásból Delta-szabály az összes lehetséges kimenetre való átlagot az aktuális értékkel közelítjük Két fázis: hebbi anti-hebbi Nem felügyelt W ij W ij w v i m u j m v i u m u j m D KL [ P u, P u, W ]
19 Rejtett változós modellek ẋ= f ( x, u, θ u )+ϵ ϵ=ρ(0, Σ ϵ ) y= g( x, θ x )+ν ν=ρ (0, Σ ν ) posterior likelihood p y, M = p y, M p M p y M prior Evidence (marginal likelihood) Predictive distribution: p( y' θ, y, M )
20 Iteratív tanulás További olvasnivaló: C. M. Bishop: Pattern Recognition and Machine Learning Zoubin Ghahramani: Unsupervised Learning
21 Bayesian Brain Az agy megvalósítja a Bayesiánus posterior becslését A prior az előző megfigyelésekből képzett posterior A posterior minden megfigyelés után priorrá válik Ha nincs input, a priort mintavételezzük Mérésekkel igazolható állatok különböző fejlődési szakaszaiban
22 Bayesian brain Máté Lengyel, Gergő Orbán, József Fiser, Pietro Berkes
Az idegrendszeri memória modelljei
Az idegrendszeri memória modelljei A memória típusai Rövidtávú Working memory - az aktuális feladat Vizuális, auditórikus,... Prefrontális cortex, szenzorikus területek Kapacitás: 7 +-2 minta Hosszútávú
RészletesebbenTanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,
RészletesebbenModellkiválasztás és struktúrák tanulása
Modellkiválasztás és struktúrák tanulása Szervezőelvek keresése Az unsupervised learning egyik fő célja Optimális reprezentációk Magyarázatok Predikciók Az emberi tanulás alapja Általános strukturális
RészletesebbenAz idegrendszeri memória modelljei
Az idegrendszeri memória modelljei A memória típusai Rövidtávú Working memory - az aktuális feladat Vizuális, auditórikus,... Prefrontális cortex, szenzorikus területek Kapacitás: 7 +-2 minta Hosszútávú
RészletesebbenTanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,
RészletesebbenEgy csodálatos elme modellje
Egy csodálatos elme modellje A beteg és az egészséges agy információfeldolgozási struktúrái Bányai Mihály1, Vaibhav Diwadkar2, Érdi Péter1 1 RMKI, Biofizikai osztály 2 Wayne State University, Detroit,
RészletesebbenFunkcionális konnektivitás vizsgálata fmri adatok alapján
Funkcionális konnektivitás vizsgálata fmri adatok alapján Képalkotási technikák 4 Log Resolution (mm) 3 Brain EEG & MEG fmri TMS PET Lesions 2 Column 1 0 Lamina -1 Neuron -2 Dendrite -3 Synapse -4 Mikrolesions
RészletesebbenTanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,
RészletesebbenTanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,
RészletesebbenKauzális modellek. Randall Munroe
Kauzális modellek Randall Munroe A kauzalitás reprezentációi Determinisztikus Sztochasztikus Feltételes valószínűség < > hipergráf Irányított gráf: több ok, egy okozat < > Bayes-háló Cirkuláris kauzalitás
RészletesebbenI. LABOR -Mesterséges neuron
I. LABOR -Mesterséges neuron A GYAKORLAT CÉLJA: A mesterséges neuron struktúrájának az ismertetése, neuronhálókkal kapcsolatos elemek, alapfogalmak bemutatása, aktivációs függvénytípusok szemléltetése,
RészletesebbenTanulás az idegrendszerben
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Funkcióvezérelt modellezés Abból indulunk ki, hogy milyen feladatot valósít meg a rendszer Horace Barlow: "A
RészletesebbenKeresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Keresés képi jellemzők alapján Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Lusta gépi tanulási algoritmusok Osztályozás: k=1: piros k=5: kék k-legközelebbi szomszéd (k=1,3,5,7)
RészletesebbenMit látnak a robotok? Bányai Mihály Matemorfózis, 2017.
Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017. Vizuális feldolgozórendszerek feladatai Mesterséges intelligencia és idegtudomány Mesterséges intelligencia és idegtudomány Párhuzamos problémák
RészletesebbenLátórendszer modellezése
Statisztikai tanulás az idegrendszerben, 2015. Látórendszer modellezése Bányai Mihály banyai.mihaly@wigner.mta.hu http://golab.wigner.mta.hu/people/mihaly-banyai/ A látórendszer felépítése Prediktálhatóság
RészletesebbenNeurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL
Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL TULICS@TMIT.BME.HU Példa X (tanult órák száma, aludt órák száma) y (dolgozaton elért pontszám) (5, 8) 80 (3, 5) 78 (5, 1) 82 (10, 2) 93 (4, 4)
RészletesebbenNeurális hálózatok bemutató
Neurális hálózatok bemutató Füvesi Viktor Miskolci Egyetem Alkalmazott Földtudományi Kutatóintézet Miért? Vannak feladatok amelyeket az agy gyorsabban hajt végre mint a konvencionális számítógépek. Pl.:
RészletesebbenStratégiák tanulása az agyban
Statisztikai tanulás az idegrendszerben, 2019. Stratégiák tanulása az agyban Bányai Mihály banyai.mihaly@wigner.mta.hu http://golab.wigner.mta.hu/people/mihaly-banyai/ Kortárs MI thispersondoesnotexist.com
RészletesebbenSzámítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Számítógépes képelemzés 7. előadás Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Momentumok Momentum-alapú jellemzők Tömegközéppont Irányultáság 1 2 tan 2 1 2,0 1,1 0, 2 Befoglaló
RészletesebbenMegerősítéses tanulás
Megerősítéses tanulás elméleti kognitív neurális Introduction Knowledge representation Probabilistic models Bayesian behaviour Approximate inference I (computer lab) Vision I Approximate inference II:
RészletesebbenValószínűségi modellek
Statisztikai tanulás az idegrendszerben, 2015. Valószínűségi modellek Bányai Mihály banyai.mihaly@wigner.mta.hu http://golab.wigner.mta.hu/people/mihaly-banyai/ Hogyan kezeljük formálisan a bizonytalan
RészletesebbenAdatelemzési eljárások az idegrendszer kutatásban Somogyvári Zoltán
Adatelemzési eljárások az idegrendszer kutatásban Somogyvári Zoltán MTA KFKI Részecske és Magfizikai Intézet, Biofizikai osztály Az egy adatsorra (idősorra) is alkalmazható módszerek Példa: Az epileptikus
RészletesebbenProbabilisztikus modellek II: Inferencia. Nagy Dávid
Probabilisztikus modellek II: Inferencia Nagy Dávid Statisztikai tanulás az idegrendszerben, 2015 előző előadás előző előadás az agy modellt épít a világról előző előadás az agy modellt épít a világról
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363
1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái 324/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák
RészletesebbenBudapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók Előadó: Előadás anyaga: Hullám Gábor Pataki Béla Dobrowiecki Tadeusz BME I.E. 414, 463-26-79
RészletesebbenKÖZELÍTŐ INFERENCIA II.
STATISZTIKAI TANULÁS AZ IDEGRENDSZERBEN KÖZELÍTŐ INFERENCIA II. MONTE CARLO MÓDSZEREK ISMÉTLÉS Egy valószínűségi modellben a következtetéseinket a látensek vagy a paraméterek fölötti poszterior írja le.
Részletesebbenx, x R, x rögzített esetén esemény. : ( ) x Valószínűségi Változó: Feltételes valószínűség: Teljes valószínűség Tétele: Bayes Tétel:
Feltételes valószínűség: Teljes valószínűség Tétele: Bayes Tétel: Valószínűségi változó általános fogalma: A : R leképezést valószínűségi változónak nevezzük, ha : ( ) x, x R, x rögzített esetén esemény.
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363
1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái -hálók 306/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák
RészletesebbenNeura lis ha lo zatok
Komplex Rendszerek Szim. Mo dsz. Labor Neura lis ha lo zatok Nagy Da vid Gergely Fizika MSc. IV. beadando Fizikai Inte zet Eo tvo s Lora nd Tudoma nyegyetem Budapest 2013 1. Hopfield hálózat A Hopfield-hálózat
RészletesebbenVisszacsatolt (mély) neurális hálózatok
Visszacsatolt (mély) neurális hálózatok Visszacsatolt hálózatok kimenet rejtett rétegek bemenet Sima előrecsatolt neurális hálózat Visszacsatolt hálózatok kimenet rejtett rétegek bemenet Pl.: kép feliratozás,
RészletesebbenStatisztika - bevezetés Méréselmélet PE MIK MI_BSc VI_BSc 1
Statisztika - bevezetés 00.04.05. Méréselmélet PE MIK MI_BSc VI_BSc Bevezetés Véletlen jelenség fogalma jelenséget okok bizonyos rendszere hozza létre ha mindegyik figyelembe vehető egyértelmű leírás általában
RészletesebbenAgy a gépben gép az agyban:
Agy a gépben gép az agyban: Az agykéreg működésének számítógépes modellezése CA3 septum dentate gyrus familiarity entorhinal cortex sensory data Káli Szabolcs (MTA Kísérleti Orvostudományi Kutatóintézet)
RészletesebbenKÖZELÍTŐ INFERENCIA II.
STATISZTIKAI TANULÁS AZ IDEGRENDSZERBEN KÖZELÍTŐ INFERENCIA II. MONTE CARLO MÓDSZEREK ISMÉTLÉS Egy valószínűségi modellben a következtetéseinket a látensek vagy a paraméterek fölötti poszterior írja le.
RészletesebbenGépi tanulás a gyakorlatban. Lineáris regresszió
Gépi tanulás a gyakorlatban Lineáris regresszió Lineáris Regresszió Legyen adott egy tanuló adatbázis: Rendelkezésünkre áll egy olyan előfeldolgozott adathalmaz, aminek sorai az egyes ingatlanokat írják
RészletesebbenIntelligens Rendszerek Gyakorlata. Neurális hálózatok I.
: Intelligens Rendszerek Gyakorlata Neurális hálózatok I. dr. Kutor László http://mobil.nik.bmf.hu/tantargyak/ir2.html IRG 3/1 Trend osztályozás Pnndemo.exe IRG 3/2 Hangulat azonosítás Happy.exe IRG 3/3
RészletesebbenFELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE
FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE Dr. Aradi Szilárd, Fehér Árpád Mesterséges intelligencia kialakulása 1956 Dartmouth-i konferencián egy maroknyi tudós megalapította a MI területét
RészletesebbenMagasabb idegrendszeri folyamatok
Magasabb idegrendszeri folyamatok Viselkedés A szenzoros bemenetekre adott (motoros) válasz. Az ember és állat viselkedését genetikusan kódolt, az egész szervezet szintjén érvényesülő idegi és kémiai faktorok
RészletesebbenMesterséges Intelligencia I.
Mesterséges Intelligencia I. 10. elıadás (2008. november 10.) Készítette: Romhányi Anita (ROANAAT.SZE) - 1 - Statisztikai tanulás (Megfigyelések alapján történı bizonytalan következetésnek tekintjük a
RészletesebbenTanulás Boltzmann gépekkel. Reiz Andrea
Tanulás Boltzmann gépekkel Reiz Andrea Tanulás Boltzmann gépekkel Boltzmann gép Boltzmann gép felépítése Boltzmann gép energiája Energia minimalizálás Szimulált kifűtés Tanulás Boltzmann gép Tanulóalgoritmus
RészletesebbenE x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes)
6-7 ősz. gyakorlat Feladatok.) Adjon meg azt a perceptronon implementált Bayes-i klasszifikátort, amely kétdimenziós a bemeneti tér felett szeparálja a Gauss eloszlású mintákat! Rajzolja le a bemeneti
RészletesebbenHíradástechikai jelfeldolgozás
Híradástechikai jelfeldolgozás 13. Előadás 015. 04. 4. Jeldigitalizálás és rekonstrukció 015. április 7. Budapest Dr. Gaál József docens BME Hálózati Rendszerek és SzolgáltatásokTanszék gaal@hit.bme.hu
RészletesebbenProbabilisztikus funkcionális modellek idegrendszeri adatok elemzésére
Probabilisztikus funkcionális modellek idegrendszeri adatok elemzésére Bányai Mihály! MTA Wigner FK! Computational Systems Neuroscience Lab!! KOKI-VIK szeminárium! 2014. február 11. Struktúra és funkció
RészletesebbenLineáris regressziós modellek 1
Lineáris regressziós modellek 1 Ispány Márton és Jeszenszky Péter 2016. szeptember 19. 1 Az ábrák C.M. Bishop: Pattern Recognition and Machine Learning c. könyvéből származnak. Tartalom Bevezető példák
RészletesebbenBiológiai rendszerek modellellenőrzése bayesi megközelítésben
Biológiai rendszerek modellellenőrzése bayesi megközelítésben Gál Tamás Zoltán Szoftver verifikáció és validáció kiselőadás, 2013. ősz Forrás: Sumit K. Jha et al.: A Bayesian Approach to Model Checking
RészletesebbenLeast Squares becslés
Least Squares becslés A négyzetes hibafüggvény: i d i ( ) φx i A négyzetes hibafüggvény mellett a minimumot biztosító megoldás W=( d LS becslés A gradiens számítása és nullává tétele eredményeképp A megoldás
RészletesebbenMesterséges Intelligencia MI
Mesterséges Intelligencia MI Valószínűségi hálók - következtetés Dobrowiecki Tadeusz Eredics Péter, és mások BME I.E. 437, 463-28-99 dobrowiecki@mit.bme.hu, http://www.mit.bme.hu/general/staff/tade Következtetés
RészletesebbenCHT& NSZT Hoeffding NET mom. stabilis. 2011. november 9.
CHT& NSZT Hoeffding NET mom. stabilis Becslések, határeloszlás tételek Székely Balázs 2011. november 9. CHT& NSZT Hoeffding NET mom. stabilis 1 CHT és NSZT 2 Hoeffding-egyenlőtlenség Alkalmazása: Beengedés
RészletesebbenStatisztikai módszerek a skálafüggetlen hálózatok
Statisztikai módszerek a skálafüggetlen hálózatok vizsgálatára Gyenge Ádám1 1 Budapesti Műszaki és Gazdaságtudományi Egyetem Villamosmérnöki és Informatikai Kar Számítástudományi és Információelméleti
RészletesebbenVÁLTOZHATOK A TERÁPIÁBAN?!
VÁLTOZHATOK A TERÁPIÁBAN?! Fenyves Tamás Klinikai szakpszichológus Pszichoterapeuta TARTALOM Mi a pszichoterápia Idegtudományi vizsgálatok a pszichoterápia hatásosságában Reprezentációk és emlékezés mint
RészletesebbenIntelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban
Intelligens Rendszerek Elmélete : dr. Kutor László Versengéses és önszervező tanulás neurális hálózatokban http://mobil.nik.bmf.hu/tantargyak/ire.html Login név: ire jelszó: IRE07 IRE 9/1 Processzor Versengéses
RészletesebbenNagy számok törvényei Statisztikai mintavétel Várható érték becslése. Dr. Berta Miklós Fizika és Kémia Tanszék Széchenyi István Egyetem
agy számok törvényei Statisztikai mintavétel Várható érték becslése Dr. Berta Miklós Fizika és Kémia Tanszék Széchenyi István Egyetem A mérés mint statisztikai mintavétel A méréssel az eloszlásfüggvénnyel
RészletesebbenMarkov-láncok stacionárius eloszlása
Markov-láncok stacionárius eloszlása Adatbányászat és Keresés Csoport, MTA SZTAKI dms.sztaki.hu Kiss Tamás 2013. április 11. Tartalom Markov láncok definíciója, jellemzése Visszatérési idők Stacionárius
RészletesebbenVéletlen jelenség: okok rendszere hozza létre - nem ismerhetjük mind, ezért sztochasztikus.
Valószín ségelméleti és matematikai statisztikai alapfogalmak összefoglalása (Kemény Sándor - Deák András: Mérések tervezése és eredményeik értékelése, kivonat) Véletlen jelenség: okok rendszere hozza
RészletesebbenA maximum likelihood becslésről
A maximum likelihood becslésről Definíció Parametrikus becsléssel foglalkozunk. Adott egy modell, mellyel elképzeléseink szerint jól leírható a meghatározni kívánt rendszer. (A modell típusának és rendszámának
RészletesebbenInferencia valószínűségi modellekben
Statisztikai tanulás az idegrendszerben, 2016. Inferencia valószínűségi modellekben Bányai Mihály banyai.mihaly@wigner.mta.hu http://golab.wigner.mta.hu/people/mihaly-banyai/ Inferencia valószínűségi modellekben
Részletesebben5. Hét Sorrendi hálózatok
5. Hét Sorrendi hálózatok Digitális technika 2015/2016 Bevezető példák Példa 1: Italautomata Legyen az általunk vizsgált rendszer egy italautomata, amelyről az alábbi dolgokat tudjuk: 150 Ft egy üdítő
RészletesebbenSzekvenciális hálózatok és automaták
Szekvenciális hálózatok a kombinációs hálózatokból jöhetnek létre tárolási tulajdonságok hozzáadásával. A tárolás megvalósítása történhet a kapcsolás logikáját képező kombinációs hálózat kimeneteinek visszacsatolásával
RészletesebbenKettőnél több csoport vizsgálata. Makara B. Gábor
Kettőnél több csoport vizsgálata Makara B. Gábor Három gyógytápszer elemzéséből az alábbi energia tartalom adatok származtak (kilokalória/adag egységben) Három gyógytápszer elemzésébô A B C 30 5 00 10
RészletesebbenVéges állapotú gépek (FSM) tervezése
Véges állapotú gépek (FSM) tervezése F1. A 2. gyakorlaton foglalkoztunk a 3-mal vagy 5-tel osztható 4 bites számok felismerésével. Abban a feladatban a bemenet bitpárhuzamosan, azaz egy időben minden adatbit
RészletesebbenGeorg Cantor (1883) vezette be Henry John Stephen Smith fedezte fel 1875-ben. van struktúrája elemi kis skálákon is önhasonló
láttuk, hogy a Lorenz egyenletek megoldásai egy nagyon bonyolult halmazt alkottak a fázistérben végtelenül komplex felület fraktál: komplex geometriai alakzatok, melyeknek elemi kis skálán is van finomszerkezete
RészletesebbenAz agyi jelek adaptív feldolgozása MENTÁ LIS FÁ R A DT S ÁG MÉRÉSE
Az agyi jelek adaptív feldolgozása MENTÁ LIS FÁ R A DT S ÁG MÉRÉSE Bevezetés I. A fáradtság lehet fizikai: a normál testi funkciók hiánya mentális: csökkent agyi aktivitás vagy kognitív funkciók. Megjelenhet
RészletesebbenKonjugált gradiens módszer
Közelítő és szimbolikus számítások 12. gyakorlat Konjugált gradiens módszer Készítette: Gelle Kitti Csendes Tibor Vinkó Tamás Faragó István Horváth Róbert jegyzetei alapján 1 LINEÁRIS EGYENLETRENDSZEREK
RészletesebbenSTATISZTIKA. Egymintás u-próba. H 0 : Kefir zsírtartalma 3% Próbafüggvény, alfa=0,05. Egymintás u-próba vagy z-próba
Egymintás u-próba STATISZTIKA 2. Előadás Középérték-összehasonlító tesztek Tesztelhetjük, hogy a valószínűségi változónk értéke megegyezik-e egy konkrét értékkel. Megválaszthatjuk a konfidencia intervallum
RészletesebbenACM Snake. Orvosi képdiagnosztika 11. előadás első fele
ACM Snake Orvosi képdiagnosztika 11. előadás első fele ACM Snake (ismétlés) A szegmentáló kontúr egy paraméteres görbe: x Zs s X s, Y s,, s A szegmentáció energia funkcionál minimalizálása: E x Eint x
RészletesebbenBevezetés a hipotézisvizsgálatokba
Bevezetés a hipotézisvizsgálatokba Nullhipotézis: pl. az átlag egy adott µ becslése : M ( x -µ ) = 0 Alternatív hipotézis: : M ( x -µ ) 0 Szignifikancia: - teljes bizonyosság csak teljes enumerációra -
RészletesebbenTARTALOMJEGYZÉK. TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS A lágy számításról A könyv célkitűzése és felépítése...
TARTALOMJEGYZÉK TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS...1 1. A lágy számításról...2 2. A könyv célkitűzése és felépítése...6 AZ ÖSSZETEVŐ LÁGY RENDSZEREK...9 I. BEVEZETÉS...10 3. Az összetevő
RészletesebbenHumán emlékezeti fenntartási folyamatok oszcillációs. hálózatainak elektrofiziológiai analízise
Eötvös Loránd Tudományegyetem, Pedagógiai és Pszichológiai Kar Pszichológiai Doktori Iskola Kognitív Pszichológiai program Tóth Brigitta Humán emlékezeti fenntartási folyamatok oszcillációs hálózatainak
RészletesebbenJelek és rendszerek 1. 10/9/2011 Dr. Buchman Attila Informatikai Rendszerek és Hálózatok Tanszék
Jelek és rendszerek 1 10/9/2011 Dr. Buchman Attila Informatikai Rendszerek és Hálózatok Tanszék 1 Ajánlott irodalom: FODOR GYÖRGY : JELEK ÉS RENDSZEREK EGYETEMI TANKÖNYV Műegyetemi Kiadó, Budapest, 2006
RészletesebbenOsztályozás, regresszió. Nagyméretű adathalmazok kezelése Tatai Márton
Osztályozás, regresszió Nagyméretű adathalmazok kezelése Tatai Márton Osztályozási algoritmusok Osztályozás Diszkrét értékkészletű, ismeretlen attribútumok értékének meghatározása ismert attribútumok értéke
RészletesebbenDinamikus modellek szerkezete, SDG modellek
Diagnosztika - 3. p. 1/2 Modell Alapú Diagnosztika Diszkrét Módszerekkel Dinamikus modellek szerkezete, SDG modellek Hangos Katalin PE Villamosmérnöki és Információs Rendszerek Tanszék Diagnosztika - 3.
RészletesebbenPrincipal Component Analysis
Principal Component Analysis Principal Component Analysis Principal Component Analysis Definíció Ortogonális transzformáció, amely az adatokat egy új koordinátarendszerbe transzformálja úgy, hogy a koordináták
RészletesebbenAlap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )
Budapesti Műszaki és Gazdaságtudományi Egyetem Gépészmérnöki Kar Hidrodinamikai Rendszerek Tanszék, Budapest, Műegyetem rkp. 3. D ép. 334. Tel: 463-6-80 Fa: 463-30-9 http://www.vizgep.bme.hu Alap-ötlet:
RészletesebbenJelfeldolgozás - ANTAL Margit. impulzusválasz. tulajdonságai. Rendszerek. ANTAL Margit. Sapientia - Erdélyi Magyar Tudományegyetem
Sapientia - Erdélyi Magyar Tudományegyetem 2007 Megnevezések Diszkrét Dirac jel Delta függvény Egységimpluzus függvény A diszkrét Dirac jel δ[n] = { 1, n = 0 0, n 0 d[n] { 1, n = n0 δ[n n 0 ] = 0, n n
RészletesebbenMatematikai statisztika c. tárgy oktatásának célja és tematikája
Matematikai statisztika c. tárgy oktatásának célja és tematikája 2015 Tematika Matematikai statisztika 1. Időkeret: 12 héten keresztül heti 3x50 perc (előadás és szeminárium) 2. Szükséges előismeretek:
RészletesebbenIrányítástechnika GÁSPÁR PÉTER. Prof. BOKOR JÓZSEF útmutatásai alapján
Irányítástechnika GÁSPÁR PÉTER Prof. BOKOR JÓZSEF útmutatásai alapján Irányítástechnika rendszerek Irányítástechnika Budapest, 2008 2 Az előadás felépítése 1. 2. 3. 4. Irányítástechnika Budapest, 2008
RészletesebbenKészítette: Fegyverneki Sándor. Miskolci Egyetem, 2002.
INFORMÁCIÓELMÉLET Összefoglaló segédlet Készítette: Fegyverneki Sándor Miskolci Egyetem, 2002. i TARTALOMJEGYZÉK. Bevezetés 2. Az információmennyiség 6 3. Az I-divergencia 3 3. Információ és bizonytalanság
RészletesebbenKódolás az idegrendszerben
Kódolás az idegrendszerben Ujfalussy Balázs Budapest Compumputational Neuroscience Group Dept. Biophysics, MTA KFKI RMKI Idegrendszeri modellezés ELTE, 2011. március 21. Ujfalussy Balázs (Budapest CNS
RészletesebbenMegerősítéses tanulás 7. előadás
Megerősítéses tanulás 7. előadás 1 Ismétlés: TD becslés s t -ben stratégia szerint lépek! a t, r t, s t+1 TD becslés: tulajdonképpen ezt mintavételezzük: 2 Akcióértékelő függvény számolása TD-vel még mindig
RészletesebbenGépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)
Gépi tanulás Hány tanítómintára van szükség? VKH Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Induktív tanulás A tanítás folyamata: Kiinduló
RészletesebbenKészítette: Fegyverneki Sándor
VALÓSZÍNŰSÉGSZÁMÍTÁS Összefoglaló segédlet Készítette: Fegyverneki Sándor Miskolci Egyetem, 2001. i JELÖLÉSEK: N a természetes számok halmaza (pozitív egészek) R a valós számok halmaza R 2 {(x, y) x, y
RészletesebbenVéges állapotú gépek (FSM) tervezése
Véges állapotú gépek (FSM) tervezése F1. Tervezzünk egy soros mintafelismerőt, ami a bemenetére ciklikusan, sorosan érkező 4 bites számok közül felismeri azokat, amelyek 3-mal vagy 5-tel oszthatók. A fenti
RészletesebbenA következő feladat célja az, hogy egyszerű módon konstruáljunk Poisson folyamatokat.
Poisson folyamatok, exponenciális eloszlások Azt mondjuk, hogy a ξ valószínűségi változó Poisson eloszlású λ, 0 < λ
RészletesebbenIntelligens adatelemzés
Antal Péter, Antos András, Horváth Gábor, Hullám Gábor, Kocsis Imre, Marx Péter, Millinghoffer András, Pataricza András, Salánki Ágnes Intelligens adatelemzés Szerkesztette: Antal Péter A jegyzetben az
RészletesebbenFEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 9 IX. ROBUsZTUs statisztika 1. ROBUsZTUssÁG Az eddig kidolgozott módszerek főleg olyanok voltak, amelyek valamilyen értelemben optimálisak,
RészletesebbenDifferenciálegyenletek numerikus megoldása
a Matematika mérnököknek II. című tárgyhoz Differenciálegyenletek numerikus megoldása Fokozatos közeĺıtés módszere (1) (2) x (t) = f (t, x(t)), x I, x(ξ) = η. Az (1)-(2) kezdeti érték probléma ekvivalens
RészletesebbenA Statisztika alapjai
A Statisztika alapjai BME A3c Magyar Róbert 2016.05.12. Mi az a Statisztika? A statisztika a valóság számszerű információinak megfigyelésére, összegzésére, elemzésére és modellezésére irányuló gyakorlati
RészletesebbenA Markovi forgalomanalízis legújabb eredményei és ezek alkalmazása a távközlő hálózatok teljesítményvizsgálatában
A Markovi forgalomanalízis legújabb eredményei és ezek alkalmazása a távközlő hálózatok teljesítményvizsgálatában Horváth Gábor ghorvath@hit.bme.hu (Horváth András, Telek Miklós) - p. 1 Motiváció, problémafelvetés
RészletesebbenAz agykéreg és az agykérgi aktivitás mérése
Az agykéreg és az agykérgi aktivitás mérése Intrakortikális hálózatok Elektromos aktiváció, sejtszintű integráció Intracelluláris sejtaktivitás mérés Sejten belüli elektromos integráció 70 mv mikroelektrod
RészletesebbenKísérlettervezés alapfogalmak
Kísérlettervezés alapfogalmak Rendszermodellezés Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs Rendszerek Tanszék Kísérlettervezés Cél: a modell paraméterezése a valóság alapján
RészletesebbenANALÍZIS III. ELMÉLETI KÉRDÉSEK
ANALÍZIS III. ELMÉLETI KÉRDÉSEK Szerkesztette: Balogh Tamás 2014. május 15. Ha hibát találsz, kérlek jelezd a info@baloghtamas.hu e-mail címen! Ez a Mű a Creative Commons Nevezd meg! - Ne add el! - Így
RészletesebbenLine aris f uggv enyilleszt es m arcius 19.
Lineáris függvényillesztés 2018. március 19. Illesztett paraméterek hibája Eddig azt néztük, hogy a mérési hiba hogyan propagál az illesztett paraméterekbe, ha van egy konkrét függvényünk. a hibaterjedés
RészletesebbenSTATISZTIKA ELŐADÁS ÁTTEKINTÉSE. Matematikai statisztika. Mi a modell? Binomiális eloszlás sűrűségfüggvény. Binomiális eloszlás
ELŐADÁS ÁTTEKINTÉSE STATISZTIKA 9. Előadás Binomiális eloszlás Egyenletes eloszlás Háromszög eloszlás Normális eloszlás Standard normális eloszlás Normális eloszlás mint modell 2/62 Matematikai statisztika
RészletesebbenLátás Nyelv - Emlékezet
Látás Nyelv - Emlékezet Az emlékezés folyamata, emlékezet & agy Szőllősi Ágnes aszollosi@cogsci.bme.hu HOSSZÚTÁVÚ EMLÉKEZET & EMLÉKEZETI RENDSZEREK Squire 2004 DEKLARATÍV (EXPLICIT) EMLÉKEZET: szándékos
RészletesebbenStatisztika I. 8. előadás. Előadó: Dr. Ertsey Imre
Statisztika I. 8. előadás Előadó: Dr. Ertsey Imre Minták alapján történő értékelések A statisztika foglalkozik. a tömegjelenségek vizsgálatával Bizonyos esetekben lehetetlen illetve célszerűtlen a teljes
RészletesebbenStatisztikus tanulás az idegrendszerben
Statisztikus tanulás az idegrendszerben ORBÁN GERGŐ http://golab.wigner.mta.hu Hierarchikus grafikus modellek Nehéz a nemlineáris optimalizálás hierarchikus rendszerekben: Amennyiben erős függéseket tételezek
RészletesebbenTöbbváltozós, valós értékű függvények
TÖ Többváltozós, valós értékű függvények TÖ Definíció: többváltozós függvények Azokat a függvényeket, melyeknek az értelmezési tartománya R n egy részhalmaza, n változós függvényeknek nevezzük. TÖ Példák:.
RészletesebbenAlgoritmusok Tervezése. 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás
Algoritmusok Tervezése 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás Mi az algoritmus? Lépések sorozata egy feladat elvégzéséhez (legáltalánosabban) Informálisan algoritmusnak nevezünk bármilyen jól definiált
RészletesebbenTerületi sor Kárpát medence Magyarország Nyugat-Európa
Területi sor Terület megnevezése Magyarok száma 2011.01.01. Kárpát medence 13 820 000 Magyarország 10 600 00 Nyugat-Európa 1 340 000 HIV prevalence (%) in adults in Africa, 2005 2.5 Daganatos halálozás
RészletesebbenKísérlettervezés alapfogalmak
Kísérlettervezés alapfogalmak Rendszermodellezés Budapest University of Technology and Economics Fault Tolerant Systems Research Group Budapest University of Technology and Economics Department of Measurement
Részletesebben2) Tervezzen Stibitz kód szerint működő, aszinkron decimális előre számlálót! A megvalósításához
XIII. szekvenciális hálózatok tervezése ) Tervezzen digitális órához, aszinkron bináris előre számláló ciklus rövidítésével, 6-os számlálót! megvalósításához negatív élvezérelt T típusú tárolót és NN kaput
Részletesebben