STATISZTIKAI TANULÁS AZ IDEGRENDSZERBEN BAYES-I VISELKEDÉS TÖRÖK BALÁZS

Hasonló dokumentumok
STATISZTIKAI TANULÁS AZ IDEGRENDSZERBEN BAYES-I VISELKEDÉS

Megerősítéses tanulás

A maximum likelihood becslésről

Modellkiválasztás és struktúrák tanulása

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.

Least Squares becslés

Statisztikus tanulás az idegrendszerben

Probabilisztikus modellek II: Inferencia. Nagy Dávid

Probabilisztikus modellek. Nagy Dávid

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Funkcionális konnektivitás vizsgálata fmri adatok alapján

Kísérlettervezés alapfogalmak

Probabilisztikus funkcionális modellek idegrendszeri adatok elemzésére

Probabilisztikus modellek. Nagy Dávid

Kísérlettervezés alapfogalmak

Mérési adatok illesztése, korreláció, regresszió

Kutatásmódszertan és prezentációkészítés

Általánosan, bármilyen mérés annyit jelent, mint meghatározni, hányszor van meg

STATISZTIKA ELŐADÁS ÁTTEKINTÉSE. Matematikai statisztika. Mi a modell? Binomiális eloszlás sűrűségfüggvény. Binomiális eloszlás

KÖZELÍTŐ INFERENCIA II.

STATISZTIKA. A maradék független a kezelés és blokk hatástól. Maradékok leíró statisztikája. 4. A modell érvényességének ellenőrzése

Inferencia valószínűségi modellekben

Matematikai statisztika c. tárgy oktatásának célja és tematikája

Compton-effektus. Zsigmond Anna. jegyzıkönyv. Fizika BSc III.

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

KÖZELÍTŐ INFERENCIA II.

1. Gauss-eloszlás, természetes szórás

Anyagvizsgálati módszerek Mérési adatok feldolgozása. Anyagvizsgálati módszerek

STATISZTIKA I. Centrális mutatók. Helyzeti középértékek. Középértékek. Bimodális eloszlás, U. Módusz, Mo. 4. Előadás.

[Biomatematika 2] Orvosi biometria

Stratégiák tanulása az agyban

Biomatematika 12. Szent István Egyetem Állatorvos-tudományi Kar. Fodor János

ORVOSI STATISZTIKA. Az orvosi statisztika helye. Egyéb példák. Példa: test hőmérséklet. Lehet kérdés? Statisztika. Élettan Anatómia Kémia. Kérdések!

Nagy számok törvényei Statisztikai mintavétel Várható érték becslése. Dr. Berta Miklós Fizika és Kémia Tanszék Széchenyi István Egyetem

Mérési hibák

Adatok statisztikai értékelésének főbb lehetőségei

6. Előadás. Vereb György, DE OEC BSI, október 12.

KÖVETKEZTETŐ STATISZTIKA

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )

Statisztikai következtetések Nemlineáris regresszió Feladatok Vége

[Biomatematika 2] Orvosi biometria

y ij = µ + α i + e ij

Információ megjelenítés Diagram tervezés

Mesterséges Intelligencia I.

Biometria, haladó biostatisztika EA+GY biometub17vm Szerda 8:00-9:00, 9:00-11:00 Déli Tömb 0-804, Lóczy Lajos terem

BAGME11NNF Munkavédelmi mérnökasszisztens Galla Jánosné, 2011.

Matematika A3 Valószínűségszámítás, 6. gyakorlat 2013/14. tavaszi félév

Biomatematika 2 Orvosi biometria

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Kabos: Statisztika II. t-próba 9.1. Ha ismert a doboz szórása de nem ismerjük a

[Biomatematika 2] Orvosi biometria

A valószínűségszámítás elemei

Biológiai rendszerek modellellenőrzése bayesi megközelítésben

A regisztrált álláskeresők számára vonatkozó becslések előrejelző képességének vizsgálata

Statisztika I. 8. előadás. Előadó: Dr. Ertsey Imre

Az agyi jelek adaptív feldolgozása MENTÁ LIS FÁ R A DT S ÁG MÉRÉSE

Statisztikai módszerek a skálafüggetlen hálózatok

ELTE TáTK Közgazdaságtudományi Tanszék GAZDASÁGSTATISZTIKA. Készítette: Bíró Anikó. Szakmai felelős: Bíró Anikó június

A Markowitz modell: kvadratikus programozás

Lineáris regressziós modellek 1

VALÓSZÍNŰSÉG, STATISZTIKA TANÍTÁSA

Modern Fizika Labor. Fizika BSc. Értékelés: A mérés dátuma: A mérés száma és címe: 5. mérés: Elektronspin rezonancia március 18.

biometria II. foglalkozás előadó: Prof. Dr. Rajkó Róbert Matematikai-statisztikai adatfeldolgozás

Gyakorló feladatok a 2. zh-ra MM hallgatók számára

Több valószínűségi változó együttes eloszlása, korreláció

Korreláció és lineáris regresszió

Biostatisztika VIII. Mátyus László. 19 October

A mérési eredmény megadása

Matematikai alapok és valószínőségszámítás. Statisztikai becslés Statisztikák eloszlása

4/24/12. Regresszióanalízis. Legkisebb négyzetek elve. Regresszióanalízis

Regressziós vizsgálatok

Tartalomjegyzék I. RÉSZ: KÍSÉRLETEK MEGTERVEZÉSE

x, x R, x rögzített esetén esemény. : ( ) x Valószínűségi Változó: Feltételes valószínűség: Teljes valószínűség Tétele: Bayes Tétel:

Számítógépes döntéstámogatás. Statisztikai elemzés

A mérések általános és alapvető metrológiai fogalmai és definíciói. Mérések, mérési eredmények, mérési bizonytalanság. mérés. mérési elv

[Biomatematika 2] Orvosi biometria

Matematikai alapok és valószínőségszámítás. Középértékek és szóródási mutatók

11. Előadás. 11. előadás Bevezetés a lineáris programozásba

Módszertani hozzájárulás a Szegénység

6. Függvények. 1. Az alábbi függvények közül melyik szigorúan monoton növekvő a 0;1 intervallumban?

Módszertani Intézeti Tanszéki Osztály. A megoldás részletes mellékszámítások hiányában nem értékelhető!

Függvények Megoldások

Kettőnél több csoport vizsgálata. Makara B. Gábor

A forgalomsűrűség és a követési távolság kapcsolata

Piri Dávid. Mérőállomás célkövető üzemmódjának pontossági vizsgálata

Bevezetés a hipotézisvizsgálatokba

Statisztika - bevezetés Méréselmélet PE MIK MI_BSc VI_BSc 1

Statisztikai becslés

y ij = µ + α i + e ij STATISZTIKA Sir Ronald Aylmer Fisher Példa Elmélet A variancia-analízis alkalmazásának feltételei Lineáris modell

ÉRZÉKELŐK ÉS BEAVATKOZÓK I. 3. MÉRÉSFELDOLGOZÁS

Probabilisztikus modellek. Nagy Dávid

Gépi tanulás és Mintafelismerés

Érzékelési folyamat szereplői. Az érzékelés biofizikájának alapjai. Inger Modalitás Receptortípus. Az inger jellemzői MILYEN? HOL? MENNYI? MEDDIG?

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

A leíró statisztikák

A tanulók gyűjtsenek saját tapasztalatot az adott szenzorral mérhető tartomány határairól.

Statisztika I. 12. előadás. Előadó: Dr. Ertsey Imre

Elemi statisztika. >> =weiszd= << december 20. Szerintem nincs sok szükségünk erre... [visszajelzés esetén azt is belerakom] x x = n

Átírás:

STATISZTIKAI TANULÁS AZ IDEGRENDSZERBEN BAYES-I VISELKEDÉS TÖRÖK BALÁZS - 2018.03.05.

elméleti Introduction Knowledge representation Probabilistic models Bayesian behaviour Approximate inference I (computer lab) Vision I Approximate inference II: Sampling Measuring priors Neural representation of probabilities Structure learning Vision II Decision making and reinforcement learning

elméleti kognitív Introduction Knowledge representation Probabilistic models Bayesian behaviour Approximate inference I (computer lab) Vision I Approximate inference II: Sampling Measuring priors Neural representation of probabilities Structure learning Vision II Decision making and reinforcement learning

elméleti kognitív neurális Introduction Knowledge representation Probabilistic models Bayesian behaviour Approximate inference I (computer lab) Vision I Approximate inference II: Sampling Measuring priors Neural representation of probabilities Structure learning Vision II Decision making and reinforcement learning

BAYES-I VISELKEDÉS ISMÉTLÉS A rendelkezésre álló információ sosem elégséges, a világ mindig többértelmű

BAYES-I VISELKEDÉS ISMÉTLÉS A rendelkezésre álló információ sosem elégséges, a világ mindig többértelmű Világmodellünk (generatív modell) egy valószínűségi modell P(X 1,X 2, ) = P(observation,hypothesis)

BAYES-I VISELKEDÉS ISMÉTLÉS A rendelkezésre álló információ sosem elégséges, a világ mindig többértelmű Világmodellünk (generatív modell) egy valószínűségi modell P(X 1,X 2, ) = P(observation,hypothesis) Inferencia: megfigyelések alapján a világ látens állapotának kikövetkeztetése P(h o)

BAYES-I VISELKEDÉS DUTCH BOOK ÉRV A világról alkotott véleményünket a valószínűségszámítás szabályai szerint kell alakítanunk (konzisztencia)

BAYES-I VISELKEDÉS DUTCH BOOK ÉRV A világról alkotott véleményünket a valószínűségszámítás szabályai szerint kell alakítanunk (konzisztencia) Melyik kezemben van az érme?

BAYES-I VISELKEDÉS DUTCH BOOK ÉRV A világról alkotott véleményünket a valószínűségszámítás szabályai szerint kell alakítanunk (konzisztencia) Melyik kezemben van az érme? Jobb.

BIZONYTALANSÁGOK REPREZENTÁLÁSA

BIZONYTALANSÁGOK REPREZENTÁLÁSA

BIZONYTALANSÁGOK REPREZENTÁLÁSA 4 m

BIZONYTALANSÁGOK REPREZENTÁLÁSA 4 m

BIZONYTALANSÁGOK REPREZENTÁLÁSA 4 m Egyáltalán nem mindegy, hogy mekkora bizonytalanságot rendelünk a becslésünkhöz, mert eltérő döntésekre vezetnek.

BAYES-I VISELKEDÉS Bizonytalanság, ambiguitás miatt normatív feltételezés, hogy a valószínűségszámításra van szükség Feltételezzük, hogy az emberi idegrendszer evolúciósan úgy fejlődött, hogy képes legyen a bayesi inferenciához közel egyenértékű számításokat végezni

BAYES-I VISELKEDÉS AZ ELMÉLETI IDEGTUDOMÁNY NORMATÍV MEGKÖZELÍTÉSE Top-down megközelítés: a feladatot oldjuk meg normatív feltételezésekkel majd ezt próbáljuk meg implementálni az idegrendszerre jellemző biológiai korlátok mellett Arra fogunk ma példákat látni, hogy sok esetben az ember és más élőlények valóban a mi értelmezésünk szerint optimálisan működnek, vagyis az ambiguitást a valószínűségszámításnak megfelelően reprezentálják és helyesen integrálják. Emellett lehetőség van felállítani a neurális működéssel kapcsolatos predikciókat, remélhetőleg tudunk a modellünkben lévő változókat a neurális aktivitáshoz kapcsolni.

BAYES-I VISELKEDÉS GENERATÍV MODELL Arról beszéltünk eddig, hogy az emberi tanulást, vagy az idegrendszer tanulását egy generatív modell tanulásaként fogunk fel.

BAYES-I VISELKEDÉS INFERENCIA Aztán ezt a modellt megfordítva végez inferenciát az ember.

BAYES-I VISELKEDÉS VISELKEDÉS Amivel most kiegészítjük az az, hogy ettől (és csak ettől) az inferenciától fog függeni a viselkedése. Ugye ha grafikus modellként nézzük ezt, azt láthatjuk, hogy ha tudjuk, hogy mi az, amit az egyén inferált, akkor a viselkedése kondícionálisan függetlenné válik attól, hogy mit érzékelt, illetve attól is, hogy mi volt a stimulus amit beadtunk neki. Tulajdonképpen, mi akik a vizsgálatot végzik, ebben a rendszerben próbálunk inferenciát végezni.

BAYES-I VISELKEDÉS TUDOMÁNYOS VIZSGÁLAT Például retina működése A tudományos vizsgálatunk tehát ezekre az elemekre terjed ki. Például vizsgálhatjuk ezt az összefüggést, amire egy példa mondjuk a retinán lévő sejtek működésének vizsgálata.

BAYES-I VISELKEDÉS TUDOMÁNYOS VIZSGÁLAT De ugyanúgy érdekelhetnek minket az inferencia működése, illetve a viselkedésszervezés.

BAYES-I VISELKEDÉS KÍSÉRLET Egy kísérletben a stimulust tudjuk kontrollálni.

BAYES-I VISELKEDÉS KÍSÉRLET Mérhetünk mondjuk viselkedéses mennyiségeket, vagy olyan mennyiségeket (pl. agyi aktivitás), amiről azt gondoljuk, hogy az inferált reprezentációval függenek össze.

BAYES-I VISELKEDÉS KÍSÉRLET Tehát igazából általában egy ilyen függést tudunk megfigyelni.

BAYES-I VISELKEDÉS KÍSÉRLET Viszont egyéb feltételezésekkel az egyes alfolyamatokat tudjuk rögzíteni. Például ha olyan a kísérlet, hogy az inferencia és a viselkedés között nagyon egyszerű szabályosság van. Egyszerűen ki kell választania azt a választ, ami szerinte a legnagyobb eséllyel jó.

BAYES-I VISELKEDÉS KÍSÉRLET Vagy ugye azt is feltételezzük, hogy az inferencia a generatív modell megfordítása. Így juthatunk el ahhoz, hogy a reprezentációjáról tudjunk valamit mondani.

BAYES-I VISELKEDÉS VISELKEDÉS Világ reprezentációja: P (h, o) h o hipotézis megfigyelés (observation) Eddig a reprezentációról beszéltünk, de még nem világos, hogy hogyan lesz ebből viselkedés. Az is világos, hogy nem csak a világ aktuális állapotáról lehet elképzelésem, hanem arról is, hogy mi lesz, ha ezt vagy azt teszem. Tehát el tudok képzelni lehetséges jövőbeli állapotokat, amikre nekem hatásom lehet.

BAYES-I VISELKEDÉS VISELKEDÉS Világ reprezentációja: P (h, o) és P (h 0 h, a) a cselekvés (action) A világmodellem tartalmazhatja azt is, hogy adott állapotból adott cselekvés milyen állapotba vezet. Ekkor már az is természetesnek tűnik, hogy a várható kimenetelt (vagy valamilyen függvényét) szeretnénk maximalizálni.

BAYES-I VISELKEDÉS VISELKEDÉS Világ reprezentációja: P (h, o) és P (h 0 h, a) Érték függvény: V (h) = L(h) Ezek egy része jó, egy része nem különösebben. Természetesnek tűnik, hogy nem csak a világ állapota, hanem ez a belső értékrendszerem és a világról való elképzelésem együttesen fogja meghatározni, hogy mit teszek. Tegyük fel, hogy rangsorolni szeretnénk a lehetséges kimeneteleket. Természetesen adja magát, hogy valós számokkal reprezentáljuk ezeket a kimeneteleket. Ekkor már az is világos, hogy a várható kimenetelt (vagy valamilyen függvényét) szeretnénk maximalizálni.

BAYES-I VISELKEDÉS VISELKEDÉS Világ reprezentációja: P (h, o) és P (h 0 h, a) Érték függvény: V (h) = L(h) Döntés: opt a f(v,p(h 0 h, a),p(h)) A kiválasztott viselkedés valamilyen (esetleg probabilisztikus) függvénye lesz a világmodellemnek, illetve az értékrendemnek.

BAYES-I VISELKEDÉS VISELKEDÉS Világ reprezentációja: P (h, o) és P (h 0 h, a) Érték függvény: V (h) = L(h) Döntés: pl: opt a f(v,p(h 0 h, a),p(h)) â = argmax( X h,h 0 V (h 0 )P (h 0 h, a)p (h)) Például lehet a kiválasztott viselkedésem az, amelyik a jelenlegi világról alkotott képemből kiindulva (P(h)), megpróbálja a következő állapotban (h ) lévő érték (V(h )) várható értékét maximalizálni. Ezt írja le ez a formula.

KÖLTSÉGFÜGGYVÉNY Hogyan határozza meg a költségfüggvény a döntésünket? Speciális eset: a döntés ugyanabban a térben születik, mint az inferencia, ekkor a döntés eredménye egy speciális ˆx kiválasztása L(ˆx, x) = (ˆx x) 2 ˆx = L(ˆx, x) = ˆx x L(ˆx, x) = 0 if x=ˆx 1 otherwise ˆx x= x x P(x) P(x) = 1 2 ˆx = argmax P(x) x 4 posterior mean posterior median maximum a posteriori (MAP) 3 P(x) 2 1 0 0 0.2 0.4 0.6 0.8 1 x Ha a kísérleti elrendezéssel, vagy más módon tudjuk rögzíteni a veszteség (loss) függvényt (L), akkor az optimális stratégia (ami maximalizálja az érték várható értékét, vagy minimalizálja a veszteség várható értékét) egy egyszerű statisztikája lesz a posterior eloszlásnak (pl. mean, median vagy MAP).

BAYES-I VISELKEDÉS KAPACITÁS KORLÁTOK Feldolgozható információ A racionalitás vagy optimalitás csak ezen korlátok figyelembe vételével nyerhet értelmet.

BAYES-I VISELKEDÉS KAPACITÁS KORLÁTOK Feldolgozható információ Feldolgozás (komputáció) A racionalitás vagy optimalitás csak ezen korlátok figyelembe vételével nyerhet értelmet.

COPPOLA ET AL, 1998 - ÉL STATISZTIKA A TERMÉSZETES KÖRNYEZETBEN Az elsődleges látókéregben (V1) olyan sejtek vannak, amelyek a retina egy adott részére adott irányultságú élekre érzékenyek. Megvizsgálhatjuk, hogy ezen élirány eloszlásokra érzékeny, ezt a priort figyelembe vevő módon van-e a neurális kódolás kialakítva. Itt láthatjuk, hogy az élek irányának mi a statisztikája különböző környezetekben.

WEI & STOCKER, 2012 HATÉKONY KÓDOLÁS Prior: a világ statisztikája Hatékonyság a neurális reprezentációra ad megszorítást Vizsgálhatjuk a kódolás hatékonyságát. Az egyes élirányokra érzékeny sejteket a következőképpen lehet jellemezni. Minden sejt rendelkezik egy hangolási görbével (alsó ábra), amely azt mutatja meg, hogy mekkora intenzitással tüzel a különböző mutatott élirányokra. Van egy kitüntetett irány, amire maximálisan tüzel, ettől az iránytól távolodva egyre gyengébben tüzel. Az alsó ábrán 9 db sejt hangolási görbéit láthatjuk, amelyek az optimális kódolást valósítják meg. Ha szeretnénk a négyzetes hiba/ veszteség várható értékét minimalizálni, akkor 9 db neuron esetén az optimális hangolási görbék azok, amelyek az alsó ábrán vannak. A gyakori irányokra (pl. függőleges) érzékeny neuronokból több van, mint a ritkább irányokra érzékenyekből.

GANGULI ET AL, 2010 A normatív érvből levezetett predikciót fiziológiai mérések erősítik meg (b). A kardinális irányokra érzékeny neuronokból valóban több van. A perceptuális megkülönböztetés küszöbe is alacsonyabb a kardinális irányoknál, ahogy azt várnánk (c). Lehet ebből a két mért adatból, feltételezve a Bayesi inferenciára optimalizált rendszert, hogy mi lehetett az eredeti élstatisztika (d,e) és ezen jóslatok is jól illeszkednek a tényleges élstatisztikára.

ERNST, & BANKS 2002 CUE INTEGRATION Méretbecslés Vizuális információ Haptikus információ A kettő forrás információtartalma, vagyis a hozzáadott zaj volt variálva Ebben a kísérletben egy sáv magasságát kellett megbecsülni vizuális és haptikus információk alapján. A kérdés, amit vizsgáltak az volt, hogy az emberek optimálisan integrálják-e a két információt.

ERNST, & BANKS 2002 CUE INTEGRATION Először definiálnunk kell a valószínűségi modellt. Erről készíthetünk egy grafikus modellt, ami mentén faktorizálunk. A kísérleti személy azt feltételezi a modellünk szerint, hogy egy igazi sávmagasság van, amelyet zajosan mér meg szemmel és kézzel. A feltételezése szerint egy sávmagasság generálja a vizuális és haptikus ingereit. (Igazából persze két különböző sávmagasságot mutatunk neki a két modalitásban és azt figyeljük, miként súlyozza ezeket.)

ERNST, & BANKS 2002 CUE INTEGRATION s Unif(0,M)

ERNST, & BANKS 2002 CUE INTEGRATION s Unif(0,M) X v s N(s, v) X h s N(s, h) A modellünket leírhatjuk kondícionális eloszlásokkal. A felírt gráf szerint ezekre az eloszlásokra faktorizálódik az összes változó együttes eloszlása. Vagyis P(x, X_v, X_s) = P(s) * P(X_v s) *P(X_h s).

ERNST, & BANKS 2002 CUE INTEGRATION Az eddig elmondottak alapján az optimális integrálása a bejövő információnak így néz ki. Itt két dolog látszik. Ha a kísérletben variált vizuális bizonytalanság kicsi (és jóval kisebb, mint a haptikus, bal oldal), akkor a vizuális inger alapján történő becslés fog dominálni, míg ha ez a bizonytalanság nagy (jobb oldal), úgy a haptikus. Az is látszik, hogy mivel a haptikus bizonytalanság fixen van tartva, ha nő a vizuális bizonytalanság, úgy a posterior bizonytalanság is nő (a posterior eloszlás szélesebbé válik).

ERNST, & BANKS 2002 CUE INTEGRATION ŝ N (ˆµ, ˆ2) ˆµ = 1 X v2v + X h 2 h + 1 2 v 1 2 h ˆ2 = 1 2 h + 1 2 v A posterior is egy normális eloszlás, a meanje a két normális eloszlás meanjeinek a pontossággal súlyozott közepe, a pontosság (a variancia reciproka) pedig a két pontosság összege.

ERNST, & BANKS 2002

ERNST, & BANKS 2002

ERNST, & BANKS 2002 Az alsó ábrákon függőleges tengelyen azt láthatjuk, hogy egy másik mutatott ingert (annak méretének függvényében) mekkora hányadban (mekkora valószínűséggel) ítél meg nagyobbnak. Ha a vizuális bizonytalanság kisebb, a görbe jobbra, a vizuális méret felé tolódik el.

ERNST, & BANKS 2002 Először a kutatók kimérték a haptikus és vizuális ingerek szórását. Ezt úgy tették, hogy a különböző ingerben meglévő zajszinteknél mérték, hogy egy 55mm magas sávnál mennyivel nagyobb (vagy kisebb) sávot képesek az emberek megkülönböztetni. Az így kimért zajszintekből számolták az optimális becslést a két jel integrálására.

ERNST, & BANKS 2002 Itt látható, hogy amikor a vizális zaj kicsi (kör), akkor a vizuális kép alapján becsült méret dominál (S_V), míg ha a zaj nagy (háromszög), akkor a haptikus. A vonalak a predikciót mutatják, a pontok a méréseket.

ERNST, & BANKS 2002 A (c) ábrán látható szürkével a bejósolt optimális súly a két ingerre, a pontok pedig a mért adatok.

KÖRDING & WOLPERT, 2004 BAYESIAN INTEGRATION IN SENSORIMOTOR LEARNING Ebben a kísérletben azt vizsgálták, hogy az emberek képesek-e egy adott priort megtanulni, illetve a bayesi inferenciát optimálisan (a likelihoodot és a priort optimálisan) kombinálni. A feladatban két pont között kellett a résztvevőknek a mutatóujjukat végighúzni. A kezüket azonban egy képernyőn mutatták, ahol minden egyes trial során vagy nem mutattak semmit, vagy csak félúton egyszer, eltolással mutatták a kurzort. Az elején, a betanításkor elmosódás nélkül mutatták meg a kurzor helyét egyszer az út felénél, majd a végén. Aztán a további kondíciókban csak a felénél mutatták meg kis vagy nagy elmosódás mellett (M, L), végül mindenféle visszajelzés nélkül végeztették a feladatot ( végtelen zaj).

KÖRDING & WOLPERT, 2004 BAYESIAN INTEGRATION IN SENSORIMOTOR LEARNING Prior Likelihood Posterior Az eltolás egy Gauss eloszlásból jött (mean =1cm, sd = 0.5cm). A (c) ábra mutatja egy 2cm-es érzékelt eltolódás esetén a likelihoodokat. A (d) pedig az eltolás posteriorjait.

KÖRDING & WOLPERT, 2004 BAYESIAN INTEGRATION IN SENSORIMOTOR LEARNING Nézzük meg, hogy a viselkedés generatív modelljét hogyan tudjuk formalizálni.

KÖRDING & WOLPERT, 2004 BAYESIAN INTEGRATION IN SENSORIMOTOR LEARNING x shift 2cm Tegyük fel, hogy az adott trialben az eltolás mértéke 2cm.

KÖRDING & WOLPERT, 2004 BAYESIAN INTEGRATION IN SENSORIMOTOR LEARNING x shift 2cm Ekkor az elmosódástól függően, kisebb-nagyobb szórással kb. 2cm-es eltolást támogat a látvány.

KÖRDING & WOLPERT, 2004 BAYESIAN INTEGRATION IN SENSORIMOTOR LEARNING x shift 2cm ˆx shift a Likelihood A priorral összevetve kapjuk meg, hogy milyen eltolást inferál az illető és abból kapjuk meg, hogy milyen mozgást fog végezni.

KÖRDING & WOLPERT, 2004 BAYESIAN INTEGRATION IN SENSORIMOTOR LEARNING x shift ˆx shift a Posterior of ˆx shift A posterior a prior közepe felé tolódik el, attól függő mértékben, hogy mekkora volt a vizuális bizonytalanság.

KÖRDING & WOLPERT, 2004 BAYESIAN INTEGRATION IN SENSORIMOTOR LEARNING x shift ˆx shift a P (a ˆx shift )=N (ˆx shift, 2 ) Posterior of ˆx shift Behaviour Ha például egy négyzetes költségfüggvényt feltételezünk, ami azt jelenti, a kurzor targettől való távolságának négyzetével arányos, hogy mennyire ítéljük meg rossznak a megoldást, akkor az jön ki, hogy az inferált eltolással megegyező nagyságban kell korrigálni a mozgást. Tehát azt feltételezzük, hogy pont annyira fogja korrigálni a kurzor helyét, amennyire gondolta, hogy az el van tolva. Tulajdonképpen így a mozgásából közvetlenül megkapjuk azt, hogy mekkora eltolást feltételezett a kísérleti személy.

KÖRDING & WOLPERT, 2004 BAYESIAN INTEGRATION IN SENSORIMOTOR LEARNING A cikkben három különböző modell predikcióit hasonlítják össze. Első lehetőségként azt tekintik, hogy a kísérleti személy mindig tökéletesen képes korrigálni. A második lehetőség az, amikor a Bayes-i inferenciának megfelelően, a zaj függvényében egyre kevésbé korrigál (a zaj növekedésével a meredekség nő, vagyis ugyanakkora tényleges eltolásnál nagyobbat hibázik nagyobb zaj esetén). A harmadik lehetőség, hogy egy fix függvény szerint korrigál.

KÖRDING & WOLPERT, 2004 BAYESIAN INTEGRATION IN SENSORIMOTOR LEARNING A mért meredekségek a Bayes-i inferencia modellnek megfelelők

KÖRDING & WOLPERT, 2004 BAYESIAN INTEGRATION IN SENSORIMOTOR LEARNING Illetve ha megpróbáljuk a feltételezéseinket felhasználva kiszámolni, hogy milyen priorral rendelkeznek az eltolás méretéről, akkor az nagyjából megegyezik az eltolások méretére ténylegesen a feladatban használt eloszláshoz.

KÖRDING & WOLPERT, 2004 BAYESIAN INTEGRATION IN SENSORIMOTOR LEARNING Egy másik kísérletben pedig megváltoztatták az eltolások eloszlását bimodálisra. Ekkor az hibázás nem lineárisan változik az eltolástól, mivel kis jobb v. bal oldali eltolások esetén nagyobb korrekciót fognak végezni a kísérleti személyek, mivel nagyobb eltolást inferálnak.

GRIFFITHS & TENENBAUM, 2006 OPTIMAL PREDICTIONS IN EVERYDAY COGNITION Lehet a bayes-i inferenciát pusztán kognitív szinten is vizsgálni. Ebben a kísérletben az volt a feladat, hogy különböző időintervallumokat becsüljenek meg úgy, hogy azt az információt mondják nekik, hogy az adott intervallum hosszabb, mint egy adott t idő. Például: hány évig fog élni egy ember, aki most 55 éves? Hány hétig fog még futni a moziban egy film, ha már 10 hete megy? A kérdés az volt, hogy az emberek reprezentálják-e ezeket az eloszlásokat (priorokat) az időintervallumokról, amelyek alakban is lényegileg eltérnek.

GRIFFITHS & TENENBAUM, 2006 OPTIMAL PREDICTIONS IN EVERYDAY COGNITION Itt látható, hogy a tényleges eloszlások mik. (Ezeket internetről elérhető adatbázisok alapján állították össze.)

GRIFFITHS & TENENBAUM, 2006 OPTIMAL PREDICTIONS IN EVERYDAY COGNITION Itt pedig látható az optimális bayesi becslés (vonal) és a mért emberi adat (pont) illeszkedése. Látható, hogy a különböző alakú prioroknak megfelelő becslések egybevágnak az emberek becsléseivel. Kivétel a fáraók esete, ahol feltehetően az emberek nem rendelkeznek megfelelő tudással ahhoz, hogy az optimális becslést megtegyék. Egy ilyen esetben feltételezve, hogy optimális becslést adnak az emberek, (joggal feltételezve a többi adat alapján), megmérhetjük, hogy mi volt az a prior, ami a döntéseiket vezérelte. az így illesztett eloszlás (szaggatott vonal) már jól illeszkedik a becsléseikre (fontos: az eloszlás alakja rögzített volt, és az az alak, amely a tényleges eloszlást is jellemzi).

TROMMERHAUSER, MALONEY, & LANDY, 2008 OPTIMÁLIS DÖNTÉSEK EMBEREKNÉL Motoros/szenzoros zaj Kísérletben kontrollált költségfüggvény Beszéltünk arról, hogy az ember elképzelése a világról (posterior) az értékfüggvénnyel együttesen határozza meg a viselkedést. Ebben a kísérletben azt vizsgálták, hogy az értékfüggvény változtatásával optimális módon változtatják-e az emberek a viselkedésüket. A feladatban azért kaptak pénzt a résztvevők, ha egy zöld körön belül tudnak (gyorsan, 700ms alatt) a képernyőre nyomni. Viszont a nyereség helyett pénzt veszítenek, ha a zöld kört metsző piros körbe nyomnak.

TROMMERHAUSER, MALONEY, & LANDY, 2008 OPTIMÁLIS DÖNTÉSEK EMBEREKNÉL Adott mértékű motor-zajt feltételezve Kiszámolhatjuk, hogy fix motoros zajt feltételezve, mi az az optimális célpont, amit a résztvevőnek meg kell próbálnia megnyomni (sárga).

TROMMERHAUSER, MALONEY, & LANDY, 2008 OPTIMÁLIS DÖNTÉSEK EMBEREKNÉL Látható, hogy a zöld kör középpontjától optimális eltérés (optimal shift) nagyban megegyezik az emberek tényleges korrekciójával (actual shift).

BAYES-I VISELKEDÉS ÖSSZEFOGLALÁS A környezet statisztikáinak megfelelő optimális reprezentáció következmény: eltérő pontosság/döntési küszöb Normatív elképzelés: (i) a bizonytalanságok reprezentálása szükséges; (ii) kombinálásuk a valószínűségszámítás szerint működik Kísérleti eredmények: (i) az ember (és más élőlények is) reprezentálják a bizonytalanságot (pl. Körding, 2004), és (ii) megfelelő módon kombinálják az információkat (pl. Ernst & Banks) Következmény: a neurális aktivitásban kereshetjük a változók lenyomatait (későbbi előadások)

BAYES-I VISELKEDÉS HÁZI FELADAT 1. Cue integration: lássuk be, használva a Bayes szabályt és a megadott prior és likelihood függvényeket, hogy a látens (s) posteriorja Gauss a következő paraméterekkel: (Keressük ki a Gauss eloszlás sűrűségfüggvényét és használjuk a Bayes-i inferencia szabályait: posterior ~ prior * likelihood). ˆµ = X v2v + X h 2 h 1 2 h 1 + = 1 1 ˆ2 2 + 1 2 2 h v v 2. A Körding (2004) cikkben mi a kvalitatív különbség a három modell között? 3. https://colab.research.google.com/notebook Overview of Colaboratory Features átnézése, következő órán ebben dolgozunk! balazs@toeroek.hu

BAYES-I VISELKEDÉS CIKKEK I. David M. Coppola, Harriett R. Purves, Allison N. McCoy, and Dale Purves. (1998). The distribution of oriented contours in the real world. PNAS 95 (7) 4002-4006 http://www.pnas.org/content/95/7/4002.abstract Deep Ganguli and Eero P. Simoncelli (2010). Implicit encoding of prior probabilities in optimal neural populations http://www.cns.nyu.edu/pub/lcv/ganguli10c-preprint.pdf Xue-Xin Wei and Alan A. Stocker. (2012). Efficient coding provides a direct link between prior and likelihood in perceptual Bayesian inference. https://papers.nips.cc/paper/4489-efficient-coding-provides-a-direct-link-between-prior-andlikelihood-in-perceptual-bayesian-inference.pdf Marc O. Ernst* & Martin S. Banks (2002). Humans integrate visual and haptic information in a statistically optimal fashion http://www.cns.nyu.edu/~david/courses/perceptiongrad/readings/ernstbanks-nature2002.pdf

BAYES-I VISELKEDÉS CIKKEK II. Konrad P. Körding & Daniel M. Wolpert (2004). Bayesian integration in sensorimotor learning. http://klab.smpp.northwestern.edu/wiki/images/2/28/ Kording_Bayes_integrate_sensorimotor_learn_2004.pdf (2. Házi feladat) Thomas L. Griffiths & Joshua B. Tenenbaum (2006). Optimal Predictions in Everyday Cognition. http://cocosci.berkeley.edu/tom/papers/predictions.pdf Trommershäuser J, Maloney LT, Landy MS (2008). Decision making, movement planning and statistical decision theory.