Probabilisztikus modellek II: Inferencia. Nagy Dávid

Hasonló dokumentumok
Probabilisztikus modellek. Nagy Dávid

Probabilisztikus modellek. Nagy Dávid

Probabilisztikus modellek. Nagy Dávid

Probabilisztikus modellek. Nagy Dávid

KÖZELÍTŐ INFERENCIA II.

KÖZELÍTŐ INFERENCIA II.

Inferencia valószínűségi modellekben

Probabilisztikus funkcionális modellek idegrendszeri adatok elemzésére

Modellkiválasztás és struktúrák tanulása

Kauzális modellek. Randall Munroe

Matematikai statisztika c. tárgy oktatásának célja és tematikája

Least Squares becslés

A maximum likelihood becslésről

Funkcionális konnektivitás vizsgálata fmri adatok alapján

Biológiai rendszerek modellellenőrzése bayesi megközelítésben

Probabilisztikus modellek V: Struktúra tanulás. Nagy Dávid

Mesterséges Intelligencia I.

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Anyagvizsgálati módszerek Mérési adatok feldolgozása. Anyagvizsgálati módszerek

Inferencia. ADOTTAK:! generatív modell: például: DAG + prior(ok) + likelihood(ok) P(X 1,X 2,,X n ) megfigyelések: D = {X i = x i, X j = x j, }

Loss Distribution Approach

Markov-láncok stacionárius eloszlása

Nagy számok törvényei Statisztikai mintavétel Várható érték becslése. Dr. Berta Miklós Fizika és Kémia Tanszék Széchenyi István Egyetem

Statisztikus tanulás az idegrendszerben

STATISZTIKA ELŐADÁS ÁTTEKINTÉSE. Matematikai statisztika. Mi a modell? Binomiális eloszlás sűrűségfüggvény. Binomiális eloszlás

Valószín ségi döntéstámogató rendszerek

Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )

Az idegrendszeri memória modelljei

Markov modellek

Osztályozás, regresszió. Nagyméretű adathalmazok kezelése Tatai Márton

Exact inference in general Bayesian networks

6. Előadás. Vereb György, DE OEC BSI, október 12.

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Kabos: Statisztika II. t-próba 9.1. Ha ismert a doboz szórása de nem ismerjük a

Az idegrendszeri memória modelljei

Valószínűségi modellellenőrzés Markov döntési folyamatokkal

Virág Katalin. Szegedi Tudományegyetem, Bolyai Intézet

Legyen adott egy S diszkrét halmaz. Leggyakrabban S az egész számoknak egy halmaza, például S = {0, 1, 2,..., N}, {0, 1, 2,... }.

Valószínűségi modellek

STATISZTIKAI TANULÁS AZ IDEGRENDSZERBEN BAYES-I VISELKEDÉS

1. Adatok kiértékelése. 2. A feltételek megvizsgálása. 3. A hipotézis megfogalmazása

Bizonytalanság. Mesterséges intelligencia április 4.

A Markovi forgalomanalízis legújabb eredményei és ezek alkalmazása a távközlő hálózatok teljesítményvizsgálatában

Egy csodálatos elme modellje

Normális eloszlás tesztje

x, x R, x rögzített esetén esemény. : ( ) x Valószínűségi Változó: Feltételes valószínűség: Teljes valószínűség Tétele: Bayes Tétel:

f (M (ξ)) M (f (ξ)) Bizonyítás: Megjegyezzük, hogy konvex függvényekre mindig létezik a ± ben

Lineáris regressziós modellek 1

[Biomatematika 2] Orvosi biometria

Bizonytalan tudás kezelése

Matematikai alapok és valószínőségszámítás. Statisztikai becslés Statisztikák eloszlása

Bizonytalanságok melletti következtetés

Matematikai statisztika szorgalmi feladatok

Bayesi tanulás. Kooperáció és gépi tanulás laboratórium (VIMIMB02) március 12. Elméleti alapok. Bayesi lineáris regresszió

A mérések általános és alapvető metrológiai fogalmai és definíciói. Mérések, mérési eredmények, mérési bizonytalanság. mérés. mérési elv

Biostatisztika VIII. Mátyus László. 19 October

Kísérlettervezés alapfogalmak

STATISZTIKA ELŐADÁS ÁTTEKINTÉSE. Mi a modell? Matematikai statisztika. 300 dobás. sűrűségfüggvénye. Egyenletes eloszlás

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Logisztikus regresszió október 27.

Mintavétel fogalmai STATISZTIKA, BIOMETRIA. Mintavételi hiba. Statisztikai adatgyűjtés. Nem véletlenen alapuló kiválasztás

Biomatematika 12. Szent István Egyetem Állatorvos-tudományi Kar. Fodor János

[Biomatematika 2] Orvosi biometria

Rejtett Markov Modell

[Biomatematika 2] Orvosi biometria

Véletlen jelenség: okok rendszere hozza létre - nem ismerhetjük mind, ezért sztochasztikus.

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Egymintás próbák. Alapkérdés: populáció <paramétere/tulajdonsága> megegyezik-e egy referencia paraméter értékkel/tulajdonsággal?

Biomatematika 13. Varianciaanaĺızis (ANOVA)

Elemi statisztika. >> =weiszd= << december 20. Szerintem nincs sok szükségünk erre... [visszajelzés esetén azt is belerakom] x x = n

Mesterséges Intelligencia MI

Biomatematika 2 Orvosi biometria

Rekonstrukciós eljárások. Orvosi képdiagnosztika 2017 ősz

13. Túlélési analízis. SURVIVAL ANALYSIS Nyári Tibor Ph.D., Boda Krisztina Ph.D.

A fizikai világ modelljének felfedezése az agyban. Orbán Gergő. CSNL Lendület Labor MTA Wigner Fizikai Kutatóközpont.

Biomatematika 2 Orvosi biometria

STATISZTIKAI TANULÁS AZ IDEGRENDSZERBEN BAYES-I VISELKEDÉS TÖRÖK BALÁZS

Készítette: Fegyverneki Sándor

4. Lokalizáció Magyar Attila

Látórendszer modellezése

Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)

Több valószínűségi változó együttes eloszlása, korreláció

p-érték, hipotézistesztelés, és ellentmondásaik

Megerősítéses tanulás

Mesterséges Intelligencia MI

Good-Turing lefedés. Lang Zsolt

Heckman modell. Szelekciós modellek alkalmazásai.

Általánosan, bármilyen mérés annyit jelent, mint meghatározni, hányszor van meg

GVMST22GNC Statisztika II. Keleti Károly Gazdasági Kar Vállalkozásmenedzsment Intézet

Grafikonok az R-ben március 7.

Területi sor Kárpát medence Magyarország Nyugat-Európa

Biometria az orvosi gyakorlatban. Regresszió Túlélésanalízis

Statisztikai alapfogalmak a klinikai kutatásban. Molnár Zsolt PTE, AITI

Dinamikus rendszerek paramétereinek BAYES BECSLÉSE. Hangos Katalin VE Számítástudomány Alkalmazása Tanszék

biometria II. foglalkozás előadó: Prof. Dr. Rajkó Róbert Matematikai-statisztikai adatfeldolgozás

Mesterséges Intelligencia MI

Statisztikai becslés

STATISZTIKAI ALAPOK. Statisztikai alapok_eloszlások_becslések 1

Statisztikai csalások és paradoxonok. Matematikai statisztika Gazdaságinformatikus MSc november 26. 1/31

p-érték, hipotézistesztelés, és ellentmondásaik

Átírás:

Probabilisztikus modellek II: Inferencia Nagy Dávid Statisztikai tanulás az idegrendszerben, 2015

előző előadás

előző előadás az agy modellt épít a világról

előző előadás az agy modellt épít a világról tudás formális reprezentációja: logika

előző előadás az agy modellt épít a világról tudás formális reprezentációja: logika kiterjesztés bizonytalanságra: valószínűségszámítás

előző előadás az agy modellt épít a világról tudás formális reprezentációja: logika kiterjesztés bizonytalanságra: valószínűségszámítás mai előadás: hogyan lehet ezt a tudást használni?

probléma

mi az amit megfigyelünk?

mi az amit megfigyelünk? fotonok becsapódása levegő gyors rezgései hőmérséklet ingadozása bizonyos molekulák

mi az amit megfigyelünk? fotonok becsapódása levegő gyors rezgései hőmérséklet ingadozása bizonyos molekulák

mi az amit megfigyelünk? fotonok becsapódása levegő gyors rezgései hőmérséklet ingadozása bizonyos molekulák

mi az amit megfigyelünk? fotonok becsapódása levegő gyors rezgései hőmérséklet ingadozása bizonyos molekulák

mi az amit megfigyelünk? fotonok becsapódása levegő gyors rezgései hőmérséklet ingadozása bizonyos molekulák mire vagyunk kíváncsiak?

mi az amit megfigyelünk? fotonok becsapódása levegő gyors rezgései hőmérséklet ingadozása bizonyos molekulák mire vagyunk kíváncsiak? milyen tárgyak vannak körülöttem milyen messze kik vannak körülöttem mire gondolnak miért köhögök mik a fizika törvényei

mi az amit megfigyelünk? fotonok becsapódása levegő gyors rezgései hőmérséklet ingadozása bizonyos molekulák mire vagyunk kíváncsiak? milyen tárgyak vannak körülöttem milyen messze kik vannak körülöttem mire gondolnak miért köhögök mik a fizika törvényei

mi az amit megfigyelünk? fotonok becsapódása levegő gyors rezgései hőmérséklet ingadozása bizonyos molekulák mire vagyunk kíváncsiak? milyen tárgyak vannak körülöttem milyen messze kik vannak körülöttem mire gondolnak miért köhögök mik a fizika törvényei

mi az amit megfigyelünk? fotonok becsapódása levegő gyors rezgései hőmérséklet ingadozása bizonyos molekulák mire vagyunk kíváncsiak? milyen tárgyak vannak körülöttem milyen messze kik vannak körülöttem mire gondolnak miért köhögök mik a fizika törvényei

mi az amit megfigyelünk? fotonok becsapódása levegő gyors rezgései hőmérséklet ingadozása bizonyos molekulák mire vagyunk kíváncsiak? milyen tárgyak vannak körülöttem milyen messze kik vannak körülöttem mire gondolnak miért köhögök mik a fizika törvényei

mi az amit megfigyelünk? fotonok becsapódása levegő gyors rezgései hőmérséklet ingadozása bizonyos molekulák mire vagyunk kíváncsiak? milyen tárgyak vannak körülöttem milyen messze kik vannak körülöttem mire gondolnak miért köhögök mik a fizika törvényei

mi az amit megfigyelünk? inferencia fotonok becsapódása levegő gyors rezgései hőmérséklet ingadozása bizonyos molekulák mire vagyunk kíváncsiak? milyen tárgyak vannak körülöttem milyen messze kik vannak körülöttem mire gondolnak miért köhögök mik a fizika törvényei

mi az amit megfigyelünk? fotonok becsapódása levegő gyors rezgései hőmérséklet ingadozása bizonyos molekulák inferencia (következtetés) mire vagyunk kíváncsiak? milyen tárgyak vannak körülöttem milyen messze kik vannak körülöttem mire gondolnak miért köhögök mik a fizika törvényei

f

f }generatív folyamat

f }generatív folyamat f

f } generatív folyamat inverz inferencia } f -1

P (o h) P (h o)

P (o h) ha ilyen lenne a világ akkor mit figyelnénk meg? P (h o)

P (o h) ha ilyen lenne a világ akkor mit figyelnénk meg? P (h o) ha ezt figyeljük meg akkor milyen a világ?

forward probability generatív irány prediktív irány szimulátor P (o h) ha ilyen lenne a világ akkor mit figyelnénk meg? P (h o) ha ezt figyeljük meg akkor milyen a világ?

forward probability generatív irány prediktív irány szimulátor P (o h) ha ilyen lenne a világ akkor mit figyelnénk meg? inverse probability Bayes-i inferencia modell inverzió P (h o) ha ezt figyeljük meg akkor milyen a világ?

P (o h) P (h o) = P (o h)p (h) P (o)

P (h o) = P (o h)p (h) P (o) } prior

P (h o) = P (o h)p (h) } } likelihood P (o) prior

}posterior P (h o) = P (o h)p (h) } } likelihood P (o) prior

}posterior P (h o) = P (o h)p (h) } } likelihood P (o) prior } evidence

}posterior P (h o) = } } likelihood prior P (o h)p (h) R P (o h)p (h)dh

posterior }prior P (h o) / P (o h)p (h) } } likelihood

megfordítottuk a generatív modellt posterior }prior P (h o) / P (o h)p (h) } } likelihood

megfordítottuk a generatív modellt posterior }prior P (h o) / P (o h)p (h) } } likelihood miért kell a prior?

f = b P XY Z Y X

f = b P XY nem injektív Z Y X

f = b P XY nem injektív f 1 nem egyértelmű Z Y X

hipotézis tér: minden lehetséges 3D drótváz

hipotézis tér: minden lehetséges 3D drótváz image data hipotézisek amelyekre magas a prior

hipotézis tér: minden lehetséges 3D drótváz image data hipotézisek amelyekre magas a prior hipotézisek amelyekre nem 0 a likelihood

hipotézis tér: minden lehetséges 3D drótváz image data posterior hipotézisek amelyekre magas a prior hipotézisek amelyekre nem 0 a likelihood

színek

szén v. hó hány foton?

megvilágítás elnyelési görbe (anyag) spektrális eloszlás

megvilágítás elnyelési görbe (anyag) látósejtek érzékenysége spektrális eloszlás 3 szám

megvilágítás elnyelési görbe (anyag) látósejtek érzékenysége spektrális eloszlás 3 szám anyag?

beszédfelismerés

mondatok értelmezése

történet 1 Egy férfi bement egy étterembe és rendelt egy hamburgert. Mikor a hamburgert kihozták, látta hogy szénné van égve. A férfi dühösen kirohant anélkül, hogy fizetett vagy borravalót hagyott volna.

történet 1 Egy férfi bement egy étterembe és rendelt egy hamburgert. Mikor a hamburgert kihozták, látta hogy szénné van égve. A férfi dühösen kirohant anélkül, hogy fizetett vagy borravalót hagyott volna. történet 2 Egy férfi bement egy étterembe és rendelt egy hamburgert. Mikor a hamburgert kihozták, nagyon elégedett volt vele és mielőtt elhagyta az éttermet nagy borravalót hagyott a pincérnek.

történet 1 Egy férfi bement egy étterembe és rendelt egy hamburgert. Mikor a hamburgert kihozták, látta hogy szénné van égve. A férfi dühösen kirohant anélkül, hogy fizetett vagy borravalót hagyott volna. történet 2 Egy férfi bement egy étterembe és rendelt egy hamburgert. Mikor a hamburgert kihozták, nagyon elégedett volt vele és mielőtt elhagyta az éttermet nagy borravalót hagyott a pincérnek. Megette a férfi a hamburgert?

- Elnézést, kártyával lehet fizetni? - Persze

- Elnézést, kártyával lehet fizetni? - Persze - Egy ászból és királyból tud visszaadni?

- Elnézést, kártyával lehet fizetni? - Persze - Egy ászból és királyból tud visszaadni? humor = téves inferencia felfedezése?

pontbecslés

P(x ) 0.5 x

P(x ) 0.5 * x

P(x ) 0.5 * x

H. v. Helmholtz: perception is unconscious inference

pontbecslés eloszlás -> egy pont

posterior

posterior MAP maximum a posteriori becslés

posterior * MAP maximum a posteriori becslés

posterior * MAP maximum a posteriori becslés 0.7

posterior * MAP maximum a posteriori becslés * 0.7 0.5

betegség f tünet f -1 betegség

betegség f miért köhögök? tünet f -1 betegség

miért köhögök? P (illness symptom) / P (symptom illness)p (illness)

miért köhögök? megfázás tüdőrák kéztörés P (illness symptom) / P (symptom illness)p (illness)

megfázás tüdőrák kéztörés P (illness symptom) / P (symptom illness)p (illness) megfázás milyen gyakori a tüdőrák? kéztörés

megfázás tüdőrák kéztörés megfázás tüdőrák kéztörés P (illness symptom) / P (symptom illness)p (illness) megfázás ha tüdőrák kéztörés lenne a betegség attól köhögnék?

megfázás tüdőrák kéztörés megfázás tüdőrák kéztörés megfázás tüdőrák kéztörés P (illness symptom) / P (symptom illness)p (illness) mi a MAP becslés?

megfázás tüdőrák kéztörés megfázás tüdőrák kéztörés megfázás tüdőrák kéztörés P (illness symptom) / P (symptom illness)p (illness) valószínűleg megfáztam

összefoglalás

láttuk, hogy ami érdekel az közvetlenül nem megfigyelhető

láttuk, hogy ami érdekel az közvetlenül nem megfigyelhető a rejtett állapotok kikövetkeztetésében segít a generatív folyamat ismerete

láttuk, hogy ami érdekel az közvetlenül nem megfigyelhető a rejtett állapotok kikövetkeztetésében segít a generatív folyamat ismerete ennek megfordítása: melyek azok a rejtett állapotok amelyek összeegyeztethetőek a megfigyelésekkel?

láttuk, hogy ami érdekel az közvetlenül nem megfigyelhető a rejtett állapotok kikövetkeztetésében segít a generatív folyamat ismerete ennek megfordítása: melyek azok a rejtett állapotok amelyek összeegyeztethetőek a megfigyelésekkel? de ez még nem elég, kell prior is

láttuk, hogy ami érdekel az közvetlenül nem megfigyelhető a rejtett állapotok kikövetkeztetésében segít a generatív folyamat ismerete ennek megfordítása: melyek azok a rejtett állapotok amelyek összeegyeztethetőek a megfigyelésekkel? de ez még nem elég, kell prior is (az idegrendszerben a percepció eredménye gyakran csak pontbecslés)

de honnan vesszük a modellt (prior)?

de honnan vesszük a modellt (prior)? az objektumok léteznek akkor is mikor nem látjuk őket a hét napjai és az évszakok ciklikusak a puli lehet kutya is és állat is, de nem lehet kutya is és macska is anyanyelv nyelvtana a baráti körök klikkek

de honnan vesszük a modellt (prior)? az objektumok léteznek akkor is mikor nem látjuk őket a hét napjai és az évszakok ciklikusak a puli lehet kutya is és állat is, de nem lehet kutya is és macska is anyanyelv nyelvtana a baráti körök klikkek

de honnan vesszük a modellt (prior)? az objektumok léteznek akkor is mikor nem látjuk őket a hét napjai és az évszakok ciklikusak a puli lehet kutya is és állat is, de nem lehet kutya is és macska is anyanyelv nyelvtana a baráti körök klikkek

de honnan vesszük a modellt (prior)? az objektumok léteznek akkor is mikor nem látjuk őket a hét napjai és az évszakok ciklikusak a puli lehet kutya is és állat is, de nem lehet kutya is és macska is anyanyelv nyelvtana a baráti körök klikkek

de honnan vesszük a modellt (prior)? az objektumok léteznek akkor is mikor nem látjuk őket a hét napjai és az évszakok ciklikusak a puli lehet kutya is és állat is, de nem lehet kutya is és macska is anyanyelv nyelvtana a baráti körök klikkek

de honnan vesszük a modellt (prior)? az objektumok léteznek akkor is mikor nem látjuk őket a hét napjai és az évszakok ciklikusak a puli lehet kutya is és állat is, de nem lehet kutya is és macska is anyanyelv nyelvtana a baráti körök klikkek Linnaeus: a fajokat fa-gráffal lehet leírni Mengyelejev: az elemek periódusos rendszerbe helyezhetőek

de honnan vesszük a modellt (prior)?

de honnan vesszük a modellt (prior)? innátizmus/nativizmus vs tabula rasa úgy tűnik, hogy nagyrészt fel lehet építeni tapasztalatok alapján

de honnan vesszük a modellt (prior)? innátizmus/nativizmus vs tabula rasa úgy tűnik, hogy nagyrészt fel lehet építeni tapasztalatok alapján

de honnan vesszük a modellt (prior)? innátizmus/nativizmus vs tabula rasa úgy tűnik, hogy nagyrészt fel lehet építeni tapasztalatok alapján mi a környezet állapota?

de honnan vesszük a modellt (prior)? innátizmus/nativizmus vs tabula rasa úgy tűnik, hogy nagyrészt fel lehet építeni tapasztalatok alapján mi a környezet állapota? percepció inferencia

de honnan vesszük a modellt (prior)? innátizmus/nativizmus vs tabula rasa úgy tűnik, hogy nagyrészt fel lehet építeni tapasztalatok alapján mi a környezet állapota? percepció inferencia hogyan működik a környezet?

de honnan vesszük a modellt (prior)? innátizmus/nativizmus vs tabula rasa úgy tűnik, hogy nagyrészt fel lehet építeni tapasztalatok alapján mi a környezet állapota? percepció inferencia hogyan működik a környezet? tanulás paraméterbecslés struktúra tanulás modell szelekció

innátizmus/nativizmus vs tabula rasa úgy tűnik, hogy nagyrészt fel lehet építeni tapasztalatok alapján

innátizmus/nativizmus vs tabula rasa úgy tűnik, hogy nagyrészt fel lehet építeni tapasztalatok alapján hogyan?

Hierarchikus Bayesi Modellek

ha ez lenne a környezet állapota, f akkor mit figyelnék meg?

ha ez lenne a környezet állapota, f x akkor mit figyelnék meg?

M ha így működne a környezet, g és ez lenne a környezet állapota, f x akkor mit figyelnék meg?

M modell paraméterek x megfigyelt állapotváltozó

M modell paraméterek y rejtett állapotváltozó x megfigyelt állapotváltozó

F modell forma S modell struktúra paraméterek y rejtett állapotváltozó x megfigyelt állapotváltozó

miért kell modell prior?

miért kell modell prior? (indukció problémája)

minden hattyú fehér?

a kutyának négy lába van

a kutyának négy lába van a macskának négy lába van

a kutyának négy lába van a macskának négy lába van minden állatnak négy lába van?

a kutyának négy lába van a macskának négy lába van minden állatnak négy lába van? minden emlősnek négy lába van?

a kutyának négy lába van a macskának négy lába van minden állatnak négy lába van? minden emlősnek négy lába van? a lovaknak négy lába van?

ez egy nagyon régi, megold(hat)atlan filozófiai probléma

ez egy nagyon régi, megold(hat)atlan filozófiai probléma az emberek napi jelleggel megoldják

objects of planet Gazoob

objects of planet Gazoob

objects of planet Gazoob

objects of planet Gazoob

objects of planet Gazoob

objects of planet Gazoob

eloszlások becslése

valószínűségi modell valószínűségi eloszlás

D x

P (x truth) D x

P (x truth) predictive P (x D) D x

P (x truth) predictive P (x D) D x

P (x truth) predictive P (x D) D x

true P (x truth) x

true P (x truth) x feltételezett generatív valószínűségi modell:

true P (x truth) σ μ true x

true P (x truth) µ σ μ true x prior P (µ)

true P (x truth) σ μ true x σ 0 prior P (µ) μ 0 µ

true P (x truth) µ predictive(0) P (x) x prior P (µ)

true P (x truth) µ σ 0 +σ predictive(0) P (x) x prior P (µ)

true P (x truth) µ predictive(0) P (x) x likelihood(1) P (x 1 µ) prior P (µ)

true P (x truth) µ predictive(0) P (x) x likelihood(1) P (x 1 µ) posterior(1) P (µ x 1 ) prior P (µ)

µ true P (x truth) predictive(0) P (x) posterior P (µ D) x likelihood(1) P (x 1 µ) posterior(1) P (µ x 1 ) prior P (µ)

µ true P (x truth) predictive P (x D) predictive(0) P (x) posterior P (µ D) x likelihood(1) P (x 1 µ) posterior(1) P (µ x 1 ) prior P (µ)

P (µ x) = R 1 1 P (x µ)p (µ) P (x µ)p (µ)dµ

x P (µ x) = R 1 1 P (x µ)p (µ) P (x µ)p (µ)dµ

= x P (µ x) = R 1 1 P (x µ)p (µ) P (x µ)p (µ)dµ

P (x µ) =N (x µ, )= e (x µ) 2 2 2 p 2 P (µ x) = R 1 1 P (x µ)p (µ) P (x µ)p (µ)dµ

P (x µ) =N (x µ, )= e (x µ) 2 2 2 p 2 P (µ) =N (µ µ 0, 0) P (µ x) = R 1 1 P (x µ)p (µ) P (x µ)p (µ)dµ

(x µ) 2 P (x µ) =N (x µ, )= e 2 2 p P (µ) =N (µ µ 2 0, 0) P (µ x) = R 1 1 P (x µ)p (µ) P (x µ)p (µ)dµ P (µ x) = N (x µ, )N (µ µ 0, 0) R 1 1 N (x µ, )N (µ µ 0, 0)dµ

(x µ) 2 P (x µ) =N (x µ, )= e 2 2 p P (µ) =N (µ µ 2 0, 0) P (µ x) = R 1 1 P (x µ)p (µ) P (x µ)p (µ)dµ P (µ x) = P (µ x) = N (x µ, )N (µ µ 0, 0) R 1 1 N (x µ, )N (µ µ 0, 0)dµ μ <-> x N (µ x, )N (µ µ 0, 0) R 1 1 N (µ x, )N (µ µ 0, 0)dµ

P (µ x) = R 1 1 P (x µ)p (µ) P (x µ)p (µ)dµ P (µ x) = P (µ x) = N (x µ, )N (µ µ 0, 0) R 1 1 N (x µ, )N (µ µ 0, 0)dµ μ <-> x N (µ x, )N (µ µ 0, 0) R 1 1 N (µ x, )N (µ µ 0, 0)dµ konjugált prior! c = N (x µ 0, N (x µ, )N (µ u 0, 0) =c N(µ µ 0, q 2 + 2 0 ); µ0 = µ 0 2 + x 2 0 2 + 2 0 ; 0 = 0 ) 0 p 2 + 2 0

P (µ x) = P (µ x) = N (x µ, )N (µ µ 0, 0) R 1 1 N (x µ, )N (µ µ 0, 0)dµ μ <-> x N (µ x, )N (µ µ 0, 0) R 1 1 N (µ x, )N (µ µ 0, 0)dµ konjugált prior! c = N (x µ 0, N (x µ, )N (µ u 0, 0) =c N(µ µ 0, q 2 + 2 0 ); µ0 = µ 0 2 + x 2 0 2 + 2 0 ; 0 = 0 ) 0 p 2 + 2 0 P (µ x) = c N(µ µ 0, 0 ) R 1 1 c N(µ µ0, 0 )dµ

P (µ x) = μ <-> x N (µ x, )N (µ µ 0, 0) R 1 1 N (µ x, )N (µ µ 0, 0)dµ konjugált prior! c = N (x µ 0, N (x µ, )N (µ u 0, 0) =c N(µ µ 0, q 2 + 2 0 ); µ0 = µ 0 2 + x 2 0 2 + 2 0 ; 0 = 0 ) 0 p 2 + 2 0 P (µ x) = c N(µ µ 0, 0 ) R 1 1 c N(µ µ0, 0 )dµ P (µ x) =N (µ µ 0, 0 )

P (µ x) = R 1 1 P (x µ)p (µ) P (x µ)p (µ)dµ eredmény 1 pontra P (µ x) =N (µ µ 0, 0 )

P (µ x) = R 1 1 P (x µ)p (µ) P (x µ)p (µ)dµ eredmény 1 pontra P (µ x) =N (µ µ 0, 0 ) terjesszük ki T pontra

P (µ x) = R 1 1 P (x µ)p (µ) P (x µ)p (µ)dµ eredmény 1 pontra P (µ x) =N (µ µ 0, 0 ) terjesszük ki T pontra P (µ x) = P (x 1,x 2,...x T µ, )N (µ µ 0, 0) R 1 1 P (x 1,x 2,...x T µ, )N (µ µ 0, 0)dµ D x

P (µ x) = R 1 1 P (x µ)p (µ) P (x µ)p (µ)dµ eredmény 1 pontra P (µ x) =N (µ µ 0, 0 ) terjesszük ki T pontra P (µ x) = P (x 1,x 2,...x T µ, )N (µ µ 0, 0) R 1 1 P (x 1,x 2,...x T µ, )N (µ µ 0, 0)dµ P (A, B) =P (A)P (B)

P (µ x) = R 1 1 P (x µ)p (µ) P (x µ)p (µ)dµ eredmény 1 pontra P (µ x) =N (µ µ 0, 0 ) terjesszük ki T pontra P (µ x) = P (x 1,x 2,...x T µ, )N (µ µ 0, 0) R 1 1 P (x 1,x 2,...x T µ, )N (µ µ 0, 0)dµ P (A, B) =P (A)P (B) P (µ x) = R 1 1 Q T t=1 N (x t µ, )N (µ µ 0, 0) Q T t=1 N (x t µ, )N (µ µ 0, 0)dµ

P (µ x) = R 1 1 P (x µ)p (µ) P (x µ)p (µ)dµ eredmény 1 pontra P (µ x) =N (µ µ 0, 0 ) terjesszük ki T pontra P (µ x) = P (x 1,x 2,...x T µ, )N (µ µ 0, 0) R 1 1 P (x 1,x 2,...x T µ, )N (µ µ 0, 0)dµ P (A, B) =P (A)P (B) P (µ x) = R 1 1 Q T t=1 N (x t µ, )N (µ µ 0, 0) Q T t=1 N (x t µ, )N (µ µ 0, 0)dµ µ (T ) = µ 0 2 + 0 2 P T t=0 x t 2 + T 0 2 (T ) = s 1 T 2 + 1 2 0

P (µ x) = R 1 1 P (x µ)p (µ) P (x µ)p (µ)dµ eredmény 1 pontra P (µ x) =N (µ µ 0, 0 ) terjesszük ki T pontra P (µ x) = P (x 1,x 2,...x T µ, )N (µ µ 0, 0) R 1 1 P (x 1,x 2,...x T µ, )N (µ µ 0, 0)dµ P (A, B) =P (A)P (B) P (µ x) = R 1 1 Q T t=1 N (x t µ, )N (µ µ 0, 0) Q T t=1 N (x t µ, )N (µ µ 0, 0)dµ µ (T ) = µ 0 2 + 0 2 P T t=0 x t 2 + T 0 2 (T ) = s 1 T 2 + 1 2 0 P (µ x) =N (µ µ (T ), (T ) )

eredmény T pontra P (µ x) =N (µ µ (T ), µ (T ) = µ 0 2 + 0 2 P T t=0 x t 2 + T 0 2 (T ) ) (T ) = s 1 T 2 + 1 2 0

eredmény T pontra P (µ x) =N (µ µ (T ), µ (T ) = µ 0 2 + 0 2 P T t=0 x t 2 + T 0 2 (T ) ) (T ) = s 1 T 2 + 1 2 0 lim T!1 végtelen adat limit

eredmény T pontra P (µ x) =N (µ µ (T ), µ (T ) = µ 0 2 + 0 2 P T t=0 x t 2 + T 0 2 (T ) ) (T ) = s 1 T 2 + 1 2 0 lim T!1 végtelen adat limit P T t=0 x t T

eredmény T pontra P (µ x) =N (µ µ (T ), µ (T ) = µ 0 2 + 0 2 P T t=0 x t 2 + T 0 2 (T ) ) (T ) = s 1 T 2 + 1 2 0 lim T!1 végtelen adat limit P T t=0 x t T 0

eredmény T pontra P (µ x) =N (µ µ (T ), µ (T ) = µ 0 2 + 0 2 P T t=0 x t 2 + T 0 2 (T ) ) (T ) = s 1 T 2 + 1 2 0 lim T!1 végtelen adat limit P T t=0 x t T P (µ x) =N (µ µ (T ), (T ) ) (µ µ (T ) ) 0

eredmény T pontra P (µ x) =N (µ µ (T ), µ (T ) = µ 0 2 + 0 2 P T t=0 x t 2 + T 0 2 (T ) ) (T ) = s 1 T 2 + 1 2 0 lim T!1 végtelen adat limit P T t=0 x t T P (µ x) =N (µ µ (T ), (T ) ) (µ µ (T ) ) 0 P (x D) P (x true)

P (µ x) =N (µ µ (T ), (T ) ) (µ µ (T ) ) µ P (x D) P (x true)

P (µ x) =N (µ µ (T ), (T ) ) (µ µ (T ) ) µ P (x D) P (x true) = x x

T=1 T=2 T=3 0.20 0.20 0.20 0.15 0.15 0.15 0.10 0.10 0.10 0.05 0.05 0.05-4 -2 2 4 6 8 10-4 -2 2 4 6 8 10-4 -2 2 4 6 8 10 true(x) 0.20 predictive(x) 0.20 prior(μ) 0.15 0.15 0.10 0.10 0.05 0.05-5 5 10-4 -2 2 4 6 8 10 T=10 T=100

közelítő inferencia sztochasztikus közelítő módszerek pl: Markov chain Monte Carlo (MCMC) aszimptotikusan (végtelen sok ideig futtatva) egzaktak determinisztikus közelítő módszerek pl: variational Bayes / variational inference pl: pontbecslések nem kell végtelen sok idő, de sosem egzakt eredmény

közelítő inferencia sztochasztikus közelítő módszerek pl: Markov chain Monte Carlo (MCMC) aszimptotikusan (végtelen sok ideig futtatva) egzaktak determinisztikus közelítő módszerek pl: variational Bayes / variational inference pl: pontbecslések nem kell végtelen sok idő, de sosem egzakt eredmény

közelítő inferencia sztochasztikus közelítő módszerek pl: Markov chain Monte Carlo (MCMC) aszimptotikusan (végtelen sok ideig futtatva) egzaktak determinisztikus közelítő módszerek pl: variational Bayes / variational inference pl: pontbecslések nem kell végtelen sok idő, de sosem egzakt eredmény

közelítő inferencia sztochasztikus közelítő módszerek pl: Markov chain Monte Carlo (MCMC) aszimptotikusan (végtelen sok ideig futtatva) egzaktak determinisztikus közelítő módszerek pl: variational Bayes / variational inference pl: pontbecslések nem kell végtelen sok idő, de sosem egzakt eredmény

közelítő inferencia sztochasztikus közelítő módszerek pl: Markov chain Monte Carlo (MCMC) aszimptotikusan (végtelen sok ideig futtatva) egzaktak determinisztikus közelítő módszerek pl: variational Bayes / variational inference pl: pontbecslések nem kell végtelen sok idő, de sosem egzakt eredmény

közelítő inferencia sztochasztikus közelítő módszerek pl: Markov chain Monte Carlo (MCMC) aszimptotikusan (végtelen sok ideig futtatva) egzaktak determinisztikus közelítő módszerek pl: variational Bayes / variational inference pl: pontbecslések nem kell végtelen sok idő, de sosem egzakt eredmény

online learning batch learning

online learning batch learning prior dataset

online learning batch learning prior dataset posterior

online learning batch learning prior(t-1) stimulus(t-1) prior dataset posterior

online learning batch learning prior(t-1) stimulus(t-1) prior dataset posterior(t-1) posterior

online learning batch learning prior(t-1) stimulus(t-1) prior dataset posterior(t-1) prior(t) stimulus(t) posterior

online learning batch learning prior(t-1) stimulus(t-1) prior dataset posterior(t-1) prior(t) stimulus(t) posterior posterior(t)

online learning batch learning prior(t-1) stimulus(t-1) prior dataset posterior(t-1) prior(t) stimulus(t) posterior posterior(t) prior(t+1) stimulus(t+1)

maximum likelihood = MAP with flat prior

Házi Feladat Ha elimináltuk a lehetetlent, ami marad, bármilyen valószínűtlenül is hangzik, az igazság. - Sherlock Holmes A. Mutasd meg, hogy S.H. következtetési módszere konzisztens a Bayes-i inferenciával! (azaz diszkrét hipotézisekre, ha a megfigyeléseknek egyet kivéve mindegyik ellentmond, akkor a fennmaradónak posterior valószínűsége mindenképpen 1.) B. Mutasd meg hogy a normál eloszlás tanulásakor az átlagra vonatkozó normál eloszlás tényleg konjugált prior (azaz a likelihood a priorral beszorozva ugyan formájú marad csak más paraméterekkel), és számold ki az új paramétereket! konjugált prior c = N (x µ 0, N (x µ, )N (µ u 0, 0) =c N(µ µ 0, q 2 + 2 0 ); µ0 = µ 0 2 + x 2 0 2 + 2 0 ; 0 = 0 ) 0 p 2 + 2 0