KÖZELÍTŐ INFERENCIA II.

Hasonló dokumentumok
KÖZELÍTŐ INFERENCIA II.

Inferencia. ADOTTAK:! generatív modell: például: DAG + prior(ok) + likelihood(ok) P(X 1,X 2,,X n ) megfigyelések: D = {X i = x i, X j = x j, }

6. Előadás. Vereb György, DE OEC BSI, október 12.

Inferencia valószínűségi modellekben

Monte Carlo módszerek a statisztikus fizikában. Az Ising modell. 8. előadás

Probabilisztikus modellek II: Inferencia. Nagy Dávid

Diszkrét idejű felújítási paradoxon

Készítette: Trosztel Mátyás Konzulens: Hajós Gergely

[Biomatematika 2] Orvosi biometria

STATISZTIKA ELŐADÁS ÁTTEKINTÉSE. Matematikai statisztika. Mi a modell? Binomiális eloszlás sűrűségfüggvény. Binomiális eloszlás

Modellkiválasztás és struktúrák tanulása

Biomatematika 2 Orvosi biometria

Statisztika - bevezetés Méréselmélet PE MIK MI_BSc VI_BSc 1

Probabilisztikus funkcionális modellek idegrendszeri adatok elemzésére

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Mesterséges Intelligencia MI

Matematikai alapok és valószínőségszámítás. Statisztikai becslés Statisztikák eloszlása

Kabos: Statisztika II. t-próba 9.1. Ha ismert a doboz szórása de nem ismerjük a

[Biomatematika 2] Orvosi biometria

Statisztika I. 4. előadás Mintavétel. Kóczy Á. László KGK-VMI. Minta Mintavétel Feladatok.

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Kauzális modellek. Randall Munroe

STATISZTIKA. A maradék független a kezelés és blokk hatástól. Maradékok leíró statisztikája. 4. A modell érvényességének ellenőrzése

Probabilisztikus modellek. Nagy Dávid

Matematika A3 Valószínűségszámítás, 6. gyakorlat 2013/14. tavaszi félév

Sztochasztikus folyamatok alapfogalmak

Statisztika I. 4. előadás Mintavétel. Kóczy Á. László KGK-VMI. Minta Mintavétel Feladatok.

Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )

1. Generátorrendszer. Házi feladat (fizikából tudjuk) Ha v és w nem párhuzamos síkvektorok, akkor generátorrendszert alkotnak a sík vektorainak

Funkcionálanalízis. n=1. n=1. x n y n. n=1

Megerősítéses tanulás 7. előadás

Hipotézis STATISZTIKA. Kétmintás hipotézisek. Munkahipotézis (H a ) Tematika. Tudományos hipotézis. 1. Előadás. Hipotézisvizsgálatok

biometria II. foglalkozás előadó: Prof. Dr. Rajkó Róbert Matematikai-statisztikai adatfeldolgozás

A valószínűségszámítás elemei

Adatok statisztikai értékelésének főbb lehetőségei

STATISZTIKA ELŐADÁS ÁTTEKINTÉSE. Mi a modell? Matematikai statisztika. 300 dobás. sűrűségfüggvénye. Egyenletes eloszlás

Látórendszer modellezése

Biometria, haladó biostatisztika EA+GY biometub17vm Szerda 8:00-9:00, 9:00-11:00 Déli Tömb 0-804, Lóczy Lajos terem

Valószínűségi változók. Várható érték és szórás

Probabilisztikus modellek. Nagy Dávid

A társadalomkutatás módszerei I. Outline. 1. Zh Egyéni eredmények. Notes. Notes. Notes. 9. hét. Daróczi Gergely november 10.

i p i p 0 p 1 p 2... i p i

Véletlenszám generátorok és tesztelésük HORVÁTH BÁLINT

Kvantitatív módszerek

Probabilisztikus modellek. Nagy Dávid

Kísérlettervezés alapfogalmak

Általánosan, bármilyen mérés annyit jelent, mint meghatározni, hányszor van meg

Exact inference in general Bayesian networks

Valószínűségi modellek

1. Adatok kiértékelése. 2. A feltételek megvizsgálása. 3. A hipotézis megfogalmazása

Bevezetés a hipotézisvizsgálatokba

Elemi statisztika fizikusoknak

Kísérlettervezés alapfogalmak

A következő feladat célja az, hogy egyszerű módon konstruáljunk Poisson folyamatokat.

Statisztikai becslés

Hipotézis, sejtés STATISZTIKA. Kétmintás hipotézisek. Tudományos hipotézis. Munkahipotézis (H a ) Nullhipotézis (H 0 ) 11. Előadás

[Biomatematika 2] Orvosi biometria

Abszolút folytonos valószín ségi változó (4. el adás)

Gépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés

Data Security: Public key

Elemi statisztika. >> =weiszd= << december 20. Szerintem nincs sok szükségünk erre... [visszajelzés esetén azt is belerakom] x x = n

Matematika A3 Valószínűségszámítás, 5. gyakorlat 2013/14. tavaszi félév

x, x R, x rögzített esetén esemény. : ( ) x Valószínűségi Változó: Feltételes valószínűség: Teljes valószínűség Tétele: Bayes Tétel:

Osztályozóvizsga követelményei

y ij = µ + α i + e ij

( 1) i 2 i. megbízhatóságú a levont következtetése? A matematikai statisztika eszközeivel értékelje a kapott eredményeket!

MCMC szimuláció indítása

Való szí nű sé gi va ltózó, sű rű sé gfű ggvé ny, élószla sfű ggvé ny

1. Példa. A gamma függvény és a Fubini-tétel.

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Megoldások. ξ jelölje az első meghibásodásig eltelt időt. Akkor ξ N(6, 4; 2, 3) normális eloszlású P (ξ

KÖVETKEZTETŐ STATISZTIKA

Statisztika I. 8. előadás. Előadó: Dr. Ertsey Imre

A társadalomkutatás módszerei I.

egyenletesen, és c olyan színű golyót teszünk az urnába, amilyen színűt húztunk. Bizonyítsuk

Számítógépes döntéstámogatás. Genetikus algoritmusok

A valószínűségszámítás elemei

Matematika B4 VIII. gyakorlat megoldása

A maximum likelihood becslésről

GVMST22GNC Statisztika II. Keleti Károly Gazdasági Kar Vállalkozásmenedzsment Intézet

Adaptív dinamikus szegmentálás idősorok indexeléséhez

e (t µ) 2 f (t) = 1 F (t) = 1 Normális eloszlás negyedik centrális momentuma:

Least Squares becslés

Monte Carlo módszerek a statisztikus fizikában. Az Ising modell. 8. előadás

Véletlen jelenség: okok rendszere hozza létre - nem ismerhetjük mind, ezért sztochasztikus.

Mintavétel fogalmai STATISZTIKA, BIOMETRIA. Mintavételi hiba. Statisztikai adatgyűjtés. Nem véletlenen alapuló kiválasztás

Loss Distribution Approach

A Statisztika alapjai

Több valószínűségi változó együttes eloszlása, korreláció

Biomatematika 13. Varianciaanaĺızis (ANOVA)

A statisztikai vizsgálat tárgyát képező egyedek összességét statisztikai sokaságnak nevezzük.

Készítette: Fegyverneki Sándor

ALÁÍRÁS NÉLKÜL A TESZT ÉRVÉNYTELEN!

Normális eloszlás tesztje

Számítógépes szimulációk: molekuláris dinamika és Monte Carlo

Intelligens adatelemzés

ALGORITMUSOK ÉS BONYOLULTSÁGELMÉLET Matematika MSc hallgatók számára. 11. Előadás

A TANTÁRGY ADATLAPJA

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Baran Ágnes. Gyakorlat MATLAB. Baran Ágnes Gyakorlat 1 / 70

Átírás:

STATISZTIKAI TANULÁS AZ IDEGRENDSZERBEN KÖZELÍTŐ INFERENCIA II. MONTE CARLO MÓDSZEREK

ISMÉTLÉS Egy valószínűségi modellben a következtetéseinket a látensek vagy a paraméterek fölötti poszterior írja le. Ezek kiszámítása gyakran nehéz. Ekkor használunk közelítő módszereket: Variációs módszerek (egyszerűbb eloszlással közelítés) pl. Pontbecslések (pl. EM, k-means) Monte Carlo módszerek

INFERENCIA II. Közelítés szükségessége Mintavételezés Egyszerűbb Monte Carlo módszerek Markov Chain Monte Carlo módszerek

INFERENCIA II. Közelítés szükségessége Mintavételezés Egyszerűbb Monte Carlo módszerek Markov Chain Monte Carlo módszerek

MIXTURE OF GAUSSIANS

MIXTURE OF GAUSSIANS Valószínűségi modell: p(z n = i ) = i p(x n µ,,z n )=N (x; µ zn, z n ) z n

MIXTURE OF GAUSSIANS Valószínűségi modell: p(z n = i ) = i p(x n µ,,z n )=N (x; µ zn, z n ) Poszterior: p(z,,µ, x) = p(x z,µ, )= = NY n=1 NY n=1 p(x z,µ, )p(z )p(µ,, ) p(x) p(x n z n,µ, ) 1 p exp 2 2 zn (x µ) 2 2 2 z n

MIXTURE OF GAUSSIANS X p(,µ, x) =? = p(z,,µ, x) Z Z Z z X p(x) =? = p(x,,µ,,z)d dµd Poszterior: p(z,,µ, x) = p(x z,µ, )= = z NY n=1 NY n=1 p(x z,µ, )p(z )p(µ,, ) p(x) p(x n z n,µ, ) 1 p exp 2 2 zn (x µ) 2 2 2 z n

KÖZELÍTÉS Pontbecslés optimalizációs probléma k-means, EM Variációs módszerek Egyszerűbb modell, melyet könnyebb illeszteni Monte Carlo módszerek Az eloszlások mintákkal való reprezentálása

INFERENCIA II. Közelítés szükségessége Mintavételezés Egyszerűbb Monte Carlo módszerek Markov Chain Monte Carlo módszerek

MINTAVÉTELEZÉS Problémák: 1. Független mintákat szeretnénk venni egy eloszlásból (pl. a poszteriorból) x (r) P (x) 2. Egy tetszőleges függvény várhatóértékének kiszámítása Z E(f(x)) =< f> P (x) = f(x)p (x)dx

MINTAVÉTELEZÉS Tegyük fel, hogy valaki egy (bonyolult) kockajátékra invitál. Megadja, hogy milyen esetben mennyi nyereményt fizet. Azt is megmondja, hogy mennyibe kerül egy játék. Azt szeretnénk eldönteni, hogy akarunk-e játszani. A játék várhatóértékét szeretnénk kiszámolni. Ötlet: játsszuk le a játékot (magunkban) sokszor és vegyük az eredmények átlagát.

MINTAVÉTELEZÉS Játsszuk le a játékot (magunkban) sokszor és vegyük az eredmények átlagát. F = E(f(x)) Nyeremény egy x kimenetelnél Nyeremény várhatóértéke x n P (x) Minták a játékból ˆF = NX n=1 1 N f(x n) Becslés a várhatóértékre

MINTAVÉTELEZÉS Problémák: 1. Független mintákat szeretnénk venni egy eloszlásból (pl. a poszteriorból) 2. Egy tetszőleges függvény várhatóértékének kiszámítása

GALTON-DESZKA https://www.youtube.com/watch?v=emk5wprjgga

MILYEN ELOSZLÁSOKBÓL TUDUNK KÖNNYEN MINTÁKAT VENNI? Dobókocka (egyenletes eloszlás egy hat elemű halmazon) Egyenletes eloszlás a [0,1] intervallumon (pseudo-random generátor) Pénzérme feldobás Tudjuk-e ezeket használni, hogy más eloszlásokból vegyünk mintákat?

INFERENCIA II. Közelítés szükségessége Mintavételezés Egyszerűbb Monte Carlo módszerek Markov Chain Monte Carlo módszerek

REJECTION SAMPLING Hogyan mintavételezzünk pontokat egyenletesen egy körlapon?

MINTAVÉTELEZÉS Problémák: 1. Független mintákat szeretnénk venni egy eloszlásból (pl. a poszteriorból) x (r) P (x) Tegyük fel, hogy csak P valamely többszöröséhez férünk hozzá: P (x) =Z P (x) P (x Data) / P (Data x)p(x) = P (x) Z Z Z X P (Data) = P (µ,,,z,data)dµd d z

MINTAVÉTELEZÉS Problémák: 1. Független mintákat szeretnénk venni egy eloszlásból (pl. a poszteriorból) x (r) P (x) Tegyük fel, hogy csak P valamely többszöröséhez férünk hozzá: P (x) =Z P (x) Lényeg: ki tudjuk értékelni P*(x)-et tetszőleges x-ben.

REJECTION SAMPLING P (x)

REJECTION SAMPLING P (x)

REJECTION SAMPLING C Q(x) P (x)

1. x Q(x) 2. y Unif(0,C Q(x)) 3. Elfogadás, ha: y<p (x) egyébként eldobjuk

REJECTION SAMPLING Problémák: Ha CQ(x) nem mindenhol nagyobb, mint P*(x), akkor nem a megfelelő eloszlásból mintavételezünk.

ANCESTOR SAMPLING

ANCESTOR SAMPLING Szeretnénk egy mintát az együttes eloszlásból. P (N) P (I) 1. Először mintát veszünk a legfelső változókból P (P ont N,I) (amelyeknek nincsen szülője). 2. Majd azokból, amelyeknek a szüleit már mintavételeztük. P (F I) 2. lépést ismételjük P (Jegy P ont)

STATISZTIKAI TANULÁS AZ IDEGRENDSZERBEN ANCESTOR SAMPLING Ha tudunk mintákat venni P (N,I,F,Pont,Jegy) eloszlásból, hogy tudunk inferenciát végezni, vagyis, kondícionálisokat számolni? pl: P (I Jegy = 5) =? Rejection sampling! Azokat a mintákat nézzük, amelyekben a Jegy a megadott értékű

REJECTION SAMPLING PROBLÉMA Dimenzió növekedésével csökken az elfogadott minták aránya Nehéz az eloszlást felülről becsülni.

INFERENCIA II. Közelítés szükségessége Mintavételezés Egyszerűbb Monte Carlo módszerek Markov Chain Monte Carlo módszerek

MARKOV CHAIN MONTE CARLO Ahhoz, hogy a dimenzionalitás problémáját kikerüljük, megpróbálhatjuk felhasználni az eddigi mintáinkban rejlő információt. Viszont elveszítjük a függetlenséget!

METROPOLIS-HASTINGS ALGORITMUS Q(x t+1,x t ) P (x)

Elindulunk egy pontból: x1

Elindulunk egy pontból: x 1 Választunk egy x t+1 pontot a Q(x t+1,x t ) eloszlásból

Elindulunk egy pontból: x 1 Választunk egy x t+1 pontot a Q(x t+1,x t ) eloszlásból Generálunk egy u-t u Unif(0, 1)

Elindulunk egy pontból: x 1 Választunk egy x t+1 pontot a Q(x t+1,x t ) eloszlásból Generálunk egy u-t u Unif(0, 1) Mozgunk, ha u< P (x t+1 )Q(x t,x t+1 ) P (x t )Q(x t+1,x t )

Állítás: ha t nagy, akkor x t P (x)

Állítás: ha t nagy, akkor x t P (x) (burn-in)

Állítás: ha t nagy, akkor x t P (x) (burn-in) Megpróbálhatjuk az összes mintát használni, de ezek már nem függetlenek!

Állítás: ha t nagy, akkor x t P (x) (burn-in) Megpróbálhatjuk az összes mintát használni, de ezek már nem függetlenek! Minden k-adik mintát használjuk (thinning)

METROPOLIS HASTINGS VS. REJECTION SAMPLING MH: az algoritmikus lépések nem függenek a céleloszlás P(x) alakjától. Emiatt általános inferencia-algoritmus fejleszthető belőle. (Általános, mert bármilyen modellre alkalmazható, lásd: STAN) a rejection sampling esetében megfelelő Q(x) mintavételező eloszlás kell (CQ(x)>P*(x) Kevésbé sújtja a dimenzionalitás átka

GIBBS SAMPLING Az egyes változókat sorban mintavételezzük, a többi változóra kondícionálva: x (1) t+1 p(x(1) x (2) t ) x (2) t+1 p(x(2) x (1) t+1 )

ÖSSZEFOGLALÁS Valószínűségi modellben végzünk inferenciát Egzakt poszterior-számítás nem lehetséges Közelítő inferenciát használunk (pontbecslés, variációs módszer, mintavételezés) Mintavételezés

ÖSSZEFOGLALÁS Mintavételezés: Egyszerű eloszlásokból minták (kockadobás, uniform) Rejection sampling (speciálisan pl. kondícionálisok ancestor samplinggal) Metropolis-Hastings algorithmus Gibbs-sampling

SEGÉDANYAGOK David Mackay video lectures 12. rész https://www.youtube.com/watch?v=sn_0igwcyli Bishop: Pattern recognition and machine learning, 11. fejezet