Probabilisztikus modellek Nagy Dávid Statisztikai tanulás az idegrendszerben, 2017
elméleti Introduction Knowledge representation Probabilistic models Bayesian behaviour Approximate inference I (computer lab) Vision I Approximate inference II: Sampling Measuring priors Neural representation of probabilities Structure learning Vision II Decision making and reinforcement learning
valószínűségi kalkulus
jelölések
jelölések valószínűségi változók megfázás köhögés valószínűség 1 0 0.01 1 1 0.04 0 0 0.855 0 1 0.095 valószínűségi változók lehetséges értékei
jelölések M K P 1 0 0.01 1 1 0.04 0 0 0.855 0 1 0.095
jelölések M K P m k 0.01 m k 0.04 m k 0.855 m k 0.095
jelölések M K P m k 0.01 m k 0.04 m k 0.855 m k 0.095 P (m ^ k) =P (m, k) = 0.04 P (M,K) =
jelölések M K P P (M,K) = m k 0.01 m k 0.04 m k 0.855 m k 0.095 P (m ^ k) =P (m, k) = 0.04 P (M = m, K = k) =P (m, k) 6= P (M,K)
M K P m k 0.01 m k 0.04 m k 0.855 m k 0.095
P (M,K) m k m k m k m k
P (M,K) m k m k m k m k
P (M,K) probability mass function az igazságtáblázatot függvényként reprezentáljuk m k m k m k m k
valószínűségszámítás ö összegszabály s szorzatszabály
összegszabály P (k) =P (k, m)+p (k, m) P( köhögök ) P( köhögök és meg vagyok fázva ) vagy P( köhögök és nem vagyok megfázva ) P (x) = X y 0 2Y P (x, y 0 ) marginális valószínűség, vagy -szabály
összegszabály M K P m k 0.01 m k 0.04 m k 0.855 m k 0.095 M P m 0.05 m 0.95
szorzatszabály P (m, k) =P (m)p (k m) P( meg vagyok fázva és köhögök ) P( meg vagyok fázva ) és P( köhögök ha meg vagyok fázva ) lánc-szabály, és -szabály
szorzatszabály P (m, k) = P (m))p (k m)
szorzatszabály P (m, k) P (m) = )P P (k m)
szorzatszabály P (m, k) P (m) = )P P (k m)
szorzatszabály P (m, k) P (m) = )P P (k m) M K P m k 0.01 m k 0.04 m k 0.855 m k 0.095 } X P ( ) =1 P (m, k)+p (m, k) const =1 const = P (m)
valószínűségszámítás P (X, Y ) probabilisztikus modell P (x) = X y 0 2Y P (x, y 0 ) P (x, y) =P (x y)p (y) feltételes valószínűség Bayes szabály P (x, y) P (y) P (y x)p (x) P (y) = P (x y) = P (x y)
valószínűségszámítás P (A, B, C, D, E, F, G, H, I) teljes modell P (D, G H, I) = = P (D, G, H, I) P (H, I) P P A,B,C,E,F A,B,C,E,F,D,G (feltételes valószínűség) P (A, B, C, D, E, F, G, H, I) P (A, B, C, D, E, F, G, H, I)
mintavételezés egy adott probabilisztikus modellhez készíthető* mintavételező gép kimenetei (minták) lehetséges világok a lehetséges világok relatív gyakoriságai tartanak a valószínűségeikhez különböző trükökkel lehet mintát venni külön a változókból (marginális eloszlásból) vagy a feltételes eloszlásokból is P (M,K) = M K P m k 0.01 m k 0.04 m k 0.855 m k 0.095 nem fázott meg és nem köhög nem fázott meg és nem köhög nem fázott meg és nem köhög nem fázott meg és köhög nem fázott meg és nem köhög nem fázott meg és nem köhög nem fázott meg és nem köhög nem fázott meg és nem köhög nem fázott meg és nem köhög nem fázott meg és nem köhög
probléma Mi a valószínűsége hogy egy véletlenszerűen választott ember pontosan 1.7 m magas? P (X =1.7) = 0 P (X =1.737894613982395) = 0 pmf(x) x
probléma Mi a valószínűsége hogy egy véletlenszerűen választott ember pontosan 1.7 m magas? P (X =1.7) = 0 P (X =1.737894613982395) = 0 pdf(x) probability density function Z b a pdf(x) dx = P (a <x<b) sűrűségfüggvény 1.5 2 x
mintavételezés
mintavételezés
mit jelölünk P-vel? Mindent. pmf pdf pdf(x) = X i pmf(x i ) (x x i )
valószínűségszámítás P (X, Y ) probabilisztikus modell P (x) = X y 0 2Y P (x, y 0 ) P (x, y) =P (x y)p (y)
valószínűségszámítás P (X, Y ) probabilisztikus modell P (x) = Z Y P (x, y) dy P (x, y) =P (x y)p (y) X! Z dy y
valószínűségszámítás P (X, Y ) probabilisztikus modell P (x) = Z Y P (x, y) dy P (x, y) =P (x y)p (y) feltételes valószínűség Bayes szabály P (x, y) P (y) P (y x)p (x) P (y) = P (x y) = P (x y)
összefoglalás ismerjük a valószínűségi kalkulus két szabályát, a szorzatszabályt és az összegszabályt tudjuk mit jelent mintákat venni egy eloszlásból (sampling) ezeket ki tudjuk terjeszteni folytonosan sok értékű változókra a valószínűségszámításban már mindent* tudunk, most már csak kényelmi** fogalmakat vezetünk be * : azért nem mindent, mert ha (a valós számokhoz hasonlóan) más matematikai objektumokra is ki szeretnénk terjeszteni (pl val. változók amelyeknek a lehetséges értékei is valószínűségi eloszlások vagy végtelen sok val. változó), az nem mindig triviális. mértékelmélet ** : néha a kényelmi megoldások teszik lehetővé hogy praktikusan is ki lehessen számolni valamit, ne csak elméletben (exponenciális komplexitás)
függetlenség x? y p(x, y) =p(x)p(y) p(x y) =p(x) ha megtudjuk hogy y, az semmit nem változtat x valószínűségén az előbb 4-est dobtunk. Mit fogunk most dobni? P (d 1 d 2 )P (d 2 )=P (d 1 )P (d 2 ) az előbb 4-es dobtunk, most dobunk mégegyet, mi lesz a kettő összege? P (d 1 + d 2 d 2 )P (d 2 ) 6= P (d 1 + d 2 )P (d 2 )
feltételes függetlenség x? y z p(x, y z) =p(x z)p(y z) p(x y, z) =p(x z) ha már tudjuk hogy z, és megtudjuk hogy y, az semmit nem változtat x valószínűségén képeket nézek, a kérdés hogy fogok-e látni snowboardosokat. Számít hogy látok-e sífelvonókat? Ha tudjuk hogy síterepen készült képeket nézünk akkor is számít hogy látok-e sífelvonókat? a függetlenség és a feltételes függetlenség nem implikálják egymást, erre majd látunk több példát
irányított grafikus modellek
igazságtáblázat joint probability table propozicionális logika i. grafikus modell elsőrendű logika univerzalitás λ-kalkulus UTM probabilisztikus programnyelvek
P (X 1,X 2,X 3,X 4 )= lánc-szabály =P (X 1 X 2,X 3,X 4 ) P (X 2 X 3,X 4 ) P (X 3 X 4 ) P (X 4 ) X 1? X 3,X 4 X 2 X 2? X 4 X 3 X 3? X 4 = P (X 1 X 2 ) P (X 2 X 3 )P (X 3 )P (X 4 ) X4 X3 X2 P (X 1,X 2,...,X n )= ny i P (X i P arent(x i )) X1
grafikus modellek az eloszlás faktorizálódik a gráf szerint a gráf az eloszlás függetlenségi struktúráját kódolja a függetlenségi relációk leolvashatóak a gráfról hogyan? X4 X3 P (X 1,X 2,X 3,X 4 )= = P (X 1 X 2 ) P (X 2 X 3 )P (X 3 )P (X 4 ) X2 P (X 1,X 2,...,X n )= ny i P (X i P arent(x i )) X1
hatásterjedés Nehéz Intell. ZH pont Felv. pont ZH jegy
hatásterjedés nehez = sample(p(nehez)) intell = sample(p(intell)) pont = sample(p(pont nehez, intell)) felv = sample(p(felv intell)) jegy = sample(p(jegy pont))
hatásterjedés Nehéz tud terjedni hatás? ZH pont
hatásterjedés Nehéz igen ZH pont
hatásterjedés Nehéz ZH pont tud terjedni hatás? ZH jegy
hatásterjedés Nehéz ZH pont igen ZH jegy
hatásterjedés Nehéz ZH pont tud terjedni hatás? megfigyelt változó ZH jegy
hatásterjedés Nehéz ZH pont nem ZH jegy
hatásterjedés Nehéz Intell. ZH pont Felv. pont tud terjedni hatás? ZH jegy
hatásterjedés Nehéz Intell. ZH pont Felv. pont igen ZH jegy
hatásterjedés Nehéz Intell. ZH pont Felv. pont tud terjedni hatás? ZH jegy
hatásterjedés Nehéz Intell. ZH pont Felv. pont nem ZH jegy
hatásterjedés Nehéz Intell. tud terjedni hatás? ZH pont Felv. pont ZH jegy
hatásterjedés Nehéz Intell. nem ZH pont Felv. pont ZH jegy
hatásterjedés (explaining away) Nehéz Intell. tud terjedni hatás? ZH pont Felv. pont ZH jegy
hatásterjedés (explaining away) Nehéz Intell. igen ZH pont Felv. pont ZH jegy
hatásterjedés Nehéz Intell. tud terjedni hatás? ZH pont Felv. pont ZH jegy
hatásterjedés Nehéz Intell. igen ZH pont Felv. pont ZH jegy
d-szeparáció tétel az előbbi kis gráfokból összekombinálható az összes lehetséges függőségi reláció azt akarjuk leolvasni hogy u és v változók függetlenek-e különböző m megfigyelések mellett u és v között minden lehetséges útra ellenőrizzük hogy blokkolva van-e, feltéve hogy megfigyeljük m-et ha minden út blokkolva van, akkor függetlenek (feltéve m)
v v u v m m m u u u m v d-szeparáció m u v u v m m u v d
v m u nem juthat át hatás
Markov takaró Y 8Y : X? Y MB(X) szülők X gyerekek gyerekek szülei
plate notation
grafikus modell építés µ µ int int P (I) =N (I µ int, int) Nehéz Intell. P (N) =N (N µ, ) Z max ZH pont Felv. pont P (Z) = Binomial(Z Z max, sig(i N)) házi feladat ZH jegy
I N
grafikus modell építés nehez = normal(mu,sigma) intell = normal(mu_i,sigma_i) pont = binomial(z_max,sig(intell-nehez)) felv = binomial(z_max2,sig(intell)) jegy = bin(pont,5)
összefoglalás tudjuk mit jelent a függetlenség probabilisztikus modellekben az irányított grafikus modellek az eloszlás függetlenségi struktúráját jelenítik meg a gráf a teljes eloszlás egy faktorizációját adja meg, amelynek segítségével kevesebb számmal is meg lehet adni az eloszlást ezt kihasználva hatékonyabb inferencia algoritmusokat lehet kitalálni a gráfról a függetlenségi relációkat a d-szeparáció tétel alapján le tudjuk olvasni a grafikus modell abban is segít hogy egy intuitívan ismert rendszerből probabilisztikus modellt tudjunk felírni
bayes-i inferencia
mi az amit megfigyelünk? inferencia fotonok becsapódása levegő gyors rezgései hőmérséklet ingadozása bizonyos molekulák mire vagyunk kíváncsiak? milyen tárgyak vannak körülöttem milyen messze kik vannak körülöttem mire gondolnak mik a fizika törvényei
f
f }generatív folyamat
f }generatív folyamat f
f } generatív folyamat inverz inferencia } f -1
P (o h) P (h o)
P (o h) ha ilyen lenne a világ akkor mit figyelnénk meg? P (h o)
P (o h) ha ilyen lenne a világ akkor mit figyelnénk meg? P (h o) ha ezt figyeljük meg akkor milyen a világ?
forward probability generatív irány prediktív irány szimulátor P (o h) ha ilyen lenne a világ akkor mit figyelnénk meg? P (h o) ha ezt figyeljük meg akkor milyen a világ?
forward probability generatív irány prediktív irány szimulátor P (o h) ha ilyen lenne a világ akkor mit figyelnénk meg? inverse probability Bayes-i inferencia modell inverzió P (h o) ha ezt figyeljük meg akkor milyen a világ?
P (o h) P (h o) = P (o h)p (h) P (o)
P (h o) = P (o h)p (h) P (o) } prior
P (h o) = P (o h)p (h) } } likelihood P (o) prior
}posterior P (h o) = P (o h)p (h) } } likelihood P (o) prior
}posterior P (h o) = P (o h)p (h) } } likelihood P (o) prior } evidence
}posterior P (h o) = } } likelihood prior P (o h)p (h) R P (o h)p (h)dh
posterior }prior P (h o) / P (o h)p (h) } } likelihood
megfordítottuk a generatív modellt posterior }prior P (h o) / P (o h)p (h) } } likelihood
megfordítottuk a generatív modellt posterior }prior P (h o) / P (o h)p (h) } } likelihood miért kell a prior?
betegség f tünet f -1 betegség
miért köhögök? P (illness symptom) / P (symptom illness)p (illness)
miért köhögök? megfázás tb kéztörés P (illness symptom) / P (symptom illness)p (illness)
megfázás tb kéztörés P (illness symptom) / P (symptom illness)p (illness) megfázás milyen gyakori a tb? kéztörés
megfázás tb kéztörés megfázás tb kéztörés P (illness symptom) / P (symptom illness)p (illness) megfázás ha tb kéztörés lenne a betegség attól köhögnék?
megfázás tb kéztörés megfázás tb kéztörés megfázás tb kéztörés P (illness symptom) / P (symptom illness)p (illness) valószínűleg megfáztam
3D - 2D
f = b P XY Z Y X
f = b P XY nem injektív Z Y X
f = b P XY nem injektív f 1 nem egyértelmű Z Y X
hipotézis tér: minden lehetséges 3D drótváz
hipotézis tér: minden lehetséges 3D drótváz image data hipotézisek amelyekre magas a prior
hipotézis tér: minden lehetséges 3D drótváz image data hipotézisek amelyekre magas a prior hipotézisek amelyekre nem 0 a likelihood
hipotézis tér: minden lehetséges 3D drótváz image data posterior hipotézisek amelyekre magas a prior hipotézisek amelyekre nem 0 a likelihood
[Kulkarni et al 2014]
színek
szén v. hó hány foton?
megvilágítás elnyelési görbe (anyag) spektrális eloszlás
megvilágítás elnyelési görbe (anyag) látósejtek érzékenysége spektrális eloszlás 3 szám
megvilágítás elnyelési görbe (anyag) látósejtek érzékenysége spektrális eloszlás 3 szám anyag?
beszédfelismerés
mondatok értelmezése
A lány meglátta a fiút a távcsővel
A lány meglátta a fiút a távcsővel
A lány meglátta a fiút a távcsővel
történet 1 Egy férfi bement egy étterembe és rendelt egy hamburgert. Mikor a hamburgert kihozták, látta hogy szénné van égve. A férfi dühösen kirohant anélkül, hogy fizetett vagy borravalót hagyott volna.
történet 1 Egy férfi bement egy étterembe és rendelt egy hamburgert. Mikor a hamburgert kihozták, látta hogy szénné van égve. A férfi dühösen kirohant anélkül, hogy fizetett vagy borravalót hagyott volna. történet 2 Egy férfi bement egy étterembe és rendelt egy hamburgert. Mikor a hamburgert kihozták, nagyon elégedett volt vele és mielőtt elhagyta az éttermet nagy borravalót hagyott a pincérnek.
történet 1 Egy férfi bement egy étterembe és rendelt egy hamburgert. Mikor a hamburgert kihozták, látta hogy szénné van égve. A férfi dühösen kirohant anélkül, hogy fizetett vagy borravalót hagyott volna. történet 2 Egy férfi bement egy étterembe és rendelt egy hamburgert. Mikor a hamburgert kihozták, nagyon elégedett volt vele és mielőtt elhagyta az éttermet nagy borravalót hagyott a pincérnek. Megette a férfi a hamburgert?
- Elnézést, kártyával lehet fizetni? - Persze
- Elnézést, kártyával lehet fizetni? - Persze - Egy ászból és királyból tud visszaadni?
- Elnézést, kártyával lehet fizetni? - Persze - Egy ászból és királyból tud visszaadni? humor = téves inferencia felfedezése? [Hurley et al 2011]
a látótér határai nem látszanak csak középen látunk élesen (fovea) vakfolt a szakkádoktól nem rázkódik a világ
érzékelés agy környezet cselekvés
érzékelés jelenlegi megfigyelésből kikövetkeztetett információ környezet világ tanult szabályosságai múltbeli események döntéshozás cselekvés izomvezérlés
érzékelés percepció jelenlegi megfigyelésből kikövetkeztetett információ (észlelés) környezet világ tanult szabályosságai múltbeli események döntéshozás cselekvés izomvezérlés
1. házi feladat Készíts generatív valószínűségi modellt, ami autógyártók éves bevételének jóslására használható (más témát is választhatsz). válaszd ki a fontos változókat a változók közötti függetlenségi viszonyok alapján rajzolj grafikus modellt válassz diszkrét vagy folytonos eloszlásokat a szükséges marginálisok és kondicionálisok formájául (https:// en.wikipedia.org/wiki/list_of_probability_distributions) gondolkodj el rajta, hogy mik azok a feltételezések, amiket beleépítettél a modellbe, de sejthetően nem egyeznek a valósággal
2. házi feladat x2 és x5 között terjedhet hatás? hogyan lehetne x1 és x4-et függetlenné tenni?
referenciák [Kulkarni et al 2014] Kulkarni, Tejas D., et al. "Inverse graphics with probabilistic CAD models." arxiv preprint arxiv:1407.1339 (2014). [Hurley et al 2011] Hurley, Matthew M., Daniel Clement Dennett, and Reginald B. Adams. Inside jokes: Using humor to reverseengineer the mind. MIT press, 2011. McGurk effect (video) https://www.youtube.com/watch?v=g-ln8vwm3m0