a változók egy teljes sorrendezése
|
|
- Vilmos Barta
- 5 évvel ezelőtt
- Látták:
Átírás
1 Jelölések Felhasznált jelölések x,x,x skalár, (oszlop)vektor vagy halmaz, mátrix X, x, p(x) véletlen változó X, érték x, valószín sgéi tömegfüggvény/s r ségfüggvény X E X,p(X) [f(x)] f(x) várható értéke p(x) szerint var p(x) [f(x)] f(x) varianciája p(x) szerint I p (X Z Y ) X és Y meggyelési függetlensége Z feltétellel p esetében (X Y Z) p I p (X Z Y ) (X Y Z) p ) I p (X Z Y ) CI p (X; Y Z) X és Y beavatkozási függetlensége Z feltétellel p esetében (részleges) sorrendezés c a változók egy teljes sorrendezése G adott G irányított körmentes gráal kompatibilies sorrendek halmaza (n) n objektum sorrendjeinek (permutációinak) a halmaza G, θ Bayes háló strukturája és paraméterei G G irányított körmentes gráf esszenciális gráfja G(n)/G k (n) n csomópont maximum k szül j DAG-ok halmaza G adott sorrenddel kompatibilis DAG-ok halmaza G G adott G DAG-gal meggyelési ekvivalens DAG-ok halmaza kompatibilitási reláció pa(x i, G) pa(x i, G) szül i halmaz kompatibilis sorrendezéssel MB p (X i ) Markov takarója X i -nek p-ben pa, pa(x i, G) szül i változók halmaza, X i szüleinek halmaza G-ben pa ij a j. kongurációja a szül i értékeknek egy sorrendben bd(x i, G) X i szüleinek, gyerekeinek és gyerekei egyéb szüleinek halmaza G-ben MBG(X i, G) a Markov takaró algráfja X i -nek G-ben MBM(X i, X j, G) a Markov takaróbeliség relációja n valószín ségi változók száma k maximális szül szám DAG-okban N mintaszám V összes valószín ségi változók száma Y válasz, kimeneteli, függ változó További konvenciók az egyes fejezetekben jelöltek.
2 2 A m címe N + /N...,+,... N i /N...,i,... megfelel összegei D X X változóhalmazra sz kített adathalmaz kardinalitás 1() indikátor függvény f, f f függvény els és második deriváltjai A T A mátrix transzponáltha x y x és y vektorok skalárszorzata ξ + /ξ informatív/neminformatív információs kontextus,,,, standard logikai operátorok,, \, standard halmazm veletek KB i α α bizonyíthatósága KB-b l Γ a Gamma függvény Beta(x α, β) a Béta eloszlás s r ségfüggvénye (pdf) Dir(x α) a Dirichlet eloszlás s r ségfüggvénye N(x µ, σ), N(x µ, aσ) normál eloszlás s r ségfüggvénye BD,BD e Bayesian Dirichlet prior, meggyelési ekvivalens BD prior BD CH Bayesian Dirichlet (BD) prior 1 hiperparameterekkel BD eu meggyelési ekvivalen és uniform BD prior L(θ; D N ) p(d N θ) likelihood függvénye H(X, Y ), I(X; Y )X és Y entrópiája és kölcsönös információja KL(X Y ), H(X Y X) és Y Kullback-Leibler divergenciája és keresztentrópiája L 1 (, ), L 2 (, ) az abszolút értékbeli (Manhattan) négyzetes (Euklidészi) távolságok L 0 (, ) 0-1 veszteség O()/Θ() aszimptotikus, nagyságrendi fels és alsó határ
3 Jelölések 3 Rövidítések ROC Receiver Operating Characteristic (ROC) görbe AUC ROC görbe alatti terület BMA Bayesi Modell Átlagolás BN Bayes háló DAG Irányított körmentes gráf FSS Jegykiválasztási probléma MAP Maximum A Posteriori MI kölcsönös információ ML Maximum Likelihood MBG Markov határ gráf MB Markov takaró MBM Markov takaróbeliség (MC)MC (Markov láncos) Monte Carlo Naive-BN/N-BN Naív Bayes háló
4
5 Tartalomjegyzék. Jelölések 1 1. Valószín ségi Bayes hálók tanulása Paramétertanulás Rejtett Markov Modellekben Paramétertanulás RMM-ekben ismert állapotszekvenciák esetében E-M alapú paramétertanulás RMM-ekben ismeretlen állapotszekvenciák esetében Naív Bayes hálók tanulása A bayesi feltételes modellezés Bayes hálók tanulása feltételes modellként Naive Bayes hálók teljesítménye osztályozásban és regresszióban Naive Bayes hálók kiterjesztései Teljes modellátlagolás NBN-k felett Egy információelméleti pontszám Bayes háló tanulásához
6 6 A m címe
7 1. fejezet Valószín ségi Bayes hálók tanulása A fejezetben bemutatjuk a valószín ségi gráfos modelleken (PGM) belül a Bayes hálókhoz kapcsolódó paramétertanulást, majd a feltételes modellezés és teljes tárgyterületi modellezés kapcsolatát tisztázzuk, végül egy információelméleti megközelítést mutatunk be valószín ségi Bayes hálók tanulására. A fejezet a Rejtett Markov Modellek paramétereinek tanulásának ismertetésével indul, amelyen keresztül bemutatjuk az Expectation-Maximization alapú paramétertanulást. Ismertetjük a feltételes modellek és PGM-k használatának pro és kontra érveit adatelemzési feladatokban, különös tekintettel a Naív Bayes hálók tanulásának szempontjából. A megkötések nélküli Bayes hálók tanulására származtatunk egy pontszámot információelméleti avagy Minimum Description Length formalizmus szerint. Az oksági Bayes hálók tanulását, amely oksági vonatkozású priorokat is befogad, illetve oksági modelltulajdonságok tanulását is lehet vé teszi az Oksági Bayes hálók tanulása fejezetben ismertetjük Paramétertanulás Rejtett Markov Modellekben Valószín ségi gráfos modellek egyik népszer alosztálya a Rejtett Markov Modellek (RMM), amelyek az eredeti beszédfelismerési és követési felhasználási területek mellett a biológiai szekvenciák elemzésében is egyre intenzívebben felhasználtak. A Bayes háló formalizmust követve denicíójuk és a tárgyalásukban használt jelölésük a következ [9]. 1. π jelöli a rejtett állapot szekvenciát, π i jelöli az i. állapotot 2. a kl jelöli az állapotátmenet valószín ségeket p(π i = l π i 1 = k) (egy extra 0 állapotot fenntartva az induló és végállapot számára) 3. e k (b) a kibocsájtási/meggyelési valószín ségek p(x i = b π i = k) A továbbiakban feltesszük, hogy az RMM-kbeli változók diskzrét és véges változók. A RMM-kben való következtetés típusait, benne az el refele és visszafele RMM következtetési módszereket a Valószín ségi döntéstámogatási rendszerek egy fejezete foglalja össze,
8 8 A m címe levezetésükért lásd [19]. A továbbiakban feltesszük, hogy ezek hatékony megoldása ismert és az is, hogy általuk kiszámíthatóak a következ ek: 1. 'dekódolás": π = arg max π p(x, π) 2. szekvencia valószín sége:p(x) = π p(x, π) (avagy p(x M) modell likelihood" vagy sz rés) 3. simítás/poszterior dekódolás:p(π i = k x) Feltételezve, hogy θ jelöli az RMM modell paramétereit, n független x (1),..., x (n) meg- gyelési szekvencia valószín sége ekkor a következ képpen írható p(x (1),..., x (n) θ) = n p(x (i) θ). (1.1) Rögzített struktúrát, azaz rögzített meggyelés- és állapotteret feltételezve két feladatot vizsgálunk meg. Bevezetési jelleggel els ként megnézzük, hogy hogyan határozhatók meg a paraméterek a maximum likelihood elv szerint, ha ismertek a meggyelésekhez tartozó állapotok, illetve ha ezek nem ismertek. Ez utóbbi az úgynevezett Baum-Welch eljárás, amely az expectation-maximization eljárásra példa Paramétertanulás RMM-ekben ismert állapotszekvenciák esetében Ismert állapotszekvenciák esetében az A kl állapotátmenet számlálók és az E k (b) kibocsájtási számlálók segítségével a megfelel a kl, e k (b) relatív gyakoriságok közvetlenül adódnak a kl = A kl l A kl and e k (b) = E k(b) b E k (b ). (1.2) Emlékeztet ül idézzük, hogy a relatív gyakoriság maximum likelihood becsl a multinomiális mintavételhez. Tételezzük fel, hogy i = 1,... K kimenetelek egy multinomiális mintavételb l származna, amelynek parametérei θ = {θ i }, és jelölje n = {n i } a meggyelt el fordulási számokat (N = i n i). Ekkor log p(n θml ) p(n θ) = log i (θml i ) n i i (θ i) n i = i n i log θml i θ i = N i θ ML i log θml i > 0 (1.3) θ i mivel 0 < KL(θ ML θ) KL(p q) = i p i log(q i /p i ) i p i ((q i /p i ) 1) = 0 (1.4) felhasználva, hogy log(x) x 1.
9 1. fejezet. Valószín ségi Bayes hálók tanulása 9 Az a priori tudás kombinálására ad hoc módszerként jelent meg pszeudoszámlálók vagy a priori számlálók fogalma, ami kis mintás esetben a becslések robosztusságának növelésére is felhasznált A kl = A kl + r kl E k (b) = E k(b) + r k (b), amelynek elméleti hátterét az Oksági Bayes hálók tanulása fejezetben tárgyaljuk E-M alapú paramétertanulás RMM-ekben ismeretlen állapotszekvenciák esetében Egy közelít módszer ismeretlen állapotszekvenciák esetében, hogy akár a priori vagy akár közelít módszerekkel, mint a Viterbi algoritmus, rekonstruáljuk a legrelevánsabbnak vélt vagy legvalószín bb állapotszekvenciákat, amelyet követ en már a közvetlen becslési eljárás alkalmazható. Ez az ötlet iteratívan is használható, amely a következ módszerre vezet: becsüljük meg a várható értékét az A t, E t számlálóknak adott θ t mellett, majd újrabecsülve frissítsük θ t+1 paramétereket ezen A t,e t... várható értékek alapján. Els ként is vegyük észre, hogy a k l átmenetek valószín sége az x szekvencia i. pozíciójában közvetlenül számítható a hatékonyan számolható el refele és visszafele RMM következtetési módszerekb l. p(π i = k, π i+1 = l x) (1.5) = p( f k (i) b {}}{ l (i+1) {}}{ x 1,..., x i, π i = k,x i+1, π i+1 = l, x i+2,..., x L ) p(x) = f k(i)a kl e l (x i+1 )b l (i+1) p(x) (1.6) Ekkor a várható értéke egy adott átmenet valószín ségnek és kibocsátási valószín ségnek rendre a következ A kl = j E k (b) = j 1 p(x (j) ) 1 p(x (j) ) i i x (j) i =b f (j) k (i)a kle l (x (j) i+1 )b(j) l (i + 1) (1.7) f (j) k (i)b(j) (i), (1.8) A módszer konvergenciáját az biztosítja, hogy az iteráltan elvégzett következtetés és paraméterbecslés valójában az úgynevezett E-M módszercsaládba tartozik. Általános bemutatásához megmutatjuk a f ötletét, amely adatelemzési/optimalizálási feladatokban is gyakran használt, az eredeti, bizonyítottan jó m ködést adó feltételein túl. Az E-M módszercsalád f célja az itteni jelölést használva, hogy a meggyelt x és hiányzó π esetében határozza meg a maximum likelihood paramétereket k θ = arg max log(p(x θ)). (1.9) θ A megközelítés felfogható egy olyan módszernek, amikor a megoldás analitikusan és hatékonyan számolhatóan adódik, ha a hiányzó adat létezik, és ezen módszer a hiányzó
10 10 A m címe adatok rögzített adatokkal való "pótlása" és hiányzó adatok kiátlagolása között helyezkedik el. M ködésének központ eleme a várható adat log-likelihood Q(θ θ t ) = π p(π x, θ t ) log(p(x, π θ)) (1.10) iterált javítása. Kihasználva, hogy írhatjuk, hogy p(x, π θ) = p(π x, θ)p(x θ), (1.11) log(p(x θ)) = log(p(x, π θ)) log(p(π x, θ)) (1.12) Ekkor p(π x, θ t )-val szorozva és π felett szummázva log(p(x θ)) = p(π x, θ t ) log(p(x, π θ)) π π }{{} Q(θ θ t) p(π x, θ t ) log(p(π x, θ)) (1.13) Mivel a likelihood-ot szeretnénk növelni, ez ekvivalens ennek a különbségnek a növelésével. log(p(x θ)) log(p(x θ t )) = Q(θ θ t ) Q(θ t θ t ) + p(π x, θ t ) log( p(π x, θ t) p(π x, θ) ) π }{{} KL(p(π x,θ t) p(π x,θ)) (1.14) Kihasználva, hogy 0 KL(p q), adódik a következ log(p(x θ)) log(p(x θ t )) Q(θ θ t ) Q(θ t θ t ). (1.15) Az általánosított E-M eljárás csupán egy jobb θ megválasztásán alapszik Q(θ θ t ) tekintetében, amely folytonos paramétertér esetében garantált, hogy aszimptotikusan egy lokális vagy globális maxiumhoz konvergál (sajnos diszkrét esetekben viselkedésére nincs garancia, bár gyakran használt, például lásd [11]). A standard E-M eljárás javító lépésében maximalizálás szerepel θ t+1 = arg max Q(θ θ t ). (1.16) θ Visszatérve az RMM paramétertanulásra, az E-M módszer alkalmazása a következ. Egy adott π állapot- és x meggyelésszekvencia valószín sége a következ M M M p(x, π θ) = [e k (b)] E k(b,π) a A kl(π) kl (1.17) k=1 b k=0 l=1 ezt felhasználva Q(θ θ t ) = π p(π x, θ t) log(p(x, π θ)) átírható a következ képpen
11 1. fejezet. Valószín ségi Bayes hálók tanulása 11 Q(θ θ t ) = π M M M p(π x, θ t ) E k (b, π) log(e k (b)) + A kl (π) log(a kl ). (1.18) k=1 b k=0 l=1 Mivel A kl és E k (b) várható értéke π-k felett egy adott x esetében E k (b) = π p(π x, θ t )E k (b, π) A kl = π p(π x, θ t )A kl (π), (1.19) így els ként π-k felett elvégezve az összegzést kapjuk, hogy Q(θ θ t ) = M E k (b) log(e k (b)) + k=1 b M k=0 M A kl log(a kl ). (1.20) Ekkor kihasználva, hogy A kl és E k (b) hatékonyan számolható az el re és hátra algoritmusokkal az aktuális θ t esetében, és a k l és b k (l) alkotjákaz új paramétereket θ, Q(θ θ t )-t maximalizálja a következ l=1 a 0 kl = A ij k A ik mivel az A-kat tartalmazó tagnál a különbség így írható (1.21) M k=0 M l=1 A kl log( a0 kl a kl ) = M ( M A kl ) l k=0 amelyik éppen a K-L távolság, tehát nem negatív Naív Bayes hálók tanulása l=1 a 0 kl log( a0 kl a kl ), (1.22) A Bayes hálók modellosztály másik nagyon népszer családja a Naív Bayes hálók (NBN) (lásd Valószín ségi gráfos modellek PGM fejezete). Az NBN-k feltevéseinek széles kör elfogadhatósága mellett a tanulásban is központi szerepet töltenek be robosztusságuk miatt, mivel mintegy hidat képeznek az úgynevezett feltételes modellek felé. Els ként ezt a határvonalat tisztázzuk, megvizsgálva az NBN-k paraméter és struktúra tanulását is, végezetül a bayesi kontextusban is A bayesi feltételes modellezés A feltételes megközelítés célja a bizonytalan reláció modellezése az Y kimeneti és az X bemeneti változók között. Egyéb elnevezési konvenciók a válasz, kimenetel, függ és prediktor, magyarázó vagy független változók. A bizonytalan reláció modellezésére hasonló axiomatikus megközelítéssel adódik a valószín ségi megközelítés, amelyben f cél ismét predikciós p(y N+1 X N+1, (X 1, Y 1 ),..., (X N, Y N )). (1.23)
12 12 A m címe Analóg módon, egy feltételes felcserélhet ségi feltevésb l származtatható egy parametrikus bayesi megközelítés, hasonlóan a támogatva a mintha értelmezését a bayesi megközelítésnek [5] p(y 1,..., y N x 1,..., x N ) = N ( p(y i θ(x i )))p(θ(x)) dθ(x), (1.24) ahol p(θ(x)) egy prior a p(y i θ(x i ))-t specikáló parametrikus család felett. Alapvet eltérés a tárgyterületi vagy rendszeralapú modellezéshez képest, hogy a bemeneti változók közti összefüggések nincsenek modellezve. Ezen adatok hiányos volta az egyik legnagyobb kihívás a feltételes modellezés gyakorlati alkalmazásánál, amire közelít, a teljes tárgyterületi modellezést elkerül, de legalábbis minimalizáló megoldások széles skálája jött létre (lásd Hiányos adatok kezelése fejezet). Egy elméleti nehézség a feltételes modellek bayesi alkalmazása terén az úgynevezett konjugált prior hiánya és az ezzel összekapcsolódó probléma, hogy a tárgyterületi modellezést l eltér en a paraméterek szintje itt analitikusan nem kezelhet (lásd Oksági Bayes hálók tanulása fejezet). A tárgyterületet leíró függetlenségi modell meghatározza a validitását az esetleges feltételes modellezésnek, ami statisztikai mintaszám komplexitás és számítási komplexitás tekintetében mindenképpen el nyösebb. Ez a bayesi megközelítésben is megnyilvánul, és általános esetben a p(g), p(θ G) struktúra és paraméter priorok például Bayes hálókra nem dekomponálódik priorokra a p(y X) feltételes modell szerint. Például mégha tárgyterületi, a priori kényszerek miatt is a kimeneti változó nem lehet szül, akkor is függhet ennek a változónak a modellje a többi változó közti függésekt l p(y x) = G p(g) p(y x, θ, G) dp(θ). (1.25) Θ Egy pragmatista bayesi megközelítésben, az 1.24 egyenletben azt tesszük fel, hogy az Y X-t l való függésére vonatkozó elvárások függetlenek más tárgyterületi függésekt l. Ennek formalizálására tételezzük fel, hogy a teljes (Y, X)-ra vonatkozó meggyeléseket egy prior p(θ) és egy mintavételi p(y, X θ) eloszlás deniálja, ahol a θ paraméter (φ, ω)-ra bontható, ahol a φ paraméter X-hez tartozik (azaz X φ és (X ω φ)), és ω pedig Y X-hez tartozik (azaz Y {X, ω} and (Y φ ω, X)). A feltételes megközelítés ekkor formálisan azt teszi fel, hogy ω φ, azaz a priorok ilyen dekomponoálását, amit az 1.1 ábrán lév Bayes háló is illusztrál.
13 1. fejezet. Valószín ségi Bayes hálók tanulása 13 X Y 1.1. ábra. A bayesi feltételes modellezés feltevéseinek Bayes hálós modellje. A bemeneti és kimeneti változókat X és Y jelöli, a hozzájuk tartozó paramétereket φ és ω (amelyek együtt alkotják θ-t). Az ezen feltevés szerint dekomponált priorok jelentik a feltételes megközelítés alapját, mivel teljes meggyelés esetén a posteriorok is dekomponálódnak p(θ x, y) p(ω, φ x, y) p(x, y ω, φ)p(ω, φ) (1.26) = p(y x, ω)p(x φ)p(ω φ)p(φ) (1.27) = p(y x, ω)p(ω)p(x φ)p(φ) (1.28) p(ω x, y)p(φ x). (1.29) Eszerint, ha csak a feltételes modellre szeretnénk következtetni, azaz ω poszteriorra, akkor a feltételes megközelítésben p(ω x, y) p(y x, ω, φ)p(x φ)p(ω φ)p(φ) dφ (1.30) φ = p(y x, ω)p(ω) (1.31) Bayes hálók tanulása feltételes modellként A hiányos adatkezelés vagy a priori elvárások miatt is a teljes tárgyterületi modell tanulása sok esetben egy minta és számításígényes, de legalább univerzális választásnak t nhet. Azonban viszonylagosan kis mintáknál, akár a bayesi keretben is a kés bb tárgyalt jegytanulási módszerekben, a teljes modell tanulása szisztematikusan eltér a feltételes modell tanulásától. Ennek megértéséhez fontoljuk meg a teljes adatra vonatkozó likelihood-t egy olyan G, θ modellnél, amely az X, Y -t tartalmazza [12]: LL(G, θ; D N ) = log p(d N G, θ) (1.32) N = CLL Y (G, θ; D N ) + log p(x i G, θ) (1.33)
14 14 A m címe ahol CLL Y (G, θ; D N ) = N log p(y i G, θ, X i ). (1.34) Az els tag a feltételes adat log-likelihood CLL Y (G, θ; D N ), amelyik kizárólagosan meghatározza az osztályozást (diszkrét esetet feltételezve). A másik tag annak a következménye, hogy nem feltételes modellosztállyal dolgozunk, és mint látni fogjuk mind becslési bias-t és nagyobb statisztikai érzékenységet is okoz. Els ként is, a Bayes háló általános volta miatt az osztályozás szempontjából optimális arg max θ CLL Y (G, θ; D N ) parametérek nem egyen ek a tárgyterületi modell maximum likelihood paramétereivel arg max θ LL Y (G, θ; D N ), sem a paraméterek várható értékeivel E p(θ G,DN )[θ] (valamely p(θ) priorral) (ez a nem faktorizálódó normalizációs konstansok miatt is fellép). Ez alól csak az jelent kivételt, ha a kimeneti Y változó levél csomópont [12]. Másodsorban, a CLL Y (G, θ; D N ) tag dominált az n 1 analóg taggal a bemeneti változóknál [12] Naive Bayes hálók teljesítménye osztályozásban és regresszióban Az NBN-knek rengeteg sikeres alkalmazása van, akár numerikus vagy folytonos bemeneti változókkal, mind az osztályozási és mind a regressziós keretben. Mivel az NBN-ek függetlenségi feltevése szerint az Y (= X 0 ) központi (gyökér/szül ) változó és az n darab X 1,..., X n bemeneti változóra fennáll, hogy X i {X j : j i} Y, így adódik a jól ismert eredmény log P (y X) = n log p(x i y) + log P (y) log P (X), (1.35) amely azt mutatja, hogy diszkrét esetben az NBN egy lineáris osztályozó (diszkriminátor). Azonban, ha folytonos változók is megengedettek, akkor nemlineáris és egymástól elválasztott régiók is megjelenhetnek döntési tartományoknak [8, 6]. Az NBN-k sikeres alkalmazása osztályozásban, amikor az osztályozás a regressziósbecslésen deniált egy küszöbértékkel, elméleti kutatásokban is vizsgált [10, 6]. J. Friedman mutatta meg, hogy a D N adat statisztikai hatása az osztályozási hibán strukturálisan különbözik a regressziós becslés L 2 predikciós hibájától. A jól ismert bias-variance megközelítés szerint az L 2 hiba a frekventista megközelítésben regressziós feladatban egy bias és egy variancia tagra bontható [14], E DN [y ˆf DN (x)] 2 = E DN [f(x) ˆf DN (x)] 2 + E[y f(x) ] 2 }{{} (1.36) ɛ noise E DN [f(x) ˆf DN (x)] 2 = 2 (f(x) E DN [ ˆf DN (x)]) + E }{{} DN [E DN [ ˆf DN (x)] ˆf DN (x)]. }{{} bias variance 2
15 1. fejezet. Valószín ségi Bayes hálók tanulása 15 Bináris osztályozásnál a bias tényez lépcs s jelleg küszöbhöz kötött sign( 1 2 f)(e ˆf 1 2 ) és a varianciával skálázott var( ˆf). Ez azt eredményezi, hogy a regresszióbeli varianciája (azaz komplexitása) a függvényosztálynak nagyobb hangsúlyt kap és a bias-e (azaz kapacitása) pedig kisebbet. Máshogyan fogalmazva az olyan egyszer modellosztály mint a naív BN alkalmatlan lehet regresszióra a szigorú korlátai miatt (bias), de kiváló osztályozásra, mivel varianciája kicsi [10] Naive Bayes hálók kiterjesztései Az NBN modellek szigorú feltevését több módon is próbáltak enyhíteni, így növelve az alkalmazhatóságát: a Tree Augmented NBN (TAN) és a kontextuális multi-háló [12], az Augmented NBN osztályozó [6, 16, 18], stb. A TAN modellosztály egy skálázható kiterjesztést jelent, így azt ismertetjük. Ebben a modellosztályban (az Y kimeneti és n darab X 1,..., X n bemeneti változó felett) egy teljes N-BN deniált, amely modellstruktura pluszban egy teljes fát is tartalmaz a bemeneti változók csomópontjai között. Ez lehet vé tesz globális és lokális szenpontok optimalizálásval n 1 él beillesztését a maximális szül számot k 2-n tartva [12]. Kihasználva, hogy teljes D N adat esetén egy adott G struktúránál a θ maximum likelihood paramétereket használva a log-likelihood felírható így (levezetésért lásd Oksági modellek tanulása fejezet) log p(d N G, θ ) = N n I(X i ; Pa(X i, G)) N i=0 n H(X i ), (1.37) felhasználva még a kölcsönös információra vonatkozó láncszabályt I(X; Y, Z) = I(X; Z) + I(X; Y Z), az els, struktúrától függ összeg átírható a következ képpen (külön gy jtve a szül re vonatkozó konstans tagokat) i IˆpDN (X i ; Y ) + i:pa(x i ) 1 IˆpDN (X i ; X pa(xi ) Y ). (1.38) Ez azt mutatja, hogy a maximum likelihood TAN-t úgy találhatjuk meg, hogy a második összegzést maximáljuk bevéve a maximális feltételes kölcsönös információjú éleket a korrelációs fába a bemeneti változók között. Mivel az élekre a feltételes kölcsönös információ O(n 2 N) id ben kiszámolható, amib l ezt az értéket mint élsúly kezelve maximális feszít fa (MWST) konstruálható O(n 2 log n) id ben, ez egy nagyon hatékony algoritmust jelent [12]. A módszer hátránya, hogy egy teljes fát épít fel akkor is, ha a bemeneti változók az NBN feltevés szerint feltételesen függetlenek, de ez tesztekkel el is kerülhet, illetve komplexitásnövel hatása mintakomplexitás emelkedés tekintetében mérsékelt.általánosabb módszerek nem csak fát, hanem általános DAG struktúrát is megengednek a bemeneti változók közös szül /gyökér változóval feltételes függéseinek reprezentálására, például k maximális szül számot el írva, azonban 1 < k-ra már NP-teljes az optimális bemeneti változók feletti DAG megkeresése, így általános tanulási eljárások szükségesek.
16 16 A m címe Teljes modellátlagolás NBN-k felett Ay NBN-kkel való következtetés hatékonyságát, változók számában lineáris voltát, egy pontparametrizáció mellett vizsgáltuk meg. Ez a lineáris komplexitás a paraméterek bayesi kezelése esetében is gyakran megmarad, mivel ha p(θ G) jelöl egy adott struktúra melletti paramétereloszlást, akkor egy értékek szintjén történ következtetésben a paramétertér felett átlagolás E Θ [p(y x, Θ)] = p(y x). (1.39) adott, praktikus feltételek mellett analitikusan elvégezhet (lásd Oksági modellek tanulása fejezet). Egy meglep eredmény szerint ez a lineáris komplexitás még akkor is megtartható, ha a struktúrák felett is átlagolni kell, azaz ha a 2 n struktúrák feletti p(g) eloszlás követi a tárgyterületi függetlenségek szerinti dekompozíciót, akkor létezik egy olyan szuper-(pont)paraméterezés, amely ezt is képes reprezentálni [4]. Els ként is idézzük fel, hogy x teljes meggyelés esetében a feltételes eloszlás p(y x) kiszámolható a p(y, x) együttes eloszlásból O(n) id ben, az NBN-ket denáló szorzatalakból n p(y x, θ, G) p(y, x, θ, G) = p(y ) p(x i pa(x i, G)) = n p(x i pa(x i, G)). (1.40) i=0 Másodsorban, Dirichlet paraméterpriorokat használó paraméterfüggetlenség esetén a paraméterek feletti integrálás elkerülhet a lokális modellekbeli valószín ségek várható értékeinek használatával (lásd?? egyenlet). p(y, x) = G p(g) p(y, x, θ, G) dp(θ) = G n p(g) p(x i pa(x i, G)). (1.41) i=0 Teljes D N adatok esetén ez a tulajdonság a poszteriorokra is teljesül (lásd?? egyenlet). Harmadrészt, struktúrális modularitást feltéve, a astruktúrák felett prior az p(y X i Edges(G)) élek a priori élvalószín ségeinek szorzataként deniálható, amely a DAG kényszerrel való kompatibilitása miatt egy normalizált priort deniál. Elméletilleg a következtésbe belép, akár részleges x is befolyálja a poszterior, de ezt gyelmen kívül hagyjuk. Ekkor a struktúrák feletti poszteriorra az alábbi szorzat alak adódik (lásd?? egyenlet, a normalizáció minden változóra függetlenül végezhet el megfontolva a két lehetséges esetet, hogy Y szül -e vagy nem) p(g D N ) = n p(pa(x i, G) D N ). (1.42) i=0 és jelölje p 1 i p(pa(x i, G) = Y D N )-t és p 0 i p(pa(x i, G) Y D N )-t (kihasználva, hogy p 0 0 = p 0 Y = 0).
17 1. fejezet. Valószín ségi Bayes hálók tanulása 17 Kombinálva az 1.40,az 1.41 és az 1.42 egyenleteket kapjuk, hogy p(y, x D N ) (1.43) = n p(pa(x i ) G, D N )p(x i pa(x i ) G, D N ) G i=0 (1.44) =... n p(pa(x i ) G D N )p(x i pa(x i ) G, D N ) (1.45) = = pa G X 1 =Y pa G X 1 Y pa G Xn =Y pa G Xn Y i=0 n p 0 i p(x i pa(x i ) G Y, D N ) + p 1 i p(x i pa(x i ) G = Y, D N ) (1.46) i=0 n p (x i pa(x i ) G = Y, D N ) (1.47) i=0 ahol az utolsó lépésben felhasználtuk az összeg-szorzat felcserését. Ez azt mutatja, hogy egy pontparaméterezés konstruálható egy teljes NBN modellre O(n) id ben, amellyel az 1.41 egyenletbeli prediktív következtetés 2 n modellstruktúra és paramétertér feletti átlagolás O(n) id ben elvégezhet Egy információelméleti pontszám Bayes háló tanulásához Az általános valószín ségi Bayes hálók tanulásához a jelen fejezetben egy információelméleti pontszámot mutatunk be. A Bayes hálók általános, gazdagabb, akár oksági vonatkozású priorokat is befogadó tanulását az Oksági Bayes hálók tanulása fejezetben ismertetjük. A frekventista paradigmában tételezzünk fel teljes, diszkrét, azonos eloszlású, független (i.i.d.) mintákat és deniáljunk egy maximum likelihood pontszámot a következ képpen ML(G; D N ) = max θ p(d N G, θ) (1.48) Adott G struktúránál az 1.3 egyenlet szerint ezt a θ ijk = N ijk/n ij+ relatív gyakoriságok maximálják, ahol N ijk jelöli az x k érték és q j szül i konguráció együttes el fordulásának számát X i változó és P a(x i ) szül i halmazára nézve (N ij+ az értelemszer összeget jelenti) [?,?]. Behelyettesítve ezt a maximum likelihood paramétert kapjuk, hogy ML(G; D N ) = p(d N G, θ ) = = q n i r i j=1 k=1 N n l=1 p(x (l) i pa (l) i ) (1.49) N N ijk ijk, (1.50) N ij+ Logaritmust véve, összegzési sorrendet cserélve és N-nel b vítve adódik, hogy
18 18 A m címe log(ml(g; D N )) = N q n i j=1 N ij+ N r i k=1 N ijk N ij+ log(n ijk /N ij+ ). (1.51) Felhasználva a feltételes entrópia denícióját H(Y X) = x p(x) y p(y x) log(p(y x)), az entrópiára vonatkozó láncszabályt H(X, Y ) = H(Y X) + H(X) és a kölcsönös információ denícióját I(Y ; X) = H(Y ) H(Y X) [3], ez átírható a következ képpen log(ml(g; D N )) = N n H(X i P a(x i, G)) (1.52) = NH(X 1,..., X n ) (1.53) = n n N I(X i ; P a(x i, G)) N H(X i ). (1.54) (1.55) Ezt azt mutatja,hogy a deniált maximum likelihood pontszámot maximalizáló Bayes háló értelmezhet úgy, mint ami entrópiát minimalizál avagy az általa elérhet kódolás is legrövidebb hosszúságú, ami a Minimum Description Length tömörítési elvet tükrözi (lásd 1.53), másrészt úgyis, hogy maximalizálja a szül k és a gyerekeik közti kölcsönös információt (lásd 1.54, ahol a struktúrától független tagokat értelemszer en nem számítanak). Nagyon érdekes kapcsolat, hogy a változók azon sorrendje, amely ilyen értelemben maximális meghatározottságot mutat az mennyiben használható fel oksági sorrendek kikövetkeztetésére [7]. A deniált pontszám struktúra tanulásban való felhasználásához azonban gyelembe kell venni a kölcsönös információ monotonitását, nevezetesen, hogy ha P a(x i ) P a(x i ), akkor I(X i ; P a(x i ) I(X i ; P a (X i ) [3], azaz a teljes DAG maximalizálja a pontszámot. Ezt egy komplexitás regularizációs tag tudja kezelni, amely a Bayesian information criterion (BIC) pontszám esetében a következ teljes pontszámot eredményezi (származtatását és egyéb pontszámokat az Oksági Bayes hálók fejezetben tárgyalunk [17, 1, 2, 13, 15]) BIC(G; D N ) = log(ml(g; D N )) 1 dim(g) log(n), (1.56) 2 ahol dim(g) a szabad paraméterek számát jelöli.
19 Irodalomjegyzék [1] R. R. Bouckaert. Bayesian Belief Networks: From construction to inference. Ph.D. Thesis, Dept. of Comp. Sci., Utrecht University, Netherlands, [2] D. M. Chickering, D. Geiger, and D. Heckerman. Learning Bayesian networks: Search methods and experimental results. In Proceedings of Fifth Conference on Articial Intelligence and Statistics, pages , [3] T. M. Cover and J. A. Thomas. Elements of Information Theory. Wiley & Sons, [4] D. Dash and G. F. Cooper. Exact model averaging with naive Bayesian classiers. In Proceedings of the Nineteenth International Conference on Machine Learning, pages 9198, [5] D. G. T. Denison, C. C. Holmes, B. K. Mallick, and A. F. M. Smith. Bayesian Methods for Nonlinear Classication and Regression. Wiley & Sons, [6] P. Domingos and M. Pazzani. On the optimality of the simple Bayesian classier under zero-one loss. Machine Learning, 29:103130, [7] M. J. Druzdzel and H. Simon. Causality in Bayesian belief networks. In David Heckerman and Abe Mamdani, editors, Proceedings of the 9th Conf. on Uncertainty in Articial Intelligence (UAI-1993), pages 311. Morgan Kaufmann, [8] R. O. Duda, P. E. Hart, and D. G. Stork. Pattern classication. Wiley & Sons, [9] R. Durbin, S. R. Eddy, and A. Krogh anf G. Mitchison. Biological Sequence Analysis : Probabilistic Models of Proteins and Nucleic Acids. Chapman & Hall, London, [10] J. H. Friedman. On bias, variance, 0/1-loss, and the curse of dimensionality. Data Mining and Knowledge Discovery, 1(1):5577, [11] N. Friedman. The Bayesian structural EM algorithm. In Proc. of the 14th Conf. on Uncertainty in Articial Intelligence(UAI-1998), pages Morgan Kaufmann, [12] N. Friedman, D. Geiger, and M. Goldszmidt. Bayesian networks classiers. Machine Learning, 29:131163, 1997.
20 20 A m címe [13] N. Friedman and Z. Yakhini. On the sample complexity of learning Bayesian networks. In Proc. of the 12th Conf. on Uncertainty in Articial Intelligence (UAI-1996), pages Morgan Kaufmann, [14] S. Geman, S. Bienenstock, and R. Doursat. Neural networks and the bias/variance dilemma. Neural Computation, 4:158, [15] D. Heckermann. A tutorial on learning with Bayesian networks., Technical Report, MSR-TR [16] E. Keogh and M. Pazzani. Learning the structure of augmented Bayesian classiers. International Journal of Articial Intelligence Tools, 11(4):587601, [17] W. Lam and F. Bacchus. Using causal information and local measures to learn Bayesian networks. In David Heckerman and Abe Mamdani, editors, Proc. of the 9th Conference on Uncertainty in Articial Intelligence (UAI-1993), pages Morgan Kaufmann, [18] P. Lucas. Restricted Bayesian network structure learning. In H. Blockeel and M. Denecker, editors, Proc. of 14th Belgian-Dutch Conference on Articial Intelligence (BNA- IC'02), pages , [19] S. Russel and P. Norvig. Articial Intelligence. Prentice Hall, 2001.
1 Antal Péter c szerz neve, egyetem
1 Antal Péter 2 A m címe Jelölések Felhasznált jelölések x,x,x skalár, (oszlop)vektor vagy halmaz, mátrix X, x, p(x) véletlen változó X, érték x, valószín sgéi tömegfüggvény/s r ségfüggvény X E X,p(X)
Least Squares becslés
Least Squares becslés A négyzetes hibafüggvény: i d i ( ) φx i A négyzetes hibafüggvény mellett a minimumot biztosító megoldás W=( d LS becslés A gradiens számítása és nullává tétele eredményeképp A megoldás
Valószín ségi döntéstámogató rendszerek
Valószín ségi döntéstámogató rendszerek Antos András Antal Péter Hullám Gábor Millinghoer András Hajós Gergely Kulcsszavak: döntés, becslés, költségfüggvény, kockázat, a priori és a posteriori valószín
Intelligens adatelemzés
Antal Péter, Antos András, Horváth Gábor, Hullám Gábor, Kocsis Imre, Marx Péter, Millinghoffer András, Pataricza András, Salánki Ágnes Intelligens adatelemzés Szerkesztette: Antal Péter A jegyzetben az
Mesterséges Intelligencia I.
Mesterséges Intelligencia I. 10. elıadás (2008. november 10.) Készítette: Romhányi Anita (ROANAAT.SZE) - 1 - Statisztikai tanulás (Megfigyelések alapján történı bizonytalan következetésnek tekintjük a
Véletlen jelenség: okok rendszere hozza létre - nem ismerhetjük mind, ezért sztochasztikus.
Valószín ségelméleti és matematikai statisztikai alapfogalmak összefoglalása (Kemény Sándor - Deák András: Mérések tervezése és eredményeik értékelése, kivonat) Véletlen jelenség: okok rendszere hozza
1 Antal Péter c szerz neve, egyetem
1 Antal Péter 2 A m címe Jelölések Felhasznált jelölések x,x,x skalár, (oszlop)vektor vagy halmaz, mátrix X, x, p(x) véletlen változó X, érték x, valószín ségi tömegfüggvény/s r ségfüggvény X E X,p(X)
A TANTÁRGY ADATLAPJA
A TANTÁRGY ADATLAPJA 1. A képzési program adatai 1.1 Felsőoktatási intézmény Babeș Bolyai Tudományegyetem 1.2 Kar Matematika és Informatika Kar 1.3 Intézet Magyar Matematika és Informatika Intézet 1.4
Elméleti összefoglaló a Valószín ségszámítás kurzushoz
Elméleti összefoglaló a Valószín ségszámítás kurzushoz Véletlen kísérletek, események valószín sége Deníció. Egy véletlen kísérlet lehetséges eredményeit kimeneteleknek nevezzük. A kísérlet kimeneteleinek
Elméleti összefoglaló a Sztochasztika alapjai kurzushoz
Elméleti összefoglaló a Sztochasztika alapjai kurzushoz 1. dolgozat Véletlen kísérletek, események valószín sége Deníció. Egy véletlen kísérlet lehetséges eredményeit kimeneteleknek nevezzük. A kísérlet
Megoldott feladatok november 30. n+3 szigorúan monoton csökken, 5. n+3. lim a n = lim. n+3 = 2n+3 n+4 2n+1
Megoldott feladatok 00. november 0.. Feladat: Vizsgáljuk az a n = n+ n+ sorozat monotonitását, korlátosságát és konvergenciáját. Konvergencia esetén számítsuk ki a határértéket! : a n = n+ n+ = n+ n+ =
Abszolút folytonos valószín ségi változó (4. el adás)
Abszolút folytonos valószín ségi változó (4. el adás) Deníció (Abszolút folytonosság és s r ségfüggvény) Az X valószín ségi változó abszolút folytonos, ha van olyan f : R R függvény, melyre P(X t) = t
Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.
Regresszió Csorba János Nagyméretű adathalmazok kezelése 2010. március 31. A feladat X magyarázó attribútumok halmaza Y magyarázandó attribútumok) Kérdés: f : X -> Y a kapcsolat pár tanítópontban ismert
Valószín ségi döntéstámogató rendszerek
Valószín ségi döntéstámogató rendszerek Antos András Antal Péter Hullám Gábor Millinghoer András Hajós Gergely Kulcsszavak: döntés, becslés, költségfüggvény, kockázat, a priori és a posteriori valószín
1. Példa. A gamma függvény és a Fubini-tétel.
. Példa. A gamma függvény és a Fubini-tétel.. Az x exp x + t )) függvény az x, t tartományon folytonos, és nem negatív, ezért alkalmazható rá a Fubini-tétel. I x exp x + t )) dxdt + t dt π 4. [ exp x +
Ellátási lánc optimalizálás P-gráf módszertan alkalmazásával mennyiségi és min ségi paraméterek gyelembevételével
Ellátási lánc optimalizálás P-gráf módszertan alkalmazásával mennyiségi és min ségi paraméterek gyelembevételével Pekárdy Milán, Baumgartner János, Süle Zoltán Pannon Egyetem, Veszprém XXXII. Magyar Operációkutatási
Markov-láncok stacionárius eloszlása
Markov-láncok stacionárius eloszlása Adatbányászat és Keresés Csoport, MTA SZTAKI dms.sztaki.hu Kiss Tamás 2013. április 11. Tartalom Markov láncok definíciója, jellemzése Visszatérési idők Stacionárius
Függvények növekedési korlátainak jellemzése
17 Függvények növekedési korlátainak jellemzése A jellemzés jól bevált eszközei az Ω, O, Θ, o és ω jelölések. Mivel az igények általában nemnegatívak, ezért az alábbi meghatározásokban mindenütt feltesszük,
A maximum likelihood becslésről
A maximum likelihood becslésről Definíció Parametrikus becsléssel foglalkozunk. Adott egy modell, mellyel elképzeléseink szerint jól leírható a meghatározni kívánt rendszer. (A modell típusának és rendszámának
Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363
1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái 324/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák
Kauzális modellek. Randall Munroe
Kauzális modellek Randall Munroe A kauzalitás reprezentációi Determinisztikus Sztochasztikus Feltételes valószínűség < > hipergráf Irányított gráf: több ok, egy okozat < > Bayes-háló Cirkuláris kauzalitás
Exact inference in general Bayesian networks
Exact inference in general Bayesian networks Peter Antal antal@mit.bme.hu Overview The Probability Propagation in Trees of Cliques (a.k.a. ~in join trees) Practical inference Exercises Literature: Valószínűségi
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 8 VIII. REGREssZIÓ 1. A REGREssZIÓs EGYENEs Két valószínűségi változó kapcsolatának leírására az eddigiek alapján vagy egy numerikus
Leíró és matematikai statisztika el adásnapló Matematika alapszak, matematikai elemz szakirány 2016/2017. tavaszi félév
Leíró és matematikai statisztika el adásnapló Matematika alapszak, matematikai elemz szakirány 2016/2017. tavaszi félév A pirossal írt anyagrészeket nem fogom közvetlenül számon kérni a vizsgán, azok háttérismeretként,
KÖZELÍTŐ INFERENCIA II.
STATISZTIKAI TANULÁS AZ IDEGRENDSZERBEN KÖZELÍTŐ INFERENCIA II. MONTE CARLO MÓDSZEREK ISMÉTLÉS Egy valószínűségi modellben a következtetéseinket a látensek vagy a paraméterek fölötti poszterior írja le.
Hidden Markov Model. March 12, 2013
Hidden Markov Model Göbölös-Szabó Julianna March 12, 2013 Outline 1 Egy példa 2 Feladat formalizálása 3 Forward-algoritmus 4 Backward-algoritmus 5 Baum-Welch algoritmus 6 Skálázás 7 Egyéb apróságok 8 Alkalmazás
Biológiai rendszerek modellellenőrzése bayesi megközelítésben
Biológiai rendszerek modellellenőrzése bayesi megközelítésben Gál Tamás Zoltán Szoftver verifikáció és validáció kiselőadás, 2013. ősz Forrás: Sumit K. Jha et al.: A Bayesian Approach to Model Checking
Végeselem modellezés alapjai 1. óra
Végeselem modellezés alapjai. óra Gyenge alak, Tesztfüggvény, Lagrange-féle alakfüggvény, Stiness mátrix Kivonat Az óra célja, hogy megismertesse a végeselem módszer (FEM) alkalmazását egy egyszer probléma,
Statisztika elméleti összefoglaló
1 Statisztika elméleti összefoglaló Tel.: 0/453-91-78 1. Tartalomjegyzék 1. Tartalomjegyzék.... Becsléselmélet... 3 3. Intervallumbecslések... 5 4. Hipotézisvizsgálat... 8 5. Regresszió-számítás... 11
KÖZELÍTŐ INFERENCIA II.
STATISZTIKAI TANULÁS AZ IDEGRENDSZERBEN KÖZELÍTŐ INFERENCIA II. MONTE CARLO MÓDSZEREK ISMÉTLÉS Egy valószínűségi modellben a következtetéseinket a látensek vagy a paraméterek fölötti poszterior írja le.
[Biomatematika 2] Orvosi biometria
[Biomatematika 2] Orvosi biometria 2016.02.29. A statisztika típusai Leíró jellegű statisztika: összegzi egy adathalmaz jellemzőit. A középértéket jelemzi (medián, módus, átlag) Az adatok változékonyságát
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 9 IX. ROBUsZTUs statisztika 1. ROBUsZTUssÁG Az eddig kidolgozott módszerek főleg olyanok voltak, amelyek valamilyen értelemben optimálisak,
Principal Component Analysis
Principal Component Analysis Principal Component Analysis Principal Component Analysis Definíció Ortogonális transzformáció, amely az adatokat egy új koordinátarendszerbe transzformálja úgy, hogy a koordináták
Bizonytalan tudás kezelése
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Bizonytalan tudás kezelése Előadó: Előadás anyaga: Hullám Gábor Pataki Béla Dobrowiecki Tadeusz Valószínűségi
Gazdasági matematika II. tanmenet
Gazdasági matematika II. tanmenet Mádi-Nagy Gergely A hivatkozásokban az alábbi tankönyvekre utalunk: T: Tóth Irén (szerk.): Operációkutatás I., Nemzeti Tankönyvkiadó 1987. Cs: Csernyák László (szerk.):
Diszkrét matematika 1. középszint
Diszkrét matematika 1. középszint 2017. sz 1. Diszkrét matematika 1. középszint 3. el adás Nagy Gábor nagygabr@gmail.com nagy@compalg.inf.elte.hu compalg.inf.elte.hu/ nagy Mérai László diái alapján Komputeralgebra
A TANTÁRGY ADATLAPJA
A TANTÁRGY ADATLAPJA 1. A képzési program adatai 1.1 Felsőoktatási intézmény Babeș Bolyai Tudományegyetem 1.2 Kar Matematika és Informatika Kar 1.3 Intézet Magyar Matematika és Informatika Intézet 1.4
Probabilisztikus funkcionális modellek idegrendszeri adatok elemzésére
Probabilisztikus funkcionális modellek idegrendszeri adatok elemzésére Bányai Mihály! MTA Wigner FK! Computational Systems Neuroscience Lab!! KOKI-VIK szeminárium! 2014. február 11. Struktúra és funkció
Statisztika - bevezetés Méréselmélet PE MIK MI_BSc VI_BSc 1
Statisztika - bevezetés 00.04.05. Méréselmélet PE MIK MI_BSc VI_BSc Bevezetés Véletlen jelenség fogalma jelenséget okok bizonyos rendszere hozza létre ha mindegyik figyelembe vehető egyértelmű leírás általában
Fodor Gábor március 17. Fodor Gábor Osztályozás március / 39
Osztályozás Fodor Gábor 2010. március 17. Fodor Gábor (fodgabor@math.bme.hu) Osztályozás 2010. március 17. 1 / 39 Bevezetés 1 Bevezetés 2 Döntési szabályok 3 Döntési fák 4 Bayes-hálók 5 Lineáris szeparálás
Modellkiválasztás és struktúrák tanulása
Modellkiválasztás és struktúrák tanulása Szervezőelvek keresése Az unsupervised learning egyik fő célja Optimális reprezentációk Magyarázatok Predikciók Az emberi tanulás alapja Általános strukturális
Matematikai statisztika c. tárgy oktatásának célja és tematikája
Matematikai statisztika c. tárgy oktatásának célja és tematikája 2015 Tematika Matematikai statisztika 1. Időkeret: 12 héten keresztül heti 3x50 perc (előadás és szeminárium) 2. Szükséges előismeretek:
Konjugált gradiens módszer
Közelítő és szimbolikus számítások 12. gyakorlat Konjugált gradiens módszer Készítette: Gelle Kitti Csendes Tibor Vinkó Tamás Faragó István Horváth Róbert jegyzetei alapján 1 LINEÁRIS EGYENLETRENDSZEREK
Valószínűségi modellek
Statisztikai tanulás az idegrendszerben, 2015. Valószínűségi modellek Bányai Mihály banyai.mihaly@wigner.mta.hu http://golab.wigner.mta.hu/people/mihaly-banyai/ Hogyan kezeljük formálisan a bizonytalan
Mesterséges Intelligencia MI
Mesterséges Intelligencia MI Valószínűségi hálók - következtetés Dobrowiecki Tadeusz Eredics Péter, és mások BME I.E. 437, 463-28-99 dobrowiecki@mit.bme.hu, http://www.mit.bme.hu/general/staff/tade Következtetés
Optimalizálás alapfeladata Legmeredekebb lejtő Lagrange függvény Log-barrier módszer Büntetőfüggvény módszer 2017/
Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatikai Intézet Számítógépes Optimalizálás Tanszék 9. Előadás Az optimalizálás alapfeladata Keressük f függvény maximumát ahol f : R n R és
Lineáris leképezések. Wettl Ferenc március 9. Wettl Ferenc Lineáris leképezések március 9. 1 / 31
Lineáris leképezések Wettl Ferenc 2015. március 9. Wettl Ferenc Lineáris leképezések 2015. március 9. 1 / 31 Tartalom 1 Mátrixleképezés, lineáris leképezés 2 Alkalmazás: dierenciálhatóság 3 2- és 3-dimenziós
Gépi tanulás és Mintafelismerés
Gépi tanulás és Mintafelismerés jegyzet Csató Lehel Matematika-Informatika Tanszék BabesBolyai Tudományegyetem, Kolozsvár 2007 Aug. 20 2 1. fejezet Bevezet A mesterséges intelligencia azon módszereit,
Elemi statisztika. >> =weiszd= << december 20. Szerintem nincs sok szükségünk erre... [visszajelzés esetén azt is belerakom] x x = n
Elemi statisztika >> =weiszd=
Funkcionális konnektivitás vizsgálata fmri adatok alapján
Funkcionális konnektivitás vizsgálata fmri adatok alapján Képalkotási technikák 4 Log Resolution (mm) 3 Brain EEG & MEG fmri TMS PET Lesions 2 Column 1 0 Lamina -1 Neuron -2 Dendrite -3 Synapse -4 Mikrolesions
Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet
/ Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet / Tartalom 3/ kernelek segítségével Felügyelt és félig-felügyelt tanulás felügyelt: D =
Probabilisztikus modellek II: Inferencia. Nagy Dávid
Probabilisztikus modellek II: Inferencia Nagy Dávid Statisztikai tanulás az idegrendszerben, 2015 előző előadás előző előadás az agy modellt épít a világról előző előadás az agy modellt épít a világról
(1 + (y ) 2 = f(x). Határozzuk meg a rúd alakját, ha a nyomaték eloszlás. (y ) 2 + 2yy = 0,
Feladatok az 5. hétre. Eredményekkel és kidolgozott megoldásokkal. Oldjuk meg az alábbi másodrend lineáris homogén d.e. - et, tudva, hogy egy megoldása az y = x! x y xy + y = 0.. Oldjuk meg a következ
Likelihood, deviancia, Akaike-féle információs kritérium
Többváltozós statisztika (SZIE ÁOTK, 2011. ősz) 1 Likelihood, deviancia, Akaike-féle információs kritérium Likelihood függvény Az adatokhoz paraméteres modellt illesztünk. A likelihood függvény a megfigyelt
f(x) vagy f(x) a (x x 0 )-t használjuk. lim melyekre Mivel itt ɛ > 0 tetszőlegesen kicsi, így a a = 0, a = a, ami ellentmondás, bizonyítva
6. FÜGGVÉNYEK HATÁRÉRTÉKE ÉS FOLYTONOSSÁGA 6.1 Függvény határértéke Egy D R halmaz torlódási pontjainak halmazát D -vel fogjuk jelölni. Definíció. Legyen f : D R R és legyen x 0 D (a D halmaz torlódási
Biomatematika 12. Szent István Egyetem Állatorvos-tudományi Kar. Fodor János
Szent István Egyetem Állatorvos-tudományi Kar Biomatematikai és Számítástechnikai Tanszék Biomatematika 12. Regresszió- és korrelációanaĺızis Fodor János Copyright c Fodor.Janos@aotk.szie.hu Last Revision
Határozatlansági relációk származtatása az
az állapottér BME TTK Matematikus MSc. 1. évf. 2012. november 14. Vázlat: Történeti áttekintés Nemkommutatív (kvantum) valószín ségelmélet Az állapottér geometriája: Az állapottér mint Riemann-sokaság
Bevezetés. 1. fejezet. Algebrai feladatok. Feladatok
. fejezet Bevezetés Algebrai feladatok J. A számok gyakran használt halmazaira a következ jelöléseket vezetjük be: N a nemnegatív egész számok, N + a pozitív egész számok, Z az egész számok, Q a racionális
Irányításelmélet és technika II.
Irányításelmélet és technika II. Modell-prediktív szabályozás Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki és Információs Rendszerek Tanszék amagyar@almos.vein.hu 2010 november
Valószínűségi változók. Várható érték és szórás
Matematikai statisztika gyakorlat Valószínűségi változók. Várható érték és szórás Valószínűségi változók 2016. március 7-11. 1 / 13 Valószínűségi változók Legyen a (Ω, A, P) valószínűségi mező. Egy X :
Képfeldolgozás. 1. el adás. A képfeldolgozás m veletei. Mechatronikai mérnök szak BME, 2008
Képfeldolgozás 1. el adás. A képfeldolgozás m veletei Mechatronikai mérnök szak BME, 2008 1 / 61 Alapfogalmak transzformációk Deníció Deníció Geometriai korrekciókra akkor van szükség, ha a képr l valódi
0,424 0,576. f) P (X 2 = 3) g) P (X 3 = 1) h) P (X 4 = 1 vagy 2 X 2 = 2) i) P (X 7 = 3, X 4 = 1, X 2 = 2 X 0 = 2) j) P (X 7 = 3, X 4 = 1, X 2 = 2)
Legyen adott a P átmenetvalószín ség mátrix és a ϕ 0 kezdeti eloszlás Kérdés, hogy miként lehetne meghatározni az egyes állapotokban való tartózkodás valószín ségét az n-edik lépés múlva Deniáljuk az n-lépéses
Gauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei
A Gauss-Jordan elimináció, mátrixinvertálás Gauss-Jordan módszer Ugyanazzal a technikával, mint ahogy a k-adik oszlopban az a kk alatti elemeket kinulláztuk, a fölötte lévő elemeket is zérussá lehet tenni.
Irányításelmélet és technika II.
Irányításelmélet és technika II. Legkisebb négyzetek módszere Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki és Információs Rendszerek Tanszék amagyar@almos.vein.hu 200 november
Matematikai statisztika szorgalmi feladatok
Matematikai statisztika szorgalmi feladatok 1. Feltételes várható érték és konvolúció 1. Legyen X és Y független és azonos eloszlású valószín ségi változó véges második momentummal. Mutassuk meg, hogy
Loss Distribution Approach
Modeling operational risk using the Loss Distribution Approach Tartalom»Szabályozói környezet»modellezési struktúra»eseményszám eloszlás»káreloszlás»aggregált veszteségek»további problémák 2 Szabályozói
Permutációk véges halmazon (el adásvázlat, február 12.)
Permutációk véges halmazon el adásvázlat 2008 február 12 Maróti Miklós Ennek az el adásnak a megértéséhez a következ fogalmakat kell tudni: ismétlés nélküli variáció leképezés indulási és érkezési halmaz
MBNK12: Permutációk (el adásvázlat, április 11.) Maróti Miklós
MBNK12: Permutációk el adásvázlat 2016 április 11 Maróti Miklós 1 Deníció Az A halmaz permutációin a π : A A bijektív leképezéseket értjünk Tetsz leges n pozitív egészre az {1 n} halmaz összes permutációinak
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók Előadó: Előadás anyaga: Hullám Gábor Pataki Béla Dobrowiecki Tadeusz BME I.E. 414, 463-26-79
Mesterséges Intelligencia MI
Mesterséges Intelligencia MI Valószínűségi hálók - alapok Dobrowiecki Tadeusz Eredics Péter, és mások BME I.E. 437, 463-28-99 dobrowiecki@mit.bme.hu, http://www.mit.bme.hu/general/staff/tade Valószínűségi
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 3 III. VÉLETLEN VEKTOROK 1. A KÉTDIMENZIÓs VÉLETLEN VEKTOR Definíció: Az leképezést (kétdimenziós) véletlen vektornak nevezzük, ha Definíció:
Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )
Budapesti Műszaki és Gazdaságtudományi Egyetem Gépészmérnöki Kar Hidrodinamikai Rendszerek Tanszék, Budapest, Műegyetem rkp. 3. D ép. 334. Tel: 463-6-80 Fa: 463-30-9 http://www.vizgep.bme.hu Alap-ötlet:
(Independence, dependence, random variables)
Két valószínűségi változó együttes vizsgálata Feltételes eloszlások Két diszkrét változó együttes eloszlása a lehetséges értékpárok és a hozzájuk tartozó valószínűségek (táblázat) Példa: Egy urna 3 fehér,
1. feladatsor: Vektorterek, lineáris kombináció, mátrixok, determináns (megoldás)
Matematika A2c gyakorlat Vegyészmérnöki, Biomérnöki, Környezetmérnöki szakok, 2017/18 ősz 1. feladatsor: Vektorterek, lineáris kombináció, mátrixok, determináns (megoldás) 1. Valós vektorterek-e a következő
Egyváltozós függvények 1.
Egyváltozós függvények 1. Filip Ferdinánd filip.ferdinand@bgk.uni-obuda.hu siva.banki.hu/jegyzetek 015 szeptember 1. Filip Ferdinánd 015 szeptember 1. Egyváltozós függvények 1. 1 / 5 Az el adás vázlata
A szimplex algoritmus
A szimplex algoritmus Ismétlés: reprezentációs tétel, az optimális megoldás és az extrém pontok kapcsolata Alapfogalmak: bázisok, bázismegoldások, megengedett bázismegoldások, degenerált bázismegoldás
Diverzifikáció Markowitz-modell MAD modell CAPM modell 2017/ Szegedi Tudományegyetem Informatikai Intézet
Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatikai Intézet Számítógépes Optimalizálás Tanszék 11. Előadás Portfólió probléma Portfólió probléma Portfólió probléma Adott részvények (kötvények,tevékenységek,
Megoldások. ξ jelölje az első meghibásodásig eltelt időt. Akkor ξ N(6, 4; 2, 3) normális eloszlású P (ξ
Megoldások Harmadik fejezet gyakorlatai 3.. gyakorlat megoldása ξ jelölje az első meghibásodásig eltelt időt. Akkor ξ N(6, 4;, 3 normális eloszlású P (ξ 8 ξ 5 feltételes valószínűségét (.3. alapján számoljuk.
Norma Determináns, inverz Kondíciószám Direkt és inverz hibák Lin. egyenletrendszerek A Gauss-módszer. Lineáris algebra numerikus módszerei
Indukált mátrixnorma Definíció A. M : R n n R mátrixnormát a. V : R n R vektornorma által indukált mátrixnormának nevezzük, ha A M = max { Ax V : x V = 1}. Az indukált mátrixnorma geometriai jelentése:
Valószín ségszámítás és statisztika
Valószín ségszámítás és statisztika Informatika BSc, esti tagozat Backhausz Ágnes agnes@math.elte.hu fogadóóra: szerda 10-11 és 13-14, D 3-415 2018/2019. tavaszi félév Bevezetés A valószín ségszámítás
Gibbs-jelenség viselkedésének vizsgálata egyszer négyszögjel esetén
Matematikai modellek, I. kisprojekt Gibbs-jelenség viselkedésének vizsgálata egyszer négyszögjel esetén Unger amás István B.Sc. szakos matematikus hallgató ungert@maxwell.sze.hu, http://maxwell.sze.hu/~ungert
Gazdasági matematika II. vizsgadolgozat megoldása, június 10
Gazdasági matematika II. vizsgadolgozat megoldása, 204. június 0 A dolgozatírásnál íróeszközön kívül más segédeszköz nem használható. A dolgozat időtartama: 90 perc. Ha a dolgozat első részéből szerzett
Algoritmusok Tervezése. 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás
Algoritmusok Tervezése 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás Mi az algoritmus? Lépések sorozata egy feladat elvégzéséhez (legáltalánosabban) Informálisan algoritmusnak nevezünk bármilyen jól definiált
Kettőnél több csoport vizsgálata. Makara B. Gábor
Kettőnél több csoport vizsgálata Makara B. Gábor Három gyógytápszer elemzéséből az alábbi energia tartalom adatok származtak (kilokalória/adag egységben) Három gyógytápszer elemzésébô A B C 30 5 00 10
IBNR számítási módszerek áttekintése
1/13 IBNR számítási módszerek áttekintése Prokaj Vilmos email: Prokaj.Vilmos@pszaf.hu 1. Kifutási háromszög Év 1 2 3 4 5 2/13 1 X 1,1 X 1,2 X 1,3 X 1,4 X 1,5 2 X 2,1 X 2,2 X 2,3 X 2,4 X 2,5 3 X 3,1 X 3,2
Véletlen bolyongás. Márkus László március 17. Márkus László Véletlen bolyongás március / 31
Márkus László Véletlen bolyongás 2015. március 17. 1 / 31 Véletlen bolyongás Márkus László 2015. március 17. Modell Deníció Márkus László Véletlen bolyongás 2015. március 17. 2 / 31 Modell: Egy egyenesen
Dinamikus modellek szerkezete, SDG modellek
Diagnosztika - 3. p. 1/2 Modell Alapú Diagnosztika Diszkrét Módszerekkel Dinamikus modellek szerkezete, SDG modellek Hangos Katalin PE Villamosmérnöki és Információs Rendszerek Tanszék Diagnosztika - 3.
Opkut deníciók és tételek
Opkut deníciók és tételek Készítette: Bán József Deníciók 1. Deníció (Lineáris programozási feladat). Keressük meg adott lineáris, R n értelmezési tartományú függvény, az ún. célfüggvény széls értékét
5. A kiterjesztési elv, nyelvi változók
5. A kiterjesztési elv, nyelvi változók Gépi intelligencia I. Fodor János BMF NIK IMRI NIMGI1MIEM Tartalomjegyzék I 1 A kiterjesztési elv 2 Nyelvi változók A kiterjesztési elv 237 A KITERJESZTÉSI ELV A
Bizonytalanság. Mesterséges intelligencia április 4.
Bizonytalanság Mesterséges intelligencia 2014. április 4. Bevezetés Eddig: logika, igaz/hamis Ha nem teljes a tudás A világ nem figyelhető meg közvetlenül Részleges tudás nem reprezentálható logikai eszközökkel
Valószín ségszámítás és statisztika
Valószín ségszámítás és statisztika Informatika BSc, esti tagozat Backhausz Ágnes agnes@cs.elte.hu 2016/2017. tavaszi félév Bevezetés Célok: véletlen folyamatok modellezése; kísérletekb l, felmérésekb
Vektorterek. Wettl Ferenc február 17. Wettl Ferenc Vektorterek február / 27
Vektorterek Wettl Ferenc 2015. február 17. Wettl Ferenc Vektorterek 2015. február 17. 1 / 27 Tartalom 1 Egyenletrendszerek 2 Algebrai struktúrák 3 Vektortér 4 Bázis, dimenzió 5 Valós mátrixok és egyenletrendszerek
biometria II. foglalkozás előadó: Prof. Dr. Rajkó Róbert Matematikai-statisztikai adatfeldolgozás
Kísérlettervezés - biometria II. foglalkozás előadó: Prof. Dr. Rajkó Róbert Matematikai-statisztikai adatfeldolgozás A matematikai-statisztika feladata tapasztalati adatok feldolgozásával segítséget nyújtani
A Markowitz modell: kvadratikus programozás
A Markowitz modell: kvadratikus programozás Harry Markowitz 1990-ben kapott Közgazdasági Nobel díjat a portfolió optimalizálási modelljéért. Ld. http://en.wikipedia.org/wiki/harry_markowitz Ennek a legegyszer
4/24/12. Regresszióanalízis. Legkisebb négyzetek elve. Regresszióanalízis
1. feladat Regresszióanalízis. Legkisebb négyzetek elve 2. feladat Az iskola egy évfolyamába tartozó diákok átlagéletkora 15,8 év, standard deviációja 0,6 év. A 625 fős évfolyamból hány diák fiatalabb
Lineáris egyenletrendszerek
Lineáris egyenletrendszerek 1 Alapfogalmak 1 Deníció Egy m egyenletb l álló, n-ismeretlenes lineáris egyenletrendszer általános alakja: a 11 x 1 + a 12 x 2 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + + a
1. feladat Az egyensúly algoritmus viselkedése: Tekintsük a kétdimenziós Euklideszi teret, mint metrikus teret. A pontok
1. feladat Az egyensúly algoritmus viselkedése: Tekintsük a kétdimenziós Euklideszi teret, mint metrikus teret. A pontok (x, y) valós számpárokból állnak, két (a, b) és (c, d) pontnak a távolsága (a c)
Bemenet modellezése II.
Bemenet modellezése II. Vidács Attila 2005. november 3. Hálózati szimulációs technikák, 2005/11/3 1 Kiszolgálási id k modellezése Feladat: Egy bemeneti modell felállítása egy egy kiszolgálós sorbanállási
HALMAZELMÉLET feladatsor 1.
HALMAZELMÉLET feladatsor 1. Egy (H,, ) algebrai struktúra háló, ha (H, ) és (H, ) kommutatív félcsoport, és teljesül az ún. elnyelési tulajdonság: A, B H: A (A B) = A, A (A B) = A. A (H,, ) háló korlátos,
Line aris f uggv enyilleszt es m arcius 19.
Lineáris függvényillesztés 2018. március 19. Illesztett paraméterek hibája Eddig azt néztük, hogy a mérési hiba hogyan propagál az illesztett paraméterekbe, ha van egy konkrét függvényünk. a hibaterjedés