Diszkriminatív modellezés és strukturált modellalkotás
|
|
- Gábor Kelemen
- 9 évvel ezelőtt
- Látták:
Átírás
1 Diszkriminatív modellezés és strukturált modellalkotás
2 Modellalkotási szemléletek Strukturált modellalkotás (pl. osztálycímkék szekvenciája, Bayes-hálók) vs. egyszerű modellek (pl. bináris/n-osztályos osztályozás) Generatív (együttes) (feltételes) modellek vs. diszkriminatív Célváltozó és jellemzők közötti összefüggés eltérő kezelése Generatív (NB) Diszkriminatív (ME)
3 HMM címkéző Állapotautomata + Markov-feltevés P( X,Y )= P( X Y ) P(Y )= P (x i y i ) P ( y i y i 1 ) Ismerünk kell az egyes rejtett állapotok közötti átmenetvalószínűségeket (A) Valamint az egyes állapotokban tapasztalható emissziós/észlelési feltételes valószínűségeket (B) A) B)
4 HMM-ekkel kapcsolatos kérdések Megfigyeléssorozat valószínűsége Megfigyeléssorozatot generáló legvalószínűbb rejtett állapotsorozat meghatározása Forward algoritmus Viterbi algoritmus Tanítás: paraméterek kalibrálása Expectation Maximization algoritmussal: maximum likelihood becslés hiányos megfigyelések esetén Forward-backward algoritmus (Baum-Welch algoritmus)
5 Forward és Viterbi algoritmusok Rekurzív összefüggés v t ( j)=max i v t 1 (i) a i, j b j (o t ) A teljes megfigyeléssorozat első t elemét legvalószínűbben generáló, j-re végződő rejtett állapotsorozat és az első t megfigyelés együttes valószínűsége Forward algoritmus teljesen hasonló, csak maximum helyett összegzünk Egy t hosszú mondat(töredék) hányféle szófajsorozattal írható le, ha minden szó C szófaji kódba tartozhat?
6 Viterbi algoritmus din. programozással Észrevétel: korábban számolt (t-edik megfigyelést megelőző) értékek újrahasznosíthatók
7 Az EM problémaköre és az EM filozófia Egyszerű példa: binomiális eloszlás F,F,F,I,F,I,I,F,I,I F,F,F,I,F,I,I,F,I,? p(f)=? p(f)=? Mi tehető a hiányos megfigyelésekkel? Tegyünk úgy, mintha meg sem történt volna? Helyettesítsünk egy eloszlással (és iteráljunk)? Tegyünk úgy, mintha a gyakrabban (ténylegesen is) megfigyelt megfigyeléstípusba tartozna?
8 EM valamivel formálisabban Adottak megfigyeléseink ML: Keressük a véletlen változóink feltételezett eloszlásának azon Θ paramétereit, ami a megfigyelés valószínűségét maximalizálja (IID) x={x 1, x 2, x 3,..., x n } Likelihood: L(θ ; x)= p( x 1, x 2,..., x n θ) Ha x adatunk teljes, könnyű dolgunk van Ellenben ha vannak rejtett z változóink is, akkor a hiányos log-likelihood-ot kell maximalizáljuk l(θ; x)=log p( x, z θ) z
9 Miért működik az EM? Jensen-egyenlőtlenség αi=1 és konvex f függvényre f ( αi x i ) αi f ( x i ) Miért igaz, hogy a számtani átlag a mértaninál? Miért igaz, hogy n elemű értékkészlettel rendelkező diszkrét változó maximális entrópiája log(n)? Segédfüggvény a hiányos log-likelihoodhoz l (θ ; x)=log p(x θ)=log z p (x, z θ) p(x, z θ)=log q (z x) q( z x) z p (x, z θ) l (θ ; x) q( z x)log =L ( p(z x),θ) q( z x) z A segédfüggvényünk egy alsó korlátot biztosít a teljes log-likelihoodra
10 Elvi algoritmus E-lépés: Θ(t)-t fixnek tekintve maximalizáljuk L-t p(z x,θ)-ban p( x, z θ) L ( p( z x,θ),θ)= p( z x,θ)log =log p (x θ)=l (θ ; x ) p( z x,θ) z M-lépés: p(z x)-et fixnek tekintve maximalizáljuk L-t Θ-ban L ( p( z x), θ)= p(z x)log p( x, z θ) p(z x)log p( z x) z Maximalizálandó teljes likelihood z Θ-tól független EM-algoritmus: inicializáljuk Θ-t, majd ismételjük az E,-és Mlépéseket p(f) becslésén túl hol használható még az EM? Bayes hálók valószínűségeinek meghatározására, keverékeloszlásoknál (GMM), HMM tanításánál
11 Példa - Bayes háló valószínűségei Kezdeti tippjeink (Θ) P(H)=0,4 P(A H)=0,55 P(A H)=0,61 P(B H)=0,43 P(B H)=0,52 A B H # 0 0? 6 0 1? 1 1 0? 1 1 1? 4 A B 1. E 2. E E E 1. M 2. M M M 0 0 0,48 0,52 0,79 0,971 P(H) 0,42 0,42 0,46 0, ,39 0,39 0,31 0,183 P(A H) 0,35 0,31 0,09 0, ,42 0,39 0,31 0,183 P(A H) 0,46 0,50 0,69 0, ,33 0,28 0,05 0,01 P(B H) 0,34 0,30 0,09 0,03 P(B H) 0,47 0,50 0,69 0,83 P(H D, Θ) = P(H A=a, B=b, Θ)
12 Példa - Bayes háló valószínűségei Kezdeti tippjeink (Θ) P(H)=0,4 P(A H)=0,55 P(A H)=0,61 P(B H)=0,43 P(B H)=0,52 A B H # 0 0? 6 0 1? 1 1 0? 1 1 1? 4 A B 1. E 2. E E E 1. M 2. M M M 0 0 0,48 0,52 0,79 0,971 P(H) 0,42 0,42 0,46 0, ,39 0,39 0,31 0,183 P(A H) 0,35 0,31 0,09 0, ,42 0,39 0,31 0,183 P(A H) 0,46 0,50 0,69 0, ,33 0,28 0,05 0,01 P(B H) 0,34 0,30 0,09 0,03 P(B H) 0,47 0,50 0,69 0,83 P(H D, Θ) = P(H A=a, B=b, Θ) L(Θ(0);x)=(0,4*0,45*0,57+0,6*0,54*0,43)6*(0,4*0,45*0,43+0,6*0,39*0,52)*(...)*(...)4=3,89*10-8 L(Θ(10);x)=(0,52*0,972+0,48*0,172)*(0,52*0,97*0,03+0,48*0,17*0,83)2*(...)4=1,34*10-6 l(θ(0);x)=6*log(0,4*0,45*0,57+0,6*0,54*0,43)+log(...)+(...)+4*(...)=-7,409 l(θ(10);x)=6*log(...)+2*log(...)+4*log(...)=-5,872
13 Vissza a HMM-ekhez (és tanításukhoz) Backward számítások (t-edik időponttól számítva a megfigyelések hátralévő részének valószínűsége) βt (i)= j állapotok βt +1 ( j)a i, j b j (ot +1 ) (a forward számítások mintájára) Aij legyen az i-ből j állapotba történő átmenetek várható értékének és az i állapotból (bárhova tartó) továbbmenetel várható értékének hányadosa ξt legyen a t időpontban i állapotból j-be való átmenet valószínűsége adott megfigyelés és modell mellett P (q t =i,q t +1= j,o M ) ξt (i, j)=p(q t =i, q t +1= j O, M )= P (O M ) P( A, B C ) összefüggés miatt P( A B,C )= P ( B C )
14 Várható értékek származtatása P(qt =i, qt +1= j, O M )=α t (i)aij b j (ot +1)βt +1 ( j) N P(O M )=αt ( N )=βt (1)= α t ( j)βt ( j) α a b (o t +1 )βt+ 1 ( j) ξ (i, j)= t ij j t αt ( N ) j=1 γt(j) legyen a t időpontban j állapotban tartózkodás P (q t = j, O M ) α t ( j)βt ( j) valószínűsége γt ( j)=p (qt = j O, M )= P (O M ) = α ( N ) T
15 Forward-Backward algoritmus egészben
16 Problémák a HMM-el Jellemzők feltételes függetlenségének a feltételezése Együttes (joint) modellszemlélet pl. az, hogy nagy kezdőbetűs-e egy szó nem független attól, hogy mi a megelőző szó A paraméterek a megfigyeléssorozat egészének valószínűségét maximalizálják (a megfigyelések során tapasztalt rejtett állapotokkal együtt) Nekünk a legvalószínűbb állapotsorozat kellene adott megfigyeléssorozat mellett Feltételes (conditional) modellezés: log-lineáris vagy maximum entrópia módszerek (Maximum Entrópia Markov Modellek - MEMM)
17 Evidenciák túlsúlyozása Európa Monaco Monaco Tanító halmaz Monaco Monaco Monaco NB modell Osztály H K M Monaco Hong Kong P(A) = P(E) = P(M A) = P(M E) = P(H A) = P(K A) = P(H E) = PK E) = Hong Kong Monaco Ázsia Monaco P(A,H,K,M) = P(E,H,K,M) = P(A H,K,M) = P(E H,K,M) = Hong Kong Hong Kong
18 Evidenciák túlsúlyozása Európa Monaco Monaco Tanító halmaz Monaco Monaco Monaco NB modell Osztály H K M Monaco Hong Kong P(A) = P(E) = ½ P(M A) = ¼ P(M E) = ¾ P(H A) = P(K A) = 3/8 P(H E) = PK E) = 1/8 Hong Kong Monaco Ázsia Monaco Hong Kong Hong Kong P(A,H,K,M) = ½*9/64*¼ P(E,H,K,M) = ½*1/64*¾ P(A H,K,M) = 9/(9+3)=¾ P(E H,K,M) = 3/(9+3)=¼
19 Maximum Entrópia elv Tanítópéldák (az egyszerűség kedvéért bináris) jellemzők által adottak, pl. { f i ( x, y )= 1, ha x=monaco y=európa 0, különben Keressük azt a modellt, ami azon túl, hogy konzisztens a tanító példákkal, maximális feltételes entrópiájú is (a lehető legkevesebb feltételezéssel szeretnénk élni) p ( y x)=argmax p( y x) P H ( y x) H ( y x)= ( x, y) X Y p(x, y)log p( y x)
20 Maximum Entrópia elv szemléletesen A modellünk entrópiája legyen maximális, de mindeközben tegyen eleget előzetes elvárásoknak 1. p(fej)+p(iras)=1 (tényleges eloszlást akarunk) 2. p(fej) = 0,3
21 MaxEnt szemlélet Lehetséges állapotok = {NN, NNP, NNS, NNPS, VBZ, VBD} szófajok, melyeket rendre 3, 5, 11, 13, 3 ill. 1 alkalmakkal láttunk Ha csak az entrópai maximalizálása a célunk, a modellünk p(nn)=p(nnp)=...p(vbd)=1/6 lenne Jellemzők bevezetése (melyek empirikus megfigyeléseinek számával a modellünk által becsült várható megfigyelések száma meg kell egyezzen) f1: főnév-e, f2: többesszámú főnév-e NN f1 f2 NNP NNS NNPS VBZ VBD
22 MaxEnt szemlélet Lehetséges állapotok = {NN, NNP, NNS, NNPS, VBZ, VBD} szófajok, melyeket rendre 3, 5, 11, 13, 3 ill. 1 alkalmakkal láttunk Ha csak az entrópai maximalizálása a célunk, a modellünk p(nn)=p(nnp)=...p(vbd)=1/6 lenne Jellemzők bevezetése (melyek empirikus megfigyeléseinek számával a modellünk által becsült várható megfigyelések száma meg kell egyezzen) f1: főnév-e, f2: többesszámú főnév-e NN f1 f2 NNP NNS 8/36 8/36 8/36 NNPS VBZ VBD 8/36 2/36 2/36
23 MaxEnt szemlélet Lehetséges állapotok = {NN, NNP, NNS, NNPS, VBZ, VBD} szófajok, melyeket rendre 3, 5, 11, 13, 3 ill. 1 alkalmakkal láttunk Ha csak az entrópai maximalizálása a célunk, a modellünk p(nn)=p(nnp)=...p(vbd)=1/6 lenne Jellemzők bevezetése (melyek empirikus megfigyeléseinek számával a modellünk által becsült várható megfigyelések száma meg kell egyezzen) f1: főnév-e, f2: többesszámú főnév-e NN NNP NNS NNPS VBZ VBD f1 8/36 8/36 8/36 8/36 2/36 2/36 f2 4/36 4/36 12/36 12/36 2/36 2/36
24 Modell formuláció Elávrásaink p*-gal szemben Legyen eloszlás, vagyis p( y x)=1 y Y Konzisztencia: minden egyes jellemzőre a tanítópéldákon tapasztalt tüzelésük empirikus száma egyezzen meg a bekövetkezésük modell által előrejelzett várható értékével E (f i )= E (f i ) i Korlátozott optimalizálási feladat Lagrange-fgv.-e m i ))+λ m+1 ( p( y x) 1) L( p, λ)=h ( y x)+ λ i ( E(f i ) E(f i=1 y Y
25 Jellemzők várható értékei Jellemző empirikus v.é.-e T tanítóhalmaz esetén E (f i )= ( x, y ) X Y 1 p (x, y) f i (x, y)= f i ( x, y) T (x, y) T
26 Jellemzők várható értékei Jellemző empirikus v.é.-e T tanítóhalmaz esetén E (f i )= ( x, y ) X Y 1 p (x, y) f i (x, y)= f i ( x, y) T (x, y) T Jellemző modell által predikált v.é.-e 1 E (f )= p( x, y) f ( x, y) p ( x) p( y x)f (x, y)= p ( y x) f (x, y) T i i (x, y) X Y i ( x, y ) X Y x T y Y i Az együttes eloszlást az összes lehetséges jellemző-osztálycímke kombinációra nehéz lenne számítani, ezért közelítjük azt
27 Jellemzők várható értékei Jellemző empirikus v.é.-e T tanítóhalmaz esetén E (f i )= ( x, y ) X Y 1 p (x, y) f i (x, y)= f i ( x, y) T (x, y) T Jellemző modell által predikált v.é.-e 1 E (f )= p( x, y) f ( x, y) p ( x) p( y x)f (x, y)= p ( y x) f (x, y) T i i i (x, y) X Y ( x, y ) X Y x T y Y i Az együttes eloszlást az összes lehetséges jellemző-osztálycímke kombinációra nehéz lenne számítani, ezért közelítjük azt Hasonló trükkel számoljuk a feltételes entrópiát is H ( y x) ( x, y) X Y p ( x) p( y x)log p( y x)
28 MaxEnt modell levezetés Maximalizáljuk a Lagrange-függvényt m L( p, λ)= p ( x)[1+log p( y x)]+ λ i p (x) f i (x, y)+λ m+1 p( y x) i=1
29 MaxEnt modell levezetés Maximalizáljuk a Lagrange-függvényt m L( p, λ)= p ( x)[1+log p( y x)]+ λ i p (x) f i (x, y)+λ m+1 p( y x) i=1 Ahonnan m λ m+1 log p( y x)= λ i f i ( x, y)+ 1 p ( x) i=1 m λ m+1 p( y x)=exp( λ i f i (x, y))exp( 1) p ( x) i=1
30 MaxEnt modell levezetés Maximalizáljuk a Lagrange-függvényt m L( p, λ)= p ( x)[1+log p( y x)]+ λ i p (x) f i (x, y)+λ m+1 p( y x) i=1 Ahonnan Kihasználva, hogy p(y x) eloszlás m λ m+1 log p( y x)= λ i f i ( x, y)+ 1 p ( x) i=1 m λ m+1 p( y x)=exp( λ i f i (x, y))exp( 1) p ( x) i=1 m λ m+1 p( y x)= exp( λi f i ( x, y ))exp( p (x) 1)=1 y Y y Y i=1 λ m+1 1 exp( 1)= m p (x) exp( λi f i (x, y)) y Y i=1
31 MaxEnt modell levezetés Maximalizáljuk a Lagrange-függvényt m L( p, λ)= p ( x)[1+log p( y x)]+ λ i p (x) f i (x, y)+λ m+1 p( y x) i=1 Ahonnan Kihasználva, hogy p(y x) eloszlás m λ m+1 log p( y x)= λ i f i ( x, y)+ 1 p ( x) i=1 m λ m+1 p( y x)=exp( λ i f i (x, y))exp( 1) p ( x) i=1 m λ m+1 p( y x)= exp( λi f i ( x, y ))exp( p (x) 1)=1 y Y y Y i=1 λ m exp( 1)= = m Z p (x) exp( λi f i (x, y)) y Y i=1
32 A MaxEnt modell tehát m Formája: exp( λ i f i (x, y)) p( y x)= m Z Ahol Z= exp( λ i f i (x, y)) az ún. particionáló fgv. y Y i=1 Regularizáció i=1 A célfüggvény módosítása oly módon, hogy az a modellünk komplexitását is figyelembe vegye (MDL) Az egyszerűbb modelleket preferáljuk (Occam borotvája) Pl. diszkontáljuk a célfüggvény értékét a modellhez tartozó súlyvektor L1 vagy L2 norma szerint hosszával
33 Súlyok meghatározása és használata A súlyok meghatározása optimalizálási feladatként kezelhető Newton-módszer, magasabb rendű módszerek (L-BFGS),... f1(x, y) [y = LOCATION w-1 = in iscapitalized(w)] f2(x, y) [y = LOCATION hasaccentedlatinchar(w)] f3(x, y) [y = DRUG ends(w, c )] λ=[1,8; -0,6; 0,3] P(LOCATION in Québec) = e1,8 0,6/(e1,8 0,6 + e0,3 + e0) = 0,586 P(DRUG in Québec) = e0,3/(e1,8 0,6 + e0,3 + e0) = 0,238 P(PERSON in Québec) = e0 /(e1,8 0,6 + e0,3 + e0)= 0,176
34 MEMM és CRF MEMM: maximum entrópia markov modell Maximum Entrópia elv érvényesíte szekvenciajelölésben Diszkriminatív megközelítés, ami nem él a generatív HMM-eknél használt feltételezéssel a jellemzők osztálycímkéken kondicionált feltételes függetlenségére vonatkozóan Label bias probléma: A rejtett állapotok közötti átmenetautomata nem teljes Előnyt élveznek azok az állapotok, melyekből kevés másik állapot érhető el A MEMM lépésről lépésre osztályoz, a CRF pedig a teljes tokensorozathoz tartozó valószínűséget próbálja modellezni egyszerre Nehezebb feladat, megoldások de még mindig ismertek rá hatékony
35 Számítógépes nyelvészeti jellemzők Data BUSINESS: Stocks hit a yearly low Label: BUSINESS Features {, stocks, hit, a, yearly, low, } Szövegkategorizáció - bag of words Data to restructure bank:money debt. Label: MONEY Features Data DT JJ NN The previous fall Label: NN Features {, w-1=restructure, w+1=debt, } {w=fall, t-1=jj w-1 =previous} Jelentésegyértelműsítés Szófaji kódolás - kontextus - felszíni jegyek - kontextus
36 Gráfikus modellek Valószínűségi gráfikus modellel tetszőleges komplexitású eloszlást definiálhatunk A gráf csúcsai véletlen változókat jeleznek Az élek az egyes változók közötti közvetlen függőséget reprezentálják
37 Szekvenciamodellek gráfos ábrázolása HMM MEMM CRF
38 Alkalmazási lehetőségek Szöveg,-és beszédfeldolgozás Képfeldolgozás Orvosi diagnosztika
Principal Component Analysis
Principal Component Analysis Principal Component Analysis Principal Component Analysis Definíció Ortogonális transzformáció, amely az adatokat egy új koordinátarendszerbe transzformálja úgy, hogy a koordináták
A maximum likelihood becslésről
A maximum likelihood becslésről Definíció Parametrikus becsléssel foglalkozunk. Adott egy modell, mellyel elképzeléseink szerint jól leírható a meghatározni kívánt rendszer. (A modell típusának és rendszámának
Hidden Markov Model. March 12, 2013
Hidden Markov Model Göbölös-Szabó Julianna March 12, 2013 Outline 1 Egy példa 2 Feladat formalizálása 3 Forward-algoritmus 4 Backward-algoritmus 5 Baum-Welch algoritmus 6 Skálázás 7 Egyéb apróságok 8 Alkalmazás
Least Squares becslés
Least Squares becslés A négyzetes hibafüggvény: i d i ( ) φx i A négyzetes hibafüggvény mellett a minimumot biztosító megoldás W=( d LS becslés A gradiens számítása és nullává tétele eredményeképp A megoldás
Probabilisztikus funkcionális modellek idegrendszeri adatok elemzésére
Probabilisztikus funkcionális modellek idegrendszeri adatok elemzésére Bányai Mihály! MTA Wigner FK! Computational Systems Neuroscience Lab!! KOKI-VIK szeminárium! 2014. február 11. Struktúra és funkció
Mesterséges Intelligencia I.
Mesterséges Intelligencia I. 10. elıadás (2008. november 10.) Készítette: Romhányi Anita (ROANAAT.SZE) - 1 - Statisztikai tanulás (Megfigyelések alapján történı bizonytalan következetésnek tekintjük a
Diverzifikáció Markowitz-modell MAD modell CAPM modell 2017/ Szegedi Tudományegyetem Informatikai Intézet
Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatikai Intézet Számítógépes Optimalizálás Tanszék 11. Előadás Portfólió probléma Portfólió probléma Portfólió probléma Adott részvények (kötvények,tevékenységek,
Szepesvári Csaba. 2005 ápr. 11
Gépi tanulás III. Szepesvári Csaba MTA SZTAKI 2005 ápr. 11 Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 1 / 37 1 Döntési fák 2 Felügyelet nélküli tanulás Klaszter-anaĺızis EM algoritmus Gauss
Valószínűségi változók. Várható érték és szórás
Matematikai statisztika gyakorlat Valószínűségi változók. Várható érték és szórás Valószínűségi változók 2016. március 7-11. 1 / 13 Valószínűségi változók Legyen a (Ω, A, P) valószínűségi mező. Egy X :
Sztochasztikus folyamatok alapfogalmak
Matematikai Modellalkotás Szeminárium 2012. szeptember 4. 1 Folytonos idejű Markov láncok 2 3 4 1 Folytonos idejű Markov láncok 2 3 4 Folytonos idejű Markov láncok I Adott egy G = (V, E) gráf Folytonos
KÖZELÍTŐ INFERENCIA II.
STATISZTIKAI TANULÁS AZ IDEGRENDSZERBEN KÖZELÍTŐ INFERENCIA II. MONTE CARLO MÓDSZEREK ISMÉTLÉS Egy valószínűségi modellben a következtetéseinket a látensek vagy a paraméterek fölötti poszterior írja le.
KÖZELÍTŐ INFERENCIA II.
STATISZTIKAI TANULÁS AZ IDEGRENDSZERBEN KÖZELÍTŐ INFERENCIA II. MONTE CARLO MÓDSZEREK ISMÉTLÉS Egy valószínűségi modellben a következtetéseinket a látensek vagy a paraméterek fölötti poszterior írja le.
Mesterséges Intelligencia MI
Mesterséges Intelligencia MI Valószínűségi hálók - következtetés Dobrowiecki Tadeusz Eredics Péter, és mások BME I.E. 437, 463-28-99 dobrowiecki@mit.bme.hu, http://www.mit.bme.hu/general/staff/tade Következtetés
Kárszámeloszlások modellezése
Kárszámeloszlások modellezése DIPLOMAMUNKA Írta: Talabér Dóra Edit Biztosítási és pénzügyi matematika MSc Aktuárius szakirány Témavezető: Prokaj Vilmos egyetemi docens ELTE TTK Valószínűségelméleti és
Biomatematika 2 Orvosi biometria
Biomatematika 2 Orvosi biometria 2017.02.13. Populáció és minta jellemző adatai Hibaszámítás Valószínűség 1 Esemény Egy kísérlet vagy megfigyelés (vagy mérés) lehetséges eredményeinek összessége (halmaza)
Mesterséges Intelligencia MI
Mesterséges Intelligencia MI Valószínűségi hálók - alapok Dobrowiecki Tadeusz Eredics Péter, és mások BME I.E. 437, 463-28-99 dobrowiecki@mit.bme.hu, http://www.mit.bme.hu/general/staff/tade Valószínűségi
Új típusú döntési fa építés és annak alkalmazása többtényezős döntés területén
Új típusú döntési fa építés és annak alkalmazása többtényezős döntés területén Dombi József Szegedi Tudományegyetem Bevezetés - ID3 (Iterative Dichotomiser 3) Az ID algoritmusok egy elemhalmaz felhasználásával
Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)
Gépi tanulás Hány tanítómintára van szükség? VKH Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Induktív tanulás A tanítás folyamata: Kiinduló
Statisztika - bevezetés Méréselmélet PE MIK MI_BSc VI_BSc 1
Statisztika - bevezetés 00.04.05. Méréselmélet PE MIK MI_BSc VI_BSc Bevezetés Véletlen jelenség fogalma jelenséget okok bizonyos rendszere hozza létre ha mindegyik figyelembe vehető egyértelmű leírás általában
Mesterséges Intelligencia MI
Mesterséges Intelligencia MI Valószínűségi hálók - alapok Dobrowiecki Tadeusz Eredics Péter, és mások BME I.E. 437, 463-28-99 dobrowiecki@mit.bme.hu, http://www.mit.bme.hu/general/staff/tade A szükséges
1. gyakorlat. Mesterséges Intelligencia 2.
1. gyakorlat Mesterséges Intelligencia. Elérhetőségek web: www.inf.u-szeged.hu/~gulyasg mail: gulyasg@inf.u-szeged.hu Követelmények (nem teljes) gyakorlat látogatása kötelező ZH írása a gyakorlaton elhangzott
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 10 X. SZIMULÁCIÓ 1. VÉLETLEN számok A véletlen számok fontos szerepet játszanak a véletlen helyzetek generálásában (pénzérme, dobókocka,
Lineáris regressziós modellek 1
Lineáris regressziós modellek 1 Ispány Márton és Jeszenszky Péter 2016. szeptember 19. 1 Az ábrák C.M. Bishop: Pattern Recognition and Machine Learning c. könyvéből származnak. Tartalom Bevezető példák
Optimalizálás alapfeladata Legmeredekebb lejtő Lagrange függvény Log-barrier módszer Büntetőfüggvény módszer 2017/
Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatikai Intézet Számítógépes Optimalizálás Tanszék 9. Előadás Az optimalizálás alapfeladata Keressük f függvény maximumát ahol f : R n R és
Rejtett Markov Modell
Rejtett Markov Modell A Rejtett Markov Modell használata beszédfelismerésben Készítette Feldhoffer Gergely felhasználva Fodróczi Zoltán előadásanyagát Áttekintés hagyományos Markov Modell Beszédfelismerésbeli
Osztályozás, regresszió. Nagyméretű adathalmazok kezelése Tatai Márton
Osztályozás, regresszió Nagyméretű adathalmazok kezelése Tatai Márton Osztályozási algoritmusok Osztályozás Diszkrét értékkészletű, ismeretlen attribútumok értékének meghatározása ismert attribútumok értéke
(Independence, dependence, random variables)
Két valószínűségi változó együttes vizsgálata Feltételes eloszlások Két diszkrét változó együttes eloszlása a lehetséges értékpárok és a hozzájuk tartozó valószínűségek (táblázat) Példa: Egy urna 3 fehér,
További programozási esetek Hiperbolikus, kvadratikus, integer, bináris, többcélú programozás
További programozási esetek Hiperbolikus, kvadratikus, integer, bináris, többcélú programozás Készítette: Dr. Ábrahám István Hiperbolikus programozás Gazdasági problémák optimalizálásakor gyakori, hogy
Általános algoritmustervezési módszerek
Általános algoritmustervezési módszerek Ebben a részben arra mutatunk példát, hogy miként használhatóak olyan általános algoritmustervezési módszerek mint a dinamikus programozás és a korlátozás és szétválasztás
Eseményalgebra. Esemény: minden amirl a kísérlet elvégzése során eldönthet egyértelmen hogy a kísérlet során bekövetkezett-e vagy sem.
Eseményalgebra. Esemény: minden amirl a kísérlet elvégzése során eldönthet egyértelmen hogy a kísérlet során bekövetkezett-e vagy sem. Elemi esemény: a kísérlet egyes lehetséges egyes lehetséges kimenetelei.
Funkcionális konnektivitás vizsgálata fmri adatok alapján
Funkcionális konnektivitás vizsgálata fmri adatok alapján Képalkotási technikák 4 Log Resolution (mm) 3 Brain EEG & MEG fmri TMS PET Lesions 2 Column 1 0 Lamina -1 Neuron -2 Dendrite -3 Synapse -4 Mikrolesions
Gazdasági matematika II. vizsgadolgozat megoldása A csoport
Gazdasági matematika II. vizsgadolgozat megoldása A csoport Definiálja az alábbi fogalmakat!. Egy eseménynek egy másik eseményre vonatkozó feltételes valószínűsége. ( pont) Az A esemény feltételes valószínűsége
Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363
1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái 206/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák
A lineáris programozás alapjai
A lineáris programozás alapjai A konvex analízis alapjai: konvexitás, konvex kombináció, hipersíkok, félterek, extrém pontok, Poliéderek, a Minkowski-Weyl tétel (a poliéderek reprezentációs tétele) Lineáris
Probabilisztikus modellek II: Inferencia. Nagy Dávid
Probabilisztikus modellek II: Inferencia Nagy Dávid Statisztikai tanulás az idegrendszerben, 2015 előző előadás előző előadás az agy modellt épít a világról előző előadás az agy modellt épít a világról
A valószínűségszámítás elemei
A valószínűségszámítás elemei Kísérletsorozatban az esemény relatív gyakorisága: k/n, ahol k az esemény bekövetkezésének abszolút gyakorisága, n a kísérletek száma. Pl. Jelenség: kockadobás Megfigyelés:
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 9 IX. ROBUsZTUs statisztika 1. ROBUsZTUssÁG Az eddig kidolgozott módszerek főleg olyanok voltak, amelyek valamilyen értelemben optimálisak,
Modellkiválasztás és struktúrák tanulása
Modellkiválasztás és struktúrák tanulása Szervezőelvek keresése Az unsupervised learning egyik fő célja Optimális reprezentációk Magyarázatok Predikciók Az emberi tanulás alapja Általános strukturális
Adatbányászati feladatgyűjtemény tehetséges hallgatók számára
Adatbányászati feladatgyűjtemény tehetséges hallgatók számára Buza Krisztián Számítástudományi és Információelméleti Tanszék Budapesti Műszaki és Gazdaságtudományi Egyetem Tartalomjegyék Modellek kiértékelése...
Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363
1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái 324/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák
Probabilisztikus modellek V: Struktúra tanulás. Nagy Dávid
Probabilisztikus modellek V: Struktúra tanulás Nagy Dávid Statisztikai tanulás az idegrendszerben, 2015 volt szó a normatív megközelítésről ezen belül a probabilisztikus modellekről láttatok példákat az
Asszociációs szabályok
Asszociációs szabályok Nikházy László Nagy adathalmazok kezelése 2010. március 10. Mi az értelme? A ö asszociációs szabály azt állítja, hogy azon vásárlói kosarak, amik tartalmaznak pelenkát, általában
Markov-láncok stacionárius eloszlása
Markov-láncok stacionárius eloszlása Adatbányászat és Keresés Csoport, MTA SZTAKI dms.sztaki.hu Kiss Tamás 2013. április 11. Tartalom Markov láncok definíciója, jellemzése Visszatérési idők Stacionárius
Együ ttes e s vetü leti eloszlá s, sü rü se gfü ggve ny, eloszlá sfü ggve ny
Együ ttes e s vetü leti eloszlá s, sü rü se gfü ggve ny, eloszlá sfü ggve ny Szűk elméleti összefoglaló Együttes és vetületi eloszlásfüggvény: X = (X, X, X n ) valószínűségi vektorváltozónak hívjuk. X
[Biomatematika 2] Orvosi biometria
[Biomatematika 2] Orvosi biometria 2016.02.15. Esemény Egy kísérlet vagy megfigyelés (vagy mérés) lehetséges eredményeinek összessége (halmaza) alkotja az eseményteret. Esemény: az eseménytér részhalmazai.
Neurális hálózatok. Nem ellenőrzött tanulás. Pataki Béla. BME I.E. 414,
Neurális hálózato Nem ellenőrzött tanulás Patai Béla BME I.E. 414, 463-26-79 patai@mit.bme.hu, http://www.mit.bme.hu/general/staff/patai Nem ellenőrzött tanulás (Klaszterezés ) Az eseteet szoásos módon
Diszkrét idejű felújítási paradoxon
Magda Gábor Szaller Dávid Tóvári Endre 2009. 11. 18. X 1, X 2,... független és X-szel azonos eloszlású, pozitív egész értékeket felvevő valószínűségi változó (felújítási idők) P(X M) = 1 valamilyen M N
A valószínűségszámítás elemei
Alapfogalmak BIOSTATISZTIKA ÉS INFORMATIKA A valószínűségszámítás elemei Jelenség: minden, ami lényegében azonos feltételek mellett megismételhető, amivel kapcsolatban megfigyeléseket lehet végezni, lehet
Németh László Matematikaverseny április 16. A osztályosok feladatainak javítókulcsa
Németh László Matematikaverseny 007. április 16. A 9-10. osztályosok feladatainak javítókulcsa Feladatok csak 9. osztályosoknak 1. feladat a) Vegyük észre, hogy 7 + 5 felírható 1 + 3 + 6 + alakban, így
Gépi tanulás. Féligellenőrzött tanulás. Pataki Béla (Bolgár Bence)
Gépi tanulás Féligellenőrzött tanulás Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Féligellenőrzött tanulás Mindig kevés az adat, de
Bizonytalanságok melletti következtetés
Bizonytalanságok melletti következtetés Mesterséges Intelligencia I. Valószínűségi alapfogalmak (ismétlés) A, B,C események esetén a priori valószínűség: feltételes (a posteiori) valószínűség: Bayes-formula
Gazdasági informatika gyakorlat
Gazdasági informatika gyakorlat P-Gráfokról röviden Mester Abigél P-Gráf: A P-Gráfok olyan speciális páros gráfok, ahol a csúcsok két halmazba oszthatók: ezek az anyag jellegű csúcsok, valamint a gépek.
Bizonytalanság. Mesterséges intelligencia április 4.
Bizonytalanság Mesterséges intelligencia 2014. április 4. Bevezetés Eddig: logika, igaz/hamis Ha nem teljes a tudás A világ nem figyelhető meg közvetlenül Részleges tudás nem reprezentálható logikai eszközökkel
x, x R, x rögzített esetén esemény. : ( ) x Valószínűségi Változó: Feltételes valószínűség: Teljes valószínűség Tétele: Bayes Tétel:
Feltételes valószínűség: Teljes valószínűség Tétele: Bayes Tétel: Valószínűségi változó általános fogalma: A : R leképezést valószínűségi változónak nevezzük, ha : ( ) x, x R, x rögzített esetén esemény.
Mi az adat? Az adat elemi ismeret. Az adatokból információkat
Mi az adat? Az adat elemi ismeret. Tények, fogalmak olyan megjelenési formája, amely alkalmas emberi eszközökkel történő értelmezésre, feldolgozásra, továbbításra. Az adatokból gondolkodás vagy gépi feldolgozás
Kauzális modellek. Randall Munroe
Kauzális modellek Randall Munroe A kauzalitás reprezentációi Determinisztikus Sztochasztikus Feltételes valószínűség < > hipergráf Irányított gráf: több ok, egy okozat < > Bayes-háló Cirkuláris kauzalitás
Számítógép-rendszerek fontos jellemzői (Hardver és Szoftver):
B Motiváció B Motiváció Számítógép-rendszerek fontos jellemzői (Hardver és Szoftver): Helyesség Felhasználóbarátság Hatékonyság Modern számítógép-rendszerek: Egyértelmű hatékonyság (például hálózati hatékonyság)
Bevezetés Standard 1 vállalatos feladatok Standard több vállalatos feladatok 2017/ Szegedi Tudományegyetem Informatikai Intézet
Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatikai Intézet Számítógépes Optimalizálás Tanszék 10. Előadás Vállalatelhelyezés Vállalatelhelyezés Amikor egy új telephelyet kell nyitni,
egyenletesen, és c olyan színű golyót teszünk az urnába, amilyen színűt húztunk. Bizonyítsuk
Valószínűségszámítás 8. feladatsor 2015. november 26. 1. Bizonyítsuk be, hogy az alábbi folyamatok mindegyike martingál. a S n, Sn 2 n, Y n = t n 1+ 1 t 2 Sn, t Fn = σ S 1,..., S n, 0 < t < 1 rögzített,
Bizonytalan tudás kezelése
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Bizonytalan tudás kezelése Előadó: Előadás anyaga: Hullám Gábor Pataki Béla Dobrowiecki Tadeusz Valószínűségi
Több valószínűségi változó együttes eloszlása, korreláció
Tartalomjegzék Előszó... 6 I. Valószínűségelméleti és matematikai statisztikai alapok... 8 1. A szükséges valószínűségelméleti és matematikai statisztikai alapismeretek összefoglalása... 8 1.1. Alapfogalmak...
Matematikai statisztika c. tárgy oktatásának célja és tematikája
Matematikai statisztika c. tárgy oktatásának célja és tematikája 2015 Tematika Matematikai statisztika 1. Időkeret: 12 héten keresztül heti 3x50 perc (előadás és szeminárium) 2. Szükséges előismeretek:
Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Keresés képi jellemzők alapján Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Lusta gépi tanulási algoritmusok Osztályozás: k=1: piros k=5: kék k-legközelebbi szomszéd (k=1,3,5,7)
Inferencia valószínűségi modellekben
Statisztikai tanulás az idegrendszerben, 2016. Inferencia valószínűségi modellekben Bányai Mihály banyai.mihaly@wigner.mta.hu http://golab.wigner.mta.hu/people/mihaly-banyai/ Inferencia valószínűségi modellekben
Markov modellek 2015.03.19.
Markov modellek 2015.03.19. Markov-láncok Markov-tulajdonság: egy folyamat korábbi állapotai a későbbiekre csak a jelen állapoton keresztül gyakorolnak befolyást. Semmi, ami a múltban történt, nem ad előrejelzést
Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.
Regresszió Csorba János Nagyméretű adathalmazok kezelése 2010. március 31. A feladat X magyarázó attribútumok halmaza Y magyarázandó attribútumok) Kérdés: f : X -> Y a kapcsolat pár tanítópontban ismert
Valószínűségi hálók. Mesterséges Intelligencia - MI. Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Mesterséges Intelligencia - MI Valószínűségi hálók Előadó: Hullám Gábor Pataki Béla Előadás anyaga: Dobrowiecki
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 8 VIII. REGREssZIÓ 1. A REGREssZIÓs EGYENEs Két valószínűségi változó kapcsolatának leírására az eddigiek alapján vagy egy numerikus
VALÓSZÍNŰSÉG, STATISZTIKA TANÍTÁSA
VALÓSZÍNŰSÉG, STATISZTIKA TANÍTÁSA A VALÓSZÍNŰSÉGI SZEMLÉLET ALAPOZÁSA 1-6. OSZTÁLY A biztos, a lehetetlen és a lehet, de nem biztos események megkülünböztetése Valószínűségi játékok, kísérletek események
Biológiai rendszerek modellellenőrzése bayesi megközelítésben
Biológiai rendszerek modellellenőrzése bayesi megközelítésben Gál Tamás Zoltán Szoftver verifikáció és validáció kiselőadás, 2013. ősz Forrás: Sumit K. Jha et al.: A Bayesian Approach to Model Checking
Biometria az orvosi gyakorlatban. Regresszió Túlélésanalízis
SZDT-09 p. 1/36 Biometria az orvosi gyakorlatban Regresszió Túlélésanalízis Werner Ágnes Villamosmérnöki és Információs Rendszerek Tanszék e-mail: werner.agnes@virt.uni-pannon.hu Logisztikus regresszió
Legyen adott egy S diszkrét halmaz. Leggyakrabban S az egész számoknak egy halmaza, például S = {0, 1, 2,..., N}, {0, 1, 2,... }.
. Markov-láncok. Definíció és alapvető tulajdonságok Legyen adott egy S diszkrét halmaz. Leggyakrabban S az egész számoknak egy halmaza, például S = {0,,,..., N}, {0,,,... }.. definíció. S értékű valószínűségi
Általánosan, bármilyen mérés annyit jelent, mint meghatározni, hányszor van meg
LMeasurement.tex, March, 00 Mérés Általánosan, bármilyen mérés annyit jelent, mint meghatározni, hányszor van meg a mérendő mennyiségben egy másik, a mérendővel egynemű, önkényesen egységnek választott
Strukturált Generátorrendszerek Online Tanulása és Alk-ai
Strukturált Generátorrendszerek Online Tanulása és Alkalmazásai Problémamegoldó Szeminárium 2010. nov. 5 Tartalomjegyzék Motiváció, példák Regressziós feladatok (generátorrendszer fix) Legkisebb négyzetes
Regresszió. Fő cél: jóslás Történhet:
Fő cél: jóslás Történhet: Regresszó 1 változó több változó segítségével Lépések: Létezk-e valamlyen kapcsolat a 2 változó között? Kapcsolat természetének leírása (mat. egy.) A regresszós egyenlet alapján
Szemidenit optimalizálás és az S-lemma
Szemidenit optimalizálás és az S-lemma Pólik Imre SAS Institute, USA BME Optimalizálás szeminárium 2011. október 6. Outline 1 Egyenl tlenségrendszerek megoldhatósága 2 Az S-lemma 3 Szemidenit kapcsolatok
Matematikai statisztika 4. gyakorlat, 2018/2019 II. félév
Matematikai statisztika 4. gyakorlat, 2018/2019 II. félév 2019-03-5 Feladatok: 1. (a) λ > 0 paraméterű Poisson-eloszlásból vett n elemű minta esetén adjunk hatásos becslést a g(λ) = e λ mennyiségre! e
Információs rendszerek elméleti alapjai. Információelmélet
Információs rendszerek elméleti alapjai Információelmélet Az információ nem növekedés törvénye Adatbázis x (x adatbázis tartalma) Kérdés : y Válasz: a = f(y, x) Mennyi az a információtartalma: 2017. 04.
A következő feladat célja az, hogy egyszerű módon konstruáljunk Poisson folyamatokat.
Poisson folyamatok, exponenciális eloszlások Azt mondjuk, hogy a ξ valószínűségi változó Poisson eloszlású λ, 0 < λ
Tanulás Boltzmann gépekkel. Reiz Andrea
Tanulás Boltzmann gépekkel Reiz Andrea Tanulás Boltzmann gépekkel Boltzmann gép Boltzmann gép felépítése Boltzmann gép energiája Energia minimalizálás Szimulált kifűtés Tanulás Boltzmann gép Tanulóalgoritmus
A Markowitz modell: kvadratikus programozás
A Markowitz modell: kvadratikus programozás Harry Markowitz 1990-ben kapott Közgazdasági Nobel díjat a portfolió optimalizálási modelljéért. Ld. http://en.wikipedia.org/wiki/harry_markowitz Ennek a legegyszer
Exact inference in general Bayesian networks
Exact inference in general Bayesian networks Peter Antal antal@mit.bme.hu Overview The Probability Propagation in Trees of Cliques (a.k.a. ~in join trees) Practical inference Exercises Literature: Valószínűségi
CHT& NSZT Hoeffding NET mom. stabilis. 2011. november 9.
CHT& NSZT Hoeffding NET mom. stabilis Becslések, határeloszlás tételek Székely Balázs 2011. november 9. CHT& NSZT Hoeffding NET mom. stabilis 1 CHT és NSZT 2 Hoeffding-egyenlőtlenség Alkalmazása: Beengedés
Data Security: Access Control
Data Security 1. Alapelvek 2. Titkos kulcsú rejtjelezés 3. Nyilvános kulcsú rejtjelezés 4. Kriptográfiai alapprotokollok I. 5. Kriptográfiai alapprotokollok II. Data Security: Access Control A Rossz talált
(Diszkrét idejű Markov-láncok állapotainak
(Diszkrét idejű Markov-láncok állapotainak osztályozása) March 21, 2019 Markov-láncok A Markov-láncok anaĺızise főként a folyamat lehetséges realizációi valószínűségeinek kiszámolásával foglalkozik. Ezekben
Gépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés
Gépi tanulás a gyakorlatban Kiértékelés és Klaszterezés Hogyan alkalmazzuk sikeresen a gépi tanuló módszereket? Hogyan válasszuk az algoritmusokat? Hogyan hangoljuk a paramétereiket? Precízebben: Tegyük
Többváltozós lineáris regresszió 3.
Többváltozós lineáris regresszió 3. Orlovits Zsanett 2018. október 10. Alapok Kérdés: hogyan szerepeltethetünk egy minőségi (nominális) tulajdonságot (pl. férfi/nő, egészséges/beteg, szezonális hatások,
Matematikai geodéziai számítások 6.
Matematikai geodéziai számítások 6. Lineáris regresszió számítás elektronikus távmérőkre Dr. Bácsatyai, László Matematikai geodéziai számítások 6.: Lineáris regresszió számítás elektronikus távmérőkre
Szalai Péter. April 17, Szalai Péter April 17, / 36
Szociális hálók Szalai Péter April 17, 2015 Szalai Péter April 17, 2015 1 / 36 Miről lesz szó? 1 Megfigyelések Kis világ Power-law Klaszterezhetőség 2 Modellek Célok Erdős-Rényi Watts-Strogatz Barabási
A kanonikus sokaság. :a hőtartály energiája
A kanonikus sokaság A mikrokanonikus sokaság esetén megtanultuk, hogy a megengedett mikroállapotok egyenértéküek, és a mikróállapotok száma minimális. A mikrókanónikus sokaság azonban nem a leghasznosabb
Dr. Kalló Noémi. Termelés- és szolgáltatásmenedzsment. egyetemi adjunktus Menedzsment és Vállalatgazdaságtan Tanszék. Dr.
Termelés- és szolgáltatásmenedzsment egyetemi adjunktus Menedzsment és Vállalatgazdaságtan Tanszék Termelés- és szolgáltatásmenedzsment 13. Ismertesse a legfontosabb előrejelzési módszereket és azok gyakorlati
Az indukció. Azáltal, hogy ezt az összefüggést felírtuk, ezúttal nem bizonyítottuk, ez csak sejtés!
Az indukció A logikában indukciónak nevezzük azt a következtetési módot, amelyek segítségével valamely osztályon belül az egyes esetekb l az általánosra következtetünk. Például: 0,, 804, 76, 48 mind oszthatóak
Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Számítógépes képelemzés 7. előadás Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Momentumok Momentum-alapú jellemzők Tömegközéppont Irányultáság 1 2 tan 2 1 2,0 1,1 0, 2 Befoglaló
Algoritmusok helyességének bizonyítása. A Floyd-módszer
Algoritmusok helyességének bizonyítása A Floyd-módszer Algoritmusok végrehajtása Egy A algoritmus esetében a változókat három változótípusról beszélhetünk, melyeket az X, Y és Z vektorokba csoportosítjuk
Ellátási lánc optimalizálás P-gráf módszertan alkalmazásával mennyiségi és min ségi paraméterek gyelembevételével
Ellátási lánc optimalizálás P-gráf módszertan alkalmazásával mennyiségi és min ségi paraméterek gyelembevételével Pekárdy Milán, Baumgartner János, Süle Zoltán Pannon Egyetem, Veszprém XXXII. Magyar Operációkutatási
Készítette: Fegyverneki Sándor
VALÓSZÍNŰSÉGSZÁMÍTÁS Összefoglaló segédlet Készítette: Fegyverneki Sándor Miskolci Egyetem, 2001. i JELÖLÉSEK: N a természetes számok halmaza (pozitív egészek) R a valós számok halmaza R 2 {(x, y) x, y
Beadható feladatok. 2006. december 4. 1. Add meg az alábbi probléma állapottér-reprezentációját!
Beadható feladatok 2006. december 4. 1. Feladatok 2006. szeptember 13-án kitűzött feladat: 1. Add meg az alábbi probléma állapottér-reprezentációját! Adott I 1,..., I n [0, 1] intervallumokból szeretnénk
Statisztika I. 4. előadás Mintavétel. Kóczy Á. László KGK-VMI. Minta Mintavétel Feladatok. http://uni-obuda.hu/users/koczyl/statisztika1.
Statisztika I. 4. előadás Mintavétel http://uni-obuda.hu/users/koczyl/statisztika1.htm Kóczy Á. László KGK-VMI koczy.laszlo@kgk.uni-obuda.hu Sokaság és minta Alap- és mintasokaság A mintasokaság az a részsokaság,
Matematikai alapok és valószínőségszámítás. Statisztikai becslés Statisztikák eloszlása
Matematikai alapok és valószínőségszámítás Statisztikai becslés Statisztikák eloszlása Mintavétel A statisztikában a cél, hogy az érdeklõdés tárgyát képezõ populáció bizonyos paramétereit a populációból
Dinamikus rendszerek paramétereinek BAYES BECSLÉSE. Hangos Katalin VE Számítástudomány Alkalmazása Tanszék
Dinamikus rendszerek paramétereinek BAYES BECSLÉSE Hangos Katalin VE Számítástudomány Alkalmazása Tanszék 1 Bayes-becslések 1. A véletlen Bayes féle fogalma A "véletlen" Bayes féle értelmezése a megfigyelést