Diszkriminatív modellezés és strukturált modellalkotás
|
|
- Gábor Kelemen
- 8 évvel ezelőtt
- Látták:
Átírás
1 Diszkriminatív modellezés és strukturált modellalkotás
2 Modellalkotási szemléletek Strukturált modellalkotás (pl. osztálycímkék szekvenciája, Bayes-hálók) vs. egyszerű modellek (pl. bináris/n-osztályos osztályozás) Generatív (együttes) (feltételes) modellek vs. diszkriminatív Célváltozó és jellemzők közötti összefüggés eltérő kezelése Generatív (NB) Diszkriminatív (ME)
3 HMM címkéző Állapotautomata + Markov-feltevés P( X,Y )= P( X Y ) P(Y )= P (x i y i ) P ( y i y i 1 ) Ismerünk kell az egyes rejtett állapotok közötti átmenetvalószínűségeket (A) Valamint az egyes állapotokban tapasztalható emissziós/észlelési feltételes valószínűségeket (B) A) B)
4 HMM-ekkel kapcsolatos kérdések Megfigyeléssorozat valószínűsége Megfigyeléssorozatot generáló legvalószínűbb rejtett állapotsorozat meghatározása Forward algoritmus Viterbi algoritmus Tanítás: paraméterek kalibrálása Expectation Maximization algoritmussal: maximum likelihood becslés hiányos megfigyelések esetén Forward-backward algoritmus (Baum-Welch algoritmus)
5 Forward és Viterbi algoritmusok Rekurzív összefüggés v t ( j)=max i v t 1 (i) a i, j b j (o t ) A teljes megfigyeléssorozat első t elemét legvalószínűbben generáló, j-re végződő rejtett állapotsorozat és az első t megfigyelés együttes valószínűsége Forward algoritmus teljesen hasonló, csak maximum helyett összegzünk Egy t hosszú mondat(töredék) hányféle szófajsorozattal írható le, ha minden szó C szófaji kódba tartozhat?
6 Viterbi algoritmus din. programozással Észrevétel: korábban számolt (t-edik megfigyelést megelőző) értékek újrahasznosíthatók
7 Az EM problémaköre és az EM filozófia Egyszerű példa: binomiális eloszlás F,F,F,I,F,I,I,F,I,I F,F,F,I,F,I,I,F,I,? p(f)=? p(f)=? Mi tehető a hiányos megfigyelésekkel? Tegyünk úgy, mintha meg sem történt volna? Helyettesítsünk egy eloszlással (és iteráljunk)? Tegyünk úgy, mintha a gyakrabban (ténylegesen is) megfigyelt megfigyeléstípusba tartozna?
8 EM valamivel formálisabban Adottak megfigyeléseink ML: Keressük a véletlen változóink feltételezett eloszlásának azon Θ paramétereit, ami a megfigyelés valószínűségét maximalizálja (IID) x={x 1, x 2, x 3,..., x n } Likelihood: L(θ ; x)= p( x 1, x 2,..., x n θ) Ha x adatunk teljes, könnyű dolgunk van Ellenben ha vannak rejtett z változóink is, akkor a hiányos log-likelihood-ot kell maximalizáljuk l(θ; x)=log p( x, z θ) z
9 Miért működik az EM? Jensen-egyenlőtlenség αi=1 és konvex f függvényre f ( αi x i ) αi f ( x i ) Miért igaz, hogy a számtani átlag a mértaninál? Miért igaz, hogy n elemű értékkészlettel rendelkező diszkrét változó maximális entrópiája log(n)? Segédfüggvény a hiányos log-likelihoodhoz l (θ ; x)=log p(x θ)=log z p (x, z θ) p(x, z θ)=log q (z x) q( z x) z p (x, z θ) l (θ ; x) q( z x)log =L ( p(z x),θ) q( z x) z A segédfüggvényünk egy alsó korlátot biztosít a teljes log-likelihoodra
10 Elvi algoritmus E-lépés: Θ(t)-t fixnek tekintve maximalizáljuk L-t p(z x,θ)-ban p( x, z θ) L ( p( z x,θ),θ)= p( z x,θ)log =log p (x θ)=l (θ ; x ) p( z x,θ) z M-lépés: p(z x)-et fixnek tekintve maximalizáljuk L-t Θ-ban L ( p( z x), θ)= p(z x)log p( x, z θ) p(z x)log p( z x) z Maximalizálandó teljes likelihood z Θ-tól független EM-algoritmus: inicializáljuk Θ-t, majd ismételjük az E,-és Mlépéseket p(f) becslésén túl hol használható még az EM? Bayes hálók valószínűségeinek meghatározására, keverékeloszlásoknál (GMM), HMM tanításánál
11 Példa - Bayes háló valószínűségei Kezdeti tippjeink (Θ) P(H)=0,4 P(A H)=0,55 P(A H)=0,61 P(B H)=0,43 P(B H)=0,52 A B H # 0 0? 6 0 1? 1 1 0? 1 1 1? 4 A B 1. E 2. E E E 1. M 2. M M M 0 0 0,48 0,52 0,79 0,971 P(H) 0,42 0,42 0,46 0, ,39 0,39 0,31 0,183 P(A H) 0,35 0,31 0,09 0, ,42 0,39 0,31 0,183 P(A H) 0,46 0,50 0,69 0, ,33 0,28 0,05 0,01 P(B H) 0,34 0,30 0,09 0,03 P(B H) 0,47 0,50 0,69 0,83 P(H D, Θ) = P(H A=a, B=b, Θ)
12 Példa - Bayes háló valószínűségei Kezdeti tippjeink (Θ) P(H)=0,4 P(A H)=0,55 P(A H)=0,61 P(B H)=0,43 P(B H)=0,52 A B H # 0 0? 6 0 1? 1 1 0? 1 1 1? 4 A B 1. E 2. E E E 1. M 2. M M M 0 0 0,48 0,52 0,79 0,971 P(H) 0,42 0,42 0,46 0, ,39 0,39 0,31 0,183 P(A H) 0,35 0,31 0,09 0, ,42 0,39 0,31 0,183 P(A H) 0,46 0,50 0,69 0, ,33 0,28 0,05 0,01 P(B H) 0,34 0,30 0,09 0,03 P(B H) 0,47 0,50 0,69 0,83 P(H D, Θ) = P(H A=a, B=b, Θ) L(Θ(0);x)=(0,4*0,45*0,57+0,6*0,54*0,43)6*(0,4*0,45*0,43+0,6*0,39*0,52)*(...)*(...)4=3,89*10-8 L(Θ(10);x)=(0,52*0,972+0,48*0,172)*(0,52*0,97*0,03+0,48*0,17*0,83)2*(...)4=1,34*10-6 l(θ(0);x)=6*log(0,4*0,45*0,57+0,6*0,54*0,43)+log(...)+(...)+4*(...)=-7,409 l(θ(10);x)=6*log(...)+2*log(...)+4*log(...)=-5,872
13 Vissza a HMM-ekhez (és tanításukhoz) Backward számítások (t-edik időponttól számítva a megfigyelések hátralévő részének valószínűsége) βt (i)= j állapotok βt +1 ( j)a i, j b j (ot +1 ) (a forward számítások mintájára) Aij legyen az i-ből j állapotba történő átmenetek várható értékének és az i állapotból (bárhova tartó) továbbmenetel várható értékének hányadosa ξt legyen a t időpontban i állapotból j-be való átmenet valószínűsége adott megfigyelés és modell mellett P (q t =i,q t +1= j,o M ) ξt (i, j)=p(q t =i, q t +1= j O, M )= P (O M ) P( A, B C ) összefüggés miatt P( A B,C )= P ( B C )
14 Várható értékek származtatása P(qt =i, qt +1= j, O M )=α t (i)aij b j (ot +1)βt +1 ( j) N P(O M )=αt ( N )=βt (1)= α t ( j)βt ( j) α a b (o t +1 )βt+ 1 ( j) ξ (i, j)= t ij j t αt ( N ) j=1 γt(j) legyen a t időpontban j állapotban tartózkodás P (q t = j, O M ) α t ( j)βt ( j) valószínűsége γt ( j)=p (qt = j O, M )= P (O M ) = α ( N ) T
15 Forward-Backward algoritmus egészben
16 Problémák a HMM-el Jellemzők feltételes függetlenségének a feltételezése Együttes (joint) modellszemlélet pl. az, hogy nagy kezdőbetűs-e egy szó nem független attól, hogy mi a megelőző szó A paraméterek a megfigyeléssorozat egészének valószínűségét maximalizálják (a megfigyelések során tapasztalt rejtett állapotokkal együtt) Nekünk a legvalószínűbb állapotsorozat kellene adott megfigyeléssorozat mellett Feltételes (conditional) modellezés: log-lineáris vagy maximum entrópia módszerek (Maximum Entrópia Markov Modellek - MEMM)
17 Evidenciák túlsúlyozása Európa Monaco Monaco Tanító halmaz Monaco Monaco Monaco NB modell Osztály H K M Monaco Hong Kong P(A) = P(E) = P(M A) = P(M E) = P(H A) = P(K A) = P(H E) = PK E) = Hong Kong Monaco Ázsia Monaco P(A,H,K,M) = P(E,H,K,M) = P(A H,K,M) = P(E H,K,M) = Hong Kong Hong Kong
18 Evidenciák túlsúlyozása Európa Monaco Monaco Tanító halmaz Monaco Monaco Monaco NB modell Osztály H K M Monaco Hong Kong P(A) = P(E) = ½ P(M A) = ¼ P(M E) = ¾ P(H A) = P(K A) = 3/8 P(H E) = PK E) = 1/8 Hong Kong Monaco Ázsia Monaco Hong Kong Hong Kong P(A,H,K,M) = ½*9/64*¼ P(E,H,K,M) = ½*1/64*¾ P(A H,K,M) = 9/(9+3)=¾ P(E H,K,M) = 3/(9+3)=¼
19 Maximum Entrópia elv Tanítópéldák (az egyszerűség kedvéért bináris) jellemzők által adottak, pl. { f i ( x, y )= 1, ha x=monaco y=európa 0, különben Keressük azt a modellt, ami azon túl, hogy konzisztens a tanító példákkal, maximális feltételes entrópiájú is (a lehető legkevesebb feltételezéssel szeretnénk élni) p ( y x)=argmax p( y x) P H ( y x) H ( y x)= ( x, y) X Y p(x, y)log p( y x)
20 Maximum Entrópia elv szemléletesen A modellünk entrópiája legyen maximális, de mindeközben tegyen eleget előzetes elvárásoknak 1. p(fej)+p(iras)=1 (tényleges eloszlást akarunk) 2. p(fej) = 0,3
21 MaxEnt szemlélet Lehetséges állapotok = {NN, NNP, NNS, NNPS, VBZ, VBD} szófajok, melyeket rendre 3, 5, 11, 13, 3 ill. 1 alkalmakkal láttunk Ha csak az entrópai maximalizálása a célunk, a modellünk p(nn)=p(nnp)=...p(vbd)=1/6 lenne Jellemzők bevezetése (melyek empirikus megfigyeléseinek számával a modellünk által becsült várható megfigyelések száma meg kell egyezzen) f1: főnév-e, f2: többesszámú főnév-e NN f1 f2 NNP NNS NNPS VBZ VBD
22 MaxEnt szemlélet Lehetséges állapotok = {NN, NNP, NNS, NNPS, VBZ, VBD} szófajok, melyeket rendre 3, 5, 11, 13, 3 ill. 1 alkalmakkal láttunk Ha csak az entrópai maximalizálása a célunk, a modellünk p(nn)=p(nnp)=...p(vbd)=1/6 lenne Jellemzők bevezetése (melyek empirikus megfigyeléseinek számával a modellünk által becsült várható megfigyelések száma meg kell egyezzen) f1: főnév-e, f2: többesszámú főnév-e NN f1 f2 NNP NNS 8/36 8/36 8/36 NNPS VBZ VBD 8/36 2/36 2/36
23 MaxEnt szemlélet Lehetséges állapotok = {NN, NNP, NNS, NNPS, VBZ, VBD} szófajok, melyeket rendre 3, 5, 11, 13, 3 ill. 1 alkalmakkal láttunk Ha csak az entrópai maximalizálása a célunk, a modellünk p(nn)=p(nnp)=...p(vbd)=1/6 lenne Jellemzők bevezetése (melyek empirikus megfigyeléseinek számával a modellünk által becsült várható megfigyelések száma meg kell egyezzen) f1: főnév-e, f2: többesszámú főnév-e NN NNP NNS NNPS VBZ VBD f1 8/36 8/36 8/36 8/36 2/36 2/36 f2 4/36 4/36 12/36 12/36 2/36 2/36
24 Modell formuláció Elávrásaink p*-gal szemben Legyen eloszlás, vagyis p( y x)=1 y Y Konzisztencia: minden egyes jellemzőre a tanítópéldákon tapasztalt tüzelésük empirikus száma egyezzen meg a bekövetkezésük modell által előrejelzett várható értékével E (f i )= E (f i ) i Korlátozott optimalizálási feladat Lagrange-fgv.-e m i ))+λ m+1 ( p( y x) 1) L( p, λ)=h ( y x)+ λ i ( E(f i ) E(f i=1 y Y
25 Jellemzők várható értékei Jellemző empirikus v.é.-e T tanítóhalmaz esetén E (f i )= ( x, y ) X Y 1 p (x, y) f i (x, y)= f i ( x, y) T (x, y) T
26 Jellemzők várható értékei Jellemző empirikus v.é.-e T tanítóhalmaz esetén E (f i )= ( x, y ) X Y 1 p (x, y) f i (x, y)= f i ( x, y) T (x, y) T Jellemző modell által predikált v.é.-e 1 E (f )= p( x, y) f ( x, y) p ( x) p( y x)f (x, y)= p ( y x) f (x, y) T i i (x, y) X Y i ( x, y ) X Y x T y Y i Az együttes eloszlást az összes lehetséges jellemző-osztálycímke kombinációra nehéz lenne számítani, ezért közelítjük azt
27 Jellemzők várható értékei Jellemző empirikus v.é.-e T tanítóhalmaz esetén E (f i )= ( x, y ) X Y 1 p (x, y) f i (x, y)= f i ( x, y) T (x, y) T Jellemző modell által predikált v.é.-e 1 E (f )= p( x, y) f ( x, y) p ( x) p( y x)f (x, y)= p ( y x) f (x, y) T i i i (x, y) X Y ( x, y ) X Y x T y Y i Az együttes eloszlást az összes lehetséges jellemző-osztálycímke kombinációra nehéz lenne számítani, ezért közelítjük azt Hasonló trükkel számoljuk a feltételes entrópiát is H ( y x) ( x, y) X Y p ( x) p( y x)log p( y x)
28 MaxEnt modell levezetés Maximalizáljuk a Lagrange-függvényt m L( p, λ)= p ( x)[1+log p( y x)]+ λ i p (x) f i (x, y)+λ m+1 p( y x) i=1
29 MaxEnt modell levezetés Maximalizáljuk a Lagrange-függvényt m L( p, λ)= p ( x)[1+log p( y x)]+ λ i p (x) f i (x, y)+λ m+1 p( y x) i=1 Ahonnan m λ m+1 log p( y x)= λ i f i ( x, y)+ 1 p ( x) i=1 m λ m+1 p( y x)=exp( λ i f i (x, y))exp( 1) p ( x) i=1
30 MaxEnt modell levezetés Maximalizáljuk a Lagrange-függvényt m L( p, λ)= p ( x)[1+log p( y x)]+ λ i p (x) f i (x, y)+λ m+1 p( y x) i=1 Ahonnan Kihasználva, hogy p(y x) eloszlás m λ m+1 log p( y x)= λ i f i ( x, y)+ 1 p ( x) i=1 m λ m+1 p( y x)=exp( λ i f i (x, y))exp( 1) p ( x) i=1 m λ m+1 p( y x)= exp( λi f i ( x, y ))exp( p (x) 1)=1 y Y y Y i=1 λ m+1 1 exp( 1)= m p (x) exp( λi f i (x, y)) y Y i=1
31 MaxEnt modell levezetés Maximalizáljuk a Lagrange-függvényt m L( p, λ)= p ( x)[1+log p( y x)]+ λ i p (x) f i (x, y)+λ m+1 p( y x) i=1 Ahonnan Kihasználva, hogy p(y x) eloszlás m λ m+1 log p( y x)= λ i f i ( x, y)+ 1 p ( x) i=1 m λ m+1 p( y x)=exp( λ i f i (x, y))exp( 1) p ( x) i=1 m λ m+1 p( y x)= exp( λi f i ( x, y ))exp( p (x) 1)=1 y Y y Y i=1 λ m exp( 1)= = m Z p (x) exp( λi f i (x, y)) y Y i=1
32 A MaxEnt modell tehát m Formája: exp( λ i f i (x, y)) p( y x)= m Z Ahol Z= exp( λ i f i (x, y)) az ún. particionáló fgv. y Y i=1 Regularizáció i=1 A célfüggvény módosítása oly módon, hogy az a modellünk komplexitását is figyelembe vegye (MDL) Az egyszerűbb modelleket preferáljuk (Occam borotvája) Pl. diszkontáljuk a célfüggvény értékét a modellhez tartozó súlyvektor L1 vagy L2 norma szerint hosszával
33 Súlyok meghatározása és használata A súlyok meghatározása optimalizálási feladatként kezelhető Newton-módszer, magasabb rendű módszerek (L-BFGS),... f1(x, y) [y = LOCATION w-1 = in iscapitalized(w)] f2(x, y) [y = LOCATION hasaccentedlatinchar(w)] f3(x, y) [y = DRUG ends(w, c )] λ=[1,8; -0,6; 0,3] P(LOCATION in Québec) = e1,8 0,6/(e1,8 0,6 + e0,3 + e0) = 0,586 P(DRUG in Québec) = e0,3/(e1,8 0,6 + e0,3 + e0) = 0,238 P(PERSON in Québec) = e0 /(e1,8 0,6 + e0,3 + e0)= 0,176
34 MEMM és CRF MEMM: maximum entrópia markov modell Maximum Entrópia elv érvényesíte szekvenciajelölésben Diszkriminatív megközelítés, ami nem él a generatív HMM-eknél használt feltételezéssel a jellemzők osztálycímkéken kondicionált feltételes függetlenségére vonatkozóan Label bias probléma: A rejtett állapotok közötti átmenetautomata nem teljes Előnyt élveznek azok az állapotok, melyekből kevés másik állapot érhető el A MEMM lépésről lépésre osztályoz, a CRF pedig a teljes tokensorozathoz tartozó valószínűséget próbálja modellezni egyszerre Nehezebb feladat, megoldások de még mindig ismertek rá hatékony
35 Számítógépes nyelvészeti jellemzők Data BUSINESS: Stocks hit a yearly low Label: BUSINESS Features {, stocks, hit, a, yearly, low, } Szövegkategorizáció - bag of words Data to restructure bank:money debt. Label: MONEY Features Data DT JJ NN The previous fall Label: NN Features {, w-1=restructure, w+1=debt, } {w=fall, t-1=jj w-1 =previous} Jelentésegyértelműsítés Szófaji kódolás - kontextus - felszíni jegyek - kontextus
36 Gráfikus modellek Valószínűségi gráfikus modellel tetszőleges komplexitású eloszlást definiálhatunk A gráf csúcsai véletlen változókat jeleznek Az élek az egyes változók közötti közvetlen függőséget reprezentálják
37 Szekvenciamodellek gráfos ábrázolása HMM MEMM CRF
38 Alkalmazási lehetőségek Szöveg,-és beszédfeldolgozás Képfeldolgozás Orvosi diagnosztika
Principal Component Analysis
Principal Component Analysis Principal Component Analysis Principal Component Analysis Definíció Ortogonális transzformáció, amely az adatokat egy új koordinátarendszerbe transzformálja úgy, hogy a koordináták
RészletesebbenA maximum likelihood becslésről
A maximum likelihood becslésről Definíció Parametrikus becsléssel foglalkozunk. Adott egy modell, mellyel elképzeléseink szerint jól leírható a meghatározni kívánt rendszer. (A modell típusának és rendszámának
RészletesebbenHidden Markov Model. March 12, 2013
Hidden Markov Model Göbölös-Szabó Julianna March 12, 2013 Outline 1 Egy példa 2 Feladat formalizálása 3 Forward-algoritmus 4 Backward-algoritmus 5 Baum-Welch algoritmus 6 Skálázás 7 Egyéb apróságok 8 Alkalmazás
RészletesebbenLeast Squares becslés
Least Squares becslés A négyzetes hibafüggvény: i d i ( ) φx i A négyzetes hibafüggvény mellett a minimumot biztosító megoldás W=( d LS becslés A gradiens számítása és nullává tétele eredményeképp A megoldás
RészletesebbenProbabilisztikus funkcionális modellek idegrendszeri adatok elemzésére
Probabilisztikus funkcionális modellek idegrendszeri adatok elemzésére Bányai Mihály! MTA Wigner FK! Computational Systems Neuroscience Lab!! KOKI-VIK szeminárium! 2014. február 11. Struktúra és funkció
RészletesebbenMesterséges Intelligencia I.
Mesterséges Intelligencia I. 10. elıadás (2008. november 10.) Készítette: Romhányi Anita (ROANAAT.SZE) - 1 - Statisztikai tanulás (Megfigyelések alapján történı bizonytalan következetésnek tekintjük a
RészletesebbenDiverzifikáció Markowitz-modell MAD modell CAPM modell 2017/ Szegedi Tudományegyetem Informatikai Intézet
Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatikai Intézet Számítógépes Optimalizálás Tanszék 11. Előadás Portfólió probléma Portfólió probléma Portfólió probléma Adott részvények (kötvények,tevékenységek,
RészletesebbenSzepesvári Csaba. 2005 ápr. 11
Gépi tanulás III. Szepesvári Csaba MTA SZTAKI 2005 ápr. 11 Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 1 / 37 1 Döntési fák 2 Felügyelet nélküli tanulás Klaszter-anaĺızis EM algoritmus Gauss
RészletesebbenValószínűségi változók. Várható érték és szórás
Matematikai statisztika gyakorlat Valószínűségi változók. Várható érték és szórás Valószínűségi változók 2016. március 7-11. 1 / 13 Valószínűségi változók Legyen a (Ω, A, P) valószínűségi mező. Egy X :
RészletesebbenSztochasztikus folyamatok alapfogalmak
Matematikai Modellalkotás Szeminárium 2012. szeptember 4. 1 Folytonos idejű Markov láncok 2 3 4 1 Folytonos idejű Markov láncok 2 3 4 Folytonos idejű Markov láncok I Adott egy G = (V, E) gráf Folytonos
RészletesebbenKÖZELÍTŐ INFERENCIA II.
STATISZTIKAI TANULÁS AZ IDEGRENDSZERBEN KÖZELÍTŐ INFERENCIA II. MONTE CARLO MÓDSZEREK ISMÉTLÉS Egy valószínűségi modellben a következtetéseinket a látensek vagy a paraméterek fölötti poszterior írja le.
RészletesebbenKÖZELÍTŐ INFERENCIA II.
STATISZTIKAI TANULÁS AZ IDEGRENDSZERBEN KÖZELÍTŐ INFERENCIA II. MONTE CARLO MÓDSZEREK ISMÉTLÉS Egy valószínűségi modellben a következtetéseinket a látensek vagy a paraméterek fölötti poszterior írja le.
RészletesebbenMesterséges Intelligencia MI
Mesterséges Intelligencia MI Valószínűségi hálók - következtetés Dobrowiecki Tadeusz Eredics Péter, és mások BME I.E. 437, 463-28-99 dobrowiecki@mit.bme.hu, http://www.mit.bme.hu/general/staff/tade Következtetés
RészletesebbenKárszámeloszlások modellezése
Kárszámeloszlások modellezése DIPLOMAMUNKA Írta: Talabér Dóra Edit Biztosítási és pénzügyi matematika MSc Aktuárius szakirány Témavezető: Prokaj Vilmos egyetemi docens ELTE TTK Valószínűségelméleti és
RészletesebbenBiomatematika 2 Orvosi biometria
Biomatematika 2 Orvosi biometria 2017.02.13. Populáció és minta jellemző adatai Hibaszámítás Valószínűség 1 Esemény Egy kísérlet vagy megfigyelés (vagy mérés) lehetséges eredményeinek összessége (halmaza)
RészletesebbenMesterséges Intelligencia MI
Mesterséges Intelligencia MI Valószínűségi hálók - alapok Dobrowiecki Tadeusz Eredics Péter, és mások BME I.E. 437, 463-28-99 dobrowiecki@mit.bme.hu, http://www.mit.bme.hu/general/staff/tade Valószínűségi
RészletesebbenÚj típusú döntési fa építés és annak alkalmazása többtényezős döntés területén
Új típusú döntési fa építés és annak alkalmazása többtényezős döntés területén Dombi József Szegedi Tudományegyetem Bevezetés - ID3 (Iterative Dichotomiser 3) Az ID algoritmusok egy elemhalmaz felhasználásával
RészletesebbenGépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)
Gépi tanulás Hány tanítómintára van szükség? VKH Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Induktív tanulás A tanítás folyamata: Kiinduló
RészletesebbenStatisztika - bevezetés Méréselmélet PE MIK MI_BSc VI_BSc 1
Statisztika - bevezetés 00.04.05. Méréselmélet PE MIK MI_BSc VI_BSc Bevezetés Véletlen jelenség fogalma jelenséget okok bizonyos rendszere hozza létre ha mindegyik figyelembe vehető egyértelmű leírás általában
RészletesebbenMesterséges Intelligencia MI
Mesterséges Intelligencia MI Valószínűségi hálók - alapok Dobrowiecki Tadeusz Eredics Péter, és mások BME I.E. 437, 463-28-99 dobrowiecki@mit.bme.hu, http://www.mit.bme.hu/general/staff/tade A szükséges
Részletesebben1. gyakorlat. Mesterséges Intelligencia 2.
1. gyakorlat Mesterséges Intelligencia. Elérhetőségek web: www.inf.u-szeged.hu/~gulyasg mail: gulyasg@inf.u-szeged.hu Követelmények (nem teljes) gyakorlat látogatása kötelező ZH írása a gyakorlaton elhangzott
RészletesebbenFEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 10 X. SZIMULÁCIÓ 1. VÉLETLEN számok A véletlen számok fontos szerepet játszanak a véletlen helyzetek generálásában (pénzérme, dobókocka,
RészletesebbenLineáris regressziós modellek 1
Lineáris regressziós modellek 1 Ispány Márton és Jeszenszky Péter 2016. szeptember 19. 1 Az ábrák C.M. Bishop: Pattern Recognition and Machine Learning c. könyvéből származnak. Tartalom Bevezető példák
RészletesebbenOptimalizálás alapfeladata Legmeredekebb lejtő Lagrange függvény Log-barrier módszer Büntetőfüggvény módszer 2017/
Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatikai Intézet Számítógépes Optimalizálás Tanszék 9. Előadás Az optimalizálás alapfeladata Keressük f függvény maximumát ahol f : R n R és
RészletesebbenRejtett Markov Modell
Rejtett Markov Modell A Rejtett Markov Modell használata beszédfelismerésben Készítette Feldhoffer Gergely felhasználva Fodróczi Zoltán előadásanyagát Áttekintés hagyományos Markov Modell Beszédfelismerésbeli
RészletesebbenOsztályozás, regresszió. Nagyméretű adathalmazok kezelése Tatai Márton
Osztályozás, regresszió Nagyméretű adathalmazok kezelése Tatai Márton Osztályozási algoritmusok Osztályozás Diszkrét értékkészletű, ismeretlen attribútumok értékének meghatározása ismert attribútumok értéke
Részletesebben(Independence, dependence, random variables)
Két valószínűségi változó együttes vizsgálata Feltételes eloszlások Két diszkrét változó együttes eloszlása a lehetséges értékpárok és a hozzájuk tartozó valószínűségek (táblázat) Példa: Egy urna 3 fehér,
RészletesebbenTovábbi programozási esetek Hiperbolikus, kvadratikus, integer, bináris, többcélú programozás
További programozási esetek Hiperbolikus, kvadratikus, integer, bináris, többcélú programozás Készítette: Dr. Ábrahám István Hiperbolikus programozás Gazdasági problémák optimalizálásakor gyakori, hogy
RészletesebbenÁltalános algoritmustervezési módszerek
Általános algoritmustervezési módszerek Ebben a részben arra mutatunk példát, hogy miként használhatóak olyan általános algoritmustervezési módszerek mint a dinamikus programozás és a korlátozás és szétválasztás
RészletesebbenEseményalgebra. Esemény: minden amirl a kísérlet elvégzése során eldönthet egyértelmen hogy a kísérlet során bekövetkezett-e vagy sem.
Eseményalgebra. Esemény: minden amirl a kísérlet elvégzése során eldönthet egyértelmen hogy a kísérlet során bekövetkezett-e vagy sem. Elemi esemény: a kísérlet egyes lehetséges egyes lehetséges kimenetelei.
RészletesebbenFunkcionális konnektivitás vizsgálata fmri adatok alapján
Funkcionális konnektivitás vizsgálata fmri adatok alapján Képalkotási technikák 4 Log Resolution (mm) 3 Brain EEG & MEG fmri TMS PET Lesions 2 Column 1 0 Lamina -1 Neuron -2 Dendrite -3 Synapse -4 Mikrolesions
RészletesebbenGazdasági matematika II. vizsgadolgozat megoldása A csoport
Gazdasági matematika II. vizsgadolgozat megoldása A csoport Definiálja az alábbi fogalmakat!. Egy eseménynek egy másik eseményre vonatkozó feltételes valószínűsége. ( pont) Az A esemény feltételes valószínűsége
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363
1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái 206/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák
RészletesebbenA lineáris programozás alapjai
A lineáris programozás alapjai A konvex analízis alapjai: konvexitás, konvex kombináció, hipersíkok, félterek, extrém pontok, Poliéderek, a Minkowski-Weyl tétel (a poliéderek reprezentációs tétele) Lineáris
RészletesebbenProbabilisztikus modellek II: Inferencia. Nagy Dávid
Probabilisztikus modellek II: Inferencia Nagy Dávid Statisztikai tanulás az idegrendszerben, 2015 előző előadás előző előadás az agy modellt épít a világról előző előadás az agy modellt épít a világról
RészletesebbenA valószínűségszámítás elemei
A valószínűségszámítás elemei Kísérletsorozatban az esemény relatív gyakorisága: k/n, ahol k az esemény bekövetkezésének abszolút gyakorisága, n a kísérletek száma. Pl. Jelenség: kockadobás Megfigyelés:
RészletesebbenFEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 9 IX. ROBUsZTUs statisztika 1. ROBUsZTUssÁG Az eddig kidolgozott módszerek főleg olyanok voltak, amelyek valamilyen értelemben optimálisak,
RészletesebbenModellkiválasztás és struktúrák tanulása
Modellkiválasztás és struktúrák tanulása Szervezőelvek keresése Az unsupervised learning egyik fő célja Optimális reprezentációk Magyarázatok Predikciók Az emberi tanulás alapja Általános strukturális
RészletesebbenAdatbányászati feladatgyűjtemény tehetséges hallgatók számára
Adatbányászati feladatgyűjtemény tehetséges hallgatók számára Buza Krisztián Számítástudományi és Információelméleti Tanszék Budapesti Műszaki és Gazdaságtudományi Egyetem Tartalomjegyék Modellek kiértékelése...
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363
1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái 324/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák
RészletesebbenProbabilisztikus modellek V: Struktúra tanulás. Nagy Dávid
Probabilisztikus modellek V: Struktúra tanulás Nagy Dávid Statisztikai tanulás az idegrendszerben, 2015 volt szó a normatív megközelítésről ezen belül a probabilisztikus modellekről láttatok példákat az
RészletesebbenAsszociációs szabályok
Asszociációs szabályok Nikházy László Nagy adathalmazok kezelése 2010. március 10. Mi az értelme? A ö asszociációs szabály azt állítja, hogy azon vásárlói kosarak, amik tartalmaznak pelenkát, általában
RészletesebbenMarkov-láncok stacionárius eloszlása
Markov-láncok stacionárius eloszlása Adatbányászat és Keresés Csoport, MTA SZTAKI dms.sztaki.hu Kiss Tamás 2013. április 11. Tartalom Markov láncok definíciója, jellemzése Visszatérési idők Stacionárius
RészletesebbenEgyü ttes e s vetü leti eloszlá s, sü rü se gfü ggve ny, eloszlá sfü ggve ny
Együ ttes e s vetü leti eloszlá s, sü rü se gfü ggve ny, eloszlá sfü ggve ny Szűk elméleti összefoglaló Együttes és vetületi eloszlásfüggvény: X = (X, X, X n ) valószínűségi vektorváltozónak hívjuk. X
Részletesebben[Biomatematika 2] Orvosi biometria
[Biomatematika 2] Orvosi biometria 2016.02.15. Esemény Egy kísérlet vagy megfigyelés (vagy mérés) lehetséges eredményeinek összessége (halmaza) alkotja az eseményteret. Esemény: az eseménytér részhalmazai.
RészletesebbenNeurális hálózatok. Nem ellenőrzött tanulás. Pataki Béla. BME I.E. 414,
Neurális hálózato Nem ellenőrzött tanulás Patai Béla BME I.E. 414, 463-26-79 patai@mit.bme.hu, http://www.mit.bme.hu/general/staff/patai Nem ellenőrzött tanulás (Klaszterezés ) Az eseteet szoásos módon
RészletesebbenDiszkrét idejű felújítási paradoxon
Magda Gábor Szaller Dávid Tóvári Endre 2009. 11. 18. X 1, X 2,... független és X-szel azonos eloszlású, pozitív egész értékeket felvevő valószínűségi változó (felújítási idők) P(X M) = 1 valamilyen M N
RészletesebbenA valószínűségszámítás elemei
Alapfogalmak BIOSTATISZTIKA ÉS INFORMATIKA A valószínűségszámítás elemei Jelenség: minden, ami lényegében azonos feltételek mellett megismételhető, amivel kapcsolatban megfigyeléseket lehet végezni, lehet
RészletesebbenNémeth László Matematikaverseny április 16. A osztályosok feladatainak javítókulcsa
Németh László Matematikaverseny 007. április 16. A 9-10. osztályosok feladatainak javítókulcsa Feladatok csak 9. osztályosoknak 1. feladat a) Vegyük észre, hogy 7 + 5 felírható 1 + 3 + 6 + alakban, így
RészletesebbenGépi tanulás. Féligellenőrzött tanulás. Pataki Béla (Bolgár Bence)
Gépi tanulás Féligellenőrzött tanulás Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Féligellenőrzött tanulás Mindig kevés az adat, de
RészletesebbenBizonytalanságok melletti következtetés
Bizonytalanságok melletti következtetés Mesterséges Intelligencia I. Valószínűségi alapfogalmak (ismétlés) A, B,C események esetén a priori valószínűség: feltételes (a posteiori) valószínűség: Bayes-formula
RészletesebbenGazdasági informatika gyakorlat
Gazdasági informatika gyakorlat P-Gráfokról röviden Mester Abigél P-Gráf: A P-Gráfok olyan speciális páros gráfok, ahol a csúcsok két halmazba oszthatók: ezek az anyag jellegű csúcsok, valamint a gépek.
RészletesebbenBizonytalanság. Mesterséges intelligencia április 4.
Bizonytalanság Mesterséges intelligencia 2014. április 4. Bevezetés Eddig: logika, igaz/hamis Ha nem teljes a tudás A világ nem figyelhető meg közvetlenül Részleges tudás nem reprezentálható logikai eszközökkel
Részletesebbenx, x R, x rögzített esetén esemény. : ( ) x Valószínűségi Változó: Feltételes valószínűség: Teljes valószínűség Tétele: Bayes Tétel:
Feltételes valószínűség: Teljes valószínűség Tétele: Bayes Tétel: Valószínűségi változó általános fogalma: A : R leképezést valószínűségi változónak nevezzük, ha : ( ) x, x R, x rögzített esetén esemény.
RészletesebbenMi az adat? Az adat elemi ismeret. Az adatokból információkat
Mi az adat? Az adat elemi ismeret. Tények, fogalmak olyan megjelenési formája, amely alkalmas emberi eszközökkel történő értelmezésre, feldolgozásra, továbbításra. Az adatokból gondolkodás vagy gépi feldolgozás
RészletesebbenKauzális modellek. Randall Munroe
Kauzális modellek Randall Munroe A kauzalitás reprezentációi Determinisztikus Sztochasztikus Feltételes valószínűség < > hipergráf Irányított gráf: több ok, egy okozat < > Bayes-háló Cirkuláris kauzalitás
RészletesebbenSzámítógép-rendszerek fontos jellemzői (Hardver és Szoftver):
B Motiváció B Motiváció Számítógép-rendszerek fontos jellemzői (Hardver és Szoftver): Helyesség Felhasználóbarátság Hatékonyság Modern számítógép-rendszerek: Egyértelmű hatékonyság (például hálózati hatékonyság)
RészletesebbenBevezetés Standard 1 vállalatos feladatok Standard több vállalatos feladatok 2017/ Szegedi Tudományegyetem Informatikai Intézet
Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatikai Intézet Számítógépes Optimalizálás Tanszék 10. Előadás Vállalatelhelyezés Vállalatelhelyezés Amikor egy új telephelyet kell nyitni,
Részletesebbenegyenletesen, és c olyan színű golyót teszünk az urnába, amilyen színűt húztunk. Bizonyítsuk
Valószínűségszámítás 8. feladatsor 2015. november 26. 1. Bizonyítsuk be, hogy az alábbi folyamatok mindegyike martingál. a S n, Sn 2 n, Y n = t n 1+ 1 t 2 Sn, t Fn = σ S 1,..., S n, 0 < t < 1 rögzített,
RészletesebbenBizonytalan tudás kezelése
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Bizonytalan tudás kezelése Előadó: Előadás anyaga: Hullám Gábor Pataki Béla Dobrowiecki Tadeusz Valószínűségi
RészletesebbenTöbb valószínűségi változó együttes eloszlása, korreláció
Tartalomjegzék Előszó... 6 I. Valószínűségelméleti és matematikai statisztikai alapok... 8 1. A szükséges valószínűségelméleti és matematikai statisztikai alapismeretek összefoglalása... 8 1.1. Alapfogalmak...
RészletesebbenMatematikai statisztika c. tárgy oktatásának célja és tematikája
Matematikai statisztika c. tárgy oktatásának célja és tematikája 2015 Tematika Matematikai statisztika 1. Időkeret: 12 héten keresztül heti 3x50 perc (előadás és szeminárium) 2. Szükséges előismeretek:
RészletesebbenKeresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Keresés képi jellemzők alapján Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Lusta gépi tanulási algoritmusok Osztályozás: k=1: piros k=5: kék k-legközelebbi szomszéd (k=1,3,5,7)
RészletesebbenInferencia valószínűségi modellekben
Statisztikai tanulás az idegrendszerben, 2016. Inferencia valószínűségi modellekben Bányai Mihály banyai.mihaly@wigner.mta.hu http://golab.wigner.mta.hu/people/mihaly-banyai/ Inferencia valószínűségi modellekben
RészletesebbenMarkov modellek 2015.03.19.
Markov modellek 2015.03.19. Markov-láncok Markov-tulajdonság: egy folyamat korábbi állapotai a későbbiekre csak a jelen állapoton keresztül gyakorolnak befolyást. Semmi, ami a múltban történt, nem ad előrejelzést
RészletesebbenRegresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.
Regresszió Csorba János Nagyméretű adathalmazok kezelése 2010. március 31. A feladat X magyarázó attribútumok halmaza Y magyarázandó attribútumok) Kérdés: f : X -> Y a kapcsolat pár tanítópontban ismert
RészletesebbenValószínűségi hálók. Mesterséges Intelligencia - MI. Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Mesterséges Intelligencia - MI Valószínűségi hálók Előadó: Hullám Gábor Pataki Béla Előadás anyaga: Dobrowiecki
RészletesebbenFEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 8 VIII. REGREssZIÓ 1. A REGREssZIÓs EGYENEs Két valószínűségi változó kapcsolatának leírására az eddigiek alapján vagy egy numerikus
RészletesebbenVALÓSZÍNŰSÉG, STATISZTIKA TANÍTÁSA
VALÓSZÍNŰSÉG, STATISZTIKA TANÍTÁSA A VALÓSZÍNŰSÉGI SZEMLÉLET ALAPOZÁSA 1-6. OSZTÁLY A biztos, a lehetetlen és a lehet, de nem biztos események megkülünböztetése Valószínűségi játékok, kísérletek események
RészletesebbenBiológiai rendszerek modellellenőrzése bayesi megközelítésben
Biológiai rendszerek modellellenőrzése bayesi megközelítésben Gál Tamás Zoltán Szoftver verifikáció és validáció kiselőadás, 2013. ősz Forrás: Sumit K. Jha et al.: A Bayesian Approach to Model Checking
RészletesebbenBiometria az orvosi gyakorlatban. Regresszió Túlélésanalízis
SZDT-09 p. 1/36 Biometria az orvosi gyakorlatban Regresszió Túlélésanalízis Werner Ágnes Villamosmérnöki és Információs Rendszerek Tanszék e-mail: werner.agnes@virt.uni-pannon.hu Logisztikus regresszió
RészletesebbenLegyen adott egy S diszkrét halmaz. Leggyakrabban S az egész számoknak egy halmaza, például S = {0, 1, 2,..., N}, {0, 1, 2,... }.
. Markov-láncok. Definíció és alapvető tulajdonságok Legyen adott egy S diszkrét halmaz. Leggyakrabban S az egész számoknak egy halmaza, például S = {0,,,..., N}, {0,,,... }.. definíció. S értékű valószínűségi
RészletesebbenÁltalánosan, bármilyen mérés annyit jelent, mint meghatározni, hányszor van meg
LMeasurement.tex, March, 00 Mérés Általánosan, bármilyen mérés annyit jelent, mint meghatározni, hányszor van meg a mérendő mennyiségben egy másik, a mérendővel egynemű, önkényesen egységnek választott
RészletesebbenStrukturált Generátorrendszerek Online Tanulása és Alk-ai
Strukturált Generátorrendszerek Online Tanulása és Alkalmazásai Problémamegoldó Szeminárium 2010. nov. 5 Tartalomjegyzék Motiváció, példák Regressziós feladatok (generátorrendszer fix) Legkisebb négyzetes
RészletesebbenRegresszió. Fő cél: jóslás Történhet:
Fő cél: jóslás Történhet: Regresszó 1 változó több változó segítségével Lépések: Létezk-e valamlyen kapcsolat a 2 változó között? Kapcsolat természetének leírása (mat. egy.) A regresszós egyenlet alapján
RészletesebbenSzemidenit optimalizálás és az S-lemma
Szemidenit optimalizálás és az S-lemma Pólik Imre SAS Institute, USA BME Optimalizálás szeminárium 2011. október 6. Outline 1 Egyenl tlenségrendszerek megoldhatósága 2 Az S-lemma 3 Szemidenit kapcsolatok
RészletesebbenMatematikai statisztika 4. gyakorlat, 2018/2019 II. félév
Matematikai statisztika 4. gyakorlat, 2018/2019 II. félév 2019-03-5 Feladatok: 1. (a) λ > 0 paraméterű Poisson-eloszlásból vett n elemű minta esetén adjunk hatásos becslést a g(λ) = e λ mennyiségre! e
RészletesebbenInformációs rendszerek elméleti alapjai. Információelmélet
Információs rendszerek elméleti alapjai Információelmélet Az információ nem növekedés törvénye Adatbázis x (x adatbázis tartalma) Kérdés : y Válasz: a = f(y, x) Mennyi az a információtartalma: 2017. 04.
RészletesebbenA következő feladat célja az, hogy egyszerű módon konstruáljunk Poisson folyamatokat.
Poisson folyamatok, exponenciális eloszlások Azt mondjuk, hogy a ξ valószínűségi változó Poisson eloszlású λ, 0 < λ
RészletesebbenTanulás Boltzmann gépekkel. Reiz Andrea
Tanulás Boltzmann gépekkel Reiz Andrea Tanulás Boltzmann gépekkel Boltzmann gép Boltzmann gép felépítése Boltzmann gép energiája Energia minimalizálás Szimulált kifűtés Tanulás Boltzmann gép Tanulóalgoritmus
RészletesebbenA Markowitz modell: kvadratikus programozás
A Markowitz modell: kvadratikus programozás Harry Markowitz 1990-ben kapott Közgazdasági Nobel díjat a portfolió optimalizálási modelljéért. Ld. http://en.wikipedia.org/wiki/harry_markowitz Ennek a legegyszer
RészletesebbenExact inference in general Bayesian networks
Exact inference in general Bayesian networks Peter Antal antal@mit.bme.hu Overview The Probability Propagation in Trees of Cliques (a.k.a. ~in join trees) Practical inference Exercises Literature: Valószínűségi
RészletesebbenCHT& NSZT Hoeffding NET mom. stabilis. 2011. november 9.
CHT& NSZT Hoeffding NET mom. stabilis Becslések, határeloszlás tételek Székely Balázs 2011. november 9. CHT& NSZT Hoeffding NET mom. stabilis 1 CHT és NSZT 2 Hoeffding-egyenlőtlenség Alkalmazása: Beengedés
RészletesebbenData Security: Access Control
Data Security 1. Alapelvek 2. Titkos kulcsú rejtjelezés 3. Nyilvános kulcsú rejtjelezés 4. Kriptográfiai alapprotokollok I. 5. Kriptográfiai alapprotokollok II. Data Security: Access Control A Rossz talált
Részletesebben(Diszkrét idejű Markov-láncok állapotainak
(Diszkrét idejű Markov-láncok állapotainak osztályozása) March 21, 2019 Markov-láncok A Markov-láncok anaĺızise főként a folyamat lehetséges realizációi valószínűségeinek kiszámolásával foglalkozik. Ezekben
RészletesebbenGépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés
Gépi tanulás a gyakorlatban Kiértékelés és Klaszterezés Hogyan alkalmazzuk sikeresen a gépi tanuló módszereket? Hogyan válasszuk az algoritmusokat? Hogyan hangoljuk a paramétereiket? Precízebben: Tegyük
RészletesebbenTöbbváltozós lineáris regresszió 3.
Többváltozós lineáris regresszió 3. Orlovits Zsanett 2018. október 10. Alapok Kérdés: hogyan szerepeltethetünk egy minőségi (nominális) tulajdonságot (pl. férfi/nő, egészséges/beteg, szezonális hatások,
RészletesebbenMatematikai geodéziai számítások 6.
Matematikai geodéziai számítások 6. Lineáris regresszió számítás elektronikus távmérőkre Dr. Bácsatyai, László Matematikai geodéziai számítások 6.: Lineáris regresszió számítás elektronikus távmérőkre
RészletesebbenSzalai Péter. April 17, Szalai Péter April 17, / 36
Szociális hálók Szalai Péter April 17, 2015 Szalai Péter April 17, 2015 1 / 36 Miről lesz szó? 1 Megfigyelések Kis világ Power-law Klaszterezhetőség 2 Modellek Célok Erdős-Rényi Watts-Strogatz Barabási
RészletesebbenA kanonikus sokaság. :a hőtartály energiája
A kanonikus sokaság A mikrokanonikus sokaság esetén megtanultuk, hogy a megengedett mikroállapotok egyenértéküek, és a mikróállapotok száma minimális. A mikrókanónikus sokaság azonban nem a leghasznosabb
RészletesebbenDr. Kalló Noémi. Termelés- és szolgáltatásmenedzsment. egyetemi adjunktus Menedzsment és Vállalatgazdaságtan Tanszék. Dr.
Termelés- és szolgáltatásmenedzsment egyetemi adjunktus Menedzsment és Vállalatgazdaságtan Tanszék Termelés- és szolgáltatásmenedzsment 13. Ismertesse a legfontosabb előrejelzési módszereket és azok gyakorlati
RészletesebbenAz indukció. Azáltal, hogy ezt az összefüggést felírtuk, ezúttal nem bizonyítottuk, ez csak sejtés!
Az indukció A logikában indukciónak nevezzük azt a következtetési módot, amelyek segítségével valamely osztályon belül az egyes esetekb l az általánosra következtetünk. Például: 0,, 804, 76, 48 mind oszthatóak
RészletesebbenSzámítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Számítógépes képelemzés 7. előadás Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Momentumok Momentum-alapú jellemzők Tömegközéppont Irányultáság 1 2 tan 2 1 2,0 1,1 0, 2 Befoglaló
RészletesebbenAlgoritmusok helyességének bizonyítása. A Floyd-módszer
Algoritmusok helyességének bizonyítása A Floyd-módszer Algoritmusok végrehajtása Egy A algoritmus esetében a változókat három változótípusról beszélhetünk, melyeket az X, Y és Z vektorokba csoportosítjuk
RészletesebbenEllátási lánc optimalizálás P-gráf módszertan alkalmazásával mennyiségi és min ségi paraméterek gyelembevételével
Ellátási lánc optimalizálás P-gráf módszertan alkalmazásával mennyiségi és min ségi paraméterek gyelembevételével Pekárdy Milán, Baumgartner János, Süle Zoltán Pannon Egyetem, Veszprém XXXII. Magyar Operációkutatási
RészletesebbenKészítette: Fegyverneki Sándor
VALÓSZÍNŰSÉGSZÁMÍTÁS Összefoglaló segédlet Készítette: Fegyverneki Sándor Miskolci Egyetem, 2001. i JELÖLÉSEK: N a természetes számok halmaza (pozitív egészek) R a valós számok halmaza R 2 {(x, y) x, y
RészletesebbenBeadható feladatok. 2006. december 4. 1. Add meg az alábbi probléma állapottér-reprezentációját!
Beadható feladatok 2006. december 4. 1. Feladatok 2006. szeptember 13-án kitűzött feladat: 1. Add meg az alábbi probléma állapottér-reprezentációját! Adott I 1,..., I n [0, 1] intervallumokból szeretnénk
RészletesebbenStatisztika I. 4. előadás Mintavétel. Kóczy Á. László KGK-VMI. Minta Mintavétel Feladatok. http://uni-obuda.hu/users/koczyl/statisztika1.
Statisztika I. 4. előadás Mintavétel http://uni-obuda.hu/users/koczyl/statisztika1.htm Kóczy Á. László KGK-VMI koczy.laszlo@kgk.uni-obuda.hu Sokaság és minta Alap- és mintasokaság A mintasokaság az a részsokaság,
RészletesebbenMatematikai alapok és valószínőségszámítás. Statisztikai becslés Statisztikák eloszlása
Matematikai alapok és valószínőségszámítás Statisztikai becslés Statisztikák eloszlása Mintavétel A statisztikában a cél, hogy az érdeklõdés tárgyát képezõ populáció bizonyos paramétereit a populációból
RészletesebbenDinamikus rendszerek paramétereinek BAYES BECSLÉSE. Hangos Katalin VE Számítástudomány Alkalmazása Tanszék
Dinamikus rendszerek paramétereinek BAYES BECSLÉSE Hangos Katalin VE Számítástudomány Alkalmazása Tanszék 1 Bayes-becslések 1. A véletlen Bayes féle fogalma A "véletlen" Bayes féle értelmezése a megfigyelést
Részletesebben