Szepesvári Csaba. 2005 ápr. 11



Hasonló dokumentumok
Bemenet modellezése II.

Kockázati folyamatok. Sz cs Gábor. Szeged, szi félév. Szegedi Tudományegyetem, Bolyai Intézet

Becslési módszerek errors-in-variables környezetben

EÖTVÖS LORÁND TUDOMÁNYEGYETEM KLASSZIFIKÁCIÓ AZ ADATBÁNYÁSZATBAN

Inferencia. ADOTTAK:! generatív modell: például: DAG + prior(ok) + likelihood(ok) P(X 1,X 2,,X n ) megfigyelések: D = {X i = x i, X j = x j, }

Standardizálás, transzformációk

Sztochasztikus folyamatok 1. házi feladat

Valószín ségelmélet házi feladatok

Inferencia valószínűségi modellekben

Valószínűségi modellek

Principal Component Analysis

PageRank algoritmus Hubs and Authorities. Adatbányászat. Webbányászat PageRank, Hubs and Authorities. Szegedi Tudományegyetem.

ÖNJAVÍTÓ AGGREGÁLÁS SZENZORHÁLÓZATOKBAN ÉS AGGREGÁTOR NODE VÁLASZTÁS. Schaffer Péter. Tézisfüzet. Konzulens: Buttyán Levente, Ph.D.

Loványi István vizsgakérdései kidolgozva (béta)

Mesterséges Intelligencia I. (I602, IB602)

Beadható feladatok december Add meg az alábbi probléma állapottér-reprezentációját!

Rejtett részcsoportok és kvantum-számítógépek

Félévi időbeosztás (nagyjából) házi feladat beadási határidőkkel (pontosan) Valószínűségszámítás 2. matematikusoknak és fizikusoknak, 2009 tavasz


Szeleteljük fel úgy a tulajdonságteret, hogy az egyes szeletekbe lehetőleg egyfajta objektumok kerüljenek, de túl sok szelet se legyen.

Egyenlőtlenségi mérőszámok alkalmazása az adatbányászatban. Hajdu Ottó BCE: Statisztika Tanszék BME: Pénzügyek tanszék Budapest, 2011

Érdekes informatika feladatok

A TANTÁRGY ADATLAPJA

SZTOCHASZTIKUS MÓDSZEREK

Feladatok és megoldások a 4. hétre

Tómács Tibor. Matematikai statisztika

Mesterséges Intelligencia I.

Feladatok és megoldások a 6. heti eladshoz

Online tanulás nemstacionárius Markov döntési folyamatokban

matematikai statisztika október 24.

1. A skót bakák mellkas körmérete N(88, 10). A skót bakák mekkora hányada fér bele egy 84-es zubbonyba?

Lineáris programozás. Modellalkotás Grafikus megoldás Feladattípusok Szimplex módszer

Orvosi diagnosztikai célú röntgenképfeldolgozás

Statisztikai programcsomagok

Dinamikus rendszerek paramétereinek BAYES BECSLÉSE. Hangos Katalin VE Számítástudomány Alkalmazása Tanszék

Gyakorlatok. P (n) = P (n 1) + 2P (n 2) + P (n 3) ha n 4, (utolsó lépésként l, hl, u, hu-t léphetünk).

Bizonytalanság Valószín ség Bayes szabály. Bizonytalanság. November 5, Bizonytalanság

1.1. Gyökök és hatványozás Hatványozás Gyökök Azonosságok Egyenlőtlenségek... 3

p j p l = m ( p j ) 1

MAGYAR RÉZPIACI KÖZPONT Budapest, Pf. 62 Telefon , Fax

Mikrohullámok vizsgálata. x o

Témák Tudományos DiákKöri munkákhoz

Széchenyi István Egyetem, 2005

Robotika. 3. Érzékelés Magyar Attila. Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki és Információs Rendszerek Tanszék

Relációs algebrai lekérdezések átírása SQL SELECT-re (példák)

MIKROÖKONÓMIA I. Készítette: K hegyi Gergely és Horn Dániel. Szakmai felel s: K hegyi Gergely június

Természetes számok: a legegyszerűbb halmazok elemeinek. halmazokat alkothatunk, ezek elemszámai természetes 3+2=5

Digitális technika VIMIAA01

Strukturált Generátorrendszerek Online Tanulása és Alk-ai

Analízis előadás és gyakorlat vázlat

Megerősítéses tanulás 9. előadás

A médiatechnológia alapjai

Valószínűségszámítás

BIZONYTALAN ADATOK KEZELÉSE: FUZZY SZAKÉRTŐI RENDSZEREK

Mesterséges Intelligencia MI

Kevei Péter november 22.

Probabilisztikus funkcionális modellek idegrendszeri adatok elemzésére

Elektromágneses terek gyakorlat - 6. alkalom

JANUS PANNONIUS TUDOMÁNYEGYETEM. Schipp Ferenc ANALÍZIS I. Sorozatok és sorok

Pénzügyi matematika. Medvegyev Péter szeptember 8.

Helyünk a világban Alföldi válaszok a globalizáció folyamataira IV. Alföld-konferencia, Békéscsaba, nov

Hazánkban jelentõs múlttal rendelkeznek a klasszikus tesztelméleti módszerekkel

Információelmélet Szemináriumi gyakorlatok

MITISZK Miskolc-Térségi Integrált Szakképző Központ

Miskolci Egyetem GÉPÉSZMÉRNÖKI ÉS INFORMATIKAI KAR. Analízis I. példatár. (kidolgozott megoldásokkal) elektronikus feladatgyűjtemény

A dolgozatot a négy érdemi fejezetben tárgyalt eredményeket tartalmazó 9 oldalas Összefoglalás ( o.) zárja le.

statisztikai menürendszere Dr. Vargha András 2007

A lineáris tér. Készítette: Dr. Ábrahám István

Matematika Tanszék MOE (PE MIK) MMAM143VB 1 / 34

5. Trigonometria. 2 cos 40 cos 20 sin 20. BC kifejezés pontos értéke?

Elektromágneses terek 2011/12/1 félév. Készítette: Mucsi Dénes (HTUCA0)

Virtuális Egér. Horváth Zsolt, Schnádenberger Gábor, Varjas Viktor március 20.

Növényvédőszer maradékok eloszlásának vizsgálata egyedi terményekben

GYAKORLAT. 1. Elemi logika, matematikai állítások és következtetések, halmazok (lásd EA-ban is; iskolából ismert)

Komáromi Éva LINEÁRIS PROGRAMOZÁS

Munkapiaci áramlások Magyarországon

1: Idõ(tartam), frekvencia (gyakoriság) mérés

Oktatási segédlet REZGÉSCSILLAPÍTÁS. Dr. Jármai Károly, Dr. Farkas József. Miskolci Egyetem

1. Ha két közeg határfelületén nem folyik vezetési áram, a mágneses térerősség vektorának a(z). komponense folytonos.

X. Fénypolarizáció. X.1. A polarizáció jelenségének magyarázata

MATEMATIKA GYAKORLÓ FELADATGYŰJTEMÉNY

Fókuszált fénynyalábok keresztpolarizációs jelenségei

Irányítástechnika 4. előadás




Vektortér. A vektortér elemeit vektornak, a test elemeit skalárnak nevezzük. Ezért a függvény neve skalárral való szorzás (nem művelet).

Az F# nyelv erőforrásanalízise

Többváltozós lineáris regresszió 3.

1. Prefix jelentések. 2. Mi alapján definiáljuk az 1 másodpercet? 3. Mi alapján definiáljuk az 1 métert? 4. Mi a tömegegység definíciója?

Statisztikai alapismeretek (folytatás)

Máté: Számítógépes grafika alapjai

Funkcionálanalízis az alkalmazott matematikában

GAZDASÁGI STATISZTIKA

JANUS PANNONIUS TUDOMÁNYEGYETEM. Schipp Ferenc ANALÍZIS II. ***************

Fejezetek az abszolút geometriából 6. Merőleges és párhuzamos egyenesek

Csődvalószínűségek becslése a biztosításban

Kombinatorikus problémák a távközlésben

Reiczigel Jenő,

GAZDASÁGSTATISZTIKA. Készítette: Bíró Anikó. Szakmai felelős: Bíró Anikó június

Átírás:

Gépi tanulás III. Szepesvári Csaba MTA SZTAKI 2005 ápr. 11 Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 1 / 37

1 Döntési fák 2 Felügyelet nélküli tanulás Klaszter-anaĺızis EM algoritmus Gauss Mixture Models Főkomponens anaĺızis 3 Összefoglalás Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 2 / 37

Döntési fák Ötlet: input tér partícionálása Oszd meg és uralkodj (divide and conquer)! Top-down partícionálás; lehetőségek: Egyszerre egy attibútum (ID3, C4.5) vs. általános helyzetű egyenesek mentén (CART) Melyik attribútum? Hol vágjunk? Hány részre? Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 3 / 37

Döntési fák Fogalmak Csúcspontok, ágak, levelek Nem levél csúcspontok: egy-egy attribútumra vonatkozó teszt Ág: a teszt egy kimenetele (pl. Szín=piros) Levél: Címke, vagy eloszlás a címkéken Klasszifikáció: A fa gyökerétől egy levélig egy út bejárása Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 4 / 37

Példa: Teniszezzünk? Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 5 / 37

Döntési fák építése (Quinlan, 93) Top-down építkezés Induláskor minden példa a gyökérhez tartozik Lépésenként egy attribútumot választva rekurzívan partícionáljuk a példákat Bottom-up nyírás (pruning) Részfákat/ágakat teszteljünk és dobjuk ki őket, ha a CV-vel becsült hibaarányon ez javít Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 6 / 37

Melyiket válasszam..? Melyik a legalkalmasabb attribútum? Amelyik a legkisebb fához vezet Heurisztika: Válasszunk olyan attribútumot, amelyik a legegyszerűbb alfeladathoz (nódushoz) vezet Jóság: amelyik attribútumnál a legnagyobb, azt választjuk ki Legismertebb mértékek: Information gain (ID3/C4.5) Information gain ratio Gini index Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 7 / 37

Információ nyereség I. X, Y val.változók Y entrópiája: Várható kódhossz, optimális kódolás mellett: ( H(Y ) = E[log 2 p(y )] = i P(Y = y i ) log 2 P(Y = y i ) Individuális feltételes entrópia: Y entrópiája azokban az esetekben, amikor X = x: ). H(Y X = x) = i P(Y = y i X = x) log 2 P(Y = y i X = x) azaz Y kódhossza, feltéve, hogy X = x. (Megj.: H(Y X = x) E[log 2 P(Y ) X = x]!) Feltételes entrópia: H(Y X ) = E[H(Y X )] = x P(X = x)h(y X = x); Y várható kódhossza, feltéve, hogy X értéke felhasználható a kódoláskor. (Megj.: H(Y, X ) = H(X ) + H(Y X ) = (H(Y ) + H(X Y ))) Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 8 / 37

Információ nyereség II. X miatti információ nyereség Y -ra nézve: várhatólag mennyivel csökken Y entrópiája, azáltal, hogy X -et felhasználhatjuk a kódoláskor: I (Y, X ) = H(Y ) H(Y X ). (Megj. I (Y, X ) = I (X, Y ), ezért nem I (Y X )-et használunk a jelölésben) Köv: Ha X hasznos információt hordoz Y -ra nézve, akkor I (Y, X ) nagy! Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 9 / 37

Példa biztosításmatematikából Feladat Adott ügyfél megéri-e a 80-at? Y = 1 hosszú életű, Y = 0 nem hosszú életű. Múltbeli adatok alapján a következőt találjuk: I (Y Hajszín) = 0.01 I (Y Dohányos) = 0.2 I (Y Nem) = 0.25 I (Y SzSzUtolsóSzJegye) = 0.0001 Melyik attribútumokat érdemes figyelembe venni? IG: mennyire érdekes egy 2D-s kontingencia tábla. Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 10 / 37

Sok-értékű attribútumok Probléma: Ha az attribútum extrém sok értéket vesz fel.. (pl. sz.sz.) Y X = x nagyobb eséllyel egyszerű, így: IG jó eséllyel sok értéket felvevő attribútumot választ.. ez túltanításhoz vezethet Megoldás? Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 11 / 37

Túltanítás elkerülése.. pl. relativizáljuk az információ nyereséget: IR(Y X ) def = I (Y, X )/H(Y X ) = Arányosított információ nyereség Más jóság mértékek; pl. Gini index: G(Y ) = 1 i P(Y = y i) 2 ; G(Y X = x) = 1 i P(Y = y i X = x) 2 ; G(Y X ) = E[G(Y X )] Early stopping: Álljunk le a fa növesztésével (pl. ha a tanítási minták száma egy adott ágban már kicsi) Tanítsunk túl, majd vagdossuk le a részfákat/ágakat független validációs adatokon mért teljesítmény segítségével (+++) A leveleknél használjunk Laplace korrekciót.. Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 12 / 37

Egyéb praktikus kérdések Hiányzó attribútum értékek Klasszifikációs költségek Számításigény = Quinlan s C4.5 (1993), majd C5.0 Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 13 / 37

Felügyelet nélküli (unsupervised) tanulás Adatok: X 1,..., X n ; X i p( ), p nem ismert Kérdések: p =? sűrűségfüggvény becslés Milyen természetes csoportok különíthetőek el a adatban? klaszterezés Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 14 / 37

Klaszter-analízis Klaszterező függvény: C : R d {1, 2,..., k}, C =?, k =? Kvantáló függvény: Q : R d {x 1, x 2,..., x k }, Q =?, x 1,..., x k =?, k =? Objektumok csoportosítása úgy, hogy.. a hasonlóbbak kerüljenek azonos csoportba.. kvantálási hiba minimális legyen Alapprobléma: Hogy definiáljuk a hasonlóságot/kvantálási hibát? Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 15 / 37

Klaszterező algoritmusok alaptípusok Kombinatorikus módszerek Közvetlenül az adatokkal dolgoznak Keverék-eloszlások modellezése (Mixture Modeling) Valamilyen keverék-eloszlást feltételez Módusz-keresés Sűrűségfüggvények móduszának keresése Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 16 / 37

Kombinatorikus módszerek Klaszteren belüli különbözőség (dissimilarity) minimalizálása ekvivalens: klaszterek közötti különbözőség maximalizálása Miért? Klaszteren belüli különbözőség: W (C) = I(C(X p ) = C(X q )) d(x p, X q ) p q Klaszterek közötti különbözőség: B(C) = I(C(X p ) C(X q )) d(x p, X q ) p q Teljes különbözőség: T (C) = W (C) + B(C) const. Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 17 / 37

k-means Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 18 / 37

k-medoids Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 19 / 37

Mennyi legyen k értéke? Néha a problémával jön k értéke is!:) Ha k nem adott, akkor W k (Ck )-ot megvizsgáljuk.. Ha k nő, W k (Ck ) csökken.. Büntessük a nagyobb k értéket (MDL, MAP/BIC,..) Validációs adat: cross-validation pl. X-means (D. Pelleg, A. Moore, 2000) Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 20 / 37

EM algoritmus sűrűségfüggvény becslés D n = (X 1, X 2,..., X n ); X i p p =? Maximum likelihood: p = p( ; θ); L(θ) = log p(d n ; θ) = i log p(x i; θ) függetlenség θ ML = argmax θ log p(x i ; θ) i Rejtett változók: (X i, Z i ) p Miért? Keverék eloszlások Hidden-Markov Models (rejtett Markov modellek) Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 21 / 37

Modellezés keverék eloszlásokkal Példa: Gaussok keveréke Keverék: p(x) = N (x; µ, Σ) = Generatív szemlélet: r w j N (x; µ j, Σ j ); w j 0, j=1 r w j = 1 j=1 ( 1 (2π) d/2 Σ exp 1 ) 2 (x µ)t Σ 1 (x µ) Z i (w 1,..., w r ), i = 1,..., n X i N (x; µ Zi, Σ Zi ) Paraméterek: θ = (w 1, µ 1, Σ 1,..., w r, µ r, Σ r ) =? Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 22 / 37

Keverékek - II. D n = (X 1, X 2,..., X n ); X i p p = p(x, z; θ) =? Marginalizálás: p(x; θ) = E[p(x, Z; θ)] Maximum likelihood: θ ML = argmax θ log p(x i ; θ) =? Rejtett változók értékének dekódolása: argmax z p(z x; θ) =? (pl. HMM) i Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 23 / 37

Jensen egyenlőtlensége Tétel Ha f : D R konvex, és X D-értékű val.változó, akkor E[f (X )] f (EX ) (f konkáv, akkor E[f (X )] f (EX )) Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 24 / 37

EM algoritmus: első lépések Ha Z i -t megfigyeltük volna θ ML számolható lenne De Z i -t nem figyeltük meg.. Log-likelihood-ra alsó becslés: L(θ) = i log p(x i ; θ) = i log z p(x i, z; θ) = i i log z z Q i (z) p(x i, z; θ) Q i (z) Q i (z) log p(x i, z; θ) Q i (z) (Jensen :) aholis Q i ( ) egy tetszőleges eloszlás. Jensen: Y i (x) = p(x,z i ;θ) Q i (Z i ) -re, Z i Q i ( ), f (w) = log(w) mellett. Hogy válasszuk Q i -t? Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 25 / 37

EM algoritmus: Q i választása L(θ) = i log p(x i ; θ) = i log z p(x i, z; θ) = i i log z z Q i (z) p(x i, z; θ) Q i (z) Q i (z) log p(x i, z; θ) Q i (z) Hogy válasszuk Q i -t? Ötlet: Úgy, hogy fent egyenlőség legyen. Jensen: Y i const = egyenlőség Q i (z) p(x i, z; θ), spec. z Q i(z) = 1 miatt Q i (z) = p(x i, z; θ) z p(x p(z x; θ) i, z; θ) Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 26 / 37

EM algoritmus Algoritmus Input: (X 1,..., X n ) adatok; p(x, z; θ) modell t = 0 Konvergenciáig ismételni: E-step: Minden i-re, Q i (z) := p(z X i ; θ t ) M-step: θ t+1 := argmax θ i z Q i(z) log p(x i,z;θ) Q i (z) t := t + 1 Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 27 / 37

EM algoritmus: konvergencia Állítás Az EM algoritmus konvergál L(θ) egy lokális maximumhelyéhez Most csak: L(θ) sohasem csökken Def.: A(θ; θ ) = i Volt: L(θ t ) = A(θ t ; θ t ) z Q i (z; θ) log p(x i, z; θ ) Q i (z; θ) A(θ t ; θ t+1 ) = max θ A(θ t ; θ ) A(θ t ; θ t ) = L(θ t ) L(θ t+1 ) A(θ t ; θ t+1 )? igen; volt: L(θ) i z Q i (z) log p(x i, z; θ) Q i (z) spec. θ = θ t+1,q i (z) = Q i (z; θ t )-ra is áll. Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 28 / 37

EM algoritmus: egy másik interpretáció.. EM L(θ)-t nem csökkenti Leállási feltétel: L(θ) nem sokat változik Koordinátánkénti optimalizálás: Q = (Q 1,..., Q n ); z Q i(z) log p(x i,z;θ) Q i (z) J(Q, θ) = i Volt: L(θ) J(Q, θ) Interpretáció: E-step: Q-ban maximalizálás M-step: θ-ban maximalizálás Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 29 / 37

Inicializálás EM iteratív; nagyon érzékeny a kezdeti értékekre Rossz pontból indítva = rossz pontba konvergál Gyors és minőségi inicializálásra van szükség Gyakran: k-means (GMM-hez) Alternatívák: Gaussian splitting, hierarchikus k-means Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 30 / 37

Gauss Mixture Models Modell: p(x; θ) = N (x; µ, Σ) = r w j N (x; µ j, Σ j ); w j 0, j=1 r w j = 1 j=1 ( 1 (2π) d/2 Σ exp 1 ) 2 (x µ)t Σ 1 (x µ) p(x, z; θ) = w z N (x; µ z, Σ z ) p(x) = z p(x, z; θ) Behelyettesítés.. Q i (z; θ) = p(z = z X i ; θ) = p(x i Z=z;θ)p(Z=z;θ) p(x i ;θ).. Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 31 / 37

Miért érdekesek a GMM-ek Univerzális approximátorok Diagonális GMM-ek is univerzális approximátorok Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 32 / 37

Főkomponens analízis Főkomponens anaĺızis = Principal Component Analysis (PCA) Példa Helikopter-vezetés távirányítással Képesség Élvezet karma - rejtett változó Feladat: keressük azt az irányt (alteret), amelyikben az adat legjobban változik Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 33 / 37

Főkomponens analízis - Modellek Modell-1 (nem-parametrikus): Projekció után az adatoknak a lehető legnagyobb legyen a varienciája Modell-2 (nem-parametrikus) P : R d R d projekció egy m dimenziós altérre Px = m j=1 v j(vj T x), vi T v j = δ ij. argmin P proj. E[ PX X 2 2 ] =? Modell-3 (parametrikus) X = AU + W U R m, W R d v.v. A R d m mátrix (X 1,..., X n )-t figyeljük meg, A =? Feltétel: U, W Gauss ( ellipszisek ) Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 34 / 37

Algoritmus Algoritmus Input: (X 1,..., X n ) Centrálunk: X i := X i m, m = (1/n) i X i. Empirikus kovariencia mátrix: C = (1/n) i X i (X i )T C sajátértékfelbontása: C = d i=1 λ iv i vi T, λ 1 > λ 2 >... λ d Output: P = m j=1 v jvj T Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 35 / 37

Főgörbék és felületek Principal curves and surfaces Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 36 / 37

Összefoglalás Döntési fák: top-down, mohó (information gain); ID3/C4.5 Felügyelet nélküli tanulás Klaszterezés (k-means, k-medoid) EM-algoritmus Gauss-keverékek Főkomponens anaĺızis Legközelebb: Független komponens anaĺızis Lineáris diszkriminánsok NMF Feature-selection Feature weighting; boosting Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 37 / 37