Nem felügyelt tanulás

Hasonló dokumentumok
Principal Component Analysis

Sajátértékek és sajátvektorok. mf1n1a06- mf1n2a06 Csabai István

Többváltozós lineáris regresszió 3.

Strukturált Generátorrendszerek Online Tanulása és Alk-ai

IBM SPSS Modeler 18.2 Újdonságok

A többváltozós lineáris regresszió III. Főkomponens-analízis

Szinguláris érték felbontás Singular Value Decomposition

Adatbányászati szemelvények MapReduce környezetben

Kvadratikus alakok gyakorlás.

5. elıadás március 22. Portfólió-optimalizálás

Saj at ert ek-probl em ak febru ar 22.

Szinguláris értékek. Wettl Ferenc április 3. Wettl Ferenc Szinguláris értékek április 3. 1 / 28

Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet

Kódverifikáció gépi tanulással

7. Régió alapú szegmentálás

Diverzifikáció Markowitz-modell MAD modell CAPM modell 2017/ Szegedi Tudományegyetem Informatikai Intézet

Miért fontos számunkra az előző gyakorlaton tárgyalt lineáris algebrai ismeretek

MISKOLCI EGYETEM GÉPÉSZMÉRNÖKI ÉS INFORMATIKAI KAR

Közösség detektálás gráfokban

Gépi tanulás a gyakorlatban. Bevezetés

Blind Source Separation. Kiváltott agyi jelek informatikai feldolgozása

ANOVA,MANOVA. Márkus László március 30. Márkus László ANOVA,MANOVA március / 26

Nagy-György Judit. Szegedi Tudományegyetem, Bolyai Intézet

Gépi tanulás a gyakorlatban. Lineáris regresszió

Vektorterek. =a gyakorlatokon megoldásra ajánlott

Hátralevı órák. Néhány fontos probléma. Többdimenziós adatbázisok. k dimenziós térbeli indexek

Lineáris regressziós modellek 1

Matematikai statisztika I. témakör: Valószínűségszámítási ismétlés

Szinguláris értékek. Wettl Ferenc április 12. Wettl Ferenc Szinguláris értékek április / 35

Matematika (mesterképzés)

Matematikai statisztika Gazdaságinformatikus MSc október 8. lineáris regresszió. Adatredukció: Faktor- és főkomponensanaĺızis.

(Independence, dependence, random variables)

Villamosmérnök A4 11. hét Kétdimenziós normális eloszlás, cht - Megoldások

azonosságot minden 1 i, l n, 1 j k, indexre teljesítő együtthatókkal, amelyekre érvényes a = c (j) i,l l,i

Korreláció és lineáris regresszió

Bevezetés a Korreláció &

Gépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés

Biomatematika 12. Szent István Egyetem Állatorvos-tudományi Kar. Fodor János

[Biomatematika 2] Orvosi biometria

Társadalmi és gazdasági hálózatok modellezése

Eloszlások jellemzése. Momentumok. Medián és kvantilis. Karakterisztikus függvény

Saj at ert ek-probl em ak febru ar 26.

Szalai Péter. April 17, Szalai Péter April 17, / 36

A maximum likelihood becslésről

A főkomponens-elemzés alkalmazása a kémiában

VIK A2 Matematika - BOSCH, Hatvan, 3. Gyakorlati anyag. Mátrix rangja

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

Klaszterezés, 2. rész

Osztályozás, regresszió. Nagyméretű adathalmazok kezelése Tatai Márton

Inferencia valószínűségi modellekben

1. Lineáris transzformáció

Biometria az orvosi gyakorlatban. Korrelációszámítás, regresszió

Klaszterezés. Kovács Máté március 22. BME. Kovács Máté (BME) Klaszterezés március / 37

6. Előadás. Vereb György, DE OEC BSI, október 12.

Regressziós vizsgálatok

Mérnökgeodéziai hálózatok feldolgozása

Matematikai geodéziai számítások 6.

Alkalmazott algebra - SVD

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Lineáris algebra zárthelyi dolgozat javítókulcs, Informatika I márc.11. A csoport

Korrel aci os egy utthat ok febru ar 29.

A szimplex algoritmus

Blind Source Separation. Kiváltott agyi jelek informatikai feldolgozása

Vektorok, mátrixok, lineáris egyenletrendszerek

Elméleti összefoglaló a Valószín ségszámítás kurzushoz

2013 ŐSZ. 1. Mutassa be az egymintás z-próba célját, alkalmazásának feltételeit és módszerét!

c adatpontok és az ismeretlen pont közötti kovariancia vektora

Miskolci Egyetem Gazdaságtudományi Kar Üzleti Információgazdálkodási és Módszertani Intézet

KÖZELÍTŐ INFERENCIA II.

Szepesvári Csaba ápr. 11

Standardizálás, transzformációk

További sajátértékek. 10. előadás, május 3. Megjegyzések. A szűrés hatása a portfólió optimalizálásra

LINEÁRIS MODELLBEN május. 1. Lineáris modell, legkisebb négyzetek elve

1. Bázistranszformáció

Matematikai statisztika Gazdaságinformatikus MSc október 8. lineáris regresszió. Adatredukció: Faktor- és főkomponensanaĺızis.

Elemi statisztika. >> =weiszd= << december 20. Szerintem nincs sok szükségünk erre... [visszajelzés esetén azt is belerakom] x x = n

Csoport-struktúrált generátorrendszerek online tanulása

Főkomponens és Faktor analízis

1. feladatsor Komplex számok

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

x, x R, x rögzített esetén esemény. : ( ) x Valószínűségi Változó: Feltételes valószínűség: Teljes valószínűség Tétele: Bayes Tétel:

I. feladatsor. 9x x x 2 6x x 9x. 12x 9x2 3. 9x 2 + x. x(x + 3) 50 (d) f(x) = 8x + 4 x(x 2 25)

Matematikai geodéziai számítások 5.

Adatelemzési eljárások az idegrendszer kutatásban Somogyvári Zoltán

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Intelligens adatelemzés

Adaptív dinamikus szegmentálás idősorok indexeléséhez

KÖZELÍTŐ INFERENCIA II.

0-49 pont: elégtelen, pont: elégséges, pont: közepes, pont: jó, pont: jeles

A lineáris programozás alapfeladata Standard alak Az LP feladat megoldása Az LP megoldása: a szimplex algoritmus 2018/

Adatbányászat. Klaszterezés Szociális hálózatok. Szegei Tudományegyetem. Lehetetlenségi tétel Hierarchikus eljárások Particionáló módszerek

Searching in an Unsorted Database

Feladatok a Gazdasági matematika II. tárgy gyakorlataihoz

Standardizálás, transzformációk

Least Squares becslés

A lineáris programozás alapfeladata Standard alak Az LP feladat megoldása Az LP megoldása: a szimplex algoritmus 2017/

1. Generátorrendszer. Házi feladat (fizikából tudjuk) Ha v és w nem párhuzamos síkvektorok, akkor generátorrendszert alkotnak a sík vektorainak

Matematikai geodéziai számítások 6.

Modellkiválasztás és struktúrák tanulása

PONTFELHŐ REGISZTRÁCIÓ

Átírás:

Pintér Balázs 2019-05-15

Tartalom 1 Bevezetés 2 Klaszterezés Hard clustering k-means Soft clustering témamodellek 3 Dimenziócsökkentés Kovariancia, korreláció Főkomponens anaĺızis 4 Autoenkóderek

Bevezetés Tartalom 1 Bevezetés 2 Klaszterezés Hard clustering k-means Soft clustering témamodellek 3 Dimenziócsökkentés Kovariancia, korreláció Főkomponens anaĺızis 4 Autoenkóderek

Bevezetés Felügyelt tanulás osztályozás

Bevezetés Felügyelt tanulás regresszió

Bevezetés klaszterezés 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

Bevezetés Felügyelt tanulás: címkézett adatokból tanulunk valamilyen függvényt Más megközeĺıtések 1 2 Semi-supervised learning 3 Megerősítéses tanulás 4 Evolúciós algoritmusok 5 Neuroevolúció http://www.youtube.com/watch?v=qv6uvoq0f44

Klaszterezés Tartalom 1 Bevezetés 2 Klaszterezés Hard clustering k-means Soft clustering témamodellek 3 Dimenziócsökkentés Kovariancia, korreláció Főkomponens anaĺızis 4 Autoenkóderek

Klaszterezés Példa eloszlás alapú klaszterezés 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

Klaszterezés Példa eloszlás alapú klaszterezés 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

Klaszterezés Feladat Úgy csoportosítunk dolgokat, hogy a hasonlóak egy csoportba kerüljenek Klaszteren belül minél hasonlóbbak Klaszterek között minél kevésbé hasonlóak A dolgok általában R n -beli (vagy gráfbeli) pontok, pl.: Ügyféladatok piacszegmentáláshoz Dokumentumok szózsákkal modellezve, témák meghatározásához,keresési találatok összegzésére Szavak kontextusai, jelentések indukálásához Szerverek adatai (melyikek aktívak általában együtt) Egy csoportot egy klaszternek hívunk

Klaszterezés Fajtái Lehet hard vagy soft clustering Hard clustering: egy adatpont csak egy klaszterben szerepelhet Soft clustering: minden adatpontra megvan, hogy mennyire tartozik az egyes klaszterekbe Átmenetek Átfedő klaszterezés: egy elem több klaszterbe is tartozhat, de vagy beletartozik, vagy nem Hierarchikus klaszterezés: a klasztereket hierarchiába szervezzük, a gyerek klaszterbe tartozó elemek a szülőbe is beletartoznak

Klaszterezés Hierarchikus klaszterezés

Klaszterezés Példa természetes klasztereződésre azonos értelmű szavak jelentései (t-sne) 1000 800 600 400 200 0 200 400 600 800 1000 800 600 400 200 0 200 400 600 800 1000

Klaszterezés Hard clustering k-means Tartalom 1 Bevezetés 2 Klaszterezés Hard clustering k-means Soft clustering témamodellek 3 Dimenziócsökkentés Kovariancia, korreláció Főkomponens anaĺızis 4 Autoenkóderek

Klaszterezés Hard clustering k-means Példa 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

Klaszterezés Hard clustering k-means Feladat Adott: k, a klaszterek száma Minden klasztert a középpontjával reprezentálunk Centroid, a klaszter pontjainak átlaga A feladat: keressük meg a k klaszter középpontot és az adatpontokat rendeljük ezekhez hozzá úgy, hogy a klaszteren belüli, középponttól számított távolságnégyzeteket minimalizáljuk Ekvivalens a páronkénti távolságnégyzetek minimalizálásával NP-nehéz, így approximáljuk Csak lokális optimumot találunk Többször futtathatjuk különböző véletlen inicializációkkal k-means feladat arg min S k i=1 x µ i 2 = arg min S x S i k i=1 1 2 S i x,y S i x y 2

Klaszterezés Hard clustering k-means Algoritmus Kezdetben adott k és az adatpontok R n -ben Inicializáljuk az m (1) 1, m(1) 2,..., m(1) k centroidokat Véletlenszerűen kiválasztunk k adatpontot, vagy Minden adatpontot véletlenszerűen egy klaszterbe sorolunk és kiszámoljuk a centroidokat Váltogatjuk a következő két lépést, amíg nem konvergálunk 1 Minden adatpontot a legközelebbi centroidhoz rendelünk: S (t) i = { x p : xp m (t) 2 xp m (t) 2 j, 1 j k } 2 Kiszámítjuk az új centroidokat i m (t+1) i = 1 S (t) i j x j S (t) i x j

Klaszterezés Hard clustering k-means Algoritmus

Klaszterezés Hard clustering k-means Algoritmus

Klaszterezés Hard clustering k-means Algoritmus

Klaszterezés Hard clustering k-means Algoritmus

Klaszterezés Hard clustering k-means Algoritmus

Klaszterezés Hard clustering k-means Algoritmus

Klaszterezés Hard clustering k-means Algoritmus

Klaszterezés Hard clustering k-means Problémák túl kicsi k-t adunk meg

Klaszterezés Hard clustering k-means Problémák túl nagy k-t adunk meg

Klaszterezés Hard clustering k-means Problémák rossz inicializáció

Klaszterezés Hard clustering k-means Problémák sűrűség alapúak a klaszterek 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

Klaszterezés Hard clustering k-means Python példák Kép kvantálás: http://scikit-learn.org/stable/auto_ examples/cluster/plot_color_quantization.html Dokumentumok klaszterezése: https://scikit-learn.org/0.19/auto_examples/text/ document_clustering.html

Klaszterezés Soft clustering témamodellek Tartalom 1 Bevezetés 2 Klaszterezés Hard clustering k-means Soft clustering témamodellek 3 Dimenziócsökkentés Kovariancia, korreláció Főkomponens anaĺızis 4 Autoenkóderek

Klaszterezés Soft clustering témamodellek Témamodellek Soft clusteringre példa: témamodellek Egy dokumentum mennyire szól az egyes témákról Egy témába milyen szavak tartoznak? Pl. Latent Semantic Analysis (SVD) Topics Weights Document govern presid forc languag linguist group vowel voic conson aircraft air flight standard system implement

Klaszterezés Soft clustering témamodellek Latent Semantic Analysis words documents topics topics X U S V T words topics topics documents

Klaszterezés Soft clustering témamodellek Kiterjesztés csoportritka regularizációval file version data develop server protocol comput machin memori data bit code network server switch data databas page standard system implement model version car vehicl motor tank version machin compil word languag vowel languag noun vowel vowel voic conson word noun end languag linguist group aircraft air flight transport rout vehicl flight machine model number prime integ henri king parliament goddess god greek jesu sin faith henri john william minist rome william roman rome emperor son rome father empir imperi order order princ daughter order roman bishop israel jerusalem christian order pope christian famili includ member england edward english bishop princ peter est year popul linguist million mathemat polit militari elect govern presid forc countri relat govern econom trade bank countri intern develop island central san

Klaszterezés Soft clustering témamodellek Példa: kakukktojás játék Egybetartozó szavak Kakukktojás cao wei liu emperor king superman clark luthor kryptonite batman devil demon hell soul body egypt egyptian alexandria pharaoh bishop singh guru sikh saini delhi language dialect linguistic spoken sound mass force motion velocity orbit voice speech hearing sound view athens athenian pericles corinth ancient data file format compression image function problems polynomial equation physical

Dimenziócsökkentés Tartalom 1 Bevezetés 2 Klaszterezés Hard clustering k-means Soft clustering témamodellek 3 Dimenziócsökkentés Kovariancia, korreláció Főkomponens anaĺızis 4 Autoenkóderek

Dimenziócsökkentés Miért dimenziócsökkentünk? Az adatok valójában alacsonyabb dimenziósak, csak magasabb dimenziós térben vannak Láttatjuk az adatokat Eltüntetjük a zajt Csökkentjük a tanulási feladat bonyolultságát (jobb eredmények, kisebb futási idő,... ) A csökkentett dimenziójú adatokon új törvenyszerűségeket, sejtéseket láthatunk meg A probléma megoldásához kisebb dimenziós és/vagy sűrű reprezentációra van szükségünk

Dimenziócsökkentés Példa: Swiss roll

Dimenziócsökkentés Példa: A betű forgatása

Dimenziócsökkentés Kovariancia, korreláció Tartalom 1 Bevezetés 2 Klaszterezés Hard clustering k-means Soft clustering témamodellek 3 Dimenziócsökkentés Kovariancia, korreláció Főkomponens anaĺızis 4 Autoenkóderek

Dimenziócsökkentés Kovariancia, korreláció Kovariancia, korreláció

Dimenziócsökkentés Kovariancia, korreláció Kovariancia, korreláció 1 0.8 0.4 0-0.4-0.8-1 1 1 1-1 -1-1 0 0 0 0 0 0 0

Dimenziócsökkentés Kovariancia, korreláció Kovariancia, (Pearson) korreláció Azt mérik, hogy X, Y val. változók mennyire mozognak együtt Lineáris kapcsolatot mutatnak Cov(X, Y ) = E [ (X E[X ])(Y E[Y ]) ] Pl.: Pozitív: Ha X > E(X ), akkor Y > E(Y ), ha X < E(X ), akkor Y < E(Y ) Cov(X, Y ) = E [ XY ] E[X ] E[Y ] Korreláció: Normalizált kovariancia, -1 és 1 között ρ X,Y = corr(x, Y ) = r xy = cov(x,y ) σ X σ Y = E[(X µ X )(Y µ Y )] σ X σ Y n (x i x)(y i ȳ) i=1 n (x i x) 2 n (y i ȳ) 2 i=1 i=1

Dimenziócsökkentés Kovariancia, korreláció Mind a négy adathalmaz korrelációs együtthatója 0.816

Dimenziócsökkentés Kovariancia, korreláció Kovariancia mátrix X egy vektor, aminek az elemei val. változók A kovariancia mátrix elemei X i, X j közti kovarianciák Σ ij = cov(x i, X j ) = E [ (X i µ i )(X j µ j ) ] µ i = E(X i ) E[(X 1 µ 1 )(X 1 µ 1 )] E[(X 1 µ 1 )(X 2 µ 2 )] E[(X 1 µ 1 )(X n µ n)] E[(X 2 µ 2 )(X 1 µ 1 )] E[(X 2 µ 2 )(X 2 µ 2 )] E[(X 2 µ 2 )(X n µ n)]........ E[(X n µ n)(x 1 µ 1 )] E[(X n µ n)(x 2 µ 2 )] E[(X n µ n)(x n µ n)] A főátlóban a szórások vannak. Ekvivalens: Σ = E(X X) µ µ

Dimenziócsökkentés Főkomponens anaĺızis Tartalom 1 Bevezetés 2 Klaszterezés Hard clustering k-means Soft clustering témamodellek 3 Dimenziócsökkentés Kovariancia, korreláció Főkomponens anaĺızis 4 Autoenkóderek

Dimenziócsökkentés Főkomponens anaĺızis Példa - 2d normáleloszlás

Dimenziócsökkentés Főkomponens anaĺızis Főkomponens anaĺızis Principal component analysis (PCA) Demo: http://setosa.io/ev/principal-component-analysis/ Az adathalmazt egy új koordinátarendszerben ábrázoljuk, a tengelyek merőlegesek Az adathalmaz vetítései közül a legnagyobb szórású az első tengelyen (főkomponensen) van A második legnagyobb szórású a második főkomponensen,... Új változók/adatok: a főkomponensekre vetítjük le az eredeti változókat. Ezek már korrelálatlanok Dimenziócsökkentés: eldobjuk azokat a tengelyeket (és koordinátákat), amiken kicsi a szórás

Dimenziócsökkentés Főkomponens anaĺızis Főkomponens anaĺızis X R n p : adathalmaz, egy sor egy adatpont t (i) = (t 1,..., t l ) (i) : az adatpontok az új koordinátarendszerbe transzformálva w (k) = (w 1,..., w p ) (k) -val t k (i) = x (i) w (k) for i = 1,..., n k = 1,..., l Szórás maximalizálása { } w (1) = arg max (t 1 ) 2 (i) w =1 i = arg max w =1 { ( x(i) w ) } 2 i

Dimenziócsökkentés Főkomponens anaĺızis Főkomponens anaĺızis Ugyanez mátrixosan: w (1) = arg max { Xw 2 } = arg max w =1 w =1 Mivel w egységvektor: { w T X T } Xw w (1) = arg max w T w { } w T X T Xw Ez a Rayleigh-hányados, a legnagyobb lehetséges érték az X T X legnagyobb sajátértéke lesz, ahol w a hozzá tartozó sajátvektor A többi komponensre is így van a főkomponensek az X T X sajátvektorai

Dimenziócsökkentés Főkomponens anaĺızis Főkomponens anaĺızis algoritmus Az X mátrixban vannak az adataink Nulla átlagúra hozzuk az adatokat (kivonjuk az átlagot) Kiszámoljuk a Q = X T X kovariancia mátrixot Meghatározzuk ennek a mátrixnak a sajátértékeit, és a sajátvektorait A sajátvektorok a főkomponensek, a belőlük álló bázis az új koordinátarendszer A legnagyobb sajátértékhez tartozó főkomponens a legnagyobb szórású, és így tovább Dimenziócsökkentés: csak a k legnagyobb sajátértékű főkomponenst tartjuk meg

Dimenziócsökkentés Főkomponens anaĺızis PCA és SVD SVD X = UΣW T PCA SVD-vel X T X = WΣ T U T UΣW T = WΣ T ΣW T = W ˆΣ 2 W T W-ben már X T X sajátvektorai vannak. A szinguláris értékek a sajátértékek négyzetgyökei.

Dimenziócsökkentés Főkomponens anaĺızis A PCA is lineáris

Dimenziócsökkentés Főkomponens anaĺızis Python példák A feature scaling fontossága: http://scikit-learn.org/stable/auto_examples/ preprocessing/plot_scaling_importance.html

Autoenkóderek Tartalom 1 Bevezetés 2 Klaszterezés Hard clustering k-means Soft clustering témamodellek 3 Dimenziócsökkentés Kovariancia, korreláció Főkomponens anaĺızis 4 Autoenkóderek

Autoenkóderek Autoenkóderek

Autoenkóderek Autóenkóderek Egyszerű autóenkóder L(x, x ) = x x 2 = x σ (W (σ(wx + b)) + b ) 2 Ez az egyszerű autoenkóder a PCA alterébe projektál Flexibilis, sokféle variáció létezik Denoising autoencoder: zajos inputból kell zajtalan outputot előálĺıtani Sparse autoencoder: csak néhány egység lehet aktív a rejtett reprezentációban VAE: Egy valószínűségi modellt feltételez, a poszterior eloszlást approximálja Sokszor fontosak egy felügyelt mély háló előtanításában https://transcranial.github.io/keras-js/#/mnist-vae

Autoenkóderek Köszönöm a figyelmet! Köszönöm a figyelmet!