Gépi tanulási (MachineLearning) módszerek alkalmazása

Hasonló dokumentumok
Adatbányászati szemelvények MapReduce környezetben

The nontrivial extraction of implicit, previously unknown, and potentially useful information from data.

Az adatelemzés alapfeladatai

Gépi tanulás a gyakorlatban. Bevezetés

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Biomatematika 12. Szent István Egyetem Állatorvos-tudományi Kar. Fodor János

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Osztályozás, regresszió. Nagyméretű adathalmazok kezelése Tatai Márton

Gépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés

Statisztika - bevezetés Méréselmélet PE MIK MI_BSc VI_BSc 1

Statisztikai következtetések Nemlineáris regresszió Feladatok Vége

Biometria az orvosi gyakorlatban. Korrelációszámítás, regresszió

ELTE TáTK Közgazdaságtudományi Tanszék GAZDASÁGSTATISZTIKA. Készítette: Bíró Anikó. Szakmai felelős: Bíró Anikó június

Közösség detektálás gráfokban

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.

Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )

Irányításelmélet és technika II.

Markov-láncok stacionárius eloszlása

Mérési adatok illesztése, korreláció, regresszió

Gépi tanulás a gyakorlatban. Lineáris regresszió

Általánosan, bármilyen mérés annyit jelent, mint meghatározni, hányszor van meg

Gyakorló feladatok adatbányászati technikák tantárgyhoz

Asszociációs szabályok

Nagyméretű adathalmazok kezelése (BMEVISZM144) Reinhardt Gábor április 5.

end function Az A vektorban elõforduló legnagyobb és legkisebb értékek indexeinek különbségét.. (1.5 pont) Ha üres a vektor, akkor 0-t..

Modellek paraméterezése: regresszió, benchmarkok

Statisztika I. 12. előadás. Előadó: Dr. Ertsey Imre

Matematikai geodéziai számítások 6.

Diverzifikáció Markowitz-modell MAD modell CAPM modell 2017/ Szegedi Tudományegyetem Informatikai Intézet

Bevezetés a Korreláció &

Intelligens adatelemzés

Anyagvizsgálati módszerek Mérési adatok feldolgozása. Anyagvizsgálati módszerek

Gauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei

Intelligens orvosi műszerek VIMIA023

Számítógépes döntéstámogatás. Statisztikai elemzés

Problémás regressziók

(Independence, dependence, random variables)

Többváltozós lineáris regressziós modell feltételeinek

Least Squares becslés

Algoritmusok Tervezése. 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás

Számítógépes döntéstámogatás. Genetikus algoritmusok

4/24/12. Regresszióanalízis. Legkisebb négyzetek elve. Regresszióanalízis

Matematikai geodéziai számítások 6.

Lineáris leképezések. Wettl Ferenc március 9. Wettl Ferenc Lineáris leképezések március 9. 1 / 31

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

STATISZTIKA I. Változékonyság (szóródás) A szóródás mutatószámai. Terjedelem. Forgalom terjedelem. Excel függvények. Függvénykategória: Statisztikai

III. Kvantitatív változók kapcsolata (korreláció, regresszió)

Adatbányászati feladatgyűjtemény tehetséges hallgatók számára

IBM SPSS Modeler 18.2 Újdonságok

Termelés- és szolgáltatásmenedzsment

Regressziós vizsgálatok

Adatok statisztikai értékelésének főbb lehetőségei

társadalomtudományokban

Regresszió. Fő cél: jóslás Történhet:

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Gyakori elemhalmazok kinyerése

Regresszió számítás az SPSSben

Adatbányászati technikák (VISZM185) 2015 tavasz

Kódverifikáció gépi tanulással

Modellkiválasztás és struktúrák tanulása

Többváltozós lineáris regressziós modell feltételeinek tesztelése I.

Eredmények kiértékelése

Lineáris regressziós modellek 1

Döntési fák. (Klasszifikációs és regressziós fák: (Classification And Regression Trees: CART ))

PONTFELHŐ REGISZTRÁCIÓ

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla

Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)

BAGME11NNF Munkavédelmi mérnökasszisztens Galla Jánosné, 2011.

Mozgásmodellezés. Lukovszki Csaba. Navigációs és helyalapú szolgáltatások és alkalmazások (VITMMA07)

Mérési hibák

Random Forests - Véletlen erdők

STATISZTIKA. Mit nevezünk idősornak? Az idősorok elemzésének módszertana. Az idősorelemzés célja. Determinisztikus idősorelemzés

A mérési eredmény megadása

Hogyan lesz adatbányából aranybánya?

Saj at ert ek-probl em ak febru ar 26.

Klaszterezés. Kovács Máté március 22. BME. Kovács Máté (BME) Klaszterezés március / 37

Idősorok elemzése. Salánki Ágnes

Gyakorló feladatok a kétváltozós regresszióhoz 2. Nemlineáris regresszió

Strukturált Generátorrendszerek Online Tanulása és Alk-ai

BitTorrent felhasználók értékeléseinek következtetése a viselkedésük alapján. Hegedűs István

Normális eloszlás tesztje

7. Régió alapú szegmentálás

Új típusú döntési fa építés és annak alkalmazása többtényezős döntés területén

Gyakorló feladatok. Agbeko Kwami Nutefe és Nagy Noémi

LOGIT-REGRESSZIÓ a függő változó: névleges vagy sorrendi skála

A F u z z y C L I P S a l a p j a i

ÉRZÉKELŐK ÉS BEAVATKOZÓK I. 3. MÉRÉSFELDOLGOZÁS

Biostatisztika VIII. Mátyus László. 19 October

Csima Judit április 9.

Kísérlettervezés alapfogalmak

i p i p 0 p 1 p 2... i p i

Függvények növekedési korlátainak jellemzése

Teljesen elosztott adatbányászat pletyka algoritmusokkal. Jelasity Márk Ormándi Róbert, Hegedűs István

Hipotézis STATISZTIKA. Kétmintás hipotézisek. Munkahipotézis (H a ) Tematika. Tudományos hipotézis. 1. Előadás. Hipotézisvizsgálatok

Több valószínűségi változó együttes eloszlása, korreláció

Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban

Többváltozós lineáris regresszió 3.

Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet

Átírás:

Gépi tanulási (MachineLearning) módszerek alkalmazása Hullám Gábor (hullam.gabor@ ) Salánki Ágnes, Kocsis Imre salanki@, ikocsis@ 2016.11.03. Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs Rendszerek Tanszék

Gépi tanulás Gépi tanulás (MachineLearning -ML) ~ Olyan módszerek és algoritmusok, melyek a rendelkezésre álló adathalmazból egy modellt tanulnak, és ezt felhasználva következtetést (predikciót) tesznek lehetővé (a meglévő vagy más/újabb adatokról). Adatorientált módszereket használ, tehát lényeges a o Változószám o Mintaszám Ezek aránya jelentősen befolyásolja a tanult modell minőségét

Gépi tanulás Gépi tanulás vsadatbányászat o Előrejelző modellt épít Adatbányászat o ML módszereket felhasználva nyer ki új információt o Inkább feltáró jellegű o Inkább nem felügyelt tanulás ML Ábra forrása: https://onthe.io/learn

Alapfeladatok Klaszterezés Osztályozás Asszociációs szabályok Regresszió DM ML

Felügyelt és nem felügyelt tanulás Felügyelt tanulás oadott néhány pontra az elvárt kimenet is o a tanuló példákból való általánosítás o Output: függvény a meglévő mintapontokra Tanulóhalmaz jól képez amin le építjük a modellt megfelelően általánosítható Teszthalmaz amin ellenőrizzük Nem felügyelt tanulás onincs meg az elvárt kimenet o Visszajelzés nélkül építi a modellt o szabályok, összefüggések keresése (ismeretfeltárás)

Osztályozás és csoportosítás alapfeladat Kép forrása: Ramaswamy S, Golub T R JCO 2002;20:1932-1941

Klaszterezés

Asszociációs szabályok

Osztályozás

Regresszió

ML alapú üzleti intelligencia alkalmazások Klaszterezés Osztályozás Predikció Szabálykinyerés Piacszegmentálás Meghibásodás analízis Hitelbírálat Portfólió választás Csalási minták detektálása Kockázat elemzés Megtérülés előrejelzés Eseménysor elemzés Vásárlói kosár elemzés

Módszerek Klaszterezés Osztályozás Predikció Szabálykinyerés K-means Döntési fa Regressziós módszerek Neurális módszerek Bayesi módszerek Asszociációk Szekvenciális minták

ML módszerek -BigDatakörnyezetben Apache Spark MLlib (Machine language library) https://www.mapr.com/blog/apache-spark-machine-learning-tutorial

ML módszerek -BigDatakörnyezetben H2O Supervised Learning Generalized Linear Modeling (GLM) GradientBoostingMachine (GBM) Deep Learning Distributed Random Forest Naive Bayes Tutorial Booklet Ensembles(Stacking) Unsupervised Learning Generalized Low RankModels (GLRM) K-Means Clustering Principal Components Analysis(PCA) http://docs.h2o.ai/h2o/latest-stable/ index.html#algorithms

ML módszerek -BigDatakörnyezetben Mahout Samsara https://mahout.apache.org/

Klaszterezés http://gplsi.dlsi.ua.es/gplsi11/content/clustering-based-approach-unsupervisedword-sense-disambiguation

17 Klaszterezés lépései I.

18 Klaszterezés lépései II.

2 fő célkitűzés: Klaszterezés alapkérdései I. Az egyes klasztereken belül legyen a lehető legnagyobb a homogenitás o = nagy hasonlóság az elemek között o= kis távolság az elemek között Az különböző klaszterek között legyen nagy a távolság = kis hasonlóság a különböző klaszterekbe tartozó elemek között A két kritérium között kell egyensúlyt találni

Klaszterezés alapkérdései II. Mi legyen a hasonlósági mérce(similarity metric)? ofolytonos és diszkrét numerikus változóknál egyszerűen értelmezhető o Kategorikus változóknál külön megfontolást igényel Mekkora legyen a hasonlósági küszöb? Túl alacsony: jelentősen különböző elemek kerülnek egy klaszterbe Túl magas: elég hasonló elemeket sem enged egy klaszterbe kerülni

Klaszterezés alapkérdései III. Mekkora az optimális klaszterszám? o Extrém esetek: Annyi klaszter ahány minta használhatatlan Egy óriási klaszter (benne minden minta) o Túl sok klaszter o Túl kevés klaszter Nincs általános megoldás nehezen értelmezhető nem különülnek el a csoportok Adott problémára megadható egy ideális klaszterszám

K-közép (k-means) klaszterezés Adatpontok: vektortér Klaszter reprezentációja: súlyponttal / középponttal (vektor-átlag) ( ): i-edik klaszter reprezentánsa Minimalizálandó pontok négyzetes távolságösszege, mint hiba: =,

Egy megoldás {,,, ( )} repr. kezdeti halmaza while ( ) változik do for adott sorrendben do return h klaszter-indexe! (, ( )) if h then { # # % % ( # ) * ( + ( ( % ), * +, } Régi klaszter Új klaszter Itt rögtön újra is számoljuk

K-meansklaszterezés példa Egy Twitter streamfelhasználóinak klaszterezése földrajzi elhelyezkedés alapján https://chimpler.wordpress.com/2014/07/11/segmentingaudience-with-kmeans-and-voronoi-diagram-using-spark-andmllib/ Lehetséges változók: o Földrajzi elhelyezkedés o Tweet hossz o Első tweethez képest eltelt idő Vizualizáció: Voronoi cellákkal

K-meansklaszterezés példa https://chimpler.wordpress.com/2014/07/11/segmenting-audience-with-kmeans-and-voronoidiagram-using-spark-and-mllib/

Condorcetkritérium alapú klaszterezés njelölt : x (i) mdarab szavazó : v(voter) Mindegyik szavazó v k egy rangsort állít fel π k (permutáció) o Pl: x (π k (i)) < x (π k (j)) az i. helyen állót favorizálja j. helyen lévőhöz képest Az a jelölt győz aki a szavazók rangsorát páronként összemérve többször favorizált (paired majority rule) Ez alapján egy globális rangsort hoz létre λ: o x (λ(1)) < x (λ(2)) < 26

A szavazás 1. változó Ellenfél klaszter Jelölt klaszter 1 2 3 4 1 0 0 1 2 1 1 1 3 1 0 1 4 0 0 0 Preferencia sorrend (2,3,1,4) 0 jelentése: a jelölt rosszabb, mint az ellenfél 1 jelentése: a jelölt jobb, mint az ellenfél 27

A szavazás 1I. változó Ellenfél klaszter Jelölt klaszter 1 2 3 4 1 1 1 0 2 0 0 0 3 0 1 0 4 1 1 1 (4,1,3,2) 1II. változó Jelölt klaszter 28 Ellenfél klaszter 1 2 3 4 1 1 1 1 2 0 0 1 3 0 1 1 4 0 0 0 (1,3,2,4)

Végeredmény Σ Jelölt klaszter Ellenfél klaszter 1 2 3 4 1 2 2 2 2 1 1 2 3 1 2 2 4 1 1 1 29

Condorcet kritérium alkalmazása klaszter jelöltek minősítésére njelölt n darab klaszter mszavazó mdarab változó Jelölés: x,y : két összehasonlítandó objektum ν : egy adott változó, ν(x) : x objektum ν változó szerinti értéke ν : az összes változó halmaza C : egy adott klaszter Ϲ : teljes klaszterezés 30

Demografikusklaszterezés: 1. példa -1 Feladat: Áruházak klaszterezése Változók: o Áruházban kialakított osztályok bevétele o Elhelyezkedés o Éghajlat/időjárás o Vásárlók életkora o Vásárlók becsült jövedelme Kérdés: Ha új áruházat szeretnénk létrehozni, hogyan alakítsuk ki?

Demografikusklaszterezés: 1. példa -2 Mit jelentenek az egyes klaszterek? Miért tartoznak össze az odasorolt elemek? Megoldottuk a feladatot?

Demografikusklaszterezés: 1. példa -3 A kis, homogén klaszterek a fontosak? Vagy a nagyobb, több mintát lefedő, de inhomogénebbek?

Osztályozás

Osztályozás alapfeladat Képosztályozás: a képen látható objektum madár vagy repülő?

Osztályozás alapfeladat Levelek osztályozása: SPAM vagy nem SPAM?

Osztályozás alapfeladat Szabályok alapján Severity osztályozása Kép forrása: http://192.9.172.90/bigadmin/features/articles/3pmi_mgmt.full.jsp

Bináris döntések jóságának mérése Confusion matrix Jósolt állapot (predikció) P N Valós állapot P N TP FP (I. típusú hiba) FN (II. típusú hiba) TN 38

Bináris döntés (osztályozás) jósági mutatói Érzékenység (sensitivity): TP/(TP+FN) az összes eredetileg pozitív esetből az osztályozó mennyit osztályozott jól Specifikusság (specificity): TN/(TN+FP) Negatív prediktív érték: TN/(TN+FN) a valójában negatív esetek aránya az osztályozó által negatívnak osztályozott esetekhezképest Pozitív prediktív érték: TP/(TP+FP) Pontosság: TP+TN/(TP+FP+TN+FN) AUC (areaover theroc curve) : sensitivity(->y) versus 1- specificity(-> x))

Érzékenység vagy specifikusság a fontos? Érzékenység (sensitivity): TP/(TP+FN) o érzékenység magas -> FN alacsony opl:legyen kicsi az esélye, hogy egy fertőző betegség tesztje tévesen negatív -> aki negatív eredményű az valójában is az. Specifikusság (specificity): TN/(TN+FP) o specifikusság magas -> FP alacsony opl:legyen kicsi az esélye, hogy egy genetikai teszt (egy kezelés megkezdéséhez) tévesen pozitív -> aki pozitív eredményű az valójában is az.

Az osztályozás további tényezői -1 https://www.mapr.com/blog/apache-spark-machine-learning-tutorial Jegykiválasztás (= változó halmaz kiválasztás) o Legyen releváns a változóhalmaz o Ne legyenek benne redundáns változók Jegykiválasztás és modellépítés mennyire integrált Számos kiértékelési módszer pl: keresztvalidáció típusok (k-fold, leave-1-out)

Az osztályozás további tényezői -2 Modell komplexitás vs. osztályozó jósága o Sok esetben adott egy trade-off a két tulajdonság közt otriviális: Két közel azonos jóságú modell közül az egyszerűbbet kell választani ode: mekkora komplexitás növekedést érdemes még elfogadni kis mértékű javulás fejében? White boxvagy black boxmódszer a megfelelő? o White box: a felépített modell változói, paraméterei értelmezhetőek. Pl: döntési fák, Bayes-hálók o Black box: a modell elemei önmagukban nem értelmezhetőek, de jól megoldja az osztályozó a feladatot. Pl: neurális hálózatokon alapuló osztályozók

Adat: Osztályozási feladat Adott egy filmes adatbázis Modelltanulás: Szeretnénk meghatározni, hogy mitől lesz sikeres egy film (=többet hoz vissza az eladott jegyek árából, mint amennyibe került) Predikció (jóslás): Szeretnénk tervezett jövőbeli filmekről vagy készülő filmekről megállapítani, hogy sikeresek lesznek-e

Osztályozási feladat Célváltozó: Sikeres film Y0: Nem Y1: Igen Lehetséges magyarázó változók: o X1: Film típusa pl: akció vagy vígjáték o X2: A filmben szereplő világsztárok száma >1 o X3: Speciális effektusok minősége o X4: Filmzene minősége o X5: Eladható termékek megjelenítése o X6: Film megjelenésének időzítése o X7: Időjárás o X8: Eredeti/adaptáció o X9: Marketing kampány sikeressége o X10: Sorozat része vagy egyedi Y1:Kiváló X2:2 Releváns változók X3:Kiváló X6:Kiváló X7:Jó

Osztályozási feladat-> regressziós feladat Célváltozó: Sikeres film Y0: Nem Y1: Igen Lehetséges magyarázó változók: Mi lenne, ha számszerűsíteni lehetne a sikert? o X1: Film típusa Pl. dollárban pl: akció kifejezve? vagy vígjáték o X2: A filmben szereplő világsztárok száma >1 o X3: Speciális Az egyes effektusok változókhoz minősége X1, X2, X3 ohozzárendelhetünk X4: Filmzene minősége egy-egy tagot, ami leírja, hogy mennyivel járul hozzá a sikerhez: ß1, ß2, ß3 o X5: Eladható termékek megjelenítése oekkor: X6: Film Célváltozó megjelenésének nem pusztán időzítése a siker, hanem a o X7: Időjárás várható árbevétel. o X8: Eredeti/adaptáció otegyük X9: Marketing fel, hogy a kampány várható árbevétel sikeressége egy lineáris o X10: Sorozat egyenlettel része vagy leírható egyedi Y1:Kiváló X2:2 Releváns változók X3:Kiváló X6:Kiváló X7:Jó

Regressziós feladat Célváltozó: Mekkora lesz a film bevétele? Lehetséges magyarázó változók: o X1: Film típusa pl: akció vagy vígjáték o X2: A filmben szereplő világsztárok száma >1 o X3: Speciális effektusok minősége o X4: Filmzene minősége ß4 =0 o X5: Eladható termékek megjelenítése o X6: Film megjelenésének időzítése o X7: Időjárás o X8: Eredeti/adaptáció o X9: Marketing kampány sikeressége Y= α+ ßi*Xi α: offset (eltolás) o X10: Sorozat ßi: regressziós része vagy együtthatók egyedi ß1 =0 Y=50M$ ß2*X2 =8M$*2 =16M$ ß3*X3: 6M$ *4 = 24M$ ß5 =0 ß6*X6: 2M$ *4 = 8M$ ß7*X7: 1M$ *2 = 2M$ ß8 =0 ß9 =0 ß10 =0

f függvény, bemenet: az attribútumok értéke, kimenet: megfigyelések legjobb közelítése ökölszabály Példa: testtömeg/magasság együttes eloszlás valójában egyenesre illeszthető, Regresszió

Regressziós módszerek Alapelv: Véletlen változó Közelítés t ( ) Y = f + ε t Hiba Jósolt esemény Átlagos hiba (mean error) Becsült érték Y = f ( X1, X 2,..., X n ) ME = n t= 1 ( Y F ) t n t Megfigyelhető változók Mért érték

Lineáris regresszió Egyszerű lin. függvény illesztése az adatokra o nem vár alapvető változást a rendszer viselkedésében Y = a + bx Legkisebb négyzetek módszere o keressük azokat az a,b paramétereket, amelyekre n n 2 εt t t t= 1 t= 1 ( ) 2 SSE = = Y F minimális (Sum of Squared Errors) cél: n n ( ) ( ) 2 2 Y F = Y a + bx minimalizálása t t t t t= 1 t= 1

Levezetés (parc. deriválás) n t= 1 n t= 1 ( ) d Y a + bx t t n da ( ) d Y a + bx 2 2 t= 1 t= 1 t t n db t= 1 ( ) Y ( a bx ) = 2 t + t = 0 ( ) ( ) = X t Yt a + bx t = 0 n n 1 1 1 2 X Y Y bx bx X Y X Y b X X b X t = 0 t= 1 n n n n n n ( ) = + n na = Y bx a = Y bx t t t t t t t t t t t t t= 1 n t= 1 t= 1 n t= 1 t= 1 n t= 1 t= 1 b = t n n n n X Y X Y t t t t t= 1 t= 1 t= 1 n n 2 2 n X t X t t= 1 t= 1 Xi, Yi a mért értékpárok (pl. idő, terhelés)

Anscombenégyese Legjobban illeszkedő egyenes mindenre van Minőségileg különböző adatpontokra is

- = Θ / x Lineáris regresszió: általános alak Solve: Θ = min (Θ 6 7 - ) 5 9 : R 9 = : design matrix -tanító-minták a sorok -> = -,, - 9 9 : targetlabels Θ = : 6 :? : 6 ->

Θ = : 6 :? : 6 -> Summation form Θ = @? A 9 @ = 6 9 7 - és A = 7 - és ezek a szummákmár párhuzamosíthatóak m- ben.

Asszociációs szabályok tanulása R1: [ X 1, X 2,, X n ] Y Szabály: HA (feltétel) AKKOR (következmény) (törzs body) (fej head) asszociációs kapcsolatok(szabályok) megismerésére irányul Lényege: ha egy S elemhalmazban szerepel egy(vagy több) adottelemx 1,X 2,,X n akkoregymásikyelem is nagy valószínséggel szerepel benne.

Szekvenciális szabályok tanulása [ X 1, X 2,, X n ] + [ Z 1, Z 2,, Z n ] + [ ] Y t 1 :S 1 t 2 :S 1 t k :S 1 t k+1 :S 1 t 1 :S 2 t 2 :S 2 t k :S 2 t k+1 :S 2 Elemhalmaz szekvencia következmény (törzs body) (fej head) asszociációskapcsolatokmegismeréséreirányul több eltérő (idői) csoportba tartozó elemhalmaz között Lényege: ha at 1 (idői) csoportba tartozó Selemhalmazban ést 2 t k (idői) csoportba tartozó Selemhalmazbanszerepel egy(vagytöbb) adottelemx 1,X 2,, akkoregyyelemnagy valószínséggelszerepelegy t k+1 (idői) csoportba tartozó S halmazban.

Asszociációs vsszekvenciális szabálytanulás Asszociációs szabálytanulás Célja az tranzakciók (elemhalmazok) elemzése Gyakori elemhalmazok (itemset), gyakran együtt előforduló elemek vizsgálata Pl.: vásárlói kosarak elemzése Szekvenciális szabálytanulás az idői dimenziót is figyelembe veszi (a halmazok csoportosításának alapját) célja az összetartozó tranzakciók láncolatának elemezése, időbeli kapcsolatok azonosítása Pl.: meghibásodás elemzés (meghibásodások időbeli láncolatának elemzésével + ==> Kép : http://www.kdnuggets.com/2016/04/association-rules-apriori-algorithm-tutorial.html

Szabályok jellemzése -1 Maximális szabályhossz (rulelength): a szabálytörzsben lévő elemek száma + a fej Támogatottság (support): egy adott szabálya rekordokmekkora részébenigaz (%-os megadás: relatív szupport, darabszám: abszolút szupport) Bizonyosság(confidence): arekordok mekkora részében igaz az, hogy ha az adott szabálytörzs igaz, akkor ott a szabály fejrésze is igaz: P(Y X) Lift: a szabály által leírt elemek megfigyelt együttes gyakoriságának az elvárt gyakorisághoz mért aránya: P(Y, X) / (P(Y)P(X))

Szabályok jellemzése -2 Lift: a szabály által leírt elemek megfigyelt együttes gyakoriságának az elvárt gyakorisághoz mért aránya: P(Y, X) / (P(Y)P(X)) Lift>1 aztjelenti, hogya kételemkiegészítiegymást, tehát az elemhalmaz nagyobb valószínűséggel tartalmaz Y -t, ha van benne X is. Lift<1 azt jelenti, hogy a két elem helyettesíti egymást, tehátha X szerepelaz elemhalmazban, akkor Y kisebb valószínséggel fog szerepelni. Lift=1 jelentéseaz, hogya X nembefolyásolja Y -t, vagyisattól, hogy X benne van azelemhalmazban, nem változik annak a valószínűsége, hogy Y szerepele benne. Tehát X és Y függetlenek.

Szabályok jellemzése -3 Kör nagysága: support Kör színe: lift Illusztráció: http://www.kdnuggets.com/2016/04/association-rules-apriori-algorithm-tutorial.html

Szabályok jellemzése -4 Asszociációs szabály Oksági szabály!! Ha X és Y korrelációban lévő események, akkor vagy X okozza Y-t Y okozza X-et Z okozza X-et és Y-t (közös ok) Két változó közötti asszociáció szimmetrikus reláció, nincs iránya Az oksági relációnak van iránya, ok okozat Asszociációból nem következik oksági reláció

Szabálytanulás -példa Walmart adatbázis vizsgálata 3600 üzleti egység 100 Millió vásárló 460 TB!! a teljes adatvagyon mérete Kérdés: Mit vásárolnak leginkább az emberek hurrikán veszély esetén (mivel töltsék fel a boltokat)? Ismert, hogy ásványvizet, elemet, elemlámpát, sört vesznek ilyenkor. Mit még? http://www.nytimes.com/2004/11/14/business/yourmoney/what-walmart-knowsabout-customers-habits.html

Szabálytanulás -példa Walmart adatbázis vizsgálata 8-szor gyakrabban fordult elő hurrikán veszély esetén a vásárlói kosarakban: Strawberry pop-tart Kép: https://commons.wikimedia.org/wiki/file:rasp-pop-tart.jpg

Kollaboratívszűrés (Collaboratívfiltering)

Kollaboratívszűrés (Collaboratívfiltering)

Ajánlórendszerek -1 Felhasználói profil hasonlósága alapján o lehetne klaszterezéssel o keressen a rendszer hasonló felhasználót o az ő választásai alapján adjon ajánlást o Problémák: klaszterszám számítási igény mi alapján lesz hasonló? van-e elég információ ehhez?

Ajánlórendszerek -2 Együtt előforduló elemek (vásárlói kosarak) alapján o Pl.: online áruház termékajánló rendszere o megoldható szabálytanulással o Problémák: számítási igény így nem lesz személyre szabott https://sarahtianhua.wordpress.com/portfolio/market-basket-analysis/ http://thecentsiblefamily.com/category/stores/market-basket/

Kollaboratív szűrés Ajánlórendszerek CF Preferencia információ sok felhasználótól Feltételezés: akik hasonló dolgokat kedveltek a múltban, a jövőben is így tesznek majd Vannak elemek, melyekről van preferencia megadva Sok esetben nincs megadva https://www.mapr.com/blog/apache-spark-machine-learning-tutorial

Ajánlórendszerek CF-2 Kérdés: Hogyan döntenének a felhasználók a még nem értékelt elemekről? Ez kellene ahhoz, hogy az értékelések alapján másoknak ajánlásokat adhassunk Mátrix alapú reprezentáció (ez sokszor hiányos) Cél: mátrix kitöltése Módszer: mátrix faktorizáció

Mátrix faktorizáció-1 Mátrix faktorizáció alkalmazása Feltételezés: a háttérben léteznek nem ismert jegyek K (features) jegyek alapján értékelnek a felhasználók: U jegyek száma jóval kisebb a felhasználókénál : K << U elemek (pl.: filmek): D Preferencia információ (rating mátrix) : R http://www.quuxlabs.com/blog/2010/09/matrix-factorization-a-simple-tutorial-and-implementation-in-python/

Mátrix faktorizáció-2 A cél megtalálni 2 mátrixot: P=U x K ~ felhasználók és jegyek közötti asszociáció Q= D x K ~ elemek és jegyek közötti asszociáció melyekre igaz, hogy: Px Q T = R^ (Rközelítése) Az u i felhasználó által a d j elemre adott rating: r i,j Pés Q megtalálásához két (valamilyen módon inicializált) mátrix szorzatát kell összevetni az eredeti R mátrixszal és törekedni iteratívan az eltérés csökkenésére. Eltérés: http://www.quuxlabs.com/blog/2010/09/matrix-factorization-a-simple-tutorial-and-implementation-in-python/

Mátrix faktorizáció-3 Gradiens számítás p ik és q kj módosításához p ik és q kj módosítása a gradiens alapján Leállni akkor célszerű, amikor a teljes hiba (E) minimális http://www.quuxlabs.com/blog/2010/09/matrix-factorization-a-simple-tutorial-and-implementation-in-python/

Mátrix faktorizáció-4 Találtunk egy olyan Pés Qmátrixot, ami jól közelíti R ismert részeit A nem ismert részeire pedig ad egy becslést Így már R használható ajánláshoz