Dokumentum osztályozás rejtett Dirichlet-allokációval

Hasonló dokumentumok
Web spam szűrési módszerek

Közösség detektálás gráfokban

Kódverifikáció gépi tanulással

Hogy keres a Google?

Adaptív dinamikus szegmentálás idősorok indexeléséhez

KÖZELÍTŐ INFERENCIA II.

KÖZELÍTŐ INFERENCIA II.

ACTA CAROLUS ROBERTUS

Dodé Réka (ELTE BTK Nyelvtudomány Doktori IskolaAlkalmazott Alknyelvdok 2017 nyelvészet program) február 3. 1 / 17

Teljesen elosztott adatbányászat alprojekt

Infobionika ROBOTIKA. X. Előadás. Robot manipulátorok II. Direkt és inverz kinematika. Készült a HEFOP P /1.0 projekt keretében

Kétdimenziós mesterséges festési eljárások. Hatások és alkalmazások

A maximum likelihood becslésről

Statisztikai módszerek a skálafüggetlen hálózatok

ADATBÁNYÁSZATI SZOFTVER HASZNÁLATA SZÖVEGOSZTÁLYOZÁSHOZ DATA MINING SOFTWARE FOR TEXT CLASSIFICATION

YANG ZIJIAN GYŐZŐ 杨子剑

Osztályozás, regresszió. Nagyméretű adathalmazok kezelése Tatai Márton

Modellkiválasztás és struktúrák tanulása

The nontrivial extraction of implicit, previously unknown, and potentially useful information from data.

1: Bevezetés: Internet, rétegmodell Alapok: aszimptótika, gráfok. HálózatokII, 2007

Csima Judit április 9.

Új típusú döntési fa építés és annak alkalmazása többtényezős döntés területén

Saj at ert ek-probl em ak febru ar 26.

Hidden Markov Model. March 12, 2013

Előrenéző és paraméter tanuló algoritmusok on-line klaszterezési problémákra

Struktúra nélküli adatszerkezetek

Biomatematika 2 Orvosi biometria

BitTorrent felhasználók értékeléseinek következtetése a viselkedésük alapján. Hegedűs István

Intelligens adatelemzés

Függvények növekedési korlátainak jellemzése

A Szinguláris felbontás adatbányászati alkalmazásai

1. Házi feladat. Határidő: I. Legyen f : R R, f(x) = x 2, valamint. d : R + 0 R+ 0

Hipotézis STATISZTIKA. Kétmintás hipotézisek. Munkahipotézis (H a ) Tematika. Tudományos hipotézis. 1. Előadás. Hipotézisvizsgálatok

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Publikációs lista. Gódor Győző július 14. Cikk szerkesztett könyvben Külföldön megjelent idegen nyelvű folyóiratcikk...

Osztott jáva programok automatikus tesztelése. Matkó Imre BBTE, Kolozsvár Informatika szak, IV. Év 2007 január

Számítógép hálózatok, osztott rendszerek 2009

Diszkrét matematika 2.C szakirány

Gauss-Seidel iteráció

Mesterséges Intelligencia I.

Eötvös Loránd Tudományegyetem Bölcsészettudományi Kar. Doktori Disszertáció Tézisei. Recski Gábor. Számítógépes módszerek a szemantikában

Markov-láncok stacionárius eloszlása

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Vektorok, mátrixok, lineáris egyenletrendszerek

1. feladatsor: Vektorterek, lineáris kombináció, mátrixok, determináns (megoldás)

Információ-visszakeresı módszerek egységes keretrendszere és alkalmazásai. Kiezer Tamás

Multimédiás és webes adatbányászat KISS LÁSZLÓ

A VEKTORTÉR MODEL HASZNÁLATA A SZÖVEGBÁNYÁSZATBAN THE USAGE OF THE VECTOR-SPACE MODEL IN TEXT MINING

[Biomatematika 2] Orvosi biometria

Gépi tanulás a gyakorlatban. Bevezetés

Asszociációs szabályok

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

ICT ÉS BP RENDSZEREK HATÉKONY TELJESÍTMÉNY SZIMULÁCIÓJA DR. MUKA LÁSZLÓ

Amortizációs költségelemzés

Vektorterek. =a gyakorlatokon megoldásra ajánlott

Felügyelt önálló tanulás - Analízis III.

Adatbányászati szemelvények MapReduce környezetben

Gépi tanulás. Féligellenőrzött tanulás. Pataki Béla (Bolgár Bence)

Hash-alapú keresések

Adatok statisztikai értékelésének főbb lehetőségei

Mérési struktúrák

Ellátási lánc optimalizálás P-gráf módszertan alkalmazásával mennyiségi és min ségi paraméterek gyelembevételével

Nagyságrendek. Kiegészítő anyag az Algoritmuselmélet tárgyhoz. Friedl Katalin BME SZIT február 1.

IBM SPSS Modeler 18.2 Újdonságok

Gépi tanulás és Mintafelismerés

Funkcionális konnektivitás vizsgálata fmri adatok alapján

A látens Dirichlet allokáció társadalomtudományi alkalmazása

Kontrollcsoport-generálási lehetőségek retrospektív egészségügyi vizsgálatokhoz

Lineáris algebra zárthelyi dolgozat javítókulcs, Informatika I márc.11. A csoport

1.BEVEZETÉS. Subecz Zoltán 1. Információkinyerés természetes nyelvű szövegekből

Principal Component Analysis

AKTUÁTOR MODELLEK KIVÁLASZTÁSA ÉS OBJEKTÍV ÖSSZEHASONLÍTÁSA

Diszkrét matematika II., 8. előadás. Vektorterek

Nagy Gábor compalg.inf.elte.hu/ nagy

Logisztikus regresszió október 27.

Döntési fák. (Klasszifikációs és regressziós fák: (Classification And Regression Trees: CART ))

Mesterséges Intelligencia MI

Gépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés

Visszacsatolt (mély) neurális hálózatok

Heurisztikák BitTorrent hálózatok max-min méltányos sávszélesség-kiosztására

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Diszkrét idejű felújítási paradoxon

A Lee-Carter módszer magyarországi

Sergyán Szabolcs szeptember 21.

JAVASLAT A TOP-K ELEMCSERÉK KERESÉSÉRE NAGY ONLINE KÖZÖSSÉGEKBEN

8. Pontmegfeleltetések

Searching in an Unsorted Database

6. Előadás. Vereb György, DE OEC BSI, október 12.

0,424 0,576. f) P (X 2 = 3) g) P (X 3 = 1) h) P (X 4 = 1 vagy 2 X 2 = 2) i) P (X 7 = 3, X 4 = 1, X 2 = 2 X 0 = 2) j) P (X 7 = 3, X 4 = 1, X 2 = 2)

17. előadás: Vektorok a térben

Multimédiás adatbázisok

Statisztikai eljárások a mintafelismerésben és a gépi tanulásban

RHadoop. Kocsis Imre Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs Rendszerek Tanszék

Diverzifikáció Markowitz-modell MAD modell CAPM modell 2017/ Szegedi Tudományegyetem Informatikai Intézet

GRÁFELMÉLET. 7. előadás. Javító utak, javító utak keresése, Edmonds-algoritmus

Vektorterek. Több esetben találkozhattunk olyan struktúrával, ahol az. szabadvektorok esetében, vagy a függvények körében, vagy a. vektortér fogalma.

A szimplex algoritmus

Diszkrét matematika 2.C szakirány

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók 2. Pataki Béla

Szomszédság alapú ajánló rendszerek

Átírás:

Dokumentum osztályozás rejtett Dirichlet-allokációval Doktori értekezés tézisek Bíró István Témavezető: Lukács András Ph.D. Eötvös Loránd Tudományegyetem Informatikai Kar Információtudományi Tanszék Informatika Doktori Iskola Demetrovics János D.Sc. Az informatika alapjai és módszerei doktori program Demetrovics János D.Sc. Budapest, 2009

1. Bevezetés Az utóbbi években az Internet széleskörű elterjedése folyamatosan hatalmas mennyiségű elektronikus szöveges adatot hoz létre. A szöveges adatok feldolgozása, belőlük hasznos információk kinyerése majd felhasználása új, hatékony módszereket kíván. A dokumentumok osztályozása, amelynek során dokumentumokat kategóriacímkékkel látunk el, az egyik ilyen nagy gyakorlati fontosságú, komoly kihívásokat rejtő feladat. A dokumentumok megfelelő reprezentálása kulcsfontosságú a dokumentum-osztályozó algoritmusok hatékonysága, robusztussága, és minősége szempontjából. A leggyakrabban alkalmazott reprezentáció a vektortér modell [7], ami a dokumentumokat egy sokdimenziós vektortérben ábrázolja: ahol a vektortér dimenzióinak a dokumentumokban előforduló különböző szavak felelnek meg. A dokumentumokat ebben a térben a szógyakoriság vektorral reprezentáljuk. Az algoritmusok futási ideje, tárigénye erősen függ a vektortér dimenziójától, ezért kiemelkedő jelentősége van a különböző dimenziócsökkentő módszereknek, mint például a rejtett szemantikus analízisnek (Latent Semantic Analysis, LSA) [2]. Az LSA egy szinguláris érték felbontáson alapuló vektortértranszformáció segítségével az eredeti dokumentumvektorokat kisebb dimenziójú vektorokká alakítja át, amelyek jól jellemzik a dokumentumgyűjtemény (korpusz) rejtett szemantikai szerkezetét. Egy másik, kisdimenziós reprezentációt eredményező modell a rejtett Dirichlet-allokáció (Latent Dirichlet Allocation, LDA) [1]. Az LDA egy generatív valószínűségi modell, amely egy korpusz dokumentumait reprezentálja rögzített számú téma keverékeként. A témákat a korpusz szókészlete (szótár) felett vett multinomiális valószínűségeloszlásokkal reprezentálja, egy dokumentum pedig ezen eloszlások keveréke. Kutatásaink során az LDA modellt és annak továbbfejlesztett változatait alkalmaztuk webes dokumentumok osztályozására. Az első tézisben összehasonlítottuk az LSA és az LDA modellek teljesítményét, illetve megvizsgáltuk, hogy a fenti reprezentációk vajon ugyanazt az információt ragadják-e meg a korpuszból. Webes dokumentumok nemcsak a bennük található szavakkal, hanem a ki- és befelé mutató linkekkel is jellemezhetők. Megvizsgáltuk, hogy ha a kiinduló reprezentáció nem szó-alapú, hanem link-alapú, akkor az erre épített modellek ragadnak-e meg újabb információt, azaz javítják-e az osztályozás minőségét. Az LDA modell, mint a neve is mutatja, rejtett témákkal reprezentálja a dokumentumokat, ezért explicit osztályozásra nem használható. A következő kutatásunkban (második tézis), ezért kifejlesztettük a multi-korpusz LDA (MLDA) modellt, ami alkalmas erre a feladatra, majd összehasonlítottuk különböző state of the art osztályozókkal (pl. C4.5, SVM, BayesNet). Az MLDA modell meglepően jól teljesített, szignifikánsan maga mögé utasítva az előbbi módszereket. A harmadik tézisben a webes korpuszokban található linkek által közvetített információt próbáltuk modellezni. A link, vagy hiperhivatkozás mögött a dokumentum szerzőjének azon véleménye rejlik, hogy a hivatkozott dokumentumnak szemantikai kapcsolata van a hivatkozóval. A link-alapú LDA modellnél a szavak keletkezése egy doku- 1

mentumban függ a dokumentum által hivatkozott dokumentumok szavaitól is. A negyedik tézisben azzal foglalkoztunk, hogy hogyan lehetne az LDA modelt skálázni nagyon nagy méretű korpuszokra. Mivel az eredeti algoritmus futási idejében a szűk keresztmetszetet a Gibbs-mintavételezés adta, ennek gyorsítására javasoltunk három stratégiát, amelyek jelentős teljesítménynövekedést eredményeznek minimális minőségromlás mellett. Végül az utolsó tézisben arról számolunk be, hogy hogyan szerepeltek az MLDA és a link-alapú LDA modelljeink a Web Spam Challenge-en, ahol a feladat egy webkorpuszban a spam tartalmú oldalak minél pontosabb azonosítása volt. 2. Előzmények 2.1. Dokumentumok osztályozása A dokumentum-osztályozás [8] célja szöveges dokumentumoknak előre definiált halmazból vett kategóriacímkékkel való ellátása. Osztályozónak nevezzük azt a függvényt, amely egy adott dokumentumhoz hozzárendeli a lehetséges kategóriák egyikét vagy akár részhalmazát (egycímkés illetve többcímkés eset). A módszer elemi lépései: ismert kategóriájú dokumentumokból (az ún. tanítódokumentumokból) kinyert információk alapján felépítünk egy osztályozót, majd az osztályozó segítségével kategorizáljuk a tesztdokumentumokat. 2.2. Rejtett szemantikus analízis (LSA) A korpusz dokumentumaiból egy M R m V dokumentum-szó mátrixot építünk, ahol m a dokumentumok száma, V pedig a korpusz szókészletének mérete. Ezt a mátrixot a szinguláris érték felbontással faktorizáljuk és a legnagyobb k darab sajátértékhez tartozó sajátvektor által kifeszített altérbe képezzük. Az így kapott mátrix mérete m k lesz, tehát minden dokumentumot egy k-dimenziós vektor fog reprezentálni. A módszer előnyei a következőek. Legtöbbször az eredeti dokumentum-szó mátrix mérete túl nagy az elvégzendő feladat szemponjából. A mátrix ezenkívül túl zajos lehet a szavak szinonimikus, poliszémikus tulajdonságai miatt, és ezt a zajt bizonyítottan csökkenti a kis-dimenziós reprezentáció. Harmadrészt a dokumentumok a szótártérben igen ritkák (a dokumentumban lévő különböző szavak száma sokkal kisebb mint a szótár-méret), megnehezítve ezáltal a hagyományos távolság ill. hasonlóság mértékek alkalmazhatóságát. Az LSA által adott reprezentáció igen alkalmasnak bizonyult számos szövegbányászati feladat megoldásakor, például dokumentumok osztályozásakor (document classification), dokumentumok csoportosításakor (document clustering) és dokumentumok összefoglalásakor (document summarization). 2

2.3. Rejtett Dirichlet-allokáció Ebben a részben röviden bemutatjuk a rejtett Dirichlet-allokációt, a kutatásunk kiindulópontját képező modellt. Adott V darab szót tartalmazó V halmaz, K darab témát tartalmazó T halmaz, és M darab tetszőleges hosszúságú dokumentum. Minden k T témához véletlenül választunk egy V feletti ϕ k multinomiális eloszlást Dir( β) szerint, ahol Dir( β) egy V -dimenziós Dirichlet-eloszlás. Hasonlóan, minden m dokumentumhoz véletlenül választunk egy T feletti ϑ m multinomiális eloszlást Dir( α) szerint, ahol Dir( α) egy K-dimenziós Dirichlet-eloszlás. α R K +, β R V + a megfelelő Dirichlet-eloszlások hiperparaméterei. A dokumentumok szavait a következőképp generáljuk: az m dokumentum minden n [1, N m ] szópozíciójához választunk egy z m,n = k témát ϑ m -ból, majd választunk egy w m,n = t szót ϕ k -ból. Ezt a generatív folyamatot az 1. ábrán látható Bayes háló szemlélteti. 1. ábra. Az LDA Bayes hálója A modell paramétereinek becslése Gibbs-mintavételezéssel [3] történik, ami egy sokdimenziós valószínűségeloszlásokból való mintavételezésére alkalmas eljárás, amennyiben minden marginális egyváltozós feltéteteles valószínűségeloszlás explicite kifejezhető. Az LDA esetében a p( z w) eloszlást kell becsülni, ahol z T N, w V N és N = M i=1 N i a dokumentumok összes pozícióinak a száma. A 3

megfelelő marginális eloszlások zárt alakban felírhatók, mivel a Dirichlet-eloszlásnak a multinomiális eloszlás konjugált priorja, azaz minden m [1, M], n [1, N m ]-re: p(z m,n = k z (m,n), w) + β t V v=1 (N kv + β v ) 1 mk + α k K z=1 (N mz + α z ) 1, (2.1) N (m,n) kt N (m,n) N kt megadja, hogy a t szó a k témában hányszor szerepel, N mk pedig, hogy a k téma a m dokumentumban hányszor szerepel. Az N (m,n) azt jelöli, hogy az m dokumentum n-edik szópozícióját kihagyjuk a megfelelő számlálókból. A Gibbs-mintavételezés egy Markov-láncot reprezentál, a stacionárius eloszlás létezéséhez szükséges feltételekkel együtt, ezért megfelelő számú iterálás után megállunk, majd a z minta alapján kiszámítjuk a ϕ k és ϑ m változókat: ϕ k,t = N kt + β t V v=1 (N kv + β v ), ϑ m,k = N mk + α k K z=1 (N mz + α z ). (2.2) Miután a modellt az adott korpusz alapján felépítettük, lehetőség van tetszőleges új d dokumentum ϑ d téma-eloszlásának becslésére a (2.1)-hez hasonlóan: p(z d i = k z d i, w) Ñ i kt + β t V v=1 (Ñkv + β v ) 1 N i dk + α k K z=1 (N dz + α z ) 1. (2.3) Itt z d a d dokumentum szó-pozícióihoz rendelt téma-vektor, i pedig ezen pozíciók felett futó index, az Ñ számlálók tartalmazzák az eredeti korpusz és a d dokumentum megfelelő szó és téma aggregátumait. 3. Új eredmények 1. téziscsoport: LSA és LDA-alapú osztályozások összehasonlítása [C4] Ebben a tézisben összehasonlítottuk az LSA és az LDA szövegbányászati modellek teljesítményét, illetve megvizsgáltuk, hogy ezen reprezentációk ugyanazt az információt ragadják-e meg a korpuszból. Mindkét modell alapja az, hogy a dokumentumokat szavakkal reprezentáljuk. Weboldalak osztályozása során azonban gyakran használják a weboldalak közti linkeket is az osztályozás minőségének javítására. Kipróbáltuk ezért az LSA és az LDA azon módosítását, amikor a szavak helyett a dokumentumot a ki- és befelé mutató linkek reprezentálják. Azt várjuk, hogy a linkek alkalmazása a szó-alapú reprezentációhoz képest új információt ragad meg, ezzel növelve az osztályozó teljesítményét. Az LDA és az LSA által előállított k-dimenziós reprezentációk könnyedén aggregálhatók, így építhetünk egy olyan modellt, amely kombináltan tartalmaz egy LSA-t, ami szavakon lett számolva, egy másik LSA-t, ami linkeken, és két hasonló módon számolt LDAt. Természetesen nem szükséges hogy a különböző modellek ugyanannyi dimenziós reprezentációt hasz- 4

náljanak, előfordulhat, hogy az LSA-nál 15 szó-alapú dimenzió elegendő, míg az LDA-nál 30 link-alapú téma-eloszlás adja a legjobb teljesítményt. 1.1. tézis. Kísérleti eredmények A kísérletezés alapjául az Open Directory Project (továbbiakban ODP) által támogatott nyílt tartalmú webkönyvtárt használtuk. Ez egy olyan webkorpusz, ahol a weboldalak kézzel vannak kategórizálva egy kategória-taxonómiába. Egy adott oldal esetén az oldalhoz tartozó főkategóriával dolgoztunk. A dokumentumokhoz tartozó téma-eloszlások mint osztályjellemzők alapján végeztük az osztályozást SVM és C4.5 osztályozókkal. Eredményeink a következők: Az LDA jobban teljesített, mint az LSA 8%-kal F-mértékben mérve és 5%-al AUC-ban mérve. A link-alapú reprezentáció általában rosszabb eredményeket adott mint a szöveg-alapú, de a kettő kombinációja jobb volt a szöveg-alapúnál is. Ezzel sikerült igazolni, hogy valóban más információt ragadnak meg a különböző reprezentációk. A kombinált módszer 27%-ot javított F-mértékben, míg 7%-ot AUC-ban mérve. Maguk a modellek is másképp dolgozzák fel a rejtett információt: egy kombinált modell, melyben az LDA és az LSA által adott jellemzők is szerepelnek 20%-al jobb F- mértéket és 7%-kal jobb AUC-ot adott a szokásos LSA-hoz képest, illetve 11%-kal jobb F-mértéket és 2%-kal jobb AUC-ot az LDA-hoz képest. 2. téziscsoport: Multi-korpusz LDA [C2] Ebben a tézisben bemutatjuk a multi-korpusz LDA (MLDA) modellt, egy, az osztályozás minőségét javító heurisztikát, illetve az ezzel kapcsolatos kísérleteket. Az LDA a dokumentumokat rejtett témák felett vett eloszlással reprezentálja, ami azt jelenti, hogy explicit osztályozásra nem használható, hiszen csak egy reprezentációt ad. Az MLDA egy olyan modell, amely a dokumentumokat az eredeti kategóriák felett vett eloszlással reprezentálja, így nincs szükség további osztályozó alkalmazására. 2.1. tézis. Multi-korpusz LDA model Az MLDA lényegében egy kétszintű hierarchikus modell rejtett témákkal és ismert kategóriákkal. Adott egy korpusz, amelyben a dokumentumok m kategóriába vannak sorolva. Bontsuk a korpuszt m diszjunkt halmazra a kategóriák alapján, majd építsünk minden egyes halmazra egy LDA modellt, halmazonként más-más számú téma alkalmazásával. Végül egyesítsük a modelleket egy nagy modellé. Ha az i kategóriához tartozó halmaznál k i darab rejtett 5

témával építettünk modellt, akkor a nagy modell k = i k i darab rejtett téma feletti eloszlásokkal reprezentálja a dokumentumokat. Ez azonban több információt hordoz, mint egy k darab témából álló sima LDA modell, hiszen mindegyik rejtett témáról ismert, hogy melyik kategóriából származik. Egy teszt-dokumentum esetén a modell által adott k méretű eloszlás komponensei kategóriánként összegezhetők, eredményül egy m méretű eloszlást adva, amely megadja, hogy a vizsgált dokumentum az egyes kategóriákhoz milyen súllyal tartozik, ez pedig megfelel egy hagyományos osztályozó kimenetének. A fenti konstrukció ekvivalens a következővel: tekintsük a tanító-dokumentumok korpuszát, ahol a dokumentumok m darab kategória valamelyikébe vannak besorolva, és minden i kategóriához rögzítsünk egy k i -t. Módosítsuk a Dir( α), α R k, k = i k i Dirichlet-eloszlást úgy, hogy megengedünk α j = 0 paramétert is. Az ilyen eloszlásból választott multinomiális eloszlás megfelelő komponense is 0 lesz. Egy adott i kategóriába tartozó dokumentum esetében olyan Dir( α i )-t használunk, amelyre α i mindenhol 0, kivéve az i kategóriához tartozó témáknál. A modellépítés során tehát m különböző Dirichlet-eloszlást használunk, majd megfelelő számú iteráció után a szavakhoz rendelt témák alapján kiszámítjuk a (2.2) változókat. Ezek segítségével egy teszt-dokumentumra a (2.3) alapján tudunk téma-eloszlást számolni, majd a kategóriák alapján azokon belül aggregálni. 2.1. tézis. Szótár-szűrés és ϑ-simítás perszonalizált PageRank-kel Az osztályozás hatékonyságának növelése érdekében a dokumentumok kis információtartalmú szavait kiszűrtük. Ezt kategóriánként végeztük el, azaz megtartottuk azon szavakat amelyek az adott kategóriában viszonylag gyakoriak, de más kategóriákban viszonylag ritkák (a kategóriák felett vett entrópiájuk nagy). Egy másik fontos megállapítás, hogy amikor az MLDA modellt használjuk egy ismeretlen dokumentumnál, akkor már rendelkezésünkre áll a tanulókorpusz dokumentumainak témaeloszlása. A dokumentumok téma-eloszlásainak átlaga legyen a ϑ eloszlás, ami megmondja, hogy egy adott téma mennyire fontos a tanítókorpusz alapján. Abban az esetben, ha az MLDA modell két különböző kategóriában hasonló rejtett témára tanul rá, veszíthetünk az osztályozás teljesítményéből, ha egy későbbi teszt-dokumentumnál aszimmetrikusan súlyozza ezen témákat. Ezen hatás csökkentésére javasoltunk egy heurisztikát, ami a témák hasonlósága alapján szétosztja a téma-súlyokat egymás között, hasonlóan az egy lépéses perszonalizált PageRank-hez. Rögzítsünk egy m dokumentumot, aminek a 6

modell alapján számolt téma-eloszlása ϑ m. Minden h K témára: ϑ új m,h = c ϑ m,h + j K\h S j ϑ j JSD(ϕ j, ϕ h ) + ɛ ϑ m,j, (3.1) ahol c annak az aránya hogy a téma eredeti súlyából mekkora részt nem osztunk szét, ϑ a dokumentumok téma-eloszlásainak átlaga, ε egy kis konstans a 0-val osztás elkerülésére, ϕ j, ϕ h a megfelelő témák szó-eloszlásai, JSD pedig a Jensen-Shannon divergencia. c = 1 megfelel a simítás-mentes esetnek. S j -t úgy választjuk meg, hogy ϑ m,j hozzájárulása a többi témához h K\j S j ϑ j JSD(ϕ j, ϕ h ) + ɛ ϑ m,j = (1 c)ϑ m,j (3.2) legyen, biztosítva, hogy ϑ új m,j ismét egy eloszlás. A simítás következménye, hogy ha két téma nagyon hasonló szó-eloszlású (JSD 0), akkor ezen témákhoz tartozó súlyok kiegyenlítődnek, csökkentve ezzel a lehetséges osztályozási hibát. 2.2. tézis. Kísérleti eredmények Itt is az 1.1-es tézisben ismeretett ODP webkönyvtárt használtuk. Az MLDA osztályozási teljesítményét összehasonlítottuk néhány a gyakorlatban jól bevált osztályozóval (SVM, C4.5, BayesNet). Teszteltük a szótárszűrés és a ϑ-simítás hatásait, valamint az egyes kategóriákhoz rendelhető rejtett témák számától való függést. Utóbbinál két lehetőséget próbáltunk, az adott kategória alkategóriáinak számát, illetve az al-alkategóriák számát. Eredményeink a következők: Az MLDA modell közvetlen osztályozóként használható, mivel a korpusz eredeti kategóriái felett vett eloszlással reprezentálja a dokumentumokat. Ezen eloszlás komponensei megadják, hogy az adott dokumentum mennyire tartozik az adott kategóriához. Az MLDA modell kategóriánként párhuzamosan futtatható, így kisebb futási idővel rendelkezik. Az MLDA, mint közvetlen osztályozó AUC-ban mérve 15%-kal jobban teljesített, mint egy tf idf-alapú SVM. 2%-os javulást mértünk AUC-ban, ha téma számnak az adott kategória al-kategóriáinak számát adtuk meg. 10%-os javulást értünk el a heurisztika-nélküli MLDA modellhez képest szótár-szűréssel és alkalmasan választott paraméterű ϑ-simítással. 7

3. téziscsoport: Link-alapú LDA [C1] Ebben a tézisben bemutatunk egy link-alapú LDA modellt, amely egy dokumentum téma-eloszlásának meghatározásakor figyelembe veszi a hivatkozott dokumentumokat is. A modell alapvetően arra a gyakorlati tényre épít, hogy a hivatkozott dokumentum témái hatással vannak a hivatkozó dokumentumra. Bemutatjuk ennek a modellnek az alkalmazási lehetőségét weboldalak osztályozására. A modell a linkekhez explicit súlyokat is rendel, amelyeket stacked graphical learning-nél [4] alkalmaztunk. 3.1. tézis. A link-alapú LDA model Az alapötlet az, hogy egy adott dokumentum adott szó-pozíciójának témáját két lépésben választjuk: először választunk egy dokumentumot a ki-szomszédok közül (önmagát is idesorolva), majd ezen ki-szomszéd téma-eloszlásából választunk egy témát. Végül a témához tartozó szó-eloszlásból választunk egy szót. A generatív folyamatot a 2. ábrán látható Bayesháló szemlélteti. 2. ábra. A link-alapú LDA Bayes-hálója A dokumentumokat és azok linkjeit egy irányított gráffal reprezentáljuk, ahol a csúcsok a do- 8

kumentumok és az élek a linkek. Az LDA-nál ismertetett ϑ m és ϕ k eloszlások mellett szükség van egy χ m eloszlásra, amit az adott m dokumentum ki-szomszédai (S m halmaz) felett értelmezünk. A χ m eloszlást Dir( γ m )-ből választunk, ahol γ m a megfelelő Dirichlet-eloszlás hiperparamétere. Mivel a dokumentumok ki-szomszédainak száma változó mennyiség, ezért az utóbbi Dirichlet-eloszlásokból dokumentumonként egyet használunk. A link-alapú LDA modellhez módosítani kell a Gibbs-mintavételezést, hogy figyelembe vegye a linkeket is. A cél tehát egy p( r, z w) eloszlás becslése, ahol r D N, z T N, w V N, és N = M i=1 N i a dokumentumok összes pozícióját jelöli. Ehhez szükségünk lesz a marginális eloszlásokra, ami a következő alakban írható fel: p(z m,n = k, r m,n = l z (m,n), r (m,n), w) + α k K (N lz + α z ) 1 z=1 N (m,n) lk S m r=1 + γ l (N mr + γ r ) 1 N (m,n) ml + β t, (3.3) V (N kv + β v ) 1 v=1 N (m,n) kt ahol N ml megadja az l S m dokumentum által generált szavak számát, hasonlóan N lk megadja, hogy a k téma az l dokumentumban hányszor szerepel, végül N kt megadja hogy a t szó a k témában hányszor szerepel. Hasonlóan az LDA-hoz itt is bizonyos számú iteráció után megállunk, és a z minta alapján kiszámítjuk ϕ k -t és ϑ m -et (2.2) szerint, és χ m -et a következőképp: χ ml = N ml + γ ml. (3.4) (N mr + γ mr ) S m r=1 3.2. tézis. Kísérleti eredmények A modell igazolásához erős link-struktúrával rendelkező korpuszra volt szükség, amely feltételnek eleget tesz a WEBSPAM-2007 korpusz, ami a.uk domén 12,5 millió oldalból álló részhalmaza. Az egyes oldalakat hosztok szintjén aggregáltuk, majd a hosztokat az ODP alapján besoroltuk az egyes főkategóriákba. Eredményeink a következők: Kísérletileg igazoltuk a modell log-likelihood-jának konvergenciáját. Kísérletileg igazoltuk a korrelációt a modell log-likelihood és az AUC mérték között. Összehasonlítottuk a link-alapú LDA modell osztályozási teljesítményét a hagyományos LDA modellel, előbbi 4%-kal jobban teljesített AUC-ban mérve. 9

Összehasonlítottuk a link-alapú LDA modellt a link-plsa-lda modellel [5], ami szintén egy LDA-n alapuló linkeket is figyelembe vevő modell. Itt a modelleket a linkekhez rendelt súlyok alapján mértük össze a stacked graphical learning osztályozási módszerrel [4]. A mi modellünk 3%-kal teljesített jobban AUC-ban mérve. 4. téziscsoport: Gyorsított Gibbs-mintavételezés Ebben a tézisben bemutatjuk a Gibbs-mintavételezés gyorsításával kapcsolatos eredményeinket. Mivel az LDA modell gyakorlati alkalmazása során szükség van egy mintavételező eljárásra, a Gibbsmintavételezés gyorsítása teszi lehetővé az LDA modell alkalmazhatóságát nagyságrendekkel nagyobb korpuszokra is. A Gibbs-mintavételezés elemi lépése a következő: az m dokumentum n-edik szavához a (2.1) szerinti feltételes eloszlást kiszámítjuk, majd az eloszlás alapján választunk egy témát, amire lecseréljük a szóhoz tartozó régi témát. Az alap észrevételünk az, hogy mivel a fenti lépés nem függ a szavak sorrendjétől, ezért az azonos szavak többszöri előfordulásait csoportosíthatjuk, és a fenti műveletet csoportonként is elvégezhetjük. 4.1. tézis. Aggregált Gibbs-mintavételezés Ebben az esetben a (2.1) szerinti F feltételes eloszlást a dokumentum adott szavának első előfordulásánál kiszámítjuk, majd a dokumentum összes pozíciójára, ahol ez a szó szerepel, választunk egy témát F -ből, anélkül hogy pozíciónként újra kiszámolnánk. Ebben az esetben F -et annyiszor számítjuk ki, ahány különböző szó van a dokumentumban, ami átlagos esetben sokkal kevesebb lehet mint a dokumentum összes szavának száma. Azon szavaknál, ahol a gyakoriság meghaladja a témák számát, a tárigényt is csökkenthetünk, ha az adott szó előfordulásaihoz tartozó témákat egy K méretű számláló-vektorban tároljuk. 4.2. tézis. Limit Gibbs-mintavételezés Ez a mintavételezés arra a feltételezésre épít, hogy az LDA modellben egy dokumentum témája nem változik, ha minden szavának gyakoriságát egy konstanssal megszorozzuk. Ezért itt egy adott szó összes előfordulásához magát az F -et rendeljük hozzá, anélkül hogy választanánk belőle. Természetesen ehhez módosítani kell a számlálók értelmezését a valós típusú gyakoriságok miatt. 4.3. tézis. Ritka Gibbs-mintavételezés Az l paraméterű ritka Gibbs-mintavételezés a limit Gibbs-mintavételezés egy speciális változata, ahol a ritka szavakat figyelmen kívül hagyjuk a következő módon: minden m dokumentumnál d m /l-szer veszünk visszatevéssel mintát, egy a dokumentum különböző szavai felett 10

vett multinomiális eloszlásból, ahol d m a dokumentum szavainak száma. Az eloszlás értékei az egyes szavak dokumentumon belüli relatív gyakoriságai, így a gyakori szavak nagyobb, a ritkább szavak kisebb esélyel kerülnek be a mintába. Végül ezen szavakra elvégzünk egy limit Gibbs-mintavételezést. l = 1-re hasonló eredményt várunk mint a limitnél, viszont nagyobb értékekre körülbelül l-szer kisebb futási időt kapunk a modell pontosságának tolerálható romlása mellett. 4.3. tézis. Eredmények Igazoltuk, hogy a fenti heurisztikák helyesek, azaz mindegyiknek a p( z w) eloszlás az egyértelmű stacionárius eloszlása. Összehasonlítottuk a heurisztikák futási idejét a hagyományos Gibbs-mintavételezéssel és egy más elven működő state of the art gyors Gibbs-mintavételezéssel [6]. Utóbbinál 10-11 szeres gyorsítást értünk el mindössze 1%-os AUC csökkenés mellett. Kísérletileg igazoltuk a különböző mintavételezők modell log-likelihood-jának konvergenciáját illetve az erős korrelációt a modell log-likelihood és az AUC között. 5. téziscsoport: Web spam szűrés Ebben a tézisben beszámolunk a Web Spam Challenge 2008 versenyen elért eredményeinkről. A Web Spam Challenge adatbányász verseny célja adott weboldalak osztályozása spam és normál kategóriákba. Tanulóadatként a címkék egy része ismert. Ehhez rendelkezésre állt a WEBSPAM-UK2007 webkorpusz, amelyet már a 3.2 tézisnél bemutattunk. A szervezők alap szöveg és link-alapú osztályozó jellemzőket is rendelkezésre bocsátottak, hogy mérni lehessen a saját modellek relatív teljesítményét. Kísérleteket végeztünk az MLDA és a link-alapú LDA modelljeinkkel önmagukban is és a megadott jellemzőkkel kombinálva is. 5.1. tézis. Kísérleti eredmények az MLDA modellel Hasonlóan a 3. tézisben ismeretett felépítéshez, két LDA modellt építettünk, egyet a spam oldalakra, egyet a normál oldalakra, majd vettük ezen modellek unióját. Az aggregált modell alapján előállítottuk a címkézetlen dokumentumok téma-eloszlásait, végül a spam témákhoz tartozó értékek összegét használtuk az adott oldal spamségének megállapítására. Az MLDA által adott osztályozást és az alap jellemzőkön adott osztályozást logisztikus regresszió segítségével kombináltuk, így 11% javulást értünk el AUC-ban mérve az alap jellemzőkre épített SVM osztályozóhoz viszonyítva. Modellünk a 4. helyen végzett. 11

5.2. tézis. Kísérleti eredmények a link-alapú modellel Egyszerűen előállítottuk a dokumentumok téma-eloszlásait a link-alapú LDA modell segítségével, majd egy standard osztályozóval (BayesNet, SVM, C4.5) elvégeztük az osztályozást. Az osztályozás eredményét egy random forest osztályozó segítségével kombináltuk az alap szöveg és link jellemzőkon számolt osztályozásokkal. Ezeket a kísérleteket 1 évvel a 2008-as verseny után végeztük, legjobb eredményünk AUC = 0.854, míg a tavalyi győztes eredménye AUC = 0.848 volt, tehát ez a módszer tavaly nyertes lett volna. Hivatkozások [1] D. Blei, A. Ng, and M. Jordan. Latent Dirichlet allocation. Journal of Machine Learning Research, 3(5):993 1022, 2003. [2] S. C. Deerwester, S. T. Dumais, T. K. Landauer, G. W. Furnas, and R. A. Harshman. Indexing by latent semantic analysis. Journal of the American Society of Information Science, 41(6):391 407, 1990. [3] T. Griffiths. Finding scientific topics. Proceedings of the National Academy of Sciences, 101:5228 5235, 2004. [4] Z. Kou. Stacked graphical learning. PhD thesis, School of Computer Science, Carnegie Mellon University, December 2007. [5] R. Nallapati and W. Cohen. Link-plsa-lda: A new unsupervised model for topics and influence in blogs. In International Conference for Weblogs and Social Media, 2008. [6] I. Porteous, D. Newman, A. Ihler, A. Asuncion, P. Smyth, and M. Welling. Fast Collapsed Gibbs Sampling for Latent Dirichlet Allocation. In Proceedings of the 14th ACM SIGKDD international conference on Knowledge discovery and data mining. ACM Press New York, NY, USA, 2008. [7] G. Salton, A. Wong, and A. C. S. Yang. A vector space model for automatic indexing. Communications of the ACM, 18:229 237, 1975. [8] D. Tikk, editor. Szövegbányászat. TypoTEX, Budapest, 2007. 294 pages. 12

Publikációk Külföldi/Hazai idegen nyelvű folyóiratcikkek [J1] A. A. Benczúr, I. Bíró, M. Brendel, K. Csalogány, B. Daróczy, and D. Siklósi. Multimodal Retrieval by Text-segment Biclustering. ADVANCES IN MULTILINGUAL AND MULTIMODAL IN- FORMATION RETRIEVAL. 8th Workshop of the Cross-Language Evaluation Forum, CLEF 2007, Budapest, Hungary, September 19-21, 2007, Revised Selected Papers. Series: Lecture Notes in Computer Science, Vol. 5152. [J2] P. Schönhofen, I. Bíró, A. A. Benczúr, and K. Csalogány. Cross-language Retrieval with Wikipedia. ADVANCES IN MULTILINGUAL AND MULTIMODAL INFORMATION RETRIEVAL. 8th Workshop of the Cross-Language Evaluation Forum, CLEF 2007, Budapest, Hungary, September 19-21, 2007, Revised Selected Papers. Series: Lecture Notes in Computer Science, Vol. 5152. [J3] Z. Szamonek and I. Bíró. Similarity Based Smoothing in Language Modeling. Acta Cybernetica, 18(2):303 314, 2007. Nemzetközi konferencia-kiadványban megjelent cikkek [C1] I. Bíró, J. Szabó, and A. A. Benczúr. Large Scale Link Based Latent Dirichlet Allocation for Web Document Classification. Submitted. [C2] I. Bíró and J. Szabó. Latent Dirichlet Allocation for Automatic Document Categorization. In Proceedings of the 19th European Conference on Machine Learning and 12th Principles of Knowledge Discovery in Databases, 2009. [C3] I. Bíró, A. A. Benczúr, J. Szabó, and D. Siklósi. Linked Latent Dirichlet Allocation in Web Spam Filtering. In Proceedings of the 5th international workshop on Adversarial information retrieval on the web, 2009. [C4] I. Bíró, J. Szabó, A. A. Benczúr, and A. G. Maguitman. A Comparative Analysis of Latent Variable Models for Web Page Classification. LA-WEB, pages 23 28. IEEE Computer Society, 2008. [C5] I. Bíró, J. Szabó, and A. A. Benczúr. Latent Dirichlet Allocation in Web Spam Filtering. In Proceedings of the 4rd international workshop on Adversarial information retrieval on the web, 2008. 13

[C6] D. Siklósi, A. A. Benczúr, Z. Fekete, M. Kurucz, I. Bíró, A. Pereszlényi, S. Rácz, A. Szabó, and J. Szabó. Web Spam Hunting @ Budapest. In Proceedings of the 4rd international workshop on Adversarial information retrieval on the web, 2008. [C7] A. Benczúr, D. Siklósi, J. Szabó, I. Bíró, Z. Fekete, M. Kurucz, A. Pereszlényi, S. Rácz, and A. Szabó. Web Spam: A Survey with Vision for The Archivist. In 8th international web archiving workshop., 2008. [C8] I. Bíró, C. Szepesvári, and Z. Szamonek. Sequence Prediction Exploiting Similarity Information. IJCAI 2007: Proceedings of the 20th International Joint Conference on Artificial Intelligence and Hyderabad and India, pages 1576 1581, 2007. [C9] P. Schönhofen, I. Bíró, A. A. Benczúr, and K. Csalogány. Performing Cross Language Retrieval with Wikipedia. In Working Notes for the CLEF 2007 Workshop, 2007. [C10] A. A. Benczúr, I. Bíró, M. Brendel, K. Csalogány, B. Daróczy, and D. Siklósi. Cross-modal Retrieval by Text and Image Feature Biclustering. In Working Notes for the CLEF 2007 Workshop, 2007. [C11] A. A. Benczúr, I. Bíró, K. Csalogány, and T. Sarlós. Web Spam Detection via Commercial Intent Analysis. In AIRWeb 07: Proceedings of the 3rd international workshop on Adversarial information retrieval on the web, pages 89 92, 2007. [C12] E. P. Windhager, L. Tansini, I. Bíró, and D. Dubhashi. Iterative Algorithms for Collaborative Filtering with Mixture Models. In In proceedings of International Workshop on Intelligent Information Access (IIIA), 2006. [C13] A. A. Benczúr, I. Bíró, K. Csalogány, B. Rácz, T. Sarlós, and M. Uher. Pagerank és azon túl: Hiperhivatkozások szerepe a keresésben (pagerank and beyond: The role of hyperlinks in search and in hungarian). Magyar Tudomány, (11):1325 1331, November 2006. Nemzetközi/Hazai konferencia-kiadványban megjelent poszterek [P1] A. A. Benczúr, I. Bíró, K. Csalogány, and M. Uher. Detecting Nepotistic links by Language Model Disagreement. WWW 06: Proceedings of the 15th international conference on World Wide Web, pages 939 940, 2006. [P2] I. Bíró, Z. Szamonek, and C. Szepesvári. Simítás hasonlósági információ felhasználásával. In In Proceedings of Association for Hungarian Computational Linguistics, 2006. 14