Intelligens orvosi műszerek VIMIA023

Hasonló dokumentumok
Mesterséges Intelligencia MI

Gépi tanulás. Egyszerű döntés tanulása (döntési fák) (Részben Dobrowiecki Tadeusz fóliáinak átdolgozásával) Pataki Béla (Bolgár Bence)

Mesterséges Intelligencia MI

Mesterséges Intelligencia MI

Mesterséges Intelligencia MI

Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)

[1000 ; 0] 7 [1000 ; 3000]

2. A példahalmazban n = 3 negatív és p = 3 pozitív példa van, azaz a példahalmazt képviselő döntési fa információtartalma: I = I(1/2, 1/2) = 1 bit.

Gépi tanulás Gregorics Tibor Mesterséges intelligencia

1. gyakorlat. Mesterséges Intelligencia 2.

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Új típusú döntési fa építés és annak alkalmazása többtényezős döntés területén

Intelligens orvosi műszerek VIMIA023

Mesterséges Intelligencia I. (I602, IB602)

Gépi tanulás. Féligellenőrzött tanulás. Pataki Béla (Bolgár Bence)

Mesterséges Intelligencia MI

VIII. INDUKTÍV TANULÁS

TANULÁS. I. Logikai formulák tanulása. Tanulási módok. Miért m ködik jól az induktív tanulás? Induktív tanulás

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

Programozási módszertan. A gépi tanulás alapmódszerei

Intelligens orvosi műszerek (VIMIA023) Gyakorló feladatok, megoldással (2016 ősz)

Döntési fák. (Klasszifikációs és regressziós fák: (Classification And Regression Trees: CART ))

Bizonytalanságok melletti következtetés

Random Forests - Véletlen erdők

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.

Mesterséges intelligencia 3. laborgyakorlat

Algoritmusok Tervezése. 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás

Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban

Neurális hálózatok bemutató

Gépi tanulás a gyakorlatban. Lineáris regresszió

Normális eloszlás tesztje

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Hogyan lesz adatbányából aranybánya?

Gépi tanulás és Mintafelismerés

Modellezés és szimuláció. Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék

Support Vector Machines

Teljesen elosztott adatbányászat pletyka algoritmusokkal. Jelasity Márk Ormándi Róbert, Hegedűs István

R ++ -tree: an efficient spatial access method for highly redundant point data - Martin Šumák, Peter Gurský

Kódverifikáció gépi tanulással

Számítási intelligencia

BEKE ANDRÁS, FONETIKAI OSZTÁLY BESZÉDVIZSGÁLATOK GYAKORLATI ALKALMAZÁSA

Elengedhetetlen a játékokban, mozi produkciós eszközökben Nélküle kvantum hatás lép fel. Az objektumok áthaladnak a többi objektumon

Mesterséges Intelligencia MI

Számítógép és programozás 2

Intelligens Rendszerek Gyakorlata. Neurális hálózatok I.

Mesterséges intelligencia alapú regressziós tesztelés

Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )

Intelligens orvosi műszerek VIMIA023

Véletlenszám generátorok és tesztelésük. Tossenberger Tamás

Önálló labor beszámoló Képek szegmentálása textúra analízis segítségével. MAJF21 Eisenberger András május 22. Konzulens: Dr.

Gépi tanulás a Rapidminer programmal. Stubendek Attila

Asszociációs szabályok

Osztályozás, regresszió. Nagyméretű adathalmazok kezelése Tatai Márton

Gépi tanulás a gyakorlatban. Bevezetés

E x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes)

BAGME11NNF Munkavédelmi mérnökasszisztens Galla Jánosné, 2011.

Tartalomjegyzék. Köszönetnyilvánítás. 1. Az alapok 1

The nontrivial extraction of implicit, previously unknown, and potentially useful information from data.

A félév során előkerülő témakörök

Adatbányászati szemelvények MapReduce környezetben

Döntéselmélet KOCKÁZAT ÉS BIZONYTALANSÁG

Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok

Mesterséges intelligencia, 7. előadás október 13. Készítette: Masa Tibor (KPM V.)

CARE. Biztonságos. otthonok idős embereknek CARE. Biztonságos otthonok idős embereknek Dr. Vajda Ferenc Egyetemi docens

V. Kétszemélyes játékok

társadalomtudományokban

Algoritmuselmélet. Bonyolultságelmélet. Katona Gyula Y.

A szimplex algoritmus

Intelligens orvosi műszerek (VIMIA023) Gyakorló feladatok a vizsgára 2015 Nem pontosan ezek lesznek a vizsgafeladatok, csak jellegükre hasonlók!

Újfajta, automatikus, döntési fa alapú adatbányászati módszer idősorok osztályozására

Számítógép és programozás 2

JAVASLAT A TOP-K ELEMCSERÉK KERESÉSÉRE NAGY ONLINE KÖZÖSSÉGEKBEN

Branch-and-Bound. 1. Az egészértéketű programozás. a korlátozás és szétválasztás módszere Bevezető Definíció. 11.

( 1) i 2 i. megbízhatóságú a levont következtetése? A matematikai statisztika eszközeivel értékelje a kapott eredményeket!

Adatok statisztikai értékelésének főbb lehetőségei

Statisztikai következtetések Nemlineáris regresszió Feladatok Vége

Szoftverminőségbiztosítás

Biostatisztika VIII. Mátyus László. 19 October

Megújuló energia bázisú, kis léptékű energiarendszer

Biomatematika 12. Szent István Egyetem Állatorvos-tudományi Kar. Fodor János

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

4. Fejezet : Az egész számok (integer) ábrázolása

Az egyenes egyenlete: 2 pont. Az összevont alak: 1 pont. Melyik ábrán látható e függvény grafikonjának egy részlete?

Környezet statisztika

Exponenciális kisimítás. Üzleti tervezés statisztikai alapjai

Szeleteljük fel úgy a tulajdonságteret, hogy az egyes szeletekbe lehetőleg egyfajta objektumok kerüljenek, de túl sok szelet se legyen.

törtet, ha a 1. Az egyszerűsített alak: 2 pont

Neurális hálózatok.... a gyakorlatban

Mesterséges Intelligencia MI

Kétszemélyes játékok Gregorics Tibor Mesterséges intelligencia

Költségbecslési módszerek a szerszámgyártásban. Tartalom. CEE-Product Groups. Költségbecslés. A költségbecslés szerepe. Dr.

Miskolci Egyetem Gépészmérnöki és Informatikai Kar Informatikai Intézet Alkalmazott Informatikai Intézeti Tanszék

A PiFast program használata. Nagy Lajos

Adatbányászat: Osztályozás Alapfogalmak, döntési fák, kiértékelés

Segédanyagok. Formális nyelvek a gyakorlatban. Szintaktikai helyesség. Fordítóprogramok. Formális nyelvek, 1. gyakorlat

Függvény határérték összefoglalás

Bizonytalanság. Mesterséges intelligencia április 4.

Mesterséges Intelligencia II. kötelező feladat (3. forduló) - Ajánló rendszer 2.

Átírás:

Intelligens orvosi műszerek VIMIA023 A mintapéldákból tanuló számítógépes program (egyik lehetőség): döntési fák 2018 ősz http://www.mit.bme.hu/oktatas/targyak/vimia023 dr. Pataki Béla pataki@mit.bme.hu (463-)2679

Összefoglalva: hogyan lehet egy számítógépes döntést megvalósítani? (1) Analitikus tervezés: Begyűjteni az analitikus (fizikai, kémiai, biológiai stb. összefüggésekből felépített) modelleket az adott problémára. Megtervezni analitikusan a konkrét mechanizmust, és azt algoritmusként implementálni. (2) Megtervezni a tanulás mechanizmusát, és azt algoritmusként implementálni. Majd alkalmazásával megtanulni a minták alapján a döntés tényleges mechanizmusát, és azt algoritmusként implementálni.

A következőkben olyan módszereket vizsgálunk, amikor minták, mintapéldák alapján akarjuk kialakítani a döntési rendszerünket. Nagyon gyakran a számítógép tanulása azt jelenti, hogy van egy csomó mintapéldánk, és ez hordozza az információt. Nincsenek előre kialakított szabályaink a feladatra, csak a mintáink. Persze ilyenkor is valamilyen struktúrában igyekszünk felhasználni a minták hordozta tudást. Tehát a módszerünk hogyan használjuk fel a mintákat bizonyos mértékben problémafüggetlen. A hétköznapi életben nagyon gyakori a minta alapján való tanulás, a klasszikus számítógépes megoldásokban a humán fejlesztő szabályokat alkotott, és ezeket programozta be.

Sokféle tanítható eszközt kitaláltak: neurális hálók Bayes-hálók kernelgépek döntési fák legközelebbi szomszéd osztályozók stb. stb. A következőkben először a döntési fákkal foglalkozunk működésük az emberi gondolkodás számára jóval jobban áttekinthető, mint pl. a mesterséges neurális hálóké. (white box black box) Vannak regressziós döntési fák is, de mi az osztályozással foglalkozunk.

Példaprobléma (Russel-Norvig: Mesterséges intelligencia c. könyv példája idétlen példa, de jól megérthető ennek alapján a módszer): döntés, hogy egy adott étteremben várjunk-e asztalra. Cél: előállítani a döntés logikai definícióját. A problémát tulajdonságokkal vagy attribútumokkal jellemezzük. 1. Alternatíva: van-e a környéken más megfelelő étterem. (I/N) 2. Bár: van-e az étteremben kényelmes bár, ahol várhatunk. (I/N) 3. Pén/Szom: igaz pénteken- és szombatonként. (I/N) 4. Éhes: éhesek vagyunk-e. (I/N) 5. Kuncsaft: hányan vannak már benn (Senki, Néhány és Tele). 6. Ár: mennyire drága (Olcsó, Közepes, Drága) 7. Eső: esik-e kint (I/N) 8. Foglalás: foglalni kell-e előzetesen az asztalt (I/N) 9. Típus: az étterem típusa (Francia, Olasz, Thai v. Burger) 10. BecsültVár: a pincér által becsült várakozási idő (0-10 perc, 10-30, 30-60, >60 perc) A döntés eredményét a döntési függvény adja meg döntési faként ábrázoljuk.

Az eddigi kiruccanásaink tapasztalata - tanítóminták Pl. Attribútumok Cél Altern Bár Pént Éhes Kuncs Ár Eső Fogl Típus Becs VárniFog --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- X 1 Igen Nem Nem Igen Néhány Drága Nem Igen Francia 0 10 Igen X 2 Igen Nem Nem Igen Tele Olcsó Nem Nem Thai 30 60 Nem X 3 Nem Igen Nem Nem Néhány Olcsó Nem Nem Burger 0 10 Igen X 4 Igen Nem Igen Igen Tele Olcsó Nem Nem Thai 10 30 Igen X 5 Igen Nem Igen Nem Tele Drága Nem Igen Francia >60 Nem X 6 Nem Igen Nem Igen Néhány Közep Igen Igen Olasz 0 10 Igen X 7 Nem Igen Nem Nem Senki Olcsó Igen Nem Burger 0 10 Nem X 8 Nem Nem Nem Igen Néhány Közep Igen Igen Thai 0 10 Igen X 9 Nem Igen Igen Nem Tele Olcsó Igen Nem Burger >60 Nem X 10 Igen Igen Igen Igen Tele Drága Nem Igen Olasz 10 30 Nem X 11 Nem Nem Nem Nem Senki Olcsó Nem Nem Thai 0 10 Nem X 12 Igen Igen Igen Igen Tele Olcsó Nem Nem Burger 30 60 Igen Mi a viselkedésünk jellemző mintája? Van-e egyáltalán egy konzisztens - minden tanítópéldának megfelelő viselkedési mintánk? (9216 lehetséges példa van, 12 alapján tanulunk)

Döntési fák tanulása döntési fa = egy logikai függvény bemenete: egy tulajdonsághalmazzal leírt objektum vagy szituáció kimenete: egy igen/nem döntés/cselekvés" belső csomópont = valamelyik tulajdonság tesztje él = a teszt lehetséges értéke levél = logikai érték, amelyet akkor kell kiadni, ha ezt a levelet elértük. Nem

Egy konkrét eset: Kuncsaft = Tele, és Éhes, és Étterem = Olasz Nem Tehát a döntési fa válasza erre az esetre: nem fog várni az illető arra, felszabaduljon asztal. (Ez volt az egyik tanítómintánk egy a tizenkettőből.)

Döntési fák kialakítása példák alapján példa: (attribútumok értékei, célváltozó értéke) példa besorolása: a célváltozó értéke pozitív/negatív példa: a célváltozó értéke igaz / hamis tanító halmaz: a teljes példahalmaz

triviális fa, könnyen előállítható mindegyik példához egy önálló bejárási út tartozik a levél a példa besorolását adja a fa egyszerűen memorizálja a példát, nem alakít ki jellegzetes mintákat a példákból nem általánosít (nem tud ismeretlen példákra választ adni) igazi fa - a jellegzetes minták kinyerése, a módszer képes nagyszámú esetet tömör formában leírni, és így az egyelőre ismeretlen példákra is általánosítani

A döntési fa építése általános jelenségek Van néhány pozitív és néhány negatív példánk. Heurisztika: válasszuk azt az attribútumot, amelyik a legjobban szétválasztja őket. Ha az összes megmaradt eset pozitív, (vagy az összes negatív), akkor készen vagyunk azzal az ággal: a válasz Igen vagy Nem.

Döntési fák kialakítása példák alapján A legkisebb döntési fa megtalálása - általánosságban nem megoldható! Heurisztika: mohóság - egy meglehetősen egyszerű (jó) fa is jó lesz, nem fogunk a tökéletes fa megtalálásával nagyon sok időt tölteni! (Sokszor kompromisszumot kell kössünk az eredmény jósága, és a jó megoldás megtalálásra fordított energia közt.) Az alapötlet: először a legfontosabb attribútumot teszteljük. legfontosabb" = a legnagyobb eltérést okozza példák besorolásában Elvárás: kisszámú teszt alapján korrekt besoroláshoz jutunk: a bejárási utak rövidek lesznek, és így az egész fa kicsi (tömör) lesz.

A Kuncsaft attribútum nem tökéletes, de elég jó. Ha a Kuncsaft tesztelése után döntünk, várhatóan legfeljebb 2-t hibázunk a 12 példából. A Típus attribútum ehhez képest? (vacak ) Ha a Típus tesztelése után döntünk, várhatóan 6-ot hibázunk a 12 példából. Éppúgy, mint a teszt előtt! Egy nagymértékben haszontalan attribútum, mint pl. a Típus olyan példahalmazokat hoz létre, amelyek nagyjából ugyanolyan arányban tartalmaznak pozitív és negatív példákat, mint az eredeti halmaz.

Elég jó?" Nagymértékben haszontalan?" A mérték legyen maximális: a tökéletes attribútumra, minimális: olyan attribútumra, aminek egyáltalán nincs értéke számunkra. Egy megfelelő mérték: az attribútum által adott információ várható értéke, információ átlagos tartalma, entrópia, Ha a lehetséges v k válaszok valószínűsége P(v k ), akkor az adott kiinduló halmaz esetén a jó döntéshez szükséges információszükséglet: I( P( ), P( ),..., P( )) P( ) log P( ) 1 2 k j 2 j j 1 k v P(v 1 ) P(v n ) v 1 v k v n

pl. Fogadunk 1000 Ft-ba egy szabályos pénzérme dobása esetén, hogy fej jön ki. Mennyit ér nekünk az infó, ha valaki elárulja, hogy melyik fog kijönni? Mennyi infóra van szükségünk? Mennyit ér az infó, ha tudjuk, hogy az érme aszimmetrikus, és 80%-ban fej jön ki? Mennyit ér nekünk az infó, ha az érme mindkét oldalán fej van, tehát 100%-ban ez jön ki? 1 0.9 I(p1,1-p1) 0.8 I(p1,1-p1) 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 p1

A döntési fa információtartalma - a tanítóhalmazban található pozitív és negatív példák aránya alapján A tanítóhalmaz p pozitív és n negatív példát tartalmaz. A két válasz: v 1 (pozitív), v 2 (negatív), és a valószínűségük becslése: p n P 1, P 2 p n p n Ekkor a fa információtartalmának becslése: p n p p n n I( P( 1), P( 2)) I, log2 log2 p n p n p n p n p n p n Hogyan válasszuk ki, hogy melyik attribútumot teszteljük? Mennyi új információt ad nekünk egy attribútum tesztelése? Mennyi információra volt szükségünk az attribútum tesztelése előtt, és mennyire van még szükségünk az attribútum tesztelése után? A kettő különbségét nyertük meg a teszttel!

Bármelyik A attribútum az E tanító halmazt E 1,E 2,,E N részhalmazokra bontja az A tesztjére adott válaszoknak megfelelően, ha A tesztje N különböző választ ad. A p, n Nyereség(A) é 1 é k é N I(teljes fa) I(részfa k ) Maradék(A) = k súly(részfa k ) I(részfa k ) p 1, n 1 p k, n k p N, n N # példa(részfa k ) súly(részfa k ) = ----------------- # példa(fa)

Nézzük meg a Kuncsaft és a Típus attribútumokat 2 4 6 2 4 Nyereség ( Kuncsaft ) 1 I(0,1) I(0,1) I(, ) 0,54 bit 12 12 12 4 4 2 1 1 2 1 1 4 2 2 4 2 2 Nyereség ( Típus) 1 I(, ) I(, ) I(, ) I(, ) 0 bit 12 2 2 12 2 2 12 4 4 12 4 4 Több attribútumra is kellene a számítás, de a Kuncsaft kimagaslóan jó.

(Kuncsaft = Tele) ágon még fennmaradó példák Példa Attribútumok Cél Altern Bár Pént Éhes Ár Eső Fogl Típus Becs VárniFog X 2 Igen Nem Nem Igen Olcsó Nem Nem Thai 30 60 Nem X 5 Igen Nem Igen Nem Drága Nem Igen Francia >60 Nem X 9 Nem Igen Igen Nem Olcsó Igen Nem Burger >60 Nem X 10 Igen Igen Igen Igen Drága Nem Igen Olasz 10 30 Nem X 4 Igen Nem Igen Igen Olcsó Nem Nem Thai 10 30 Igen X 12 Igen Igen Igen Igen Olcsó Nem Nem Burger 30 60 Igen Részfában: p 1 = 2, n 1 = 4, p 1 /(p 1 +n 1 ) = 1/3, n 1 /(p 1 +n 1 ) = 2/3

(Kuncsaft = Tele) ág I = I(részfa) = I(2/6, 4/6) = 0,9183 (2 pozitív és 4 negatív példa) Ha pl. Alternatíva-t teszteljük, akkor a nyereség: Ny(Altern) = I [5/6 I(2/5, 3/5) + 1/6 I(0, 1)] Altern = Igen Altern = Nem p2 = 2, p3 = 0 n2 = 3 n3 = 1 6 példa Ny(Altern) = I [5/6 I(2/5, 3/5) + 1/6 I(0, 1)] 0,92 0,81 = 0,11

(Kuncsaft = Tele) ág Ny(Altern) = I [5/6 I(2/5, 3/5) + 1/6 I(0,1)] 0,92 0,81 = 0,11 Ny(Bár) = I [1/2 I(1/3, 2/3) + 1/2 I(1/3, 2/3)] = 0,92 0,92 = 0 Ny(Péntek) = I [5/6 I(2/5, 3/5) + 1/6 I(0,1)] 0,92 0,81 = 0,11 Ny(Éhes) = I [4/6 I(1/2, 1/2) + 2/6 I(0,1)] 0,92 0,66 =0,25 Válasszuk pl. ezt! Ny(Ár) = I [4/6 I(1/2, 1/2) + 2/6 I(0,1)] 0,92 0,66 = 0,25 Ny(Eső) = I [5/6 I(2/5, 3/5) + 1/6 I(0,1)] 0,92 0,81 = 0,11 Ny(Foglalt) = I [2/6 I(0,1) + 4/6 I(1/2,1/2)] 0,92 0,66 = 0,25 Ny(Típus) = I [2/6 I(1/2, 1/2) + 1/6 I(0,1) + 2/6 I(1/2, 1/2) + 1/6 I(0,1)] 0,92 0,66 = 0,25 Ny(Becs) = I [2/6 I(1/2, 1/2) + 2/6 I(0,1) + 2/6 I(1/2, 1/2)] 0,92 0,66 = 0,25

(Kuncsaft = Tele) ÉS Teszt(Éhes?)

(Kuncsaft = Tele) ÉS (Éhes?=Igen) ágon még fennmaradó példák Példa Attribútumok Cél Alt Bár Pént Ár Eső Fogl Típus Becs VárniFog X 2 Igen Nem Nem Olcsó Nem Nem Thai 30 60 Nem X 10 Igen Igen Igen Drága Nem Igen Olasz 10 30 Nem X 4 Igen Nem Igen Olcsó Nem Nem Thai 10 30 Igen X 12 Igen Igen Igen Olcsó Nem Nem Burger 30 60 Igen Részfában: p 1 = 2, n 1 = 2, p 1 /(p 1 +n 1 ) = 1/2, n 1 /(p 1 +n 1 ) = 1/2 Információszükséglet a következő teszt előtt ezen az ágon: 1 bit!

Különböző attribútumok nyeresége a (Kuncsaft = Tele) ÉS (Éhes?=Igen) Ny(Alt) = I [1/1 I(1/2, 1/2) + 0] = 1-1 = 0 Ny(Bár) = I [1/2 I(1/2, 1/2) + 1/2 I(1/2, 1/2)] = 1-1 = 0 Ny(Pént/Szo) = I [1/4 I(0,1) + 3/4 I(1/3,2/3)] 1 0,92 = 0,08 Ny(Ár) = I [1/4 I(0,1) + 3/4 I(1/3,2/3)] 1 0,92 = 0,08 Ny(Eső) = I [1/1 I(1/2, 1/2) + 0] = 1-1 = 0 Ny(Foglalt) = I [1/4 I(0,1) + 3/4 I(1/3,2/3)] 1 0,92 = 0,08 Ny(Típus) = I [1/4 I(0,1) + 1/4 I(0,1) + 1/2 I(1/2, 1/2)] = 0,5 Válasszuk pl. ezt! Ny(Becs) = I [1/2 I(1/2, 1/2) + 1/2 I(1/2, 1/2)] = 1-1 = 0

(Kuncsaft = Tele) ÉS (Éhes?=Igen) ÉS (Típus = Thai) ágon még fennmaradó példák Példa Attribútumok Cél Alt Bár Pént/Szo Ár Eső Fogl Becs VárniFog X 2 Igen Nem Nem Olcsó Nem Nem 30 60 Nem X 4 Igen Nem Igen Olcsó Nem Nem 10 30 Igen Részfában: p 1 = 1, n 1 = 1, p 1 /(p 1 +n 1 ) = 1/2, n 1 /(p 1 +n 1 ) = 1/2 A Pént/Szomb és a Becs jó, a többi nem jó jellemző. Hiszen esetükben a teszt után ugyanúgy ½ - ½ lesz a pozitív és negatív példák aránya. (Pl. a Bár = Nem vagy Eső = Nem vagy Ár = Olcsó stb. mentén (azaz ezekbe az irányokba nem érdemes építeni a fát).

A kialakított döntési fa Nem Ha pl. a Pént/Szomb helyett a Becs attribútumot választjuk ugyanúgy konzisztens a kialakuló fa mindegyik példánkkal, DE máshogy általánosít! (Az ismeretlen új mintákra esetleg más választ ad.)

A mintákat torzító zaj hatása túltanulást okozhat! (a faék dícsérete! ) Population of the U.S. 1900-2000 400 Population of the U.S. 1900-2000 400 Millions 350 300 250 200 350 300 250 harmadfokú polinom közelítés 312.6914 150 100 50 Millions 200 150 400 350 300 250 200 150 100 50 0 1900 1920 1940 1960 1980 2000 2020 data degree = 1 degree = 2 degree = 3 degree = 4 degree = 5 degree = 6 degree = 7 degree = 8 0 1900 1920 1940 1960 1980 2000 2020 100 50 0 1900 1920 1940 1960 1980 2000 2020 Matlab demó: az 1900-2000 közti népszámlálási adatokból becsüljük 2010-es USA népességet. (Regressziós feladat, de a jelenség a döntéseknél hasonló hatást okoz.) A nagyon okos = túl komplex eszköz a zajt is megtanulja, rosszabbul becsül, mint az egyszerűbb!

A döntési határ a zaj miatt bonyolultabbá válhat Ezt csak egy komplex (összetett) eszköz képes megtanulni. DE ha ez csak a zaj miatt ilyen bonyolult, akkor NEM JÓ, ha megtanulja az eszköz. A lényeges infót (egyenes vagy más sima elválasztó határ) csak torzítja.

A döntési fa hibája Mikor álljunk le a döntési fa növesztésével? Alapvetően 2 stratégia: 1. Korai leállás Túltanulás! (Már csak a zajt tanulja) teszthalmazon mérve tanítóhalmazon mérve A döntési fa leveleinek száma (a levelekkel mérhetjük, hogy mekkorára nőtt a fa, mennyire komplex)

Döntési fa nyesése 2. Engedjük túlnőni, majd visszavágjuk, visszanyessük Ismerjük fel, ha nem releváns attribútumot használtunk, és az adott ágat ne fejtsük ki tovább, sőt messük le a kialakított részfát. Irreleváns attribútum: példahalmaz kettévágásánál a kapott részhalmazok kb. azonos arányban tartalmaznak pozitív és negatív példát, mint az eredeti halmaz. Az információ nyereség ilyenkor közel 0. Az információ nyereség hiánya az irrelevancia jó jelzése. Milyen nagy legyen az információ nyereség, hogy egy attribútumot mégis felhasználjunk a példahalmaz megosztására?

Döntési fa nyesése: Hibaarány komplexitás kompromisszumon alapuló metszés Egy kétosztályos (bináris) osztályozási példa kapcsán (Baloldali szám a C1 osztályba tartozó minták száma, jobboldali a C2-be tartozó minták száma) [3000,9000] 1 2 [500,4000] 8 [2500,500] 14 [0,4500] 3 [400,100] 4 9 [100,3900] [1145,120] 10 [1355,380] 5 [80, 20] 6 [0,580] 7 [20,3300] 11 [5,100] 12 [1350, 80] 13 [0, 200] Komplexitás legyen a levelek száma (lehetne más is), a példánkban: a gyökérnél 1, a kifejtett fánál 9 Hibaarány (használhatnánk az információszükségletet is): a gyökérnél 3000/12000=0,25 (hiszen a jobb válaszunk C2 lenne), a kifejtett fánál: (100+20+0+20+120+5+80+0+0)/12000=0,029

Hibaarány komplexitás kompromisszumon alapuló metszés Számozzuk a csomópontokat, jelölés: - az n-dik csomópontot önmagában (mintha levél lenne) jelölje n - az n-edik csomópontból kiinduló részfa Tn - R(n), R(Tn) hibaarány - T(n), T(Tn) komplexitás n [3000,5000] R(n)=3000/8000 T(n) =1 m [1000,4000] p [2000,1000] d [990,10] k [10,3990] t [650,15] r [1350,985] g [5,990] [5,3000] f R(Tn)=(10+5+5+15+985)/8000 T(Tn) =5 Hogyan hasonlítsuk össze a komplexitást a hibával?!?

Legyen az összetett, eredő költség (pl. az n-dik csomópontra): K ( n) EgységnyiHibaKöltsége R( n) EgységnyiKomplexitásKöltsége T ( n) Legyen a két költség aránya: EgységnyiKomplexitásKöltsége EgységnyiHibaKöltsége Így illetve K ( n) K( n) R( n) T ( n) EgységnyiHibaKöltsége K Tn = R Tn + α T(Tn) K Tn eredő költség K n R n T(n) = 1 R Tn T(Tn) > 1 kritikus

kritikus amikor mindegy, hogy levágjuk-e a részfát, az összetett költség azonos az n-edik csomópontra, mint levélre, és az n-dik csomópontból kiinduló Tn részfára R n + α kritikus T(n) = R Tn + α kritikus T(Tn) α kritikus = R n R(Tn) T(Tn) T(n) = R n R(Tn) T(Tn) 1 1. Ha =0, akkor a komplexitásnak nincs ára, soha nem érdemes visszametszeni 2. 0 < < kritikus, akkor még mindig jobb nem visszametszeni 3. Ha = kritikus, akkor mindegy, hogy visszavágjuk-e 4. Ha kritikus <, akkor érdemes visszavágni, olcsóbb abbahagyni az n-dik levélnél

Gondoljuk végig, hogy mi történik, ha t folyamatosan növeljük 0-tól indulva! amelyik csomópont kritikus értékét először érjük el, ott érdemes leginkább metszeni a fát! (Persze ha a hiba nem nő túl nagyra) 1 kritikus =0,12 2 kritikus =0,088 8 kritikus =0,023 14 3 4 9 kritikus =0,062 10 kritikus =0,049 5 6 7 11 12 13 A számok légből kapottak (csak a példa kedvéért)