Mesterséges Intelligencia MI
|
|
- Gusztáv Fekete
- 8 évvel ezelőtt
- Látták:
Átírás
1 Mesterséges Intelligencia MI Gépi tanulás elemei Dobrowiecki Tadeusz Eredics Péter, és mások BME I.E. 437,
2 Egy intelligens rendszer (gyorsan) tanul. Mit várunk el ettől? autonómia rugalmasság robusztusság kinyújtott (feladatvégző)időtartam (fokozott intelligencia/ racionalitás)
3 Tanuló ágens - cselekvő alrendszer (+) - tanuló alrendszer - kritikus (+) - problémagenerátor Milyen feladatok körében? a rendszerek, folyamatok fizikai, kémiai, stb. modellje bonyolult vagy nem is ismert A feladatról nagy mennyiségű adat áll rendelkezésre A feladatok többsége emberi intelligenciával nagyon hatékonyan megoldható
4 Tanuló alrendszer tervezése: A cselekvő alrendszer (eddigi ágens) mely részeit kell javítani? (érzékelés? TB? következtetés?...) Milyen tudás reprezentációt használnak ezek az alrendszerek? (tábla? logika? valószínűség?...) Milyen a priori információ áll rendelkezésünkre? Milyen visszacsatolásra van lehetőség? (mi a helyes eredmény?) felügyelt tanulás egy komponensnek mind a bemenetét, mind a kimenetét észlelni tudjuk megerősítéses tanulás az ágens az általa végrehajtott tevékenység csak bizonyos értékelését kapja meg = jutalom, büntetés, megerősítés felügyelet nélküli tanulás semmilyen utalás sem áll rendelkezésünkre a helyes kimenetről (az észlelések közötti összefüggések tanulása)
5 A különböző feladatok közös magja A cselekvő alrendszer minden komponense = egy-egy függvény-kapcsolat (leképezés), l. pl. cst = f(mt, cst-1, TBt ) Minden tanulás felfogható úgy, mint egy függvény (leképezés) valamilyen reprezentációjának a megtanulása. Induktív felügyelt tanulás: tanulási példa: (x, y = f(x)) adatpár, ahol f(x) ismeretlen h(x) = f(x), h(x') f(x'), x egy ismert példán x' a tanulás közben még nem látott esetben (általánosító képesség) Tiszta induktív következtetés (indukció): az f-re vonatkozó minták egy halmaza alapján (tanító halmaz), adjon meg egy olyan h függvényt (hipotézist), amely tulajdonságaiban közelíti az f-et.
6 Elfogultság A példáknak való megfelelésen túl (= konzisztens hipotézisek) előnyben részesítjük az egyik vagy a másik hipotézist. Mivel mindig nagy számú lehetséges hipotézis létezik, az összes tanuló algoritmus mutat valamilyen elfogultságot. Miért?
7 A legfontosabb döntés a tanuló ágens tervezője számára: a kívánt függvény (és a hipotézisek) reprezentációjának a megválasztása (az elfogultsággal együtt, ez a tanuló algoritmus jellegét határozza meg, eldöntheti, hogy a probléma egyáltalán kezelhető-e). Kompromisszum: (cél: legyen tömör és jól általánosító) a kifejezőképesség és a hatékonyság között. Kifejezőképesség: a kívánt függvény jól (egyáltalán) ábrázolható-e. Hatékonyság: a tanulási probléma kezelhető lesz-e egy adott reprezentációs nyelv választás esetén. (tanulási algoritmikus tár-, idő-komplexitása) (tanulás: valamilyen keresés hipotézisek terében)
8 y (x, y) példa Egészséges hipotézis szerint??? Beteg Lengyel László tünetei Németh Géza tünetei Kovács Imre tünetei Kelemen János tünetei Nagy Gábor tünetei Tóth Mihály tünetei Magyar Ödön tünetei h(kovács Imre) = beteg / egészséges? x, pl. láz
9 Hogyan lehet megtanulni egy döntést? megtanulni = azaz eltárolni a leírását (algoritmusát), hogy később ne kelljen újra és újra kiszámítani. (1) a leírás legyen logikai, mert így az ágens TB-ba jól elfér. (2) tanulunk példákból ( függvény tanulás ) a példákat is kell valahogy logikailag kifejezni. (2a) döntési helyzet jellemzése = a világhoz kötött attribútumok. (2b) egy konkrét döntési helyzet = az attribútumok konkrét értékei. (2c) logikai eszköz = ítélet konstansak, predikátumok,... egy konkrét döntési helyzetben egyes attribútumértékek előfordulnak (igazak), mások nem (hamisak) (2d) döntési helyzetek megítélése: jó-e egy döntés - ez is lehet egy ítélet konstans, vagy predikátum. - predikátumok alapján egy predikátum kiszámítása!
10 Példa: döntés, hogy egy adott étteremben várjunk-e asztalra (jegyzet). Cél: megtanulni a VárniFog cél predikátum definícióját A probléma milyen tulajdonsága vagy attribútuma ismert? 1. Alternatíva: van-e a környéken más megfelelő étterem. (I/N) 2. Bár: van-e az étteremben kényelmes bár, ahol várhatunk. (I/N) 3. Pén/Szom: igaz pénteken- és szombatonként. (I/N) 4. Éhes: éhesek vagyunk-e. (I/N) 5. Kuncsaft: hányan vannak már benn (Senki, Néhány és Tele). 6. Ár: mennyire drága (Olcsó, Közepes, Drága) 7. Eső: esik-e kint (I/N) 8. Foglalás: foglalni kell-e előzetesen az asztalt (I/N) 9. Típus: az étterem típusa (Francia, Olasz, Thai v. Burger) 10. BecsültVár: a pincér által bemondott várakozási idő (0-10 perc, 10-30, 30-60, >60 perc)
11 Az eddigi kiruccanásaink tapasztalata Pl. Attribútumok Altern Bár Pént Éhes Kuncs Ár Eső Cél Fogl Típus Becs VárniFog X1 X2 X3 X4 X5 X6 X7 X8 X9 X10 X11 X12 Néhány Drága Francia 0 10 Tele Olcsó Thai Néhány Olcsó Burger 0 10 Tele Olcsó Thai Tele Drága Francia >60 Néhány Közep Olasz 0 10 Senki Olcsó Burger 0 10 Néhány Közep Thai 0 10 Tele Olcsó Burger >60 Tele Drága Olasz Senki Olcsó Thai 0 10 Tele Olcsó Burger Mi benne a viselkedésünk mintája? Van-e egyáltalán egy konzisztens viselkedési mintánk? (9216 lehetséges példa)
12 Döntési fák tanulása döntési fa = egy logikai függvény be: egy tulajdonsághalmazzal leírt objektum vagy szituáció ki: egy igen/nem döntés" belső csomópont = valamelyik tulajdonság tesztje él = a teszt lehetséges értéke levél = logikai érték, amelyet akkor kell kiadni, ha ezt a levelet elértük.
13 Bemenet Kimenet vimia313 Mesterséges intelligencia, Dobrowiecki - Eredics, BME-MIT Legyen egy konkrét eset: Kuncsaft = Tele, és Éhes, és Étterem = Olasz
14 VárniFog (Kuncsaft = Néhány) ((Kuncsaft = Tele) Éhes (Típus = Francia)) ((Kuncsaft = Tele) Éhes (Típus = Thai) P/Sz) ((Kuncsaft = Tele) Éhes (Típus = Burger))
15 Döntési fák kifejezőképessége teljes - minden (ítélet)logikai függvény felírható döntési faként. (az igazságtábla minden sora = a fa egy bejárása, de így az igazságtábla mérete = a fa mérete = exponenciális!) Döntési fák kialakítása példák alapján példa: (attribútumok értékei, cél predikátum értéke) példa besorolása: a cél predikátum értéke pozitív/negatív példa: a cél predikátum értéke igaz / hamis tanító halmaz: a teljes példa halmaz triviális fa, könnyű - mindegyik példához egy önálló bejárási út a levél a példa besorolását adja. fa egyszerűen memorizálja a példát, nem alakít ki jellegzetes mintákat a példákból nem általánosít (nem tud ismeretlen példákra extrapolálni) igazi fa - a jellegzetes minták kinyerése, a módszer képes nagyszámú esetet tömör formában leírni, és így az egyelőre ismeretlen példákra is általánosítani
16 bemagoló, ügyetlen, nem általánosító ugyanabból a példahalmazból ügyes, általánosító
17 A döntési fa általános jelenségek Van néhány pozitív és néhány negatív példánk, válasszuk azt az attribútumot, amelyik a legjobban szétválasztja őket. Ha az összes megmaradt eset pozitív, (vagy az összes negatív), akkor készen vagyunk: a válasz vagy.
18 A döntési fa általános jelenségek Ha nem maradt egyetlen példa sem, ez azt jelenti, hogy ilyen példát nem figyeltünk meg eddig. Ilyenkor valamilyen alapértéket adunk vissza, amelyet a csomópont szülőjének többségi besorolási válaszából származtatunk. (induktív tanulás nem egy deduktív módszer, milyen veszély leselkedik itt ránk?)
19 A döntési fa általános jelenségek maradt teszteletlen attribútum, de maradtak pozitív és negatív példák. Baj van. Ezeknek a példáknak pontosan megegyezik a leírása, de különböző a besorolásuk. Néhány adat tehát nem korrekt: az un. tanulási zaj torzítja az adatokat. Megoldás? Pl. a többségi szavazás használata.
20 Döntési fák kialakítása példák alapján A legkisebb döntési fa megtalálása - általánosságban nem megoldható Heurisztika: mohóság - egy meglehetősen egyszerű (jó) fa is jó lesz! Az alapötlet: először a legfontosabb attribútumot teszteljük. legfontosabb" = a legnagyobb eltérést okozza példák besorolásában Elvárás: kisszámú teszt alapján korrekt besoroláshoz jutunk: a bejárási utak rövidek lesznek, és így az egész fa kicsi (tömör) lesz. Az információelmélet felhasználása Olyan attribútumot válasszunk, amely a lehető legmesszebb megy a pontos besorolás biztosításában. A tökéletes attribútum a példákat két csoportra bontja, az egyikbe csak pozitív, a másikba csak negatív példák tartoznak. Ezzel be is lehetne fejezni a fa tanítását
21 A Kuncsaft attribútum nem tökéletes, de elég jó. Egy nagymértékben haszontalan attribútum, mint pl. a Típus olyan példa halmazokat hoz létre, amelyek nagyjából ugyanolyan arányban tartalmaznak pozitív és negatív példákat, mint az eredeti halmazok.
22 Elég jó?" nagymértékben haszontalan?" A mérték maximuma: a fenti értelemben tökéletes attribútumra minimuma: olyan attribútumra, aminek egyáltalán nincs értéke számunkra. Egy megfelelő mérték: az attribútum által adott információ várható értéke, információ átlagos tartalma, entrópia, Ha a lehetséges vk válaszok valószínűsége P(vk), akkor az adott konkrét válasz információ tartalma: V n I ( P ( 1 ),..., P ( n )) P ( i ) log2 P ( i ) i 1 pl. szabályos pénzérme dobás? P(v1) v1 P(vn) vk vn
23 A döntési fa információ tartalma = a tanító halmazban található pozitív és negatív példák aránya Tanító halmaz p pozitív és n negatív példát tartalmaz: két válasz: v1, v2, valószínűség: P(v1) = p /(p+n), P(v2) = n /(p+n), Ekkor a fa információ tartalmának becslése: p n p p n n I(, ) log2 log2 p n p n p n p n p n p n (Az étterem tanító halmaz: p = n, 1 bit információt képvisel) Hogyan válasszunk attribútumot? Mennyi információt ad egy attribútum tesztelése? Mennyi információra van még szükségünk az attribútum tesztelése után?
24 Bármelyik A attribútum az E tanító halmazt E1,E2,,En részhalmazokra bontja az A tesztjére adott válaszoknak megfelelően, p+n ha A tesztje n különböző választ ad. Nyereség(A) A é1 ék I(teljes fa) I(részfak) p1 + n1 pk + nk én Maradék(A) = k súly(részfak) I(részfak) pn + nn # példa(részfak) súly(részfak) = # példa(fa)
25 Hogyan válasszunk attribútumot? pi ni pi ni Maradék ( A) I(, ) pi ni pi ni i 1 p n bit információra van szükségünk a példa besorolásához. Az attribútum tesztjének információ nyeresége az eredeti információ igény és a teszt utáni új információ igény különbsége: p n Nyereség ( A) I (, ) Maradék ( A) p n p n
26 Nézzük meg a Kuncsaft és a Típus attribútumokat I(0,1) = - 0 * ln 0 1 * ln 1 = - 0 * ln 0 =? ln x ( ) 1/x 0 * ln 0 = lim x = --- lim --- = lim --- = limx 0 x = 0 1/x ( ) -1/x2 I(0,1) =? Nyereség ( Kuncsaft ) 1 [ I (0,1) I (1,0) I (, )] 0,541 bit Nyereség (Típus ) 1 [ I (, ) I (, ) I (, ) I (, )] 0 bit Több attributumra is kellene a számítás, de a Kuncsaft kimagasló
27 (Kuncsaft = Tele) ágon még fennmaradó példák Példa Attribútumok Altern Bár Pént Éhes Ár Eső X2 X5 X9 X10 Olcsó Drága Olcsó Drága X4 X12 Cél Fogl Típus Becs VárniFog >60 > Thai Francia Burger Olasz Olcsó Thai Olcsó Burger Részfában: p1 = 2, n1 = 4, p1/(p1+n1) = 1/3, n1/(p1+n1) = 2/3
28 I = I(részfa) = I(2/6, 4/6) =.9183 Ny(Al) = I [5/6 I(2/5, 3/5) + 1/6 I(0, 1)] Al = Al = p2 = 2, n2 = 3 p3 = 0 n3 = 1 Ny(Al) = I [5/6 I(2/5, 3/5) + 1/6 I(0, 1)] = példa
29 Ny(Al) = I [5/6 I(2/5, 3/5) + 1/6 I(0,1)] = Ny(Bár) = I [1/2 I(1/3, 2/3) + 1/2 I(1/3, 2/3)] = = 0 Ny(Péntek) = I [5/6 I(2/5, 3/5) + 1/6 I(0,1)] = Ny(Éhes) = I [4/6 I(1/2, 1/2) + 2/6 I(0,1)] = Ny(Ár) = I [4/6 I(1/2, 1/2) + 2/6 I(0,1)] = Ny(Eső) = I [5/6 I(2/5, 3/5) + 1/6 I(0,1)] = Ny(Foglalt) = I [2/6 I(0,1) + 4/6 I(1/2,1/2)] = Ny(Típus) = I [2/6 I(1/2, 1/2) + 1/6 I(0,1) + 2/6 I(1/2, 1/2) + 1/6 I(0,1)] = Ny(Becs) = I [2/6 I(1/2, 1/2) + 2/6 I(0,1) + 2/6 I(1/2, 1/2)] =
30
31 (Éhes = ) ágon még fennmaradó példák Példa Attribútumok Alt Bár Pént Ár Eső Cél Fogl Típus X2 X10 Olcsó Thai Drága Olasz X4 X12 Becs VárniFog Olcsó Thai Olcsó Burger Részfában: p1 = 2, n1 = 2, p1/(p1+n1) = 1/2, n1/(p1+n1) = 1/2
32 Ny(Alt) = I [1/1 I(1/2, 1/2) + 0] = Ny(Bár) = I [1/2 I(1/2, 1/2) + 1/2 I(1/2, 1/2)] = 1-1 = 0 Ny(Péntek) = I [1/4 I(0,1) + 3/4 I(1/3,2/3)] = Ny(Ár) = I [1/4 I(0,1) + 3/4 I(1/3,2/3)] = Ny(Eső) = I [1/1 I(1/2, 1/2) + 0] = Ny(Foglalt) = I [1/4 I(0,1) + 3/4 I(1/3,2/3)] = Ny(Típus) = I [1/4 I(0,1) + 1/4 I(0,1) + 1/2 I(1/2, 1/2)] =.5 Ny(Becs) = I [1/2 I(1/2, 1/2) + 1/2 I(1/2, 1/2)] = 1-1 = 0
33 (Típus = Thai) ágon még fennmaradó példák Példa Attribútumok Alt Bár Pént Ár Eső Cél Fogl Becs VárniFog X2 Olcsó X Olcsó A többi nem jellemző Részfában: p1 = 1, n1 = 1, p1/(p1+n1) = 1/2, n1/(p1+n1) = 1/2 És ez u.u. marad pl. a Bár =, vagy Eső =, vagy Ár = Olcsó, stb. mentén (azaz így tovább nem érdemes építeni)
34
35 Optimális : 4 csomópont teszt max. 3 mélység 8 levél csomópont = általánosítás, absztrakció Bambább : 9 csomópont teszt max. 4 mélység 13 levél csomópont majdnem a példák felsorolása látjuk és lehetne ez rosszabb is
36 Zaj és túlzott illeszkedés Rendkívül általános jelenség: az összes tanulási eljárást sújtja Ha alapvető információ hiányzik, a tanuló algoritmus akkor is találhat olyan döntési fát, amely az összes példával konzisztens, bár a példák most nem képviselnek értelmes függvényt. Az algoritmus felhasználhatja az irreleváns attribútumokat is - ha vannak arra, hogy hamis megkülönböztetéseket tegyen a példák közt. Ha a hipotézisek halmaza nagy, akkor mindig vigyázni kell, nehogy értelmetlen szabályosságot" találjunk az adatokban = túlzott illeszkedés. Döntési fa nyesése: ismerjük fel a nem releváns attribútumot Irreleváns attribútum: példahalmaz kettévágásánál a kapott részhalmazok azonos arányban tartalmaznak pozitív és negatív példát, mint az eredeti halmaz. Az információ nyereség ilyenkor közel 0. Az információ nyereség hiánya az irrelevancia jó jelzése. Milyen nagy (nem 0) legyen az információ nyereség, hogy egy attribútumot mégis felhasználjunk a példahalmaz megosztására? Statisztikai teszt: nincs jellegzetes minta = ún. nulla hipotézis. Ha az eltérés nagy (nagyobb, mint 0) nem valószínű, hogy az észlelt minta statisztikai ingadozásból következik lényeges minta van az adatokban.
37 A tanulási algoritmus teljesítménye A tanulási algoritmus akkor jó, ha jó hipotéziseket szolgáltat azon esetekre is, amelyeket nem látott előtte. 1. A példahalmazt bontsuk szét egy tanító és egy teszt halmazra. 2. A tanuló algoritmust a tanító halmazra alkalmazva állítsuk elő a h hipotézist. 3. Vizsgáljuk meg, hogy h a teszt halmaz hány százalékát sorolja be jól. 4. Ismételjük a 2-4 lépéseket különböző tanító halmaz méretekre. Tanulási görbe: a tanító halmaz méretének függ (jó, ha a jóslás minősége javul) 100% Tanulási görbe melyik tanulás jobb és miért? N példaszám
38 Kétértékű függvény = osztályozás = helyes bináris döntés tanulása paciens beteg és mi ezt felismerjük kezeljük, helyesen cselekszünk Igaz Pozitív, True Positive TP, f(x) = I, h(x) = I paciens egészséges és mi ezt felismerjük nem kezeljük, most is jól cselekszünk Igaz Negatív, True Negative TN paciens beteg és mi ezt nem ismerjük fel nem kezeljük, nem járunk el jól Hamis Negatív, False Negative FN, f(x) = I, h(x) = H ( elnézett támadás, 2. tip. hiba) paciens egészséges - és mi ezt nem ismerjük fel kezeljük feleslegesen, most sem jól járunk el Hamis Pozitív, False Positive FP f(x) = H, h(x) = I ( hamis riadó, 1. tip. hiba) De lehet radarkép, szerver betörés, földcsuszamlás veszélye,
39 ROC: Vevő működési karakterisztika Receiver Operating Characteristic true positive rate (TPR) (hit rate, recall, sensitivity) TPR = TP/P = TP / (TP+FN) false positive rate (FPR) (false alarm rate, fall-out) FPR = FP/N = FP / (FP+TN) és sok más... betegek döntés: belül pozitív kívül - negatív egészségesek A.U.C Area Under Curve
40 Teszt példa Altern Bár X13 X14 X15 X16 X17 X18 X19 X20 X13 X14 X15 X16 X17 X18 X19 X20 Attribútumok Pént Éhes Kuncs TP FP FN TP FN TP TN TP Ár Eső Néhány Drága Tele Olcsó Tele Olcsó Tele Olcsó Tele Drága Néhány Közep Senki Olcsó Néhány Közep Fogl Típus TP = 4, TN = 1, FP = 1, FN = 2 TPR = TP / (TP+FN) = 4/6 =.66 FPR = FP / (FP+TN) = 1/2 =.5 ACC = (TP+TN)/(P+N) = 5/8 =.625 Teszt halmaz Cél Becs VárniFog Francia Thai Burger Thai Olasz Olasz Burger Thai
41
42 Neurális hálók tanulása (inkr. modell-adaptáció)
43 Neurális hálók tanulása
44 Neurális hálók tanulása
45 Neurális hálók tanulása Elemzés Kifejezőképesség: nem rendelkeznek az általános logikai reprezentációk kifejezőképességével. A többrétegű hálók osztálya egészében, mint osztály az attribútumok bármely függvényének reprezentációjára képes. Számítási hatékonyság: legrosszabb esetben a szükséges epochok száma a bemenetek számának, n-nek, még exponenciális függvénye is lehet. A hibafelület lokális minimumai problémát jelenthetnek. Általánosító képesség: jó általánosításra képesek. (tanulási) Zajérzékenység: alapvetően nemlineáris regresszió, nagyon jól tolerálják a bemeneti adatok zajosságát. Átláthatóság: alapvetően fekete doboz. A priori ismeret:?
46 Valószínűségi hálók tanítása Mit lehet itt tanítani? Ismert struktúra, teljesen megfigyelhető változók: tanulandó: a feltételes valószínűségek táblázata, közvetlenül becsülhető a példahalmaz alapján. Ismeretlen struktúra, teljesen megfigyelhető változók: tanulandó: háló topológiája struktúrák terében való keresés, a keresést az egyes struktúráknak az adatok modellezési képessége irányítja. Ismert struktúra, rejtett változók: a neurális háló tanulással analóg Ismeretlen struktúra, rejtett változók: jelenleg nem ismert jól működő, általános algoritmus erre az esetre.
47 Igaz Igaz Hamis Példák Igaz (nincs rejtett változó) Igaz Igaz Igaz Hamis Hamis Igaz Igaz Hamis Hamis Igaz Igaz Hamis Igaz P(R BF) 1/2 Valószínűségi hálók tanítása
48 Igaz??? Igaz Példák (van rejtett változó) Igaz Hamis?? Igaz? P(R BF) =? Igaz??? Hamis Igaz Valószínűségi hálók tanítása
49 Bayes tanulás Valószínűségi hálók tanítása Általános predikció - hipotézis konstruálása adatok alapján: 1. az összes hipotézis valószínűségét megbecsüljük az adatokból. 2. a hipotézisek alapján predikciókat készítünk. 3. a predikciókat a hipotézisek a posteriori valószínűségével súlyozzuk. D adatok, H1, H2,... hipotézisek, ismeretlen X predikciója - minden egyes Hi az X egy teljes eloszlását specifikálja P ( X ) = Si P ( X H i ) P ( H i ) P ( X D ) = Si P ( X D, H i ) P ( H i D ) = Si P ( X H i ) P ( H i D ) Teljes Bayes tanulás: P(Hi D) kiszámítása az összes Hi-re. A legtöbb esetben = kezelhetetlen, de nincs jobb módja az optimalis predikció készítésnek. A legelterjedtebb közelítés - a legvalószínűbb hipotézis: max P(Hi D) P(HMAP D) 1, P(Hmás D) 0
50 Maximum a posteriori (MAP) hipotézis melletti predikció: P ( X D)» P( X H MAP ) A probléma HMAP megtalálása. MAP hipotézis: max a priori valószínűségek P( D H i ) P( H i ) P ( H i D) = P( D) Maximálizálás: probléma az a priori valószínűség - a priori valószínűségeket rendeljünk az egyes hipotézisekhez, összegük 1 - bizonyos esetekben: egyenletes a priori eloszlás (tudás hiánya, de néha jobb nem tudni!) maxi P(Hi D) = maxi P(D Hi ) maximum likelihood (ML) hipotézis: HML Valószínűségi hálók tanítása
51 Igaz??? Igaz Igaz Példák Hamis?? Igaz Igaz???? ML hipotézisek Hamis Igaz vimia313 Valószínűségi hálók tanítása
52 Tanulás rögzített struktúrájú hálók esetén A háló topológiája egyszerűbb feladat. A szakemberek meg tudják mondani, hogy mi minek az oka, de nehéz pontos számokat rendelni a kapcsolatokhoz. Ez különösen is igaz, ha néhány változó a valós esetekben nem figyelhető meg közvetlenül. A ismert struktúra, rejtett változók" eset: FONTOS Adaptív valószínűségi háló Hi hipotézisek = a feltételes valószínűségi táblák (FVT). Az összes lehetséges táblázatkitöltés a priori valószínűsége azonos = ML hipotézis. Az FVT értékeinek egy olyan kombinációja, amely maximálja az adatok valószínűségét, P(D Hi ) t (analóg az E hibával a neurális hálóban). Wi,új Wi,régi - a Wi,új Wi,régi - a E Wi Si P( xi, u j D j ) Wi,régi Valószínűségi hálók tanítása
53 Kernelgépek (SVM, szupport vektor gépek) Feladattér nemlineáris osztályozó határfelület Transzformált (dimenziót növelő) tér lineáris osztályozó hitpersík
54 Kernelgépek (SVM, szupport vektor gépek) Kerneltrükk
55 Optimális szétválasztás Optimális szeparátor = (a) max. tartalék (b) szupport vektorok xi példák, di = +/-1 besorolás ai 0, Σiaidi = 0 max max Optimális szeparátor - optim. =/= 0 ai szupport vektorok - csak skalárszorzat (xi xj) - tulajdonságtérben: F(xi) F(xj) = K(xi xj)
56 Szekvenciális döntési probléma Markov döntési folyamat Kezdőállapot: Állapotátmenet-modell: Jutalomfüggvény: S0 T(s, a, s ) R(s), v. R(s, a, s ) Optimális eljárásmód = optimális mozgás, döntés cselekvésszekvencia megválasztására, amíg nincs a probléma vége. p ( s) U ( s), p ( s) U i ( s) U ( s ) = R( s) + g max S s 'T ( s, a, s ')U ( s ') a U i +1 ( s) R( s) + g max S s 'T ( s, a, s ')U i ( s ') a Megerősítéses tanulás Kezdőállapot: Állapotátmenet-modell: Jutalomfüggvény: ismert nem ismert, legfeljebb a tapasztalat nem ismert, legfeljebb ahogy kapunk Optimális eljárásmód = megtanulni, mindennek ellenére?!
57 Megerősítéses tanulás Pl. sakkjáték: tanító nélkül is van visszacsatolás a játék végén: nyert vagy vesztett = +/- jutalom, azaz megerősítés.... a játék végén a cselekvés szekvencia végén Megerősítés: milyen gyakran? milyen erős? A feladat: (ritka) jutalmakból megtanulni egy sikeres ágens-függvényt (optimális eljárásmód: melyik állapot, melyik cselekvés hasznos). Nehéz: az információhiány miatt az ágens sohasem tudja, hogy mik a jó lépések, azt sem, melyik jutalom melyik cselekvésből ered.
58 Ágens tudása: induláskor tudja már a környezetet és cselekvéseinek hatását, vagy pedig még ezt is meg kell tanulnia. Megerősítés: csak a végállapotban, vagy bármelyikben. Ágens: passzív tanuló: figyeli a világ alakulását és tanul. aktív tanuló: a megtanult információ birtokában cselekednie is kell. felfedező Ágens kialakítása: megerősítés hasznosság leképezés U(i) hasznosság függvény tanulása, ennek alapján a cselekvések eldöntése, hogy az elérhető hasznosság várható értéke max legyen (környezet/ágens modellje szükséges) Q(a, i) cselekvés érték függvény (állapot-cselekvés párok) tanulása, valamilyen várható hasznot tulajdonítva egy adott helyzetben egy adott cselekvésnek (környezet/ágens modell nem szükséges, közben tanult) Q tanulás
59 Fontos egyszerűsítés: a sorozat hasznossága = a sorozat állapotaihoz rendelt hasznosságok összege. = a hasznosság additív Az állapot hátralevő-jutalma (reward-to-go): azon jutalmak összege, amelyet akkor kapunk, ha az adott állapotból valamelyik végállapotig eljutunk. Egy állapot várható hasznossága = a hátralevő-jutalom várható értéke U p ( s ) = E[St g t R( st ) p, s0 = s ] U p (s) = R(s) + g Ss 'T (s, p (s), s ')U p (s ') U(i) Ti1 U(1) Ti2 U(2) Tik U(k)
60 Adaptív Dinamikus Programozás Az állapotátmeneti valószínűségek Tij a megfigyelt gyakoriságokkal becsülhetők. Amint az ágens megfigyelte az összes állapothoz tartozó jutalom értéket, a hasznosság-értékek a következő egyenletrendszer megoldásával kaphatók meg: U p ( s) = R( s) + g Ss 'T (s, p (s), s ')U p (s ') megfigyelt megtanult U = R + g TU U = ( I - g T ) -1 R és ha nem megy?
61 Az időbeli különbség (IK) tanulás (TD Time Difference) Alapötlet: használjuk fel a megfigyelt állapotátmeneteket a megfigyelt állapotok olyan frissítésére, hogy megfeleljenek a korlátozó egyenleteknek. U (i ) U (i ) + a ( R(i ) + U ( j ) - U (i )) U(i) T i1 U(1) Ti2 U(2) Tik U(k) a bátorsági faktor, tanulási tényező paraméter. Az egymást követő állapotok hasznosság-különbsége időbeli különbség (IK) (temporal difference, TD). U (i ) (1 - a )U (i) + a ( R(i) + U ( j )) = U (i ) + a ( R(i) + U ( j ) - U (i))
62 Az időbeli különbség (IK) tanulás (TD Time Difference) 1. korrekt hasznosság-értékek esetén lokálisan fennálló feltételek rendszere: U p (s) = R(s) + g Ss 'T (s, p (s), s ')U p (s ') 2. módosító egyenlet, amely a becsléseinket ezen egyensúlyi" egyenlet irányába módosítja: U (i ) U (i ) + a ( R(i) + g U ( j ) - U (i)) 3. Csak a (A)DP módszer használta fel a modell teljes ismeretét. Az IK az állapotok közt fennálló kapcsolatokra vonatkozó információt használja, de csak azt, amely az aktuális tanulási sorozatból származik. Az IK változatlanul működik előzetesen ismeretlen környezet esetén is.
63 Ismeretlen környezetben végzett aktív tanulás Döntés: melyik cselekvés? a cselekvésnek mik a kimeneteleik? hogyan hatnak az elért jutalomra? A környezeti modell: a többi állapotba való átmenet valószínűsége egy adott cselekvés esetén. U ( s ) = R ( s ) + g max S s 'T ( s, a, s ')U ( s ') a Az állapottér felderítése - milyen cselekvést válasszunk? Nehéz probléma Helyes-e azt a cselekvést választani, amelynek a jelenlegi hasznosságbecslés alapján legnagyobb a várható hasznossága? Ez figyelmen kívül hagyja a cselekvésnek a tanulásra gyakorolt hatását. Döntésnek kétféle hatása van: 1. Jutalmat eredményez a jelenlegi szekvenciában. 2. Befolyásolja az észleléseket, és ezáltal az ágens tanulási képességét így jutalmat eredményezhet a jövőbeni szekvenciákban.
64 Az állapottér felderítése Kompromisszum: a jelenlegi jutalom, amit a pillanatnyi hasznosságbecslés tükröz, és a hosszú távú előnyök közt. Két megközelítés a cselekvés kiválasztásában: Hóbortos, Felfedező : véletlen módon cselekszik, annak reményében, hogy végül is felfedezi az egész környezetet Mohó : a jelenlegi becslésre alapozva maximalizálja a hasznot. Hóbortos: képes jó hasznosság-becsléseket megtanulni az összes állapotra. Sohasem sikerül fejlődnie az optimális jutalom elérésében. Mohó: gyakran talál egy jó utat. Utána ragaszkodik hozzá, és soha nem tanulja meg a többi állapot hasznosságát. Ágens addig legyen hóbortos, amíg kevés fogalma van a környezetről, és legyen mohó, amikor a valósághoz közeli modellel rendelkezik. Létezik-e optimális felfedezési stratégia? Ágens súlyt kell adjon azoknak a cselekvéseknek, amelyeket még nem nagyon gyakran próbált, a kis hasznosságúnak gondolt cselekvéseket elkerülje.
65 felfedezési függvény mohóság kíváncsiság R ha n N e f (u, n ) u különben f(u,n) u-ban monoton növekvő, n-ben monoton csökkenő U + ( s ) R ( s ) + g max f (S s 'T ( s, a, s ')U + ( s '), N (a, s )) a U+(i): az i állapothoz rendelt hasznosság optimista becslése N(a,i): az i állapotban hányszor próbálkoztunk az a cselekvéssel R+ a tetszőleges állapotban elérhető legnagyobb jutalom optimista becslése Az a cselekvés, amely felderítetlen területek felé vezet, nagyobb súlyt kap. ε-mohóság: az ágens ε valószínűséggel véletlen cselekvést választ, ill. 1-ε valószínűséggel mohó Boltzmann-felfedezési modell egy a cselekvés megválasztásának valószínűsége egy s állapotban: e hasznosság ( a, s )/T P ( a, s ) = hasznosság ( a ', s )/T S e a' a T hőmérséklet a két véglet között szabályoz. Ha T, akkor a választás tisztán (egyenletesen) véletlen, ha T 0, akkor a választás mohó.
66 A cselekvés-érték függvény tanulása A cselekvés-érték függvény egy adott állapotban választott adott cselekvéshez egy várható hasznosságot rendel: Q-érték U (i ) = max Q(a, i ) A Q-értékek fontossága: a a feltétel-cselekvés szabályokhoz hasonlóan lehetővé teszik a döntést modell használata nélkül, ellentétben a feltétel-cselekvés szabályokkal, közvetlenül a jutalom visszacsatolásával tanulhatók. Mint a hasznosság-értékeknél, felírhatunk egy kényszer egyenletet, amely egyensúlyi állapotban, amikor a Q-értékek korrektek, fenn kell álljon: Q ( a, s ) = R ( s ) + g Ss 'T (s, a, s ') max Q(a ', s ') a' R(i) i a1 Tai1 ak TaiN
67 A cselekvés-érték függvény tanulása Ezt az egyenletet közvetlenül felhasználhatjuk egy olyan iterációs folyamat módosítási egyenleteként, amely egy adott modell esetén a pontos Q-értékek számítását végzi. Az időbeli különbség viszont nem igényli a modell ismeretét. Az IK módszer Q-tanulásának módosítási egyenlete: Q(a, i ) Q(a, i ) + a ( R (i ) + g max Q(a ', j ) - Q(a, i )) a' SARSA Q-tanulás (State-Action-Reward-State-Action) Q(a, i ) Q(a, i ) + a ( R(i ) + g Q(a ', j ) - Q(a, i )) (a' megválasztása pl. Boltzmann felfedezési modellből)
68 Folyópart B Hosszú Előre Kő 2. Rövid Előre Mély víz Kő 1. Ágens Folyópart A Rövid Hátra Tanuló szekvencia: RE HE RE +1 (száraz lábbal át) RE HE HH HE HH RH HE -1 RE HE RH -1 (megfürdött) Hosszú Hátra
69 Part B Kő 2. Q (a, i ) Q ( a, i ) ( R (i ) max Q ( a ', j ) Q (a, i )) a' Kő 1. Part A Cselekvés HH Állapot Part A Kő 1. Kő 2. RH RE HE
70 Part B Kő 2. Kő 1. Part A HH Part A Kő 1. Kő 2. RH RE HE
71 A megerősítéses tanulás általánosító képessége Eddig: ágens által tanult hasznosság: táblázatos formában reprezentált = explicit reprezentáció Kis állapotterek: elfogadható, de a konvergencia idő és (ADP esetén) az iterációnkénti idő gyorsan nő a tér méretével. Gondosan vezérelt közelítő ADP: 10000, vagy ennél is több. De a való világhoz közelebb álló környezetek szóba se jöhetnek. (a sakk stb. - állapottere nagyságrendű) (az összes állapotot látni, hogy megtanuljunk játszani?!) Egyetlen lehetőség: a függvény implicit reprezentációja: Pl. egy játékban a táblaállás tulajdonságainak valamilyen halmaza f1, fn. Az állás becsült hasznosság-függvénye: Uˆq ( s) = q1 f1 ( s ) + q 2 f 2 ( s) +... q n f n ( s) C. Shannon, Programming a Computer for Playing Chess, Philosophical Magazine, 7th series, 41, no. 314 (March 1950): A. L. Samuel, Some Studies in Machine Learning Using the Game of Checkers. II-Recent Progress, IBM. J. 3, (1959), kb. 20 tulajdonság Deep Blue (Feng-Hsiung Hsu) kb tulajdonság, spec. sakk-csip
72 A hasznosság-függvény n értékkel jellemezhető, pl érték helyett. Egy átlagos sakk kiértékelő függvény kb. 10 súllyal épül fel, tehát hatalmas tömörítést értünk el. Az implicit reprezentáció által elért tömörítés teszi lehetővé, hogy a tanuló ágens általánosítani tudjon a már látott állapotokról az eddigiekben nem látottakra. Az implicit reprezentáció legfontosabb aspektusa nem az, hogy kevesebb helyet foglal, hanem az, hogy lehetővé teszi a bemeneti állapotok induktív általánosítását. Az olyan módszerekről, amelyek ilyen reprezentációt tanulnak, azt mondjuk, hogy bemeneti általánosítást végeznek.
73 Az IK (időbeli különbség) módszer szintén alkalmazható induktív tanulásra, ha az U, vagy Q táblázatot implicit reprezentációra cseréltük (pl. neurális háló). Urégi(i) IK tanulás i állapot régi(i) Imp licit rep r.? példa új(i) Uúj(i)
Mesterséges Intelligencia MI
Mesterséges Intelligencia MI Egyszerű döntés. Tanuljuk meg! Dobrowiecki Tadeusz Eredics Péter, és mások BME I.E. 437, 463-28-99 dobrowiecki@mit.bme.hu, http://www.mit.bme.hu/general/staff/tade ? Kétértékű
Mesterséges Intelligencia MI
Mesterséges Intelligencia MI Egyszerű döntés Döntési fák Tanuljuk meg! Metsszük meg! Pataki Béla Bolgár Bence BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Példaprobléma:
Megerősítéses tanulás
Gépi tanulás (Szekvenciális döntési probléma) Megerősítéses tanulás Pataki Béla BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Az egész világot nem tudjuk modellezni,
Gépi tanulás. Egyszerű döntés tanulása (döntési fák) (Részben Dobrowiecki Tadeusz fóliáinak átdolgozásával) Pataki Béla (Bolgár Bence)
Gépi tanulás Egyszerű döntés tanulása (döntési fák) (Részben Dobrowiecki Tadeusz fóliáinak átdolgozásával) Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki
Intelligens orvosi műszerek VIMIA023
Intelligens orvosi műszerek VIMIA023 A mintapéldákból tanuló számítógépes program (egyik lehetőség): döntési fák 2018 ősz http://www.mit.bme.hu/oktatas/targyak/vimia023 dr. Pataki Béla pataki@mit.bme.hu
Mesterséges Intelligencia MI
Mesterséges Intelligencia MI Megerősítéses tanulás Pataki Béla BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Ágens tudása: Induláskor: vagy ismeri már a környezetet
Intelligens orvosi műszerek VIMIA023
Intelligens orvosi műszerek VIMIA023 Diagnózistámogatás = döntéstámogatás A döntések jellemzése (ROC, AUC) 2018 ősz http://www.mit.bme.hu/oktatas/targyak/vimia023 dr. Pataki Béla pataki@mit.bme.hu (463-)2679
Mesterséges Intelligencia MI
Mesterséges Intelligencia MI Egyszerű döntés. Tanuljuk meg! Optimalizáljuk! (itt =metsszük vissza) Pataki Béla (Hullám Gábor) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki
Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)
Gépi tanulás Hány tanítómintára van szükség? VKH Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Induktív tanulás A tanítás folyamata: Kiinduló
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók Előadó: Előadás anyaga: Hullám Gábor Pataki Béla Dobrowiecki Tadeusz BME I.E. 414, 463-26-79
Mesterséges Intelligencia MI
Mesterséges Intelligencia MI Valószínűségi hálók - következtetés Dobrowiecki Tadeusz Eredics Péter, és mások BME I.E. 437, 463-28-99 dobrowiecki@mit.bme.hu, http://www.mit.bme.hu/general/staff/tade Következtetés
Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Keresés képi jellemzők alapján Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Lusta gépi tanulási algoritmusok Osztályozás: k=1: piros k=5: kék k-legközelebbi szomszéd (k=1,3,5,7)
Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Számítógépes képelemzés 7. előadás Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Momentumok Momentum-alapú jellemzők Tömegközéppont Irányultáság 1 2 tan 2 1 2,0 1,1 0, 2 Befoglaló
Stratégiák tanulása az agyban
Statisztikai tanulás az idegrendszerben, 2019. Stratégiák tanulása az agyban Bányai Mihály banyai.mihaly@wigner.mta.hu http://golab.wigner.mta.hu/people/mihaly-banyai/ Kortárs MI thispersondoesnotexist.com
Megerősítéses tanulási módszerek és alkalmazásaik
MISKOLCI EGYETEM GÉPÉSZMÉRNÖKI ÉS INFORMATIKAI KAR Megerősítéses tanulási módszerek és alkalmazásaik Tompa Tamás tanársegéd Általános Informatikai Intézeti Tanszék Miskolc, 2017. szeptember 15. Tartalom
Gépi tanulás Gregorics Tibor Mesterséges intelligencia
Gépi tanulás Tanulás fogalma Egy algoritmus akkor tanul, ha egy feladat megoldása során olyan változások következnek be a működésében, hogy később ugyanazt a feladatot vagy ahhoz hasonló más feladatokat
Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.
Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017. Vizuális feldolgozórendszerek feladatai Mesterséges intelligencia és idegtudomány Mesterséges intelligencia és idegtudomány Párhuzamos problémák
Megerősítéses tanulás
Megerősítéses tanulás elméleti kognitív neurális Introduction Knowledge representation Probabilistic models Bayesian behaviour Approximate inference I (computer lab) Vision I Approximate inference II:
Mesterséges Intelligencia MI
Mesterséges Intelligencia MI Racionalitás: a hasznosság és a döntés Dobrowiecki Tadeusz Eredics Péter, és mások BME I.E. 437, 463-28-99 dobrowiecki@mit.bme.hu, http://www.mit.bme.hu/general/staff/tade
FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE
FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE Dr. Aradi Szilárd, Fehér Árpád Mesterséges intelligencia kialakulása 1956 Dartmouth-i konferencián egy maroknyi tudós megalapította a MI területét
1. gyakorlat. Mesterséges Intelligencia 2.
1. gyakorlat Mesterséges Intelligencia. Elérhetőségek web: www.inf.u-szeged.hu/~gulyasg mail: gulyasg@inf.u-szeged.hu Követelmények (nem teljes) gyakorlat látogatása kötelező ZH írása a gyakorlaton elhangzott
2. A példahalmazban n = 3 negatív és p = 3 pozitív példa van, azaz a példahalmazt képviselő döntési fa információtartalma: I = I(1/2, 1/2) = 1 bit.
Példa 1. Döntési fa számítása/1 1. Legyen a felhasználandó példahalmaz: Példa sz. Nagy(x) Fekete(x) Ugat(x) JóKutya(x) X1 Igen Igen Igen Nem X2 Igen Igen Nem Igen X3 Nem Nem Igen Nem X4 Nem Igen Igen Igen
Programozási módszertan. A gépi tanulás alapmódszerei
SZDT-12 p. 1/24 Programozási módszertan A gépi tanulás alapmódszerei Werner Ágnes Villamosmérnöki és Információs Rendszerek Tanszék e-mail: werner.agnes@virt.uni-pannon.hu SZDT-12 p. 2/24 Ágensek Az új
Mesterséges Intelligencia MI
Mesterséges Intelligencia MI Valószínűségi hálók - alapok Dobrowiecki Tadeusz Eredics Péter, és mások BME I.E. 437, 463-28-99 dobrowiecki@mit.bme.hu, http://www.mit.bme.hu/general/staff/tade Valószínűségi
Mesterséges Intelligencia MI
Mesterséges Intelligencia MI Keresés ellenséges környezetben Dobrowiecki Tadeusz Eredics Péter, és mások BME I.E. 437, 463-28-99 dobrowiecki@mit.bme.hu, http://www.mit.bme.hu/general/staff/tade Ellenség
Gépi tanulás a gyakorlatban. Lineáris regresszió
Gépi tanulás a gyakorlatban Lineáris regresszió Lineáris Regresszió Legyen adott egy tanuló adatbázis: Rendelkezésünkre áll egy olyan előfeldolgozott adathalmaz, aminek sorai az egyes ingatlanokat írják
Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.
Regresszió Csorba János Nagyméretű adathalmazok kezelése 2010. március 31. A feladat X magyarázó attribútumok halmaza Y magyarázandó attribútumok) Kérdés: f : X -> Y a kapcsolat pár tanítópontban ismert
Adaptív menetrendezés ADP algoritmus alkalmazásával
Adaptív menetrendezés ADP algoritmus alkalmazásával Alcím III. Mechwart András Ifjúsági Találkozó Mátraháza, 2013. szeptember 10. Divényi Dániel Villamos Energetika Tanszék Villamos Művek és Környezet
Megerősítéses tanulás 7. előadás
Megerősítéses tanulás 7. előadás 1 Ismétlés: TD becslés s t -ben stratégia szerint lépek! a t, r t, s t+1 TD becslés: tulajdonképpen ezt mintavételezzük: 2 Akcióértékelő függvény számolása TD-vel még mindig
[1000 ; 0] 7 [1000 ; 3000]
Gépi tanulás (vimim36) Gyakorló feladatok 04 tavaszi félév Ahol lehet, ott konkrét számértékeket várok nem puszta egyenleteket. (Azok egy részét amúgyis megadom.). Egy bináris osztályozási feladatra tanított
Dinamikus modellek szerkezete, SDG modellek
Diagnosztika - 3. p. 1/2 Modell Alapú Diagnosztika Diszkrét Módszerekkel Dinamikus modellek szerkezete, SDG modellek Hangos Katalin PE Villamosmérnöki és Információs Rendszerek Tanszék Diagnosztika - 3.
Least Squares becslés
Least Squares becslés A négyzetes hibafüggvény: i d i ( ) φx i A négyzetes hibafüggvény mellett a minimumot biztosító megoldás W=( d LS becslés A gradiens számítása és nullává tétele eredményeképp A megoldás
Új típusú döntési fa építés és annak alkalmazása többtényezős döntés területén
Új típusú döntési fa építés és annak alkalmazása többtényezős döntés területén Dombi József Szegedi Tudományegyetem Bevezetés - ID3 (Iterative Dichotomiser 3) Az ID algoritmusok egy elemhalmaz felhasználásával
Funkcionális konnektivitás vizsgálata fmri adatok alapján
Funkcionális konnektivitás vizsgálata fmri adatok alapján Képalkotási technikák 4 Log Resolution (mm) 3 Brain EEG & MEG fmri TMS PET Lesions 2 Column 1 0 Lamina -1 Neuron -2 Dendrite -3 Synapse -4 Mikrolesions
Mesterséges Intelligencia MI
Mesterséges Intelligencia MI Problémamegoldás kereséssel ha sötétben tapogatózunk Dobrowiecki Tadeusz Eredics Péter, és mások BME I.E. 437, 463-28-99 dobrowiecki@mit.bme.hu, http://www.mit.bme.hu/general/staff/tade
Bonyolult jelenség, aminek nincs jó modellje, sok empirikus adat, intelligens (ember)ágens képessége, hogy ilyen problémákkal mégis megbirkozzék.
Vizsga, 2015. dec. 22. B cs. B1. Hogyan jellemezhetők a tanulást igénylő feladatok? (vendégelőadás) Bonyolult jelenség, aminek nincs jó modellje, sok empirikus adat, intelligens (ember)ágens képessége,
Méréselmélet MI BSc 1
Mérés és s modellezés 2008.02.15. 1 Méréselmélet - bevezetés a mérnöki problémamegoldás menete 1. A probléma kitűzése 2. A hipotézis felállítása 3. Kísérlettervezés 4. Megfigyelések elvégzése 5. Adatok
Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,
Mérés és modellezés Méréstechnika VM, GM, MM 1
Mérés és modellezés 2008.02.04. 1 Mérés és modellezés A mérnöki tevékenység alapeleme a mérés. A mérés célja valamely jelenség megismerése, vizsgálata. A mérés tervszerűen végzett tevékenység: azaz rögzíteni
Algoritmusok Tervezése. 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás
Algoritmusok Tervezése 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás Mi az algoritmus? Lépések sorozata egy feladat elvégzéséhez (legáltalánosabban) Informálisan algoritmusnak nevezünk bármilyen jól definiált
TANULÁS. I. Logikai formulák tanulása. Tanulási módok. Miért m ködik jól az induktív tanulás? Induktív tanulás
TANULÁS Egy algoritmus tanul, ha egy feladat megoldása során olyan változások következnek be a m ködésében, hogy kés bb ugyanazt a feladatot vagy ahhoz hasonló más feladatokat jobb eredménnyel, illetve
Mesterséges Intelligencia I. (I602, IB602)
Dr. Jelasity Márk Mesterséges Intelligencia I. (I602, IB602) kurzus kilencedik előadásának jegyzete (2008. november 3.) Tanulás (Learning) Készítette: Szabó Péter EHA: SZPNAAT.SZE Szeged, 2008. december
Bizonytalanságok melletti következtetés
Bizonytalanságok melletti következtetés Mesterséges Intelligencia I. Valószínűségi alapfogalmak (ismétlés) A, B,C események esetén a priori valószínűség: feltételes (a posteiori) valószínűség: Bayes-formula
Kódverifikáció gépi tanulással
Kódverifikáció gépi tanulással Szoftver verifikáció és validáció kiselőadás Hidasi Balázs 2013. 12. 12. Áttekintés Gépi tanuló módszerek áttekintése Kódverifikáció Motiváció Néhány megközelítés Fault Invariant
Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )
Budapesti Műszaki és Gazdaságtudományi Egyetem Gépészmérnöki Kar Hidrodinamikai Rendszerek Tanszék, Budapest, Műegyetem rkp. 3. D ép. 334. Tel: 463-6-80 Fa: 463-30-9 http://www.vizgep.bme.hu Alap-ötlet:
Mérés és modellezés 1
Mérés és modellezés 1 Mérés és modellezés A mérnöki tevékenység alapeleme a mérés. A mérés célja valamely jelenség megismerése, vizsgálata. A mérés tervszerűen végzett tevékenység: azaz rögzíteni kell
Modellkiválasztás és struktúrák tanulása
Modellkiválasztás és struktúrák tanulása Szervezőelvek keresése Az unsupervised learning egyik fő célja Optimális reprezentációk Magyarázatok Predikciók Az emberi tanulás alapja Általános strukturális
Megerősítéses tanulás 2. előadás
Megerősítéses tanulás 2. előadás 1 Technikai dolgok Email szityu@eotvoscollegium.hu Annai levlista http://nipglab04.inf.elte.hu/cgi-bin/mailman/listinfo/annai/ Olvasnivaló: Sutton, Barto: Reinforcement
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 9 IX. ROBUsZTUs statisztika 1. ROBUsZTUssÁG Az eddig kidolgozott módszerek főleg olyanok voltak, amelyek valamilyen értelemben optimálisak,
VIII. INDUKTÍV TANULÁS
Induktív tanulás VIII. INDUKTÍV TANULÁS Induktív tanulási modell Az f leképezést tanuljuk meg az (x i,f(x i )) példák (minták) alapján úgy, hogy előállítunk egy olyan h leképezést (hipotézist), amelyre
CARE. Biztonságos. otthonok idős embereknek CARE. Biztonságos otthonok idős embereknek 2010-09-02. Dr. Vajda Ferenc Egyetemi docens
CARE Biztonságos CARE Biztonságos otthonok idős embereknek otthonok idős embereknek 2010-09-02 Dr. Vajda Ferenc Egyetemi docens 3D Érzékelés és Mobilrobotika kutatócsoport Budapesti Műszaki és Gazdaságtudományi
A maximum likelihood becslésről
A maximum likelihood becslésről Definíció Parametrikus becsléssel foglalkozunk. Adott egy modell, mellyel elképzeléseink szerint jól leírható a meghatározni kívánt rendszer. (A modell típusának és rendszámának
Adatok statisztikai értékelésének főbb lehetőségei
Adatok statisztikai értékelésének főbb lehetőségei 1. a. Egy- vagy kétváltozós eset b. Többváltozós eset 2. a. Becslési problémák, hipotézis vizsgálat b. Mintázatelemzés 3. Szint: a. Egyedi b. Populáció
Intelligens ágensek Mesterséges Intelligencia rendszertechnikai gyökerei
Intelligens ágensek Mesterséges Intelligencia rendszertechnikai gyökerei Dobrowiecki Tadeusz Mérés és Információs Rendszerek Tanszék Habilitációs előadás BME-VIK, október 2013 1/37 oldal 1. Lehet-e intelligens
Bizonytalanság. Mesterséges intelligencia április 4.
Bizonytalanság Mesterséges intelligencia 2014. április 4. Bevezetés Eddig: logika, igaz/hamis Ha nem teljes a tudás A világ nem figyelhető meg közvetlenül Részleges tudás nem reprezentálható logikai eszközökkel
Intelligens ágensek. Mesterséges intelligencia február 28.
Intelligens ágensek Mesterséges intelligencia 2014. február 28. Ágens = cselekvő Bevezetés Érzékelői segítségével érzékeli a környezetet Beavatkozói/akciói segítségével megváltoztatja azt Érzékelési sorozat:
Adatbányászati feladatgyűjtemény tehetséges hallgatók számára
Adatbányászati feladatgyűjtemény tehetséges hallgatók számára Buza Krisztián Számítástudományi és Információelméleti Tanszék Budapesti Műszaki és Gazdaságtudományi Egyetem Tartalomjegyék Modellek kiértékelése...
KÖZELÍTŐ INFERENCIA II.
STATISZTIKAI TANULÁS AZ IDEGRENDSZERBEN KÖZELÍTŐ INFERENCIA II. MONTE CARLO MÓDSZEREK ISMÉTLÉS Egy valószínűségi modellben a következtetéseinket a látensek vagy a paraméterek fölötti poszterior írja le.
Intelligens adatelemzés
Antal Péter, Antos András, Horváth Gábor, Hullám Gábor, Kocsis Imre, Marx Péter, Millinghoffer András, Pataricza András, Salánki Ágnes Intelligens adatelemzés Szerkesztette: Antal Péter A jegyzetben az
Mesterséges Intelligencia I.
Mesterséges Intelligencia I. 10. elıadás (2008. november 10.) Készítette: Romhányi Anita (ROANAAT.SZE) - 1 - Statisztikai tanulás (Megfigyelések alapján történı bizonytalan következetésnek tekintjük a
Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 10 X. SZIMULÁCIÓ 1. VÉLETLEN számok A véletlen számok fontos szerepet játszanak a véletlen helyzetek generálásában (pénzérme, dobókocka,
Intelligens orvosi műszerek VIMIA023
Intelligens orvosi műszerek VIMIA023 Neurális hálók (Dobrowiecki Tadeusz anyagának átdolgozásával) 2017 ősz http://www.mit.bme.hu/oktatas/targyak/vimia023 dr. Pataki Béla pataki@mit.bme.hu (463-)2679 A
The nontrivial extraction of implicit, previously unknown, and potentially useful information from data.
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Adatelemzés intelligens módszerekkel Hullám Gábor Adatelemzés hagyományos megközelítésben I. Megválaszolandó
Optimalizálás alapfeladata Legmeredekebb lejtő Lagrange függvény Log-barrier módszer Büntetőfüggvény módszer 2017/
Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatikai Intézet Számítógépes Optimalizálás Tanszék 9. Előadás Az optimalizálás alapfeladata Keressük f függvény maximumát ahol f : R n R és
Speciális adatszerkezetek. Programozás alapjai II. (8. ea) C++ Tömbök. Tömbök/2. N dimenziós tömb. Nagyméretű ritka tömbök
Programozás alapjai II. (8. ea) C++ Kiegészítő anyag: speciális adatszerkezetek Szeberényi Imre BME IIT Speciális adatszerkezetek A helyes adatábrázolás választása, a helyes adatszerkezet
Mesterséges Intelligencia MI
Mesterséges Intelligencia MI Valószínűségi hálók - alapok Dobrowiecki Tadeusz Eredics Péter, és mások BME I.E. 437, 463-28-99 dobrowiecki@mit.bme.hu, http://www.mit.bme.hu/general/staff/tade A szükséges
Gépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés
Gépi tanulás a gyakorlatban Kiértékelés és Klaszterezés Hogyan alkalmazzuk sikeresen a gépi tanuló módszereket? Hogyan válasszuk az algoritmusokat? Hogyan hangoljuk a paramétereiket? Precízebben: Tegyük
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 8 VIII. REGREssZIÓ 1. A REGREssZIÓs EGYENEs Két valószínűségi változó kapcsolatának leírására az eddigiek alapján vagy egy numerikus
Bizonytalan tudás kezelése
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Bizonytalan tudás kezelése Előadó: Előadás anyaga: Hullám Gábor Pataki Béla Dobrowiecki Tadeusz Valószínűségi
Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban
Intelligens Rendszerek Elmélete : dr. Kutor László Versengéses és önszervező tanulás neurális hálózatokban http://mobil.nik.bmf.hu/tantargyak/ire.html Login név: ire jelszó: IRE07 IRE 9/1 Processzor Versengéses
Valószínűségi hálók. Mesterséges Intelligencia - MI. Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Mesterséges Intelligencia - MI Valószínűségi hálók Előadó: Hullám Gábor Pataki Béla Előadás anyaga: Dobrowiecki
Az idegrendszeri memória modelljei
Az idegrendszeri memória modelljei A memória típusai Rövidtávú Working memory - az aktuális feladat Vizuális, auditórikus,... Prefrontális cortex, szenzorikus területek Kapacitás: 7 +-2 minta Hosszútávú
Neurális hálózatok bemutató
Neurális hálózatok bemutató Füvesi Viktor Miskolci Egyetem Alkalmazott Földtudományi Kutatóintézet Miért? Vannak feladatok amelyeket az agy gyorsabban hajt végre mint a konvencionális számítógépek. Pl.:
Elővizsga, dec. 15. Szívhez szóló megjegyzések és megoldások Adja meg a kontrollált természetes nyelv definícióját (vendégelőadás)
Elővizsga, 2015. dec. 15. Szívhez szóló megjegyzések és megoldások Tisztelt Hallgatók! Az elővizsga meglepően rossz eredménye késztet néhány megjegyzés megtételére. A félév elején hangsúlyoztam, hogy a
Korszerű információs technológiák
MISKOLCI EGYETEM GÉPÉSZMÉRNÖKI ÉS INFORMATIKAI KAR Korszerű információs technológiák Megerősítéses tanulási módszerek és alkalmazásaik Tompa Tamás tanársegéd Általános Informatikai Intézeti Tanszék Miskolc,
Egyszerű programozási tételek
Egyszerű programozási tételek 2. előadás Sergyán Szabolcs sergyan.szabolcs@nik.uni-obuda.hu Óbudai Egyetem Neumann János Informatikai Kar 2011. szeptember 15. Sergyán (OE NIK) AAO 02 2011. szeptember 15.
KÖZELÍTŐ INFERENCIA II.
STATISZTIKAI TANULÁS AZ IDEGRENDSZERBEN KÖZELÍTŐ INFERENCIA II. MONTE CARLO MÓDSZEREK ISMÉTLÉS Egy valószínűségi modellben a következtetéseinket a látensek vagy a paraméterek fölötti poszterior írja le.
Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008
Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 007/008 Az Előadások Témái Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció i stratégiák Szemantikus hálók / Keretrendszerek
2.Előadás ( ) Munkapont és kivezérelhetőség
2.lőadás (207.09.2.) Munkapont és kivezérelhetőség A tranzisztorokat (BJT) lineáris áramkörbe ágyazva "működtetjük" és a továbbiakban mindig követelmény, hogy a tranzisztor normál aktív tartományban működjön
Megerősítéses tanulás 9. előadás
Megerősítéses tanulás 9. előadás 1 Backgammon (vagy Ostábla) 2 3 TD-Gammon 0.0 TD() tanulás (azaz időbeli differencia-módszer felelősségnyomokkal) függvényapproximátor: neuronháló 40 rejtett (belső) neuron
Programozás alapjai II. (7. ea) C++ Speciális adatszerkezetek. Tömbök. Kiegészítő anyag: speciális adatszerkezetek
Programozás alapjai II. (7. ea) C++ Kiegészítő anyag: speciális adatszerkezetek Szeberényi Imre BME IIT M Ű E G Y E T E M 1 7 8 2 C++ programozási nyelv BME-IIT Sz.I. 2016.04.05. - 1
1. Alapfogalmak Algoritmus Számítási probléma Specifikáció Algoritmusok futási ideje
1. Alapfogalmak 1.1. Algoritmus Az algoritmus olyan elemi műveletekből kompozíciós szabályok szerint felépített összetett művelet, amelyet megadott feltételt teljesítő bemeneti adatra végrehajtva, a megkívánt
A következő feladat célja az, hogy egyszerű módon konstruáljunk Poisson folyamatokat.
Poisson folyamatok, exponenciális eloszlások Azt mondjuk, hogy a ξ valószínűségi változó Poisson eloszlású λ, 0 < λ
Mesterséges Intelligencia MI
Mesterséges Intelligencia MI Problémamegoldás kereséssel - lokális információval Pataki Béla Bolgár Bence BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Rugó tervezése
Probabilisztikus modellek V: Struktúra tanulás. Nagy Dávid
Probabilisztikus modellek V: Struktúra tanulás Nagy Dávid Statisztikai tanulás az idegrendszerben, 2015 volt szó a normatív megközelítésről ezen belül a probabilisztikus modellekről láttatok példákat az
Support Vector Machines
Support Vector Machnes Ormánd Róbert MA-SZE Mest. Int. Kutatócsoport 2009. február 17. Előadás vázlata Rövd bevezetés a gép tanulásba Bevezetés az SVM tanuló módszerbe Alapötlet Nem szeparálható eset Kernel
Gépi tanulás. Féligellenőrzött tanulás. Pataki Béla (Bolgár Bence)
Gépi tanulás Féligellenőrzött tanulás Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Féligellenőrzött tanulás Mindig kevés az adat, de
Számításelmélet. Második előadás
Számításelmélet Második előadás Többszalagos Turing-gép Turing-gép k (konstans) számú szalaggal A szalagok mindegyike rendelkezik egy független író / olvasó fejjel A bemenet az első szalagra kerül, a többi
Gépi tanulás és Mintafelismerés
Gépi tanulás és Mintafelismerés jegyzet Csató Lehel Matematika-Informatika Tanszék BabesBolyai Tudományegyetem, Kolozsvár 2007 Aug. 20 2 1. fejezet Bevezet A mesterséges intelligencia azon módszereit,
Branch-and-Bound. 1. Az egészértéketű programozás. a korlátozás és szétválasztás módszere Bevezető Definíció. 11.
11. gyakorlat Branch-and-Bound a korlátozás és szétválasztás módszere 1. Az egészértéketű programozás 1.1. Bevezető Bizonyos feladatok modellezése kapcsán előfordulhat olyan eset, hogy a megoldás során
Mesterséges Intelligencia MI
Mesterséges Intelligencia MI Problémamegoldás kereséssel - csak lokális információra alapozva Pataki Béla BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Lokálisan
STATISZTIKA. A maradék független a kezelés és blokk hatástól. Maradékok leíró statisztikája. 4. A modell érvényességének ellenőrzése
4. A modell érvényességének ellenőrzése STATISZTIKA 4. Előadás Variancia-analízis Lineáris modellek 1. Függetlenség 2. Normális eloszlás 3. Azonos varianciák A maradék független a kezelés és blokk hatástól
Programozás alapjai II. (7. ea) C++
Programozás alapjai II. (7. ea) C++ Kiegészítő anyag: speciális adatszerkezetek Szeberényi Imre BME IIT M Ű E G Y E T E M 1 7 8 2 C++ programozási nyelv BME-IIT Sz.I. 2016.04.05. - 1
Markov-láncok stacionárius eloszlása
Markov-láncok stacionárius eloszlása Adatbányászat és Keresés Csoport, MTA SZTAKI dms.sztaki.hu Kiss Tamás 2013. április 11. Tartalom Markov láncok definíciója, jellemzése Visszatérési idők Stacionárius
Irányításelmélet és technika II.
Irányításelmélet és technika II. Modell-prediktív szabályozás Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki és Információs Rendszerek Tanszék amagyar@almos.vein.hu 2010 november
11. Előadás. 11. előadás Bevezetés a lineáris programozásba
11. Előadás Gondolkodnivalók Sajátérték, Kvadratikus alak 1. Gondolkodnivaló Adjuk meg, hogy az alábbi A mátrixnak mely α értékekre lesz sajátértéke a 5. Ezen α-ák esetén határozzuk meg a 5 sajátértékhez
Gépi tanulás a gyakorlatban. Bevezetés
Gépi tanulás a gyakorlatban Bevezetés Motiváció Nagyon gyakran találkozunk gépi tanuló alkalmazásokkal Spam detekció Karakter felismerés Fotó címkézés Szociális háló elemzés Piaci szegmentáció analízis
Algoritmusok Tervezése. Fuzzy rendszerek Dr. Bécsi Tamás
Algoritmusok Tervezése Fuzzy rendszerek Dr. Bécsi Tamás Bevezetés Mese a homokkupacról és a hidegről és a hegyekről Bevezetés, Fuzzy történet Két értékű logika, Boole algebra Háromértékű logika n értékű
Irányításelmélet és technika II.
Irányításelmélet és technika II. Legkisebb négyzetek módszere Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki és Információs Rendszerek Tanszék amagyar@almos.vein.hu 200 november