1. Tétel Racionális ágens Definíció: Komponensek: Feladatkörnyezet és fajtái: Ágenstípusok: 2. Tétel Informálatlan keresés definíciója: Fa keresés:

Méret: px
Mutatás kezdődik a ... oldaltól:

Download "1. Tétel Racionális ágens Definíció: Komponensek: Feladatkörnyezet és fajtái: Ágenstípusok: 2. Tétel Informálatlan keresés definíciója: Fa keresés:"

Átírás

1 1. Tétel Racionális ágens Definíció: Az ideális racionális ágens minden egyes észlelési sorozathoz a benne található tények és a beépített tudása alapján minden elvárható dolgot megtesz a teljesítményérték maximalizálásáért. Komponensek: - a siker fokát mérő teljesítményértékek - az ágens eddigi tudása a környezetről - a cselekvések, amiket az ágens képes végrehajtani - az ágens érzékelési sorozata az adott pillanatig Feladatkörnyezet és fajtái: A feladatkörnyezetet a TKBÉ (Teljesítmény, Környezet, Beavatkozók, Érzékelők) leírásának hívjuk. Fajtái: - teljesen megfigyelhető vagy részlegesen megfigyelhető - determinisztikus vagy sztochasztikus - epizódszerű vagy sorozatszerű - statikus vagy dinamikus - diszkrét vagy folytonos - egyágenses vagy többágenses Ágenstípusok: - egyszerű reflexszerű ágensek - modellalapú reflexszerű ágensek - célorientált ágensek - hasznosságorientált ágensek - tanuló ágensek 2. Tétel Informálatlan keresés definíciója: ezen stratégiáknak semmilyen információjuk nincs az állapotokról a probléma definíciójában megadott információn kívül. Működésük során mást nem tehetnek, mint a következő állapotok generálása és a célállapot megkülönböztetése a nem célállapottól. Fa keresés: egy FIFO sor, mellyel biztosítja, hogy a korábban meglátogatott csomópontokat az algoritmus korábban fejti ki. Azaz a Fa-keresés szélességi keresést eredményez, mivel az összes újonnan legenerált követőt a sor végére teszi, azaz a sekélyebb csomópontok korábban kerülnek kifejtésre, mint a mélyebben fekvők. Szélességi keresés jellemzése: teljesség: Ha a legsekélyebb célcsomópont valamilyen véges d mélységben fekszik, a szélességi keresés eljut hozzá az összes nála sekélyebben fekvő csomópontot kifejtve. optimalitás: A szélességi keresés optimális, ha az útköltség a csomópont mélységének nem csökkenő függvénye. komplexitás: Az exponenciális komplexitású keresési problémák közül csak a legkisebb problémapéldányok oldhatók meg.

2 3. Tétel Egyenletes költségű keresés: mindig a legkisebb költségű n csomópontot fejti ki először, nem pedig a legkisebb mélységű csomópontot. teljesség: csak úgy garantálható, hogy minden lépés költsége egy kis pozitív ε konstansnál nagyobb vagy azzal egyenlő optimalitás: megegyezik a teljesség feltételével, ami azt jelenti, hogy egy út költsége az út mentén mindig növekszik. Így az első kifejtésre kiválasztott célcsomópont egyben az optimális megoldás is. komplexitás: legrosszabb esetben O(b 1+[C*/ε] ) Mélységi keresés: mindig a keresési fa aktuális peremében a legmélyebben fekvő csomópontot fejti ki. Kifejtésüket követően kikerülnek a peremből és a keresés visszalép ahhoz a következő legmélyebben fekvő csomóponthoz, amelynek vannak még ki nem fejtett követői. teljesség: igaz, ha a fa véges mélységű optimalitás: nem optimális komplexitás: O(b m ), ahol b az elágazási tényező és m a csomópontok maximális mélysége Iteratívan mélyülő keresés fában: egy általános stratégia, amit sokszor a mélységi kereséssel együtt alkalmaznak a legjobb mélységkorlát megtalálására. Az algoritmus képes erre, mert fokozatosan növeli a mélységkorlátot, amíg a célt meg nem találja. Amikor az megvan, a mélységkorlát elérte a d-t, a legsekélyebben fekvő célcsomópont mélységét. teljesség: teljes, ha elágazási tényezője véges optimalitás: optimális, ha az útköltség a csomópontok mélységének nem csökkenő függvénye komplexitás: O(bd), ahol b az elágazási tényező és d a mélység 4. Tétel Gráf keresés: A Fa-keresés algoritmust egészítjük ki egy nyitott- és zárt listának nevezett adatszerkezettel, mely tartalmazza a kifejtésre váró és a már kifejtett csomópontokat. Ha az aktuális állapot egybeesik a zárt listán lévő állapotok egyikével, akkor eldobható, ahelyett hogy a kifejtésével kellene foglalkozni. Egyenletes költségű keresés optimális gráfban: két állításból épül fel. Állítás: A fa-keresés elfogadható g-vel és egyenletes költségű kereséssel optimális. Bizonyítás: G az első célállapot, amit kiterjesztünk és g(g)> C* (C* az optimum). Tehát találtunk egy célállapotot, amely nem optimális. Ekkor a peremben van egy optimális út, melynek x eleme is. Ekkor igaz az, hogy van egy optimális út is, ami különbözik attól, amit találtunk. Ennek az útnak biztosan van legalább egy pontja a peremben, mivel minden utat kiterjesztettünk. A peremben ennek a másik útnak a pontja, aminek optimális a költsége mindenképpen kisebb vagy egyenlő, mint az optimum, mivel ez egy részút és nem az egész út. Ezért biztos az, hogy a peremben lévő pont - ami része az optimális útnak - költsége biztosan kisebb, mint az, amit éppen kiterjesztünk. Tehát ellentmondásra jutottunk. Azaz g(x) < g (G), mert g(x) C* ( g elfogadható) ellentmondás, mert mégis G-t választottuk. Állítás: A gráf-keresés konzisztens g-vel és egyenletes költségű kereséssel optimális.

3 5. Tétel Informált keresés: amely a probléma definícióján túlmenően problémaspecifikus tudást is felhasznál, azaz hogyan képes hatékonyabban megtalálni a megoldást. A* algoritmus és tulajdonságai: A csomópontokat úgy értékeli ki, hogy összekombinálja a g(n) értéket az aktuális csomópontig megtett út költsége és a h(n) értéket vagyis az adott csomóponttól a célhoz vezető út költségének becslőjét. Így kapjuk a f(n) = g(n) + h(n) összefüggést. f(n) a legolcsóbb, az n csomóponton át vezető megoldás becsült költsége teljesség: optimalitás: a Gráf-keresést használó A* algoritmus optimális, ha h(n) konzisztens, azaz az f(n) akármilyen út mentén nem csökken komplexitás: optimális hatékonyság: Azt jelenti, hogy egyetlen más optimális algoritmus sem fejt ki garantáltan kevesebb csomópontot, mint az A*. Ez azért van, mert az összes olyan algoritmus, amelyik nem fejti ki az összes csomópontot, melyre f(n)<c*, kockáztatja az optimális megoldás elkerülését. Memóriakorlátozott A*: Mivel minden esetben korlátos a memória, amit felhasználhatunk, ezért az A* algoritmust is erre kellett módosítani. Így a módosult algoritmus működése: - amíg van memória A* - ha elfogy, töröljük a legrosszabb levelet Ha betelik a memória az éppen tárolt csomópontok halmazából kitörli azt, amely a legrosszabb költségbecsléssel rendelkezik, tehát a legkevésbé ígéretes csomópontot egyszerűen kitörli, ezáltal memóriát szabadít fel. Azt a költségbecslést, ami az érintett csomópontban volt propagálja felfelé a szülőknek, a szülők költségét módosítja úgy, hogy tükrözze azt a tudást, amit közben megszerzett az adott csomópontok kiterjesztésével. 6. Tétel Heurisztikák előállításának módszerei: Relaxálás: a probléma egy, egyszerűbb változatának a költségének a megadása. Az így kapott költséget felhasználhatjuk heurisztikának az eredeti feladat megoldásához, mivel ez a költség kisebb lesz, mint az eredeti feladat költsége. Relaxált probléma optimális megoldásának költsége a h() egy elfogadható heurisztika az eredeti problémára. relaxáció = a feltételek elhagyása. Relaxált probléma optimális költsége mindig kisebb, vagy egyenlő mint az eredeti. Ezt egy elfogadható heurisztikának tekintjük az eredeti problémára. Mivel a számított heurisztika a relaxált problémára egy pontos költség, teljesítenie kell a háromszög egyenlőtlenséget is, és ebből kifolyólag konzisztens is. Automatizált relaxálás: ha a feltételek formális nyelven is adottak, akkor a relaxált problémákat automatikusan is előállíthatjuk. Heurisztikák kombinálása: h(n) = max {h 1 (n),, h m (n)} Az így megkonstruált összetett heurisztikus függvény mindig azt a függvényt használja, amelyik az adott csúcspontra a legpontosabb. Mivel az alkotóelemként felhasznált heurisztikus függvények mind elfogadhatóak, ezért h is elfogadható. Továbbá h konzisztens és dominálja az összes, benne alkotóelemként felhasznált heurisztikus függvényt. Mintaadatbázisok: tároljuk az egyes részprobléma esetekhez tartozó pontos megoldási költségeket. Független részproblémák: a költségek összeadhatóak. Elfogadhatóság: kifejtve a relaxálásnál Konzisztencia: kifejtve a relaxálásnál

4 7. Tétel Lokális keresés: ezek az algoritmusok csak egy aktuális állapotot vesznek figyelembe és általában csak ennek az állapotnak a szomszédjaira lépnek tovább. Két fő előnyük van: - igen kevés memóriát használnak - sokszor nagy vagy végtelen keresési térben is elfogadható megoldást produkálnak Globális optimalizálás: globális maximum: a legmagasabb csúcs, ahol f(x) = max y (f(y )) lokális maximum: ahol a szomszédok célfüggvényei kisebbek f(x) max y=x f(y) plató: szomszédok értékei ugyanazok váll: szomszédok értékei ugyanazok, majd ezt egy nagyobb célfüggvény követi Hegymászó keresés és javításai: a keresés egy ciklus, ami mindig javuló értékek felé, azaz felfelé lép. Amint elér egy csúcsot (globális vagy lokális) megáll, mivel megtalálta az első optimumot. A siker, hogy a globális maximumot találja meg nem garantált. Javításai: - sztochasztikus hegymászó: a felfelé mutató irányokból véletlen módon választ - elsőnek-választott hegymászó: az első jobb értékű szomszédot választja - véletlen újraindítású hegymászó: ha elakad egy véletlenül választott pontból újraindul Szimulált hűtés: ebben az esetben a cél, hogy a lokális optimumból kiugorjunk, de a globális optimumból már ne. Egyes esetekben az aktuálisnál rosszabb megoldásokat is elfogadunk. 8. Tétel Populáció alapú keresés: Nyaláb keresés: az algoritmus nem egy, hanem k állapotot követ nyomon. Az algoritmus k véletlen módon generált állapottal indul, így minden lépésben a k állapot mindegyikének összes követőit kifejti, ha valamelyik a keresett cél az algoritmus leáll. A lokális nyaláb keresési algoritmusban a k parallel keresési szál megosztja az információt, így gyorsabban fókuszál. Egyik változata a sztochasztikus nyaláb keresés, ahol nem a k legjobb követőt választja, hanem k véletlen követőt választ. Evolúciós módszerek: A sztochasztikus nyaláb keresés egy variánsa, és a hegymászó algoritmust általánosítja. Evolúciós algoritmus: a nyaláb keresés általánosításához szexuális operátorokat vezetünk be. Genetikus algoritmusok: Állapottér, populáció: véges betűkészletű stringekből áll. Ennek egy adott példánya az egyed. fitness - függvény: a jobb állapotokra magasabb értékeket kell visszaadnia mutáció: az egyed egy értékének megváltoztatása rekombináció: két egyednél keresztezési pontokat adunk meg és ezek alapján keresztezzünk szülő szelekció: válasszunk K/2 darab párt a fitnesszel arányosan, vagy véletlen párosítással túlélő szelekció: válasszuk a K legjobbat, vagy véletlenül a fitnesszel arányosan Differenciális evolúció: populáció: x 1,.., x k R d szülő választás: minden egyed szülő is egyben rekombináció: minden x i {i=1,..,k}- hoz választunk három véletlen egyedet: x r1, x r2, x r3 Legyen: v = x r1 + F [ x r2 x r3 ] + λ[ y g x r1 ] ahol y g az eddigi legkisebb megoldás amit ismerünk. Megj.: v nem függ x i -től, mutáció: nincs (ill. néha mutációnak hívják a fentit) v-t keresztezzük a x i -vel: (v 1, v 2,.,v d ) } (u 1, u 2,, u d ) (x i1, x i2,.,x id ) } ahol az u j = x ij CR valószínűséggel, v j egyébként

5 túlélők: u-val helyettesítjük x i -t ha f(u)> f(x i ) lényeg: az operátorok automatikusan adaptálódnak a populáció kiterjedéséhez és alakjához 9. Tétel Korlátozott kielégítési feladatok: Definíció: az állapottér: D= D 1 x D 2 x x D n ( D i az i. változó (x i ) lehetséges értékei), korlátozások: C 1,, Cm, ahol Ci D, konzisztens (megengedett) hozzárendelések: C1 C2. Cm. Egy hozzárendelést konzisztensnek nevezünk, ha nem sért meg egyetlen korlátozást sem. A célállapotok a megengedhető állapotok is egyben és néhány korlátozás kielégítési probléma azt is igényli, hogy a megoldás célfüggvényt maximalizáljon. Általában egy Ci, a változók egy részhalmazára tartalmaz megszorítást, gyakran változópárra. Algoritmusok: Kényszergráf: ha Ci párokra vonatkozik, akkor adott, ha nem, akkor segédváltozók bevezetésével átalakítható. A gráf csomópontjai a probléma változóinak, élei pedig a korlátoknak felelnek meg. A keresési teret inkrementálisan is definiálhatjuk: kezdeti állapot: {} (üres halmaz), azaz egyik változónak sincs értéke. szomszédok: valamely hiányzó változóhoz rendeljünk értéket, amely nem okoz konfliktust út költség: konstans költség mindegyik lépésre 10. Tétel Többágenses környezeteket vezetünk be, ahol minden ágensnek számolnia kell a többi ágens cselekvésével, mivel azok hatással vannak rá is (pl, sakk, reversi). Az MI-ben a játékok általában igen specializáltak amit a játékelméleti szakemberek determinisztikus, váltott lépésű kétszemélyes, zérusösszegű teljes információjú játékoknak neveznek. Vagyis: - Egy determinisztikus, megfigyelhető világban az ágensek cselekvései váltják egymást - A játék végén a hasznosságértékeik mindig azonosak, és ellentétes előjelűek. A játékot formálisan egyfajta keresési problémának is fel lehet fogni az alábbi komponensekkel: - Kiinduló állapot: tábla-állás + ki fog lépni - Állapotátmenet-függvény: megadja a legális lépéseket, és az azokból következő lépéseket - Végteszt: meghatározza, hogy mikor van vége a játéknak, ezek az állapotok a végállapotok - Hasznossági függvény: a játék végeredményéhez egy számértéket rendel hozzá, pl.: -1,0,+1 Optimális stratégia: Egy optimális stratégia olyan kimenetekhez vezet, amelyek legalább olyan jók, mintha egy tévedhetetlen ellenféllel játszanánk. Az optimális stratégia lényege, hogy a kezdőállapotból a lehetséges lépéseken át eljussunk a nyerésig. Természetesen ebbe az ellenfél is beleszól, vagyis a lépéssorozatban figyelembe kell vennünk, hogy az ellenfél is próbál törekedni az optimális stratégiára. MINMAX algoritmus: Alkalmazzuk a minmax fa minden csomópontjára az alábbi függvényt: MINMAX-ÉRTÉK(n)= Hasznosság(n), ha n egy végállapot MAX_s Követők(n)MINIMAX-ÉRTÉK(s) ha n egy MAX csomópont MIN_s Követők(n)MINIMAX-ÉRTÉK(s) ha n egy MIN csomópont Az optimális döntést az aktuális állapotból számítja ki, felhasználva az egyes követő állapotok minmax értékeinek kiszámítására a definiáló egyenletekből közvetlenül származtatott, egyszerű rekurzív formulát. A rekurzió egészen a levekig folytatódik, majd a minmax értékeket a fa mentén visszafelé terjesztjük a rekurzió visszalépésekor.

6 Idő-komplexitása O(b m ) és tár-komplexitása O(bm), ahol m a fa maximális mélysége és b a legális lépések száma. 11. Tétel A MINMAX algoritmus bejárja az egész fát, ezért nagy fa esetén sok erőforrást használ. Ezt elkerülendő, bizonyos feltételek alapján a fa ágainak egy részét elnyeshetjük, és ezáltal ki sem kell értékelni azokat. Ha a Játékosnak van az n szülőcsomópontjánál vagy ettől feljebb egy jobb választása, akkor az n csomópontot soha nem fogjuk elérni. Ezek alapján az n csomópontot nyugodtan lenyeshetjük. Az alfa-béta nyesés két paramétertől függ: - α : az út mentén tetszőleges döntési pontban a MAX számára eddig megtalált legjobb(vagyis legmagasabb értékű) választás értéke - β : az út mentén tetszőleges döntési pontban a MIN számára eddig megtalált legjobb(vagyis legalacsonyabb értékű) választás értéke. Az alfa-béta keresés az α és a β értékeit munka közben frissíti, és a csomópontnál a megmaradó ágakat lenyesi. Az algoritmus hatékonysága alapvetően függ a csomópontok vizsgálatának sorrendjétől. Komplexitása: O(b (m/2) ). Algoritmus: alphabeta( állapot, alpha, beta ) 1) if állapot = végállapot then return hasznosság( állapot ) 2) for minden s eleme lehetséges következő állapot 3) alpha = max ( alpha, -alphabeta( s, -beta, -alpha )) 4) if beta <= ( kisebb egyenlo ) alpha then return alpha 5) return alpha 12. Tétel Heurisztikus értékelő-függvények és előállításuk: Relaxálás: a probléma egy, egyszerűbb változatának a költségének a megadása. Az így kapott költséget felhasználhatjuk heurisztikának az eredeti feladat megoldásához, mivel ez a költség kisebb lesz, mint az eredeti feladat költsége. Relaxált probléma optimális megoldásának költsége a h() egy elfogadható heurisztika az eredeti problémára. relaxáció = a feltételek elhagyása. Mivel a számított heurisztika a relaxált problémára egy pontos költség, teljesítenie kell a háromszög egyenlőtlenséget is, és ebből kifolyólag konzisztens is. Automatizált relaxálás: ha a feltételek formális nyelven is adottak, akkor a relaxált problémákat automatikusan is előállíthatjuk. Heurisztikák kombinálása: h(n) = max {h 1 (n),, h m (n)} Az így megkonstruált összetett heurisztikus függvény mindig azt a függvényt használja, amelyik az adott csúcspontra a legpontosabb. Mivel az alkotóelemként felhasznált heurisztikus függvények mind elfogadhatóak, ezért h is elfogadható. Továbbá h konzisztens és dominálja az összes, benne alkotóelemként felhasznált heurisztikus függvényt. Mintaadatbázisok: tároljuk az egyes részprobléma esetekhez tartozó pontos megoldási költségeket. Független részproblémák: a költségek összeadhatóak. Alfa-béta, minmax esetén - heurisztikus kiértékelő függvények a nem-végállapotokban - csak bizonyos mélységig használható (idő- és számítási igény miatt) - kiértékelés: 1. végállapotok, eredeti értékek 2. gyors, hatékony

7 3. a nem-végállapotokban a minmaxhoz nagyon közeli értékek (vagy legalább a nyerési esélyeket jól tükrözze) 13. Tétel Ítéletlogika szintaxisa: Az ítéletkalkulus szintaxisa meghatározza az értelmezhető mondatokat. - A szimbólumok: A B C D. - Mondatnak nevezünk egy atomot vagy egy komplex mondatot. - Az atom egy tovább már nem bontható szintaktikai elem, amely I H értékkel rendelkezik, vagy egy szimbólum. - A logikai jelek: (precendencia szerint) - A komplex mondat: mondat mondat * mondat, ahol * {,,, } A zárójeleket a precendencia szabályok figyelembe vételével elhagyhatjuk. Ítéletlogika szemantikája: A szemantika definiálja a szabályokat ahhoz, hogy meghatározzuk egy mondat igazságértékét modell: (lehetséges világ): a szimbólumokhoz igazságértékeket rendel. Pl.: Egy három szimbólumot tartalmazó mondat esetén a 2 3 = 8 db különböző modell lehetséges mondatok igazságértéke: A mondatok igazságértékét rekurzívan lehet meghatározni. Minden mondat atomokból és logikai jelekből épül fel, emiatt meg kell határoznunk az atomok, majd a komplex mondatok igazságértékét. (a) atomok: I = igaz, H = hamis, a szimbólumok értékét a modell határozza meg. (b) komplex mondat: a logikai műveletek igazságtábláival meghatározható az értékük 14. Tétel Logikai következmény - T és f mondatok. Ekkor T = f akkor és csak akkor, ha minden modellben és minden interpretációban, ahol T igaz értéket vesz fel, f is igaz értéket vesz fel. Kvantorok kiértékelése - xf(x) = x f(x), stb (csak vagy is elég) - x y f(x,y) y x f(x,y) (pl f(x,y) : x vezeti y-t) Logikai következtetés: A kvantoroktól megszabadulunk és a következtetési szabályokat felemeljük (lifting) úgy, hogy a finomszerkezetre figyelünk behelyettesítésekkel. kvantorok : - xf(x) => f(c), ahol c skolem konstans szimbólum. Általában a skolemizáció: - Ha y kvantorok között, és az x 1,...,x n -el kötött változókhoz tartozó kvantorok hatáskörében van, akkor helyettesítünk F(x 1,...,x n ) skolem függvénnyel. Lifting: P1',...,Pn', P1,...,Pn : atomok P1',...,Pn',(P1 Pn q) helyettesít (Θ, q) Ahol Θ helyettesítés azon szabad változók helyettesítése olyan termekkel, amelyek más mondatokban előfordulnak. Kielégíthetőség alapú algoritmus: három fő lépésből áll 1. vegyünk (α β)-t, és alakítsuk konjuktív normálformára 2. alkalmazzunk mélységi keresést a következő térben: keresési tér: atomok egy részhalmazához igazságértéket rendelünk kezdőállapot: egyik atomhoz sincs érték rendelve operátor: egy nem hozzárendelt atomhoz igazat illetve hamisat rendel hozzá

8 célállapot: kielégítő modell tétel hamis 3. (A B) (A C) igaz, ha A igaz, ezért vágni lehet. Egy szimbólum tiszta szimbólum, ha mindig ugyanazzal az előjellel szerepel minden klózban. 15. Tétel Következtető algoritmusok: logikai ekvivalencia: α és β logikailag ekvivalens, (α β), ha ugyanazok a modelljeik tautológia: P tautológia, ha minden modellben igaz, jelölése: = P dedukciós tétel: Minden α és β mondatra teljesül, hogy α = β, akkor és csak akkor, ha = α β kielégíthetőség: Egy mondat kielégíthető, ha van olyan modell, amelyben igaz. - α tautológia α kielégíthetetlen - α kielégíthető α nem tautológia reductio ad absurdum(indirekt bizonyítás): α = β (α β) kielégíthetetlen. Itt az α a tudásbázis, a β a tétel amit bizonyítani akarunk α-ból. Rezolúció az ítéletlogikában: Rezolúció során is az a cél, hogy a (α β) kielégíthetetlenségét bebizonyítsuk. Iteratívan mélyülő keresés a következő térben: keresési tér: konjuktív normál formulák kezdőállapot: (α β) konjuktív normál formája operátorok: a rezolúció és hogy az azonos literálokból csak egy maradjon célállapot: az üres klóz. Az üres klóz azonosan hamis, ekkor a β tétel. Az S klóz rezolúciós lezártja RC (S), az összes olyan klóz halmaza, amely levezethető S-ből rezolúcióval. Ez bizonyítja a rezolúció teljességét. Tétel: Ha klózok egy halmaza kielégíthetetlen, akkor a rezolúciós lezártjuk tartalmazza az üres klózt. Bizonyítás: A tételt a kontrapozíciójával bizonyítjuk: Ha RC (S) nem tartalmazza az üres klózt, akkor S kielégíthető. 16. Tétel Elsőrendű logika szintaxisa: - mondat atom (összekötő mondat) kvantor változó mondat mondat - atom predikátum (term, ) term = term - term függvény (term, ) kvantorok változó - összekötő - kvantor - kvantorok A B C (nagybetűk) - változók x y z (kisbetűk) Elsőrendű logika szemantikája: Ítéletkalkulus egy lépése : Lehetséges világok közül választunk, ez a modell az elsőrendű logikához, ahol a lehetséges világ a domain, ami a létező objektumok halmaza (D). Ehhez még kell egy interpretáció, ami a következő: - Minden kvantorhoz rendel elemet a domainből. - Minden függvényhez (n változós) rendel egy D n D függvényt. - Minden predikátumnévhez (n változós) egy D n {igaz / hamis} függvényt. Egy fix domain-en, sok különböző interpretáció is lehet. Kvantorok: Legyen f egy mondat, amelyben szerepel az x változó. x szabad változó, ha - f atomi mondat - <=> f 1 -ben szabad változó

9 - <=> f összetett (pl f 1 f 2 ) és x szabad f 1 -ben vagy f 2 -ben - f= y f 1 (vagy y f 1 ) és x y x kötött változó, ha - x szerepel f-ben és nem szabad 17. Tétel Rezolúció az elsőrendű logikában: Két klóz, amelyek standardizálva vannak, tehát nem tartalmaznak azonos változókat, akkor rezolválható, ha tartalmaznak komplemens literálokat. Akkor komplemensek a literálok, ha az egyik egyesül a másik negációjával. egyetlen-szabály : két klózra l 1 l 2, m 1 m n helyettesít(θ, l 1 l i-1 l i+1 l 2 m 1 m j-1 m j+1 m n ) (lifting a rezolúció szabályhoz) ahol helyettesít (Θ, l i ) = helyettesít (Θ, m j ) Lépések: 1. Vegyük fel β -t : α β -ból indulunk 2. α β konjuktív normálformája kell -t automatikusan bevisszük csak és marad konstansoktól megszabadulunk literálok klózait hozzuk létre ( -t kivisszük) Bináris rezolúció: A komplemens literál pároknál, olyan helyettesítéseket alkalmazunk, hogy megegyezzenek, majd elimináljuk ezeket. Pontosan két literált old fel. Tétel: A rezolúció cáfolás-teljes, azaz ha β logikai következmény, találunk bizonyítást, de ha nem, akkor nem kell bizonyítani. Bizonyítás: hasonló mint az ítéletkalkulus. Gödel tétele: Minden ellentmondásmentes, a természetes számok elméletét tartalmazó, formális-axiomatikus elméletben megfogalmazható olyan mondat, mely se nem bizonyítható, se nem cáfolható. 18. Tétel Előre láncolás elsőrendű logikában: Horn-hoz hasonló adatbázis formátum. Határozott klóz : f 1 f 2... f k f k+1, ahol f i -k atomok (pozitív literálok) Tények: pozitív literál Literálok paraméterei: ha csak konstans vagy változó, akkor DATALOG formátum (függvényt nem engedünk). Kvantorokat továbbra is úgy kezeljük, ahogy eddig: Két módus komponens-t használunk a liftingel ugyanaz, mint az ítéletkalkulus, de: 1. algoritmus kell, az összes lehetséges helyettesítés megtalálásához 2. akkor van vége, ha egy új formula és a bizonyítandó α közös alakra hozható helyettesítésnek, vagy nincs új formula (ekkor α nem logikai következmény) Mintaillesztés komplexitása: A változók miatt az elsőrendű logikában MP lehetséges alkalmazásaink előállítása NP nehéz. Visszafelé láncolás Ugyanaz, mint az ítéletkalkulus, csak a helyettesítésekre kell figyelni 1. A helyettesítések Θ halmaza kezdetben üres. 2. Mélységi bejárással ezt a halmazt fokozatosan bővítjük, hozzáadva az új helyettesítéseket (amíg lehet).

10 3. A művelet sikeres, ha eljutunk a tényekig, melyek a levelekben vannak, ebben az esetben megkapjuk a behelyettesítést is. 4. A mélységi keresés miatt nem teljes és ismétlődő állapotok is lehetnek. 19. tétel: valószínűség alapfogalmai: véletlen változók, elemi események, valószínűség, feltételes valószínűség, valószínűség axiómái Véletlen változók: Az ítéletkalkulusban megismert ítéletek szerepét fogják betölteni, logikai operátorokkal, formulák készíthetők velük. A véletlen változók lehetséges értékeit (értéktartományát) nevezzük domaineknek. Jelölés szerint mindig nagybetűvel jelöljük a változó neveket, kisbetűvel az értékeiket. A véletlen változók tipikusan három típusba sorolhatók: 1. Boole - típusú 2. Diszkrét véletlen változók 3. Folytonos véletlen változók Elemi események: Az elemi esemény analógnak tekinthető az ítéletkalkulusbeli modellel (ha csak logikai véletlen változók vannak). Valószínűségi változókkal definiáljuk őket. Az elemi esemény egy olyan kijelentés, ahol minden egyes valószínűségi változóhoz szerepel (értéket kap), és ezeket konjugálom. Az elemi események tulajdonságai: - egymást kölcsönösen kizáró események, legfeljebb egy lehet igaz, - az összes elemi esemény halmaza kimerítő, tehát legalább az egyiknek igaznak kell lennie, - az előző kettőből tehát az következik, hogy a világ aktuális fennállását pontosan egy darab elemi esemény írja le, - egy elemi esemény minden lehetséges elemi kijelentéshez igazságértéket rendel, - minden kijelentés logikailag ekvivalens a neki nem ellentmondó elemi eseményeket leíró kijelentések halmazával. Valószínűség ( a priori valószínűség): Minden kijelentéshez valószínűséget rendelünk. Egy a állításhoz tartozó priori (feltétel nélküli) valószínűség az a meggyőződési mérték, amely bármely más információ hiányában az állításhoz kapcsolható. Jele: P(a) Feltételes valószínűség: P(a b), ahol a és b kijelentések. Ennek jelentése, hogy a valószínűsége ennyi, ha tudom, hogy b igaz, és a teljes tudásunk b. Technikai definíció: P(a b) = P(a, b) / P(b). Egyszerűbb definíciója a szorzatszabály, amelyben a és b szerepe felcserélhető. P(a és b) = P(a b)p(b) = P(b a)p(a) P(A B) pedig nem más, mint a P(A=a i B=b j ) értékek táblázata, ahol a i és b j A és B értékei minden párosításban. A valószínűség tulajdonságai és axiómái: Az eddigiekben szintaxist definiáltunk, most meg kell fogalmaznunk egy szemantikát is. Ezt az axiómákkal kezdjük: 1. A valószínűség mindig [0,1] között van. 2. Azonosan igaz esemény logikai valószínűsége mindig 1, azonosan hamis esemény logikai valószínűsége mindig P(A B) = P(A) + P(B) P(A B)

11 20. tétel: valószínűségi következtetés diszkrét változókkal, eloszlás reprezentációjának tömörítése: függetlenség Kiindulás a teljes együttes eloszlás, azaz elemi események valószínűségei (véletlen változók bármely értékkombinációja). Tehát a következtetéseinket a teljes valószínűségi eloszlás alapján tesszük fel. Egyszerűsítő jelölésmódot vezethetünk be: P(A) = b P(A,b), ahol A egy változó, vagy változók egy halmaza, és b az A-n kívüli változók összes értéke. A szorzatszabállyal ugyanez: P(A)= b P(A b)p(b). Itt annak a változónak a feltétel feletti eloszlását kapjuk meg, amelyet tartalmazó együttes eloszlásokból kiátlagoljuk az összes többi változót a szorzatszabályban, melyet feltételfeloldásnak nevezünk (conditioning). Általában: P(A b) = α P(A,b) = α x P(A,b,x), ahol α: normalizálási konstans, b: ismert tények (kijelentések), x: azon változók összes lehetséges értéke, amelyeknek az értéke ismeretlen (ezekből képzett kijelentések), A: változó, érdeklődésük tárgya. A függetlenség: Kétfajta függetlenségről beszélünk: 1. abszolút függetlenség (két véletlen változó független hatékonyan használható valószínűségi tábla redukálására), 2. feltételes függetlenség (finomabb módszer, további tömörítést tesz lehetővé). Ebből következik a definíciót: - a és b függetlenek akkor és csak akkor, ha P(a és b) = P(a)P(b), ahol a és b kijelentések, - A és B változók függetlenek akkor és csak akkor, ha P(A,B) = P(A) P(B). Ezzel ekvivalens definíciók: 1. P(A B)=P(A) 2. P(B A)=P(B). Ha változók egy halmaza felbontható független részhalmazokra, akkor csökkenthető a teljes együttes eloszlás tárolási mérete. Ekkor minden részhalmazhoz elég az együttes eloszlás lokálisan, ezáltal sokszor nagy tömörítést érhetünk el.

12 21. tétel: feltételes függetlenség, Bayes szabály, Bayes háló definíciója Feltételes függetlenségről: Lehet, hogy a és b általában nem függetlenek, viszont létezik c úgy, hogy P(a és b c) = P(a c)p(b c). Ekkor a és b kijelentések feltételesen függetlenek (c feltevésével), például akkor, ha a és b közös oka c. Általában A és B változó függetlenek, akkor és csak akkor, ha létezik C úgy, hogy P(A B,C) = P(A C)P(B C). A definícióval ekvivalens két másik definíció: P(A B,C) = P(A C) és P(B A,C) = P(B C). Bayes - szabály: Állítás: P(b a) = P a b P b P a Bizonyítás: P(a és b) = P(a b)p(b) = P(b a)p(a) Általában is: P(B A) = P A B P B, ahol A és B véletlen változók halmaza P A 1. Feltételes függetlenség kompakt reprezentációja használható. 2. A gyakorlatban sokszor a jobb oldalon lévő példák ismertek, míg a bal oldaliak nem. Másik alakja (α normalizálási konstans használatával): P(B A) = α P(A B)P(B), itt α adódik az 1-re normalizálásból, de a teljes eloszlást ki kell hozzá számolni. Bayes háló: Olyan adatstruktúra, mely a feltételes függetlenségeket ragadja meg, és egy teljes együttes eloszlás tömör reprezentációja. Részei: 1. Csúcsok: véletlen változók 2. Élek: függési reláció ( ha X Y él, akkor X az Y szülője) 3. Feltételes eloszlás: P(X X szülői) 4. A háló DAG azaz körmentes irányított gráf A háló nem egyértelmű, az eloszlást több háló is leírhatja! 22. tétel: Bayes háló konstruálása diszkrét változókból, zajos-vagy Belátható: legyenek a változók X 1,, X n 1. Ha az X j nem leszármazottja X i -nek, akkor P(X i Szülők(X i ), X j ) = P(X i Szülők(X i )) 2. Ha az X j tetszőleges változó, akkor P(X i Markov-takaró(X i ), X j ) = P(X i Markov-takaró(X i )) Markov - takaró: Szülők Gyerekek Gyerekek szülői Tehát X i csak a Markov - takarótól függ. További tömörítés: Ha k szülő van, akkor 2 k méretű táblázat kell az adott változóhoz. Ha k kicsi, akkor konstans, nem rossz de gyakran még kevesebb információ is elég. Determinisztikus változók: a szülő változók értékeinek függvénye Pl.: X i = min(szülők(x i )) Zajos-vagy ( noisy-or ): 2 k helyett k (ahol pont egy i van) a többi ebből számolva (egyszerűsítés de tömör)

13 23. tétel: valószínűségi következtetés Bayes hálókban: exakt képletek, közvetlen mintavétel, elutasító mintavétel, valószínűségi súlyozás Exakt eset: tudjuk, hogy a teljes együttes eloszlásból kiszámolható, de a Bayes - hálóból kiszámolható a teljes együttes eloszlás. Műveltigény: Kiemelés előtt: O(n2 n ) Kiemelés után: O(2 n ) Ezeken lehet javítani: lehetőleg minden részsorozatot csak egyszer számoljunk ki (dinamikus programozás) Közvetlen mintavétel: Célok: 1. Teljes együttes eloszlás szerint generálni változó hozzárendeléseket véletlenszám-generátorral (új mintát könnyebb venni, mint minden lehetséges hozzárendelés valószínűségét megadni) 2. A generált hozzárendelésekben megfigyelt gyakoriságokkal közelíteni a valószínűséget A szülő nélküli változókkal kezdjünk és lefelé haladjunk, majd a mintavételt sokszor ismételjük. Elutasító mintavétel: N A,b P(A b) = α P(A,b) helyett vegyük P(A b) = lim N N b kiszámolható. mászóval α 1 N b közvetlenül Valószínűségi súlyozás (likelihood weighting): Számolás: minták gyakoriságának számolása helyett a súlyokat adjuk össze m 1, m n mintákra a,b,c szerepel és w 1,,w n súlyokra. N helyett w m i és N(a,b,c) helyett i ben i 24. tétel: felügyelt tanítás problémája, alapfogalmai, indukció problémája Felügyelt tanulás (induktív tanulás - inductive learning): Egyszerű függvényillesztéstől a fizika tudományáig sok mindent lefed. Adott egy ismeretlen f : A B függvény és (x 1, (f (x 1 )),..., (x n, f ( x n )) példák. Keresünk egy h : A B függvényt, ami f-et közelíti. A h függvény a H hipotézistér eleme, H lehet pl. maximum k fokú polinomok, vagy bármi más. Indukció problémája: Az f jó közelítése olyan h, amely ismeretlen x-re is jól becsüli f(x)-et (nem csak az adott példákra), azaz jól általánosít. Pl.: Ha h(x) = f x, ha ismert a példa 0, egyébként { akkor h egyáltalán nem általánosít, de a tanító példákat tökéletesen tudja. Ebből következik, hogy: 1) Törekszünk tömörebb reprezentációra, mint az adatok: Ockham borotvája (Ockham's razor): a lehető legtömörebb leírás, ami még elég Kolmogorov-komplexitás (algoritmikus komplexitás):

14 2) Törekszünk egyszerű reprezentációra a hatékonyság miatt is, mivel egyszerűbb reprezentációban könnyebb keresni. 25. tétel: döntési fák Döntési fák (decision tree): Bemenetként egy attribútumokkal leírt objektumot vagy szituációt kap, és egy döntést ad vissza eredményként a bemenetre adott válasz jósolt értékét. Mind a bemeneti attribútumok, mind pedig a kimeneti érték lehet diszkrét vagy folytonos. Feltesszük, hogy x A diszkrét változók értékeinek vektora, és f(x) B diszkrét változó egy értéke (pl. B = {igen, nem}) Ha a függvény értékkészlete, f(x): - diszkrét, a függvény tanulását osztályozás (classification) tanulásnak, - folytonos, a függvény tanulását regressziónak (regression) nevezzük. Döntési fák kifejezőereje: Várakozás (A 1... A m ) (B 1... B n )... Útvonalak igen levélbe, A i, B i pedig az elágazások. A formulában a diszjunkciós tagok mindegyike azon tesztek konjukciójának felel meg, amelyeket a gyökértől egy pozitív kimenetet jelentő levélig megtett út során végeztünk. Ez éppen egy ítéletkalkulusbeli kifejezés, mivel csak egyetlen változót tartalmaz és minden predikátum unáris. 1.) Ítéletek, pl.: Vendégek = Senki, Vendégek = Néhány, stb. 2.) Az x egy modell. 3.) A döntési fa pedig logikai formula, f(x) a formula kiértékelése. Milyen tömör lehet? Láttuk, hogy ha véletlen, nem tömöríthető. De nem tömöríthető a paritásfüggvény (akkor és csak akkor ad 1-et, ha páros számú bemenet 1 értékű), ekkor egy exponenciálisan nagy döntési fára lesz szükség. Vagy a többségfüggvény (akkor ad 1-et, ha a bemeneteinek több, mint a fele 1 értékű). Az összes változót tudni kell - illetve O(n) - et. Döntési fa építése: Egy logikai döntési fa által kezelhető példa a bemeneti attribútumok X vektorából és egyetlen logikai kimeneti értékből, y-ból áll. Heurisztika: A lehető legjobban szétválogatjuk a pozitív és negatív példákat, így a gyökérbe kerül azaz attribútum, amely a legjobban szeparál. (rekurzív algoritmus): 1.) Válasszuk ki a gyökeret és szeparáljuk a példákat, 2.) Minden ágon a maradék attribútumokra és az oda eső példákra rekurzívan ugyanez. Az esetek, amiket vizsgálni kell a rekurzióban: 1.) Pozitív és negatív példa is van: szeparáljuk őket a legjobban egy attribútumot választva. 2.) Csak pozitív vagy csak negatív példa van: leáll, ez az ág kész. 3.) Nincs példa, de attribútum még van, ekkor default érték, és heurisztikát alkalmazunk. 4.) Ha pozitív és negatív példa is van, de nincs több attribútum, azaz hiba (zaj) a példákban. Ekkor heurisztikát alkalmaz, pl. többségi szavazat (ha több volt a pozitív, akkor pozitív lesz.) A legjobban szeparáló attribútum: Adott változó ismerete mennyivel növeli az információt arról, hogy egy példa igen vagy nem. Információ információelmélet:

15 A p valószínűségű esemény információtartalma: log(p). Ha log 2 -t használunk, mértékegysége a bit. Véletlen változó átlagos információtartalma (entrópia): Σ i p i log 2 (p i ) ( p 1,..., p n, valamint az eloszlás: 1=Σ p i ). Döntési fa egy csomópontjának információtartalma: Legyen p a csomópont alatti pozitív, n pedig a negatív példák száma, a csomópont A. I(A) = p p n log 2 p p n n p n log 2 n p n Információ-nyereség A-ban: A gyerek csúcsainak az átlagos információtartalma azt fejezi ki, hogy A - szerint felbontva mennyi bizonytalanság marad. Legyenek B 1,..., B v A gyerek csúcsai. (A-nak v értéke van, ami v részhalmazra osztja a példákat.). Legyenek E 1,..., E v a megfelelő példa részhalmazok, ahol E i =n i +p i. Nyereség (A) = I A i=1 v 26. tétel: induktív tanuló algoritmusok kiértékelése p i n i p n I B i,ahol a maximális nyereségű attribútumot választjuk. A tanító halmazon építjük a modellt (pl. döntési fát), a teszt halmazon értékeljük ki. Kukucskálás (peeking): Ha a teszteredmények alapján finomhangoljuk az algoritmus paramétereit, akkor a modell függ a teszttől, és a teszthalmazra van optimalizálva. Túlillesztés (overfitting): a magolás egy általánosabb formája a túlillesztés, amikor túl messzemenő következtetéseket vonunk le kevés adatból. Kisszámú példák miatt nem igazi minták alakulhatnak ki. Keresztvalidáció (cross-validation): A tanító / teszt felosztás általánosítása, ez a módszer alaposabban szeparál: 1.) Osszuk fel a példákat K egyenlő részre. 2.) Építsünk K modellt a következőképpen: vegyük valamely részhalmazt, mint teszt halmazt és a többi K-1 et tanítsuk. 3.) Értékeljük ki a K modellt a megfelelő teszthalmazon és vegyük a K értékelés átlagát, ez lesz az értékelés. Megbízhatóbb kiértékelés, hiszen az összes elemet felhasználtuk tesztadatnak. Alkalmazás: Ha van m darab algoritmusunk, mindet kiértékeljük keresztvalidációval, és a legjobb algoritmus segítségével építünk modellt az egész példahalmazon. Ez lesz a végeredmény. Döntési fa specifikus technika (keresztvalidációs algoritmus független): Azért, hogy az irreleváns attribútumokat ne építse be az algoritmusba. Pl. statisztika alkalmazásával. => Valamit tanulni fog, de az biztos tévedés lesz! 27. tétel: hipotézis együttesek, turbózás (boosting), AdaBoost algoritmus Hipotézisegyüttesek (ensemble): Sokszor jó ötlet egy modell (hipotézis) helyett többet gyártani, esetleg más algoritmusokkal, és pl. többségi szavazást alkalmazni. 1.) Modellek hibái nem pont ugyanazok (ideálisan: függetlenek), ezért statisztikailag megbízhatóbb. 2.) Kombinálhatunk is az egyszerűbb modelleket. Turbózás (boosting): Gyenge algoritmusok együttesét állítja elő, amelyek így a tanuló halmazt helyesen osztályozzák. Gyenge algoritmus (weak algorithm): Amely jobb, mint a találgatás, azaz 50 % nál több példát képes helyesen osztályozni a legyártott modell. Jelöljük a gyenge algoritmust L- lel.

16 Ada Boost algoritmus: AdaBoost (példák, L, M) // példák: N darab példa, (x i, y i ), i=1,..., n // L : tanuló algoritmus (gyenge) // M: hipotézisek száma az együttesben // w i : (x i, y i ) súlya, 1/N kezdetben // h i : i-edik hipotézis ( i=1,...,m ) if h m (x j ) = y j then w j w j * error / (1 error) w Normalizál(w) z m log[(1 error) / error] return SúlyozottTöbbség(h, z) // z i : i-edik hipotézis súlya for m = 1 to M h m L(példák, w) error 0 for j = 1 to N if h m (x j ) y j then error error + w j for j = 1 to N 28. tétel: Bayes tanulás, MAP tanulás, maximum likelihood tanulás (definíciók) A Bayes - tanulás során egyszerűen kiszámoljuk minden egyes hipotézis valószínűségét az adatokra támaszkodva, majd ezek alapján adunk predikciót. Azaz az összes hipotézist használjuk, s valószínűségükkel súlyozzuk őket. A hipotézisek valószínűségét a Bayes - szabállyal adjuk meg: P (h i d) = α P(d h i )P(h i ), ahol α az egy konstans α = 1 / P(d), d a megfigyelt adatok. Ha egy X értékét akarjuk jósolni, akkor ez a képlet: P (X d) = Σ i P (X d, h i )P (h i d) = Σ i P (X h i )P (h i d) Ezek után három nagyon fontos fogalmat kell tisztáznunk: Prior, P(h i ): hipotézisek a priori valószínűsége, azaz adott hipotézis fennállása, ha még semmit nem tudunk a világról, Pl.:(komplex hipotézisekhez lehet kisebbet, egyszerűbb hipotézisekhez nagyobbat) Likelihood, (könyvben adatvalószínűségként említik): P(d h i ) : megfigyelések valószínűsége h i mellett Posterior P(h i d) : hipotézis a posteriori valószínűsége, azaz tapasztalat utáni valószínűség A Maximum a posteriori tanulás (MAP) módszerében a priorokkal súlyozott összeg helyett a legvalószínűbb hipotézis alapján végezzük a predikciót, azaz a maximális P(h i d)-hez tartozó h i -t használjuk. Tehát vesszük a valószínűségeket, s kiválasztjuk a maximumot. A MAP felhasználja a prior valószínűségeket, s ebből számol posteriort, de a döntést már nem átlagolja, hanem a maximálisat fogja, és a többit figyelmen kívül hagyja. A maximális hipotézist keresi. A MAP hipotézis alapján végzett predikációk közelítőleg Bayes-predikciók. Ám ez sokkal veszélyesebb módszer, mert túl gyorsan következtetünk A Maximum-likelihood tanulás esetén további egyszerűsítéseket teszünk, mégpedig hogy bármely hipotézis a priori valószínűsége egyenlő. (pl.: ugyanolyan komplex hipotézisek). Ekkor vesszük a maximális P(d h i )-hez tartózó h i -t. Nagyon sok adatnál ugyanoda konvergál, mint a Bayes és a MAP, de kevés adatnál érzékeny, problémák merülhetnek fel az alkalmazásánál.

17 29. tétel: log-likelihood technika, illusztrációja két példával Tanulás teljesen specifikált példákból Tegyük fel, hogy: az összes tanítópéldában minden változó értéke adott, ami a terület valószínűségi modelljében szerepel. Maximum likelihood: diszkrét változók 1. példa: meggy\ citrom, de most Θ a megy aránya, Θ ismeretlen. hipotézis: a meggy aránya Θ nevezzünk meg N db cukorkát: o legyen m db meggy, c db citrom, [c=n-m] o ekkor az adathalmaz valószínűsége, ha a minták függetlenek: P (d ) = = m (1- ) c Melyik Θ - ra maximális? Ehhez: L (d ) = log P (d ) = =m*log + c*log (1 - ). [a log P()-nek ugyanott van a maximuma, de gyakran könnyebb kiszámolni] [elég természetes eredmény]. Megint keresési probléma (maximum). Gyakran nem ilyen egyszerű, hanem pl. hegymászó, stb. kellhet. Megjegyzés: kevés adathalmaz esetén, pl. ha N=1, azt mondja, hogy minden cukor citrom (vagy meggy) [nem használ priorokat] 2. példa: most legyen kétféle csomagolás: piros és zöld a fenti Bayes hálóval kifejezett eloszlás szerint. Három paraméter: Θ, Θ 1, Θ 2 pl. P (meggy, zöld ) = P (zöld meggy, ) * P (meggy ) = Θ (1- Θ 1 ) megint van N db példánk: m db megy, c=n - m citrom legyen Pm + Zm =m a piros és zöld csomagolású meggyek száma, Pc + Zc = c hasonlóan. Ekkor P (d ) = Megint logaritmust véve tagonként maximalizálhatjuk: o megint természetes eredmény, azaz belátható, hogy diszkrét Bayes - hálóhoz mindig hasonló eredmény, azaz minden táblázatot egymástól függetlenül becsülünk. 30. tétel: naiv Bayes algoritmus Bayes - szabály: Állítás: P(b a) = P a b P b Bizonyítás: P(a és b) = P(a b)p(b) = P(b a)p(a) P a Általában is: P(B A) = P A B P B, ahol A és B véletlen változók halmaza P A Feltételes függetlenség kompakt reprezentációja használható. A Bayes - szabály során az okból az okozatra következtető valószínűséget használjuk fel arra, hogy okozatból okra következtető valószínűséget kapjunk. Másik alakja (α normalizálási konstans használatával): P(B A) = α P(A B)P(B), itt α adódik az 1-re normalizálásból, de a teljes eloszlást ki kell hozzá számolni. Naiv Bayes - következtetés:

18 Adottak: Y megfigyelési vektor (y 1,, y n ) V osztályok halmaza {v 1,, v k } Naiv Bayes tanulás: o itt O(N) táblázat van: adatokból becsülhetőek a paraméterek maximális likelihood szerint. o O(N) db osztás kell csak, és a P(c x 1,, x n ) = αp(c) becsülhető o megjegyzés: olcsó, és ehhez képest elég jó 31. tétel: Bayes tanulás a béta eloszlás segítségével, illusztráció egy példával, konjugált prior fogalma Bayes tanulás cukorkás példa ( paraméter, N minta), de most prior is van: P(O) = P( = O) [O: hipotézis véletlen változó] pl. O nak lehet egyenletes eloszlása ( [0,1] - en) [ ekkor maximum likelihood]. gyakorlatban gyakran veszünk béta eloszlást: o béta [a, b] ( ) = a-1 (1 - ) b-1 sűrűségfüggvény. paraméterek: a,b : konstans o a = 1, b = 1 : egyenletes o a = b: szimmetrikus o a + b nagy: csúcsos o E(O) = a/ a +b legyen a prior beta[a,b]( O), ekkor egy D1 adat után: P( D1=meggy) = P (D1 = meggy ) P( ) = beta[a,b] ) = a (1 )b-1 = beta[a+1,b]( ) ez a konjugált prior tulajdonság, azaz a prior eloszlása ugyanaz, mint a posterioré, csak más paraméterekkel. 32. tétel: példa alapú tanulás: k legközelebbi szomszéd, kerneln A tanulás arról szól, hogy modellt húzunk az adatokra, és a modell alapján a meg nem látott dolgokat szeretnénk általánosítani, megjósolni előre. A példa alapú tanulás is hasonlóról szól. Adott (x 1, y 1 ) (x n, y n ) példák. Klaszterezési feladatnál például x alapján kell y-t megmondani. A tanítópéldáknál ezt előre megmondjuk. Ötlet: ismeretlen x kiértékelése hasonló ismert példák alapján. Ezekből a tapasztalatokból állítsuk elő y-t. Nincs explicit modell, vagy függvény, hanem úgymond halmazzal tanítunk, de egyáltalán nem magolásról van szó.

19 Legközelebbi szomszéd modellek: 1. Keressük meg x-nek a k legközelebbi szomszédját. Globális heurisztikának tekinthető, nagyon általános érvényű ( hasonló dolgok hasonlóképp viselkednek ). Ha ezt a Touring-gépek halmazán tekintjük, ez egy merész heurisztika. 2. h(x) a szomszédok y-jainak átlaga (esetleg távolság szerint súlyozott) ha folytonos a probléma, v a szomszédok y-jainak többségi szavazata (diszkrét). Ha csak x 1 x n adott és y-ok nem, akkor a p(x) sűrűség közelítése is jó, azaz milyen valószínűséggel jönnek adott inputok a továbbiakban. Nézzük meg, hogy k legközelebbi szomszéd mekkora területen oszlik el? (sűrűség: pontok / terület) fontos: távolságfüggvény D(x 1, x 2 ) 1. folytonos változónál normalizálni kell a dimenziókat (pl, súly, magasság nem ugyanaz a skála, ellipszisként képzelhetjük el a vizsgált területet). Ekkor vehetjük például minden jellemző szórását, és a jellemző értéket a szórás többszöröseiként fejezzük ki. Folytonos esetben érdemes valamilyen euklideszi távolságot venni. 2. diszkrét esetben Hamming távolság: különböző jellemzők száma (hány változóban különbözik), pl. H(001,111) = 2 (2 helyen különbözik) egyszerű, de sokszor jó tanuló algoritmus. Problémái: - érzékeny a távolság-függvényre (holott a módszer egyszerű ötleten alapszik) - nagy adathalmazokon költséges a k szomszédot megtalálni (néha még végigmenni is költséges egy adathalmazon, internet), ilyenkor a modellépítés célravezetőbb lesz - ha sok jellemző van (sokdimenziós tér) akkor kb. mindenki közel van mindenkihez. Kernel módszerek: Módszer: minden példát saját jogán veszek figyelembe (szomszéd nincs). Minden példához hozzárendelek egy saját függvényt (pl. harang-alakú függvényt), ami azt mutatja, milyen súllyal vesszük a példát figyelembe. Minden x i példához veszünk egy K(x,x i ) kernel - függvényt, pl x i várható értékű, szigma normális eloszlás. Általában a K függvény egy sűrűség-(illetve diszkrét esetben eloszlás-) függvény. - sűrűség közelítése egy x pontra. p(x) = (1/n)ΣK(x,x i ) - h(x) közelítése: K-val súlyozott átlag Megjegyzés: itt minden tanítópéldát figyelembe veszünk 33. tétel: perceptron: definíció, kifejező erő, tanuló algoritmus Neuron absztrakt modellje: Inputok: tipikus a kétértékű input. Minden inputhoz (a j ) tartozik súly, w j,i, ahol i a neuron indexe. Összeszorozzuk az inputokat a súlyokkal, aztán az egészet össze szummázzuk. (belső szorzat) w o,i : eltolássúly (bias weight)

20 a 0 lineáris bemenet az eltolás kapcsolaton (-1) fix input, nagy jelentőségű. A lineáris függvények eltolásához hasznos lesz. Inputtól nem függ. (Meghatározza, hol lesz a küszöbérték) g: (0,1) közé képez le. Leggyakoribb, lépcsős vagy szigmoid Aktivációs függvény: 1. Ha jó input jön, adjon 1-koruli értéket, ha rossz, akkor 0 körülit 2. Nemlineáris legyen küszöbfüggvény vagy szigmoid függvény (1/(1+e -x )) 3. g(in i ) éppen w o,i -nél fog változni 0-bol 1-be 4. szigmoid deriválható tanuló algoritmusnak jobb Általában osztályozási feladatot adunk a neuronoknak. Nem tipikus használat: logikai kapuk. Következmény: bármilyen logikai függvény modellezhető megfelelő számú neuronnal. A neurális háló általában logikailag nem (vagy nehezen) értelmezhető konstrukció. Teljesítmény szempontjából megfelelő. Gyakran túlszárnyalja a döntési fát. A neuronokból hálózatot szoktunk építeni. Az egyik neuron outputját hozzácsatoljuk a másik neuron inputjához. Tanuló algoritmus: Numerikus optimalizálás: súlyok terében gradiens módszer. Adott pontban megnézzük a függvény deriváltját, megnézzük nő-e vagy csökken, és attól függően, hogy min-t vagy maxot keresünk, ellépünk valamerre. Hasonlít a hegymászóra. A hibafüggvényt akarjuk minimalizálni. Mintapéldától és súlyvektortól függ (1-1 db). A hibának a gradiensét határozzuk meg w függvényében, ezután ellépünk a minimalizálás irányába. Technikai megoldás: hiba négyzetre emelése, hogy mindig pozitív legyen. Lényeg: - veszünk egy (x,y) tanítópéldát és - erre az egy példára csökkentjük az E hibafüggvényt, és - ezt ismételjük többször az összes példára, amíg w konvergál. 34. tétel: többrétegű előrecsatolt neurális háló, backpropagation algoritmus Többrétegű hálók: Itt van rejtett réteg. Egy rejtett réteggel már bármilyen folytonos függvény felírható. Rejtett réteg: azok a rétegek, amik outputnál nem látszanak. 1 darab nem-rejtett réteg van (output) a többi rejtett réteg. (inputot külön kezeljük). Tanuló algoritmus: Perceptronhoz hasonló, de az output vektorok, nem skalár értékek (több output lehet), és csak az outputot látjuk, a rejtett perceptronokat nem, ebből következik a visszaterjesztés (backpropagation) algoritmus. Úgy lehet felfogni, mintha a felelősséget visszaterjesztenénk a rejtett rétegekre. A hiba ugyanúgy definiálható, a megközelítés is ugyanaz lesz. Kivétel, hogy nem csak az outputban figyelünk súlyokat. A hibának az összes súly függvényében meg lehet határozni a deriváltját. Egy konkrét képletet kell parciálisan deriválni a súly alapján, majd ez alapján elmozdulni.

Mesterséges Intelligencia I.

Mesterséges Intelligencia I. Mesterséges Intelligencia I. 10. elıadás (2008. november 10.) Készítette: Romhányi Anita (ROANAAT.SZE) - 1 - Statisztikai tanulás (Megfigyelések alapján történı bizonytalan következetésnek tekintjük a

Részletesebben

Mesterséges Intelligencia I. (I602, IB602)

Mesterséges Intelligencia I. (I602, IB602) Dr. Jelasity Márk Mesterséges Intelligencia I. (I602, IB602) kurzus kilencedik előadásának jegyzete (2008. november 3.) Tanulás (Learning) Készítette: Szabó Péter EHA: SZPNAAT.SZE Szeged, 2008. december

Részletesebben

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31. Regresszió Csorba János Nagyméretű adathalmazok kezelése 2010. március 31. A feladat X magyarázó attribútumok halmaza Y magyarázandó attribútumok) Kérdés: f : X -> Y a kapcsolat pár tanítópontban ismert

Részletesebben

Dr. Jelasity Márk. Mesterséges Intelligencia I. Előadás Jegyzet (2008. október 6) Készítette: Filkus Dominik Martin

Dr. Jelasity Márk. Mesterséges Intelligencia I. Előadás Jegyzet (2008. október 6) Készítette: Filkus Dominik Martin Dr. Jelasity Márk Mesterséges Intelligencia I Előadás Jegyzet (2008. október 6) Készítette: Filkus Dominik Martin Elsőrendű logika -Ítéletkalkulus : Az elsőrendű logika egy speciális esete, itt csak nullad

Részletesebben

Logikai ágensek. Mesterséges intelligencia március 21.

Logikai ágensek. Mesterséges intelligencia március 21. Logikai ágensek Mesterséges intelligencia 2014. március 21. Bevezetés Eddigi példák tudásra: állapotok halmaza, lehetséges operátorok, ezek költségei, heurisztikák Feltételezés: a világ (lehetséges állapotok

Részletesebben

Bizonytalanság. Mesterséges intelligencia április 4.

Bizonytalanság. Mesterséges intelligencia április 4. Bizonytalanság Mesterséges intelligencia 2014. április 4. Bevezetés Eddig: logika, igaz/hamis Ha nem teljes a tudás A világ nem figyelhető meg közvetlenül Részleges tudás nem reprezentálható logikai eszközökkel

Részletesebben

Problémamegoldás kereséssel. Mesterséges intelligencia március 7.

Problémamegoldás kereséssel. Mesterséges intelligencia március 7. Problémamegoldás kereséssel Mesterséges intelligencia 2014. március 7. Bevezetés Problémamegoldó ágens Kívánt állapotba vezető cselekvéseket keres Probléma megfogalmazása Megoldás megfogalmazása Keresési

Részletesebben

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Keresés képi jellemzők alapján Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Lusta gépi tanulási algoritmusok Osztályozás: k=1: piros k=5: kék k-legközelebbi szomszéd (k=1,3,5,7)

Részletesebben

Új típusú döntési fa építés és annak alkalmazása többtényezős döntés területén

Új típusú döntési fa építés és annak alkalmazása többtényezős döntés területén Új típusú döntési fa építés és annak alkalmazása többtényezős döntés területén Dombi József Szegedi Tudományegyetem Bevezetés - ID3 (Iterative Dichotomiser 3) Az ID algoritmusok egy elemhalmaz felhasználásával

Részletesebben

Mesterséges Intelligencia MI

Mesterséges Intelligencia MI Mesterséges Intelligencia MI Valószínűségi hálók - következtetés Dobrowiecki Tadeusz Eredics Péter, és mások BME I.E. 437, 463-28-99 dobrowiecki@mit.bme.hu, http://www.mit.bme.hu/general/staff/tade Következtetés

Részletesebben

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Számítógépes képelemzés 7. előadás Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Momentumok Momentum-alapú jellemzők Tömegközéppont Irányultáság 1 2 tan 2 1 2,0 1,1 0, 2 Befoglaló

Részletesebben

Mesterséges Intelligencia MI

Mesterséges Intelligencia MI Mesterséges Intelligencia MI Problémamegoldás kereséssel ha sötétben tapogatózunk Dobrowiecki Tadeusz Eredics Péter, és mások BME I.E. 437, 463-28-99 dobrowiecki@mit.bme.hu, http://www.mit.bme.hu/general/staff/tade

Részletesebben

Mesterséges intelligencia, 7. előadás 2008. október 13. Készítette: Masa Tibor (KPM V.)

Mesterséges intelligencia, 7. előadás 2008. október 13. Készítette: Masa Tibor (KPM V.) Mesterséges intelligencia, 7. előadás 2008. október 13. Készítette: Masa Tibor (KPM V.) Bizonytalanságkezelés: Az eddig vizsgáltakhoz képest teljesen más világ. A korábbi problémák nagy része logikai,

Részletesebben

ÍTÉLETKALKULUS (NULLADRENDŰ LOGIKA)

ÍTÉLETKALKULUS (NULLADRENDŰ LOGIKA) ÍTÉLETKALKULUS SZINTAXIS ÍTÉLETKALKULUS (NULLADRENDŰ LOGIKA) jelkészlet elválasztó jelek: ( ) logikai műveleti jelek: ítéletváltozók (logikai változók): p, q, r,... ítéletkonstansok: T, F szintaxis szabályai

Részletesebben

Mesterséges Intelligencia I. (I602, IB602)

Mesterséges Intelligencia I. (I602, IB602) Dr. Jelasity Márk Mesterséges Intelligencia I. (I602, IB602) harmadik (2008. szeptember 15-i) előadásának jegyzete Készítette: Papp Tamás PATLACT.SZE KPM V. HEURISZTIKUS FÜGGVÉNYEK ELŐÁLLÍTÁSA Nagyon fontos

Részletesebben

Ellenőrző kérdések. 36. Ha t szintű indexet használunk, mennyi a keresési költség blokkműveletek számában mérve? (1 pont) log 2 (B(I (t) )) + t

Ellenőrző kérdések. 36. Ha t szintű indexet használunk, mennyi a keresési költség blokkműveletek számában mérve? (1 pont) log 2 (B(I (t) )) + t Ellenőrző kérdések 2. Kis dolgozat kérdései 36. Ha t szintű indexet használunk, mennyi a keresési költség blokkműveletek számában mérve? (1 pont) log 2 (B(I (t) )) + t 37. Ha t szintű indexet használunk,

Részletesebben

Gépi tanulás a gyakorlatban. Lineáris regresszió

Gépi tanulás a gyakorlatban. Lineáris regresszió Gépi tanulás a gyakorlatban Lineáris regresszió Lineáris Regresszió Legyen adott egy tanuló adatbázis: Rendelkezésünkre áll egy olyan előfeldolgozott adathalmaz, aminek sorai az egyes ingatlanokat írják

Részletesebben

Elsőrendű logika. Mesterséges intelligencia március 28.

Elsőrendű logika. Mesterséges intelligencia március 28. Elsőrendű logika Mesterséges intelligencia 2014. március 28. Bevezetés Ítéletkalkulus: deklaratív nyelv (mondatok és lehetséges világok közti igazságrelációk) Részinformációkat is kezel (diszjunkció, negáció)

Részletesebben

Logika es sz am ıt aselm elet I. r esz Logika 1/36

Logika es sz am ıt aselm elet I. r esz Logika 1/36 1/36 Logika és számításelmélet I. rész Logika 2/36 Elérhetőségek Tejfel Máté Déli épület, 2.606 matej@inf.elte.hu http://matej.web.elte.hu Tankönyv 3/36 Tartalom 4/36 Bevezető fogalmak Ítéletlogika Ítéletlogika

Részletesebben

Logika és informatikai alkalmazásai kiskérdések február Mikor mondjuk, hogy az F formula a G-nek részformulája?

Logika és informatikai alkalmazásai kiskérdések február Mikor mondjuk, hogy az F formula a G-nek részformulája? ,,Alap kiskérdések Logika és informatikai alkalmazásai kiskérdések 2012. február 19. 1. Hogy hívjuk a 0 aritású függvényjeleket? 2. Definiálja a termek halmazát. 3. Definiálja a formulák halmazát. 4. Definiálja,

Részletesebben

6. Függvények. Legyen függvény és nem üreshalmaz. A függvényt az f K-ra való kiterjesztésének

6. Függvények. Legyen függvény és nem üreshalmaz. A függvényt az f K-ra való kiterjesztésének 6. Függvények I. Elméleti összefoglaló A függvény fogalma, értelmezési tartomány, képhalmaz, értékkészlet Legyen az A és B halmaz egyike sem üreshalmaz. Ha az A halmaz minden egyes eleméhez hozzárendeljük

Részletesebben

Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)

Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence) Gépi tanulás Hány tanítómintára van szükség? VKH Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Induktív tanulás A tanítás folyamata: Kiinduló

Részletesebben

Mesterséges Intelligencia MI

Mesterséges Intelligencia MI Mesterséges Intelligencia MI Problémamegoldás kereséssel - csak lokális információra alapozva Pataki Béla BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Lokálisan

Részletesebben

Kétszemélyes játékok Gregorics Tibor Mesterséges intelligencia

Kétszemélyes játékok Gregorics Tibor Mesterséges intelligencia Kétszemélyes játékok Kétszemélyes, teljes információjú, véges, determinisztikus,zéró összegű játékok Két játékos lép felváltva adott szabályok szerint, amíg a játszma véget nem ér. Mindkét játékos ismeri

Részletesebben

A valós számok halmaza

A valós számok halmaza VA 1 A valós számok halmaza VA 2 A valós számok halmazának axiómarendszere és alapvető tulajdonságai Definíció Az R halmazt a valós számok halmazának nevezzük, ha teljesíti a következő axiómarendszerben

Részletesebben

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 10 X. SZIMULÁCIÓ 1. VÉLETLEN számok A véletlen számok fontos szerepet játszanak a véletlen helyzetek generálásában (pénzérme, dobókocka,

Részletesebben

Ítéletkalkulus. 1. Bevezet. 2. Ítéletkalkulus

Ítéletkalkulus. 1. Bevezet. 2. Ítéletkalkulus Ítéletkalkulus Logikai alapfogalmak, m veletek, formalizálás, logikai ekvivalencia, teljes diszjunktív normálforma, tautológia. 1. Bevezet A matematikai logikában az állításoknak nem a tényleges jelentésével,

Részletesebben

A maximum likelihood becslésről

A maximum likelihood becslésről A maximum likelihood becslésről Definíció Parametrikus becsléssel foglalkozunk. Adott egy modell, mellyel elképzeléseink szerint jól leírható a meghatározni kívánt rendszer. (A modell típusának és rendszámának

Részletesebben

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,

Részletesebben

Mesterséges intelligencia 2. laborgyakorlat

Mesterséges intelligencia 2. laborgyakorlat Mesterséges intelligencia 2. laborgyakorlat Keresési módszerek A legtöbb feladatot meg lehet határozni keresési feladatként: egy ún. állapottérben, amely tartalmazza az összes lehetséges állapotot fogjuk

Részletesebben

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 007/008 Az Előadások Témái Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció i stratégiák Szemantikus hálók / Keretrendszerek

Részletesebben

1. gyakorlat. Mesterséges Intelligencia 2.

1. gyakorlat. Mesterséges Intelligencia 2. 1. gyakorlat Mesterséges Intelligencia. Elérhetőségek web: www.inf.u-szeged.hu/~gulyasg mail: gulyasg@inf.u-szeged.hu Követelmények (nem teljes) gyakorlat látogatása kötelező ZH írása a gyakorlaton elhangzott

Részletesebben

Gépi tanulás Gregorics Tibor Mesterséges intelligencia

Gépi tanulás Gregorics Tibor Mesterséges intelligencia Gépi tanulás Tanulás fogalma Egy algoritmus akkor tanul, ha egy feladat megoldása során olyan változások következnek be a működésében, hogy később ugyanazt a feladatot vagy ahhoz hasonló más feladatokat

Részletesebben

V. Kétszemélyes játékok

V. Kétszemélyes játékok Teljes információjú, véges, zéró összegű kétszemélyes játékok V. Kétszemélyes játékok Két játékos lép felváltva adott szabályok szerint. Mindkét játékos ismeri a maga és az ellenfele összes választási

Részletesebben

Számítógépes döntéstámogatás. Genetikus algoritmusok

Számítógépes döntéstámogatás. Genetikus algoritmusok BLSZM-10 p. 1/18 Számítógépes döntéstámogatás Genetikus algoritmusok Werner Ágnes Villamosmérnöki és Információs Rendszerek Tanszék e-mail: werner.agnes@virt.uni-pannon.hu BLSZM-10 p. 2/18 Bevezetés 1950-60-as

Részletesebben

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók Előadó: Előadás anyaga: Hullám Gábor Pataki Béla Dobrowiecki Tadeusz BME I.E. 414, 463-26-79

Részletesebben

Gépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés

Gépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés Gépi tanulás a gyakorlatban Kiértékelés és Klaszterezés Hogyan alkalmazzuk sikeresen a gépi tanuló módszereket? Hogyan válasszuk az algoritmusokat? Hogyan hangoljuk a paramétereiket? Precízebben: Tegyük

Részletesebben

Mesterséges intelligencia 3. laborgyakorlat

Mesterséges intelligencia 3. laborgyakorlat Mesterséges intelligencia 3. laborgyakorlat Kétszemélyes játékok - Minimax A következő típusú játékok megoldásával foglalkozunk: (a) kétszemélyes, (b) determinisztikus, (c) zéróösszegű, (d) teljes információjú.

Részletesebben

(Independence, dependence, random variables)

(Independence, dependence, random variables) Két valószínűségi változó együttes vizsgálata Feltételes eloszlások Két diszkrét változó együttes eloszlása a lehetséges értékpárok és a hozzájuk tartozó valószínűségek (táblázat) Példa: Egy urna 3 fehér,

Részletesebben

Mesterséges Intelligencia MI

Mesterséges Intelligencia MI Mesterséges Intelligencia MI Valószínűségi hálók - alapok Dobrowiecki Tadeusz Eredics Péter, és mások BME I.E. 437, 463-28-99 dobrowiecki@mit.bme.hu, http://www.mit.bme.hu/general/staff/tade Valószínűségi

Részletesebben

Számítógép és programozás 2

Számítógép és programozás 2 Számítógép és programozás 2 11. Előadás Halmazkeresések, dinamikus programozás http://digitus.itk.ppke.hu/~flugi/ A keresési feladat megoldása Legyen a lehetséges megoldások halmaza M ciklus { X legyen

Részletesebben

Konjugált gradiens módszer

Konjugált gradiens módszer Közelítő és szimbolikus számítások 12. gyakorlat Konjugált gradiens módszer Készítette: Gelle Kitti Csendes Tibor Vinkó Tamás Faragó István Horváth Róbert jegyzetei alapján 1 LINEÁRIS EGYENLETRENDSZEREK

Részletesebben

Számítógép és programozás 2

Számítógép és programozás 2 Számítógép és programozás 2 6. Előadás Problémaosztályok http://digitus.itk.ppke.hu/~flugi/ Emlékeztető A specifikáció egy előfeltételből és utófeltételből álló leírása a feladatnak Léteznek olyan feladatok,

Részletesebben

Branch-and-Bound. 1. Az egészértéketű programozás. a korlátozás és szétválasztás módszere Bevezető Definíció. 11.

Branch-and-Bound. 1. Az egészértéketű programozás. a korlátozás és szétválasztás módszere Bevezető Definíció. 11. 11. gyakorlat Branch-and-Bound a korlátozás és szétválasztás módszere 1. Az egészértéketű programozás 1.1. Bevezető Bizonyos feladatok modellezése kapcsán előfordulhat olyan eset, hogy a megoldás során

Részletesebben

Kereső algoritmusok a diszkrét optimalizálás problémájához

Kereső algoritmusok a diszkrét optimalizálás problémájához Kereső algoritmusok a diszkrét optimalizálás problémájához A. Grama, A. Gupta, G. Karypis és V. Kumar: Introduction to Parallel Computing, Addison Wesley, 2003. könyv anyaga alapján A kereső eljárások

Részletesebben

Predikátumkalkulus. 1. Bevezet. 2. Predikátumkalkulus, formalizálás. Predikátumkalkulus alapfogalmai, formalizálás, tagadás, logikailag igaz formulák.

Predikátumkalkulus. 1. Bevezet. 2. Predikátumkalkulus, formalizálás. Predikátumkalkulus alapfogalmai, formalizálás, tagadás, logikailag igaz formulák. Predikátumkalkulus Predikátumkalkulus alapfogalmai, formalizálás, tagadás, logikailag igaz formulák. 1. Bevezet Nézzük meg a következ két kijelentést: Minden almához tartozik egy fa, amir l leesett. Bármely

Részletesebben

f(x) vagy f(x) a (x x 0 )-t használjuk. lim melyekre Mivel itt ɛ > 0 tetszőlegesen kicsi, így a a = 0, a = a, ami ellentmondás, bizonyítva

f(x) vagy f(x) a (x x 0 )-t használjuk. lim melyekre Mivel itt ɛ > 0 tetszőlegesen kicsi, így a a = 0, a = a, ami ellentmondás, bizonyítva 6. FÜGGVÉNYEK HATÁRÉRTÉKE ÉS FOLYTONOSSÁGA 6.1 Függvény határértéke Egy D R halmaz torlódási pontjainak halmazát D -vel fogjuk jelölni. Definíció. Legyen f : D R R és legyen x 0 D (a D halmaz torlódási

Részletesebben

minden x D esetén, akkor x 0 -at a függvény maximumhelyének mondjuk, f(x 0 )-at pedig az (abszolút) maximumértékének.

minden x D esetén, akkor x 0 -at a függvény maximumhelyének mondjuk, f(x 0 )-at pedig az (abszolút) maximumértékének. Függvények határértéke és folytonossága Egy f: D R R függvényt korlátosnak nevezünk, ha a függvényértékek halmaza korlátos. Ha f(x) f(x 0 ) teljesül minden x D esetén, akkor x 0 -at a függvény maximumhelyének

Részletesebben

Logika es sz am ıt aselm elet I. r esz Logika Hatodik el oad as 1/33

Logika es sz am ıt aselm elet I. r esz Logika Hatodik el oad as 1/33 1/33 Logika és számításelmélet I. rész Logika Hatodik előadás Tartalom 2/33 Elsőrendű rezolúciós kalkulus - előkészítő fogalmak Prenex formula, Skolem normálforma 3/33 Eldönthető formulaosztályok keresése

Részletesebben

Mesterséges Intelligencia MI

Mesterséges Intelligencia MI Mesterséges Intelligencia MI Problémamegoldás kereséssel - lokális információval Pataki Béla Bolgár Bence BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Rugó tervezése

Részletesebben

A lineáris programozás alapfeladata Standard alak Az LP feladat megoldása Az LP megoldása: a szimplex algoritmus 2018/

A lineáris programozás alapfeladata Standard alak Az LP feladat megoldása Az LP megoldása: a szimplex algoritmus 2018/ Operációkutatás I. 2018/2019-2. Szegedi Tudományegyetem Informatika Intézet Számítógépes Optimalizálás Tanszék 2. Előadás LP alapfeladat A lineáris programozás (LP) alapfeladata standard formában Max c

Részletesebben

A logikai következmény

A logikai következmény Logika 3 A logikai következmény A logika egyik feladata: helyes következtetési sémák kialakítása. Példa következtetésekre : Minden veréb madár. Minden madár gerinces. Minden veréb gerinces 1.Feltétel 2.Feltétel

Részletesebben

1. előadás. Lineáris algebra numerikus módszerei. Hibaszámítás Számábrázolás Kerekítés, levágás Klasszikus hibaanalízis Abszolút hiba Relatív hiba

1. előadás. Lineáris algebra numerikus módszerei. Hibaszámítás Számábrázolás Kerekítés, levágás Klasszikus hibaanalízis Abszolút hiba Relatív hiba Hibaforrások Hiba A feladatok megoldása során különféle hibaforrásokkal találkozunk: Modellhiba, amikor a valóságnak egy közelítését használjuk a feladat matematikai alakjának felírásához. (Pl. egy fizikai

Részletesebben

A lineáris programozás alapfeladata Standard alak Az LP feladat megoldása Az LP megoldása: a szimplex algoritmus 2017/

A lineáris programozás alapfeladata Standard alak Az LP feladat megoldása Az LP megoldása: a szimplex algoritmus 2017/ Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatika Intézet Számítógépes Optimalizálás Tanszék 2. Előadás LP alapfeladat A lineáris programozás (LP) alapfeladata standard formában Max c

Részletesebben

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017. Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017. Vizuális feldolgozórendszerek feladatai Mesterséges intelligencia és idegtudomány Mesterséges intelligencia és idegtudomány Párhuzamos problémák

Részletesebben

Megerősítéses tanulás 7. előadás

Megerősítéses tanulás 7. előadás Megerősítéses tanulás 7. előadás 1 Ismétlés: TD becslés s t -ben stratégia szerint lépek! a t, r t, s t+1 TD becslés: tulajdonképpen ezt mintavételezzük: 2 Akcióértékelő függvény számolása TD-vel még mindig

Részletesebben

Valószínűségi változók. Várható érték és szórás

Valószínűségi változók. Várható érték és szórás Matematikai statisztika gyakorlat Valószínűségi változók. Várható érték és szórás Valószínűségi változók 2016. március 7-11. 1 / 13 Valószínűségi változók Legyen a (Ω, A, P) valószínűségi mező. Egy X :

Részletesebben

Logika es sz am ıt aselm elet I. r esz Logika Negyedik el oad as 1/26

Logika es sz am ıt aselm elet I. r esz Logika Negyedik el oad as 1/26 1/26 Logika és számításelmélet I. rész Logika Negyedik előadás Tartalom 2/26 Az elsőrendű logika szemantikája Formulák és formulahalmazok szemantikus tulajdonságai Elsőrendű logikai nyelv interpretációja

Részletesebben

Információs rendszerek elméleti alapjai. Információelmélet

Információs rendszerek elméleti alapjai. Információelmélet Információs rendszerek elméleti alapjai Információelmélet Az információ nem növekedés törvénye Adatbázis x (x adatbázis tartalma) Kérdés : y Válasz: a = f(y, x) Mennyi az a információtartalma: 2017. 04.

Részletesebben

Sapientia - Erdélyi Magyar TudományEgyetem (EMTE) Csíkszereda IRT- 4. kurzus. 3. Előadás: A mohó algoritmus

Sapientia - Erdélyi Magyar TudományEgyetem (EMTE) Csíkszereda IRT- 4. kurzus. 3. Előadás: A mohó algoritmus Csíkszereda IRT-. kurzus 3. Előadás: A mohó algoritmus 1 Csíkszereda IRT. kurzus Bevezetés Az eddig tanult algoritmus tipúsok nem alkalmazhatók: A valós problémák nem tiszta klasszikus problémák A problémák

Részletesebben

Bevezetés az informatikába

Bevezetés az informatikába Bevezetés az informatikába 6. előadás Dr. Istenes Zoltán Eötvös Loránd Tudományegyetem Informatikai Kar Programozáselmélet és Szoftvertechnológiai Tanszék Matematikus BSc - I. félév / 2008 / Budapest Dr.

Részletesebben

Eseményalgebra. Esemény: minden amirl a kísérlet elvégzése során eldönthet egyértelmen hogy a kísérlet során bekövetkezett-e vagy sem.

Eseményalgebra. Esemény: minden amirl a kísérlet elvégzése során eldönthet egyértelmen hogy a kísérlet során bekövetkezett-e vagy sem. Eseményalgebra. Esemény: minden amirl a kísérlet elvégzése során eldönthet egyértelmen hogy a kísérlet során bekövetkezett-e vagy sem. Elemi esemény: a kísérlet egyes lehetséges egyes lehetséges kimenetelei.

Részletesebben

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 3 III. VÉLETLEN VEKTOROK 1. A KÉTDIMENZIÓs VÉLETLEN VEKTOR Definíció: Az leképezést (kétdimenziós) véletlen vektornak nevezzük, ha Definíció:

Részletesebben

2. Visszalépéses keresés

2. Visszalépéses keresés 2. Visszalépéses keresés Visszalépéses keresés A visszalépéses keresés egy olyan KR, amely globális munkaterülete: egy út a startcsúcsból az aktuális csúcsba (az útról leágazó még ki nem próbált élekkel

Részletesebben

Dunaújvárosi Főiskola Informatikai Intézet. Intelligens ágensek. Dr. Seebauer Márta. főiskolai tanár

Dunaújvárosi Főiskola Informatikai Intézet. Intelligens ágensek. Dr. Seebauer Márta. főiskolai tanár Dunaújvárosi Főiskola Informatikai Intézet Intelligens ágensek Dr. Seebauer Márta főiskolai tanár seebauer.marta@szgti.bmf.hu Ágens Ágens (agent) bármi lehet, amit úgy tekinthetünk, hogy érzékelők (sensors)

Részletesebben

Funkcionálanalízis. n=1. n=1. x n y n. n=1

Funkcionálanalízis. n=1. n=1. x n y n. n=1 Funkcionálanalízis 2011/12 tavaszi félév - 2. előadás 1.4. Lényeges alap-terek, példák Sorozat terek (Folytatás.) C: konvergens sorozatok tere. A tér pontjai sorozatok: x = (x n ). Ezen belül C 0 a nullsorozatok

Részletesebben

1. feladatsor: Vektorterek, lineáris kombináció, mátrixok, determináns (megoldás)

1. feladatsor: Vektorterek, lineáris kombináció, mátrixok, determináns (megoldás) Matematika A2c gyakorlat Vegyészmérnöki, Biomérnöki, Környezetmérnöki szakok, 2017/18 ősz 1. feladatsor: Vektorterek, lineáris kombináció, mátrixok, determináns (megoldás) 1. Valós vektorterek-e a következő

Részletesebben

Kereső algoritmusok a diszkrét optimalizálás problémájához

Kereső algoritmusok a diszkrét optimalizálás problémájához Kereső algoritmusok a diszkrét optimalizálás problémájához A. Grama, A. Gupta, G. Karypis és V. Kumar: Introduction to Parallel Computing, Addison Wesley, 2003. könyv anyaga alapján A kereső eljárások

Részletesebben

Statisztika - bevezetés Méréselmélet PE MIK MI_BSc VI_BSc 1

Statisztika - bevezetés Méréselmélet PE MIK MI_BSc VI_BSc 1 Statisztika - bevezetés 00.04.05. Méréselmélet PE MIK MI_BSc VI_BSc Bevezetés Véletlen jelenség fogalma jelenséget okok bizonyos rendszere hozza létre ha mindegyik figyelembe vehető egyértelmű leírás általában

Részletesebben

Dualitás Dualitási tételek Általános LP feladat Komplementáris lazaság 2017/ Szegedi Tudományegyetem Informatikai Intézet

Dualitás Dualitási tételek Általános LP feladat Komplementáris lazaság 2017/ Szegedi Tudományegyetem Informatikai Intézet Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatikai Intézet Számítógépes Optimalizálás Tanszék 7. Előadás Árazási interpretáció Tekintsük újra az erőforrás allokációs problémát (vonat

Részletesebben

Relációk Függvények. A diákon megjelenő szövegek és képek csak a szerző (Kocsis Imre, DE MFK) engedélyével használhatók fel!

Relációk Függvények. A diákon megjelenő szövegek és képek csak a szerző (Kocsis Imre, DE MFK) engedélyével használhatók fel! függvények RE 1 Relációk Függvények függvények RE 2 Definíció Ha A, B és ρ A B, akkor azt mondjuk, hogy ρ reláció A és B között, vagy azt, hogy ρ leképezés A-ból B-be. Ha speciálisan A=B, azaz ρ A A, akkor

Részletesebben

Amortizációs költségelemzés

Amortizációs költségelemzés Amortizációs költségelemzés Amennyiben műveleteknek egy M 1,...,M m sorozatának a futási idejét akarjuk meghatározni, akkor egy lehetőség, hogy külön-külön minden egyes művelet futási idejét kifejezzük

Részletesebben

Mesterséges Intelligencia MI

Mesterséges Intelligencia MI Mesterséges Intelligencia MI Problémamegoldás kereséssel - ha segítenek útjelzések Dobrowiecki Tadeusz Eredics Péter, és mások BME I.E. 437, 463-28-99 dobrowiecki@mit.bme.hu, http://www.mit.bme.hu/general/staff/tade

Részletesebben

További forgalomirányítási és szervezési játékok. 1. Nematomi forgalomirányítási játék

További forgalomirányítási és szervezési játékok. 1. Nematomi forgalomirányítási játék További forgalomirányítási és szervezési játékok 1. Nematomi forgalomirányítási játék A forgalomirányítási játékban adott egy hálózat, ami egy irányított G = (V, E) gráf. A gráfban megengedjük, hogy két

Részletesebben

4. Fuzzy relációk. Gépi intelligencia I. Fodor János NIMGI1MIEM BMF NIK IMRI

4. Fuzzy relációk. Gépi intelligencia I. Fodor János NIMGI1MIEM BMF NIK IMRI 4. Fuzzy relációk Gépi intelligencia I. Fodor János BMF NIK IMRI NIMGI1MIEM Tartalomjegyzék I 1 Klasszikus relációk Halmazok Descartes-szorzata Relációk 2 Fuzzy relációk Fuzzy relációk véges alaphalmazok

Részletesebben

Predikátumkalkulus. Predikátumkalkulus alapfogalmai, formalizálás, tagadás, logikailag igaz formulák. Vizsgáljuk meg a következ két kijelentést.

Predikátumkalkulus. Predikátumkalkulus alapfogalmai, formalizálás, tagadás, logikailag igaz formulák. Vizsgáljuk meg a következ két kijelentést. Predikátumkalkulus Predikátumkalkulus alapfogalmai, formalizálás, tagadás, logikailag igaz formulák. 1. Bevezet Vizsgáljuk meg a következ két kijelentést. Minden almához tartozik egy fa, amir l leesett.

Részletesebben

A digitális számítás elmélete

A digitális számítás elmélete A digitális számítás elmélete 8. előadás ápr. 16. Turing gépek és nyelvtanok A nyelvosztályok áttekintése Turing gépek és a természetes számokon értelmezett függvények Áttekintés Dominó Bizonyítások: L

Részletesebben

Least Squares becslés

Least Squares becslés Least Squares becslés A négyzetes hibafüggvény: i d i ( ) φx i A négyzetes hibafüggvény mellett a minimumot biztosító megoldás W=( d LS becslés A gradiens számítása és nullává tétele eredményeképp A megoldás

Részletesebben

AZ INFORMATIKA LOGIKAI ALAPJAI

AZ INFORMATIKA LOGIKAI ALAPJAI AZ INFORMATIKA LOGIKAI ALAPJAI Előadó: Dr. Mihálydeák Tamás Sándor Gyakorlatvezető: Kovács Zita 2017/2018. I. félév 4. gyakorlat Interpretáció A ϱ függvényt az L (0) = LC, Con, Form nulladrendű nyelv egy

Részletesebben

Mindent olyan egyszerűvé kell tenni, amennyire csak lehet, de nem egyszerűbbé. (Albert Einstein) Halmazok 1

Mindent olyan egyszerűvé kell tenni, amennyire csak lehet, de nem egyszerűbbé. (Albert Einstein) Halmazok 1 Halmazok 1 Mindent olyan egyszerűvé kell tenni, amennyire csak lehet, de nem egyszerűbbé. (Albert Einstein) Halmazok 2 A fejezet legfontosabb elemei Halmaz megadási módjai Halmazok közti műveletek (metszet,

Részletesebben

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008 Az Előadások Témái Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák Szemantikus hálók

Részletesebben

Mesterséges intelligencia

Mesterséges intelligencia Mesterséges intelligencia Problémák és az útkeresések kapcsolata Az MI problémái, hogy a megoldandó feladatai nehezek, hatalmas a lehetséges válaszok tere (problématér), a helyes válaszok megtalálása intuíciót,

Részletesebben

Biomatematika 2 Orvosi biometria

Biomatematika 2 Orvosi biometria Biomatematika 2 Orvosi biometria 2017.02.13. Populáció és minta jellemző adatai Hibaszámítás Valószínűség 1 Esemény Egy kísérlet vagy megfigyelés (vagy mérés) lehetséges eredményeinek összessége (halmaza)

Részletesebben

Határozatlan integrál (2) First Prev Next Last Go Back Full Screen Close Quit

Határozatlan integrál (2) First Prev Next Last Go Back Full Screen Close Quit Határozatlan integrál () First Prev Next Last Go Back Full Screen Close Quit 1. Az összetett függvények integrálására szolgáló egyik módszer a helyettesítéssel való integrálás. Az idevonatkozó tétel pontos

Részletesebben

Modellellenőrzés. dr. Majzik István BME Méréstechnika és Információs Rendszerek Tanszék

Modellellenőrzés. dr. Majzik István BME Méréstechnika és Információs Rendszerek Tanszék Modellellenőrzés dr. Majzik István BME Méréstechnika és Információs Rendszerek Tanszék 1 Mit szeretnénk elérni? Informális vagy félformális tervek Informális követelmények Formális modell: KS, LTS, TA

Részletesebben

RE 1. Relációk Függvények. A diákon megjelenő szövegek és képek csak a szerző (Kocsis Imre, DE MFK) engedélyével használhatók fel!

RE 1. Relációk Függvények. A diákon megjelenő szövegek és képek csak a szerző (Kocsis Imre, DE MFK) engedélyével használhatók fel! RE 1 Relációk Függvények RE 2 Definíció: Ha A, B és ρ A B, akkor azt mondjuk, hogy ρ reláció A és B között, vagy azt, hogy ρ leképezés A-ból B-be. Ha speciálisan A=B, azaz ρ A A, akkor azt mondjuk, hogy

Részletesebben

1. Alapfogalmak Algoritmus Számítási probléma Specifikáció Algoritmusok futási ideje

1. Alapfogalmak Algoritmus Számítási probléma Specifikáció Algoritmusok futási ideje 1. Alapfogalmak 1.1. Algoritmus Az algoritmus olyan elemi műveletekből kompozíciós szabályok szerint felépített összetett művelet, amelyet megadott feltételt teljesítő bemeneti adatra végrehajtva, a megkívánt

Részletesebben

Algoritmuselmélet. Katona Gyula Y. Számítástudományi és Információelméleti Tanszék Budapesti Műszaki és Gazdaságtudományi Egyetem. 13.

Algoritmuselmélet. Katona Gyula Y. Számítástudományi és Információelméleti Tanszék Budapesti Műszaki és Gazdaságtudományi Egyetem. 13. Algoritmuselmélet NP-teljes problémák Katona Gyula Y. Számítástudományi és Információelméleti Tanszék Budapesti Műszaki és Gazdaságtudományi Egyetem 13. előadás Katona Gyula Y. (BME SZIT) Algoritmuselmélet

Részletesebben

Elsőrendű logika szintaktikája és szemantikája. Logika (3. gyakorlat) 0-adrendű szemantika 2009/10 II. félév 1 / 1

Elsőrendű logika szintaktikája és szemantikája. Logika (3. gyakorlat) 0-adrendű szemantika 2009/10 II. félév 1 / 1 Elsőrendű logika szintaktikája és szemantikája Logika és számításelmélet, 3. gyakorlat 2009/10 II. félév Logika (3. gyakorlat) 0-adrendű szemantika 2009/10 II. félév 1 / 1 Az elsőrendű logika Elemek egy

Részletesebben

Algoritmusok Tervezése. 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás

Algoritmusok Tervezése. 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás Algoritmusok Tervezése 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás Mi az algoritmus? Lépések sorozata egy feladat elvégzéséhez (legáltalánosabban) Informálisan algoritmusnak nevezünk bármilyen jól definiált

Részletesebben

Mátrixjátékok tiszta nyeregponttal

Mátrixjátékok tiszta nyeregponttal 1 Mátrixjátékok tiszta nyeregponttal 1. Példa. Két játékos Aladár és Bendegúz rendelkeznek egy-egy tetraéderrel, melyek lapjaira rendre az 1, 2, 3, 4 számokat írták. Egy megadott jelre egyszerre felmutatják

Részletesebben

3. Fuzzy aritmetika. Gépi intelligencia I. Fodor János NIMGI1MIEM BMF NIK IMRI

3. Fuzzy aritmetika. Gépi intelligencia I. Fodor János NIMGI1MIEM BMF NIK IMRI 3. Fuzzy aritmetika Gépi intelligencia I. Fodor János BMF NIK IMRI NIMGI1MIEM Tartalomjegyzék I 1 Intervallum-aritmetika 2 Fuzzy intervallumok és fuzzy számok Fuzzy intervallumok LR fuzzy intervallumok

Részletesebben

Dinamikus modellek szerkezete, SDG modellek

Dinamikus modellek szerkezete, SDG modellek Diagnosztika - 3. p. 1/2 Modell Alapú Diagnosztika Diszkrét Módszerekkel Dinamikus modellek szerkezete, SDG modellek Hangos Katalin PE Villamosmérnöki és Információs Rendszerek Tanszék Diagnosztika - 3.

Részletesebben

11. Előadás. 11. előadás Bevezetés a lineáris programozásba

11. Előadás. 11. előadás Bevezetés a lineáris programozásba 11. Előadás Gondolkodnivalók Sajátérték, Kvadratikus alak 1. Gondolkodnivaló Adjuk meg, hogy az alábbi A mátrixnak mely α értékekre lesz sajátértéke a 5. Ezen α-ák esetén határozzuk meg a 5 sajátértékhez

Részletesebben

Logika és informatikai alkalmazásai

Logika és informatikai alkalmazásai Logika és informatikai alkalmazásai 4. gyakorlat Németh L. Zoltán http://www.inf.u-szeged.hu/~zlnemeth SZTE, Informatikai Tanszékcsoport 2011 tavasz Irodalom Szükséges elmélet a mai gyakorlathoz Előadás

Részletesebben

2. A példahalmazban n = 3 negatív és p = 3 pozitív példa van, azaz a példahalmazt képviselő döntési fa információtartalma: I = I(1/2, 1/2) = 1 bit.

2. A példahalmazban n = 3 negatív és p = 3 pozitív példa van, azaz a példahalmazt képviselő döntési fa információtartalma: I = I(1/2, 1/2) = 1 bit. Példa 1. Döntési fa számítása/1 1. Legyen a felhasználandó példahalmaz: Példa sz. Nagy(x) Fekete(x) Ugat(x) JóKutya(x) X1 Igen Igen Igen Nem X2 Igen Igen Nem Igen X3 Nem Nem Igen Nem X4 Nem Igen Igen Igen

Részletesebben

angolul: greedy algorithms, románul: algoritmi greedy

angolul: greedy algorithms, románul: algoritmi greedy Mohó algoritmusok angolul: greedy algorithms, románul: algoritmi greedy 1. feladat. Gazdaságos telefonhálózat építése Bizonyos városok között lehet direkt telefonkapcsolatot kiépíteni, pl. x és y város

Részletesebben

Kétváltozós függvények differenciálszámítása

Kétváltozós függvények differenciálszámítása Kétváltozós függvények differenciálszámítása 13. előadás Farkas István DE ATC Gazdaságelemzési és Statisztikai Tanszék Kétváltozós függvények p. 1/1 Definíció, szemléltetés Definíció. Az f : R R R függvényt

Részletesebben

Logika és informatikai alkalmazásai

Logika és informatikai alkalmazásai Logika és informatikai alkalmazásai 4. gyakorlat Németh L. Zoltán http://www.inf.u-szeged.hu/~zlnemeth SZTE, Informatikai Tanszékcsoport 2011 tavasz Irodalom Szükséges elmélet a mai gyakorlathoz Előadás

Részletesebben

3. Előadás. Megyesi László: Lineáris algebra, oldal. 3. előadás Lineáris egyenletrendszerek

3. Előadás. Megyesi László: Lineáris algebra, oldal. 3. előadás Lineáris egyenletrendszerek 3. Előadás Megyesi László: Lineáris algebra, 47. 50. oldal. Gondolkodnivalók Determinánsok 1. Gondolkodnivaló Determinánselméleti tételek segítségével határozzuk meg a következő n n-es determinánst: 1

Részletesebben