Mesterséges Intelligencia I. (I602, IB602)
|
|
- Zalán Illés
- 8 évvel ezelőtt
- Látták:
Átírás
1 Dr. Jelasity Márk Mesterséges Intelligencia I. (I602, IB602) kurzus kilencedik előadásának jegyzete (2008. november 3.) Tanulás (Learning) Készítette: Szabó Péter EHA: SZPNAAT.SZE Szeged, december 9.
2 Tanulás (learning): Tapasztalati adatok (tények) felhasználása az ágens teljesítményének növelésére. Tulajdonképpen az ágens különböző komponenseit optimalizálni akarjuk (pl. játék kiértékelő függvény). Ez is keresési feladat. Racionális ágens (rational agent): Egy racionális ágens úgy cselekszik, hogy maimalizálja a teljesítménymérték várható értékét az addigi észlelési sorozat alapján. Durva felbontásban a tanulást két csoportra oszthatjuk: 1) Felügyelt tanulás (supervised learning): A tanítási példák és ezek eredményei is megvannak. Egy f : A B függvényt kell találni példák alapján, amelyek a 1, b 1,..., a n, b n adottak. alakban Például: a) A: ek halmaza (összes lehetséges ), B: {spam, spam} (függvény, amit meg akarunk tanulni). b) A tanító példák kézzel osztályozott ek (spam szűrő tanítása) A: részvényinde idősorai, B: {emelkedik, esik}. Tőzsdéző program, stb... 2) Felügyelet nélküli tanulás (unsupervised learning): Csak a példák vannak meg, vagyis csak az A halmaz adott. A példák csak a 1,...,a n alakúak és nem függvényt kell illeszteni, hanem mintázatot keresni, pl. klasztereket. Számos finomabb felosztás lehet, pl. van "B" (függvényt kell illeszteni) de a tanuló példák csak késleltetve értékelődnek ki (megerősítéses tanulás reinforcement learning) vagy pl. a példák előre adottak vagy csak fokozatosan gyűlnek. O O * * O O O * * Felügyelt Felügyelet nélküli 2
3 Reprezentáció: A függvényt adott alakban keressük, polinom, ítéletkalkulus (Boole függvények), stb. Kereshetnénk Turing gépet, de: 1.) lehet hatékonyan, 2.) Túl általános! Ideálisan a reprezentáció se nem túl egyszerű, se nem túl bonyolult. A priori ismeretek fontossága: A "tabula rasa" tanulás lehetetlen! (Ha a tanulás megkezdése előtt semmit nem tudunk, csak a példákat, akkor nem tudunk tanulni.) Pl.: a reprezentáció is a priori ismeret, stb. (később látjuk) Felügyelt tanulás (induktív tanulás inductive learning): Egyszerű függvényillesztéstől a fizika tudományáig sok mindent lefed. Adott egy ismeretlen f : A B függvény és 1, f 1,..., n, f n példák. Keresünk egy h : A B függvényt, ami fet közelíti. A h függvény a H hipotézistér eleme, H lehet pl. maimum k fokú polinomok, vagy bármi más. K = 1 K = 7 a) ábra b) ábra K = 6 sin c) ábra d) ábra 3
4 Az a) esetben (K = 1, az elsőfokú polinomok tere) egyenest akarunk illeszteni, a b) esetben pedig (K = 7, hetedfokú polinomok tere) nyolc pontot is tökéletesen tudunk illeszteni, vagyis be tudjuk magolni a nyolc pontot, de láthatóan nem feltétlenül jobb a nagyobb hipotézistér. Sőt! Kis hipotézistérhez előzetes tudás kell, ezért nehezebb konstruálni. A d) ábrát tekintve, ha van benne szinusz, jó lesz az eredmény, viszont ha nincs, akkor nagyon rossz. Észrevételek: a) és b) : Az általánosabb H nem mindig jobb. c) és d) : mindegy, hogy mi a H. Indukció problémája: Az f jó közelítése olyan h, amely ismeretlen re is jól becsüli példákra), azaz jól általánosít. (Ez nehéz! Filozófiai kérdés) f et (nem csak az adott Pl.: Ha h = f, ha ismert példa 0, egyébként akkor h egyáltalán nem általánosít, de a tanító példákat tökéletesen tudja: magolás! 1) Törekszünk tömörebb reprezentációra, mint az adatok (Ockham borotvája: a lehető legtömörebb leírás, ami még elég.) Ockham borotvája (Ockham's razor): Ez az elv tehát egy lehetséges válasz arra a kérdésre, hogy hogyan válasszunk több konzisztens valamennyi adatra illeszkedő hipotézis közül? Részesítsük előnyben a legegyszerűbb olyan hipotézist, amely konzisztens az adatokkal. Ez józan intuíciónak tűnik, mivel azok a hipotézisek, melyek nem egyszerűbbek, mint maguk az adatok, nem nyernek ki semmilyen mintázatot az adatokból. Ha van struktúra, elég jól tömöríthető, viszont van, amikor nem lehet tömöríteni: véletlen adatok, Kolmogorovkompleitás (Kolmogorovcompleity). Kolmogorovkompleitás (algoritmikus kompleitás): Formális definíciót próbál adni az Ockham borotvája elvben használt egyszerűségnek. Hogy valahogy kimeneküljenek abból a csapdából, hogy az egyszerűség függ az információ reprezentációjának módjától, azt javasolták, hogy az egyszerűséget annak a legrövidebb programnak a hosszával mérjék, amely egy általános Turing gépen helyesen adja vissza a megfigyelt adatokat. De ez is csak "ökölszabály", bizonyítani nem lehet és nem is mindig működik. 2) Törekszünk egyszerű reprezentációra a hatékonyság miatt is, mivel egyszerűbb reprezentációban könnyebb keresni. Az induktív tanulás alapfogalmait a következő területen szemléltetjük: 4
5 Döntési fák (decision tree): Bemenetként egy attribútumokkal leírt objektumot vagy szituációt kap, és egy döntést ad vissza eredményként a bemenetre adott válasz jósolt értékét. Mind a bemeneti attribútumok, mind pedig a kimeneti érték lehet diszkrét vagy folytonos. Feltesszük, hogy A diszkrét változók értékeinek vektora, és f B diszkrét változó egy értéke (pl. B = {igen, nem}) Ha a függvény értékkészlete, f : diszkrét, a függvény tanulását osztályozás (classification) tanulásnak, folytonos, a függvény tanulását regressziónak (regression) nevezzük. Példa: Egy döntési fa annak eldöntésére, hogy várjunke asztalra az étteremben? B = {, } A = Alternatíva: vane a közelben megfelelő alternatívaként kínálkozó étterem. Bár: vane az étteremnek kényelmes bár része, ahol várakozhatunk. Péntek/Szombat: igaz értéket vesz fel pénteken és szombaton. Éhes: éhesek vagyunke. Vendégek: hány ember van az étteremben (Senki / Néhány / Tele). Drága: az étterem mennyire drága. Konyha: az étterem típusa (francia, olasz, thai vagy burger). Becsült várakozás: pincér becsülte várakozási idő (010, 1030, 3060, >60 perc). Eső: esike odakint az eső. Foglalás: foglaltunke asztalt. Vendégek? Senki Néhány Tele BecsültVárakozás? > Alternatíva? Éhes? Foglalás? Péntek/Szombat? Alternatíva? Bár? Eső? 5
6 A döntési fa élei a változók lehetséges értékei. Vegyük észre, hogy a fa nem használja a Konyha és a Drága attribútumokat, valójában irrelevánsnak tekinti azokat. Döntési fák kifejezőereje: Várakozás A 1... A m B 1... B n... A formulában a diszjunkciós tagok mindegyike azon tesztek konjukciójának felel meg, amelyeket a gyökértől egy pozitív kimenetet jelentő levélig megtett út során végeztünk. Ez éppen egy ítéletkalkulusbeli kifejezés, mivel csak egyetlen változót tartalmaz és minden predikátum unáris. 1.) Ítéletek, pl.: Vendégek = Senki, Vendégek = Néhány, stb. 2.) Az egy modell. 3.) A döntési fa pedig logikai formula, f a formula kiértékelése. Visszafelé is igaz: Az ítéletlogikai nyelvek területén a döntési fák teljes kifejezőképességgel bírnak, ami azt jelenti, hogy tetszőleges logikai (Boole) függvény felírható döntési faként. Pl.: a függvény igazságtáblájában minden igaz sorhoz egy utat adunk. (Ennél tömörebben is lehet.) Milyen tömör lehet? Láttuk, hogy ha véletlen, nem tömöríthető. De nem tömöríthető a paritásfüggvény (akkor és csak akkor ad 1et, ha páros számú bemenet 1 értékű), ekkor egy eponenciálisan nagy döntési fára lesz szükség. Vagy a többségfüggvény (akkor ad 1et, ha a bemeneteinek több, mint a fele 1 értékű). Az összes változót tudni kell illetve O(n) et. Döntési fa építése: Útvonalak igen levélbe, A i, B i pedig az elágazások. Egy logikai döntési fa által kezelhető példa a bemeneti attribútumok X vektorából és egyetlen logikai kimeneti értékből, yból áll. Pozitív példa: a példa pozitív, ha a VárjunkE értéke igaz. Negatív példa: a példa negatív, ha a VárjunkE értéke hamis. Pl.: Vendégek =Tele, Várakozás = 1030, [összes attribútum]; VárjunkE = igen. Vendégek = Senki, Várakozás = 010, [összes attribútum]; VárjunkE = nem. 6
7 Pl.: 100 példa adott: 1,, 100. Bemagolhatnánk (minden pozitív példához egy út), de láttuk, hogy ez nem jó => tömöríteni kell. Heurisztika: A lehető legjobban szétválogatjuk a pozitív és negatív példákat. Ötlet: Gyökérbe az az attribútum, amely a legjobban szeparál. (rekurzív algoritmus) 1.) Válasszuk ki a gyökeret és szeparáljuk a példákat, 2.) Minden ágon a maradék attribútumokra és az oda eső példákra rekurzívan ugyanez. Tanítási adathalmaz i i h i h i h i A h i i h i h i h i B h h h h i i i i i h i h i h i Az esetek, amiket vizsgálni kell a rekurzióban: Ideális eset 1.) Pozitív és negatív példa is van: szeparáljuk őket a legjobban egy attribútumot választva. 2.) Csak pozitív vagy csak negatív példa van: leáll, ez az ág kész. 3.) Nincs példa, de attribútum még van: default érték, heurisztikát alkalmaz, pl. többség a szülőben. 4.) Ha pozitív és negatív példa is van, de nincs több attribútum: hiba (zaj) a példákban. Ekkor heurisztikát alkalmaz, pl. többségi szavazat (ha több volt a pozitív, akkor pozitív lesz.) A legjobban szeparáló attribútum: Ötlet: Adott változó ismerete mennyivel növeli az információt arról, hogy egy példa igen vagy nem. Információ információelmélet A p valószínűségű esemény információtartalma: log p. Ha log 2 t használunk, mértékegysége a bit. Véletlen változó átlagos információtartalma (entrópia): p i log 2 p i i ( p 1,..., p n, valamint az eloszlás: 1= p i ) 7
8 Döntési fa egy csomópontjának információtartalma: Legyen p a csomópont alatti pozitív, n pedig a negatív példák száma, a csomópont A. Információnyereség Aban: I A = p p n log 2 p p n n p n log 2 n p n A gyerek csúcsainak az átlagos információtartalma azt fejezi ki, hogy Aszerint felbontva mennyi bizonytalanság marad. Legyenek B 1,..., B v A gyerek csúcsai. (Anak v értéke van, ami v részhalmazra osztja a példákat.) Legyenek E 1,..., E v a megfelelő példa részhalmazok, ahol E i =n i p i. Nyereség (A) = v I A i=1 p i n i p n I B i => A maimális nyereségű attribútumot választjuk. Induktív tanuló algoritmusok kiértékelése: Hogyan buktatjuk le a magolókat? A példákat két részre osztjuk: 1.) Tanító halmaz (training set) 2.) Teszt halmaz (test set) nem használjuk fel a tanítás során. A tanító halmazon építjük a modellt (pl. döntési fát), a teszt halmazon értékeljük ki. De: precision, recall, stb: % nem mindig kielégítő mérték, pl. ha sokkal kevesebb a pozitív példa. Kukucskálás (peeking): Ha a teszteredmények alapján finomhangoljuk az algoritmus paramétereit. => A modell függ a teszttől. (A teszthalmazra is optimalizálva lett a modell. Ez nem jó!) Túlillesztés (overfitting): Maradék (Reminder) Megjegyzés: a magolás egy általánosabb formája a túlillesztés, amikor túl messzemenő következtetéseket vonunk le kevés adatból. Kisszámú példák miatt nem igazi minták alakulhatnak ki. 8
9 Pl.: Ha az egyik paraméter a dobókocka színe, pl. ilyen téves minta alakulhat ki: csak piros dobókockával jöhet ki hatos. Kevés adatnál tehát nem kell nagyon komolyan venni a mintákat. Keresztvalidáció (crossvalidation): A tanító / teszt felosztás általánosítása, ez a módszer alaposabban szeparál. 1.) Osszuk fel a példákat K egyenlő részre. 2.) Építsünk K modellt a következőképpen: vegyük valamely részhalmazt, mint teszt halmazt és a többi K1 et tanítsuk. 3.) Értékeljük ki a K modellt a megfelelő teszthalmazon és vegyük a K értékelés átlagát => ez lesz az értékelés. Alkalmazás: Megbízhatóbb kiértékelés, hiszen az összes elemet felhasználtuk tesztadatnak. Ha van m darab algoritmusunk, mindet kiértékeljük keresztvalidációval, és a legjobb algoritmus segítségével építünk modellt az egész példahalmazon. Ez lesz a végeredmény. Döntési fa specifikus technika: (keresztvalidációs algoritmus független) Azért, hogy az irreleváns attribútumokat (pl. teljesen véletlen kockadobásoknál KockaSzíne, DobásIdeje, stb.) ne építse be az algoritmusba. Pl. statisztika alkalmazásával. => Valamit tanulni fog, de az biztos tévedés lesz! Vajon detektáljunk irreleváns attribútumokat? Pl.: Statisztika Egy mintában az információnyereség zérus. Kis mintában ritkán zérus, de megnézhetjük, hogy szignifikánsan nem nullae? Például: χ 2 próba: Legyen a KockaSzíne szerinti felbontáshoz tartozó minták száma p 1, n 1, p 2, n 2, stb. p i = p és n i =n. Ekkor a nullhipotézis az, hogy p i várható értéke p i : p i = p p i n i p n és n i =n p i n i p n. 9
10 azaz 0 a nyereség, mert ugyanolyan arányú a p i, mint a p. D= p i p i 2 p i n i n i 2 n i, D χ 2 eloszlást követ, táblázatból ellenőrizhető D valószínűsége. Ez az algoritmus a χ 2 metszés. Gyakorlati kérdések (vázlatosan): Hiányzó adatok, pl. attribútum értékek: pl. felvenni példákat minden lehetséges értékkel (de súlyozva, n példa esetén 1/n súllyal.) Sokértékű attribútumok: nagy a nyereség egyszerűen azért, mert sok az attribútum: nem jó! Vegyük figyelembe magának az attribútumnak az információtartalmát is: normalizáljunk vele. Folytonos változók : a gain számolásakor megkeressük azt a felosztó pontot, ami maimális nyereséget eredményez. (költséges) Folytonos kimenet: minden levélen egy függvény, nem pedig pl. igen/nem érték. Fontos: A döntési fa gyakran nem a legjobb algoritmus, de értelmezhető (olvasható, visszafejthető) és ez gyakran követelmény. Hipotézisegyüttesek (ensemble): Sokszor jó ötlet egy modell (hipotézis) helyett többet gyártani, esetleg más algoritmusokkal, és pl. többségi szavazást alkalmazni. Miért lehet jó? 1.) Modellek hibái nem pont ugyanazok (ideálisan: függetlenek) => statisztikailag (nagy számok törvénye) megbízhatóbb. 2.) Kombinálhatunk is egyszerűbb modelleket Turbózás (boosting): Gyenge algoritmusok együttesét állítja elő, amelyek így a tanuló halmazt helyesen osztályozzák. Gyenge algoritmus (weak algorithm): Amely jobb, mint a találgatás, azaz 50 % nál több példát képes helyesen osztályozni a legyártott modell. Jelöljük a gyenge algoritmust Llel. 10
11 Súlyozott példák: Az i, y i példához w i súlyt rendelünk, Lnek kezelni kell tudni ezt. Pl.: a döntési fák könnyen kezelik.( p i és n i számításánál súllyal vesszük a példákat) Ada Boost algoritmus: AdaBoost (példák, L, M) // példák: N darab példa, i, y i, i=1,...,n // L : tanuló algoritmus (gyenge) // M: hipotézisek száma az együttesben // w i : i, y i súlya, 1/ N kezdetben // h i : iedik hipotézis ( i=1,..., M ) // z i : iedik hipotézis súlya for m = 1 to M h m L(példák, w) error 0 for j = 1 to N if h m ( j ) y j then error error + w j for j = 1 to N if h m ( j ) = y j then w j w j * error / (1 error) w Normalizál(w) z m log[(1 error) / error] return SúlyozottTöbbség(h, z) A nehéz (nem egyértelmű) példák és a jó osztályozók nagyobb súlyt kapnak. Pl.: L lehet döntési tönk (egyváltozós döntési fa, e változó alapján döntünk). Érdekes: túlillesztés nem jelentkezik, ha M nagyon nagy, sőt, ellenkezőleg => nem világos miért és mikor. Sok elméleti eredmény tartozik ide, ezeket nem tárgyaljuk, csak az intuitív megértésre támaszkodunk. 11
Új típusú döntési fa építés és annak alkalmazása többtényezős döntés területén
Új típusú döntési fa építés és annak alkalmazása többtényezős döntés területén Dombi József Szegedi Tudományegyetem Bevezetés - ID3 (Iterative Dichotomiser 3) Az ID algoritmusok egy elemhalmaz felhasználásával
RészletesebbenMesterséges Intelligencia MI
Mesterséges Intelligencia MI Egyszerű döntés Döntési fák Tanuljuk meg! Metsszük meg! Pataki Béla Bolgár Bence BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Példaprobléma:
RészletesebbenGépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)
Gépi tanulás Hány tanítómintára van szükség? VKH Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Induktív tanulás A tanítás folyamata: Kiinduló
Részletesebben1. gyakorlat. Mesterséges Intelligencia 2.
1. gyakorlat Mesterséges Intelligencia. Elérhetőségek web: www.inf.u-szeged.hu/~gulyasg mail: gulyasg@inf.u-szeged.hu Követelmények (nem teljes) gyakorlat látogatása kötelező ZH írása a gyakorlaton elhangzott
RészletesebbenGépi tanulás. Egyszerű döntés tanulása (döntési fák) (Részben Dobrowiecki Tadeusz fóliáinak átdolgozásával) Pataki Béla (Bolgár Bence)
Gépi tanulás Egyszerű döntés tanulása (döntési fák) (Részben Dobrowiecki Tadeusz fóliáinak átdolgozásával) Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki
RészletesebbenGépi tanulás Gregorics Tibor Mesterséges intelligencia
Gépi tanulás Tanulás fogalma Egy algoritmus akkor tanul, ha egy feladat megoldása során olyan változások következnek be a működésében, hogy később ugyanazt a feladatot vagy ahhoz hasonló más feladatokat
RészletesebbenMesterséges Intelligencia MI
Mesterséges Intelligencia MI Egyszerű döntés. Tanuljuk meg! Dobrowiecki Tadeusz Eredics Péter, és mások BME I.E. 437, 463-28-99 dobrowiecki@mit.bme.hu, http://www.mit.bme.hu/general/staff/tade ? Kétértékű
RészletesebbenVIII. INDUKTÍV TANULÁS
Induktív tanulás VIII. INDUKTÍV TANULÁS Induktív tanulási modell Az f leképezést tanuljuk meg az (x i,f(x i )) példák (minták) alapján úgy, hogy előállítunk egy olyan h leképezést (hipotézist), amelyre
RészletesebbenAdatbányászati szemelvények MapReduce környezetben
Adatbányászati szemelvények MapReduce környezetben Salánki Ágnes salanki@mit.bme.hu 2014.11.10. Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs Rendszerek Tanszék Felügyelt
RészletesebbenTANULÁS. I. Logikai formulák tanulása. Tanulási módok. Miért m ködik jól az induktív tanulás? Induktív tanulás
TANULÁS Egy algoritmus tanul, ha egy feladat megoldása során olyan változások következnek be a m ködésében, hogy kés bb ugyanazt a feladatot vagy ahhoz hasonló más feladatokat jobb eredménnyel, illetve
RészletesebbenAdatok statisztikai értékelésének főbb lehetőségei
Adatok statisztikai értékelésének főbb lehetőségei 1. a. Egy- vagy kétváltozós eset b. Többváltozós eset 2. a. Becslési problémák, hipotézis vizsgálat b. Mintázatelemzés 3. Szint: a. Egyedi b. Populáció
RészletesebbenGépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés
Gépi tanulás a gyakorlatban Kiértékelés és Klaszterezés Hogyan alkalmazzuk sikeresen a gépi tanuló módszereket? Hogyan válasszuk az algoritmusokat? Hogyan hangoljuk a paramétereiket? Precízebben: Tegyük
Részletesebben2. A példahalmazban n = 3 negatív és p = 3 pozitív példa van, azaz a példahalmazt képviselő döntési fa információtartalma: I = I(1/2, 1/2) = 1 bit.
Példa 1. Döntési fa számítása/1 1. Legyen a felhasználandó példahalmaz: Példa sz. Nagy(x) Fekete(x) Ugat(x) JóKutya(x) X1 Igen Igen Igen Nem X2 Igen Igen Nem Igen X3 Nem Nem Igen Nem X4 Nem Igen Igen Igen
RészletesebbenMesterséges Intelligencia MI
Mesterséges Intelligencia MI Valószínűségi hálók - következtetés Dobrowiecki Tadeusz Eredics Péter, és mások BME I.E. 437, 463-28-99 dobrowiecki@mit.bme.hu, http://www.mit.bme.hu/general/staff/tade Következtetés
RészletesebbenRegresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.
Regresszió Csorba János Nagyméretű adathalmazok kezelése 2010. március 31. A feladat X magyarázó attribútumok halmaza Y magyarázandó attribútumok) Kérdés: f : X -> Y a kapcsolat pár tanítópontban ismert
RészletesebbenProgramozási módszertan. A gépi tanulás alapmódszerei
SZDT-12 p. 1/24 Programozási módszertan A gépi tanulás alapmódszerei Werner Ágnes Villamosmérnöki és Információs Rendszerek Tanszék e-mail: werner.agnes@virt.uni-pannon.hu SZDT-12 p. 2/24 Ágensek Az új
RészletesebbenIntelligens orvosi műszerek VIMIA023
Intelligens orvosi műszerek VIMIA023 A mintapéldákból tanuló számítógépes program (egyik lehetőség): döntési fák 2018 ősz http://www.mit.bme.hu/oktatas/targyak/vimia023 dr. Pataki Béla pataki@mit.bme.hu
RészletesebbenRandom Forests - Véletlen erdők
Random Forests - Véletlen erdők Szabó Adrienn Adatbányászat és Webes Keresés Kutatócsoport 2010 Tartalom Fő forrás: Leo Breiman: Random Forests Machine Learning, 45, 5-32, 2001 Alapok Döntési fa Véletlen
RészletesebbenBizonytalanság. Mesterséges intelligencia április 4.
Bizonytalanság Mesterséges intelligencia 2014. április 4. Bevezetés Eddig: logika, igaz/hamis Ha nem teljes a tudás A világ nem figyelhető meg közvetlenül Részleges tudás nem reprezentálható logikai eszközökkel
RészletesebbenSzámítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Számítógépes képelemzés 7. előadás Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Momentumok Momentum-alapú jellemzők Tömegközéppont Irányultáság 1 2 tan 2 1 2,0 1,1 0, 2 Befoglaló
RészletesebbenKeresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Keresés képi jellemzők alapján Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Lusta gépi tanulási algoritmusok Osztályozás: k=1: piros k=5: kék k-legközelebbi szomszéd (k=1,3,5,7)
RészletesebbenSzomszédság alapú ajánló rendszerek
Nagyméretű adathalmazok kezelése Szomszédság alapú ajánló rendszerek Készítette: Szabó Máté A rendelkezésre álló adatmennyiség növelésével egyre nehezebb kiválogatni a hasznos információkat Megoldás: ajánló
Részletesebben[1000 ; 0] 7 [1000 ; 3000]
Gépi tanulás (vimim36) Gyakorló feladatok 04 tavaszi félév Ahol lehet, ott konkrét számértékeket várok nem puszta egyenleteket. (Azok egy részét amúgyis megadom.). Egy bináris osztályozási feladatra tanított
RészletesebbenOsztályozás, regresszió. Nagyméretű adathalmazok kezelése Tatai Márton
Osztályozás, regresszió Nagyméretű adathalmazok kezelése Tatai Márton Osztályozási algoritmusok Osztályozás Diszkrét értékkészletű, ismeretlen attribútumok értékének meghatározása ismert attribútumok értéke
RészletesebbenA Föld középpontja felé szabadon eső test sebessége növekszik, azaz, a
a Matematika mérnököknek I. című tárgyhoz Függvények. Függvények A Föld középpontja felé szabadon eső test sebessége növekszik, azaz, a szabadon eső test sebessége az idő függvénye. Konstans hőmérsékleten
RészletesebbenTanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,
RészletesebbenMegerősítéses tanulás 7. előadás
Megerősítéses tanulás 7. előadás 1 Ismétlés: TD becslés s t -ben stratégia szerint lépek! a t, r t, s t+1 TD becslés: tulajdonképpen ezt mintavételezzük: 2 Akcióértékelő függvény számolása TD-vel még mindig
Részletesebben1. Adatok kiértékelése. 2. A feltételek megvizsgálása. 3. A hipotézis megfogalmazása
HIPOTÉZIS VIZSGÁLAT A hipotézis feltételezés egy vagy több populációról. (pl. egy gyógyszer az esetek 90%-ában hatásos; egy kezelés jelentősen megnöveli a rákos betegek túlélését). A hipotézis vizsgálat
RészletesebbenFEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 10 X. SZIMULÁCIÓ 1. VÉLETLEN számok A véletlen számok fontos szerepet játszanak a véletlen helyzetek generálásában (pénzérme, dobókocka,
RészletesebbenAdatbányászati technikák (VISZM185) 2015 tavasz
Adatbányászati technikák (VISZM185) 2015 tavasz Csima Judit BME, VIK, Számítástudományi és Információelméleti Tanszék 2015. február 11. Csima Judit Adatbányászati technikák (VISZM185) 2015 tavasz 1 / 27
RészletesebbenDöntési fák. (Klasszifikációs és regressziós fák: (Classification And Regression Trees: CART ))
Döntési fák (Klasszifikációs és regressziós fák: (Classification And Regression Trees: CART )) Rekurzív osztályozó módszer, Klasszifikációs és regressziós fák folytonos, kategóriás, illetve túlélés adatok
RészletesebbenMit látnak a robotok? Bányai Mihály Matemorfózis, 2017.
Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017. Vizuális feldolgozórendszerek feladatai Mesterséges intelligencia és idegtudomány Mesterséges intelligencia és idegtudomány Párhuzamos problémák
RészletesebbenGépi tanulás a gyakorlatban. Bevezetés
Gépi tanulás a gyakorlatban Bevezetés Motiváció Nagyon gyakran találkozunk gépi tanuló alkalmazásokkal Spam detekció Karakter felismerés Fotó címkézés Szociális háló elemzés Piaci szegmentáció analízis
RészletesebbenFEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 4 IV. MINTA, ALAPsTATIsZTIKÁK 1. MATEMATIKAI statisztika A matematikai statisztika alapfeladatát nagy általánosságban a következőképpen
RészletesebbenFEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 8 VIII. REGREssZIÓ 1. A REGREssZIÓs EGYENEs Két valószínűségi változó kapcsolatának leírására az eddigiek alapján vagy egy numerikus
RészletesebbenKÖZELÍTŐ INFERENCIA II.
STATISZTIKAI TANULÁS AZ IDEGRENDSZERBEN KÖZELÍTŐ INFERENCIA II. MONTE CARLO MÓDSZEREK ISMÉTLÉS Egy valószínűségi modellben a következtetéseinket a látensek vagy a paraméterek fölötti poszterior írja le.
RészletesebbenFEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 9 IX. ROBUsZTUs statisztika 1. ROBUsZTUssÁG Az eddig kidolgozott módszerek főleg olyanok voltak, amelyek valamilyen értelemben optimálisak,
RészletesebbenKÖZELÍTŐ INFERENCIA II.
STATISZTIKAI TANULÁS AZ IDEGRENDSZERBEN KÖZELÍTŐ INFERENCIA II. MONTE CARLO MÓDSZEREK ISMÉTLÉS Egy valószínűségi modellben a következtetéseinket a látensek vagy a paraméterek fölötti poszterior írja le.
RészletesebbenAlgoritmuselmélet. Katona Gyula Y. Számítástudományi és Információelméleti Tanszék Budapesti Műszaki és Gazdaságtudományi Egyetem. 13.
Algoritmuselmélet NP-teljes problémák Katona Gyula Y. Számítástudományi és Információelméleti Tanszék Budapesti Műszaki és Gazdaságtudományi Egyetem 13. előadás Katona Gyula Y. (BME SZIT) Algoritmuselmélet
RészletesebbenGépi tanulás a gyakorlatban. Lineáris regresszió
Gépi tanulás a gyakorlatban Lineáris regresszió Lineáris Regresszió Legyen adott egy tanuló adatbázis: Rendelkezésünkre áll egy olyan előfeldolgozott adathalmaz, aminek sorai az egyes ingatlanokat írják
RészletesebbenMérés és modellezés 1
Mérés és modellezés 1 Mérés és modellezés A mérnöki tevékenység alapeleme a mérés. A mérés célja valamely jelenség megismerése, vizsgálata. A mérés tervszerűen végzett tevékenység: azaz rögzíteni kell
RészletesebbenBevezetés a hipotézisvizsgálatokba
Bevezetés a hipotézisvizsgálatokba Nullhipotézis: pl. az átlag egy adott µ becslése : M ( x -µ ) = 0 Alternatív hipotézis: : M ( x -µ ) 0 Szignifikancia: - teljes bizonyosság csak teljes enumerációra -
RészletesebbenMesterséges Intelligencia I.
Mesterséges Intelligencia I. 10. elıadás (2008. november 10.) Készítette: Romhányi Anita (ROANAAT.SZE) - 1 - Statisztikai tanulás (Megfigyelések alapján történı bizonytalan következetésnek tekintjük a
RészletesebbenBudapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók Előadó: Előadás anyaga: Hullám Gábor Pataki Béla Dobrowiecki Tadeusz BME I.E. 414, 463-26-79
RészletesebbenLogika es sz am ıt aselm elet I. r esz Logika 1/36
1/36 Logika és számításelmélet I. rész Logika 2/36 Elérhetőségek Tejfel Máté Déli épület, 2.606 matej@inf.elte.hu http://matej.web.elte.hu Tankönyv 3/36 Tartalom 4/36 Bevezető fogalmak Ítéletlogika Ítéletlogika
Részletesebben4/24/12. Regresszióanalízis. Legkisebb négyzetek elve. Regresszióanalízis
1. feladat Regresszióanalízis. Legkisebb négyzetek elve 2. feladat Az iskola egy évfolyamába tartozó diákok átlagéletkora 15,8 év, standard deviációja 0,6 év. A 625 fős évfolyamból hány diák fiatalabb
RészletesebbenMindent olyan egyszerűvé kell tenni, amennyire csak lehet, de nem egyszerűbbé.
HA 1 Mindent olyan egyszerűvé kell tenni, amennyire csak lehet, de nem egyszerűbbé. (Albert Einstein) HA 2 Halmazok HA 3 Megjegyzések A halmaz, az elem és az eleme fogalmakat nem definiáljuk, hanem alapfogalmaknak
RészletesebbenValószínűségi változók. Várható érték és szórás
Matematikai statisztika gyakorlat Valószínűségi változók. Várható érték és szórás Valószínűségi változók 2016. március 7-11. 1 / 13 Valószínűségi változók Legyen a (Ω, A, P) valószínűségi mező. Egy X :
RészletesebbenPredikátumkalkulus. 1. Bevezet. 2. Predikátumkalkulus, formalizálás. Predikátumkalkulus alapfogalmai, formalizálás, tagadás, logikailag igaz formulák.
Predikátumkalkulus Predikátumkalkulus alapfogalmai, formalizálás, tagadás, logikailag igaz formulák. 1. Bevezet Nézzük meg a következ két kijelentést: Minden almához tartozik egy fa, amir l leesett. Bármely
RészletesebbenVéletlenszám generátorok és tesztelésük. Tossenberger Tamás
Véletlenszám generátorok és tesztelésük Tossenberger Tamás Érdekességek Pénzérme feldobó gép: $0,25-os érme 1/6000 valószínűséggel esik az élére 51% eséllyel érkezik a felfelé mutató oldalára Pörgetésnél
RészletesebbenTARTALOMJEGYZÉK. 1. téma Átlagbecslés (Barna Katalin) téma Hipotézisvizsgálatok (Nagy Mónika Zita)... 23
TARTALOMJEGYZÉK 1. téma Átlagbecslés (Barna Katalin).... 7 2. téma Hipotézisvizsgálatok (Nagy Mónika Zita)... 23 3. téma Összefüggések vizsgálata, korrelációanalízis (Dr. Molnár Tamás)... 73 4. téma Összefüggések
RészletesebbenPredikátumkalkulus. Predikátumkalkulus alapfogalmai, formalizálás, tagadás, logikailag igaz formulák. Vizsgáljuk meg a következ két kijelentést.
Predikátumkalkulus Predikátumkalkulus alapfogalmai, formalizálás, tagadás, logikailag igaz formulák. 1. Bevezet Vizsgáljuk meg a következ két kijelentést. Minden almához tartozik egy fa, amir l leesett.
RészletesebbenAlgoritmuselmélet. Bonyolultságelmélet. Katona Gyula Y.
Algoritmuselmélet Bonyolultságelmélet Katona Gyula Y. Számítástudományi és Információelméleti Tanszék Budapesti Műszaki és Gazdaságtudományi Egyetem 12. előadás Katona Gyula Y. (BME SZIT) Algoritmuselmélet
RészletesebbenBAGME11NNF Munkavédelmi mérnökasszisztens Galla Jánosné, 2011.
BAGME11NNF Munkavédelmi mérnökasszisztens Galla Jánosné, 2011. 1 Mérési hibák súlya és szerepe a mérési eredményben A mérési hibák csoportosítása A hiba rendűsége Mérési bizonytalanság Standard és kiterjesztett
RészletesebbenBiostatisztika VIII. Mátyus László. 19 October
Biostatisztika VIII Mátyus László 19 October 2010 1 Ha σ nem ismert A gyakorlatban ritkán ismerjük σ-t. Ha kiszámítjuk s-t a minta alapján, akkor becsülhetjük σ-t. Ez további bizonytalanságot okoz a becslésben.
RészletesebbenAsszociációs szabályok
Asszociációs szabályok Nikházy László Nagy adathalmazok kezelése 2010. március 10. Mi az értelme? A ö asszociációs szabály azt állítja, hogy azon vásárlói kosarak, amik tartalmaznak pelenkát, általában
RészletesebbenMéréselmélet MI BSc 1
Mérés és s modellezés 2008.02.15. 1 Méréselmélet - bevezetés a mérnöki problémamegoldás menete 1. A probléma kitűzése 2. A hipotézis felállítása 3. Kísérlettervezés 4. Megfigyelések elvégzése 5. Adatok
RészletesebbenGépi tanulás. Féligellenőrzött tanulás. Pataki Béla (Bolgár Bence)
Gépi tanulás Féligellenőrzött tanulás Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Féligellenőrzött tanulás Mindig kevés az adat, de
RészletesebbenAlgoritmuselmélet. Legrövidebb utak, Bellmann-Ford, Dijkstra. Katona Gyula Y.
Algoritmuselmélet Legrövidebb utak, Bellmann-Ford, Dijkstra Katona Gyula Y. Számítástudományi és Információelméleti Tanszék Budapesti Műszaki és Gazdaságtudományi Egyetem 3. előadás Katona Gyula Y. (BME
Részletesebbenbiometria II. foglalkozás előadó: Prof. Dr. Rajkó Róbert Matematikai-statisztikai adatfeldolgozás
Kísérlettervezés - biometria II. foglalkozás előadó: Prof. Dr. Rajkó Róbert Matematikai-statisztikai adatfeldolgozás A matematikai-statisztika feladata tapasztalati adatok feldolgozásával segítséget nyújtani
RészletesebbenMindent olyan egyszerűvé kell tenni, amennyire csak lehet, de nem egyszerűbbé. (Albert Einstein) Halmazok 1
Halmazok 1 Mindent olyan egyszerűvé kell tenni, amennyire csak lehet, de nem egyszerűbbé. (Albert Einstein) Halmazok 2 A fejezet legfontosabb elemei Halmaz megadási módjai Halmazok közti műveletek (metszet,
RészletesebbenKabos: Statisztika II. t-próba 9.1. Ha ismert a doboz szórása de nem ismerjük a
Kabos: Statisztika II. t-próba 9.1 Egymintás z-próba Ha ismert a doboz szórása de nem ismerjük a doboz várhatóértékét, akkor a H 0 : a doboz várhatóértéke = egy rögzített érték hipotézisről úgy döntünk,
RészletesebbenFELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE
FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE Dr. Aradi Szilárd, Fehér Árpád Mesterséges intelligencia kialakulása 1956 Dartmouth-i konferencián egy maroknyi tudós megalapította a MI területét
RészletesebbenMérés és modellezés Méréstechnika VM, GM, MM 1
Mérés és modellezés 2008.02.04. 1 Mérés és modellezés A mérnöki tevékenység alapeleme a mérés. A mérés célja valamely jelenség megismerése, vizsgálata. A mérés tervszerűen végzett tevékenység: azaz rögzíteni
RészletesebbenGépi tanulás a Rapidminer programmal. Stubendek Attila
Gépi tanulás a Rapidminer programmal Stubendek Attila Rapidminer letöltése Google: download rapidminer Rendszer kiválasztása (iskolai gépeken Other Systems java) Kicsomagolás lib/rapidminer.jar elindítása
RészletesebbenBiometria az orvosi gyakorlatban. Korrelációszámítás, regresszió
SZDT-08 p. 1/31 Biometria az orvosi gyakorlatban Korrelációszámítás, regresszió Werner Ágnes Villamosmérnöki és Információs Rendszerek Tanszék e-mail: werner.agnes@virt.uni-pannon.hu Korrelációszámítás
RészletesebbenModellkiválasztás és struktúrák tanulása
Modellkiválasztás és struktúrák tanulása Szervezőelvek keresése Az unsupervised learning egyik fő célja Optimális reprezentációk Magyarázatok Predikciók Az emberi tanulás alapja Általános strukturális
RészletesebbenDiszkréten mintavételezett függvények
Diszkréten mintavételezett függvények A függvény (jel) értéke csak rögzített pontokban ismert, de köztes pontokban is meg akarjuk becsülni időben mintavételezett jel pixelekből álló műholdkép rácson futtatott
RészletesebbenÁltalános algoritmustervezési módszerek
Általános algoritmustervezési módszerek Ebben a részben arra mutatunk példát, hogy miként használhatóak olyan általános algoritmustervezési módszerek mint a dinamikus programozás és a korlátozás és szétválasztás
RészletesebbenNormális eloszlás tesztje
Valószínűség, pontbecslés, konfidenciaintervallum Normális eloszlás tesztje Kolmogorov-Szmirnov vagy Wilk-Shapiro próba. R-funkció: shapiro.test(vektor) balra ferde eloszlás jobbra ferde eloszlás balra
RészletesebbenMesterséges intelligencia, 7. előadás 2008. október 13. Készítette: Masa Tibor (KPM V.)
Mesterséges intelligencia, 7. előadás 2008. október 13. Készítette: Masa Tibor (KPM V.) Bizonytalanságkezelés: Az eddig vizsgáltakhoz képest teljesen más világ. A korábbi problémák nagy része logikai,
RészletesebbenLogika és informatikai alkalmazásai
Logika és informatikai alkalmazásai 4. gyakorlat Németh L. Zoltán http://www.inf.u-szeged.hu/~zlnemeth SZTE, Informatikai Tanszékcsoport 2011 tavasz Irodalom Szükséges elmélet a mai gyakorlathoz Előadás
RészletesebbenLogika és informatikai alkalmazásai
Logika és informatikai alkalmazásai 4. gyakorlat Németh L. Zoltán http://www.inf.u-szeged.hu/~zlnemeth SZTE, Informatikai Tanszékcsoport 2011 tavasz Irodalom Szükséges elmélet a mai gyakorlathoz Előadás
RészletesebbenNumerikus integrálás
Közelítő és szimbolikus számítások 11. gyakorlat Numerikus integrálás Készítette: Gelle Kitti Csendes Tibor Somogyi Viktor Vinkó Tamás London András Deák Gábor jegyzetei alapján 1. Határozatlan integrál
RészletesebbenInformációs rendszerek elméleti alapjai. Információelmélet
Információs rendszerek elméleti alapjai Információelmélet Az információ nem növekedés törvénye Adatbázis x (x adatbázis tartalma) Kérdés : y Válasz: a = f(y, x) Mennyi az a információtartalma: 2017. 04.
RészletesebbenHipotéziselmélet - paraméteres próbák. eloszlások. Matematikai statisztika Gazdaságinformatikus MSc szeptember 10. 1/58
u- t- Matematikai statisztika Gazdaságinformatikus MSc 2. előadás 2018. szeptember 10. 1/58 u- t- 2/58 eloszlás eloszlás m várható értékkel, σ szórással N(m, σ) Sűrűségfüggvénye: f (x) = 1 e (x m)2 2σ
RészletesebbenMesterséges Intelligencia I. gyakorlat
Mesterséges ntelligencia. gyakorlat Dobó ndrás 2013/2014. félév elhasznált irodalom: z előadás jegyzete (http://www.inf.u-szeged.hu/~jelasity/mi1/2013/jegyzet.pdf) Peter Norvig, Stuart J. Russel: Mesterséges
RészletesebbenA valós számok halmaza
VA 1 A valós számok halmaza VA 2 A valós számok halmazának axiómarendszere és alapvető tulajdonságai Definíció Az R halmazt a valós számok halmazának nevezzük, ha teljesíti a következő axiómarendszerben
RészletesebbenBiomatematika 12. Szent István Egyetem Állatorvos-tudományi Kar. Fodor János
Szent István Egyetem Állatorvos-tudományi Kar Biomatematikai és Számítástechnikai Tanszék Biomatematika 12. Regresszió- és korrelációanaĺızis Fodor János Copyright c Fodor.Janos@aotk.szie.hu Last Revision
Részletesebben1. Tétel Racionális ágens Definíció: Komponensek: Feladatkörnyezet és fajtái: Ágenstípusok: 2. Tétel Informálatlan keresés definíciója: Fa keresés:
1. Tétel Racionális ágens Definíció: Az ideális racionális ágens minden egyes észlelési sorozathoz a benne található tények és a beépített tudása alapján minden elvárható dolgot megtesz a teljesítményérték
Részletesebbenx, x R, x rögzített esetén esemény. : ( ) x Valószínűségi Változó: Feltételes valószínűség: Teljes valószínűség Tétele: Bayes Tétel:
Feltételes valószínűség: Teljes valószínűség Tétele: Bayes Tétel: Valószínűségi változó általános fogalma: A : R leképezést valószínűségi változónak nevezzük, ha : ( ) x, x R, x rögzített esetén esemény.
RészletesebbenBizonytalanságok melletti következtetés
Bizonytalanságok melletti következtetés Mesterséges Intelligencia I. Valószínűségi alapfogalmak (ismétlés) A, B,C események esetén a priori valószínűség: feltételes (a posteiori) valószínűség: Bayes-formula
RészletesebbenSTATISZTIKA. A maradék független a kezelés és blokk hatástól. Maradékok leíró statisztikája. 4. A modell érvényességének ellenőrzése
4. A modell érvényességének ellenőrzése STATISZTIKA 4. Előadás Variancia-analízis Lineáris modellek 1. Függetlenség 2. Normális eloszlás 3. Azonos varianciák A maradék független a kezelés és blokk hatástól
RészletesebbenMesterséges Intelligencia MI
Mesterséges Intelligencia MI Egyszerű döntés. Tanuljuk meg! Optimalizáljuk! (itt =metsszük vissza) Pataki Béla (Hullám Gábor) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki
RészletesebbenKísérlettervezés alapfogalmak
Kísérlettervezés alapfogalmak Rendszermodellezés Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs Rendszerek Tanszék Kísérlettervezés Cél: a modell paraméterezése a valóság alapján
RészletesebbenR ++ -tree: an efficient spatial access method for highly redundant point data - Martin Šumák, Peter Gurský
R ++ -tree: an efficient spatial access method for highly redundant point data - Martin Šumák, Peter Gurský Recenzió: Németh Boldizsár Térbeli indexelés Az adatszerkezetek alapvetően fontos feladata, hogy
RészletesebbenBiomatematika 15. Szent István Egyetem Állatorvos-tudományi Kar. Fodor János
Szent István Egyetem Állatorvos-tudományi Kar Biomatematikai és Számítástechnikai Tanszék Biomatematika 15. Nemparaméteres próbák Fodor János Copyright c Fodor.Janos@aotk.szie.hu Last Revision Date: November
RészletesebbenI. LABOR -Mesterséges neuron
I. LABOR -Mesterséges neuron A GYAKORLAT CÉLJA: A mesterséges neuron struktúrájának az ismertetése, neuronhálókkal kapcsolatos elemek, alapfogalmak bemutatása, aktivációs függvénytípusok szemléltetése,
Részletesebben19. AZ ÖSSZEHASONLÍTÁSOS RENDEZÉSEK MŰVELETIGÉNYÉNEK ALSÓ KORLÁTJAI
19. AZ ÖSSZEHASONLÍTÁSOS RENDEZÉSEK MŰVELETIGÉNYÉNEK ALSÓ KORLÁTJAI Ebben a fejezetben aszimptotikus (nagyságrendi) alsó korlátot adunk az összehasonlításokat használó rendező eljárások lépésszámára. Pontosabban,
RészletesebbenAz egyenes egyenlete: 2 pont. Az összevont alak: 1 pont. Melyik ábrán látható e függvény grafikonjának egy részlete?
1. Írja fel annak az egyenesnek az egyenletét, amely áthalad az (1; 3) ponton, és egyik normálvektora a (8; 1) vektor! Az egyenes egyenlete: 2. Végezze el a következő műveleteket, és vonja össze az egynemű
RészletesebbenAlap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )
Budapesti Műszaki és Gazdaságtudományi Egyetem Gépészmérnöki Kar Hidrodinamikai Rendszerek Tanszék, Budapest, Műegyetem rkp. 3. D ép. 334. Tel: 463-6-80 Fa: 463-30-9 http://www.vizgep.bme.hu Alap-ötlet:
RészletesebbenFEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 3 III. VÉLETLEN VEKTOROK 1. A KÉTDIMENZIÓs VÉLETLEN VEKTOR Definíció: Az leképezést (kétdimenziós) véletlen vektornak nevezzük, ha Definíció:
RészletesebbenGauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei
A Gauss-Jordan elimináció, mátrixinvertálás Gauss-Jordan módszer Ugyanazzal a technikával, mint ahogy a k-adik oszlopban az a kk alatti elemeket kinulláztuk, a fölötte lévő elemeket is zérussá lehet tenni.
RészletesebbenEdényrendezés. Futási idő: Tegyük fel, hogy m = n, ekkor: legjobb eset Θ(n), legrosszabb eset Θ(n 2 ), átlagos eset Θ(n).
Edényrendezés Tegyük fel, hogy a rendezendő H = {a 1,...,a n } halmaz elemei a [0,1) intervallumba eső valós számok. Vegyünk m db vödröt, V [0],...,V [m 1] és osszuk szét a rendezendő halmaz elemeit a
RészletesebbenE x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes)
6-7 ősz. gyakorlat Feladatok.) Adjon meg azt a perceptronon implementált Bayes-i klasszifikátort, amely kétdimenziós a bemeneti tér felett szeparálja a Gauss eloszlású mintákat! Rajzolja le a bemeneti
RészletesebbenBranch-and-Bound. 1. Az egészértéketű programozás. a korlátozás és szétválasztás módszere Bevezető Definíció. 11.
11. gyakorlat Branch-and-Bound a korlátozás és szétválasztás módszere 1. Az egészértéketű programozás 1.1. Bevezető Bizonyos feladatok modellezése kapcsán előfordulhat olyan eset, hogy a megoldás során
RészletesebbenRegressziós vizsgálatok
Regressziós vizsgálatok Regresszió (regression) Általános jelentése: visszaesés, hanyatlás, visszafelé mozgás, visszavezetés. Orvosi területen: visszafejlődés, involúció. A betegség tünetei, vagy maga
RészletesebbenIntelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban
Intelligens Rendszerek Elmélete : dr. Kutor László Versengéses és önszervező tanulás neurális hálózatokban http://mobil.nik.bmf.hu/tantargyak/ire.html Login név: ire jelszó: IRE07 IRE 9/1 Processzor Versengéses
RészletesebbenMatematikai alapok és valószínőségszámítás. Statisztikai becslés Statisztikák eloszlása
Matematikai alapok és valószínőségszámítás Statisztikai becslés Statisztikák eloszlása Mintavétel A statisztikában a cél, hogy az érdeklõdés tárgyát képezõ populáció bizonyos paramétereit a populációból
RészletesebbenHadházi Dániel.
Hadházi Dániel hadhazi@mit.bme.hu Orvosi képdiagnosztika: Szerepe napjaink orvoslásában Képszegmentálás orvosi kontextusban Elvárások az adekvát szegmentálásokkal szemben Verifikáció és validáció lehetséges
Részletesebben