Kernel gépek vizsgálata

Méret: px
Mutatás kezdődik a ... oldaltól:

Download "Kernel gépek vizsgálata"

Átírás

1 Kernel gépek vizsgálata Lágler Krisztián május 12. FYMGQ8 Konzulens : Dr. Horváth Gábor 1

2 Tartalomjegyzék 1. Feladat kiírás A kernelfüggvény hiperparamétereinek megválasztása Bevezetés Szupport Vektor gépekről általában Nemlineáris szeparálás Hiperparaméterekről C paraméter ε paraméter Kernelfüggvények paraméterei A hiperparaméterek keresésének tartománya 7 5. hiperparaméterek és a mintapontok számának (N) kapcsolata C és N kapcsolata σ és N kapcsolata A kísérletekben használt adathalmazokról Hiperparaméterek keresése Kimerítő keresés (Gridsearch) Vonal mentén történő keresés (Linesearch) Optimális hiperparaméterek keresése a mintapontok részhalmazával Gauss kernel paraméter meghatározása CA klaszterező algoritmus segítségével ε meghatározása RSVR segítségével Távlatok és további lehetőségek Szupport - vektorok számának minimalizálása További kernelfüggvények vizsgálata Gradiens módszerek alkalmazása

3 1. Feladat kiírás A tanuló rendszerek között kitüntetett helyet foglalnak el a kernel gépek és azon belül a szupport vektor gépek (SVM). A kernel gépek témakörhöz számos megoldatlan elméleti illetve a gyakorlati kérdés kapcsolódik. Az önálló labor munka során a feladat a kernel gépek minél jobb megismerése, majd bizonyos speciális kernel függvényekkel dolgozó rendszerek kialakítása és vizsgálata. A fő kérdések a véges tartójú kernel függvények, a kernelfüggvények adaptív megválasztása, a szakaszonként lineáris approximációt biztosító kernel megoldások összevetése más hasonló modellező képességű tanuló rendszerekkel A kernelfüggvény hiperparamétereinek megválasztása A labor során a kernelfüggvény hiperparamétereinek megválasztásának lehetséges módszereit vizsgáltam. A témában fellelhető publikációk tanulmányozása, a javasolt módszerek megismerése és megismétlése képezte az önálló labor munkámat. A paraméterek megválasztása történhet valamilyen módszert használó RSVM 1 használatával, illetve analitikus úton. Az RSVM során különböző paraméterkombinációk mellett többször végrehajtjuk az SVM tanítást, és meghatározzuk a paraméterekhez tartozó hiba értékét. Ezt követően felhasználva a kapott hibát, valamilyen heurisztika szerint változtatjuk a paraméterek értékeit, amíg el nem érünk egy (lokálisan) minimális hibát eredményező kedvező állapotba. A labor során főként RSVM módszerekkel foglalkoztam. Vannak eredmények analitikus módszerek felhasználására is, továbbá publikációk a paraméterek gradiens módszerrel történő meghatározására vonatkozóan, de ezeket idő hiányában már nem volt alkalmam kipróbálni. 2. Bevezetés 2.1. Szupport Vektor gépekről általában Az SVM egy népszerű mintafelismerő algoritmus, alapváltozata maximális margójú lineáris szeparálást tesz lehetővé, amely kiterjeszthető nemlineáris osztályozási és regressziós feladatokra. A szupport vektor gépek olyan kernel gépek, melyek a statisztikus tanuláselmélet eredményeit is hasznosítják [3]. Az optimális hipersíkot úgy kell meghatározni, hogy a hibás osztályozások száma minimális legyen, miközben törekszünk a maximális margó elérésére. Ez a következő kifejezés minimalizálásával érhető el: 1 Repeted SVM 3

4 a következő feltételek mellett : J(w) = 1 P 2 wt w + C ξ i (1) d i (w T x i + b) 1 ξ i (2) ξ i 0, i = 1, 2,..., P Ennek megfelelően a következő Lagrange szélsőérték feladatot írhatjuk fel : J(w, ξ, α, γ, b) = 1 P P { ) } P 2 wt w+c ξ i α i d i (w T x i + b 1 + ξ i γ i ξ i (3) A Lagrange kritériumot w,b és ξ i szerint kell minimalizálni, és α i -k és γ i - k szerint maximalizálni kell. A feladatot két lépésben oldhatjuk meg. Először a Lagrange kritérium w,b és ξ i szerinti deriváltját írjuk fel. J (w, ξ, α, γ, b) w J (w, ξ, α, γ, b) b J (w, ξ, α, γ, b) ξ = 0 P w = α i d i x i (4) = 0 P α i d i = 0 (5) = 0 γ i + α i = C (6) Ezt követően a gradiensek értékének nullává tételével kapott összefüggéseket behelyettesítve a Lagrange kritériumba kapjuk a duális feladatot : P Q(α) = α i 1 P P α i α j d i d j x T i x j (7) 2 j=1 P d i α i = 0, 0 α i C, i = 1, 2,..., P (8) Az α i -k kvadratikus programozással határozhatók meg. Az SVM tanítás alatt a duális probléma megoldását értjük, amely során előállnak a Lagrange multiplikátorok, amik implicite meghatározzák a szupport-vektorokat. 4

5 Nemlineáris szeparálás A valós osztályozási feladatok túlnyomó része nem szeparálható lineárisan. A lineárisan nem szeparálható feladatoknál egy megfelelő (és általában dimenziónövelő) x ϕ (x) nemlineáris transzformációval lineárisan szeparálhatóvá alakítjuk a feladatot. Az így kapott jellemzőtérben az előzőeknek megfelelő optimális (maximális margójú) megoldást keressük. Ezt két lépésben tesszük : Először nemlineáris transzformáció a bemeneti térből a jellemzőtérbe, majd a jellemző térben az optimális lineáris szeparáló hipersík meghatározása. Ez utóbbi lépést azonban itt sem a jellemzőtérben, hanem az ebből származtatott kernel térben oldjuk meg. A nemlineáris eset a lineáris eset megoldásából egyszerűen az x ϕ (x) helyettesítéssel nyerhető. Az optimális hipersíkot a következő alakban keressük: w T ϕ (x) + b = 0 (9) A jellemzőtérben megkonstruált szeparáló felületet a következő egyenlet adja: P αi d i ϕ T (x i ) ϕ (x) + b = 0 (10) A ϕ T (x i ) ϕ (x) szorzatot a kernel trükknek megfelelően egy magfüggvényként írjuk fel, azaz K (x i, x) = ϕ T (x i ) ϕ (x) (11) A nemlineáris osztályozó tehát: [ P ] y (x) = sign αi d i K (x i, x) + b (12) 5

6 3. Hiperparaméterekről Az SVM tanítást több paraméter befolyásolja, amelyeket hiperparamétereknek nevezünk. Ezek meghatározása nem egyértelmű, gyakran probléma függő, amely az alkalmazási terület mélyebb ismeretét igényli. A labor során a hiperparaméterek meghatározásának módszereivel ismerkedtem meg, illetve azok gyakorlati alkalmazásával. A következő részben rövid áttekintést nyújtok a hiperparaméterekről és azok szerepéről C paraméter J(w) = 1 P 2 wt w + C ξ i, ξ i 0, i = 1, 2,..., P A minimalizálandó J(w) kritériumban szereplő C-t konstans hiperparaméternek is szokás nevezni. A C paraméter felfogható úgy mint egy büntető paraméter, amely a margón bellülre eső, vagy rosszul osztályozott mintákat bünteti. C magas értéke nagyobb súlyt ad a rosszul osztályozott mintáknak. Nagyon magas C választás esetén az SVM viselkedése a perceptron algoritmusra fog hasonlítani abban a tekintetben, hogy az összes hibát minimalizálja. C kis értéke nagyobb súlyt helyez a maximális margóért felelős tagra, C 0 esetén a margó maximális. C = 0 választás nem értelmes lineárisan nem szeparálható problémákra ε paraméter A szupport vektor gépek regressziós, vagy függvényapproximációs céllal történő alkalmazása esetén az ún. ε-érzéketlenségi sávval rendelkező abszolútérték hibafüggvényt alkalmazzuk az eltérés mérésére. L ε (y) = { 0 ha d y(x) < ε d y(x) ε egyébként (13) Általánosságban a kimenet pontossága és a szupport vektorok számát szabályoza az ε paraméter. Továbbá ε a megoldás simaságát szabályozó paraméternek is tekinthető. Nagy ε értékekre a megoldás sima lesz, míg kis értékekre a mintapontokat, és velük együtt a zajt is jobban megtanulja az SVM 3.3. Kernelfüggvények paraméterei Lineárisan nem szeparálható feladatoknál egy megfelelő x ϕ(x) nemlineáris transzformációval lineárisan szeparálhatóvá alakítjuk a feladatot. A 6

7 ϕ T (x i )ϕ(x) szorzatot kernel trükknek megfelelően egy magfüggvényként írjuk fel: K(x i, x) = ϕ T (x i )ϕ(x) A labor során az egyik leggyakrabban alkalmazott Gauss(RBF) kernelfüggvény vizsgálatára szorítkoztam. K(x i, x) = e x x i 2 σ 2 (14) A C paraméterhez hasonlóan meg kell határozni σ optimális értékét, amely a kernel függvény szélességét szabályozó paraméter. 4. A hiperparaméterek keresésének tartománya Megfigyelték [4] hogy C Megfelelően magas értékére C > C, a keresztkiértékelés pontossága konvergálni látszik, egy közel optimális értékhez (de nem az optimális értékhez), ahogyan azt az 1. ábra mutatja a 8. oldalon. Ez abból következik hogy C mellett a J (w) C P ξ i, a minimalizálandó J (w) első tagja változatlan marad, és a súlypont áttolódik az összes hiba minimalizálására. Hasonlóan C 0 gyenge osztályozási pontossághoz vezet, mivel C 0 mellett C P ξ i 0, a hibaminimalizálásért felelős második tag is nullához tart. Ekkor a minimalizálandó J (w) kifejezés első tagjára helyeződik a súly, és a tanítás maximális margójú szeparálást eredményez, figyelmen kívül hagyva a hibás osztályozásért felelős második tagot, amely végső soron a gyenge osztályozási pontosságot eredményezi. A szupport vektor gép nagyon keveset tanul C kis értékeire, és majdnem minden tanítópontot szupport vektorként értelmez. A szupport vektorok alakulása látható a 2. ábrán a 8. oldalon. Ahogy C értéke növekszik az SVM eredménye közelít a tényleges döntési határhoz. Ezt a tendenciát mutatja a 3. ábra a 9. oldalon. Továbbá egyértelmű hogy σ nagy értéke túlilleszkedéshez vezet, és az osztályozási pontosság erős romlásával jár, még magas C értékekre is. C kis értéke gyenge osztályozási pontossághoz vezet σ értékétől függetlenül. Ebből következik hogy C magas - és σ alacsony értékei mellett érdemes keresni a paramétertérben. 5. hiperparaméterek és a mintapontok számának (N) kapcsolata 5.1. C és N kapcsolata Ahogy a tanítópontok száma növekszik, az optimális elválasztófelület szélessége és ezáltal a J(ω) első tagja közel állandó marad. Mivel a margóba 7

8 1. ábra. 10 szeres keresztkiértékelés pontossága log (C) függvényében 2. ábra. Szupport vektorok normalizált száma log (C) függvényében 8

9 3. ábra. Szupport vektorok C függvényében. C értékét tól ig növelve, konstans kernelparaméter γ mellett. Jól megfigyelhető, ahogy C növekszik az SVM egyre jobban közelíti az osztályok közötti tényleges döntési határt, és a szupport vektorok is egyre inkább a határ közelében koncentrálódnak. 9

10 eső illetve rosszul osztályozott mintapontok csak kis részét képezik a tényleges tanítóhalmaznak, ezek száma csak gyengén függ N-től elég nagy N-re nézve. Az összeg második tagja lineárisan növekszik N értékével, így C-nek fordítottan arányosnak kell lennie N-el hogy megőrizzük az összeg két tagja közötti egyensúlyt. Ez a kapcsolat nagyméretű adathalmazokra áll. Ahogyan csökken a tanításhoz felhasznált mintapontok száma, úgy csökken az a tartomány, amelyen belül C és σ értékek megválasztása közel optimális osztályozási eredményre vezet σ és N kapcsolata Az optimális kernel szélesség (σ) és a tanítópontok száma között elhanyagolhatóan gyenge kapcsolat áll fent. 6. A kísérletekben használt adathalmazokról A labor során mesterségesen előállított adathalmazokkal dolgoztam. Osztályozáshoz két dimenziós Gauss függvények összegét használtam. A két osztályt az így előállított gauss függvény szignumaként nyertem. Továbbá osztályozáshoz gyakran használt Iris mintakészletet és a kettős spirált is használtam. y (x 1, x 2 ) = sign centers sin(x) A i e ( c i,1 x 1 2 2σ 2 i,1 ) c i,2 x σ i,2 2 (15) Regressziós feladathoz, x és a fentihez hasonlóan előállított Gauss függvények összegét alkalmaztam. y (x) = centers A i e ( c i x 2 2σ 2 i ) (16) 10

11 7. Hiperparaméterek keresése 7.1. Kimerítő keresés (Gridsearch) A kimerítő keresés az optimális osztályozást biztosító paraméterek keresésének egy naiv módszere. A paramétereknek egy kiválasztott intervalluma által létrehozott paramétertérben végzünk keresést. A paramétertér minden egyes pontjában (paraméterek kombinációjában) elvégezzük az SVM tanítást, és meghatározzuk a hibát. A legkisebb hiba által szolgáltatott paraméterkombináció az optimális választás. Legfőbb hátránya a nagy erőforrásigény, amely nagy adathalmazok esetében akár kivárhatatlanul sokáig is tarthat. Továbbá egy minimális hibát eredményező paraméterkombináció egy lokális minimumot jelent, mivel a nem vizsgált tartományban lehetnek további minimum helyek. A kimerítő keresés az egyetlen biztos módszer az osztályozási probléma mélyebb megismerésére. A labor során vizsgált problémákra számított kimerítő keresés egy fontos eredményre vezet. A paramétertérben meghatározott hibafelületen a közel optimális osztályozáshoz tartozó paraméterek egy összefüggő területen találhatók. Továbbá az is megállapítható hogy a minimális hiba viszonylag nagy környezetében találhatóak közel optimális pontosságú osztályozásra vezető paraméterkombinációk, ahogy ez a 4. ábrán látható a 12. oldalon. Ez az eredmény biztató abban a tekintetben, hogy a hiba egy lokális minimuma közel található a vizsgált tartomány globális optimumához, illetve a lokális minimum hibája csak kevéssel tér el az optimális osztályozás hibájától Vonal mentén történő keresés (Linesearch) Ismételt SVM (RSVM) tanítást alkalmazva megtalálható egy minimális hibájú osztályozásra vezető paraméterkombináció. 1. Inicializáljuk a paraméterek lehetséges intervallumát, valamint a paraméterek kiindulási állapotát (pl.: σ [0.1, 10], C [1, 100], σ = 1, C = 1). 2. σ konstans értéken tartása mellett keressük azt a C paramétert az előre meghatározott keresési intervallumban, amely mellett az SVM hibája minimális. A keresés történhet pl.: aranymetszés módszerrel. 3. A meghatározott C paraméter konstans értéken tartása mellett az előre rögzített σ keresési intervallumában keresünk egy σ paramétert, amely mellett az SVM hibája minimális. 4. A meghatározott C és σ paraméterek mellett az osztályozás hibája közel minimális. 11

12 4. ábra. Hibafelület (kontúr) az Iris adathalmazon végzett osztályozáshoz. A módszer előnye egyszerűsége mellett, hogy nagyon gyorsan képes közel optimális hibát eredményező paraméterkombinációk megtalálására. Hátránya hogy az így kapott minimum, egy lokális minimum lesz. A fentiek értelmében ez közel lesz a vizsgált tartomány globális minimumához, de az eredmények azt mutatják hogy a kapott minimum nem az optimális érték. A lokális minimumok kiszűrhetők a teljes keresési tér kis területekre történő felosztásával. Az algoritmust a kisebb területeken futtatva meghatározhatók a lokális minimumok, amelyekből kiválasztható az teljes terület egy optimális minimumára vezető paraméterkombináció. N (mintapontok száma) C σ Hiba Kereséshez szükséges idő Kimerítő keresés s Vonal menti keresés s Az 5. ábrán a 13. oldalon látható a vonal mentén történő keresés során bejárt út Optimális hiperparaméterek keresése a mintapontok részhalmazával Nagy tanítóhalmaz esetén a paraméterek meghatározása ismételt SVM tanítással nehéz lehet, mivel az adathalmaz méretével együtt a tanításhoz 12

13 5. ábra. hiperparaméterek meghatározása vonal mentén történő keresés segítségével. szükséges idő is növekszik. Az 5.1 szakasz értelmében, a minimalizálandó J(w) kifejezés második tagja lineárisan növekszik N értékével, miközben az első tag közel állandó marad. Ennek megfelelően C-nek fordítottan arányosnak kellene lennie N-el hogy megőrizzük az összeg két tagja közötti egyensúlyt. A tanítóhalmaz mintapontjainak csak egy kis része esik az elválasztófelület környezetébe, és a minták számának növekedésével a margó környezetébe eső minták aránya egy konstans értékhez konvergál. Így a minták számának növelése egy bizonyos N < N -re már nem hoz új információt. Ezt a tendenciát jól szemlélteti, hogy a mintapontok számának csökkentése a minimális hibájú tartomány területét is csökkenti, amely megkönnyíti a terület megtalálását is, ahogy ezt a 6. ábra szemlélteti a a 14. oldalon. A fent említettek értelmében a következő stratégiát javasolták az optimális hiperparaméterek megtalálására nagy adathalmazokon[4] : 1. Válasszuk ki a tanító mintapontok egy N sub részhalmazát. 2. Határozzuk meg a kiválasztott részhalmazban a minimális hibájú osztályozást előállító paraméterkombinációt. Ez történhet keresztkiértékeléssel, a fent említett vonal mentén történő kereséssel, vagy valamilyen más módszerrel. 3. A meghatározott C sub paramétert a következőképpen skálázzuk : C full = C sub Nsub N full. 4. C full paramétert használva σ full meghatározásához végezzünk vonal menti keresést σ sub szűk környezetében. 13

14 6. ábra. A kimerítő keresés eredményét ábrázoló kontúr ábra a felhasznált mintapontok számának változása mellett. 14

15 A gyakorlati problémák többségében a rendelkezésre álló mintapontok száma kevés, és költséges a további minták előállítása, ezért ez az eredmény inkább elméleti értéket képvisel. Azonban eredményesen használható a vonal mentén történő paraméterkeresés gyorsítására, amikor az SVM tanítása időigényes Gauss kernel paraméter meghatározása CA klaszterező algoritmus segítségével A Competetive Agglomeration Clustering (továbbiakban CA klaszterező) algoritmus nagy kezdeti klaszterszámból indul ki, amellyel csökkenti az inicializálásra való érzékenységet, és meghatározza a tényleges klaszterszámot az agglomerációs folyamat során [2]. Az algoritmus felhasználható az RBF kernel paraméterének meghatározására. Képezzük az x k mintapontokból a Q = { q k = ( x k, y k ) k = 1, 2,..., P } vektorokat. Az így kapott q j mintapontokat klaszterezzük a CA algoritmussal. Általánosságban a klaszterek ellipszoid alakot vesznek fel, amelynek szélessége felhasználható Gauss kernel paramétereként. A szélesség klaszterenként eltérő, a minimális és maximális érték meghatározza a σ paraméter egy értelmes intervallumát. A minimális vagy az átlagos szélesség felhasználható a gauss kernel paramétereként. A 4. szakasz értelmében σ nagy értéke túlilleszkedéshez vezet, ezért a megállapított tartományban σ alacsonyabb értékeit érdemes felhasználni. A módszernek inkább elméleti jelentősége van, habár a σ paraméternek is jelentős szerepe van az osztályozás pontosságában, azonban sokkal kisebb hatása van az eredményre mint a C paraméternek. Továbbá a kimerítő keresések eredménye arra utal, hogy különböző C paraméterekhez más és más σ eredményez minimális hibájú osztályozást és vice versa. A klaszterező algoritmus eredménye egy az agglomerációt szabályozó ζ paramétertől függ, amely meghatározza az eldobásra kerülő klasztereket. Ez közvetetten befolyásolja a végeredményben kialakuló klaszterek méretét és ennél fogva azok szélességét is. Ez pedig felveti a felhasznált klaszterező paraméterének meghatározásának kérdését ε meghatározása RSVR segítségével A regressziós hiba alapján ismételt SVM tanítással megállapítható az ε paraméter értéke. 1. lépésben, ε = 0 értéket alkalmazunk a tanítás során. Következésképpen, az aktuális és az elvárt kimenet felhasználható a regresszió hiba kiszámításához. 2. A regressziós hiba alapján az ε a következőképpen határozható meg: ε = υ std([regressionerror]) 15

16 2 Error with respect SVs number : generated dataset from sum of 2d gaussian fuction N = 150; C = ; Sigma = ; SVs number = 75; error = Minimal error with respect SVs number Minimal error with respect SVs number error SVs Number 7. ábra. Az SVM hibájának minimális és maximális értékének változása a szupport vektorok száma mellett. Általánosan az υ konstanst és 1.96 értékekre választják, amelynek eredményeképpen a regresszió hiba 90% és 95% valószínűséggel esik a υ std ([regressionerror]) területbe[2][1]. 8. Távlatok és további lehetőségek 8.1. Szupport - vektorok számának minimalizálása A labor során végzett kísérletek azt mutatják hogy a minimális hibához tartozó paraméterkombináció egy viszonylag nagy környezetében találhatók további paraméterkombinációk, amelyek hibája közel esik az optimumhoz. Ezek a hiperparaméterek értékein kívül a szupport-vektorok számában is eltérnek. A szupport vektorok számának minimalizálása, egyszerűsíti az SVM eredményének komplexitását, amely további optimalizációt tesz lehetővé, ahogy az a 7. ábra mutatja a a 16. oldalon További kernelfüggvények vizsgálata Sok, további kernelfüggvény használható az SVM modellben, amelyek további vizsgálatot igényelnek Gradiens módszerek alkalmazása Vannak további eredmények az SVM hibájának elméleti korlátjára vonatkozóan, amelyeket felhasználnak a paraméterek gradiens alapú meghatá- 16

17 rozásához. 17

18 Hivatkozások [1] M. Evans, N. Hastings, and B. Peacock. Neurális hálózatok. Wiley, [2] Hichem Frigui and Raghu Krishnapuram. A robust competitive clustering algorithm with applications in computer vision. IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, [3] Altrichter Márta, Horváth Gábor, Pataki Béla, Strausz György, Takács Gábor, and Valyon József. Neurális hálózatok. Panem kiadó, [4] Charl J. van Heerden and Etienne Barnard. Towards understanding the influence of svm hyperparameters

Kernel módszerek. 7. fejezet

Kernel módszerek. 7. fejezet 7. fejezet Kernel módszerek Ebben a fejezetben olyan tanuló rendszerekkel foglalkozunk, amelyek a válaszokat ún. kernel függvények (vagy magfüggvények) súlyozott összegeként állítják elő. A megközelítés

Részletesebben

Gépi tanulás a gyakorlatban SVM

Gépi tanulás a gyakorlatban SVM Gépi tanulás a gyakorlatban SVM Klasszifikáció Feladat: előre meghatározott csoportok elkülönítése egymástól Osztályokat elkülönítő felület Osztályokhoz rendelt döntési függvények Klasszifikáció Feladat:

Részletesebben

Gépi tanulás a gyakorlatban. Lineáris regresszió

Gépi tanulás a gyakorlatban. Lineáris regresszió Gépi tanulás a gyakorlatban Lineáris regresszió Lineáris Regresszió Legyen adott egy tanuló adatbázis: Rendelkezésünkre áll egy olyan előfeldolgozott adathalmaz, aminek sorai az egyes ingatlanokat írják

Részletesebben

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31. Regresszió Csorba János Nagyméretű adathalmazok kezelése 2010. március 31. A feladat X magyarázó attribútumok halmaza Y magyarázandó attribútumok) Kérdés: f : X -> Y a kapcsolat pár tanítópontban ismert

Részletesebben

Konjugált gradiens módszer

Konjugált gradiens módszer Közelítő és szimbolikus számítások 12. gyakorlat Konjugált gradiens módszer Készítette: Gelle Kitti Csendes Tibor Vinkó Tamás Faragó István Horváth Róbert jegyzetei alapján 1 LINEÁRIS EGYENLETRENDSZEREK

Részletesebben

Support Vector Machines

Support Vector Machines Support Vector Machnes Ormánd Róbert MA-SZE Mest. Int. Kutatócsoport 2009. február 17. Előadás vázlata Rövd bevezetés a gép tanulásba Bevezetés az SVM tanuló módszerbe Alapötlet Nem szeparálható eset Kernel

Részletesebben

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Keresés képi jellemzők alapján Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Lusta gépi tanulási algoritmusok Osztályozás: k=1: piros k=5: kék k-legközelebbi szomszéd (k=1,3,5,7)

Részletesebben

SVM (közepesen mély bevezetés)

SVM (közepesen mély bevezetés) SVM (közepesen mély bevezetés) Adatbányászat és Keresés Csoport, MTA SZTAKI dms.sztaki.hu Szabó Adrienn 2013. április 4. Bevezetés Alapötlet Jelölések Maximum margin classier Optimalizálási feladat Tartalom

Részletesebben

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,

Részletesebben

Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )

Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( ) Budapesti Műszaki és Gazdaságtudományi Egyetem Gépészmérnöki Kar Hidrodinamikai Rendszerek Tanszék, Budapest, Műegyetem rkp. 3. D ép. 334. Tel: 463-6-80 Fa: 463-30-9 http://www.vizgep.bme.hu Alap-ötlet:

Részletesebben

I. LABOR -Mesterséges neuron

I. LABOR -Mesterséges neuron I. LABOR -Mesterséges neuron A GYAKORLAT CÉLJA: A mesterséges neuron struktúrájának az ismertetése, neuronhálókkal kapcsolatos elemek, alapfogalmak bemutatása, aktivációs függvénytípusok szemléltetése,

Részletesebben

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Számítógépes képelemzés 7. előadás Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Momentumok Momentum-alapú jellemzők Tömegközéppont Irányultáság 1 2 tan 2 1 2,0 1,1 0, 2 Befoglaló

Részletesebben

Végeselem modellezés alapjai 1. óra

Végeselem modellezés alapjai 1. óra Végeselem modellezés alapjai. óra Gyenge alak, Tesztfüggvény, Lagrange-féle alakfüggvény, Stiness mátrix Kivonat Az óra célja, hogy megismertesse a végeselem módszer (FEM) alkalmazását egy egyszer probléma,

Részletesebben

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók Előadó: Előadás anyaga: Hullám Gábor Pataki Béla Dobrowiecki Tadeusz BME I.E. 414, 463-26-79

Részletesebben

Diszkréten mintavételezett függvények

Diszkréten mintavételezett függvények Diszkréten mintavételezett függvények A függvény (jel) értéke csak rögzített pontokban ismert, de köztes pontokban is meg akarjuk becsülni időben mintavételezett jel pixelekből álló műholdkép rácson futtatott

Részletesebben

Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet

Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet / Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet / Tartalom 3/ kernelek segítségével Felügyelt és félig-felügyelt tanulás felügyelt: D =

Részletesebben

Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban

Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban Intelligens Rendszerek Elmélete : dr. Kutor László Versengéses és önszervező tanulás neurális hálózatokban http://mobil.nik.bmf.hu/tantargyak/ire.html Login név: ire jelszó: IRE07 IRE 9/1 Processzor Versengéses

Részletesebben

Adatbányászati szemelvények MapReduce környezetben

Adatbányászati szemelvények MapReduce környezetben Adatbányászati szemelvények MapReduce környezetben Salánki Ágnes salanki@mit.bme.hu 2014.11.10. Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs Rendszerek Tanszék Felügyelt

Részletesebben

Gépi tanulás. Féligellenőrzött tanulás. Pataki Béla (Bolgár Bence)

Gépi tanulás. Féligellenőrzött tanulás. Pataki Béla (Bolgár Bence) Gépi tanulás Féligellenőrzött tanulás Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Féligellenőrzött tanulás Mindig kevés az adat, de

Részletesebben

Lineáris regressziós modellek 1

Lineáris regressziós modellek 1 Lineáris regressziós modellek 1 Ispány Márton és Jeszenszky Péter 2016. szeptember 19. 1 Az ábrák C.M. Bishop: Pattern Recognition and Machine Learning c. könyvéből származnak. Tartalom Bevezető példák

Részletesebben

Szélsőérték feladatok megoldása

Szélsőérték feladatok megoldása Szélsőérték feladatok megoldása A z = f (x,y) függvény lokális szélsőértékének meghatározása: A. Szükséges feltétel: f x (x,y) = 0 f y (x,y) = 0 egyenletrendszer megoldása, amire a továbbiakban az x =

Részletesebben

Gauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei

Gauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei A Gauss-Jordan elimináció, mátrixinvertálás Gauss-Jordan módszer Ugyanazzal a technikával, mint ahogy a k-adik oszlopban az a kk alatti elemeket kinulláztuk, a fölötte lévő elemeket is zérussá lehet tenni.

Részletesebben

Kódverifikáció gépi tanulással

Kódverifikáció gépi tanulással Kódverifikáció gépi tanulással Szoftver verifikáció és validáció kiselőadás Hidasi Balázs 2013. 12. 12. Áttekintés Gépi tanuló módszerek áttekintése Kódverifikáció Motiváció Néhány megközelítés Fault Invariant

Részletesebben

Least Squares becslés

Least Squares becslés Least Squares becslés A négyzetes hibafüggvény: i d i ( ) φx i A négyzetes hibafüggvény mellett a minimumot biztosító megoldás W=( d LS becslés A gradiens számítása és nullává tétele eredményeképp A megoldás

Részletesebben

Optimalizálás alapfeladata Legmeredekebb lejtő Lagrange függvény Log-barrier módszer Büntetőfüggvény módszer 2017/

Optimalizálás alapfeladata Legmeredekebb lejtő Lagrange függvény Log-barrier módszer Büntetőfüggvény módszer 2017/ Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatikai Intézet Számítógépes Optimalizálás Tanszék 9. Előadás Az optimalizálás alapfeladata Keressük f függvény maximumát ahol f : R n R és

Részletesebben

Biomatematika 12. Szent István Egyetem Állatorvos-tudományi Kar. Fodor János

Biomatematika 12. Szent István Egyetem Állatorvos-tudományi Kar. Fodor János Szent István Egyetem Állatorvos-tudományi Kar Biomatematikai és Számítástechnikai Tanszék Biomatematika 12. Regresszió- és korrelációanaĺızis Fodor János Copyright c Fodor.Janos@aotk.szie.hu Last Revision

Részletesebben

KUTATÁSI JELENTÉS. Multilaterációs radarrendszer kutatása. Szüllő Ádám

KUTATÁSI JELENTÉS. Multilaterációs radarrendszer kutatása. Szüllő Ádám KUTATÁSI JELENTÉS Multilaterációs radarrendszer kutatása Szüllő Ádám 212 Bevezetés A Mikrohullámú Távérzékelés Laboratórium jelenlegi K+F tevékenységei közül ezen jelentés a multilaterációs radarrendszerek

Részletesebben

Osztályozási feladatok képdiagnosztikában. Orvosi képdiagnosztikai 2017 ősz

Osztályozási feladatok képdiagnosztikában. Orvosi képdiagnosztikai 2017 ősz Osztályozási feladatok képdiagnosztikában Orvosi képdiagnosztikai 2017 ősz Osztályozás Szeparáló felületet keresünk Leképezéseket tanulunk meg azok mintáiból A tanuláshoz használt minták a tanító minták

Részletesebben

függvény grafikonja milyen transzformációkkal származtatható az f0 : R R, f0(

függvény grafikonja milyen transzformációkkal származtatható az f0 : R R, f0( FÜGGVÉNYEK 1. (008. okt., 14. fel, 5+7 pont) Fogalmazza meg, hogy az f : R R, f ( x) x 1 függvény grafikonja milyen transzformációkkal származtatható az f0 : R R, f0( x) x függvény grafikonjából! Ábrázolja

Részletesebben

GPK M1 (BME) Interpoláció / 16

GPK M1 (BME) Interpoláció / 16 Interpoláció Matematika M1 gépészmérnököknek 2017. március 13. GPK M1 (BME) Interpoláció 2017 1 / 16 Az interpoláció alapfeladata - Példa Tegyük fel, hogy egy ipari termék - pl. autó - előzetes konstrukciójának

Részletesebben

Kontrollcsoport-generálási lehetőségek retrospektív egészségügyi vizsgálatokhoz

Kontrollcsoport-generálási lehetőségek retrospektív egészségügyi vizsgálatokhoz Kontrollcsoport-generálási lehetőségek retrospektív egészségügyi vizsgálatokhoz Szekér Szabolcs 1, Dr. Fogarassyné dr. Vathy Ágnes 2 1 Pannon Egyetem Rendszer- és Számítástudományi Tanszék, szekersz@gmail.com

Részletesebben

First Prev Next Last Go Back Full Screen Close Quit

First Prev Next Last Go Back Full Screen Close Quit Többváltozós függvények (2) First Prev Next Last Go Back Full Screen Close Quit 1. Egyváltozós függvények esetén a differenciálhatóságból következett a folytonosság. Fontos tudni, hogy abból, hogy egy

Részletesebben

Intelligens Rendszerek Gyakorlata. Neurális hálózatok I.

Intelligens Rendszerek Gyakorlata. Neurális hálózatok I. : Intelligens Rendszerek Gyakorlata Neurális hálózatok I. dr. Kutor László http://mobil.nik.bmf.hu/tantargyak/ir2.html IRG 3/1 Trend osztályozás Pnndemo.exe IRG 3/2 Hangulat azonosítás Happy.exe IRG 3/3

Részletesebben

E x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes)

E x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes) 6-7 ősz. gyakorlat Feladatok.) Adjon meg azt a perceptronon implementált Bayes-i klasszifikátort, amely kétdimenziós a bemeneti tér felett szeparálja a Gauss eloszlású mintákat! Rajzolja le a bemeneti

Részletesebben

Numerikus integrálás

Numerikus integrálás Közelítő és szimbolikus számítások 11. gyakorlat Numerikus integrálás Készítette: Gelle Kitti Csendes Tibor Somogyi Viktor Vinkó Tamás London András Deák Gábor jegyzetei alapján 1. Határozatlan integrál

Részletesebben

A lineáris programozás alapjai

A lineáris programozás alapjai A lineáris programozás alapjai A konvex analízis alapjai: konvexitás, konvex kombináció, hipersíkok, félterek, extrém pontok, Poliéderek, a Minkowski-Weyl tétel (a poliéderek reprezentációs tétele) Lineáris

Részletesebben

Teljesen elosztott adatbányászat pletyka algoritmusokkal. Jelasity Márk Ormándi Róbert, Hegedűs István

Teljesen elosztott adatbányászat pletyka algoritmusokkal. Jelasity Márk Ormándi Róbert, Hegedűs István Teljesen elosztott adatbányászat pletyka algoritmusokkal Jelasity Márk Ormándi Róbert, Hegedűs István Motiváció Nagyméretű hálózatos elosztott alkalmazások az Interneten egyre fontosabbak Fájlcserélő rendszerek

Részletesebben

Függvények Megoldások

Függvények Megoldások Függvények Megoldások ) Az ábrán egy ; intervallumon értelmezett függvény grafikonja látható. Válassza ki a felsoroltakból a függvény hozzárendelési szabályát! a) x x b) x x + c) x ( x + ) b) Az x függvény

Részletesebben

MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK MEGOLDÁSAI KÖZÉPSZINT Függvények

MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK MEGOLDÁSAI KÖZÉPSZINT Függvények MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK MEGOLDÁSAI KÖZÉPSZINT Függvények A szürkített hátterű feladatrészek nem tartoznak az érintett témakörhöz, azonban szolgálhatnak fontos információval az érintett feladatrészek

Részletesebben

11. Előadás. 11. előadás Bevezetés a lineáris programozásba

11. Előadás. 11. előadás Bevezetés a lineáris programozásba 11. Előadás Gondolkodnivalók Sajátérték, Kvadratikus alak 1. Gondolkodnivaló Adjuk meg, hogy az alábbi A mátrixnak mely α értékekre lesz sajátértéke a 5. Ezen α-ák esetén határozzuk meg a 5 sajátértékhez

Részletesebben

Függvények növekedési korlátainak jellemzése

Függvények növekedési korlátainak jellemzése 17 Függvények növekedési korlátainak jellemzése A jellemzés jól bevált eszközei az Ω, O, Θ, o és ω jelölések. Mivel az igények általában nemnegatívak, ezért az alábbi meghatározásokban mindenütt feltesszük,

Részletesebben

6. Függvények. Legyen függvény és nem üreshalmaz. A függvényt az f K-ra való kiterjesztésének

6. Függvények. Legyen függvény és nem üreshalmaz. A függvényt az f K-ra való kiterjesztésének 6. Függvények I. Elméleti összefoglaló A függvény fogalma, értelmezési tartomány, képhalmaz, értékkészlet Legyen az A és B halmaz egyike sem üreshalmaz. Ha az A halmaz minden egyes eleméhez hozzárendeljük

Részletesebben

Gyakorló feladatok. Agbeko Kwami Nutefe és Nagy Noémi

Gyakorló feladatok. Agbeko Kwami Nutefe és Nagy Noémi Gyakorló feladatok Agbeko Kwami Nutefe és Nagy Noémi 25 Tartalomjegyzék. Klasszikus hibaszámítás 3 2. Lineáris egyenletrendszerek 3 3. Interpoláció 4 4. Sajátérték, sajátvektor 6 5. Lineáris és nemlineáris

Részletesebben

Irányításelmélet és technika II.

Irányításelmélet és technika II. Irányításelmélet és technika II. Legkisebb négyzetek módszere Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki és Információs Rendszerek Tanszék amagyar@almos.vein.hu 200 november

Részletesebben

Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás

Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás http:/uni-obuda.hu/users/kutor/ IRE 7/50/1 A neurális hálózatok általános jellemzői 1. A

Részletesebben

ACM Snake. Orvosi képdiagnosztika 11. előadás első fele

ACM Snake. Orvosi képdiagnosztika 11. előadás első fele ACM Snake Orvosi képdiagnosztika 11. előadás első fele ACM Snake (ismétlés) A szegmentáló kontúr egy paraméteres görbe: x Zs s X s, Y s,, s A szegmentáció energia funkcionál minimalizálása: E x Eint x

Részletesebben

Geofizikai kutatómódszerek I.

Geofizikai kutatómódszerek I. Geofizikai kutatómódszerek I. A gravitációs és mágneses kutatómódszer Dr. Szabó Norbert Péter egyetemi docens Miskolci Egyetem Geofizikai Intézeti Tanszék e-mail: norbert.szabo.phd@gmail.com 1. A gravitációs

Részletesebben

1. Gauss-eloszlás, természetes szórás

1. Gauss-eloszlás, természetes szórás 1. Gauss-eloszlás, természetes szórás A Gauss-eloszlásnak megfelelő függvény: amely egy σ szélességű, µ középpontú, 1-re normált (azaz a teljes görbe alatti terület 1) görbét ír le. A természetben a centrális

Részletesebben

MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK MEGOLDÁSAI KÖZÉPSZINT Függvények

MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK MEGOLDÁSAI KÖZÉPSZINT Függvények MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK MEGOLDÁSAI KÖZÉPSZINT Függvények A szürkített hátterű feladatrészek nem tartoznak az érintett témakörhöz, azonban szolgálhatnak fontos információval az érintett feladatrészek

Részletesebben

A mérési eredmény megadása

A mérési eredmény megadása A mérési eredmény megadása A mérés során kapott értékek eltérnek a mérendő fizikai mennyiség valódi értékétől. Alapvetően kétféle mérési hibát különböztetünk meg: a determinisztikus és a véletlenszerű

Részletesebben

Irányításelmélet és technika II.

Irányításelmélet és technika II. Irányításelmélet és technika II. Modell-prediktív szabályozás Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki és Információs Rendszerek Tanszék amagyar@almos.vein.hu 2010 november

Részletesebben

MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉPSZINT Függvények

MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉPSZINT Függvények MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉPSZINT Függvények A szürkített hátterű feladatrészek nem tartoznak az érintett témakörhöz, azonban szolgálhatnak fontos információval az érintett feladatrészek megoldásához!

Részletesebben

KOOPERÁCIÓ ÉS GÉPI TANULÁS LABORATÓRIUM

KOOPERÁCIÓ ÉS GÉPI TANULÁS LABORATÓRIUM KOOPERÁCIÓ ÉS GÉPI TANULÁS LABORATÓRIUM Kernel módszerek idősor előrejelzés Mérési útmutató Készítette: Engedy István (engedy@mit.bme.hu) Méréstechnika és Információs Rendszerek Tanszék Budapesti Műszaki

Részletesebben

Gépi tanulás a gyakorlatban. Bevezetés

Gépi tanulás a gyakorlatban. Bevezetés Gépi tanulás a gyakorlatban Bevezetés Motiváció Nagyon gyakran találkozunk gépi tanuló alkalmazásokkal Spam detekció Karakter felismerés Fotó címkézés Szociális háló elemzés Piaci szegmentáció analízis

Részletesebben

Kernel gépek vizsgálata

Kernel gépek vizsgálata Kernel gépek vizsgálata Kooperáció és gépi tanulás laboratórium (VIMIMB02) 2018. március 5. Elméleti alapok A mérés során újabb kernel gépeket fogunk megismerni: a szupportvektor-gépek (SVM) regressziós

Részletesebben

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 8 VIII. REGREssZIÓ 1. A REGREssZIÓs EGYENEs Két valószínűségi változó kapcsolatának leírására az eddigiek alapján vagy egy numerikus

Részletesebben

Ensemble előrejelzések: elméleti és gyakorlati háttér HÁGEL Edit Országos Meteorológiai Szolgálat Numerikus Modellező és Éghajlat-dinamikai Osztály 34

Ensemble előrejelzések: elméleti és gyakorlati háttér HÁGEL Edit Országos Meteorológiai Szolgálat Numerikus Modellező és Éghajlat-dinamikai Osztály 34 Ensemble előrejelzések: elméleti és gyakorlati háttér HÁGEL Edit Országos Meteorológiai Szolgálat Numerikus Modellező és Éghajlat-dinamikai Osztály 34. Meteorológiai Tudományos Napok Az előadás vázlata

Részletesebben

Gazdasági matematika II. vizsgadolgozat, megoldással,

Gazdasági matematika II. vizsgadolgozat, megoldással, Gazdasági matematika II. vizsgadolgozat, megoldással, levelező képzés Definiálja az alábbi fogalmakat! 1. Kvadratikus mátrix invertálhatósága és inverze. (4 pont) Egy A kvadratikus mátrixot invertálhatónak

Részletesebben

b) Ábrázolja ugyanabban a koordinátarendszerben a g függvényt! (2 pont) c) Oldja meg az ( x ) 2

b) Ábrázolja ugyanabban a koordinátarendszerben a g függvényt! (2 pont) c) Oldja meg az ( x ) 2 1) Az ábrán egy ; intervallumon értelmezett függvény grafikonja látható. Válassza ki a felsoroltakból a függvény hozzárendelési szabályát! a) b) c) ( ) ) Határozza meg az 1. feladatban megadott, ; intervallumon

Részletesebben

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017. Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017. Vizuális feldolgozórendszerek feladatai Mesterséges intelligencia és idegtudomány Mesterséges intelligencia és idegtudomány Párhuzamos problémák

Részletesebben

Fodor Gábor március 17. Fodor Gábor Osztályozás március / 39

Fodor Gábor március 17. Fodor Gábor Osztályozás március / 39 Osztályozás Fodor Gábor 2010. március 17. Fodor Gábor (fodgabor@math.bme.hu) Osztályozás 2010. március 17. 1 / 39 Bevezetés 1 Bevezetés 2 Döntési szabályok 3 Döntési fák 4 Bayes-hálók 5 Lineáris szeparálás

Részletesebben

Statisztikai következtetések Nemlineáris regresszió Feladatok Vége

Statisztikai következtetések Nemlineáris regresszió Feladatok Vége [GVMGS11MNC] Gazdaságstatisztika 10. előadás: 9. Regressziószámítás II. Kóczy Á. László koczy.laszlo@kgk.uni-obuda.hu Keleti Károly Gazdasági Kar Vállalkozásmenedzsment Intézet A standard lineáris modell

Részletesebben

MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉP SZINT Függvények

MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉP SZINT Függvények MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉP SZINT Függvények A szürkített hátterű feladatrészek nem tartoznak az érintett témakörhöz, azonban szolgálhatnak fontos információval az érintett feladatrészek

Részletesebben

Megoldott feladatok november 30. n+3 szigorúan monoton csökken, 5. n+3. lim a n = lim. n+3 = 2n+3 n+4 2n+1

Megoldott feladatok november 30. n+3 szigorúan monoton csökken, 5. n+3. lim a n = lim. n+3 = 2n+3 n+4 2n+1 Megoldott feladatok 00. november 0.. Feladat: Vizsgáljuk az a n = n+ n+ sorozat monotonitását, korlátosságát és konvergenciáját. Konvergencia esetén számítsuk ki a határértéket! : a n = n+ n+ = n+ n+ =

Részletesebben

Gépi tanulás Gregorics Tibor Mesterséges intelligencia

Gépi tanulás Gregorics Tibor Mesterséges intelligencia Gépi tanulás Tanulás fogalma Egy algoritmus akkor tanul, ha egy feladat megoldása során olyan változások következnek be a működésében, hogy később ugyanazt a feladatot vagy ahhoz hasonló más feladatokat

Részletesebben

10. Előadás. 1. Feltétel nélküli optimalizálás: Az eljárás alapjai

10. Előadás. 1. Feltétel nélküli optimalizálás: Az eljárás alapjai Optimalizálási eljárások MSc hallgatók számára 10. Előadás Előadó: Hajnal Péter Jegyzetelő: T. Szabó Tamás 2011. április 20. 1. Feltétel nélküli optimalizálás: Az eljárás alapjai A feltétel nélküli optimalizálásnál

Részletesebben

January 16, ψ( r, t) ψ( r, t) = 1 (1) ( ψ ( r,

January 16, ψ( r, t) ψ( r, t) = 1 (1) ( ψ ( r, Közelítő módszerek January 16, 27 1 A variációs módszer A variációs módszer szintén egy analitikus közelítő módszer. Olyan esetekben alkalmazzuk mikor ismert az analitikus alak amelyben keressük a sajátfüggvényt,

Részletesebben

Passzív és aktív képosztályozás a gépi és emberi tanulás összehasonlításánál

Passzív és aktív képosztályozás a gépi és emberi tanulás összehasonlításánál TDK DOLGOZAT 2015 Budapesti Műszaki és Gazdaságtudományi Egyetem Villamosmérnöki és Informatikai Kar Távközlési és Médiainformatikai Tanszék Passzív és aktív képosztályozás a gépi és emberi tanulás összehasonlításánál

Részletesebben

MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK MEGOLDÁSAI KÖZÉP SZINT Függvények

MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK MEGOLDÁSAI KÖZÉP SZINT Függvények MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK MEGOLDÁSAI KÖZÉP SZINT Függvények A szürkített hátterű feladatrészek nem tartoznak az érintett témakörhöz, azonban szolgálhatnak fontos információval az érintett feladatrészek

Részletesebben

Mérési hibák 2006.10.04. 1

Mérési hibák 2006.10.04. 1 Mérési hibák 2006.10.04. 1 Mérés jel- és rendszerelméleti modellje Mérési hibák_labor/2 Mérési hibák mérési hiba: a meghatározandó értékre a mérés során kapott eredmény és ideális értéke közötti különbség

Részletesebben

Matematika A2 vizsga mgeoldása június 4.

Matematika A2 vizsga mgeoldása június 4. Matematika A vizsga mgeoldása 03. június.. (a (3 pont Definiálja az f(x, y függvény határértékét az (x 0, y 0 helyen! Megoldás: Legyen D R, f : D R. Legyen az f(x, y függvény értelmezve az (x 0, y 0 pont

Részletesebben

Nemlineáris programozás 2.

Nemlineáris programozás 2. Optimumszámítás Nemlineáris programozás 2. Többváltozós optimalizálás feltételek mellett. Lagrange-feladatok. Nemlineáris programozás. A Kuhn-Tucker feltételek. Konvex programozás. Sydsaeter-Hammond: 18.1-5,

Részletesebben

II. LABOR Tanulás, Perceptron, Adaline

II. LABOR Tanulás, Perceptron, Adaline II. LABOR Tanulás, Perceptron, Adaline A dolgozat célja a tanító algoritmusok osztályozása, a tanító és tesztel halmaz szerepe a neuronhálók tanításában, a Perceptron és ADALINE feldolgozó elemek struktúrája,

Részletesebben

A lineáris programozás alapfeladata Standard alak Az LP feladat megoldása Az LP megoldása: a szimplex algoritmus 2017/

A lineáris programozás alapfeladata Standard alak Az LP feladat megoldása Az LP megoldása: a szimplex algoritmus 2017/ Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatika Intézet Számítógépes Optimalizálás Tanszék 2. Előadás LP alapfeladat A lineáris programozás (LP) alapfeladata standard formában Max c

Részletesebben

A lineáris programozás alapfeladata Standard alak Az LP feladat megoldása Az LP megoldása: a szimplex algoritmus 2018/

A lineáris programozás alapfeladata Standard alak Az LP feladat megoldása Az LP megoldása: a szimplex algoritmus 2018/ Operációkutatás I. 2018/2019-2. Szegedi Tudományegyetem Informatika Intézet Számítógépes Optimalizálás Tanszék 2. Előadás LP alapfeladat A lineáris programozás (LP) alapfeladata standard formában Max c

Részletesebben

Legkisebb négyzetek módszere, Spline interpoláció

Legkisebb négyzetek módszere, Spline interpoláció Közelítő és szimbolikus számítások 10. gyakorlat Legkisebb négyzetek módszere, Spline interpoláció Készítette: Gelle Kitti Csendes Tibor Somogyi Viktor Vinkó Tamás London András Deák Gábor jegyzetei alapján

Részletesebben

Opkut deníciók és tételek

Opkut deníciók és tételek Opkut deníciók és tételek Készítette: Bán József Deníciók 1. Deníció (Lineáris programozási feladat). Keressük meg adott lineáris, R n értelmezési tartományú függvény, az ún. célfüggvény széls értékét

Részletesebben

Statisztikai eljárások a mintafelismerésben és a gépi tanulásban

Statisztikai eljárások a mintafelismerésben és a gépi tanulásban Statisztikai eljárások a mintafelismerésben és a gépi tanulásban Varga Domonkos (I.évf. PhD hallgató) 2014 május A prezentáció felépítése 1) Alapfogalmak 2) A gépi tanulás, mintafelismerés alkalmazási

Részletesebben

A Föld alakja TRANSZFORMÁCIÓ. Magyarországon még használatban lévő vetületi rendszerek. Miért kell transzformálni? Főbb transzformációs lehetőségek

A Föld alakja TRANSZFORMÁCIÓ. Magyarországon még használatban lévő vetületi rendszerek. Miért kell transzformálni? Főbb transzformációs lehetőségek TRANSZFORMÁCIÓ A Föld alakja -A föld alakja: geoid (az a felület, amelyen a nehézségi gyorsulás értéke állandó) szabálytalan alak, kezelése nehéz -A geoidot ellipszoiddal közelítjük -A földfelszíni pontokat

Részletesebben

Lineáris algebra numerikus módszerei

Lineáris algebra numerikus módszerei Hermite interpoláció Tegyük fel, hogy az x 0, x 1,..., x k [a, b] különböző alappontok (k n), továbbá m 0, m 1,..., m k N multiplicitások úgy, hogy Legyenek adottak k m i = n + 1. i=0 f (j) (x i ) = y

Részletesebben

Bevezetés a neurális számításokba Analóg processzortömbök,

Bevezetés a neurális számításokba Analóg processzortömbök, Pannon Egyetem Villamosmérnöki és Információs Tanszék Bevezetés a neurális számításokba Analóg processzortömbök, neurális hálózatok Előadó: dr. Tömördi Katalin Neurális áramkörök (ismétlés) A neurális

Részletesebben

Gazdasági matematika II. vizsgadolgozat megoldása, június 10

Gazdasági matematika II. vizsgadolgozat megoldása, június 10 Gazdasági matematika II. vizsgadolgozat megoldása, 204. június 0 A dolgozatírásnál íróeszközön kívül más segédeszköz nem használható. A dolgozat időtartama: 90 perc. Ha a dolgozat első részéből szerzett

Részletesebben

Hódmezővásárhelyi Városi Matematikaverseny április 14. A osztályosok feladatainak javítókulcsa

Hódmezővásárhelyi Városi Matematikaverseny április 14. A osztályosok feladatainak javítókulcsa Hódmezővásárhelyi Városi Matematikaverseny 2003. április 14. A 11-12. osztályosok feladatainak javítókulcsa 1. feladat Egy számtani sorozatot az első eleme és különbsége egyértelműen meghatározza, azt

Részletesebben

Gépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés

Gépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés Gépi tanulás a gyakorlatban Kiértékelés és Klaszterezés Hogyan alkalmazzuk sikeresen a gépi tanuló módszereket? Hogyan válasszuk az algoritmusokat? Hogyan hangoljuk a paramétereiket? Precízebben: Tegyük

Részletesebben

Matematika III előadás

Matematika III előadás Matematika III. - 3. előadás Vinczéné Varga Adrienn Debreceni Egyetem Műszaki Kar, Műszaki Alaptárgyi Tanszék Előadáskövető fóliák Vinczéné Varga Adrienn (DE-MK) Matematika III. 2016/2017/I 1 / 19 Skalármezők

Részletesebben

Gibbs-jelenség viselkedésének vizsgálata egyszer négyszögjel esetén

Gibbs-jelenség viselkedésének vizsgálata egyszer négyszögjel esetén Matematikai modellek, I. kisprojekt Gibbs-jelenség viselkedésének vizsgálata egyszer négyszögjel esetén Unger amás István B.Sc. szakos matematikus hallgató ungert@maxwell.sze.hu, http://maxwell.sze.hu/~ungert

Részletesebben

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,

Részletesebben

A maximum likelihood becslésről

A maximum likelihood becslésről A maximum likelihood becslésről Definíció Parametrikus becsléssel foglalkozunk. Adott egy modell, mellyel elképzeléseink szerint jól leírható a meghatározni kívánt rendszer. (A modell típusának és rendszámának

Részletesebben

MÉSZÁROS JÓZSEFNÉ, NUMERIKUS MÓDSZEREK

MÉSZÁROS JÓZSEFNÉ, NUMERIKUS MÓDSZEREK MÉSZÁROS JÓZSEFNÉ, NUmERIKUS módszerek 9 FÜGGVÉNYKÖZELÍTÉSEK IX. SPLINE INTERPOLÁCIÓ 1. SPLINE FÜGGVÉNYEK A Lagrange interpolációnál említettük, hogy az ún. globális interpoláció helyett gyakran célszerű

Részletesebben

Mesterséges Intelligencia Elektronikus Almanach. MI Almanach projektismertetı rendezvény április 29., BME, I. ép., IB.017., 9h-12h.

Mesterséges Intelligencia Elektronikus Almanach. MI Almanach projektismertetı rendezvény április 29., BME, I. ép., IB.017., 9h-12h. Mesterséges Intelligencia Elektronikus Almanach Neurális hálózatokh 1 BME 1990: Miért neurális hálók? - az érdeklıdésünk terébe kerül a neurális hálózatok témakör - fıbb okok: - adaptív rendszerek - felismerési

Részletesebben

Nem-lineáris programozási feladatok

Nem-lineáris programozási feladatok Nem-lineáris programozási feladatok S - lehetséges halmaz 2008.02.04 Dr.Bajalinov Erik, NyF MII 1 Elég egyszerű példa: nemlineáris célfüggvény + lineáris feltételek Lehetséges halmaz x 1 *x 2 =6.75 Gradiens

Részletesebben

Trigonometria Megoldások. 1) Igazolja, hogy ha egy háromszög szögeire érvényes az alábbi összefüggés: sin : sin = cos + : cos +, ( ) ( )

Trigonometria Megoldások. 1) Igazolja, hogy ha egy háromszög szögeire érvényes az alábbi összefüggés: sin : sin = cos + : cos +, ( ) ( ) Trigonometria Megoldások Trigonometria - megoldások ) Igazolja, hogy ha egy háromszög szögeire érvényes az alábbi összefüggés: sin : sin = cos + : cos +, ( ) ( ) akkor a háromszög egyenlő szárú vagy derékszögű!

Részletesebben

Explicit hibabecslés Maxwell-egyenletek numerikus megoldásához

Explicit hibabecslés Maxwell-egyenletek numerikus megoldásához Explicit hibabecslés Maxwell-egyenletek numerikus megoldásához Izsák Ferenc 2007. szeptember 17. Explicit hibabecslés Maxwell-egyenletek numerikus megoldásához 1 Vázlat Bevezetés: a vizsgált egyenlet,

Részletesebben

3. Lineáris differenciálegyenletek

3. Lineáris differenciálegyenletek 3. Lineáris differenciálegyenletek A közönséges differenciálegyenletek két nagy csoportba oszthatók lineáris és nemlineáris egyenletek csoportjába. Ez a felbontás kicsit önkényesnek tűnhet, a megoldásra

Részletesebben

Intelligens orvosi műszerek VIMIA023

Intelligens orvosi műszerek VIMIA023 Intelligens orvosi műszerek VIMIA023 Neurális hálók (Dobrowiecki Tadeusz anyagának átdolgozásával) 2017 ősz http://www.mit.bme.hu/oktatas/targyak/vimia023 dr. Pataki Béla pataki@mit.bme.hu (463-)2679 A

Részletesebben

A szimplex algoritmus

A szimplex algoritmus A szimplex algoritmus Ismétlés: reprezentációs tétel, az optimális megoldás és az extrém pontok kapcsolata Alapfogalmak: bázisok, bázismegoldások, megengedett bázismegoldások, degenerált bázismegoldás

Részletesebben

A derivált alkalmazásai

A derivált alkalmazásai A derivált alkalmazásai Összeállította: Wettl Ferenc 2014. november 17. Wettl Ferenc A derivált alkalmazásai 2014. november 17. 1 / 57 Tartalom 1 Függvény széls értékei Abszolút széls értékek Lokális széls

Részletesebben

P 2 P 1. 4.1 ábra Az f(x) függvény globális minimuma (P 1 ) és egy lokális minimuma (P 2 ).

P 2 P 1. 4.1 ábra Az f(x) függvény globális minimuma (P 1 ) és egy lokális minimuma (P 2 ). Paláncz Béla - Numerikus Módszerek - 211-4. Optimalizálás 4 Optimalizálás Bevezetés Az optimalizáció, egy függvény szélsőértéke helyének meghatározása, talán a legfontosabb numerikus eljárások közé tartozik.

Részletesebben

Autoregresszív és mozgóátlag folyamatok. Géczi-Papp Renáta

Autoregresszív és mozgóátlag folyamatok. Géczi-Papp Renáta Autoregresszív és mozgóátlag folyamatok Géczi-Papp Renáta Autoregresszív folyamat Az Y t diszkrét paraméterű sztochasztikus folyamatok k-ad rendű autoregresszív folyamatnak nevezzük, ha Y t = α 1 Y t 1

Részletesebben

Véletlen jelenség: okok rendszere hozza létre - nem ismerhetjük mind, ezért sztochasztikus.

Véletlen jelenség: okok rendszere hozza létre - nem ismerhetjük mind, ezért sztochasztikus. Valószín ségelméleti és matematikai statisztikai alapfogalmak összefoglalása (Kemény Sándor - Deák András: Mérések tervezése és eredményeik értékelése, kivonat) Véletlen jelenség: okok rendszere hozza

Részletesebben