Kernel gépek vizsgálata
|
|
- Zsófia Kelemenné
- 5 évvel ezelőtt
- Látták:
Átírás
1 Kernel gépek vizsgálata Lágler Krisztián május 12. FYMGQ8 Konzulens : Dr. Horváth Gábor 1
2 Tartalomjegyzék 1. Feladat kiírás A kernelfüggvény hiperparamétereinek megválasztása Bevezetés Szupport Vektor gépekről általában Nemlineáris szeparálás Hiperparaméterekről C paraméter ε paraméter Kernelfüggvények paraméterei A hiperparaméterek keresésének tartománya 7 5. hiperparaméterek és a mintapontok számának (N) kapcsolata C és N kapcsolata σ és N kapcsolata A kísérletekben használt adathalmazokról Hiperparaméterek keresése Kimerítő keresés (Gridsearch) Vonal mentén történő keresés (Linesearch) Optimális hiperparaméterek keresése a mintapontok részhalmazával Gauss kernel paraméter meghatározása CA klaszterező algoritmus segítségével ε meghatározása RSVR segítségével Távlatok és további lehetőségek Szupport - vektorok számának minimalizálása További kernelfüggvények vizsgálata Gradiens módszerek alkalmazása
3 1. Feladat kiírás A tanuló rendszerek között kitüntetett helyet foglalnak el a kernel gépek és azon belül a szupport vektor gépek (SVM). A kernel gépek témakörhöz számos megoldatlan elméleti illetve a gyakorlati kérdés kapcsolódik. Az önálló labor munka során a feladat a kernel gépek minél jobb megismerése, majd bizonyos speciális kernel függvényekkel dolgozó rendszerek kialakítása és vizsgálata. A fő kérdések a véges tartójú kernel függvények, a kernelfüggvények adaptív megválasztása, a szakaszonként lineáris approximációt biztosító kernel megoldások összevetése más hasonló modellező képességű tanuló rendszerekkel A kernelfüggvény hiperparamétereinek megválasztása A labor során a kernelfüggvény hiperparamétereinek megválasztásának lehetséges módszereit vizsgáltam. A témában fellelhető publikációk tanulmányozása, a javasolt módszerek megismerése és megismétlése képezte az önálló labor munkámat. A paraméterek megválasztása történhet valamilyen módszert használó RSVM 1 használatával, illetve analitikus úton. Az RSVM során különböző paraméterkombinációk mellett többször végrehajtjuk az SVM tanítást, és meghatározzuk a paraméterekhez tartozó hiba értékét. Ezt követően felhasználva a kapott hibát, valamilyen heurisztika szerint változtatjuk a paraméterek értékeit, amíg el nem érünk egy (lokálisan) minimális hibát eredményező kedvező állapotba. A labor során főként RSVM módszerekkel foglalkoztam. Vannak eredmények analitikus módszerek felhasználására is, továbbá publikációk a paraméterek gradiens módszerrel történő meghatározására vonatkozóan, de ezeket idő hiányában már nem volt alkalmam kipróbálni. 2. Bevezetés 2.1. Szupport Vektor gépekről általában Az SVM egy népszerű mintafelismerő algoritmus, alapváltozata maximális margójú lineáris szeparálást tesz lehetővé, amely kiterjeszthető nemlineáris osztályozási és regressziós feladatokra. A szupport vektor gépek olyan kernel gépek, melyek a statisztikus tanuláselmélet eredményeit is hasznosítják [3]. Az optimális hipersíkot úgy kell meghatározni, hogy a hibás osztályozások száma minimális legyen, miközben törekszünk a maximális margó elérésére. Ez a következő kifejezés minimalizálásával érhető el: 1 Repeted SVM 3
4 a következő feltételek mellett : J(w) = 1 P 2 wt w + C ξ i (1) d i (w T x i + b) 1 ξ i (2) ξ i 0, i = 1, 2,..., P Ennek megfelelően a következő Lagrange szélsőérték feladatot írhatjuk fel : J(w, ξ, α, γ, b) = 1 P P { ) } P 2 wt w+c ξ i α i d i (w T x i + b 1 + ξ i γ i ξ i (3) A Lagrange kritériumot w,b és ξ i szerint kell minimalizálni, és α i -k és γ i - k szerint maximalizálni kell. A feladatot két lépésben oldhatjuk meg. Először a Lagrange kritérium w,b és ξ i szerinti deriváltját írjuk fel. J (w, ξ, α, γ, b) w J (w, ξ, α, γ, b) b J (w, ξ, α, γ, b) ξ = 0 P w = α i d i x i (4) = 0 P α i d i = 0 (5) = 0 γ i + α i = C (6) Ezt követően a gradiensek értékének nullává tételével kapott összefüggéseket behelyettesítve a Lagrange kritériumba kapjuk a duális feladatot : P Q(α) = α i 1 P P α i α j d i d j x T i x j (7) 2 j=1 P d i α i = 0, 0 α i C, i = 1, 2,..., P (8) Az α i -k kvadratikus programozással határozhatók meg. Az SVM tanítás alatt a duális probléma megoldását értjük, amely során előállnak a Lagrange multiplikátorok, amik implicite meghatározzák a szupport-vektorokat. 4
5 Nemlineáris szeparálás A valós osztályozási feladatok túlnyomó része nem szeparálható lineárisan. A lineárisan nem szeparálható feladatoknál egy megfelelő (és általában dimenziónövelő) x ϕ (x) nemlineáris transzformációval lineárisan szeparálhatóvá alakítjuk a feladatot. Az így kapott jellemzőtérben az előzőeknek megfelelő optimális (maximális margójú) megoldást keressük. Ezt két lépésben tesszük : Először nemlineáris transzformáció a bemeneti térből a jellemzőtérbe, majd a jellemző térben az optimális lineáris szeparáló hipersík meghatározása. Ez utóbbi lépést azonban itt sem a jellemzőtérben, hanem az ebből származtatott kernel térben oldjuk meg. A nemlineáris eset a lineáris eset megoldásából egyszerűen az x ϕ (x) helyettesítéssel nyerhető. Az optimális hipersíkot a következő alakban keressük: w T ϕ (x) + b = 0 (9) A jellemzőtérben megkonstruált szeparáló felületet a következő egyenlet adja: P αi d i ϕ T (x i ) ϕ (x) + b = 0 (10) A ϕ T (x i ) ϕ (x) szorzatot a kernel trükknek megfelelően egy magfüggvényként írjuk fel, azaz K (x i, x) = ϕ T (x i ) ϕ (x) (11) A nemlineáris osztályozó tehát: [ P ] y (x) = sign αi d i K (x i, x) + b (12) 5
6 3. Hiperparaméterekről Az SVM tanítást több paraméter befolyásolja, amelyeket hiperparamétereknek nevezünk. Ezek meghatározása nem egyértelmű, gyakran probléma függő, amely az alkalmazási terület mélyebb ismeretét igényli. A labor során a hiperparaméterek meghatározásának módszereivel ismerkedtem meg, illetve azok gyakorlati alkalmazásával. A következő részben rövid áttekintést nyújtok a hiperparaméterekről és azok szerepéről C paraméter J(w) = 1 P 2 wt w + C ξ i, ξ i 0, i = 1, 2,..., P A minimalizálandó J(w) kritériumban szereplő C-t konstans hiperparaméternek is szokás nevezni. A C paraméter felfogható úgy mint egy büntető paraméter, amely a margón bellülre eső, vagy rosszul osztályozott mintákat bünteti. C magas értéke nagyobb súlyt ad a rosszul osztályozott mintáknak. Nagyon magas C választás esetén az SVM viselkedése a perceptron algoritmusra fog hasonlítani abban a tekintetben, hogy az összes hibát minimalizálja. C kis értéke nagyobb súlyt helyez a maximális margóért felelős tagra, C 0 esetén a margó maximális. C = 0 választás nem értelmes lineárisan nem szeparálható problémákra ε paraméter A szupport vektor gépek regressziós, vagy függvényapproximációs céllal történő alkalmazása esetén az ún. ε-érzéketlenségi sávval rendelkező abszolútérték hibafüggvényt alkalmazzuk az eltérés mérésére. L ε (y) = { 0 ha d y(x) < ε d y(x) ε egyébként (13) Általánosságban a kimenet pontossága és a szupport vektorok számát szabályoza az ε paraméter. Továbbá ε a megoldás simaságát szabályozó paraméternek is tekinthető. Nagy ε értékekre a megoldás sima lesz, míg kis értékekre a mintapontokat, és velük együtt a zajt is jobban megtanulja az SVM 3.3. Kernelfüggvények paraméterei Lineárisan nem szeparálható feladatoknál egy megfelelő x ϕ(x) nemlineáris transzformációval lineárisan szeparálhatóvá alakítjuk a feladatot. A 6
7 ϕ T (x i )ϕ(x) szorzatot kernel trükknek megfelelően egy magfüggvényként írjuk fel: K(x i, x) = ϕ T (x i )ϕ(x) A labor során az egyik leggyakrabban alkalmazott Gauss(RBF) kernelfüggvény vizsgálatára szorítkoztam. K(x i, x) = e x x i 2 σ 2 (14) A C paraméterhez hasonlóan meg kell határozni σ optimális értékét, amely a kernel függvény szélességét szabályozó paraméter. 4. A hiperparaméterek keresésének tartománya Megfigyelték [4] hogy C Megfelelően magas értékére C > C, a keresztkiértékelés pontossága konvergálni látszik, egy közel optimális értékhez (de nem az optimális értékhez), ahogyan azt az 1. ábra mutatja a 8. oldalon. Ez abból következik hogy C mellett a J (w) C P ξ i, a minimalizálandó J (w) első tagja változatlan marad, és a súlypont áttolódik az összes hiba minimalizálására. Hasonlóan C 0 gyenge osztályozási pontossághoz vezet, mivel C 0 mellett C P ξ i 0, a hibaminimalizálásért felelős második tag is nullához tart. Ekkor a minimalizálandó J (w) kifejezés első tagjára helyeződik a súly, és a tanítás maximális margójú szeparálást eredményez, figyelmen kívül hagyva a hibás osztályozásért felelős második tagot, amely végső soron a gyenge osztályozási pontosságot eredményezi. A szupport vektor gép nagyon keveset tanul C kis értékeire, és majdnem minden tanítópontot szupport vektorként értelmez. A szupport vektorok alakulása látható a 2. ábrán a 8. oldalon. Ahogy C értéke növekszik az SVM eredménye közelít a tényleges döntési határhoz. Ezt a tendenciát mutatja a 3. ábra a 9. oldalon. Továbbá egyértelmű hogy σ nagy értéke túlilleszkedéshez vezet, és az osztályozási pontosság erős romlásával jár, még magas C értékekre is. C kis értéke gyenge osztályozási pontossághoz vezet σ értékétől függetlenül. Ebből következik hogy C magas - és σ alacsony értékei mellett érdemes keresni a paramétertérben. 5. hiperparaméterek és a mintapontok számának (N) kapcsolata 5.1. C és N kapcsolata Ahogy a tanítópontok száma növekszik, az optimális elválasztófelület szélessége és ezáltal a J(ω) első tagja közel állandó marad. Mivel a margóba 7
8 1. ábra. 10 szeres keresztkiértékelés pontossága log (C) függvényében 2. ábra. Szupport vektorok normalizált száma log (C) függvényében 8
9 3. ábra. Szupport vektorok C függvényében. C értékét tól ig növelve, konstans kernelparaméter γ mellett. Jól megfigyelhető, ahogy C növekszik az SVM egyre jobban közelíti az osztályok közötti tényleges döntési határt, és a szupport vektorok is egyre inkább a határ közelében koncentrálódnak. 9
10 eső illetve rosszul osztályozott mintapontok csak kis részét képezik a tényleges tanítóhalmaznak, ezek száma csak gyengén függ N-től elég nagy N-re nézve. Az összeg második tagja lineárisan növekszik N értékével, így C-nek fordítottan arányosnak kell lennie N-el hogy megőrizzük az összeg két tagja közötti egyensúlyt. Ez a kapcsolat nagyméretű adathalmazokra áll. Ahogyan csökken a tanításhoz felhasznált mintapontok száma, úgy csökken az a tartomány, amelyen belül C és σ értékek megválasztása közel optimális osztályozási eredményre vezet σ és N kapcsolata Az optimális kernel szélesség (σ) és a tanítópontok száma között elhanyagolhatóan gyenge kapcsolat áll fent. 6. A kísérletekben használt adathalmazokról A labor során mesterségesen előállított adathalmazokkal dolgoztam. Osztályozáshoz két dimenziós Gauss függvények összegét használtam. A két osztályt az így előállított gauss függvény szignumaként nyertem. Továbbá osztályozáshoz gyakran használt Iris mintakészletet és a kettős spirált is használtam. y (x 1, x 2 ) = sign centers sin(x) A i e ( c i,1 x 1 2 2σ 2 i,1 ) c i,2 x σ i,2 2 (15) Regressziós feladathoz, x és a fentihez hasonlóan előállított Gauss függvények összegét alkalmaztam. y (x) = centers A i e ( c i x 2 2σ 2 i ) (16) 10
11 7. Hiperparaméterek keresése 7.1. Kimerítő keresés (Gridsearch) A kimerítő keresés az optimális osztályozást biztosító paraméterek keresésének egy naiv módszere. A paramétereknek egy kiválasztott intervalluma által létrehozott paramétertérben végzünk keresést. A paramétertér minden egyes pontjában (paraméterek kombinációjában) elvégezzük az SVM tanítást, és meghatározzuk a hibát. A legkisebb hiba által szolgáltatott paraméterkombináció az optimális választás. Legfőbb hátránya a nagy erőforrásigény, amely nagy adathalmazok esetében akár kivárhatatlanul sokáig is tarthat. Továbbá egy minimális hibát eredményező paraméterkombináció egy lokális minimumot jelent, mivel a nem vizsgált tartományban lehetnek további minimum helyek. A kimerítő keresés az egyetlen biztos módszer az osztályozási probléma mélyebb megismerésére. A labor során vizsgált problémákra számított kimerítő keresés egy fontos eredményre vezet. A paramétertérben meghatározott hibafelületen a közel optimális osztályozáshoz tartozó paraméterek egy összefüggő területen találhatók. Továbbá az is megállapítható hogy a minimális hiba viszonylag nagy környezetében találhatóak közel optimális pontosságú osztályozásra vezető paraméterkombinációk, ahogy ez a 4. ábrán látható a 12. oldalon. Ez az eredmény biztató abban a tekintetben, hogy a hiba egy lokális minimuma közel található a vizsgált tartomány globális optimumához, illetve a lokális minimum hibája csak kevéssel tér el az optimális osztályozás hibájától Vonal mentén történő keresés (Linesearch) Ismételt SVM (RSVM) tanítást alkalmazva megtalálható egy minimális hibájú osztályozásra vezető paraméterkombináció. 1. Inicializáljuk a paraméterek lehetséges intervallumát, valamint a paraméterek kiindulási állapotát (pl.: σ [0.1, 10], C [1, 100], σ = 1, C = 1). 2. σ konstans értéken tartása mellett keressük azt a C paramétert az előre meghatározott keresési intervallumban, amely mellett az SVM hibája minimális. A keresés történhet pl.: aranymetszés módszerrel. 3. A meghatározott C paraméter konstans értéken tartása mellett az előre rögzített σ keresési intervallumában keresünk egy σ paramétert, amely mellett az SVM hibája minimális. 4. A meghatározott C és σ paraméterek mellett az osztályozás hibája közel minimális. 11
12 4. ábra. Hibafelület (kontúr) az Iris adathalmazon végzett osztályozáshoz. A módszer előnye egyszerűsége mellett, hogy nagyon gyorsan képes közel optimális hibát eredményező paraméterkombinációk megtalálására. Hátránya hogy az így kapott minimum, egy lokális minimum lesz. A fentiek értelmében ez közel lesz a vizsgált tartomány globális minimumához, de az eredmények azt mutatják hogy a kapott minimum nem az optimális érték. A lokális minimumok kiszűrhetők a teljes keresési tér kis területekre történő felosztásával. Az algoritmust a kisebb területeken futtatva meghatározhatók a lokális minimumok, amelyekből kiválasztható az teljes terület egy optimális minimumára vezető paraméterkombináció. N (mintapontok száma) C σ Hiba Kereséshez szükséges idő Kimerítő keresés s Vonal menti keresés s Az 5. ábrán a 13. oldalon látható a vonal mentén történő keresés során bejárt út Optimális hiperparaméterek keresése a mintapontok részhalmazával Nagy tanítóhalmaz esetén a paraméterek meghatározása ismételt SVM tanítással nehéz lehet, mivel az adathalmaz méretével együtt a tanításhoz 12
13 5. ábra. hiperparaméterek meghatározása vonal mentén történő keresés segítségével. szükséges idő is növekszik. Az 5.1 szakasz értelmében, a minimalizálandó J(w) kifejezés második tagja lineárisan növekszik N értékével, miközben az első tag közel állandó marad. Ennek megfelelően C-nek fordítottan arányosnak kellene lennie N-el hogy megőrizzük az összeg két tagja közötti egyensúlyt. A tanítóhalmaz mintapontjainak csak egy kis része esik az elválasztófelület környezetébe, és a minták számának növekedésével a margó környezetébe eső minták aránya egy konstans értékhez konvergál. Így a minták számának növelése egy bizonyos N < N -re már nem hoz új információt. Ezt a tendenciát jól szemlélteti, hogy a mintapontok számának csökkentése a minimális hibájú tartomány területét is csökkenti, amely megkönnyíti a terület megtalálását is, ahogy ezt a 6. ábra szemlélteti a a 14. oldalon. A fent említettek értelmében a következő stratégiát javasolták az optimális hiperparaméterek megtalálására nagy adathalmazokon[4] : 1. Válasszuk ki a tanító mintapontok egy N sub részhalmazát. 2. Határozzuk meg a kiválasztott részhalmazban a minimális hibájú osztályozást előállító paraméterkombinációt. Ez történhet keresztkiértékeléssel, a fent említett vonal mentén történő kereséssel, vagy valamilyen más módszerrel. 3. A meghatározott C sub paramétert a következőképpen skálázzuk : C full = C sub Nsub N full. 4. C full paramétert használva σ full meghatározásához végezzünk vonal menti keresést σ sub szűk környezetében. 13
14 6. ábra. A kimerítő keresés eredményét ábrázoló kontúr ábra a felhasznált mintapontok számának változása mellett. 14
15 A gyakorlati problémák többségében a rendelkezésre álló mintapontok száma kevés, és költséges a további minták előállítása, ezért ez az eredmény inkább elméleti értéket képvisel. Azonban eredményesen használható a vonal mentén történő paraméterkeresés gyorsítására, amikor az SVM tanítása időigényes Gauss kernel paraméter meghatározása CA klaszterező algoritmus segítségével A Competetive Agglomeration Clustering (továbbiakban CA klaszterező) algoritmus nagy kezdeti klaszterszámból indul ki, amellyel csökkenti az inicializálásra való érzékenységet, és meghatározza a tényleges klaszterszámot az agglomerációs folyamat során [2]. Az algoritmus felhasználható az RBF kernel paraméterének meghatározására. Képezzük az x k mintapontokból a Q = { q k = ( x k, y k ) k = 1, 2,..., P } vektorokat. Az így kapott q j mintapontokat klaszterezzük a CA algoritmussal. Általánosságban a klaszterek ellipszoid alakot vesznek fel, amelynek szélessége felhasználható Gauss kernel paramétereként. A szélesség klaszterenként eltérő, a minimális és maximális érték meghatározza a σ paraméter egy értelmes intervallumát. A minimális vagy az átlagos szélesség felhasználható a gauss kernel paramétereként. A 4. szakasz értelmében σ nagy értéke túlilleszkedéshez vezet, ezért a megállapított tartományban σ alacsonyabb értékeit érdemes felhasználni. A módszernek inkább elméleti jelentősége van, habár a σ paraméternek is jelentős szerepe van az osztályozás pontosságában, azonban sokkal kisebb hatása van az eredményre mint a C paraméternek. Továbbá a kimerítő keresések eredménye arra utal, hogy különböző C paraméterekhez más és más σ eredményez minimális hibájú osztályozást és vice versa. A klaszterező algoritmus eredménye egy az agglomerációt szabályozó ζ paramétertől függ, amely meghatározza az eldobásra kerülő klasztereket. Ez közvetetten befolyásolja a végeredményben kialakuló klaszterek méretét és ennél fogva azok szélességét is. Ez pedig felveti a felhasznált klaszterező paraméterének meghatározásának kérdését ε meghatározása RSVR segítségével A regressziós hiba alapján ismételt SVM tanítással megállapítható az ε paraméter értéke. 1. lépésben, ε = 0 értéket alkalmazunk a tanítás során. Következésképpen, az aktuális és az elvárt kimenet felhasználható a regresszió hiba kiszámításához. 2. A regressziós hiba alapján az ε a következőképpen határozható meg: ε = υ std([regressionerror]) 15
16 2 Error with respect SVs number : generated dataset from sum of 2d gaussian fuction N = 150; C = ; Sigma = ; SVs number = 75; error = Minimal error with respect SVs number Minimal error with respect SVs number error SVs Number 7. ábra. Az SVM hibájának minimális és maximális értékének változása a szupport vektorok száma mellett. Általánosan az υ konstanst és 1.96 értékekre választják, amelynek eredményeképpen a regresszió hiba 90% és 95% valószínűséggel esik a υ std ([regressionerror]) területbe[2][1]. 8. Távlatok és további lehetőségek 8.1. Szupport - vektorok számának minimalizálása A labor során végzett kísérletek azt mutatják hogy a minimális hibához tartozó paraméterkombináció egy viszonylag nagy környezetében találhatók további paraméterkombinációk, amelyek hibája közel esik az optimumhoz. Ezek a hiperparaméterek értékein kívül a szupport-vektorok számában is eltérnek. A szupport vektorok számának minimalizálása, egyszerűsíti az SVM eredményének komplexitását, amely további optimalizációt tesz lehetővé, ahogy az a 7. ábra mutatja a a 16. oldalon További kernelfüggvények vizsgálata Sok, további kernelfüggvény használható az SVM modellben, amelyek további vizsgálatot igényelnek Gradiens módszerek alkalmazása Vannak további eredmények az SVM hibájának elméleti korlátjára vonatkozóan, amelyeket felhasználnak a paraméterek gradiens alapú meghatá- 16
17 rozásához. 17
18 Hivatkozások [1] M. Evans, N. Hastings, and B. Peacock. Neurális hálózatok. Wiley, [2] Hichem Frigui and Raghu Krishnapuram. A robust competitive clustering algorithm with applications in computer vision. IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, [3] Altrichter Márta, Horváth Gábor, Pataki Béla, Strausz György, Takács Gábor, and Valyon József. Neurális hálózatok. Panem kiadó, [4] Charl J. van Heerden and Etienne Barnard. Towards understanding the influence of svm hyperparameters
Kernel módszerek. 7. fejezet
7. fejezet Kernel módszerek Ebben a fejezetben olyan tanuló rendszerekkel foglalkozunk, amelyek a válaszokat ún. kernel függvények (vagy magfüggvények) súlyozott összegeként állítják elő. A megközelítés
RészletesebbenGépi tanulás a gyakorlatban SVM
Gépi tanulás a gyakorlatban SVM Klasszifikáció Feladat: előre meghatározott csoportok elkülönítése egymástól Osztályokat elkülönítő felület Osztályokhoz rendelt döntési függvények Klasszifikáció Feladat:
RészletesebbenGépi tanulás a gyakorlatban. Lineáris regresszió
Gépi tanulás a gyakorlatban Lineáris regresszió Lineáris Regresszió Legyen adott egy tanuló adatbázis: Rendelkezésünkre áll egy olyan előfeldolgozott adathalmaz, aminek sorai az egyes ingatlanokat írják
RészletesebbenRegresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.
Regresszió Csorba János Nagyméretű adathalmazok kezelése 2010. március 31. A feladat X magyarázó attribútumok halmaza Y magyarázandó attribútumok) Kérdés: f : X -> Y a kapcsolat pár tanítópontban ismert
RészletesebbenKonjugált gradiens módszer
Közelítő és szimbolikus számítások 12. gyakorlat Konjugált gradiens módszer Készítette: Gelle Kitti Csendes Tibor Vinkó Tamás Faragó István Horváth Róbert jegyzetei alapján 1 LINEÁRIS EGYENLETRENDSZEREK
RészletesebbenSupport Vector Machines
Support Vector Machnes Ormánd Róbert MA-SZE Mest. Int. Kutatócsoport 2009. február 17. Előadás vázlata Rövd bevezetés a gép tanulásba Bevezetés az SVM tanuló módszerbe Alapötlet Nem szeparálható eset Kernel
RészletesebbenKeresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Keresés képi jellemzők alapján Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Lusta gépi tanulási algoritmusok Osztályozás: k=1: piros k=5: kék k-legközelebbi szomszéd (k=1,3,5,7)
RészletesebbenSVM (közepesen mély bevezetés)
SVM (közepesen mély bevezetés) Adatbányászat és Keresés Csoport, MTA SZTAKI dms.sztaki.hu Szabó Adrienn 2013. április 4. Bevezetés Alapötlet Jelölések Maximum margin classier Optimalizálási feladat Tartalom
RészletesebbenTanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,
RészletesebbenAlap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )
Budapesti Műszaki és Gazdaságtudományi Egyetem Gépészmérnöki Kar Hidrodinamikai Rendszerek Tanszék, Budapest, Műegyetem rkp. 3. D ép. 334. Tel: 463-6-80 Fa: 463-30-9 http://www.vizgep.bme.hu Alap-ötlet:
RészletesebbenI. LABOR -Mesterséges neuron
I. LABOR -Mesterséges neuron A GYAKORLAT CÉLJA: A mesterséges neuron struktúrájának az ismertetése, neuronhálókkal kapcsolatos elemek, alapfogalmak bemutatása, aktivációs függvénytípusok szemléltetése,
RészletesebbenSzámítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Számítógépes képelemzés 7. előadás Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Momentumok Momentum-alapú jellemzők Tömegközéppont Irányultáság 1 2 tan 2 1 2,0 1,1 0, 2 Befoglaló
RészletesebbenVégeselem modellezés alapjai 1. óra
Végeselem modellezés alapjai. óra Gyenge alak, Tesztfüggvény, Lagrange-féle alakfüggvény, Stiness mátrix Kivonat Az óra célja, hogy megismertesse a végeselem módszer (FEM) alkalmazását egy egyszer probléma,
RészletesebbenBudapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók Előadó: Előadás anyaga: Hullám Gábor Pataki Béla Dobrowiecki Tadeusz BME I.E. 414, 463-26-79
RészletesebbenDiszkréten mintavételezett függvények
Diszkréten mintavételezett függvények A függvény (jel) értéke csak rögzített pontokban ismert, de köztes pontokban is meg akarjuk becsülni időben mintavételezett jel pixelekből álló műholdkép rácson futtatott
RészletesebbenBabeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet
/ Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet / Tartalom 3/ kernelek segítségével Felügyelt és félig-felügyelt tanulás felügyelt: D =
RészletesebbenIntelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban
Intelligens Rendszerek Elmélete : dr. Kutor László Versengéses és önszervező tanulás neurális hálózatokban http://mobil.nik.bmf.hu/tantargyak/ire.html Login név: ire jelszó: IRE07 IRE 9/1 Processzor Versengéses
RészletesebbenAdatbányászati szemelvények MapReduce környezetben
Adatbányászati szemelvények MapReduce környezetben Salánki Ágnes salanki@mit.bme.hu 2014.11.10. Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs Rendszerek Tanszék Felügyelt
RészletesebbenGépi tanulás. Féligellenőrzött tanulás. Pataki Béla (Bolgár Bence)
Gépi tanulás Féligellenőrzött tanulás Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Féligellenőrzött tanulás Mindig kevés az adat, de
RészletesebbenLineáris regressziós modellek 1
Lineáris regressziós modellek 1 Ispány Márton és Jeszenszky Péter 2016. szeptember 19. 1 Az ábrák C.M. Bishop: Pattern Recognition and Machine Learning c. könyvéből származnak. Tartalom Bevezető példák
RészletesebbenSzélsőérték feladatok megoldása
Szélsőérték feladatok megoldása A z = f (x,y) függvény lokális szélsőértékének meghatározása: A. Szükséges feltétel: f x (x,y) = 0 f y (x,y) = 0 egyenletrendszer megoldása, amire a továbbiakban az x =
RészletesebbenGauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei
A Gauss-Jordan elimináció, mátrixinvertálás Gauss-Jordan módszer Ugyanazzal a technikával, mint ahogy a k-adik oszlopban az a kk alatti elemeket kinulláztuk, a fölötte lévő elemeket is zérussá lehet tenni.
RészletesebbenKódverifikáció gépi tanulással
Kódverifikáció gépi tanulással Szoftver verifikáció és validáció kiselőadás Hidasi Balázs 2013. 12. 12. Áttekintés Gépi tanuló módszerek áttekintése Kódverifikáció Motiváció Néhány megközelítés Fault Invariant
RészletesebbenLeast Squares becslés
Least Squares becslés A négyzetes hibafüggvény: i d i ( ) φx i A négyzetes hibafüggvény mellett a minimumot biztosító megoldás W=( d LS becslés A gradiens számítása és nullává tétele eredményeképp A megoldás
RészletesebbenOptimalizálás alapfeladata Legmeredekebb lejtő Lagrange függvény Log-barrier módszer Büntetőfüggvény módszer 2017/
Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatikai Intézet Számítógépes Optimalizálás Tanszék 9. Előadás Az optimalizálás alapfeladata Keressük f függvény maximumát ahol f : R n R és
RészletesebbenBiomatematika 12. Szent István Egyetem Állatorvos-tudományi Kar. Fodor János
Szent István Egyetem Állatorvos-tudományi Kar Biomatematikai és Számítástechnikai Tanszék Biomatematika 12. Regresszió- és korrelációanaĺızis Fodor János Copyright c Fodor.Janos@aotk.szie.hu Last Revision
RészletesebbenKUTATÁSI JELENTÉS. Multilaterációs radarrendszer kutatása. Szüllő Ádám
KUTATÁSI JELENTÉS Multilaterációs radarrendszer kutatása Szüllő Ádám 212 Bevezetés A Mikrohullámú Távérzékelés Laboratórium jelenlegi K+F tevékenységei közül ezen jelentés a multilaterációs radarrendszerek
RészletesebbenOsztályozási feladatok képdiagnosztikában. Orvosi képdiagnosztikai 2017 ősz
Osztályozási feladatok képdiagnosztikában Orvosi képdiagnosztikai 2017 ősz Osztályozás Szeparáló felületet keresünk Leképezéseket tanulunk meg azok mintáiból A tanuláshoz használt minták a tanító minták
Részletesebbenfüggvény grafikonja milyen transzformációkkal származtatható az f0 : R R, f0(
FÜGGVÉNYEK 1. (008. okt., 14. fel, 5+7 pont) Fogalmazza meg, hogy az f : R R, f ( x) x 1 függvény grafikonja milyen transzformációkkal származtatható az f0 : R R, f0( x) x függvény grafikonjából! Ábrázolja
RészletesebbenGPK M1 (BME) Interpoláció / 16
Interpoláció Matematika M1 gépészmérnököknek 2017. március 13. GPK M1 (BME) Interpoláció 2017 1 / 16 Az interpoláció alapfeladata - Példa Tegyük fel, hogy egy ipari termék - pl. autó - előzetes konstrukciójának
RészletesebbenKontrollcsoport-generálási lehetőségek retrospektív egészségügyi vizsgálatokhoz
Kontrollcsoport-generálási lehetőségek retrospektív egészségügyi vizsgálatokhoz Szekér Szabolcs 1, Dr. Fogarassyné dr. Vathy Ágnes 2 1 Pannon Egyetem Rendszer- és Számítástudományi Tanszék, szekersz@gmail.com
RészletesebbenFirst Prev Next Last Go Back Full Screen Close Quit
Többváltozós függvények (2) First Prev Next Last Go Back Full Screen Close Quit 1. Egyváltozós függvények esetén a differenciálhatóságból következett a folytonosság. Fontos tudni, hogy abból, hogy egy
RészletesebbenIntelligens Rendszerek Gyakorlata. Neurális hálózatok I.
: Intelligens Rendszerek Gyakorlata Neurális hálózatok I. dr. Kutor László http://mobil.nik.bmf.hu/tantargyak/ir2.html IRG 3/1 Trend osztályozás Pnndemo.exe IRG 3/2 Hangulat azonosítás Happy.exe IRG 3/3
RészletesebbenE x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes)
6-7 ősz. gyakorlat Feladatok.) Adjon meg azt a perceptronon implementált Bayes-i klasszifikátort, amely kétdimenziós a bemeneti tér felett szeparálja a Gauss eloszlású mintákat! Rajzolja le a bemeneti
RészletesebbenNumerikus integrálás
Közelítő és szimbolikus számítások 11. gyakorlat Numerikus integrálás Készítette: Gelle Kitti Csendes Tibor Somogyi Viktor Vinkó Tamás London András Deák Gábor jegyzetei alapján 1. Határozatlan integrál
RészletesebbenA lineáris programozás alapjai
A lineáris programozás alapjai A konvex analízis alapjai: konvexitás, konvex kombináció, hipersíkok, félterek, extrém pontok, Poliéderek, a Minkowski-Weyl tétel (a poliéderek reprezentációs tétele) Lineáris
RészletesebbenTeljesen elosztott adatbányászat pletyka algoritmusokkal. Jelasity Márk Ormándi Róbert, Hegedűs István
Teljesen elosztott adatbányászat pletyka algoritmusokkal Jelasity Márk Ormándi Róbert, Hegedűs István Motiváció Nagyméretű hálózatos elosztott alkalmazások az Interneten egyre fontosabbak Fájlcserélő rendszerek
RészletesebbenFüggvények Megoldások
Függvények Megoldások ) Az ábrán egy ; intervallumon értelmezett függvény grafikonja látható. Válassza ki a felsoroltakból a függvény hozzárendelési szabályát! a) x x b) x x + c) x ( x + ) b) Az x függvény
RészletesebbenMATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK MEGOLDÁSAI KÖZÉPSZINT Függvények
MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK MEGOLDÁSAI KÖZÉPSZINT Függvények A szürkített hátterű feladatrészek nem tartoznak az érintett témakörhöz, azonban szolgálhatnak fontos információval az érintett feladatrészek
Részletesebben11. Előadás. 11. előadás Bevezetés a lineáris programozásba
11. Előadás Gondolkodnivalók Sajátérték, Kvadratikus alak 1. Gondolkodnivaló Adjuk meg, hogy az alábbi A mátrixnak mely α értékekre lesz sajátértéke a 5. Ezen α-ák esetén határozzuk meg a 5 sajátértékhez
RészletesebbenFüggvények növekedési korlátainak jellemzése
17 Függvények növekedési korlátainak jellemzése A jellemzés jól bevált eszközei az Ω, O, Θ, o és ω jelölések. Mivel az igények általában nemnegatívak, ezért az alábbi meghatározásokban mindenütt feltesszük,
Részletesebben6. Függvények. Legyen függvény és nem üreshalmaz. A függvényt az f K-ra való kiterjesztésének
6. Függvények I. Elméleti összefoglaló A függvény fogalma, értelmezési tartomány, képhalmaz, értékkészlet Legyen az A és B halmaz egyike sem üreshalmaz. Ha az A halmaz minden egyes eleméhez hozzárendeljük
RészletesebbenGyakorló feladatok. Agbeko Kwami Nutefe és Nagy Noémi
Gyakorló feladatok Agbeko Kwami Nutefe és Nagy Noémi 25 Tartalomjegyzék. Klasszikus hibaszámítás 3 2. Lineáris egyenletrendszerek 3 3. Interpoláció 4 4. Sajátérték, sajátvektor 6 5. Lineáris és nemlineáris
RészletesebbenIrányításelmélet és technika II.
Irányításelmélet és technika II. Legkisebb négyzetek módszere Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki és Információs Rendszerek Tanszék amagyar@almos.vein.hu 200 november
RészletesebbenMesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás
Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás http:/uni-obuda.hu/users/kutor/ IRE 7/50/1 A neurális hálózatok általános jellemzői 1. A
RészletesebbenACM Snake. Orvosi képdiagnosztika 11. előadás első fele
ACM Snake Orvosi képdiagnosztika 11. előadás első fele ACM Snake (ismétlés) A szegmentáló kontúr egy paraméteres görbe: x Zs s X s, Y s,, s A szegmentáció energia funkcionál minimalizálása: E x Eint x
RészletesebbenGeofizikai kutatómódszerek I.
Geofizikai kutatómódszerek I. A gravitációs és mágneses kutatómódszer Dr. Szabó Norbert Péter egyetemi docens Miskolci Egyetem Geofizikai Intézeti Tanszék e-mail: norbert.szabo.phd@gmail.com 1. A gravitációs
Részletesebben1. Gauss-eloszlás, természetes szórás
1. Gauss-eloszlás, természetes szórás A Gauss-eloszlásnak megfelelő függvény: amely egy σ szélességű, µ középpontú, 1-re normált (azaz a teljes görbe alatti terület 1) görbét ír le. A természetben a centrális
RészletesebbenMATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK MEGOLDÁSAI KÖZÉPSZINT Függvények
MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK MEGOLDÁSAI KÖZÉPSZINT Függvények A szürkített hátterű feladatrészek nem tartoznak az érintett témakörhöz, azonban szolgálhatnak fontos információval az érintett feladatrészek
RészletesebbenA mérési eredmény megadása
A mérési eredmény megadása A mérés során kapott értékek eltérnek a mérendő fizikai mennyiség valódi értékétől. Alapvetően kétféle mérési hibát különböztetünk meg: a determinisztikus és a véletlenszerű
RészletesebbenIrányításelmélet és technika II.
Irányításelmélet és technika II. Modell-prediktív szabályozás Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki és Információs Rendszerek Tanszék amagyar@almos.vein.hu 2010 november
RészletesebbenMATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉPSZINT Függvények
MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉPSZINT Függvények A szürkített hátterű feladatrészek nem tartoznak az érintett témakörhöz, azonban szolgálhatnak fontos információval az érintett feladatrészek megoldásához!
RészletesebbenKOOPERÁCIÓ ÉS GÉPI TANULÁS LABORATÓRIUM
KOOPERÁCIÓ ÉS GÉPI TANULÁS LABORATÓRIUM Kernel módszerek idősor előrejelzés Mérési útmutató Készítette: Engedy István (engedy@mit.bme.hu) Méréstechnika és Információs Rendszerek Tanszék Budapesti Műszaki
RészletesebbenGépi tanulás a gyakorlatban. Bevezetés
Gépi tanulás a gyakorlatban Bevezetés Motiváció Nagyon gyakran találkozunk gépi tanuló alkalmazásokkal Spam detekció Karakter felismerés Fotó címkézés Szociális háló elemzés Piaci szegmentáció analízis
RészletesebbenKernel gépek vizsgálata
Kernel gépek vizsgálata Kooperáció és gépi tanulás laboratórium (VIMIMB02) 2018. március 5. Elméleti alapok A mérés során újabb kernel gépeket fogunk megismerni: a szupportvektor-gépek (SVM) regressziós
RészletesebbenFEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 8 VIII. REGREssZIÓ 1. A REGREssZIÓs EGYENEs Két valószínűségi változó kapcsolatának leírására az eddigiek alapján vagy egy numerikus
RészletesebbenEnsemble előrejelzések: elméleti és gyakorlati háttér HÁGEL Edit Országos Meteorológiai Szolgálat Numerikus Modellező és Éghajlat-dinamikai Osztály 34
Ensemble előrejelzések: elméleti és gyakorlati háttér HÁGEL Edit Országos Meteorológiai Szolgálat Numerikus Modellező és Éghajlat-dinamikai Osztály 34. Meteorológiai Tudományos Napok Az előadás vázlata
RészletesebbenGazdasági matematika II. vizsgadolgozat, megoldással,
Gazdasági matematika II. vizsgadolgozat, megoldással, levelező képzés Definiálja az alábbi fogalmakat! 1. Kvadratikus mátrix invertálhatósága és inverze. (4 pont) Egy A kvadratikus mátrixot invertálhatónak
Részletesebbenb) Ábrázolja ugyanabban a koordinátarendszerben a g függvényt! (2 pont) c) Oldja meg az ( x ) 2
1) Az ábrán egy ; intervallumon értelmezett függvény grafikonja látható. Válassza ki a felsoroltakból a függvény hozzárendelési szabályát! a) b) c) ( ) ) Határozza meg az 1. feladatban megadott, ; intervallumon
RészletesebbenMit látnak a robotok? Bányai Mihály Matemorfózis, 2017.
Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017. Vizuális feldolgozórendszerek feladatai Mesterséges intelligencia és idegtudomány Mesterséges intelligencia és idegtudomány Párhuzamos problémák
RészletesebbenFodor Gábor március 17. Fodor Gábor Osztályozás március / 39
Osztályozás Fodor Gábor 2010. március 17. Fodor Gábor (fodgabor@math.bme.hu) Osztályozás 2010. március 17. 1 / 39 Bevezetés 1 Bevezetés 2 Döntési szabályok 3 Döntési fák 4 Bayes-hálók 5 Lineáris szeparálás
RészletesebbenStatisztikai következtetések Nemlineáris regresszió Feladatok Vége
[GVMGS11MNC] Gazdaságstatisztika 10. előadás: 9. Regressziószámítás II. Kóczy Á. László koczy.laszlo@kgk.uni-obuda.hu Keleti Károly Gazdasági Kar Vállalkozásmenedzsment Intézet A standard lineáris modell
RészletesebbenMATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉP SZINT Függvények
MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉP SZINT Függvények A szürkített hátterű feladatrészek nem tartoznak az érintett témakörhöz, azonban szolgálhatnak fontos információval az érintett feladatrészek
RészletesebbenMegoldott feladatok november 30. n+3 szigorúan monoton csökken, 5. n+3. lim a n = lim. n+3 = 2n+3 n+4 2n+1
Megoldott feladatok 00. november 0.. Feladat: Vizsgáljuk az a n = n+ n+ sorozat monotonitását, korlátosságát és konvergenciáját. Konvergencia esetén számítsuk ki a határértéket! : a n = n+ n+ = n+ n+ =
RészletesebbenGépi tanulás Gregorics Tibor Mesterséges intelligencia
Gépi tanulás Tanulás fogalma Egy algoritmus akkor tanul, ha egy feladat megoldása során olyan változások következnek be a működésében, hogy később ugyanazt a feladatot vagy ahhoz hasonló más feladatokat
Részletesebben10. Előadás. 1. Feltétel nélküli optimalizálás: Az eljárás alapjai
Optimalizálási eljárások MSc hallgatók számára 10. Előadás Előadó: Hajnal Péter Jegyzetelő: T. Szabó Tamás 2011. április 20. 1. Feltétel nélküli optimalizálás: Az eljárás alapjai A feltétel nélküli optimalizálásnál
RészletesebbenJanuary 16, ψ( r, t) ψ( r, t) = 1 (1) ( ψ ( r,
Közelítő módszerek January 16, 27 1 A variációs módszer A variációs módszer szintén egy analitikus közelítő módszer. Olyan esetekben alkalmazzuk mikor ismert az analitikus alak amelyben keressük a sajátfüggvényt,
RészletesebbenPasszív és aktív képosztályozás a gépi és emberi tanulás összehasonlításánál
TDK DOLGOZAT 2015 Budapesti Műszaki és Gazdaságtudományi Egyetem Villamosmérnöki és Informatikai Kar Távközlési és Médiainformatikai Tanszék Passzív és aktív képosztályozás a gépi és emberi tanulás összehasonlításánál
RészletesebbenMATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK MEGOLDÁSAI KÖZÉP SZINT Függvények
MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK MEGOLDÁSAI KÖZÉP SZINT Függvények A szürkített hátterű feladatrészek nem tartoznak az érintett témakörhöz, azonban szolgálhatnak fontos információval az érintett feladatrészek
RészletesebbenMérési hibák 2006.10.04. 1
Mérési hibák 2006.10.04. 1 Mérés jel- és rendszerelméleti modellje Mérési hibák_labor/2 Mérési hibák mérési hiba: a meghatározandó értékre a mérés során kapott eredmény és ideális értéke közötti különbség
RészletesebbenMatematika A2 vizsga mgeoldása június 4.
Matematika A vizsga mgeoldása 03. június.. (a (3 pont Definiálja az f(x, y függvény határértékét az (x 0, y 0 helyen! Megoldás: Legyen D R, f : D R. Legyen az f(x, y függvény értelmezve az (x 0, y 0 pont
RészletesebbenNemlineáris programozás 2.
Optimumszámítás Nemlineáris programozás 2. Többváltozós optimalizálás feltételek mellett. Lagrange-feladatok. Nemlineáris programozás. A Kuhn-Tucker feltételek. Konvex programozás. Sydsaeter-Hammond: 18.1-5,
RészletesebbenII. LABOR Tanulás, Perceptron, Adaline
II. LABOR Tanulás, Perceptron, Adaline A dolgozat célja a tanító algoritmusok osztályozása, a tanító és tesztel halmaz szerepe a neuronhálók tanításában, a Perceptron és ADALINE feldolgozó elemek struktúrája,
RészletesebbenA lineáris programozás alapfeladata Standard alak Az LP feladat megoldása Az LP megoldása: a szimplex algoritmus 2017/
Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatika Intézet Számítógépes Optimalizálás Tanszék 2. Előadás LP alapfeladat A lineáris programozás (LP) alapfeladata standard formában Max c
RészletesebbenA lineáris programozás alapfeladata Standard alak Az LP feladat megoldása Az LP megoldása: a szimplex algoritmus 2018/
Operációkutatás I. 2018/2019-2. Szegedi Tudományegyetem Informatika Intézet Számítógépes Optimalizálás Tanszék 2. Előadás LP alapfeladat A lineáris programozás (LP) alapfeladata standard formában Max c
RészletesebbenLegkisebb négyzetek módszere, Spline interpoláció
Közelítő és szimbolikus számítások 10. gyakorlat Legkisebb négyzetek módszere, Spline interpoláció Készítette: Gelle Kitti Csendes Tibor Somogyi Viktor Vinkó Tamás London András Deák Gábor jegyzetei alapján
RészletesebbenOpkut deníciók és tételek
Opkut deníciók és tételek Készítette: Bán József Deníciók 1. Deníció (Lineáris programozási feladat). Keressük meg adott lineáris, R n értelmezési tartományú függvény, az ún. célfüggvény széls értékét
RészletesebbenStatisztikai eljárások a mintafelismerésben és a gépi tanulásban
Statisztikai eljárások a mintafelismerésben és a gépi tanulásban Varga Domonkos (I.évf. PhD hallgató) 2014 május A prezentáció felépítése 1) Alapfogalmak 2) A gépi tanulás, mintafelismerés alkalmazási
RészletesebbenA Föld alakja TRANSZFORMÁCIÓ. Magyarországon még használatban lévő vetületi rendszerek. Miért kell transzformálni? Főbb transzformációs lehetőségek
TRANSZFORMÁCIÓ A Föld alakja -A föld alakja: geoid (az a felület, amelyen a nehézségi gyorsulás értéke állandó) szabálytalan alak, kezelése nehéz -A geoidot ellipszoiddal közelítjük -A földfelszíni pontokat
RészletesebbenLineáris algebra numerikus módszerei
Hermite interpoláció Tegyük fel, hogy az x 0, x 1,..., x k [a, b] különböző alappontok (k n), továbbá m 0, m 1,..., m k N multiplicitások úgy, hogy Legyenek adottak k m i = n + 1. i=0 f (j) (x i ) = y
RészletesebbenBevezetés a neurális számításokba Analóg processzortömbök,
Pannon Egyetem Villamosmérnöki és Információs Tanszék Bevezetés a neurális számításokba Analóg processzortömbök, neurális hálózatok Előadó: dr. Tömördi Katalin Neurális áramkörök (ismétlés) A neurális
RészletesebbenGazdasági matematika II. vizsgadolgozat megoldása, június 10
Gazdasági matematika II. vizsgadolgozat megoldása, 204. június 0 A dolgozatírásnál íróeszközön kívül más segédeszköz nem használható. A dolgozat időtartama: 90 perc. Ha a dolgozat első részéből szerzett
RészletesebbenHódmezővásárhelyi Városi Matematikaverseny április 14. A osztályosok feladatainak javítókulcsa
Hódmezővásárhelyi Városi Matematikaverseny 2003. április 14. A 11-12. osztályosok feladatainak javítókulcsa 1. feladat Egy számtani sorozatot az első eleme és különbsége egyértelműen meghatározza, azt
RészletesebbenGépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés
Gépi tanulás a gyakorlatban Kiértékelés és Klaszterezés Hogyan alkalmazzuk sikeresen a gépi tanuló módszereket? Hogyan válasszuk az algoritmusokat? Hogyan hangoljuk a paramétereiket? Precízebben: Tegyük
RészletesebbenMatematika III előadás
Matematika III. - 3. előadás Vinczéné Varga Adrienn Debreceni Egyetem Műszaki Kar, Műszaki Alaptárgyi Tanszék Előadáskövető fóliák Vinczéné Varga Adrienn (DE-MK) Matematika III. 2016/2017/I 1 / 19 Skalármezők
RészletesebbenGibbs-jelenség viselkedésének vizsgálata egyszer négyszögjel esetén
Matematikai modellek, I. kisprojekt Gibbs-jelenség viselkedésének vizsgálata egyszer négyszögjel esetén Unger amás István B.Sc. szakos matematikus hallgató ungert@maxwell.sze.hu, http://maxwell.sze.hu/~ungert
RészletesebbenTanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,
RészletesebbenA maximum likelihood becslésről
A maximum likelihood becslésről Definíció Parametrikus becsléssel foglalkozunk. Adott egy modell, mellyel elképzeléseink szerint jól leírható a meghatározni kívánt rendszer. (A modell típusának és rendszámának
RészletesebbenMÉSZÁROS JÓZSEFNÉ, NUMERIKUS MÓDSZEREK
MÉSZÁROS JÓZSEFNÉ, NUmERIKUS módszerek 9 FÜGGVÉNYKÖZELÍTÉSEK IX. SPLINE INTERPOLÁCIÓ 1. SPLINE FÜGGVÉNYEK A Lagrange interpolációnál említettük, hogy az ún. globális interpoláció helyett gyakran célszerű
RészletesebbenMesterséges Intelligencia Elektronikus Almanach. MI Almanach projektismertetı rendezvény április 29., BME, I. ép., IB.017., 9h-12h.
Mesterséges Intelligencia Elektronikus Almanach Neurális hálózatokh 1 BME 1990: Miért neurális hálók? - az érdeklıdésünk terébe kerül a neurális hálózatok témakör - fıbb okok: - adaptív rendszerek - felismerési
RészletesebbenNem-lineáris programozási feladatok
Nem-lineáris programozási feladatok S - lehetséges halmaz 2008.02.04 Dr.Bajalinov Erik, NyF MII 1 Elég egyszerű példa: nemlineáris célfüggvény + lineáris feltételek Lehetséges halmaz x 1 *x 2 =6.75 Gradiens
RészletesebbenTrigonometria Megoldások. 1) Igazolja, hogy ha egy háromszög szögeire érvényes az alábbi összefüggés: sin : sin = cos + : cos +, ( ) ( )
Trigonometria Megoldások Trigonometria - megoldások ) Igazolja, hogy ha egy háromszög szögeire érvényes az alábbi összefüggés: sin : sin = cos + : cos +, ( ) ( ) akkor a háromszög egyenlő szárú vagy derékszögű!
RészletesebbenExplicit hibabecslés Maxwell-egyenletek numerikus megoldásához
Explicit hibabecslés Maxwell-egyenletek numerikus megoldásához Izsák Ferenc 2007. szeptember 17. Explicit hibabecslés Maxwell-egyenletek numerikus megoldásához 1 Vázlat Bevezetés: a vizsgált egyenlet,
Részletesebben3. Lineáris differenciálegyenletek
3. Lineáris differenciálegyenletek A közönséges differenciálegyenletek két nagy csoportba oszthatók lineáris és nemlineáris egyenletek csoportjába. Ez a felbontás kicsit önkényesnek tűnhet, a megoldásra
RészletesebbenIntelligens orvosi műszerek VIMIA023
Intelligens orvosi műszerek VIMIA023 Neurális hálók (Dobrowiecki Tadeusz anyagának átdolgozásával) 2017 ősz http://www.mit.bme.hu/oktatas/targyak/vimia023 dr. Pataki Béla pataki@mit.bme.hu (463-)2679 A
RészletesebbenA szimplex algoritmus
A szimplex algoritmus Ismétlés: reprezentációs tétel, az optimális megoldás és az extrém pontok kapcsolata Alapfogalmak: bázisok, bázismegoldások, megengedett bázismegoldások, degenerált bázismegoldás
RészletesebbenA derivált alkalmazásai
A derivált alkalmazásai Összeállította: Wettl Ferenc 2014. november 17. Wettl Ferenc A derivált alkalmazásai 2014. november 17. 1 / 57 Tartalom 1 Függvény széls értékei Abszolút széls értékek Lokális széls
RészletesebbenP 2 P 1. 4.1 ábra Az f(x) függvény globális minimuma (P 1 ) és egy lokális minimuma (P 2 ).
Paláncz Béla - Numerikus Módszerek - 211-4. Optimalizálás 4 Optimalizálás Bevezetés Az optimalizáció, egy függvény szélsőértéke helyének meghatározása, talán a legfontosabb numerikus eljárások közé tartozik.
RészletesebbenAutoregresszív és mozgóátlag folyamatok. Géczi-Papp Renáta
Autoregresszív és mozgóátlag folyamatok Géczi-Papp Renáta Autoregresszív folyamat Az Y t diszkrét paraméterű sztochasztikus folyamatok k-ad rendű autoregresszív folyamatnak nevezzük, ha Y t = α 1 Y t 1
RészletesebbenVéletlen jelenség: okok rendszere hozza létre - nem ismerhetjük mind, ezért sztochasztikus.
Valószín ségelméleti és matematikai statisztikai alapfogalmak összefoglalása (Kemény Sándor - Deák András: Mérések tervezése és eredményeik értékelése, kivonat) Véletlen jelenség: okok rendszere hozza
Részletesebben