MÉLY NEURONHÁLÓK. A tananyag az EFOP pályázat támogatásával készült.
|
|
- Viktor Nemes
- 4 évvel ezelőtt
- Látták:
Átírás
1 MÉLY NEURONHÁLÓK A tananyag az EFOP pályázat támogatásával készült.
2 Hagyományos és mély neuronhálók Miben különbözik a hagyományos és a mély neuronháló? Strukturálisan annyi a különbség, hogy jóval több rejtett réteg van (1-2 helyett 5-10, de újabban akár is) Egyszerűnek hangzik - miért csak most?? A mély hálók tanításához új algoritmusok kellettek Legelső ilyen: DBN-előtanítás, 2006 A mély háló előnyei igazából csak sok tanító adat esetén mutatkoznak meg Ez se volt meg a 80-as években A mély háló tanítása számításigényes Erre megoldás a GPU használata A mély hálók jelenlegi sikeréhez az új algoritmusok, a sok tanító adat és a számítási kapacitás szerencsés együttállása kellett
3 Miért hatékonyabb a mély neuronháló? Korábban láttunk egy elvi bizonyítást arra, hogy két rejtett réteggel minden feladat megoldható Azonban ez csak akkor igaz, ha végtelen nagy neuronhálónk, végtelen sok tanító adatunk és globális optimumot adó tanító algoritmusunk van Adott véges neuronszám mellett hatékonyabb, ha a neuronokat 1-2 széles réteg helyett sok több keskenyebb rétegbe rendezzük Így a háló hierarchikusan tudja feldolgozni az adatokat Képi alakfelismerési feladatokon jól látszik, hogy a magasabb rétegek egyre komplexebb, egyre absztraktabb fogalmakat tanulnak meg Pont, él, szem, orr arc
4 A mély háló tanítása A mély hálók tanítása sajnos nehezebb, mint a hagyományos hálóé Ennek fő oka a backpropagation algoritmus működési elve, illetve a sigmoid aktivációs függvény alakja A backpropagation algoritmus a kimeneti rétegtől terjeszti vissza a hibát Minél több réteget megyünk visszafele, annál nagyobb az esélye, hogy a gradiens eltűnik, Ez az ún vanishing gradient effektus A gyakorlatban ez azt eredményezi, hogy a mély háló egyre mélyebben levő rétegei egyre kevésbé tanulnak Azaz hiába adunk újabb rétegeket a hálóhoz, az eredmények nem javulnak (sőt esetleg romlanak is)
5 Miért nehéz a mély háló tanítása? Nézzük meg a sigmoid aktivációs függvény hatását: A sigmoid függvény bemenete az aktiváció: a w x i i i 0 Ha az aktiváció értéke nagyon nagy vagy kicsi, a bemenet a sigmoid lapos részeire esik Itt a derivált nullához közeli, eltűnik, így a tanulás se fog működni Ez ellen próbáltunk védekezni a súlyok inicializálása ill. az input normalizálása során is A rejtett rétegek értékeinek kordában tartására azonban ez már kevés Minél több az rejtett réteg, annál nehezebb a háló tanítása n
6 Mély háló tanítása - szemléltetés Az ábra egy beszédfelismerési feladaton kapott eredményeket mutatja Függőleges tengely: felismerési hiba Víszintes tengely: rejtett rétegek száma a hálóban A lila görbe mutatja ez eredményeket backpropagation tanítás esetén A rétegek hozzáadásával egyre kisebb a javulás, 4-5 rétegnél már romlás van A kék görbe az egyik legkorábban javasolt megoldással (előtanítás) kapott eredményeket mutatja
7 Megoldások a mély neuronháló tanítására A mély hálók hatékony tanításához módosítanunk kell a tanító algoritmust és/vagy az aktivációs függvényt A legismertebb módosítási lehetőségek az alábbiak Előtanítás címkézetlen adatokkal (DBN-előtanítás kontrasztív divergencia (CD) hibafügvénnyel) Ez volt az első ötlet, elég lassú és matematikailag bonyolult A hálózat rétegről-rétegre való felépítése és tanítása Jóval egyszerűbb, csak backpropagation kell hozzá Újfajta aktivációs függvények használata A legegyszerűbb megoldás, először ezt fogjuk megnézni A mély hálók tanításában további trükkök is segíthetnek (batch normalization, highway network, stb. ) ezekről később
8 DBN-előtanítás Történetileg ez volt a legelső mélyháló-tanító algoritmus (2006) Egy előtanítási és egy finomhangolási lépésből áll, ahol a finomhangolás megfelel a már ismert backpropagation tanításnak Előtanítási lépés: Konstruál egy ún. deep belief hálót Ezt tanítja a backpropagationtól teljesen eltérő algoritmussal Tanítási lépés: A betanított DBN hálót átkonvertálja hagyományos (sigmoidos) neuronhálóvá Ezt már a backpropagation algoritmussal tanítja Ezt a lépést finomhangolásnak (fine-tuning) nevezi
9 Korlátos Boltzmann-gépek A deep belief hálóhoz először a korlátos Boltzmann-gépet (RBM) kell megismernünk Ez hasonlít a neuronháló egy rétegpárjára De valós helyett bináris kimeneti értékeket ad V: visible réteg: ez lesz egyszerre az input és az output réteg H: hidden réteg: a rejtett réteg A visible és hidden rétegek kapcsolata nem determinisztikus, hanem sztochasztikus Ettől eltekintve a képlet eléggé hasonlít a standard neuronokéra (sigmoid aktivációs függvénnyel) Vegyük észre, hogy standard neuronokkal szemben a V és H rétegek szerepe szimmetrikus, mindkét irányban tudnak menni az adatok
10 RBM-ek tanítása Az RBM-ek tanítására a kontrasztív divergencia (CD) algoritmust használhatjuk Ez egy felügyelet nélküli módszer (nincsenek osztálycímkék) Ugyanúgy iteratív algoritmus, mint a backpropagation Cél az input rekonstruálása a rejtett réteg alapján (Hasonlít a Maximum Likelihood célfüggvényhez) Az algoritmus az eredeti inputból elindulva felváltva frissíti a rejtett, majd a visible réteget Cél, hogy a kapott rekonstrukció minél jobban hasonlítson az eredeti inputhoz Az ideális reprezentáció megtalálásához végtelen sok iteráció kellene A gyakorlatban csak egyetlen iterációval közelítjük ezt, majd továbblépünk a következő adatvektorra A fentieket iterálva áll elő a CD algoritmus
11 Deep Belief Network (DBN) A DBM-et RBM-ek egymásra pakolásával kapjuk meg A hálót nem rögtön egyben tanítja, hanem rétegenként építi fel 1 rejtett réteg tanítás Újabb rejtett réteg hozzáadása tanítás
12 Konvertálás mély neuronhálóvá A DBN előtanítás után az RBM neuronjait hagyományos neuronokká konvertáljuk (nyilván a súlyok megtartásával) A tetejére rárakunk egy softmax réteget annyi neuronnal, ahány osztálycímkénk lesz És innentől elindíthatjuk a hagyományos, felügyelt backpropagation tanítást a címkézett példáinkat használva Az előtanítás szerepe tehát lényegében a súlyok inicializálása A random incializálásnál jobb eredményeket kapunk előtanítással (ld. korábbi példafeladat)
13 Diszkriminatív előtanítás Ez a módszer is a mély háló nehéz taníthatóságát igyekszik orvosolni Alapötletét a DBN-tanításból veszi: a hálót nem rögtön egyben tanítja, hanem a rétegeket egyenként adja hozzá De: felügyelt ( diszkriminatív ) módon tanít, backpropagationnal
14 Diszkriminatív előtanítás (2) A módszer előnye: nagyon egyszerű implementálni, nem kell új tanítóalgoritmus, csak a backpropagation Hátrány: megnövekedett tanítási idő Bár a tapasztalatok szerint az egyes rétegek hozzáadása után nem kell teljes konvergenciáig tanítani, elég pár iteráció ( előtanítás ) Teljes tanítást csak az utolsó rejtett réteg hozzáadása után végzünk A tapasztalatok szerint az előtanítás hatására a súlyok jobb kezdőértéket vesznek fel, mint ha véletlenszerűen incializálnánk őket Ezért az utolsó, teljes tanítási lépés kisebb eséllyel akad el lokális optimumban
15 A rectifier aktivációs függvény Ez a módszer nem a tanításba nyúl bele, hanem lecseréli az aktivációs függvényt Az alábbi ábra a rectifier aktivációs függvényt mutatja Képlete: Összehasonlítva a tanh aktivációs függvénnyel: Pozitív inputra lineáris, negatívra fix 0 Megj: Az aktivációs függvénynek muszáj nemlineárisnak lenni! Pozitív inputra a deriváltja mindig 1, sehol sem tűnik el Negatív inputra a kimenet és a derivált is 0
16 A rectifier aktivációs függvény Előnye: pozitív inputra sosem 0 a derivált Hátrányok: Negatív inputra viszont mindig 0 A gyakorlatban úgy tűnik, hogy ez nem okoz nagy problémát Nem szimmetrikus (csak nemnegatív outputot ad) A gyakorlatban ez se nagy probléma Nem korlátos a kimenete, azaz végtelen nagy kimenetet is adhat Vannak trükkök ennek a kezelésére, például a súlyok nagyságának időnkénti normalizálása
17 A három módszer összehasonlítása Kísérleti összehasonlítás beszédfelismerési adatokon a dev-test halmazokon DBN: DBN-előtanítás, DPT: diszkriminatív előtanítás, RECT: rectifier háló
18 A tanítási idők összehasonlítása A háromféle tanítási módszer futásideje a korábbi feladatra (öt rejtett réteg esetén): Míg a három módszerrel kapott eredmények elég hasonlóak voltak, a rectifier háló tanítása sokkal kisebb időigényű, mivel nem kell előtanítani A rectified linear (ReLU) neuronokra épülő háló jelenleg a de facto standard a mély tanulásban
19 Még újabb aktivációs függvények Vannak javaslatok még újabb aktivációs függvényekre Ezek a korábban említett hátrányokat próbálják korrigálni Lásd még: Példák: ELU, SELU, Softplus Ezekkel néha kicsit jobb eredmények jönnek ki, mint a rectifier függvénnyel, de általános áttörést egyik sem hozott eddig
20 KÖSZÖNÖM A FIGYELMET! A tananyag az EFOP pályázat támogatásával készült.
NEURONHÁLÓK ÉS TANÍTÁSUK A BACKPROPAGATION ALGORITMUSSAL. A tananyag az EFOP pályázat támogatásával készült.
NEURONHÁLÓK ÉS TANÍTÁSUK A BACKPROPAGATION ALGORITMUSSAL A tananyag az EFOP-3.5.1-16-2017-00004 pályázat támogatásával készült. Neuron helyett neuronháló Neuron reprezentációs erejének növelése: építsünk
KONVOLÚCIÓS NEURONHÁLÓK. A tananyag az EFOP pályázat támogatásával készült.
KONVOLÚCIÓS NEURONHÁLÓK A tananyag az EFOP-3.5.1-16-2017-00004 pályázat támogatásával készült. 1. motiváció A klasszikus neuronháló struktúra a fully connected háló Két réteg között minden neuron kapcsolódik
Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Keresés képi jellemzők alapján Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Lusta gépi tanulási algoritmusok Osztályozás: k=1: piros k=5: kék k-legközelebbi szomszéd (k=1,3,5,7)
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók Előadó: Előadás anyaga: Hullám Gábor Pataki Béla Dobrowiecki Tadeusz BME I.E. 414, 463-26-79
Új eredmények a mély neuronhálós magyar nyelvű beszédfelismerésben
Szeged, 2014. január 16 17. 3 Új eredmények a mély neuronhálós magyar nyelvű beszédfelismerésben Grósz Tamás 1, Kovács György 2, Tóth László 2 1 Szegedi Tudományegyetem, TTIK, Informatikai Tanszékcsoport,
Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Számítógépes képelemzés 7. előadás Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Momentumok Momentum-alapú jellemzők Tömegközéppont Irányultáság 1 2 tan 2 1 2,0 1,1 0, 2 Befoglaló
Hibadetektáló rendszer légtechnikai berendezések számára
Hibadetektáló rendszer légtechnikai berendezések számára Tudományos Diákköri Konferencia A feladatunk Légtechnikai berendezések Monitorozás Hibadetektálás Újrataníthatóság A megvalósítás Mozgásérzékelő
Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,
Gépi tanulás a gyakorlatban. Lineáris regresszió
Gépi tanulás a gyakorlatban Lineáris regresszió Lineáris Regresszió Legyen adott egy tanuló adatbázis: Rendelkezésünkre áll egy olyan előfeldolgozott adathalmaz, aminek sorai az egyes ingatlanokat írják
Intelligens orvosi műszerek VIMIA023
Intelligens orvosi műszerek VIMIA023 Neurális hálók (Dobrowiecki Tadeusz anyagának átdolgozásával) 2017 ősz http://www.mit.bme.hu/oktatas/targyak/vimia023 dr. Pataki Béla pataki@mit.bme.hu (463-)2679 A
Mély neuronhálók az akusztikus modellezésben
Szeged, 2013. január 7 8. 3 Mély neuronhálók az akusztikus modellezésben Grósz Tamás, Tóth László MTA-SZTE Mesterséges Intelligencia Kutatócsoport, e-mail: groszt@sol.cc.u-szeged.hu,tothl@inf.u-szeged.hu
I. LABOR -Mesterséges neuron
I. LABOR -Mesterséges neuron A GYAKORLAT CÉLJA: A mesterséges neuron struktúrájának az ismertetése, neuronhálókkal kapcsolatos elemek, alapfogalmak bemutatása, aktivációs függvénytípusok szemléltetése,
Google Summer of Code Project
Neuronhálózatok a részecskefizikában Bagoly Attila ELTE TTK Fizikus MSc, 2. évfolyam Integrating Machine Learning in Jupyter Notebooks Google Summer of Code Project 2016.10.10 Bagoly Attila (ELTE) Machine
Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok
Zrínyi Miklós Gimnázium Művészet és tudomány napja Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok 10/9/2009 Dr. Viharos Zsolt János Elsősorban volt Zrínyis diák Tudományos főmunkatárs
Neurális hálózatok.... a gyakorlatban
Neurális hálózatok... a gyakorlatban Java NNS Az SNNS Javás változata SNNS: Stuttgart Neural Network Simulator A Tübingeni Egyetemen fejlesztik http://www.ra.cs.unituebingen.de/software/javanns/ 2012/13.
Nem-lineáris programozási feladatok
Nem-lineáris programozási feladatok S - lehetséges halmaz 2008.02.04 Dr.Bajalinov Erik, NyF MII 1 Elég egyszerű példa: nemlineáris célfüggvény + lineáris feltételek Lehetséges halmaz x 1 *x 2 =6.75 Gradiens
Intelligens Rendszerek Gyakorlata. Neurális hálózatok I.
: Intelligens Rendszerek Gyakorlata Neurális hálózatok I. dr. Kutor László http://mobil.nik.bmf.hu/tantargyak/ir2.html IRG 3/1 Trend osztályozás Pnndemo.exe IRG 3/2 Hangulat azonosítás Happy.exe IRG 3/3
Deep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök
Gyires-Tóth Bálint Deep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök http://smartlab.tmit.bme.hu Deep Learning Híradó Hírek az elmúlt 168 órából Deep Learning Híradó Google
Megerősítéses tanulás 9. előadás
Megerősítéses tanulás 9. előadás 1 Backgammon (vagy Ostábla) 2 3 TD-Gammon 0.0 TD() tanulás (azaz időbeli differencia-módszer felelősségnyomokkal) függvényapproximátor: neuronháló 40 rejtett (belső) neuron
Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.
Regresszió Csorba János Nagyméretű adathalmazok kezelése 2010. március 31. A feladat X magyarázó attribútumok halmaza Y magyarázandó attribútumok) Kérdés: f : X -> Y a kapcsolat pár tanítópontban ismert
Mély neuronhálók alkalmazása és optimalizálása
magyar nyelv beszédfelismerési feladatokhoz 2015. január 10. Konzulens: Dr. Mihajlik Péter A megvalósítandó feladatok Irodalomkutatás Nyílt kutatási eszközök keresése, beszédfelismer rendszerek tervezése
Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.
Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017. Vizuális feldolgozórendszerek feladatai Mesterséges intelligencia és idegtudomány Mesterséges intelligencia és idegtudomány Párhuzamos problémák
A szimplex algoritmus
. gyakorlat A szimplex algoritmus Az előző órán bevezetett feladat optimális megoldását fogjuk megvizsgálni. Ehhez új fogalmakat, és egy algoritmust tanulunk meg. Hogy az algoritmust alkalmazni tudjuk,
NEURÁLIS HÁLÓZATOK 1. eloadás 1
NEURÁLIS HÁLÓZATOKH 1. eloadás 1 Biológiai elozmények nyek: az agy Az agy az idegrendszerunk egyik legfontosabb része: - képes adatokat tárolni, - gyorsan és hatékonyan mukodik, - nagy a megbízhatósága,
FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE
FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE Dr. Aradi Szilárd, Fehér Árpád Mesterséges intelligencia kialakulása 1956 Dartmouth-i konferencián egy maroknyi tudós megalapította a MI területét
Az idegrendszeri memória modelljei
Az idegrendszeri memória modelljei A memória típusai Rövidtávú Working memory - az aktuális feladat Vizuális, auditórikus,... Prefrontális cortex, szenzorikus területek Kapacitás: 7 +-2 minta Hosszútávú
Számítógép és programozás 2
Számítógép és programozás 2 6. Előadás Problémaosztályok http://digitus.itk.ppke.hu/~flugi/ Emlékeztető A specifikáció egy előfeltételből és utófeltételből álló leírása a feladatnak Léteznek olyan feladatok,
Neurális hálózatok bemutató
Neurális hálózatok bemutató Füvesi Viktor Miskolci Egyetem Alkalmazott Földtudományi Kutatóintézet Miért? Vannak feladatok amelyeket az agy gyorsabban hajt végre mint a konvencionális számítógépek. Pl.:
Konvolúciós neurális hálózatok (CNN)
Konvolúciós neurális hálózatok (CNN) Konvolúció Jelfeldolgozásban: Diszkrét jelek esetén diszkrét konvolúció: Képfeldolgozásban 2D konvolúció (szűrők): Konvolúciós neurális hálózat Konvolúciós réteg Kép,
Tanulás az idegrendszerben
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Funkcióvezérelt modellezés Abból indulunk ki, hogy milyen feladatot valósít meg a rendszer Horace Barlow: "A
Megerősítéses tanulás 7. előadás
Megerősítéses tanulás 7. előadás 1 Ismétlés: TD becslés s t -ben stratégia szerint lépek! a t, r t, s t+1 TD becslés: tulajdonképpen ezt mintavételezzük: 2 Akcióértékelő függvény számolása TD-vel még mindig
Új típusú döntési fa építés és annak alkalmazása többtényezős döntés területén
Új típusú döntési fa építés és annak alkalmazása többtényezős döntés területén Dombi József Szegedi Tudományegyetem Bevezetés - ID3 (Iterative Dichotomiser 3) Az ID algoritmusok egy elemhalmaz felhasználásával
Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL
Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL TULICS@TMIT.BME.HU Példa X (tanult órák száma, aludt órák száma) y (dolgozaton elért pontszám) (5, 8) 80 (3, 5) 78 (5, 1) 82 (10, 2) 93 (4, 4)
Bevezetés a neurális számításokba Analóg processzortömbök,
Pannon Egyetem Villamosmérnöki és Információs Tanszék Bevezetés a neurális számításokba Analóg processzortömbök, neurális hálózatok Előadó: dr. Tömördi Katalin Neurális áramkörök (ismétlés) A neurális
Branch-and-Bound. 1. Az egészértéketű programozás. a korlátozás és szétválasztás módszere Bevezető Definíció. 11.
11. gyakorlat Branch-and-Bound a korlátozás és szétválasztás módszere 1. Az egészértéketű programozás 1.1. Bevezető Bizonyos feladatok modellezése kapcsán előfordulhat olyan eset, hogy a megoldás során
Konjugált gradiens módszer
Közelítő és szimbolikus számítások 12. gyakorlat Konjugált gradiens módszer Készítette: Gelle Kitti Csendes Tibor Vinkó Tamás Faragó István Horváth Róbert jegyzetei alapján 1 LINEÁRIS EGYENLETRENDSZEREK
Stratégiák tanulása az agyban
Statisztikai tanulás az idegrendszerben, 2019. Stratégiák tanulása az agyban Bányai Mihály banyai.mihaly@wigner.mta.hu http://golab.wigner.mta.hu/people/mihaly-banyai/ Kortárs MI thispersondoesnotexist.com
Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363
1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái 288/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák
Gépi tanulás Gregorics Tibor Mesterséges intelligencia
Gépi tanulás Tanulás fogalma Egy algoritmus akkor tanul, ha egy feladat megoldása során olyan változások következnek be a működésében, hogy később ugyanazt a feladatot vagy ahhoz hasonló más feladatokat
Optimalizálás alapfeladata Legmeredekebb lejtő Lagrange függvény Log-barrier módszer Büntetőfüggvény módszer 2017/
Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatikai Intézet Számítógépes Optimalizálás Tanszék 9. Előadás Az optimalizálás alapfeladata Keressük f függvény maximumát ahol f : R n R és
Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,
Számítógép és programozás 2
Számítógép és programozás 2 11. Előadás Halmazkeresések, dinamikus programozás http://digitus.itk.ppke.hu/~flugi/ A keresési feladat megoldása Legyen a lehetséges megoldások halmaza M ciklus { X legyen
II. LABOR Tanulás, Perceptron, Adaline
II. LABOR Tanulás, Perceptron, Adaline A dolgozat célja a tanító algoritmusok osztályozása, a tanító és tesztel halmaz szerepe a neuronhálók tanításában, a Perceptron és ADALINE feldolgozó elemek struktúrája,
Programozás alapjai. 6. gyakorlat Futásidő, rekurzió, feladatmegoldás
Programozás alapjai 6. gyakorlat Futásidő, rekurzió, feladatmegoldás Háziellenőrzés Egészítsd ki úgy a simplemaths.c programot, hogy megfelelően működjön. A program feladata az inputon soronként megadott
Megerősítéses tanulás
Megerősítéses tanulás elméleti kognitív neurális Introduction Knowledge representation Probabilistic models Bayesian behaviour Approximate inference I (computer lab) Vision I Approximate inference II:
Lineáris regressziós modellek 1
Lineáris regressziós modellek 1 Ispány Márton és Jeszenszky Péter 2016. szeptember 19. 1 Az ábrák C.M. Bishop: Pattern Recognition and Machine Learning c. könyvéből származnak. Tartalom Bevezető példák
A neurális hálózatok tanításának alapjai II.: Módszerek a túltanulás elkerülésére. Szoldán Péter
>ready to transmit A neurális hálózatok tanításának alapjai II.: Módszerek a túltanulás elkerülésére Szoldán Péter A hálózatnak nincs kontextusa Képzeljék el, hogy amióta megszülettek, semmit mást nem
Visszacsatolt (mély) neurális hálózatok
Visszacsatolt (mély) neurális hálózatok Visszacsatolt hálózatok kimenet rejtett rétegek bemenet Sima előrecsatolt neurális hálózat Visszacsatolt hálózatok kimenet rejtett rétegek bemenet Pl.: kép feliratozás,
Neurális Hálók. és a Funkcionális Programozás. Berényi Dániel Wigner GPU Labor
Neurális Hálók és a Funkcionális Programozás Berényi Dániel Wigner GPU Labor Alapvető építőkövek Függvény kompozíció Automatikus Differenciálás (AD) 2 Neurális Háló, mint kompozíció Bemenetek Súlyok w
ACM Snake. Orvosi képdiagnosztika 11. előadás első fele
ACM Snake Orvosi képdiagnosztika 11. előadás első fele ACM Snake (ismétlés) A szegmentáló kontúr egy paraméteres görbe: x Zs s X s, Y s,, s A szegmentáció energia funkcionál minimalizálása: E x Eint x
Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban
Intelligens Rendszerek Elmélete : dr. Kutor László Versengéses és önszervező tanulás neurális hálózatokban http://mobil.nik.bmf.hu/tantargyak/ire.html Login név: ire jelszó: IRE07 IRE 9/1 Processzor Versengéses
1 Rendszer alapok. 1.1 Alapfogalmak
ÉRTÉKTEREMTŐ FOLYAM ATOK MENEDZSMENTJE II. RENDSZEREK ÉS FOLYAMATOK TARTALOMJEGYZÉK 1 Rendszer alapok 1.1 Alapfogalmak 1.2 A rendszerek csoportosítása 1.3 Rendszerek működése 1.4 Rendszerek leírása, modellezése,
Bonyolultságelmélet. Monday 26 th September, 2016, 18:50
Bonyolultságelmélet Monday 26 th September, 2016, 18:50 A kiszámítás modelljei 2 De milyen architektúrán polinom? A kiszámításnak számos (matematikai) modellje létezik: Általános rekurzív függvények λ-kalkulus
Mesterséges Intelligencia MI
Mesterséges Intelligencia MI Problémamegoldás kereséssel - csak lokális információra alapozva Pataki Béla BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Lokálisan
Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás
Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás http:/uni-obuda.hu/users/kutor/ IRE 7/50/1 A neurális hálózatok általános jellemzői 1. A
Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)
Gépi tanulás Hány tanítómintára van szükség? VKH Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Induktív tanulás A tanítás folyamata: Kiinduló
Gépi tanulás a gyakorlatban. Bevezetés
Gépi tanulás a gyakorlatban Bevezetés Motiváció Nagyon gyakran találkozunk gépi tanuló alkalmazásokkal Spam detekció Karakter felismerés Fotó címkézés Szociális háló elemzés Piaci szegmentáció analízis
SZÉCHENYI ISTVÁN EGYETEM MŰSZAKI TUDOMÁNYI KAR RENDSZERELEMZÉS I.
SZÉCHENYI ISTVÁN EGYETEM MŰSZAKI TUDOMÁNYI KAR RENDSZERELEMZÉS I. Minden jog fenntartva, beleértve a sokszorosítás és a mű bővített, vagy rövidített változatának kiadási jogát is. A Szerző előzetes írásbeli
Algoritmusok Tervezése. 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás
Algoritmusok Tervezése 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás Mi az algoritmus? Lépések sorozata egy feladat elvégzéséhez (legáltalánosabban) Informálisan algoritmusnak nevezünk bármilyen jól definiált
10. Előadás. 1. Feltétel nélküli optimalizálás: Az eljárás alapjai
Optimalizálási eljárások MSc hallgatók számára 10. Előadás Előadó: Hajnal Péter Jegyzetelő: T. Szabó Tamás 2011. április 20. 1. Feltétel nélküli optimalizálás: Az eljárás alapjai A feltétel nélküli optimalizálásnál
STATISZTIKA. Mit nevezünk idősornak? Az idősorok elemzésének módszertana. Az idősorelemzés célja. Determinisztikus idősorelemzés
Mit nevezünk idősornak? STATISZTIKA 10. Előadás Idősorok analízise Egyenlő időközökben végzett megfigyelések A sorrend kötött, y 1, y 2 y t y N N= időpontok száma Minden időponthoz egy adat, reprodukálhatatlanság
A szimplex algoritmus
A szimplex algoritmus Ismétlés: reprezentációs tétel, az optimális megoldás és az extrém pontok kapcsolata Alapfogalmak: bázisok, bázismegoldások, megengedett bázismegoldások, degenerált bázismegoldás
Intelligens Rendszerek Elmélete
Intelligens Rendszerek Elmélete Dr. Kutor László : Mesterséges neurális hálózatok felügyelt tanítása hiba visszateresztő Back error Propagation algoritmussal Versengéses tanulás http://mobil.nik.bmf.hu/tantargyak/ire.html
Az idegrendszeri memória modelljei
Az idegrendszeri memória modelljei A memória típusai Rövidtávú Working memory - az aktuális feladat Vizuális, auditórikus,... Prefrontális cortex, szenzorikus területek Kapacitás: 7 +-2 minta Hosszútávú
Miskolci Egyetem Gépészmérnöki és Informatikai Kar Informatikai Intézet Alkalmazott Informatikai Intézeti Tanszék
Miskolci Egyetem Gépészmérnöki és Informatikai Kar Informatikai Intézet Alkalmazott Informatikai Intézeti Tanszék 2016/17 2. félév 8. Előadás Dr. Kulcsár Gyula egyetemi docens Kereső algoritmusok alkalmazása
Gépi tanulás. Féligellenőrzött tanulás. Pataki Béla (Bolgár Bence)
Gépi tanulás Féligellenőrzött tanulás Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Féligellenőrzött tanulás Mindig kevés az adat, de
Modellezés és szimuláció. Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék
Modellezés és szimuláció Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék Kvantitatív forradalmak a földtudományban - geográfiában 1960- as évek eleje: statisztika 1970- as évek eleje:
Jelek és rendszerek 1. 10/9/2011 Dr. Buchman Attila Informatikai Rendszerek és Hálózatok Tanszék
Jelek és rendszerek 1 10/9/2011 Dr. Buchman Attila Informatikai Rendszerek és Hálózatok Tanszék 1 Ajánlott irodalom: FODOR GYÖRGY : JELEK ÉS RENDSZEREK EGYETEMI TANKÖNYV Műegyetemi Kiadó, Budapest, 2006
EuroOffice Optimalizáló (Solver)
1. oldal EuroOffice Optimalizáló (Solver) Az EuroOffice Optimalizáló egy OpenOffice.org bővítmény, ami gyors algoritmusokat kínál lineáris programozási és szállítási feladatok megoldására. Szimplex módszer
Szélsőérték-számítás
Szélsőérték-számítás Jelölések A következő jelölések mind az f függvény x szerinti parciális deriváltját jelentik: Ugyanígy az f függvény y szerinti parciális deriváltja: f x = xf = f x f y = yf = f y
Fuzzy rendszerek és neurális hálózatok alkalmazása a diagnosztikában
Budapesti Műszaki és Gazdaságtudományi Egyetem Fuzzy rendszerek és neurális hálózatok alkalmazása a diagnosztikában Cselkó Richárd 2009. október. 15. Az előadás fő témái Soft Computing technikák alakalmazásának
Differenciálegyenletek numerikus integrálása április 9.
Differenciálegyenletek numerikus integrálása 2018. április 9. Differenciálegyenletek Olyan egyenletek, ahol a megoldást függvény alakjában keressük az egyenletben a függvény és deriváltjai szerepelnek
A RADARJELEK DETEKTÁLÁSA NEURÁLIS HÁLÓZAT ALKALMAZÁSÁVAL
A RADARJELEK DETEKTÁLÁSA NEURÁLIS HÁLÓZAT ALKALMAZÁSÁVAL Dr. Ludányi Lajos mk. alezredes egyetemi adjunktus Zrínyi Miklós Nemzetvédelmi Egyetem Vezetés- és Szervezéstudományi Kar Fedélzeti Rendszerek Tanszék
Kovács Ernő 1, Füvesi Viktor 2
Kovács Ernő 1, Füvesi Viktor 2 1 Miskolci Egyetem, Elektrotechnikai - Elektronikai Tanszék 2 Miskolci Egyetem, Alkalmazott Földtudományi Kutatóintézet 1 HU-3515 Miskolc-Egyetemváros 2 HU-3515 Miskolc-Egyetemváros,
Újfajta, automatikus, döntési fa alapú adatbányászati módszer idősorok osztályozására
VÉGZŐS KONFERENCIA 2009 2009. május 20, Budapest Újfajta, automatikus, döntési fa alapú adatbányászati módszer idősorok osztályozására Hidasi Balázs hidasi@tmit.bme.hu Konzulens: Gáspár-Papanek Csaba Budapesti
Antreter Ferenc. Termelési-logisztikai rendszerek tervezése és teljesítményének mérése
Antreter Ferenc Termelési-logisztikai rendszerek tervezése és teljesítményének mérése Doktori értekezés Témavezetők: Dr. Várlaki Péter egyetemi tanár Széchenyi István Egyetem, Műszaki Tudományi Kar, Logisztikai
Opkut deníciók és tételek
Opkut deníciók és tételek Készítette: Bán József Deníciók 1. Deníció (Lineáris programozási feladat). Keressük meg adott lineáris, R n értelmezési tartományú függvény, az ún. célfüggvény széls értékét
Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,
3. előadás. Termelési és optimalizálási feladatok. Dr. Szörényi Miklós, Dr. Kallós Gábor
3. előadás Termelési és optimalizálási feladatok Dr. Szörényi Miklós, Dr. Kallós Gábor 2014 2015 1 Tartalom Matematikai alapok Matematikai modell Fontosabb feladattípusok Érzékenységvizsgálat Fontos fogalmak
Tartalom. Matematikai alapok. Fontos fogalmak Termékgyártási példafeladat
6. előadás Termelési és optimalizálási feladatok Dr. Szörényi Miklós, Dr. Kallós Gábor 2014 2015 1 Tartalom Matematikai alapok Matematikai modell Fontosabb feladattípusok Érzékenységvizsgálat Fontos fogalmak
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók 2. Pataki Béla
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók 2. Előadó: Hullám Gábor Pataki Béla BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki
LINEÁRIS PROGRAMOZÁSI FELADATOK MEGOLDÁSA SZIMPLEX MÓDSZERREL
LINEÁRIS PROGRAMOZÁSI FELADATOK MEGOLDÁSA SZIMPLEX MÓDSZERREL x 1-2x 2 6 -x 1-3x 3 = -7 x 1 - x 2-3x 3-2 3x 1-2x 2-2x 3 4 4x 1-2x 2 + x 3 max Alapfogalmak: feltételrendszer (narancs színnel jelölve), célfüggvény
Keresések Gregorics Tibor Mesterséges intelligencia
Keresések ADAT := kezdeti érték while terminálási feltétel(adat) loop SELECT SZ FROM alkalmazható szabályok ADAT := SZ(ADAT) endloop KR vezérlési szintjei vezérlési stratégia általános modellfüggő heurisztikus
Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )
Budapesti Műszaki és Gazdaságtudományi Egyetem Gépészmérnöki Kar Hidrodinamikai Rendszerek Tanszék, Budapest, Műegyetem rkp. 3. D ép. 334. Tel: 463-6-80 Fa: 463-30-9 http://www.vizgep.bme.hu Alap-ötlet:
A félév során előkerülő témakörök
A félév során előkerülő témakörök rekurzív algoritmusok rendező algoritmusok alapvető adattípusok, adatszerkezetek, és kapcsolódó algoritmusok dinamikus programozás mohó algoritmusok gráf algoritmusok
Van-e kapcsolat a változók között? (példák: fizetés-távolság; felvételi pontszám - görgetett átlag)
, rangkorreláció Budapesti Műszaki és Gazdaságtudományi Egyetem Gépészmérnöki Kar Hidrodinamikai Rendszerek Tanszék 1111, Budapest, Műegyetem rkp. 3. D ép. 334. Tel: 463-16-80 Fax: 463-30-91 http://www.vizgep.bme.hu
Kibernetika korábbi vizsga zárthelyi dolgozatokból válogatott tesztkérdések Figyelem! Az alábbi tesztek csak mintául szolgálnak a tesztkérdések megoldásához, azaz a bemagolásuk nem jelenti a tananyag elsajátítását
Robotok inverz geometriája
Robotok inverz geometriája. A gyakorlat célja Inverz geometriai feladatot megvalósító függvények implementálása. A megvalósított függvénycsomag tesztelése egy kétszabadságfokú kar előírt végberendezés
Osztályozási feladatok képdiagnosztikában. Orvosi képdiagnosztikai 2017 ősz
Osztályozási feladatok képdiagnosztikában Orvosi képdiagnosztikai 2017 ősz Osztályozás Szeparáló felületet keresünk Leképezéseket tanulunk meg azok mintáiból A tanuláshoz használt minták a tanító minták
A Markowitz modell: kvadratikus programozás
A Markowitz modell: kvadratikus programozás Losonczi László Debreceni Egyetem, Közgazdaság- és Gazdaságtudományi Kar Debrecen, 2011/12 tanév, II. félév Losonczi László (DE) A Markowitz modell 2011/12 tanév,
Differenciálegyenletek numerikus megoldása
a Matematika mérnököknek II. című tárgyhoz Differenciálegyenletek numerikus megoldása Fokozatos közeĺıtés módszere (1) (2) x (t) = f (t, x(t)), x I, x(ξ) = η. Az (1)-(2) kezdeti érték probléma ekvivalens
Neurális hálók tanítása során alkalmazott optimalizáció
Neurális hálók tanítása során alkalmazott optimalizáció Háló paramétereinek tanulása Lényegében egy szélsőérték keresési feladat: θ: háló paramétereinek vektora X: tanító minták bemeneteiből képzett mátrix
Hidraulikus hálózatok robusztusságának növelése
Dr. Dulovics Dezső Junior Szimpózium 2018. Hidraulikus hálózatok robusztusságának növelése Előadó: Huzsvár Tamás MSc. Képzés, II. évfolyam Témavezető: Wéber Richárd, Dr. Hős Csaba www.hds.bme.hu Az előadás
A lineáris programozás alapjai
A lineáris programozás alapjai A konvex analízis alapjai: konvexitás, konvex kombináció, hipersíkok, félterek, extrém pontok, Poliéderek, a Minkowski-Weyl tétel (a poliéderek reprezentációs tétele) Lineáris
A Markowitz modell: kvadratikus programozás
A Markowitz modell: kvadratikus programozás Harry Markowitz 1990-ben kapott Közgazdasági Nobel díjat a portfolió optimalizálási modelljéért. Ld. http://en.wikipedia.org/wiki/harry_markowitz Ennek a legegyszer
E x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes)
6-7 ősz. gyakorlat Feladatok.) Adjon meg azt a perceptronon implementált Bayes-i klasszifikátort, amely kétdimenziós a bemeneti tér felett szeparálja a Gauss eloszlású mintákat! Rajzolja le a bemeneti
10. gyakorlat Struktúrák, uniók, típusdefiníciók
10. gyakorlat Struktúrák, uniók, típusdefiníciók Házi - (f0218) Olvass be 5 darab maximum 99 karakter hosszú szót úgy, hogy mindegyiknek pontosan annyi helyet foglalsz, amennyi kell! A sztringeket írasd
TARTALOMJEGYZÉK. TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS A lágy számításról A könyv célkitűzése és felépítése...
TARTALOMJEGYZÉK TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS...1 1. A lágy számításról...2 2. A könyv célkitűzése és felépítése...6 AZ ÖSSZETEVŐ LÁGY RENDSZEREK...9 I. BEVEZETÉS...10 3. Az összetevő
További programozási esetek Hiperbolikus, kvadratikus, integer, bináris, többcélú programozás
További programozási esetek Hiperbolikus, kvadratikus, integer, bináris, többcélú programozás Készítette: Dr. Ábrahám István Hiperbolikus programozás Gazdasági problémák optimalizálásakor gyakori, hogy
10. tétel Függvények lokális és globális tulajdonságai. A differenciálszámítás alkalmazása
. tétel Függvények lokális és globális tulajdonságai. A dierenciálszámítás alkalmazása FÜGGVÉNY De: A üggvény egyértelmű hozzárendelés két halmaz elemei között. A halmaz minden eleméhez B halmaz legeljebb