Konvolúciós neurális hálózatok (CNN)

Méret: px
Mutatás kezdődik a ... oldaltól:

Download "Konvolúciós neurális hálózatok (CNN)"

Átírás

1 Konvolúciós neurális hálózatok (CNN)

2 Konvolúció Jelfeldolgozásban: Diszkrét jelek esetén diszkrét konvolúció: Képfeldolgozásban 2D konvolúció (szűrők):

3 Konvolúciós neurális hálózat Konvolúciós réteg Kép, pl.: 32*32*3 (sorok, oszlopok, csatornák (RGB)) Konvolúciós ablak (szűrő), pl.: 5*5* Konvolváljuk a képet a szűrővel: húzzuk végig a kép minden részén, és számoljuk ki az adott résszel a konvolúciót (skalárszorzatot). 3 A szűrő mindig a bemenet összes csatornájára értelmezett, azonos a mélységük

4 Konvolúciós neurális hálózat Konvolúciós réteg 5 5*5*3-as szűrő, w A konvolúció ererdménye egy skalár: a skaláris szorzata a kép adott részének, és a szűrőnek. 32 3

5 Konvolúciós neurális hálózat Konvolúciós réteg Eredmény: aktivációs térkép 5*5*3-as szűrő, w Az összes lehetséges helyen kiszámolva

6 Konvolúciós neurális hálózat Konvolúciós réteg Legyen több 5*5*3-as szűrő is: w1, w2 aktivációs térképek

7 Konvolúciós neurális hálózat Konvolúciós réteg Legyen több 5*5*3-as szűrő is: w1, w2 aktivációs térképek

8 Konvolúciós neurális hálózat Konvolúciós réteg Az aktivációs térképeket egymásra rakjuk, mint az RGB csatornákat. aktivációs térképek Pl. 32*32*3-as kép, 6 db 5x5-ös szűrő kimenete 28x28x A konvolúció egy lineáris művelet: az aktivációs térképre alkalmazunk valamilyen nemlinearitást is.

9 Konvolúciós neurális hálózat Konvolúciós rétegekből álló hálózat: előző kimeneti térfogat a következő bemenete x5x3 konvolúció, ReLU x3x6 konvolúció, ReLU K NxNx10 konvolúció, ReLU 3 6

10 A szűrők, mint tulajdonság-érzékelők

11 A konvolúció közelebbről 7x7-es kép 3x3-as szűrő Aktivációs térkép 5x5 lesz.

12 Lépésköz (stride) 7x7-es kép 3x3-as szűrő Ne egyesével, hanem pl.: kettesével léptessük a szűrőt! Aktivációs térkép 3x3 lesz. Kérdés: hármasával léptetve mekkora lesz az aktivációs térkép?

13 Lépésköz (stride) N F Kérdés: hármasával léptetve mekkora lesz az aktivációs térkép? F? Semekkora! Nem illenek össze! Kimenet mérete: (N - F) / stride + 1 N

14 Padding Probléma: a kimenetek térbeli mérete egyre csak csökken! Megoldás: párnázzuk ki 0-val a bemenetet x7-es kép 3x3-as szűrő 1-es lépésköz 1 padding Aktivációs térkép 7x7 lesz

15 Konvolúciós réteg összefoglalás Bemenet: W 1 * H 1 * D 1 Szűrők száma: K Szűrők mérete: F Lépésköz: S Padding: P Szűrő paramétereinek száma: F*F*D 1 +1 (bias) A réteg összes paraméterének száma: K*F*F*D 1 + K Kimenete W 2 * H 2 * D 2, ahol: W 2 = (W 1 - F + 2P) / S + 1 H 2 = (H 1 - F + 2P) / S + 1 D 2 = K

16 Konvolúciós réteg összefoglalás Bemenet: W 1 * H 1 * D 1 Szűrők száma: K Szűrők mérete: F Lépésköz: S Padding: P Kimenete W 2 * H 2 * D 2, ahol: W 2 = (W 1 - F + 2P) / S + 1 H 2 = (H 1 - F + 2P) / S + 1 D 2 = K Attól függ, hogy az asszimetrikus paddinget hogyan jelöljük (0.5) Szűrő paramétereinek száma: F*F*D 1 +1 (bias) A réteg összes paraméterének száma: K*F*F*D 1 + K Gyakran kettő hatvány (32,64, 512, ) Általában 3*3, néha 5*5, esetleg 1*1 Általában 1 vagy 2. Általában szokott lenni, hogy ne változzon a kimenet mérete

17 Összevonó réteg (pooling layer) Csökkenti a reprezentáció méretét, így kezelhetőbbé téve azt Minden aktivációs térképen a többitől függetlenül működik MAX pooling, average pooling

18 MAX pooling, average pooling * 2 max pooling, 2-es lépésközzel Értelmezés: van -e valahol az ablakon belül az adott jellemző? Pontos helye nem számít * 2 average pooling, 2-es lépésközzel Értelmezés: az ablakon belül mennyire van jelen átlagosan az adott jellemző?

19 Összevonó réteg Bemenet: W 1 * H 1 * D 1 Mérete: F Lépésköz: S Kimenete W 2 * H 2 * D 2, ahol: W 2 = (W 1 - F) / S + 1 H 2 = (H 1 - F) / S + 1 D 2 = D 1 Nem visz új paramétert a hálózatba, mert egy rögzített függvényt számol Tipikusan 2 vagy 3 Gyakorlatilag mindig 2

20 Teljesen összekötött réteg (fully connected, FC) A bemeneti térfogat minden eleme össze van kötve a FC réteg minden neuronjával, mint egy klasszikus MLP-ben. Tipikusan utolsó réteg(ek)ként szokás használni CNN-ben: a konvolúciós rétegek a jellemzők kiemelését végzik, a FC rétegek pedig pl. az osztályozást.

21 Upconvolution Probléma: A konvolúciós réteg tipikusan változatlanul hagyja, vagy csökkenti a reprezentáció térbeli méretét. Bizonyos alkalmazásokban szükséges a reprezentáció térbeli növelése (upsampling) A módszer azonos azzal, ahogy a visszaterjesztés fázisban a gradienssel számolunk Elnevezése még nem egységes convolution transpose backward strided convolution 1/2 strided convolution deconvolution

22 Upconvolution A paddingre eső részt eldobjuk 3 * 3 upconvolution, 2-es lépésköz, 0.5 padding Bemenet: 2 * 2 A bemenettel súlyozzuk a szűrőt Kimenet: 4 * 4 Ahol átlapolódik, ott összeadjuk

23 Az előző óráról, emlékeztető - ILSVRC Alex Krizhevsky, Ilya Sutskever, Geoffrey E Hinton Imagenet classification with deep convolutional neural networks Ez az első tisztán neurális hálózatos megoldás, ami az azévi legjobb eredményt éri el (addig SVM) Innentől kezdve lesz mainstream a deep learning AlexNet: 8 réteg, 35k paraméter 15.4% top-5 hiba Simonyan and Zisserman, VGGNet 19 réteg, 138M paraméter 7.3% top-5 hiba Szegedy et al., GoogLeNet 6.9% top-5 hiba 22 réteg, 5M paraméter He et al., ResNet 3.6% top-5 hiba 152 réteg

24 Néhány példa AlexNet [Krizhevsky et al. 2012] [227x227x3] INPUT [55x55x96] CONV1: 96 11x11 filters at stride 4, pad 0 [27x27x96] MAX POOL1: 3x3 filters at stride 2 [27x27x96] NORM1: Normalization layer [27x27x256] CONV2: 256 5x5 filters at stride 1, pad 2 [13x13x256] MAX POOL2: 3x3 filters at stride 2 [13x13x256] NORM2: Normalization layer [13x13x384] CONV3: 384 3x3 filters at stride 1, pad 1 [13x13x384] CONV4: 384 3x3 filters at stride 1, pad 1 [13x13x256] CONV5: 256 3x3 filters at stride 1, pad 1 [6x6x256] MAX POOL3: 3x3 filters at stride 2 [4096] FC6: 4096 neurons [4096] FC7: 4096 neurons [1000] FC8: 1000 neurons (class scores) - ReLU - Norm rétegek (már nem használják) - tanító adat kiegészítés - dropout 0.5 (csak FC-ben) - batch méret SGD Momentum Learning rate 1e-2, kézzel tizedelve, amikor a validációs pontosság már nem csökken - L2 súlyfelejtés 5e-4-7 CNN együttes: 18.2% -> 15.4%

25 Néhány példa GoogLeNet [Szegedy et al., 2014] - 6.7% top-5 hiba Inception module - Kevesebb paraméter, ennek ellenére jobb eredmények

26 Szűrő méret választási megfontolások - Kérdés: mekkora területet lát egy 3*3-as szűrő kimeneti neuronja? - Kérdés 2: mekkora területet lát két egymás utáni 3*3-as szűrő második rétegében egy kimeneti neuron? - Kérdés 2: mekkora területet lát három egymás utáni 3*3-as szűrő harmadik rétegében egy kimeneti neuron?

27 Szűrő méret választási megfontolások x - 3*3-as területet - 5*5-ös területet - 7*7-es területet x x H*W*C bemeneti térfogat, (a számítás során a térfogat állandó marad végig) - Hány paramétere és nemlinearitása van 3 db egymás utáni 3*3-as szűrőnek? - Hány paramétere és nemlinearitása van egy ugyanekkora területet látó 7*7- es szűrőnek?

28 Szűrő méret választási megfontolások - 3 db 3*3: - 3*C*(3*3*C) = 27C 2 paraméter (biasokat nem számolva) - ReLU: H*W*C*3 - Szorzás+összeadás művelet: 3*H*W*C*(3*3*C)=27*HWC 2-1 db 7*7: - C*(7*7*C) = 49C 2 paraméter (biast nem számolva) - ReLU: H*W*C*1 - Szorzás+összeadás művelet: H*W*C*(7*7*C)=49*HWC 2 3 db 3*3 szűrő esetén kevesebb paraméterünk van (gyorsabb konvergencia), kevesebbet kell számolni (gyorsabb működés), és több nemlinearitást használunk (vagyis bonyolultabb függvényt is képesek vagyunk reprezentálni)

29 Szűrő méret választási megfontolások - 1*1-es szűrő? - Skalárszorzat egy pixel mentén a csatornákon a szűrővel - Csatornaszám-csökkentésre alkalmas Bottleneck sandwitch

30 Szűrő méret választási megfontolások

31 Szűrő méret választási megfontolások GoogLeNet legújabb verziójában már megjelennek ezek az ötletek [Szegedy et al, Rethinking the Inception Architecture for Computer Vision 11 Dec 2015 ]

32 Transfer learning - Hogyan tanítsunk konvolúciós neurális hálókat? - Sok adat kell hozzá? - Nem, ha... - Sokáig kell futtatni a tanítást, nagy GPU-n? - Nem, ha... - Használjunk egy már megtanított nagy hálót (pl.: ImageNet adatokon) - Az utolsó pár rétegét cseréljük le a saját rendszerünkre - Tanítsuk a saját adatainkkal az utolsó pár réteget. - Finomíthatjuk a háló elejét is. - Ez a tipikus tanítási forma, nem a kivétel!

33 Transfer learning 1. Tanítsunk pl. az ImageNet adatkészleten 2. Kis adatkészlet esetén használjuk jellemzővektor kinyerésre 3. Közepes adatkészlet esetén finomhangoljuk Rögzítsük a súlyokat Rögzítsük a súlyokat Itt tanítsunk Itt tanítsunk

34 Transfer learning - Kevés tanítóminta esetén (< 1M kép) - Keressünk egy hasonló képeket tartalmazó, nagy mintaszámú tanítóhalmazt, tanítsuk meg vele a CNN-ünket - Transfer learning az eredeti tanítóhalmazra - Nincs lehetőségünk/erőforrásunk nagy adathalmazzal tanítani - Töltsünk le egy előre megtanított CNN-t - Caffe ConvNet könyvtárban van egy ún. Model Zoo, amiben előre tanított modellek találhatóak -

35 Hivatkozások A prezentáció a következő helyekről vett tartalmakkal készült: CS231n: Convolutional Neural Networks for Visual Recognition, Stanford University

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók 2. Pataki Béla

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók 2. Pataki Béla Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók 2. Előadó: Hullám Gábor Pataki Béla BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki

Részletesebben

Mély konvolúciós neurális hálózatok. Hadházi Dániel BME IE 338

Mély konvolúciós neurális hálózatok. Hadházi Dániel BME IE 338 Mély konvolúciós neurális hálózatok Hadházi Dániel BME IE 338 hadhazi@mit.bme.hu ÚJ ARCHITEKTÚRÁLIS ELEMEK Konvolúciós réteg Motiváció: Klasszikus képfeldolgozásnál alapművelet a konvolúció: Zajszűrésre

Részletesebben

KONVOLÚCIÓS NEURONHÁLÓK. A tananyag az EFOP pályázat támogatásával készült.

KONVOLÚCIÓS NEURONHÁLÓK. A tananyag az EFOP pályázat támogatásával készült. KONVOLÚCIÓS NEURONHÁLÓK A tananyag az EFOP-3.5.1-16-2017-00004 pályázat támogatásával készült. 1. motiváció A klasszikus neuronháló struktúra a fully connected háló Két réteg között minden neuron kapcsolódik

Részletesebben

Visszacsatolt (mély) neurális hálózatok

Visszacsatolt (mély) neurális hálózatok Visszacsatolt (mély) neurális hálózatok Visszacsatolt hálózatok kimenet rejtett rétegek bemenet Sima előrecsatolt neurális hálózat Visszacsatolt hálózatok kimenet rejtett rétegek bemenet Pl.: kép feliratozás,

Részletesebben

Deep learning. bevezetés

Deep learning. bevezetés Deep learning bevezetés Egy kis történelem - a kezdetek 1957 - Frank Rosenblatt: Perceptron A perceptron algoritmus első implementációja a Mark I Perceptron gép 20 20 pixeles képet adó kamerához volt kötve

Részletesebben

Intelligens orvosi műszerek VIMIA023

Intelligens orvosi műszerek VIMIA023 Intelligens orvosi műszerek VIMIA023 Neurális hálók (Dobrowiecki Tadeusz anyagának átdolgozásával) 2017 ősz http://www.mit.bme.hu/oktatas/targyak/vimia023 dr. Pataki Béla pataki@mit.bme.hu (463-)2679 A

Részletesebben

Neurális hálózatok.... a gyakorlatban

Neurális hálózatok.... a gyakorlatban Neurális hálózatok... a gyakorlatban Java NNS Az SNNS Javás változata SNNS: Stuttgart Neural Network Simulator A Tübingeni Egyetemen fejlesztik http://www.ra.cs.unituebingen.de/software/javanns/ 2012/13.

Részletesebben

Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL

Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL TULICS@TMIT.BME.HU Példa X (tanult órák száma, aludt órák száma) y (dolgozaton elért pontszám) (5, 8) 80 (3, 5) 78 (5, 1) 82 (10, 2) 93 (4, 4)

Részletesebben

Deep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök

Deep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök Gyires-Tóth Bálint Deep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök http://smartlab.tmit.bme.hu Deep Learning Híradó Hírek az elmúlt 168 órából Deep Learning Híradó Google

Részletesebben

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók Előadó: Előadás anyaga: Hullám Gábor Pataki Béla Dobrowiecki Tadeusz BME I.E. 414, 463-26-79

Részletesebben

Osztályozási feladatok képdiagnosztikában. Orvosi képdiagnosztikai 2017 ősz

Osztályozási feladatok képdiagnosztikában. Orvosi képdiagnosztikai 2017 ősz Osztályozási feladatok képdiagnosztikában Orvosi képdiagnosztikai 2017 ősz Osztályozás Szeparáló felületet keresünk Leképezéseket tanulunk meg azok mintáiból A tanuláshoz használt minták a tanító minták

Részletesebben

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017. Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017. Vizuális feldolgozórendszerek feladatai Mesterséges intelligencia és idegtudomány Mesterséges intelligencia és idegtudomány Párhuzamos problémák

Részletesebben

Intelligens Rendszerek Gyakorlata. Neurális hálózatok I.

Intelligens Rendszerek Gyakorlata. Neurális hálózatok I. : Intelligens Rendszerek Gyakorlata Neurális hálózatok I. dr. Kutor László http://mobil.nik.bmf.hu/tantargyak/ir2.html IRG 3/1 Trend osztályozás Pnndemo.exe IRG 3/2 Hangulat azonosítás Happy.exe IRG 3/3

Részletesebben

A kibontakozó új hajtóerő a mesterséges intelligencia

A kibontakozó új hajtóerő a mesterséges intelligencia 5. Magyar Jövő Internet Konferencia» Okos város a célkeresztben «A kibontakozó új hajtóerő a mesterséges intelligencia Dr. Szűcs Gábor Budapesti Műszaki és Gazdaságtudományi Egyetem Távközlési és Médiainformatikai

Részletesebben

Deep Learning a gyakorlatban Python és LUA alapon Felhasználói viselkedés modellezés

Deep Learning a gyakorlatban Python és LUA alapon Felhasználói viselkedés modellezés Gyires-Tóth Bálint Deep Learning a gyakorlatban Python és LUA alapon Felhasználói viselkedés modellezés http://smartlab.tmit.bme.hu Modellezés célja A telefon szenzoradatai alapján egy általános viselkedési

Részletesebben

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,

Részletesebben

Deep Learning: Mélyhálós Tanulás

Deep Learning: Mélyhálós Tanulás Deep Learning Deep Learning: Mélyhálós Tanulás Mesterséges Neuronhálók 2015 o sz Milacski Zoltán Ádám srph25@gmail.com http://milacski.web.elte.hu ELTE Informatika Doktori Iskola 2015-09-21 Deep Learning

Részletesebben

3. Szűrés képtérben. Kató Zoltán. Képfeldolgozás és Számítógépes Grafika tanszék SZTE (http://www.inf.u-szeged.hu/~kato/teaching/)

3. Szűrés képtérben. Kató Zoltán. Képfeldolgozás és Számítógépes Grafika tanszék SZTE (http://www.inf.u-szeged.hu/~kato/teaching/) 3. Szűrés képtérben Kató Zoltán Képfeldolgozás és Számítógépes Grafika tanszék SZTE http://www.inf.u-szeged.hu/~kato/teaching/ 2 Kép transzformációk típusai Kép értékkészletének radiometriai információ

Részletesebben

Modellezés és szimuláció. Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék

Modellezés és szimuláció. Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék Modellezés és szimuláció Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék Kvantitatív forradalmak a földtudományban - geográfiában 1960- as évek eleje: statisztika 1970- as évek eleje:

Részletesebben

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Keresés képi jellemzők alapján Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Lusta gépi tanulási algoritmusok Osztályozás: k=1: piros k=5: kék k-legközelebbi szomszéd (k=1,3,5,7)

Részletesebben

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Számítógépes képelemzés 7. előadás Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Momentumok Momentum-alapú jellemzők Tömegközéppont Irányultáság 1 2 tan 2 1 2,0 1,1 0, 2 Befoglaló

Részletesebben

PIXEL SZINTŰ SZEGMENTÁLÁS CNN-EL

PIXEL SZINTŰ SZEGMENTÁLÁS CNN-EL PIXEL SZINTŰ SZEGMENTÁLÁS CNN-EL Csúszóablakos szegmentálás Szegmentálás direkt osztályozással Kisméretű ablakkal kivágott kép alapján megítéli az adott pixel környezetének a típusát Nagyon lassú, nehezen

Részletesebben

Valósidejű objektumkövetés mély tanulás segítségével

Valósidejű objektumkövetés mély tanulás segítségével SZAKDOLGOZAT FELADAT Münczberg Tamás szigorló mérnök informatikus hallgató részére Valósidejű objektumkövetés mély tanulás segítségével A gépi tanulás új módszerei az intelligens érzékelés számos területét

Részletesebben

FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE

FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE Dr. Aradi Szilárd, Fehér Árpád Mesterséges intelligencia kialakulása 1956 Dartmouth-i konferencián egy maroknyi tudós megalapította a MI területét

Részletesebben

Mélytanulási módszerek az orvosi képalkotó diagnosztikában

Mélytanulási módszerek az orvosi képalkotó diagnosztikában Mélytanulási módszerek az orvosi képalkotó diagnosztikában Szakdolgozat Katona Réka Matematikai elemző szakirány Témavezető: Csiszárik Adrián MTA Rényi Alfréd Matematikai Kutatóintézet Belső konzulens:

Részletesebben

KÁRTÉKONY NÖVÉNYEK AZONOSÍTÁSA

KÁRTÉKONY NÖVÉNYEK AZONOSÍTÁSA Budapesti Műszaki és Gazdaságtudományi Egyetem Villamosmérnöki és Informatikai Kar Távközlési és Médiainformatikai Tanszék Osváth Márton KÁRTÉKONY NÖVÉNYEK AZONOSÍTÁSA KÖZÖSSÉGI ADATBÁZISBÓL MÉLY KONVOLÚCIÓS

Részletesebben

NEURÁLIS HÁLÓZATOK 1. eloadás 1

NEURÁLIS HÁLÓZATOK 1. eloadás 1 NEURÁLIS HÁLÓZATOKH 1. eloadás 1 Biológiai elozmények nyek: az agy Az agy az idegrendszerunk egyik legfontosabb része: - képes adatokat tárolni, - gyorsan és hatékonyan mukodik, - nagy a megbízhatósága,

Részletesebben

Neurális hálózatok bemutató

Neurális hálózatok bemutató Neurális hálózatok bemutató Füvesi Viktor Miskolci Egyetem Alkalmazott Földtudományi Kutatóintézet Miért? Vannak feladatok amelyeket az agy gyorsabban hajt végre mint a konvencionális számítógépek. Pl.:

Részletesebben

Bevezetés a mesterséges intelligencia mély tanulás eszközrendszerébe

Bevezetés a mesterséges intelligencia mély tanulás eszközrendszerébe Bevezetés a mesterséges intelligencia mély tanulás eszközrendszerébe Csapó Tamás Gábor http://smartlab.tmit.bme.hu AI, ML, DL Forrás: https://blogs.nvidia.com/blog/2016/10/17/deep-learning-help-business/

Részletesebben

Deep learning szoftverek

Deep learning szoftverek Deep learning szoftverek Neurális hálózatok - rétegenkénti szemlélet Előreterjesztés Visszaterjesztés Bemeneti réteg Bemeneti réteg x Rejtett réteg (FC, ReLU) C/ x w1 out1 Rejtett réteg (FC, lin) Rejtett

Részletesebben

Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok

Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok Zrínyi Miklós Gimnázium Művészet és tudomány napja Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok 10/9/2009 Dr. Viharos Zsolt János Elsősorban volt Zrínyis diák Tudományos főmunkatárs

Részletesebben

Google Summer of Code Project

Google Summer of Code Project Neuronhálózatok a részecskefizikában Bagoly Attila ELTE TTK Fizikus MSc, 2. évfolyam Integrating Machine Learning in Jupyter Notebooks Google Summer of Code Project 2016.10.10 Bagoly Attila (ELTE) Machine

Részletesebben

Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban

Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban Intelligens Rendszerek Elmélete : dr. Kutor László Versengéses és önszervező tanulás neurális hálózatokban http://mobil.nik.bmf.hu/tantargyak/ire.html Login név: ire jelszó: IRE07 IRE 9/1 Processzor Versengéses

Részletesebben

Hibadetektáló rendszer légtechnikai berendezések számára

Hibadetektáló rendszer légtechnikai berendezések számára Hibadetektáló rendszer légtechnikai berendezések számára Tudományos Diákköri Konferencia A feladatunk Légtechnikai berendezések Monitorozás Hibadetektálás Újrataníthatóság A megvalósítás Mozgásérzékelő

Részletesebben

Megerősítéses tanulás

Megerősítéses tanulás Megerősítéses tanulás elméleti kognitív neurális Introduction Knowledge representation Probabilistic models Bayesian behaviour Approximate inference I (computer lab) Vision I Approximate inference II:

Részletesebben

I. LABOR -Mesterséges neuron

I. LABOR -Mesterséges neuron I. LABOR -Mesterséges neuron A GYAKORLAT CÉLJA: A mesterséges neuron struktúrájának az ismertetése, neuronhálókkal kapcsolatos elemek, alapfogalmak bemutatása, aktivációs függvénytípusok szemléltetése,

Részletesebben

Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás

Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás http:/uni-obuda.hu/users/kutor/ IRE 7/50/1 A neurális hálózatok általános jellemzői 1. A

Részletesebben

NEURONHÁLÓK ÉS TANÍTÁSUK A BACKPROPAGATION ALGORITMUSSAL. A tananyag az EFOP pályázat támogatásával készült.

NEURONHÁLÓK ÉS TANÍTÁSUK A BACKPROPAGATION ALGORITMUSSAL. A tananyag az EFOP pályázat támogatásával készült. NEURONHÁLÓK ÉS TANÍTÁSUK A BACKPROPAGATION ALGORITMUSSAL A tananyag az EFOP-3.5.1-16-2017-00004 pályázat támogatásával készült. Neuron helyett neuronháló Neuron reprezentációs erejének növelése: építsünk

Részletesebben

[1000 ; 0] 7 [1000 ; 3000]

[1000 ; 0] 7 [1000 ; 3000] Gépi tanulás (vimim36) Gyakorló feladatok 04 tavaszi félév Ahol lehet, ott konkrét számértékeket várok nem puszta egyenleteket. (Azok egy részét amúgyis megadom.). Egy bináris osztályozási feladatra tanított

Részletesebben

1. óra Digitális képfeldolgozás

1. óra Digitális képfeldolgozás 1. óra Digitális képfeldolgozás Képkorrekció A hisztogram A hisztogram a képünk intenzitás-eloszlását ábrázolja. Ebben a koordinátarendszerben a vízszintes tengelyen vesszük fel a teljes szürkeskálát úgy,

Részletesebben

Gépi tanulás a gyakorlatban. Lineáris regresszió

Gépi tanulás a gyakorlatban. Lineáris regresszió Gépi tanulás a gyakorlatban Lineáris regresszió Lineáris Regresszió Legyen adott egy tanuló adatbázis: Rendelkezésünkre áll egy olyan előfeldolgozott adathalmaz, aminek sorai az egyes ingatlanokat írják

Részletesebben

Kovács Ernő 1, Füvesi Viktor 2

Kovács Ernő 1, Füvesi Viktor 2 Kovács Ernő 1, Füvesi Viktor 2 1 Miskolci Egyetem, Elektrotechnikai - Elektronikai Tanszék 2 Miskolci Egyetem, Alkalmazott Földtudományi Kutatóintézet 1 HU-3515 Miskolc-Egyetemváros 2 HU-3515 Miskolc-Egyetemváros,

Részletesebben

Osztályozás képdiagnosztikánál

Osztályozás képdiagnosztikánál Osztályozás képdiagnosztikánál Osztályozás Elválasztó felület keresése Input-output leképezés ismert osztályú (tanító) pontok alapján x, d P d 1,2,..., k i i i1 i Lineáris Paramétereiben lineáris, de nemlineáris

Részletesebben

Gépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés

Gépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés Gépi tanulás a gyakorlatban Kiértékelés és Klaszterezés Hogyan alkalmazzuk sikeresen a gépi tanuló módszereket? Hogyan válasszuk az algoritmusokat? Hogyan hangoljuk a paramétereiket? Precízebben: Tegyük

Részletesebben

2. Készítsen awk szkriptet, amely kiírja az aktuális könyvtár összes alkönyvtárának nevét, amely februári keltezésű (bármely év).

2. Készítsen awk szkriptet, amely kiírja az aktuális könyvtár összes alkönyvtárának nevét, amely februári keltezésű (bármely év). 1. fejezet AWK 1.1. Szűrési feladatok 1. Készítsen awk szkriptet, ami kiírja egy állomány leghosszabb szavát. 2. Készítsen awk szkriptet, amely kiírja az aktuális könyvtár összes alkönyvtárának nevét,

Részletesebben

A RADARJELEK DETEKTÁLÁSA NEURÁLIS HÁLÓZAT ALKALMAZÁSÁVAL

A RADARJELEK DETEKTÁLÁSA NEURÁLIS HÁLÓZAT ALKALMAZÁSÁVAL A RADARJELEK DETEKTÁLÁSA NEURÁLIS HÁLÓZAT ALKALMAZÁSÁVAL Dr. Ludányi Lajos mk. alezredes egyetemi adjunktus Zrínyi Miklós Nemzetvédelmi Egyetem Vezetés- és Szervezéstudományi Kar Fedélzeti Rendszerek Tanszék

Részletesebben

Aleksziev Rita Antónia Alkalmazott matematikus MSc. Transzformációtanulás 2 dimenziós képeken

Aleksziev Rita Antónia Alkalmazott matematikus MSc. Transzformációtanulás 2 dimenziós képeken Eötvös Loránd Tudományegyetem Természettudományi Kar Aleksziev Rita Antónia Alkalmazott matematikus MSc Számítástudomány szakirány Transzformációtanulás 2 dimenziós képeken mély autoenkóder hálózatokkal

Részletesebben

Intelligens Rendszerek Elmélete

Intelligens Rendszerek Elmélete Intelligens Rendszerek Elmélete Dr. Kutor László : Mesterséges neurális hálózatok felügyelt tanítása hiba visszateresztő Back error Propagation algoritmussal Versengéses tanulás http://mobil.nik.bmf.hu/tantargyak/ire.html

Részletesebben

Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)

Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence) Gépi tanulás Hány tanítómintára van szükség? VKH Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Induktív tanulás A tanítás folyamata: Kiinduló

Részletesebben

TERMÉSZETTUDOMÁNYI KAR. Kalocsai Bálint. SZAKDOLGOZAT Matematika BSc, Matematikai elemző szakirány BUDAPEST, 2019.

TERMÉSZETTUDOMÁNYI KAR. Kalocsai Bálint. SZAKDOLGOZAT Matematika BSc, Matematikai elemző szakirány BUDAPEST, 2019. EÖTVÖS LORÁND TUDOMÁNYEGYETEM TERMÉSZETTUDOMÁNYI KAR Kalocsai Bálint ONLINE KÖZÖSSÉGI MÉDIA TARTALMAK ELEMZÉSE GÉPI TANULÁSI ESZKÖZÖKKEL SZAKDOLGOZAT Matematika BSc, Matematikai elemző szakirány TÉMAVEZETŐ:

Részletesebben

TDK dolgozat. Fehér Árpád, járműmérnöki (MSc) Dr. Aradi Szilárd, egyetemi adjunktus november

TDK dolgozat. Fehér Árpád, járműmérnöki (MSc) Dr. Aradi Szilárd, egyetemi adjunktus november Budapesti Műszaki és Gazdaságtudományi Egyetem Közlekedésmérnöki és Járműmérnöki Kar Közlekedés- és Járműirányítási Tanszék GÉPI TANULÁS ALAPÚ SÁVTARTÓ FUNKCIÓ MEGVALÓSÍTÁSA HIL KÖRNYEZETBEN TDK dolgozat

Részletesebben

Biológiai és mesterséges neurális hálózatok

Biológiai és mesterséges neurális hálózatok Biológiai és mesterséges neurális hálózatok Szegedy Balázs 2018. október 10. Hasonlóságok és külömbségek A mesterséges neurális hálózatok története 1957-ben kezdődött: perceptron (Frank Rosenblatt). 400

Részletesebben

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31. Regresszió Csorba János Nagyméretű adathalmazok kezelése 2010. március 31. A feladat X magyarázó attribútumok halmaza Y magyarázandó attribútumok) Kérdés: f : X -> Y a kapcsolat pár tanítópontban ismert

Részletesebben

Tanulás az idegrendszerben

Tanulás az idegrendszerben Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Funkcióvezérelt modellezés Abból indulunk ki, hogy milyen feladatot valósít meg a rendszer Horace Barlow: "A

Részletesebben

Többsávos, zajtűrő beszédfelismerés mély neuronhálóval

Többsávos, zajtűrő beszédfelismerés mély neuronhálóval Szeged, 2016. január 21-22. 287 Többsávos, zajtűrő beszédfelismerés mély neuronhálóval Kovács György 1, Tóth László 2 1 KU Leuven, Department of Electrical Engineering Leuven, Kasteelpark Arenberg 10,

Részletesebben

Adversarial tanítás neurális hálózatokban

Adversarial tanítás neurális hálózatokban , Faculty of Information Technology Adversarial tanítás neurális hálózatokban András Horváth Budapest, 2018.11.21 Neurális hálózatok Számos helyen használhatóak Önvezető autók Alpha Go Arcfelismerés Neurális

Részletesebben

II. LABOR Tanulás, Perceptron, Adaline

II. LABOR Tanulás, Perceptron, Adaline II. LABOR Tanulás, Perceptron, Adaline A dolgozat célja a tanító algoritmusok osztályozása, a tanító és tesztel halmaz szerepe a neuronhálók tanításában, a Perceptron és ADALINE feldolgozó elemek struktúrája,

Részletesebben

Stratégiák tanulása az agyban

Stratégiák tanulása az agyban Statisztikai tanulás az idegrendszerben, 2019. Stratégiák tanulása az agyban Bányai Mihály banyai.mihaly@wigner.mta.hu http://golab.wigner.mta.hu/people/mihaly-banyai/ Kortárs MI thispersondoesnotexist.com

Részletesebben

CARE. Biztonságos. otthonok idős embereknek CARE. Biztonságos otthonok idős embereknek 2010-09-02. Dr. Vajda Ferenc Egyetemi docens

CARE. Biztonságos. otthonok idős embereknek CARE. Biztonságos otthonok idős embereknek 2010-09-02. Dr. Vajda Ferenc Egyetemi docens CARE Biztonságos CARE Biztonságos otthonok idős embereknek otthonok idős embereknek 2010-09-02 Dr. Vajda Ferenc Egyetemi docens 3D Érzékelés és Mobilrobotika kutatócsoport Budapesti Műszaki és Gazdaságtudományi

Részletesebben

Dokumentáció az 1. feladatsorhoz (egyszerű, rövidített kivitelben)

Dokumentáció az 1. feladatsorhoz (egyszerű, rövidített kivitelben) Dokumentáció az 1. feladatsorhoz (egyszerű, rövidített kivitelben) Felhasználói dokumentáció Feladat: Adjuk meg két N elemű vektor skalárszorzatát! Skalárszorzat : X, Y : N i 1 x i * y i Környezet: IBM

Részletesebben

QGIS gyakorló. --tulajdonságok--stílus fül--széthúzás a terjedelemre).

QGIS gyakorló. --tulajdonságok--stílus fül--széthúzás a terjedelemre). QGIS gyakorló Cím: A Contour-, a Point sampling tool és a Terrain profile pluginek használata. DEM letöltése: http://www.box.net/shared/1v7zq33leymq1ye64yro A következő gyakorlatban szintvonalakat fogunk

Részletesebben

IV.7 MÓDSZER KIDOLGOZÁSA FELHASZNÁLÓI ADATOK VÉDELMÉRE MOBIL ALKALMAZÁSOK ESETÉN

IV.7 MÓDSZER KIDOLGOZÁSA FELHASZNÁLÓI ADATOK VÉDELMÉRE MOBIL ALKALMAZÁSOK ESETÉN infokommunikációs technológiák IV.7 MÓDSZER KIDOLGOZÁSA FELHASZNÁLÓI ADATOK VÉDELMÉRE MOBIL ALKALMAZÁSOK ESETÉN ANTAL Margit, SZABÓ László Zsolt 2015, január 8. BEVEZETÉS A KUTATÁS CÉLJA A felhasználó

Részletesebben

Bevezetés a neurális számításokba Analóg processzortömbök,

Bevezetés a neurális számításokba Analóg processzortömbök, Pannon Egyetem Villamosmérnöki és Információs Tanszék Bevezetés a neurális számításokba Analóg processzortömbök, neurális hálózatok Előadó: dr. Tömördi Katalin Neurális áramkörök (ismétlés) A neurális

Részletesebben

1. Egy lineáris hálózatot mikor nevezhetünk rezisztív hálózatnak és mikor dinamikus hálózatnak?

1. Egy lineáris hálózatot mikor nevezhetünk rezisztív hálózatnak és mikor dinamikus hálózatnak? Ellenörző kérdések: 1. előadás 1/5 1. előadás 1. Egy lineáris hálózatot mikor nevezhetünk rezisztív hálózatnak és mikor dinamikus hálózatnak? 2. Mit jelent a föld csomópont, egy áramkörben hány lehet belőle,

Részletesebben

Gépi tanulás a Rapidminer programmal. Stubendek Attila

Gépi tanulás a Rapidminer programmal. Stubendek Attila Gépi tanulás a Rapidminer programmal Stubendek Attila Rapidminer letöltése Google: download rapidminer Rendszer kiválasztása (iskolai gépeken Other Systems java) Kicsomagolás lib/rapidminer.jar elindítása

Részletesebben

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,

Részletesebben

Generáljunk először is mintákat a függvényből. Ezzel fogunk majd később tanítani.

Generáljunk először is mintákat a függvényből. Ezzel fogunk majd később tanítani. MATLAB gyorstalpaló Neural Network toolbox és SVM-KM toolbox alkalmazása függvényapproximációra, osztályozásra és idősor-előrejelzésre 1 Függvényapproximáció A függvényapproximációt egy egyszerű egydimenziós

Részletesebben

X. ANALÓG JELEK ILLESZTÉSE DIGITÁLIS ESZKÖZÖKHÖZ

X. ANALÓG JELEK ILLESZTÉSE DIGITÁLIS ESZKÖZÖKHÖZ X. ANALÓG JELEK ILLESZTÉSE DIGITÁLIS ESZKÖZÖKHÖZ Ma az analóg jelek feldolgozása (is) mindinkább digitális eszközökkel és módszerekkel történik. A feldolgozás előtt az analóg jeleket digitalizálni kell.

Részletesebben

Idősor előrejelzés. Szórádi Júlia, BSc konzulens: Dr. Horváth Gábor. Önálló laboratórium (BMEVIMIA362) II. félév

Idősor előrejelzés. Szórádi Júlia, BSc konzulens: Dr. Horváth Gábor. Önálló laboratórium (BMEVIMIA362) II. félév Idősor előrejelzés Szórádi Júlia, BSc konzulens: Dr. Horváth Gábor Önálló laboratórium (BMEVIMIA362) 2010-11 II. félév IDŐSOR ELŐREJELZÉS Az idősor előrejelzés számos területen alapvető fontosságú feladat,

Részletesebben

Fuzzy rendszerek és neurális hálózatok alkalmazása a diagnosztikában

Fuzzy rendszerek és neurális hálózatok alkalmazása a diagnosztikában Budapesti Műszaki és Gazdaságtudományi Egyetem Fuzzy rendszerek és neurális hálózatok alkalmazása a diagnosztikában Cselkó Richárd 2009. október. 15. Az előadás fő témái Soft Computing technikák alakalmazásának

Részletesebben

Gépi tanulás a gyakorlatban. Bevezetés

Gépi tanulás a gyakorlatban. Bevezetés Gépi tanulás a gyakorlatban Bevezetés Motiváció Nagyon gyakran találkozunk gépi tanuló alkalmazásokkal Spam detekció Karakter felismerés Fotó címkézés Szociális háló elemzés Piaci szegmentáció analízis

Részletesebben

LED DRIVER 6. 6 csatornás 12-24V-os LED meghajtó. (RDM Kompatibilis) Kezelési útmutató

LED DRIVER 6. 6 csatornás 12-24V-os LED meghajtó. (RDM Kompatibilis) Kezelési útmutató LED DRIVER 6 6 csatornás 12-24V-os LED meghajtó (RDM Kompatibilis) Kezelési útmutató Tartsa meg a dokumentumot, a jövőben is szüksége lehet rá! rev 2 2015.09.30 DEZELECTRIC LED DRIVER Bemutatás A LED DRIVER

Részletesebben

E x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes)

E x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes) 6-7 ősz. gyakorlat Feladatok.) Adjon meg azt a perceptronon implementált Bayes-i klasszifikátort, amely kétdimenziós a bemeneti tér felett szeparálja a Gauss eloszlású mintákat! Rajzolja le a bemeneti

Részletesebben

Mély neuronhálók alkalmazása és optimalizálása

Mély neuronhálók alkalmazása és optimalizálása magyar nyelv beszédfelismerési feladatokhoz 2015. január 10. Konzulens: Dr. Mihajlik Péter A megvalósítandó feladatok Irodalomkutatás Nyílt kutatási eszközök keresése, beszédfelismer rendszerek tervezése

Részletesebben

Számítógépes Hálózatok. 7. gyakorlat

Számítógépes Hálózatok. 7. gyakorlat Számítógépes Hálózatok 7. gyakorlat Gyakorlat tematika Hibajelző kód: CRC számítás Órai / házi feladat Számítógépes Hálózatok Gyakorlat 7. 2 CRC hibajelző kód emlékeztető Forrás: Dr. Lukovszki Tamás fóliái

Részletesebben

Jelfeldolgozás - ANTAL Margit. impulzusválasz. tulajdonságai. Rendszerek. ANTAL Margit. Sapientia - Erdélyi Magyar Tudományegyetem

Jelfeldolgozás - ANTAL Margit. impulzusválasz. tulajdonságai. Rendszerek. ANTAL Margit. Sapientia - Erdélyi Magyar Tudományegyetem Sapientia - Erdélyi Magyar Tudományegyetem 2007 Megnevezések Diszkrét Dirac jel Delta függvény Egységimpluzus függvény A diszkrét Dirac jel δ[n] = { 1, n = 0 0, n 0 d[n] { 1, n = n0 δ[n n 0 ] = 0, n n

Részletesebben

Definíciószerűen az átlagidő a kötvény hátralévő pénzáramlásainak, a pénzáramlás jelenértékével súlyozott átlagos futamideje. A duration képlete:

Definíciószerűen az átlagidő a kötvény hátralévő pénzáramlásainak, a pénzáramlás jelenértékével súlyozott átlagos futamideje. A duration képlete: meg tudjuk mondani, hogy mennyit ér ez a futamidő elején. Az évi 1% különbségeket jelenértékre átszámolva ez kb. 7.4% veszteség, a kötvényünk ára 92,64 lesz. Látható, hogy a hosszabb futamidejű kötvényre

Részletesebben

A neurális hálózatok alapjai

A neurális hálózatok alapjai A neurális hálózatok alapjai Modern Tudományos Programozás Wigner FK 20 November 2018 Bevezető példa Egyenes illesztés: Sok minden demonstrálható rajta, de tudjuk, van intuíciónk róla, hogyan működik Egyenes

Részletesebben

Példák jellemzőkre: - minden pixelérték egy jellemző pl. neurális hálózat esetében csak kis képekre, nem invariáns sem a megvilágításra, sem a geom.

Példák jellemzőkre: - minden pixelérték egy jellemző pl. neurális hálózat esetében csak kis képekre, nem invariáns sem a megvilágításra, sem a geom. Lépések 1. tanító és teszt halmaz összeállítása / megszerzése 2. jellemzők kinyerése 3. tanító eljárás választása Sok vagy kevés adat áll-e rendelkezésünkre? Mennyi tanítási idő/memória áll rendelkezésre?

Részletesebben

Mérési útmutató. Széchenyi István Egyetem Távközlési Tanszék. SDR rendszer vizsgálata. Labor gyakorlat 1 (NGB_TA009_1) laboratóriumi gyakorlathoz

Mérési útmutató. Széchenyi István Egyetem Távközlési Tanszék. SDR rendszer vizsgálata. Labor gyakorlat 1 (NGB_TA009_1) laboratóriumi gyakorlathoz Széchenyi István Egyetem Távközlési Tanszék Mérési útmutató Labor gyakorlat 1 (NGB_TA009_1) laboratóriumi gyakorlathoz SDR rendszer vizsgálata Készítette: Budai Tamás BSc hallgató, Unger Tamás István BSc

Részletesebben

Modellkiválasztás és struktúrák tanulása

Modellkiválasztás és struktúrák tanulása Modellkiválasztás és struktúrák tanulása Szervezőelvek keresése Az unsupervised learning egyik fő célja Optimális reprezentációk Magyarázatok Predikciók Az emberi tanulás alapja Általános strukturális

Részletesebben

Flynn féle osztályozás Single Isntruction Multiple Instruction Single Data SISD SIMD Multiple Data MISD MIMD

Flynn féle osztályozás Single Isntruction Multiple Instruction Single Data SISD SIMD Multiple Data MISD MIMD M5-. A lineáris algebra párhuzamos algoritmusai. Ismertesse a párhuzamos gépi architektúrák Flynn-féle osztályozását. A párhuzamos lineáris algebrai algoritmusok között mi a BLAS csomag célja, melyek annak

Részletesebben

TARTALOMJEGYZÉK. TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS A lágy számításról A könyv célkitűzése és felépítése...

TARTALOMJEGYZÉK. TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS A lágy számításról A könyv célkitűzése és felépítése... TARTALOMJEGYZÉK TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS...1 1. A lágy számításról...2 2. A könyv célkitűzése és felépítése...6 AZ ÖSSZETEVŐ LÁGY RENDSZEREK...9 I. BEVEZETÉS...10 3. Az összetevő

Részletesebben

Szögi Viktória Rózsa. Szövegfeldolgozás gépi tanulási módszerekkel. Szakdolgozat. Témavezető: Lukács András

Szögi Viktória Rózsa. Szövegfeldolgozás gépi tanulási módszerekkel. Szakdolgozat. Témavezető: Lukács András EÖTVÖS LORÁD TUDOMÁYEGYETEM TERMÉSZETTUDOMÁYI KAR Szögi Viktória Rózsa Alkalmazott matematikus mesterképzés Számítástudomány szakirány Szövegfeldolgozás gépi tanulási módszerekkel Szakdolgozat Témavezető:

Részletesebben

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363 1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái 288/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák

Részletesebben

Szabó Attila Dániel. Valósidejű intrúder felismerés UAV környezetben

Szabó Attila Dániel. Valósidejű intrúder felismerés UAV környezetben Budapesti Műszaki és Gazdaságtudományi Egyetem Villamosmérnöki és Informatikai Kar Automatizálási és Alkalmozott Informatikai Tanszék Szabó Attila Dániel Valósidejű intrúder felismerés UAV környezetben

Részletesebben

Rendszámfelismerő rendszerek

Rendszámfelismerő rendszerek Problémamegoldó szeminárium Témavezető: Pataki Péter ARH Zrt. ELTE-TTK 2013 Tartalomjegyzék 1 Bevezetés 2 Út a megoldás felé 3 Felmerült problémák 4 Alkalmazott matematika 5 További lehetőségek Motiváció

Részletesebben

Operációs rendszerek 1.

Operációs rendszerek 1. Operációs rendszerek 1. Szűrőprogramok Balla Tibor balla.tibor@inf.unideb.hu Standard bemenet és kimenet Standard bemenet (stdin,0) Standard kimenet (stdout,1) Standard hibakimenet (stderr,2) Átirányítás

Részletesebben

AKTUÁTOR MODELLEK KIVÁLASZTÁSA ÉS OBJEKTÍV ÖSSZEHASONLÍTÁSA

AKTUÁTOR MODELLEK KIVÁLASZTÁSA ÉS OBJEKTÍV ÖSSZEHASONLÍTÁSA AKTUÁTOR MODELLEK KIVÁLASZTÁSA ÉS OBJEKTÍV ÖSSZEHASONLÍTÁSA Kovács Ernő 1, Füvesi Viktor 2 1 Egyetemi docens, PhD; 2 tudományos segédmunkatárs 1 Eletrotechnikai és Elektronikai Tanszék, Miskolci Egyetem

Részletesebben

Digitális hangszintmérő

Digitális hangszintmérő Digitális hangszintmérő Modell DM-1358 A jelen használati útmutató másolása, bemutatása és terjesztése a Transfer Multisort Elektronik írásbeli hozzájárulását igényli. Használati útmutató Óvintézkedések

Részletesebben

A médiatechnológia alapjai

A médiatechnológia alapjai A médiatechnológia alapjai Úgy döntöttem, hogy a Szirányi oktatta előadások számonkérhetőnek tűnő lényegét kiemelem, az alapján, amit a ZH-ról mondott: rövid kérdések. A rész és az egész: összefüggések

Részletesebben

EÖTVÖS LORÁND TUDOMÁNYEGYETEM TERMÉSZETTUDOMÁNYI KAR. Objektum felismerés gépi tanulási módszereinek vizsgálata

EÖTVÖS LORÁND TUDOMÁNYEGYETEM TERMÉSZETTUDOMÁNYI KAR. Objektum felismerés gépi tanulási módszereinek vizsgálata EÖTVÖS LORÁND TUDOMÁNYEGYETEM TERMÉSZETTUDOMÁNYI KAR Objektum felismerés gépi tanulási módszereinek vizsgálata Szakdolgozat Bottyán Martin Matematika Bsc Matematikai elemzo szakirány Témavezeto Lukács

Részletesebben

Elektronika 2. TFBE1302

Elektronika 2. TFBE1302 Elektronika 2. FBE1302 áplálás FBE1302 Elektronika 2. Analóg elektronika Az analóg elektronikai alkalmazásoknál a részfeladatok többsége több alkalmazási területen is előforduló, közös feladat. Az ilyen

Részletesebben

SAT probléma kielégíthetőségének vizsgálata. masszív parallel. mesterséges neurális hálózat alkalmazásával

SAT probléma kielégíthetőségének vizsgálata. masszív parallel. mesterséges neurális hálózat alkalmazásával SAT probléma kielégíthetőségének vizsgálata masszív parallel mesterséges neurális hálózat alkalmazásával Tajti Tibor, Bíró Csaba, Kusper Gábor {gkusper, birocs, tajti}@aries.ektf.hu Eszterházy Károly Főiskola

Részletesebben

Hatékony konvolúciós neurális hálózat tervezése osztályozási problémákra

Hatékony konvolúciós neurális hálózat tervezése osztályozási problémákra Hatékony konvolúciós neurális hálózat tervezése osztályozási problémákra Formanek András - mérnök informatikus BSc 4. évf Konzulens: Hadházi Dániel Méréstechnika és Információs Rendszerek Tanszék Budapest,

Részletesebben

Pontfelhő létrehozás és használat Regard3D és CloudCompare nyílt forráskódú szoftverekkel. dr. Siki Zoltán

Pontfelhő létrehozás és használat Regard3D és CloudCompare nyílt forráskódú szoftverekkel. dr. Siki Zoltán Pontfelhő létrehozás és használat Regard3D és CloudCompare nyílt forráskódú szoftverekkel dr. Siki Zoltán siki.zoltan@epito.bme.hu Regard3D Nyílt forráskódú SfM (Structure from Motion) Fényképekből 3D

Részletesebben

Mesterséges Intelligencia Elektronikus Almanach. MI Almanach projektismertetı rendezvény április 29., BME, I. ép., IB.017., 9h-12h.

Mesterséges Intelligencia Elektronikus Almanach. MI Almanach projektismertetı rendezvény április 29., BME, I. ép., IB.017., 9h-12h. Mesterséges Intelligencia Elektronikus Almanach Neurális hálózatokh 1 BME 1990: Miért neurális hálók? - az érdeklıdésünk terébe kerül a neurális hálózatok témakör - fıbb okok: - adaptív rendszerek - felismerési

Részletesebben

A MESTERSÉGES NEURONHÁLÓZATOK BEVEZETÉSE AZ OKTATÁSBA A GAMF-ON

A MESTERSÉGES NEURONHÁLÓZATOK BEVEZETÉSE AZ OKTATÁSBA A GAMF-ON A MESTERSÉGES NEURONHÁLÓZATOK BEVEZETÉSE AZ OKTATÁSBA A GAMF-ON Pintér István, pinter@gandalf.gamf.hu Nagy Zoltán Gépipari és Automatizálási Mûszaki Fõiskola, Informatika Tanszék Gépipari és Automatizálási

Részletesebben

2. Gyakorlat Khoros Cantata

2. Gyakorlat Khoros Cantata 2. Gyakorlat Khoros Cantata Ismerkedés a Khoros Cantata-val: A Khoros Cantata egy képfeldolgozó műveletsorok készítésére szolgáló program. A műveleteket csővezetékszerűen lehet egymás után kötni. A műveleteket

Részletesebben

Neurális Hálók. és a Funkcionális Programozás. Berényi Dániel Wigner GPU Labor

Neurális Hálók. és a Funkcionális Programozás. Berényi Dániel Wigner GPU Labor Neurális Hálók és a Funkcionális Programozás Berényi Dániel Wigner GPU Labor Alapvető építőkövek Függvény kompozíció Automatikus Differenciálás (AD) 2 Neurális Háló, mint kompozíció Bemenetek Súlyok w

Részletesebben