Osztályozási feladatok képdiagnosztikában. Orvosi képdiagnosztikai 2017 ősz
|
|
- Boglárka Nemes
- 5 évvel ezelőtt
- Látták:
Átírás
1 Osztályozási feladatok képdiagnosztikában Orvosi képdiagnosztikai 2017 ősz
2 Osztályozás Szeparáló felületet keresünk Leképezéseket tanulunk meg azok mintáiból A tanuláshoz használt minták a tanító minták / pontok A leképezés folytonos / diszkrét bementből képez diszkrét és véges számú halmazba f x i di, d 1,2,, i k : i 1,2,..., P Feltételezhetünk még bemeneti / kimeneti zajt: f f x i d b, i k, i i szerint lehet lineáris / paramétereiben lineáris / nemlineáris
3 Terminológia, jelölések Osztályozó: N f : R 1,2,..., d Veszteségfüggvény (loss function, hibafüggvény) L d, y log p y d általában közvetlenül definiáljuk p kihagyásával Tanítás: st.. Tapasztalati kockázat: min. R w E L d, f x, w x, d D w w, x, w Remp L di f i i
4 Orvosi Döntéstámogató Rendszerek Computer Aided Detection Cél a leletezések specificitásának, és érzékenységének a növelése Számos megbetegedés esetén már jóval annak diagnosztizálása előtt láthatóak annak jelei Megvalósításuk tanuló rendszerrel történik Klasszikus megközelítés: probléma specifikus jel / képfeldolgozás állítja elő az osztályozás bemeneteit Újabb megközelítés: kimarad a manuális jelfeldolgozás, az MI-re bízzuk a teljes folyamatot
5 Empirikus kockázatminimalizálás Elv: a tapasztalati kockázat (tanítóminták osztályozási hibájának) minimalizálásával minimalizálható a kockázat (valódi minták osztályozási hibája), ha közben rögzítjük az osztályozó VC-dimenzióját: Osztályozó hibája 1 valószínűséggel ( h) 4 Remp ( w) R( w) Remp ( w) 1 2 ( h) l: tanítópontok száma h: osztályozó VC dimenziója (osztályozó komplexitása) ˆf : megtanult leképezés (ln (2 / ) 1) ln ( / 4) ( h) 4 h l h l D : mintákat generáló eloszlás
6 Empirikus kockázatminimalizálás Fontos, hogy ugyanazon háttéreloszlás mintái adják az éles (valódi) és a tanítómintákat VC dimenzió: Maximum hány olyan tetszőleges elrendezésű és osztályozású mintapont létezik, melyet az osztályozó képes hibátlanul (adott osztályozás szerint) szeparálni. Cél a kockázat ( R( w) Azon belül is leginkább MAP becslés ) minimalizálása inverz probléma Likelihood tag: tanítóminták osztályozási hibáját bünteti Regularizációs tag: osztályozó VC dimenzióját bünteti
7 Osztályozók általánosítási hibája Lényegében ( w) ( w) : R R emp Tanítóminták számának növelésével csökken VC dimenzió növekedésével nő várható kockázat R(w* l) tapasztalati kockázat R emp (w* l) min R(w)=R(w 0 ) l
8 Példák osztályozókra Lineáris / Kernel diszkrimináns analízis Rosenbladt perceptron Adaline Neurális háló (MLP multi layer perceptron) Bázisfüggvényes lineáris hálók (pl. RBF, CMAC) Mély neurális hálók Konvolúciós neurális hálók
9 Lineáris (Fischer) diszkrimináns analízis Cél olyan vetítőirány keresése, mely mentén maximális C w k1,2 ipk T w m2 m1 2 T w xi mk 2 m k E ip k x i Vezessük be az alábbi jelöléseket: S m m m m B T S x m x m k Wk i k i k ip T S W k S Wk
10 Lineáris (Fischer) diszkrimináns analízis Egy Rayleigh hányadost minimalizálnunk arg max T T 1 w SBw w SW S Bw arg max T T w SW w w w T max. w S Ekvivalens optimalizálási probléma Lagrange duális nyeregpontjában: 1 W T S w st.. ww1 S S w w 1 W B Tehát a legkisebb sajátérték, meg hozzátartozó sajátvektor a megoldás (gyakorlatban azonban nem szükséges a sajátérték egyenlet megoldása) B
11 Lineáris (Fischer) diszkrimináns analízis Tekinthető a PCA osztályozási feladatokra adekvát változatának is ez is dimenziót redukál
12 Adaptív lineáris neuron Négyzetes veszteségfüggvény alkalmazásával y Xw ; ; Analitikus megoldás: x x x n X emp Ha jobb általánosító képességet akarunk: Csonkoljuk X 1 VΛ U esetén a szinguláris értékeket Folytonos átmenete Thikhonov regularizáció: T T X X X I X 1 T R w d Xw T w X d X X X T d 1 2 2
13 Adaptív lineáris neuron Iteratív optimalizáció Least Mean Squares Pillanatnyi négyzetes hiba: 2 i( k) 2 T w x w C k k d i(k) k Sztochasztikus Gradiens optimalizáció μ-lms Négyzetes hiba gradiensét a pillanatnyi négyzetes hiba gradiensével becsüljük: k 1 k C k k 2 k w w w w k SGD kondicionálással α-lms k w k w k x ik x 1 T xi k i k 0 2
14 Bázisfüggvényes osztályozók Problémák nagy része nem lineárisan szeparábilis. Paramétereiben lineáris, nemlineáris osztályozók: f x, w x w T y Lényegében (ú.n. jellemzőtérbe transzformáló leképezés) határozza meg, hogy mire képes az osztályozó is tanulható (pl. OLS eljárás RBF hálók esetén) Ha nem inkonzisztensek a tanítóminták, akkor mindig létezik olyan, mellyel lineárisan szeparábilis a probléma Cserébe baj lehet a VC dimenzióval / háló általánosító képességével
15 Szupport vektor gépek Keressük az alábbi szeparáló síkot: T min. 1 2 w w T s. t. d w x b 1 i Lényegében Thikhonov regularizálunk (hasonlóan, ahogy azt az SART / SIRT-nél tettük) Lagrange duális alapján: Megússzuk definiálását T Helyette K x, x x x i i úgynevezett kernelt kell definiálnunk (Kernel trükk) Végtelen dimenziós is lehet véges VC dimenzió mellett i
16 Szupport vektor gép kernel leképezése x (x) K(x,x i )= T (x) (x i ) szeparáló görbe szeparáló sík szeparáló egyenes bemeneti tér jellemzőtér kernel tér w w w,..., T x x,..., x 0, 1 M j0 w M kernel trükk y wj j x w T x 0, 1 M T
17 Szupport vektor gépek - gyengítés Keressük az alábbi szeparáló síkot: T T min. 1 2 w w c 1 ξ T i i s. t. d w x b 1 ξ ξ i Megengedjük, hogy bizonyos minták belógjanak a margóba, esetleg rosszul osztályozzuk őket c lényegében egy trade off szabályozó az empirikus kockázat 2 (likelihood tag, gyengítő változó ), és a regularizációs ( w ) 2 tag súlya között. Lényegében R( w) tagjainak súlyát szabályozzuk P margó
18 Többrétegű Perceptron (MLP) Klasszikus neurális hálónak is hívják Egy neuron felépítése: Nem linearitásokra példák: Pl. tanh, Logisztikus szigmoid ( 1 1exp s ) Kritérium, hogy gradiens módszeres optimalizációnál (hiba visszaterjesztésnek hívjuk) ne sikkassza el a hibát
19 Többrétegű Perceptron (MLP) Hány rejtett réteg legyen Egy darab elegendően sok (de véges számú) neuronnal elég univerzális apprixomátor Mostanában mégis az 1-nél jóval több a népszerű Összetettebb leképezésekhez így kevesebb neuron elég Eltérő típusú rejtett rétegek Egy rétegen belül hány neuron legyen Elegendően sok a problémához De ne legyen túl sok Túl sok szabad paraméter, nagyobb VC dimmenzió
20 MLP tanítása Korai leállás (a túltanulás elkerüléséért): C Validációs hiba alakulása a tanítási lépések számának függvényében Tanítási hiba Optimális leállítási pont Tanítási ciklusok száma
21 Ellaposodó / felrobbanó hibafelület MLP hibafelület példa (1)
22 MLP hibafelület példa (2) Sok a lokális szélsőérték
23 Objektum / mintafelismerés megközelítése
24 Konvolúciós neurális hálózat (CNN) Alapötlet a szűrőkernelt is tanulja meg a háló: Így nem kell megtippelni, hogy mi alapján ismerünk fel egy adott objektumot A neurális háló bizonyos rétegei LSI lineáris rendszerek kernelét tanulják Cserébe nagy idő és memória igény: Mélyebb hálók kisebb kernel is elég Viszont a klasszikus MLP-nél használt nem-linearitások elnyelik a hibát Újítás nem-linearitások:
25 CNN 4 különböző típusú réteg: Konvolúciós: kernelt tanul (tipikusan 3 3, 5 5) Paraméterek: kernel méret, stride, kép szélének kezelése Nem-linearitás: ReLU, szivárgó ReLU, zajos ReLU, MaxOut, Pooling: szűrt képek alul-mintavételezése Általában nemlineáris (maximum pooling) Paraméterek számát korlátozza, de a bijektív jelleg biztosan elveszik jelentősen nehezíti az interpretációt Fully Connected Layer: klasszikus MLP Osztálycímkéket ettől várjuk
26 CNN példák
27 CNN példák Bemenet: dimenziós a neuronok száma a háló további rétegeiben: ; ; ; ; ; 4096;4096; 1000.
28 CNN példák
29 CNN regularizáció - dropout Implicit regularizáció Dropout: P valószínűséggel kihagyja a neuronokat adott epoch-ban Robosztus, redundáns hálót hoz létre. Ennyire sok paraméternél hatásosabb a konvencionális módnál Kieszközöli, hogy olyan feature-öket tanuljon a háló, melyek használhatóak akkor is, ha bizonyos feature-ök hiányoznak. Könnyen számolható Elméleti oldalról paraméter megosztásos szakértő együttest generál Gyakorlatban P=0,5 esetén duplázza a konvergenciához szükséges iteráció számot.
30 CNN regularizáció - dropout Tanulási görbékre gyakorolt hatás:
31 CNN tanítása SGD, illetve annak különböző variánsai Sztochasztikus jelleg a mini-batch-ből következik: tanító minták egy részhalmaza alapján becsli adott epochban a háló hibáját Nagy rétegszám jelentősen le tud lassulni a tanulás kedvezőtlen inicializáció esetén Batch normalizáció: Minden réteg bemenetét 0 várható értékűvé, 1 szórásúvá transzformálja, majd ez alapján módosítja a hálót elkerülhető a gradiens eltűnés / robbanás Jelentősen gyorsítja a konvergenciát
32 CNN tanítása transfer learning Sok paraméterhez sok tanítóminta szükséges lsd. R w majorálása Alacsonyabban lévő rétegek kis absztrakciójú jellemzőket detektálnak (pl. él, sarokpont. stb.) A probléma specifikusabb jellemzők az FC réteg bemenetének közelében állnak elő Transfer learning: Csak az FC-t tanítjuk, jellemző kiemelő rétegek paramétereit más (több mintás) problémára tanítjuk Fine tuning: Csak a kimenethez közeli jellemző kiemelő rétegeket tanítjuk Minta augmentáció: Olyan torzításokkal generálunk még mintákat, melyekre irreleváns osztályozást várunk el (pl. elforgatás, stb.).
33 Optimalizáló eljárások Másodrendű módszerek: Newton módszer: hibafüggvény lokális másodfokú közelítését minimalizálja iterációnként Kvázi Newton módszer: Hesse mátrixot / annak invertálását csak közelíti (pl. BFGS, L-BFGS) Levenberg Marquardt: regularizált Newton / két megközelítés kombinációja Elsőrendű módszerek: Konjugált gradiens: konjugált irányú hibajavítás, (kvadratikus függvény esetén másodrendű módszer) Nesterov Momentumos / adaptív gradient descent eljárások Sztochasztikus gradiensek esetén hatékonyabbak
34 Elsőrendű optimalizáló eljárások Rosszul kondícionált hibafelületek bajban a GD: Ellaposodó platók / hirtelen letörések Erősen nem izotropikus felületek w2 w1
35 Elsőrendű optimalizáló eljárások Ötlet: szűrjük a súlymódosító vektorokat Momentum alapú módszerek simítja a lépés irányát az iterációk felett (tehetetlenségi szemléltetés) Nesterov momentum asszimptotikusan optimális elsőrendű eljárás, ha gradienst és nem sztochasztikus gradienst használunk (tehát itt általában nem az) Adagrad / RMSProp: átlagolja az elmúlt iterációkon belüli paraméter módosításokat Adaptive Momentum (Adam): kombinálja az előző két módszert
36 Elsőrendű optimalizáló eljárások
Neurális hálók tanítása során alkalmazott optimalizáció
Neurális hálók tanítása során alkalmazott optimalizáció Háló paramétereinek tanulása Lényegében egy szélsőérték keresési feladat: θ: háló paramétereinek vektora X: tanító minták bemeneteiből képzett mátrix
RészletesebbenRegresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.
Regresszió Csorba János Nagyméretű adathalmazok kezelése 2010. március 31. A feladat X magyarázó attribútumok halmaza Y magyarázandó attribútumok) Kérdés: f : X -> Y a kapcsolat pár tanítópontban ismert
RészletesebbenIntelligens orvosi műszerek VIMIA023
Intelligens orvosi műszerek VIMIA023 Neurális hálók (Dobrowiecki Tadeusz anyagának átdolgozásával) 2017 ősz http://www.mit.bme.hu/oktatas/targyak/vimia023 dr. Pataki Béla pataki@mit.bme.hu (463-)2679 A
RészletesebbenLineáris regressziós modellek 1
Lineáris regressziós modellek 1 Ispány Márton és Jeszenszky Péter 2016. szeptember 19. 1 Az ábrák C.M. Bishop: Pattern Recognition and Machine Learning c. könyvéből származnak. Tartalom Bevezető példák
RészletesebbenTanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,
RészletesebbenBudapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók Előadó: Előadás anyaga: Hullám Gábor Pataki Béla Dobrowiecki Tadeusz BME I.E. 414, 463-26-79
RészletesebbenKonvolúciós neurális hálózatok (CNN)
Konvolúciós neurális hálózatok (CNN) Konvolúció Jelfeldolgozásban: Diszkrét jelek esetén diszkrét konvolúció: Képfeldolgozásban 2D konvolúció (szűrők): Konvolúciós neurális hálózat Konvolúciós réteg Kép,
RészletesebbenKeresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Keresés képi jellemzők alapján Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Lusta gépi tanulási algoritmusok Osztályozás: k=1: piros k=5: kék k-legközelebbi szomszéd (k=1,3,5,7)
RészletesebbenSzámítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Számítógépes képelemzés 7. előadás Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Momentumok Momentum-alapú jellemzők Tömegközéppont Irányultáság 1 2 tan 2 1 2,0 1,1 0, 2 Befoglaló
RészletesebbenLeast Squares becslés
Least Squares becslés A négyzetes hibafüggvény: i d i ( ) φx i A négyzetes hibafüggvény mellett a minimumot biztosító megoldás W=( d LS becslés A gradiens számítása és nullává tétele eredményeképp A megoldás
RészletesebbenOsztályozás képdiagnosztikánál
Osztályozás képdiagnosztikánál Osztályozás Elválasztó felület keresése Input-output leképezés ismert osztályú (tanító) pontok alapján x, d P d 1,2,..., k i i i1 i Lineáris Paramétereiben lineáris, de nemlineáris
RészletesebbenMit látnak a robotok? Bányai Mihály Matemorfózis, 2017.
Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017. Vizuális feldolgozórendszerek feladatai Mesterséges intelligencia és idegtudomány Mesterséges intelligencia és idegtudomány Párhuzamos problémák
RészletesebbenNeurális hálózatok bemutató
Neurális hálózatok bemutató Füvesi Viktor Miskolci Egyetem Alkalmazott Földtudományi Kutatóintézet Miért? Vannak feladatok amelyeket az agy gyorsabban hajt végre mint a konvencionális számítógépek. Pl.:
RészletesebbenI. LABOR -Mesterséges neuron
I. LABOR -Mesterséges neuron A GYAKORLAT CÉLJA: A mesterséges neuron struktúrájának az ismertetése, neuronhálókkal kapcsolatos elemek, alapfogalmak bemutatása, aktivációs függvénytípusok szemléltetése,
RészletesebbenE x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes)
6-7 ősz. gyakorlat Feladatok.) Adjon meg azt a perceptronon implementált Bayes-i klasszifikátort, amely kétdimenziós a bemeneti tér felett szeparálja a Gauss eloszlású mintákat! Rajzolja le a bemeneti
RészletesebbenPIXEL SZINTŰ SZEGMENTÁLÁS CNN-EL
PIXEL SZINTŰ SZEGMENTÁLÁS CNN-EL Csúszóablakos szegmentálás Szegmentálás direkt osztályozással Kisméretű ablakkal kivágott kép alapján megítéli az adott pixel környezetének a típusát Nagyon lassú, nehezen
RészletesebbenGépi tanulás a gyakorlatban. Lineáris regresszió
Gépi tanulás a gyakorlatban Lineáris regresszió Lineáris Regresszió Legyen adott egy tanuló adatbázis: Rendelkezésünkre áll egy olyan előfeldolgozott adathalmaz, aminek sorai az egyes ingatlanokat írják
RészletesebbenTARTALOMJEGYZÉK. TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS A lágy számításról A könyv célkitűzése és felépítése...
TARTALOMJEGYZÉK TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS...1 1. A lágy számításról...2 2. A könyv célkitűzése és felépítése...6 AZ ÖSSZETEVŐ LÁGY RENDSZEREK...9 I. BEVEZETÉS...10 3. Az összetevő
RészletesebbenIntelligens Rendszerek Gyakorlata. Neurális hálózatok I.
: Intelligens Rendszerek Gyakorlata Neurális hálózatok I. dr. Kutor László http://mobil.nik.bmf.hu/tantargyak/ir2.html IRG 3/1 Trend osztályozás Pnndemo.exe IRG 3/2 Hangulat azonosítás Happy.exe IRG 3/3
RészletesebbenGépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)
Gépi tanulás Hány tanítómintára van szükség? VKH Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Induktív tanulás A tanítás folyamata: Kiinduló
RészletesebbenDeep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök
Gyires-Tóth Bálint Deep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök http://smartlab.tmit.bme.hu Deep Learning Híradó Hírek az elmúlt 168 órából Deep Learning Híradó Google
Részletesebben[1000 ; 0] 7 [1000 ; 3000]
Gépi tanulás (vimim36) Gyakorló feladatok 04 tavaszi félév Ahol lehet, ott konkrét számértékeket várok nem puszta egyenleteket. (Azok egy részét amúgyis megadom.). Egy bináris osztályozási feladatra tanított
RészletesebbenSupport Vector Machines
Support Vector Machnes Ormánd Róbert MA-SZE Mest. Int. Kutatócsoport 2009. február 17. Előadás vázlata Rövd bevezetés a gép tanulásba Bevezetés az SVM tanuló módszerbe Alapötlet Nem szeparálható eset Kernel
RészletesebbenKonjugált gradiens módszer
Közelítő és szimbolikus számítások 12. gyakorlat Konjugált gradiens módszer Készítette: Gelle Kitti Csendes Tibor Vinkó Tamás Faragó István Horváth Róbert jegyzetei alapján 1 LINEÁRIS EGYENLETRENDSZEREK
RészletesebbenGépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés
Gépi tanulás a gyakorlatban Kiértékelés és Klaszterezés Hogyan alkalmazzuk sikeresen a gépi tanuló módszereket? Hogyan válasszuk az algoritmusokat? Hogyan hangoljuk a paramétereiket? Precízebben: Tegyük
RészletesebbenBevezetés a neurális számításokba Analóg processzortömbök,
Pannon Egyetem Villamosmérnöki és Információs Tanszék Bevezetés a neurális számításokba Analóg processzortömbök, neurális hálózatok Előadó: dr. Tömördi Katalin Neurális áramkörök (ismétlés) A neurális
RészletesebbenIntelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban
Intelligens Rendszerek Elmélete : dr. Kutor László Versengéses és önszervező tanulás neurális hálózatokban http://mobil.nik.bmf.hu/tantargyak/ire.html Login név: ire jelszó: IRE07 IRE 9/1 Processzor Versengéses
RészletesebbenKernel módszerek. 7. fejezet
7. fejezet Kernel módszerek Ebben a fejezetben olyan tanuló rendszerekkel foglalkozunk, amelyek a válaszokat ún. kernel függvények (vagy magfüggvények) súlyozott összegeként állítják elő. A megközelítés
RészletesebbenNumerikus módszerek 1.
Numerikus módszerek 1. 10. előadás: Nemlineáris egyenletek numerikus megoldása Lócsi Levente ELTE IK 2013. november 18. Tartalomjegyzék 1 Bolzano-tétel, intervallumfelezés 2 Fixponttételek, egyszerű iterációk
RészletesebbenFEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 8 VIII. REGREssZIÓ 1. A REGREssZIÓs EGYENEs Két valószínűségi változó kapcsolatának leírására az eddigiek alapján vagy egy numerikus
RészletesebbenTanulás az idegrendszerben
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Funkcióvezérelt modellezés Abból indulunk ki, hogy milyen feladatot valósít meg a rendszer Horace Barlow: "A
RészletesebbenNumerikus matematika vizsga
1. Az a = 2, t = 4, k = 3, k + = 2 számábrázolási jellemzők mellett hány pozitív, normalizált lebegőpontos szám ábrázolható? Adja meg a legnagyobb ábrázolható számot! Mi lesz a 0.8-hoz rendelt lebegőpontos
RészletesebbenGoogle Summer of Code Project
Neuronhálózatok a részecskefizikában Bagoly Attila ELTE TTK Fizikus MSc, 2. évfolyam Integrating Machine Learning in Jupyter Notebooks Google Summer of Code Project 2016.10.10 Bagoly Attila (ELTE) Machine
RészletesebbenFELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE
FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE Dr. Aradi Szilárd, Fehér Árpád Mesterséges intelligencia kialakulása 1956 Dartmouth-i konferencián egy maroknyi tudós megalapította a MI területét
RészletesebbenDiagnosztika, statisztikai döntések, hipotézisvizsgálat, osztályozás
Diagnosztika, statisztikai döntések, hipotézisvizsgálat, osztályozás Orvosi képdiagnosztika Diagnosztika = egy rendszer állapotának meghatározása a rendszerről rendelkezésre álló mérések, megfigyelések
RészletesebbenKernel gépek vizsgálata
Kernel gépek vizsgálata Lágler Krisztián 2011. május 12. FYMGQ8 Konzulens : Dr. Horváth Gábor 1 Tartalomjegyzék 1. Feladat kiírás 3 1.1. A kernelfüggvény hiperparamétereinek megválasztása..... 3 2. Bevezetés
RészletesebbenSajátértékek és sajátvektorok. mf1n1a06- mf1n2a06 Csabai István
Sajátértékek és sajátvektorok A fizika numerikus módszerei I. mf1n1a06- mf1n2a06 Csabai István Lineáris transzformáció Vektorok lineáris transzformációja: általános esetben az x vektor iránya és nagysága
RészletesebbenNEURONHÁLÓK ÉS TANÍTÁSUK A BACKPROPAGATION ALGORITMUSSAL. A tananyag az EFOP pályázat támogatásával készült.
NEURONHÁLÓK ÉS TANÍTÁSUK A BACKPROPAGATION ALGORITMUSSAL A tananyag az EFOP-3.5.1-16-2017-00004 pályázat támogatásával készült. Neuron helyett neuronháló Neuron reprezentációs erejének növelése: építsünk
RészletesebbenNem-lineáris programozási feladatok
Nem-lineáris programozási feladatok S - lehetséges halmaz 2008.02.04 Dr.Bajalinov Erik, NyF MII 1 Elég egyszerű példa: nemlineáris célfüggvény + lineáris feltételek Lehetséges halmaz x 1 *x 2 =6.75 Gradiens
Részletesebben7. Előadás tartalma. Lineáris szűrők: Inverz probléma dekonvolúció: Klasszikus szűrők súly és átviteli függvénye Gibbs jelenség
7. Előadás tartalma Lineáris szűrők: Klasszikus szűrők súly és átviteli üggvénye Gibbs jelenség Inverz probléma dekonvolúció: Inverz probléma ormális elírása Dekonvolúció nehézsége Közismert algoritmusok:
RészletesebbenGyakorló feladatok. Agbeko Kwami Nutefe és Nagy Noémi
Gyakorló feladatok Agbeko Kwami Nutefe és Nagy Noémi 25 Tartalomjegyzék. Klasszikus hibaszámítás 3 2. Lineáris egyenletrendszerek 3 3. Interpoláció 4 4. Sajátérték, sajátvektor 6 5. Lineáris és nemlineáris
RészletesebbenKONVOLÚCIÓS NEURONHÁLÓK. A tananyag az EFOP pályázat támogatásával készült.
KONVOLÚCIÓS NEURONHÁLÓK A tananyag az EFOP-3.5.1-16-2017-00004 pályázat támogatásával készült. 1. motiváció A klasszikus neuronháló struktúra a fully connected háló Két réteg között minden neuron kapcsolódik
Részletesebben10. Előadás. 1. Feltétel nélküli optimalizálás: Az eljárás alapjai
Optimalizálási eljárások MSc hallgatók számára 10. Előadás Előadó: Hajnal Péter Jegyzetelő: T. Szabó Tamás 2011. április 20. 1. Feltétel nélküli optimalizálás: Az eljárás alapjai A feltétel nélküli optimalizálásnál
RészletesebbenA neurális hálózatok tanításának alapjai II.: Módszerek a túltanulás elkerülésére. Szoldán Péter
>ready to transmit A neurális hálózatok tanításának alapjai II.: Módszerek a túltanulás elkerülésére Szoldán Péter A hálózatnak nincs kontextusa Képzeljék el, hogy amióta megszülettek, semmit mást nem
RészletesebbenBabeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet
/ Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet / Tartalom 3/ kernelek segítségével Felügyelt és félig-felügyelt tanulás felügyelt: D =
RészletesebbenGépi tanulás a gyakorlatban SVM
Gépi tanulás a gyakorlatban SVM Klasszifikáció Feladat: előre meghatározott csoportok elkülönítése egymástól Osztályokat elkülönítő felület Osztályokhoz rendelt döntési függvények Klasszifikáció Feladat:
Részletesebben5. előadás - Regressziószámítás
5. előadás - Regressziószámítás 2016. október 3. 5. előadás 1 / 18 Kétváltozós eset A modell: Y i = α + βx i + u i, i = 1,..., T, ahol X i független u i -től minden i esetén, (u i ) pedig i.i.d. sorozat
RészletesebbenMesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás
Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás http:/uni-obuda.hu/users/kutor/ IRE 7/50/1 A neurális hálózatok általános jellemzői 1. A
Részletesebben1 Lebegőpontos számábrázolás
Tartalom 1 Lebegőpontos számábrázolás... 2 2 Vektornormák... 4 3 Indukált mátrixnormák és tulajdonságaik... 5 4 A lineáris rendszer jobboldala hibás... 6 5 A kondíciószám és tulajdonságai... 7 6 Perturbációs
RészletesebbenNemlineáris programozás 2.
Optimumszámítás Nemlineáris programozás 2. Többváltozós optimalizálás feltételek mellett. Lagrange-feladatok. Nemlineáris programozás. A Kuhn-Tucker feltételek. Konvex programozás. Sydsaeter-Hammond: 18.1-5,
RészletesebbenOptimalizálás alapfeladata Legmeredekebb lejtő Lagrange függvény Log-barrier módszer Büntetőfüggvény módszer 2017/
Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatikai Intézet Számítógépes Optimalizálás Tanszék 9. Előadás Az optimalizálás alapfeladata Keressük f függvény maximumát ahol f : R n R és
RészletesebbenNeurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL
Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL TULICS@TMIT.BME.HU Példa X (tanult órák száma, aludt órák száma) y (dolgozaton elért pontszám) (5, 8) 80 (3, 5) 78 (5, 1) 82 (10, 2) 93 (4, 4)
RészletesebbenFEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 10 X. SZIMULÁCIÓ 1. VÉLETLEN számok A véletlen számok fontos szerepet játszanak a véletlen helyzetek generálásában (pénzérme, dobókocka,
RészletesebbenTanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,
RészletesebbenTanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok
Zrínyi Miklós Gimnázium Művészet és tudomány napja Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok 10/9/2009 Dr. Viharos Zsolt János Elsősorban volt Zrínyis diák Tudományos főmunkatárs
RészletesebbenPrincipal Component Analysis
Principal Component Analysis Principal Component Analysis Principal Component Analysis Definíció Ortogonális transzformáció, amely az adatokat egy új koordinátarendszerbe transzformálja úgy, hogy a koordináták
RészletesebbenNeurális hálózatok.... a gyakorlatban
Neurális hálózatok... a gyakorlatban Java NNS Az SNNS Javás változata SNNS: Stuttgart Neural Network Simulator A Tübingeni Egyetemen fejlesztik http://www.ra.cs.unituebingen.de/software/javanns/ 2012/13.
RészletesebbenAdatbányászati szemelvények MapReduce környezetben
Adatbányászati szemelvények MapReduce környezetben Salánki Ágnes salanki@mit.bme.hu 2014.11.10. Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs Rendszerek Tanszék Felügyelt
RészletesebbenACM Snake. Orvosi képdiagnosztika 11. előadás első fele
ACM Snake Orvosi képdiagnosztika 11. előadás első fele ACM Snake (ismétlés) A szegmentáló kontúr egy paraméteres görbe: x Zs s X s, Y s,, s A szegmentáció energia funkcionál minimalizálása: E x Eint x
RészletesebbenA maximum likelihood becslésről
A maximum likelihood becslésről Definíció Parametrikus becsléssel foglalkozunk. Adott egy modell, mellyel elképzeléseink szerint jól leírható a meghatározni kívánt rendszer. (A modell típusának és rendszámának
RészletesebbenFeladatok a Gazdasági matematika II. tárgy gyakorlataihoz
Debreceni Egyetem Közgazdaságtudományi Kar Feladatok a Gazdasági matematika II tárgy gyakorlataihoz a megoldásra ajánlott feladatokat jelöli e feladatokat a félév végére megoldottnak tekintjük a nehezebb
RészletesebbenDifferenciálegyenletek numerikus megoldása
a Matematika mérnököknek II. című tárgyhoz Differenciálegyenletek numerikus megoldása Fokozatos közeĺıtés módszere (1) (2) x (t) = f (t, x(t)), x I, x(ξ) = η. Az (1)-(2) kezdeti érték probléma ekvivalens
RészletesebbenNumerikus matematika. Irodalom: Stoyan Gisbert, Numerikus matematika mérnököknek és programozóknak, Typotex, Lebegőpontos számok
Numerikus matematika Irodalom: Stoyan Gisbert, Numerikus matematika mérnököknek és programozóknak, Typotex, 2007 Lebegőpontos számok Normák, kondíciószámok Lineáris egyenletrendszerek Legkisebb négyzetes
RészletesebbenBudapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók 2. Pataki Béla
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók 2. Előadó: Hullám Gábor Pataki Béla BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki
RészletesebbenOpkut deníciók és tételek
Opkut deníciók és tételek Készítette: Bán József Deníciók 1. Deníció (Lineáris programozási feladat). Keressük meg adott lineáris, R n értelmezési tartományú függvény, az ún. célfüggvény széls értékét
RészletesebbenAlap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )
Budapesti Műszaki és Gazdaságtudományi Egyetem Gépészmérnöki Kar Hidrodinamikai Rendszerek Tanszék, Budapest, Műegyetem rkp. 3. D ép. 334. Tel: 463-6-80 Fa: 463-30-9 http://www.vizgep.bme.hu Alap-ötlet:
RészletesebbenOptimalizálási eljárások GYAKORLAT, MSc hallgatók számára. Analízis R d -ben
Optimalizálási eljárások GYAKORLAT, MSc hallgatók számára Analízis R d -ben Gyakorlatvezetõ: Hajnal Péter 2012. február 8 1. Konvex függvények Definíció. f : D R konvex, ha dom(f) := D R n konvex és tetszőleges
RészletesebbenA neurális hálók logisztikai alkalmazhatósága
Budapesti Műszaki és Gazdaságtudományi Egyetem Közlekedésmérnöki és Járműmérnöki Kar Anyagmozgatási és Logisztikai Rendszerek Tanszék Tóth Gergő RD7H5L A neurális hálók logisztikai alkalmazhatósága Tudományos
RészletesebbenGépi tanulás a gyakorlatban. Bevezetés
Gépi tanulás a gyakorlatban Bevezetés Motiváció Nagyon gyakran találkozunk gépi tanuló alkalmazásokkal Spam detekció Karakter felismerés Fotó címkézés Szociális háló elemzés Piaci szegmentáció analízis
Részletesebben1.1. Vektorok és operátorok mátrix formában
1. Reprezentáció elmélet 1.1. Vektorok és operátorok mátrix formában A vektorok és az operátorok mátrixok formájában is felírhatók. A végtelen dimenziós ket vektoroknak végtelen sok sort tartalmazó oszlopmátrix
RészletesebbenÚj típusú döntési fa építés és annak alkalmazása többtényezős döntés területén
Új típusú döntési fa építés és annak alkalmazása többtényezős döntés területén Dombi József Szegedi Tudományegyetem Bevezetés - ID3 (Iterative Dichotomiser 3) Az ID algoritmusok egy elemhalmaz felhasználásával
RészletesebbenHibadetektáló rendszer légtechnikai berendezések számára
Hibadetektáló rendszer légtechnikai berendezések számára Tudományos Diákköri Konferencia A feladatunk Légtechnikai berendezések Monitorozás Hibadetektálás Újrataníthatóság A megvalósítás Mozgásérzékelő
RészletesebbenGépi tanulás és Mintafelismerés
Gépi tanulás és Mintafelismerés jegyzet Csató Lehel Matematika-Informatika Tanszék BabesBolyai Tudományegyetem, Kolozsvár 2007 Aug. 20 2 1. fejezet Bevezet A mesterséges intelligencia azon módszereit,
RészletesebbenIdősor előrejelzés. Szórádi Júlia, BSc konzulens: Dr. Horváth Gábor. Önálló laboratórium (BMEVIMIA362) II. félév
Idősor előrejelzés Szórádi Júlia, BSc konzulens: Dr. Horváth Gábor Önálló laboratórium (BMEVIMIA362) 2010-11 II. félév IDŐSOR ELŐREJELZÉS Az idősor előrejelzés számos területen alapvető fontosságú feladat,
RészletesebbenIntelligens Rendszerek Elmélete
Intelligens Rendszerek Elmélete Dr. Kutor László : Mesterséges neurális hálózatok felügyelt tanítása hiba visszateresztő Back error Propagation algoritmussal Versengéses tanulás http://mobil.nik.bmf.hu/tantargyak/ire.html
RészletesebbenVisszacsatolt (mély) neurális hálózatok
Visszacsatolt (mély) neurális hálózatok Visszacsatolt hálózatok kimenet rejtett rétegek bemenet Sima előrecsatolt neurális hálózat Visszacsatolt hálózatok kimenet rejtett rétegek bemenet Pl.: kép feliratozás,
RészletesebbenBEKE ANDRÁS, FONETIKAI OSZTÁLY BESZÉDVIZSGÁLATOK GYAKORLATI ALKALMAZÁSA
BEKE ANDRÁS, FONETIKAI OSZTÁLY BESZÉDVIZSGÁLATOK GYAKORLATI ALKALMAZÁSA BESZÉDTUDOMÁNY Az emberi kommunikáció egyik leggyakrabban használt eszköze a nyelv. A nyelv hangzó változta, a beszéd a nyelvi kommunikáció
RészletesebbenIrányításelmélet és technika II.
Irányításelmélet és technika II. Legkisebb négyzetek módszere Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki és Információs Rendszerek Tanszék amagyar@almos.vein.hu 200 november
RészletesebbenÉldetektálás, szegmentálás (folytatás) Orvosi képdiagnosztika 11_2 ea
Éldetektálás, szegmentálás (folytatás) Orvosi képdiagnosztika 11_2 ea Geometrikus deformálható modellek Görbe evolúció Level set módszer A görbe evolúció parametrizálástól független mindössze geometriai
RészletesebbenGauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei
A Gauss-Jordan elimináció, mátrixinvertálás Gauss-Jordan módszer Ugyanazzal a technikával, mint ahogy a k-adik oszlopban az a kk alatti elemeket kinulláztuk, a fölötte lévő elemeket is zérussá lehet tenni.
RészletesebbenLineáris algebra zárthelyi dolgozat javítókulcs, Informatika I. 2005.márc.11. A csoport
Lineáris algebra zárthelyi dolgozat javítókulcs, Informatika I. 2005.márc.11. A csoport 1. Egy egyenesre esnek-e az A (2, 5, 1), B (5, 17, 7) és C (3, 9, 3) pontok? 5 pont Megoldás: Nem, mert AB (3, 12,
RészletesebbenA RADARJELEK DETEKTÁLÁSA NEURÁLIS HÁLÓZAT ALKALMAZÁSÁVAL
A RADARJELEK DETEKTÁLÁSA NEURÁLIS HÁLÓZAT ALKALMAZÁSÁVAL Dr. Ludányi Lajos mk. alezredes egyetemi adjunktus Zrínyi Miklós Nemzetvédelmi Egyetem Vezetés- és Szervezéstudományi Kar Fedélzeti Rendszerek Tanszék
Részletesebben6. Folytonosság. pontbeli folytonosság, intervallumon való folytonosság, folytonos függvények
6. Folytonosság pontbeli folytonosság, intervallumon való folytonosság, folytonos függvények Egy függvény egy intervallumon folytonos, ha annak miden pontjában folytonos. folytonos függvények tulajdonságai
RészletesebbenAz idegrendszeri memória modelljei
Az idegrendszeri memória modelljei A memória típusai Rövidtávú Working memory - az aktuális feladat Vizuális, auditórikus,... Prefrontális cortex, szenzorikus területek Kapacitás: 7 +-2 minta Hosszútávú
RészletesebbenNemlineáris modellek
Ferenci Tamás tamas.ferenci@medstat.hu 2018. február 7. Tartalom 1 2 3 4 A marginális hatás fogalma Marginális hatás: a magyarázó változó kis növelésének hatására mekkora az eredményváltozó egységnyi magyarázóváltozó-növelésre
RészletesebbenGépi tanulás. Féligellenőrzött tanulás. Pataki Béla (Bolgár Bence)
Gépi tanulás Féligellenőrzött tanulás Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Féligellenőrzött tanulás Mindig kevés az adat, de
Részletesebben5. elıadás március 22. Portfólió-optimalizálás
5. elıadás 203. március 22. Portfólió-optimalizálás Alapfeladat Cél: minél nagyobb várható hozam elérése De: közben a kockázat legyen minél kisebb Kompromisszum: elvárt hozamot érje el a várható érték
RészletesebbenFunkcionális konnektivitás vizsgálata fmri adatok alapján
Funkcionális konnektivitás vizsgálata fmri adatok alapján Képalkotási technikák 4 Log Resolution (mm) 3 Brain EEG & MEG fmri TMS PET Lesions 2 Column 1 0 Lamina -1 Neuron -2 Dendrite -3 Synapse -4 Mikrolesions
RészletesebbenSzinguláris értékek. Wettl Ferenc április 3. Wettl Ferenc Szinguláris értékek április 3. 1 / 28
Szinguláris értékek Wettl Ferenc 2015. április 3. Wettl Ferenc Szinguláris értékek 2015. április 3. 1 / 28 Tartalom 1 Szinguláris érték 2 Alkalmazások 3 Norma 4 Mátrixnorma Wettl Ferenc Szinguláris értékek
RészletesebbenTöbbváltozós lineáris regresszió 3.
Többváltozós lineáris regresszió 3. Orlovits Zsanett 2018. október 10. Alapok Kérdés: hogyan szerepeltethetünk egy minőségi (nominális) tulajdonságot (pl. férfi/nő, egészséges/beteg, szezonális hatások,
RészletesebbenFunkcionálanalízis. n=1. n=1. x n y n. n=1
Funkcionálanalízis 2011/12 tavaszi félév - 2. előadás 1.4. Lényeges alap-terek, példák Sorozat terek (Folytatás.) C: konvergens sorozatok tere. A tér pontjai sorozatok: x = (x n ). Ezen belül C 0 a nullsorozatok
RészletesebbenNeurális hálózatok MATLAB programcsomagban
Debreceni Egyetem Informatikai Kar Neurális hálózatok MATLAB programcsomagban Témavezető: Dr. Fazekas István Egyetemi tanár Készítette: Horváth József Programtervező informatikus Debrecen 2011 1 Tartalomjegyzék
RészletesebbenLegkisebb négyzetek módszere, Spline interpoláció
Közelítő és szimbolikus számítások 10. gyakorlat Legkisebb négyzetek módszere, Spline interpoláció Készítette: Gelle Kitti Csendes Tibor Somogyi Viktor Vinkó Tamás London András Deák Gábor jegyzetei alapján
RészletesebbenNumerikus módszerek II. zárthelyi dolgozat, megoldások, 2014/15. I. félév, A. csoport. x 2. c = 3 5, s = 4
Numerikus módszerek II. zárthelyi dolgozat, megoldások, 204/5. I. félév, A. csoport. Feladat. (6p) Alkalmas módon választva egy Givens-forgatást, határozzuk meg az A mátrix QR-felbontását! Oldjuk meg ennek
RészletesebbenMély konvolúciós neurális hálózatok. Hadházi Dániel BME IE 338
Mély konvolúciós neurális hálózatok Hadházi Dániel BME IE 338 hadhazi@mit.bme.hu ÚJ ARCHITEKTÚRÁLIS ELEMEK Konvolúciós réteg Motiváció: Klasszikus képfeldolgozásnál alapművelet a konvolúció: Zajszűrésre
RészletesebbenModellezés és szimuláció. Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék
Modellezés és szimuláció Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék Kvantitatív forradalmak a földtudományban - geográfiában 1960- as évek eleje: statisztika 1970- as évek eleje:
RészletesebbenBevezetés az algebrába 2 Vektor- és mátrixnorma
Bevezetés az algebrába 2 Vektor- és mátrixnorma Wettl Ferenc Algebra Tanszék B U D A P E S T I M Ű S Z A K I M A T E M A T I K A É S G A Z D A S Á G T U D O M Á N Y I I N T É Z E T E G Y E T E M 2016.
RészletesebbenA szimplex algoritmus
A szimplex algoritmus Ismétlés: reprezentációs tétel, az optimális megoldás és az extrém pontok kapcsolata Alapfogalmak: bázisok, bázismegoldások, megengedett bázismegoldások, degenerált bázismegoldás
RészletesebbenFourier térbeli analízis, inverz probléma. Orvosi képdiagnosztika 5-7. ea ősz
Fourier térbeli analízis, inverz probléma Orvosi képdiagnosztika 5-7. ea. 2017 ősz 5. Előadás témái Fourier transzformációk és kapcsolataik: FS, FT, DTFT, DFT, DFS Mintavételezés, interpoláció Folytonos
RészletesebbenMesterséges Intelligencia MI
Mesterséges Intellgenca MI Egyszerű döntés. Tanuljuk meg! Dobroweck Tadeusz Eredcs Péter, és mások BME I.E. 437, 463-28-99 dobroweck@mt.bme.hu, http://www.mt.bme.hu/general/staff/tade Neuron doktrna: S.
Részletesebben