Osztályozás képdiagnosztikánál

Méret: px
Mutatás kezdődik a ... oldaltól:

Download "Osztályozás képdiagnosztikánál"

Átírás

1 Osztályozás képdiagnosztikánál

2 Osztályozás Elválasztó felület keresése Input-output leképezés ismert osztályú (tanító) pontok alapján x, d P d 1,2,..., k i i i1 i Lineáris Paramétereiben lineáris, de nemlineáris Nemlineáris

3 Célfüggvény, kritérium függvény, objektív függvény, kockázat Veszteség függvény (loss function, hibafüggvény) minimumkeresés négyzetes hiba, kereszt entrópia L( d, f ( x, w)) d f ( w, x ) d y 2 2 i i i i i i i, xi, w i ln xi, w 1 i ln 1 xi, w Kockázat p(w,z) a paramétervektor és a megfigyelések együttes sűrűségfüggv. apasztalati kockázat (empirical risk) P 1 R ( w) d f ( w, x ) 2 E i i P i 1 L d f d f d f R w E L d, f x, w x, d R ( w) L( z, w) p( w, z) dz dw Egyéb objektív függvények (különbözőség, likelihood függvény, a posteriori sűrűségfüggvény) z, w

4 Az osztályozás minősítése R (risk) és R emp (empirical risk) kapcsolata R( w) R emp ( w) ( h) 2 1 4R emp ( h) ( w) h(ln (2l / h) 1) ln( / 4) 2 2 ( h) 4 h min R w, N 1, l Egy függvénykészlet a VC-dimenziója (h), ha létezik h olyan mintapont, melyeket a függvénykészlet elemeivel minden lehetséges módon be tudunk sorolni két osztály valamelyikébe (a h mintapontot minden lehetséges módon két színnel ki lehet színezni), de h+1 ilyen mintapont már nem létezik. A VC-dimenzió tehát az a maximális mintaszám, amit adott függvényosztály elemeivel hibátlanul particionálhatunk minden lehetséges módon. A VC-dimenzió egy függvényosztály komplexitásának egyfajta mértékeként is tekinthető.

5 Lineáris bináris osztályozás Optimális vetítési irány keresése Objektív függvény: különbözőség maximuma

6 LDA Optimális vetítési irány keresése LDA linear discriminant analysis: dimenzió redukció

7 LDA - KDA C( w) Kritérium függvény maximumkeresési feldat 2 m m 2 1 w m2 m1 m2 m1 w w SBw s s w x m x m w w x m x m w i 1 i 1 i 2 i 2 (1) ( 2) ic ic w S w w S w w S S w w S w W1 W 2 W1 W 2 W C( w) S B osztályok közötti S W osztályokon belüli

8 LDA optimális paraméter vektor w arg min w w SBw w SW w arg min w 1 w SWSBw w w Rayleigh hányados 1 W B B S S w w de ws w w m m m m w ezért 1 W S w m m m m w B S m m w

9 y Xw x 1 x 2 X x Analitikus megoldás Lineáris egyenletrenszer Mátrix invertálás A regularizació szerepe Lineáris osztályozás Lineáris modell, négyzetes hiba, csak a mintapontok P R ( w) ( d Xw) ( d Xw) Iteratív megoldás (gradiens módszer) w( k 1) w( k) μc( k). E w X d 1 X X X d -1 w X d X X I X d LS ( )

10 Lineáris osztályozás Egyenletek száma (P) Ismeretlenek száma (N) P<N Alulhatározott: végtelen számú megoldás (az N-P számú szabad paraméter tetszőlegesen megválasztható) P=N Van egyértelmű megoldás. Ha a lineáris egyenletek (az X mátrix sorai) lineárisan függetlenek, a mártix teljes rangú. P>N úlhatározott: Minden egyenletet kielégítő megoldás nem feltétlenül létezik. De LS értelemben lesz megoldás: Moore-Penrose inverz. Iteratív megoldásnál egy tartományon belül fog kóvályogni a megoldás. Példák a túlhatározott esetre : kétdimenziós (N=2), és P>2 mellett.

11 Gradiens módszerek (elsőrendű módszerek) Négyzetes hibafelület C 2 2 w( k) k dk x k wk ˆ C k 2 w k k 2 k xk. LMS algoritmus (-LMS) w ˆ k 1 wk μck wk 2μ k xk -LMS ( k) w k 1 w k k x x k kxk max

12 Gradiens módszerek (kapcsolatok) Online módosítás ( k) y Xw wk 1 wk k x k x kxk Kaczmarz iteráció Minták elővételi sorrendje nem közömbös. Batch módosítás ( k) w k 1 w k x k x k kxk SAR/SIR

13 Másodrendű módszerek Hibafelület négyzetes vagy a hibafelület aylor soros közelítésével dolgozunk C 0 Hesse mátrix Cw w w C w w C w w H w w H w 0 i, j w Newton módszer w i w w j 1 k 1 wk Hw( k) Cw( k). w w w R C( w) Az LMS/Newton algoritmus 1 k 1 wk 2R k xk R E xx Autokorrelációs mátrix Ha a négyzetes hiba várható értéke alapján keressük a minimumot

14 . Másodrendű módszerek A H mátrixot közelítjük 2 y w H E y wy w wiwj 1 w k 1 w k H w( k) k I C w( k). a H mátrix az optimumhoz közeledve egyre inkább az első tagtól függ, hiszen akkor általában mind, mind y(w) görbülete egyre kisebb, ezért felvethető az alábbi közelítés. H E y w y w A Levenberg-Marquardt eljárás (az első- és a másodrendű eljárás kombinálása)

15 Konjugált Gradiens módszer Olyan irányokat keresünk, hogy egy N-dimenziós keresési térben N lépés alatt garantált legyen a konvergencia (kvadratikus felületnél) qi Rq j 0, i j. j j 1 0 N j j j0 w w q 0 q Rq q p Rw j j 1 k j j j0 k k N w w 0 q, és w w, q Rw k k q Rw 0. w k1 w k k q k, j 1 2 q j q. C j a kezdőpontban érvényes negatív gradiens adja a legelső irányt, majd a következő irányok rendre az aktuális gradiens és a megelőző irány lineáris kombinációjaként kerülnek kiszámításra: q q 0 C 0 1 C k 1 q, k k k C k 1 C k k Rqk, k k j C k Rq j k1 q Rq k Rq k. 1 1 C k 1 C k C k C k C k q k

16 Itertatív eljárások konvergenciája w 1 w * (b) (a) (c) w (1) w (0) w 0 Példa konvergenciára négyzetes hibafelület esetén -"legmeredekebb lejtő" módszerrel a trajektória mentén (kis mellett) (a), -"legmeredekebb lejtő" módszerrel nagyobb mellett (b); - a konjugált gradiensek módszerével (c).

17 Logisztikus regresszió Folytonos Gauss eloszlás mellett (ha az eges osztályokhoz tartozó feltételes sűrűségfüggvényeknél a kovariancia mátrix azonos) ( a) Emlékeztető 1 W S m m w 2 1 LDA

18

19 Likelihood arány teszt Statisztikai döntés ( x) p( x C ) 1 p( x C ) 2 C 1 = Based on the Likelihood function = 1 C 2 C 1 p( x C1 ) PC ( 2) ( x) = Bayes döntés = P(C 2 p( x C ) P( C ) P(C C 2 C 1 p( x C1 ) ( K12 K22) P( C2) ( x) = p( x C ) ( K K ) P( C ) C 2 A Bayes döntés költségértékekkel ( K12 K22) P( C2) ( K K ) P( C )

20 Lineáris osztályozás Maximum likelihood megoldás pd ( 1 x, w) sgm( w x) ( w x) i i pd ( 0 x, w) 1 sgm( w x) 1 ( w x) i i p( d x, w) ( ( w x )) (1 ( w x ) y (1 y ) Egy mintára di (1 di ) di (1 di ) i i i i i i i xi w L di i L i1 i L p( d, ) y (1 y ) (1 d ) L( w) d ln y (1 d )ln(1 y ) i i i i i1 i1 i Az összes (L) mintára Likelihood függvény Iteratív megoldás

21 , Lineáris osztályozás Kernel gép (SVM) wxi wxi b a 0 ha d 1 b a 0 ha d 1 i i d ( wxb) 1 i 1, 2,, P i i 1 Lw, b, α w w ( ) 1 i di w xi b P 2 i1 x 2 x p x r optimális hipersík L L w, b, α 0 P w idixi w i1 i1 w, b, α 0 P idi 0 b i 0 xx p r w w r x 1 1 w Q( α) P idi i1 w 1 P P P i i jdid jxi x j i1 2 i1 j1 0 0 i1,..., P P s i1 d x i i i i ( ) sign P y x i dixi x b i1

22 Nemlineáris osztályozás Paramétereiben lineáris osztályozó: nemlineáris transzformáció + lineáris osztályozó y w i ix w φx LS megoldás Kernel gép i 1 ( w Φ Φ) Φ d d ( w φx ( ) b) 1 i 1, 2,, P i i 1 Q( α) φ ( x ) φ( x ) P P P i i jdid j i j i1 2 i1 j1 Τ K( x, x) ( x ) ( x) i i x Nemlineáris (x) Lineáris y transzformá osztályozó N ció M>N w P d ( ) i i xi i1 P y( x) sign i dik( xi, x) b i1

23 Nemlineáris osztályozó Nemparametrikus nemlineáris osztályozó NN nearest neighbour, k-nn Posterior becslése n cimkézett minta x körül egy V térfogat (tartomány) k mintából k i darab i cimkéjű m-edik osztályba sorolunk, ha Nemmetrikus módszerek Döntési fák CAR Szabály alapú módszerek...

24 Nemlineáris osztályozás Nemlineáris kernel gépek (SVM) Neuronhálók Klasszikus hálók Deep hálók

25 Az MLP-től a mély hálókig (Deep Klasszikus NN (MLP) Networks) Open question: hány rejtett réteg?

26 MLP sok rejtett réteggel Egy rejtett réteg elegendő az univerzális approximációs tulajdonsághoz (...), de előnyös lehet ha több rejtett réteget használunk. Összetettebb leképezés kevesebb neuronnal Különböző típusú rejtett rétegek is alkalmazhatók Hátrányok BP tanítás lassú úl sok szabad paraméter, túl nagy szabadságfok Számítási komplexitás nagy

27 Jellemzők kiválasztása A jellemzők meghatározása, kiválasztása: az egyik legnehezebb feladat ROI kiválasztása: elváltozás kiemelő szűrők (IRIS filter, SBF, AFUM, illesztett szűrők, stb.) ROI jellemzői: Haralick features (textúra jellemzők), geometriai jellemzők (kerület, terület, ezek aránya,...), ROI-n belül képjellemzők (minimum, maximum, átlag, szórás, magasabb momentumok, medián, entrópia,...), gradiens jellemzők: Gauss deriváltak DoG, LoG,... Globális-lokális jellemzők dilemmája A jellemzőtér dimenziója: hány jellemző alapján osztályozzunk? Dimenzió növelés, több megfigyelés- többdimenziós vektor: a dimenzió átka Szekvenciális döntés (több mérés, ugyanarról az objektumról, multimodális vizsgálat) Occam borotvája Dimenzió redukció, a releváns változók kiválasztása (PCA, NPCA, KPCA, PLS,...) Dimenzió redukció regularizáció segítségével: regularizációs tag: l2 norma, l1 norma Relevant vector machine (Bayes módszer a változók szelektálására)...

28 PCA x y 2 2 Jellemző kiválasztás x φ1, φ2,..., φn N M yiφi xˆ yii M N yi φi x i1 i1 N N N E φi x x φi φi E xx φi φi Rxxφi im 1 im 1 im 1 N M 2 N 2 2 E x xˆ E y iφi yiφi E yi i1 i1 im 1 N N φ i φ j 1 ij φ φ φ C φ φ φ xx ˆ i i i i i i i i im 1 im 1 N ˆ 2 i 2 i i xx φ C φ φ 0 i im1 C φ xx φ i i i 2 I, vagyis N N N φ i R xx φ i φ i i φ i i im 1 im 1 im 1 2 E y f w w Rw w w w w Rayleigh hányados

29 KPCA Φ: F, x X Φ( x) Jellemző kiválasztás N 1 P P R C Φx jφx j V CV V iφx i P j 1 i1 P P P k k 1 iφ xk Φ xi iφ xk Φ x j Φ x j Φ xi i1 P i1 j1 Φ x V Φ x CV, Kij K xi xj Φ xi Φ x 2 j PKα K α Pα Kα Sajátvektorok normalizálása k V k V 1 1 P i, j1 k k Φ x Φ x i j i j i, j1 k k kα α A jellemzőtérbeli vektorok vetítése P k k k k K α Kα i j ij V k Φ x k k Φ x Φ x K x, x P i i i1 i1 P i i

30 Osztályozás fő lépései (különböző megközelítések)

31 Jellemző kiválasztás Dimenzió redukció a legfontosabb jellemzők meghatározására (PCA, KPCA) Dimenzió redukció a legrelevánsabb jellemzők meghatározására (PLS, érzékenység analízis) Ritka megoldás keresése (regularizáció,...)

32 MLP BP algorithm anítás A telítődő nemlineáris aktivációs függvény hátrányai Szigmoid nemlinearitás, a derivált tart nullához... Exponenciális függvények számítása Lassú és nagy számítási komplexitású algoritmus Lokális minimumba ragadás veszélye Hogyan módosítsuk a háló architektúráját a hátrányos kiküszöbölése vagy mérséklése céljából Módosítsuk az aktivációs függvényt

33 Aktivációs függvények ReLU előnyei - Könnyű számítani - Nincs telítéses szakasz - A derivált számítása egyszerű - Univ approximation képesség megmarad - Hatékony gradiensalapú tanítási algoritmusok léteznek

34 Az új MLP architektúra

35 anítás (BP)

36 raining algorithms SGD Minibatch Különböző gradiens alapú algoritmusok Momentum (Nesterov momentum) AdaGrad, AdaDelta, RMSProp, Adam

37 Data set Increase the number of labelled data Artificially generated samples (augmentations) Shifting Rotating Flip vertically or horizontally...

38 Jellemző kiválasztás Különböző típusú rétegek alkalmazása A lényegkiemelést maga a háló végzi Szűrés (konvolúció), sok konvolúciós réteg Dimenzió redukció, feature selection

39 Convolutional layer

40 convolution

41 Feature selection

42 Dimension reduction Pooling layer

43 Fully connected layers Normál BC umor1 umor2 Nem azonosított elvált

44 A complex network

45 A complex network

46 Dropout Complex neurons (to reduce free parameters )

47 Dropout

48 Autoencoders Feature selection, dimension reduction (bottleneck layer)

49 An example

50 ransfer learning Fix (pretained) Fix (pretained) Fix (pretained) trainable trainable

51 Implementation

52

53 Implementation Models: GoogleNet: CNN model finetuned on the Extended Salient Object Subitizing dataset (~11K images) and synthetic images. his model significantly improves over our previous models. Recommended. AlexNet: CNN model finetuned on our initial Salient Object Subitizing dataset (~5500 images). he architecture is the same as the Caffe reference network. VGG16: CNN model finetuned on our initial Salient Object Subitizing dataset (~5500 images). Many further details can be found in Some figures of this slide set was obtained from: - Deep Learning NIPS 2015 utorial, Geoff Hinton, Yoshua Bengio & Yann LeCun - Introduction to Machine Learning CMU Deep Learning

54 Main types of suspicious areas malignant cases mikrokalcifikáció architekturális torzítás spikulált folt Jóindulatú elváltozás

55 A képek (esetek) változatossága zsíremlő zsír-grandular sűrű grandular IMC 2004, Como, Italy

56 Kép szegmentálás

57 Éldetektálás és textura alapú osztályozás Matching based on segment position + texture parameters

58 Egy lehetséges út a mikrokalcifikációk detektálásra Image reading Image egment selection exture analysis no Suspicious segment? yes Focusing on suspicious subsegment no Reinforcement yes Edge detection Curvilinear detection no yes Removing of curvilinear objects Verification no Fals positive result yes rue positive result

59

60 Kulcscsont és bordák árnyékának eltüntetése

61 Kulcscsont és bordák árnyékának eltüntetése

62 Kerekárnyék keresés

63 Kerekárnyék keresés

64 Kerekárnyék keresés

65 Kerekárnyék keresés

66 Kerekárnyék keresés

67 Kerekárnyék keresés

68 Összesített eredmények: FROC (Free-Response Receiver Operating Characteristic Curve)

69 example of the results of the steps of vessel feature extraction.

70

71

72

73

74

75

76

77

78

79

80

81

82

Diagnosztika, statisztikai döntések, hipotézisvizsgálat, osztályozás

Diagnosztika, statisztikai döntések, hipotézisvizsgálat, osztályozás Diagnosztika, statisztikai döntések, hipotézisvizsgálat, osztályozás Orvosi képdiagnosztika Diagnosztika = egy rendszer állapotának meghatározása a rendszerről rendelkezésre álló mérések, megfigyelések

Részletesebben

Osztályozási feladatok képdiagnosztikában. Orvosi képdiagnosztikai 2017 ősz

Osztályozási feladatok képdiagnosztikában. Orvosi képdiagnosztikai 2017 ősz Osztályozási feladatok képdiagnosztikában Orvosi képdiagnosztikai 2017 ősz Osztályozás Szeparáló felületet keresünk Leképezéseket tanulunk meg azok mintáiból A tanuláshoz használt minták a tanító minták

Részletesebben

Least Squares becslés

Least Squares becslés Least Squares becslés A négyzetes hibafüggvény: i d i ( ) φx i A négyzetes hibafüggvény mellett a minimumot biztosító megoldás W=( d LS becslés A gradiens számítása és nullává tétele eredményeképp A megoldás

Részletesebben

Konvolúciós neurális hálózatok (CNN)

Konvolúciós neurális hálózatok (CNN) Konvolúciós neurális hálózatok (CNN) Konvolúció Jelfeldolgozásban: Diszkrét jelek esetén diszkrét konvolúció: Képfeldolgozásban 2D konvolúció (szűrők): Konvolúciós neurális hálózat Konvolúciós réteg Kép,

Részletesebben

Neurális hálók tanítása során alkalmazott optimalizáció

Neurális hálók tanítása során alkalmazott optimalizáció Neurális hálók tanítása során alkalmazott optimalizáció Háló paramétereinek tanulása Lényegében egy szélsőérték keresési feladat: θ: háló paramétereinek vektora X: tanító minták bemeneteiből képzett mátrix

Részletesebben

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31. Regresszió Csorba János Nagyméretű adathalmazok kezelése 2010. március 31. A feladat X magyarázó attribútumok halmaza Y magyarázandó attribútumok) Kérdés: f : X -> Y a kapcsolat pár tanítópontban ismert

Részletesebben

Lineáris regressziós modellek 1

Lineáris regressziós modellek 1 Lineáris regressziós modellek 1 Ispány Márton és Jeszenszky Péter 2016. szeptember 19. 1 Az ábrák C.M. Bishop: Pattern Recognition and Machine Learning c. könyvéből származnak. Tartalom Bevezető példák

Részletesebben

ACM Snake. Orvosi képdiagnosztika 11. előadás első fele

ACM Snake. Orvosi képdiagnosztika 11. előadás első fele ACM Snake Orvosi képdiagnosztika 11. előadás első fele ACM Snake (ismétlés) A szegmentáló kontúr egy paraméteres görbe: x Zs s X s, Y s,, s A szegmentáció energia funkcionál minimalizálása: E x Eint x

Részletesebben

Optimalizálás alapfeladata Legmeredekebb lejtő Lagrange függvény Log-barrier módszer Büntetőfüggvény módszer 2017/

Optimalizálás alapfeladata Legmeredekebb lejtő Lagrange függvény Log-barrier módszer Büntetőfüggvény módszer 2017/ Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatikai Intézet Számítógépes Optimalizálás Tanszék 9. Előadás Az optimalizálás alapfeladata Keressük f függvény maximumát ahol f : R n R és

Részletesebben

Principal Component Analysis

Principal Component Analysis Principal Component Analysis Principal Component Analysis Principal Component Analysis Definíció Ortogonális transzformáció, amely az adatokat egy új koordinátarendszerbe transzformálja úgy, hogy a koordináták

Részletesebben

Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL

Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL TULICS@TMIT.BME.HU Példa X (tanult órák száma, aludt órák száma) y (dolgozaton elért pontszám) (5, 8) 80 (3, 5) 78 (5, 1) 82 (10, 2) 93 (4, 4)

Részletesebben

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Számítógépes képelemzés 7. előadás Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Momentumok Momentum-alapú jellemzők Tömegközéppont Irányultáság 1 2 tan 2 1 2,0 1,1 0, 2 Befoglaló

Részletesebben

Intelligens orvosi műszerek VIMIA023

Intelligens orvosi műszerek VIMIA023 Intelligens orvosi műszerek VIMIA023 Neurális hálók (Dobrowiecki Tadeusz anyagának átdolgozásával) 2017 ősz http://www.mit.bme.hu/oktatas/targyak/vimia023 dr. Pataki Béla pataki@mit.bme.hu (463-)2679 A

Részletesebben

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók Előadó: Előadás anyaga: Hullám Gábor Pataki Béla Dobrowiecki Tadeusz BME I.E. 414, 463-26-79

Részletesebben

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Keresés képi jellemzők alapján Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Lusta gépi tanulási algoritmusok Osztályozás: k=1: piros k=5: kék k-legközelebbi szomszéd (k=1,3,5,7)

Részletesebben

Gauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei

Gauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei A Gauss-Jordan elimináció, mátrixinvertálás Gauss-Jordan módszer Ugyanazzal a technikával, mint ahogy a k-adik oszlopban az a kk alatti elemeket kinulláztuk, a fölötte lévő elemeket is zérussá lehet tenni.

Részletesebben

Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet

Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet / Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet / Tartalom 3/ kernelek segítségével Felügyelt és félig-felügyelt tanulás felügyelt: D =

Részletesebben

Konjugált gradiens módszer

Konjugált gradiens módszer Közelítő és szimbolikus számítások 12. gyakorlat Konjugált gradiens módszer Készítette: Gelle Kitti Csendes Tibor Vinkó Tamás Faragó István Horváth Róbert jegyzetei alapján 1 LINEÁRIS EGYENLETRENDSZEREK

Részletesebben

Visszacsatolt (mély) neurális hálózatok

Visszacsatolt (mély) neurális hálózatok Visszacsatolt (mély) neurális hálózatok Visszacsatolt hálózatok kimenet rejtett rétegek bemenet Sima előrecsatolt neurális hálózat Visszacsatolt hálózatok kimenet rejtett rétegek bemenet Pl.: kép feliratozás,

Részletesebben

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,

Részletesebben

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 8 VIII. REGREssZIÓ 1. A REGREssZIÓs EGYENEs Két valószínűségi változó kapcsolatának leírására az eddigiek alapján vagy egy numerikus

Részletesebben

Gépi tanulás. Féligellenőrzött tanulás. Pataki Béla (Bolgár Bence)

Gépi tanulás. Féligellenőrzött tanulás. Pataki Béla (Bolgár Bence) Gépi tanulás Féligellenőrzött tanulás Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Féligellenőrzött tanulás Mindig kevés az adat, de

Részletesebben

Google Summer of Code Project

Google Summer of Code Project Neuronhálózatok a részecskefizikában Bagoly Attila ELTE TTK Fizikus MSc, 2. évfolyam Integrating Machine Learning in Jupyter Notebooks Google Summer of Code Project 2016.10.10 Bagoly Attila (ELTE) Machine

Részletesebben

Gépi tanulás a gyakorlatban. Lineáris regresszió

Gépi tanulás a gyakorlatban. Lineáris regresszió Gépi tanulás a gyakorlatban Lineáris regresszió Lineáris Regresszió Legyen adott egy tanuló adatbázis: Rendelkezésünkre áll egy olyan előfeldolgozott adathalmaz, aminek sorai az egyes ingatlanokat írják

Részletesebben

Mély konvolúciós neurális hálózatok. Hadházi Dániel BME IE 338

Mély konvolúciós neurális hálózatok. Hadházi Dániel BME IE 338 Mély konvolúciós neurális hálózatok Hadházi Dániel BME IE 338 hadhazi@mit.bme.hu ÚJ ARCHITEKTÚRÁLIS ELEMEK Konvolúciós réteg Motiváció: Klasszikus képfeldolgozásnál alapművelet a konvolúció: Zajszűrésre

Részletesebben

A szimplex algoritmus

A szimplex algoritmus A szimplex algoritmus Ismétlés: reprezentációs tétel, az optimális megoldás és az extrém pontok kapcsolata Alapfogalmak: bázisok, bázismegoldások, megengedett bázismegoldások, degenerált bázismegoldás

Részletesebben

Regressziós vizsgálatok

Regressziós vizsgálatok Regressziós vizsgálatok Regresszió (regression) Általános jelentése: visszaesés, hanyatlás, visszafelé mozgás, visszavezetés. Orvosi területen: visszafejlődés, involúció. A betegség tünetei, vagy maga

Részletesebben

I. LABOR -Mesterséges neuron

I. LABOR -Mesterséges neuron I. LABOR -Mesterséges neuron A GYAKORLAT CÉLJA: A mesterséges neuron struktúrájának az ismertetése, neuronhálókkal kapcsolatos elemek, alapfogalmak bemutatása, aktivációs függvénytípusok szemléltetése,

Részletesebben

A maximum likelihood becslésről

A maximum likelihood becslésről A maximum likelihood becslésről Definíció Parametrikus becsléssel foglalkozunk. Adott egy modell, mellyel elképzeléseink szerint jól leírható a meghatározni kívánt rendszer. (A modell típusának és rendszámának

Részletesebben

Feladatok a Gazdasági matematika II. tárgy gyakorlataihoz

Feladatok a Gazdasági matematika II. tárgy gyakorlataihoz Debreceni Egyetem Közgazdaságtudományi Kar Feladatok a Gazdasági matematika II tárgy gyakorlataihoz a megoldásra ajánlott feladatokat jelöli e feladatokat a félév végére megoldottnak tekintjük a nehezebb

Részletesebben

Képszegmentáló eljárások. Orvosi képdiagnosztika 2018 ősz

Képszegmentáló eljárások. Orvosi képdiagnosztika 2018 ősz Képszegmentáló eljárások Orvosi képdiagnosztika 2018 ősz Képszegmentálás Anatómiai részek elkülönítés: pl. csontok, szív, erek, szürkefehér állomány, stb Vizsgálandó terület körbehatárolása: pl. tüdőterület

Részletesebben

Deep Learning: Mélyhálós Tanulás

Deep Learning: Mélyhálós Tanulás Deep Learning Deep Learning: Mélyhálós Tanulás Mesterséges Neuronhálók 2015 o sz Milacski Zoltán Ádám srph25@gmail.com http://milacski.web.elte.hu ELTE Informatika Doktori Iskola 2015-09-21 Deep Learning

Részletesebben

Képfeldolgozó eljárások áttekintés. Orvosi képdiagnosztika 9. ea ősz

Képfeldolgozó eljárások áttekintés. Orvosi képdiagnosztika 9. ea ősz Képfeldolgozó eljárások áttekintés Orvosi képdiagnosztika 9. ea. 2015 ősz Tartalomjegyzék Képmanipulációs eljárások Képjavítás (kontraszt módosítás, intenzitásviszonyok módosításahisztogram módosítás,

Részletesebben

Numerikus matematika vizsga

Numerikus matematika vizsga 1. Az a = 2, t = 4, k = 3, k + = 2 számábrázolási jellemzők mellett hány pozitív, normalizált lebegőpontos szám ábrázolható? Adja meg a legnagyobb ábrázolható számot! Mi lesz a 0.8-hoz rendelt lebegőpontos

Részletesebben

LOGIT-REGRESSZIÓ a függő változó: névleges vagy sorrendi skála

LOGIT-REGRESSZIÓ a függő változó: névleges vagy sorrendi skála LOGIT-REGRESSZIÓ a függő változó: névleges vagy sorrendi skála a független változó: névleges vagy sorrendi vagy folytonos skála BIOMETRIA2_NEMPARAMÉTERES_5 1 Y: visszafizeti-e a hitelt x: fizetés (életkor)

Részletesebben

Sajátértékek és sajátvektorok. mf1n1a06- mf1n2a06 Csabai István

Sajátértékek és sajátvektorok. mf1n1a06- mf1n2a06 Csabai István Sajátértékek és sajátvektorok A fizika numerikus módszerei I. mf1n1a06- mf1n2a06 Csabai István Lineáris transzformáció Vektorok lineáris transzformációja: általános esetben az x vektor iránya és nagysága

Részletesebben

Nemlineáris programozás 2.

Nemlineáris programozás 2. Optimumszámítás Nemlineáris programozás 2. Többváltozós optimalizálás feltételek mellett. Lagrange-feladatok. Nemlineáris programozás. A Kuhn-Tucker feltételek. Konvex programozás. Sydsaeter-Hammond: 18.1-5,

Részletesebben

Line aris f uggv enyilleszt es m arcius 19.

Line aris f uggv enyilleszt es m arcius 19. Lineáris függvényillesztés 2018. március 19. Illesztett paraméterek hibája Eddig azt néztük, hogy a mérési hiba hogyan propagál az illesztett paraméterekbe, ha van egy konkrét függvényünk. a hibaterjedés

Részletesebben

Deep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök

Deep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök Gyires-Tóth Bálint Deep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök http://smartlab.tmit.bme.hu Deep Learning Híradó Hírek az elmúlt 168 órából Deep Learning Híradó Google

Részletesebben

Funkcionális konnektivitás vizsgálata fmri adatok alapján

Funkcionális konnektivitás vizsgálata fmri adatok alapján Funkcionális konnektivitás vizsgálata fmri adatok alapján Képalkotási technikák 4 Log Resolution (mm) 3 Brain EEG & MEG fmri TMS PET Lesions 2 Column 1 0 Lamina -1 Neuron -2 Dendrite -3 Synapse -4 Mikrolesions

Részletesebben

Numerikus módszerek 1.

Numerikus módszerek 1. Numerikus módszerek 1. 10. előadás: Nemlineáris egyenletek numerikus megoldása Lócsi Levente ELTE IK 2013. november 18. Tartalomjegyzék 1 Bolzano-tétel, intervallumfelezés 2 Fixponttételek, egyszerű iterációk

Részletesebben

YBL - SGYMMAT2012XA Matematika II.

YBL - SGYMMAT2012XA Matematika II. YBL - SGYMMAT2012XA Matematika II. Tantárgyfelelős: Dr. Joós Antal Tárgyelőadó: Dr. Joós Antal Tantárgyi leírás Oktatási cél: Azoknak a matematikai alapoknak a megszerzése, melyek a szaktárgyak elsajátításához

Részletesebben

Norma Determináns, inverz Kondíciószám Direkt és inverz hibák Lin. egyenletrendszerek A Gauss-módszer. Lineáris algebra numerikus módszerei

Norma Determináns, inverz Kondíciószám Direkt és inverz hibák Lin. egyenletrendszerek A Gauss-módszer. Lineáris algebra numerikus módszerei Indukált mátrixnorma Definíció A. M : R n n R mátrixnormát a. V : R n R vektornorma által indukált mátrixnormának nevezzük, ha A M = max { Ax V : x V = 1}. Az indukált mátrixnorma geometriai jelentése:

Részletesebben

Mesterséges Intelligencia I.

Mesterséges Intelligencia I. Mesterséges Intelligencia I. 10. elıadás (2008. november 10.) Készítette: Romhányi Anita (ROANAAT.SZE) - 1 - Statisztikai tanulás (Megfigyelések alapján történı bizonytalan következetésnek tekintjük a

Részletesebben

Saj at ert ek-probl em ak febru ar 26.

Saj at ert ek-probl em ak febru ar 26. Sajátérték-problémák 2018. február 26. Az alapfeladat Adott a következő egyenlet: Av = λv, (1) ahol A egy ismert mátrix v ismeretlen, nem zérus vektor λ ismeretlen szám Azok a v, λ kombinációk, amikre

Részletesebben

Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )

Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( ) Budapesti Műszaki és Gazdaságtudományi Egyetem Gépészmérnöki Kar Hidrodinamikai Rendszerek Tanszék, Budapest, Műegyetem rkp. 3. D ép. 334. Tel: 463-6-80 Fa: 463-30-9 http://www.vizgep.bme.hu Alap-ötlet:

Részletesebben

Mátrixok 2017 Mátrixok

Mátrixok 2017 Mátrixok 2017 számtáblázatok" : számok rendezett halmaza, melyben a számok helye két paraméterrel van meghatározva. Például lineáris egyenletrendszer együtthatómátrixa 2 x 1 + 4 x 2 = 8 1 x 1 + 3 x 2 = 1 ( 2 4

Részletesebben

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 10 X. SZIMULÁCIÓ 1. VÉLETLEN számok A véletlen számok fontos szerepet játszanak a véletlen helyzetek generálásában (pénzérme, dobókocka,

Részletesebben

Tanulás az idegrendszerben

Tanulás az idegrendszerben Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Funkcióvezérelt modellezés Abból indulunk ki, hogy milyen feladatot valósít meg a rendszer Horace Barlow: "A

Részletesebben

n n (n n ), lim ln(2 + 3e x ) x 3 + 2x 2e x e x + 1, sin x 1 cos x, lim e x2 1 + x 2 lim sin x 1 )

n n (n n ), lim ln(2 + 3e x ) x 3 + 2x 2e x e x + 1, sin x 1 cos x, lim e x2 1 + x 2 lim sin x 1 ) Matek szigorlat Komplex számok Sorozat határérték., a legnagyobb taggal egyszerűsítünk n n 3 3n 2 + 2 3n 2 n n + 2 25 n 3 9 n 2 + + 3) 2n 8 n 3 2n 3,, n n5 + n 2 n 2 5 2n + 2 3n 2) n+ 2. e-ados: + a )

Részletesebben

3. Szűrés képtérben. Kató Zoltán. Képfeldolgozás és Számítógépes Grafika tanszék SZTE (http://www.inf.u-szeged.hu/~kato/teaching/)

3. Szűrés képtérben. Kató Zoltán. Képfeldolgozás és Számítógépes Grafika tanszék SZTE (http://www.inf.u-szeged.hu/~kato/teaching/) 3. Szűrés képtérben Kató Zoltán Képfeldolgozás és Számítógépes Grafika tanszék SZTE http://www.inf.u-szeged.hu/~kato/teaching/ 2 Kép transzformációk típusai Kép értékkészletének radiometriai információ

Részletesebben

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók 2. Pataki Béla

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók 2. Pataki Béla Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók 2. Előadó: Hullám Gábor Pataki Béla BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki

Részletesebben

Adatbányászati szemelvények MapReduce környezetben

Adatbányászati szemelvények MapReduce környezetben Adatbányászati szemelvények MapReduce környezetben Salánki Ágnes salanki@mit.bme.hu 2014.11.10. Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs Rendszerek Tanszék Felügyelt

Részletesebben

2 (j) f(x) dx = 1 arcsin(3x 2) + C. (d) A x + Bx + C 5x (2x 2 + 7) + Hx + I. 2 2x F x + G. x

2 (j) f(x) dx = 1 arcsin(3x 2) + C. (d) A x + Bx + C 5x (2x 2 + 7) + Hx + I. 2 2x F x + G. x I feladatsor Határozza meg az alábbi függvények határozatlan integrálját: a fx dx = x arctg + C b fx dx = arctgx + C c fx dx = 5/x 4 arctg 5 x + C d fx dx = arctg + C 5/ e fx dx = x + arctg + C f fx dx

Részletesebben

Modellkiválasztás és struktúrák tanulása

Modellkiválasztás és struktúrák tanulása Modellkiválasztás és struktúrák tanulása Szervezőelvek keresése Az unsupervised learning egyik fő célja Optimális reprezentációk Magyarázatok Predikciók Az emberi tanulás alapja Általános strukturális

Részletesebben

Matematika A2 vizsga mgeoldása június 4.

Matematika A2 vizsga mgeoldása június 4. Matematika A vizsga mgeoldása 03. június.. (a (3 pont Definiálja az f(x, y függvény határértékét az (x 0, y 0 helyen! Megoldás: Legyen D R, f : D R. Legyen az f(x, y függvény értelmezve az (x 0, y 0 pont

Részletesebben

Megerősítéses tanulás 9. előadás

Megerősítéses tanulás 9. előadás Megerősítéses tanulás 9. előadás 1 Backgammon (vagy Ostábla) 2 3 TD-Gammon 0.0 TD() tanulás (azaz időbeli differencia-módszer felelősségnyomokkal) függvényapproximátor: neuronháló 40 rejtett (belső) neuron

Részletesebben

Numerikus matematika. Irodalom: Stoyan Gisbert, Numerikus matematika mérnököknek és programozóknak, Typotex, Lebegőpontos számok

Numerikus matematika. Irodalom: Stoyan Gisbert, Numerikus matematika mérnököknek és programozóknak, Typotex, Lebegőpontos számok Numerikus matematika Irodalom: Stoyan Gisbert, Numerikus matematika mérnököknek és programozóknak, Typotex, 2007 Lebegőpontos számok Normák, kondíciószámok Lineáris egyenletrendszerek Legkisebb négyzetes

Részletesebben

Vektorok, mátrixok, lineáris egyenletrendszerek

Vektorok, mátrixok, lineáris egyenletrendszerek a Matematika mérnököknek I. című tárgyhoz Vektorok, mátrixok, lineáris egyenletrendszerek Vektorok A rendezett valós számpárokat kétdimenziós valós vektoroknak nevezzük. Jelölésükre latin kisbetűket használunk.

Részletesebben

Gyakorló feladatok I.

Gyakorló feladatok I. Gyakorló feladatok I. a Matematika Aa Vektorüggvények tárgyhoz (D D5 kurzusok) Összeállította: Szili László Ajánlott irodalmak:. G.B. Thomas, M.D. Weir, J. Hass, F.R. Giordano: Thomas-féle KALKULUS I.,

Részletesebben

Sergyán Szabolcs szeptember 21.

Sergyán Szabolcs szeptember 21. Éldetektálás Sergyán Szabolcs Budapesti Műszaki Főiskola Neumann János Informatikai Kar 2009. szeptember 21. Sergyán Sz. (BMF NIK) Éldetektálás 2009. szeptember 21. 1 / 28 Mit nevezünk élnek? Intuitív

Részletesebben

Numerikus módszerek II. zárthelyi dolgozat, megoldások, 2014/15. I. félév, A. csoport. x 2. c = 3 5, s = 4

Numerikus módszerek II. zárthelyi dolgozat, megoldások, 2014/15. I. félév, A. csoport. x 2. c = 3 5, s = 4 Numerikus módszerek II. zárthelyi dolgozat, megoldások, 204/5. I. félév, A. csoport. Feladat. (6p) Alkalmas módon választva egy Givens-forgatást, határozzuk meg az A mátrix QR-felbontását! Oldjuk meg ennek

Részletesebben

Mérnökgeodéziai hálózatok feldolgozása

Mérnökgeodéziai hálózatok feldolgozása Mérnökgeodéziai hálózatok feldolgozása dr. Siki Zoltán siki@agt.bme.hu XIV. Földmérő Találkozó Gyergyószentmiklós 2013.05.09-12. Mérnökgeodéziai hálózatok nagy relatív pontosságú hálózatok (1/100 000,

Részletesebben

Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)

Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence) Gépi tanulás Hány tanítómintára van szükség? VKH Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Induktív tanulás A tanítás folyamata: Kiinduló

Részletesebben

Strukturált Generátorrendszerek Online Tanulása és Alk-ai

Strukturált Generátorrendszerek Online Tanulása és Alk-ai Strukturált Generátorrendszerek Online Tanulása és Alkalmazásai Problémamegoldó Szeminárium 2010. nov. 5 Tartalomjegyzék Motiváció, példák Regressziós feladatok (generátorrendszer fix) Legkisebb négyzetes

Részletesebben

E x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes)

E x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes) 6-7 ősz. gyakorlat Feladatok.) Adjon meg azt a perceptronon implementált Bayes-i klasszifikátort, amely kétdimenziós a bemeneti tér felett szeparálja a Gauss eloszlású mintákat! Rajzolja le a bemeneti

Részletesebben

Nemlineáris modellek

Nemlineáris modellek Ferenci Tamás tamas.ferenci@medstat.hu 2018. február 7. Tartalom 1 2 3 4 A marginális hatás fogalma Marginális hatás: a magyarázó változó kis növelésének hatására mekkora az eredményváltozó egységnyi magyarázóváltozó-növelésre

Részletesebben

PONTFELHŐ REGISZTRÁCIÓ

PONTFELHŐ REGISZTRÁCIÓ PONTFELHŐ REGISZTRÁCIÓ ITERATIVE CLOSEST POINT Cserteg Tamás, URLGNI, 2018.11.22. TARTALOM Röviden Alakzatrekonstrukció áttekintés ICP algoritmusok Projektfeladat Demó FORRÁSOK Cikkek Efficient Variants

Részletesebben

Képfeldolgozó eljárások áttekintés. Orvosi képdiagnosztika

Képfeldolgozó eljárások áttekintés. Orvosi képdiagnosztika Képfeldolgozó eljárások áttekintés Orvosi képdiagnosztika Tartalomjegyzék Képmanipulációs eljárások Képjavítás (kontraszt módosítás, intenzitásviszonyok módosításahisztogram módosítás, zajszűrés) Képelemzés

Részletesebben

Bevezetés a neurális számításokba Analóg processzortömbök,

Bevezetés a neurális számításokba Analóg processzortömbök, Pannon Egyetem Villamosmérnöki és Információs Tanszék Bevezetés a neurális számításokba Analóg processzortömbök, neurális hálózatok Előadó: dr. Tömördi Katalin Neurális áramkörök (ismétlés) A neurális

Részletesebben

Nemlineáris egyenletrendszerek megoldása április 15.

Nemlineáris egyenletrendszerek megoldása április 15. Nemlineáris egyenletrendszerek megoldása 2014. április 15. Nemlineáris egyenletrendszerek Az egyenletrendszer a következő formában adott: f i (x 1, x 2,..., x M ) = 0 i = 1...N az f i függvények az x j

Részletesebben

Support Vector Machines

Support Vector Machines Support Vector Machnes Ormánd Róbert MA-SZE Mest. Int. Kutatócsoport 2009. február 17. Előadás vázlata Rövd bevezetés a gép tanulásba Bevezetés az SVM tanuló módszerbe Alapötlet Nem szeparálható eset Kernel

Részletesebben

Pletykaalapú gépi tanulás teljesen elosztott környezetben

Pletykaalapú gépi tanulás teljesen elosztott környezetben Pletykaalapú gépi tanulás teljesen elosztott környezetben Hegedűs István Jelasity Márk témavezető Szegedi Tudományegyetem MTA-SZTE Mesterséges Intelligencia Kutatócsopot Motiváció Az adat adatközpontokban

Részletesebben

Inferencia valószínűségi modellekben

Inferencia valószínűségi modellekben Statisztikai tanulás az idegrendszerben, 2016. Inferencia valószínűségi modellekben Bányai Mihály banyai.mihaly@wigner.mta.hu http://golab.wigner.mta.hu/people/mihaly-banyai/ Inferencia valószínűségi modellekben

Részletesebben

A lineáris programozás alapjai

A lineáris programozás alapjai A lineáris programozás alapjai A konvex analízis alapjai: konvexitás, konvex kombináció, hipersíkok, félterek, extrém pontok, Poliéderek, a Minkowski-Weyl tétel (a poliéderek reprezentációs tétele) Lineáris

Részletesebben

Matematikai statisztika c. tárgy oktatásának célja és tematikája

Matematikai statisztika c. tárgy oktatásának célja és tematikája Matematikai statisztika c. tárgy oktatásának célja és tematikája 2015 Tematika Matematikai statisztika 1. Időkeret: 12 héten keresztül heti 3x50 perc (előadás és szeminárium) 2. Szükséges előismeretek:

Részletesebben

11. gyakorlat megoldásai

11. gyakorlat megoldásai 11. gyakorlat megoldásai Lokális szélsőértékek F1. Határozzuk meg az alábbi kétváltozós függvények lokális szélsőértékeit! (a) f(x, y) = 4x 2 + 2xy + 5y 2 + 2, (b) f(x, y) = y 4 y + x 2 y + 2xy, (c) f(x,

Részletesebben

Bevezetés a Korreláció &

Bevezetés a Korreláció & Bevezetés a Korreláció & Regressziószámításba Petrovics Petra Doktorandusz Statisztikai kapcsolatok Asszociáció 2 minőségi/területi ismérv között Vegyes kapcsolat minőségi/területi és egy mennyiségi ismérv

Részletesebben

Searching in an Unsorted Database

Searching in an Unsorted Database Searching in an Unsorted Database "Man - a being in search of meaning." Plato History of data base searching v1 2018.04.20. 2 History of data base searching v2 2018.04.20. 3 History of data base searching

Részletesebben

Számítógépes geometria (mester kurzus)

Számítógépes geometria (mester kurzus) 2010 sz, Debreceni Egyetem Csuklós szerkezetek animációja (Kép 1985-b l: Tony de Peltrie) Csontváz-modellek Csuklós szerkezet (robotkar) A robotkar részei: csuklók (joints) rotációs prizmatikus (transzlációs)

Részletesebben

Nem-lineáris programozási feladatok

Nem-lineáris programozási feladatok Nem-lineáris programozási feladatok S - lehetséges halmaz 2008.02.04 Dr.Bajalinov Erik, NyF MII 1 Elég egyszerű példa: nemlineáris célfüggvény + lineáris feltételek Lehetséges halmaz x 1 *x 2 =6.75 Gradiens

Részletesebben

Mátrixhatvány-vektor szorzatok hatékony számítása

Mátrixhatvány-vektor szorzatok hatékony számítása Mátrixhatvány-vektor szorzatok hatékony számítása Izsák Ferenc ELTE TTK, Alkalmazott Analízis és Számításmatematikai Tanszék & ELTE-MTA NumNet Kutatócsoport munkatárs: Szekeres Béla János Alkalmazott Analízis

Részletesebben

Megoldott feladatok november 30. n+3 szigorúan monoton csökken, 5. n+3. lim a n = lim. n+3 = 2n+3 n+4 2n+1

Megoldott feladatok november 30. n+3 szigorúan monoton csökken, 5. n+3. lim a n = lim. n+3 = 2n+3 n+4 2n+1 Megoldott feladatok 00. november 0.. Feladat: Vizsgáljuk az a n = n+ n+ sorozat monotonitását, korlátosságát és konvergenciáját. Konvergencia esetén számítsuk ki a határértéket! : a n = n+ n+ = n+ n+ =

Részletesebben

NEURONHÁLÓK ÉS TANÍTÁSUK A BACKPROPAGATION ALGORITMUSSAL. A tananyag az EFOP pályázat támogatásával készült.

NEURONHÁLÓK ÉS TANÍTÁSUK A BACKPROPAGATION ALGORITMUSSAL. A tananyag az EFOP pályázat támogatásával készült. NEURONHÁLÓK ÉS TANÍTÁSUK A BACKPROPAGATION ALGORITMUSSAL A tananyag az EFOP-3.5.1-16-2017-00004 pályázat támogatásával készült. Neuron helyett neuronháló Neuron reprezentációs erejének növelése: építsünk

Részletesebben

PIXEL SZINTŰ SZEGMENTÁLÁS CNN-EL

PIXEL SZINTŰ SZEGMENTÁLÁS CNN-EL PIXEL SZINTŰ SZEGMENTÁLÁS CNN-EL Csúszóablakos szegmentálás Szegmentálás direkt osztályozással Kisméretű ablakkal kivágott kép alapján megítéli az adott pixel környezetének a típusát Nagyon lassú, nehezen

Részletesebben

Gépi tanulás a gyakorlatban SVM

Gépi tanulás a gyakorlatban SVM Gépi tanulás a gyakorlatban SVM Klasszifikáció Feladat: előre meghatározott csoportok elkülönítése egymástól Osztályokat elkülönítő felület Osztályokhoz rendelt döntési függvények Klasszifikáció Feladat:

Részletesebben

Gauss-Seidel iteráció

Gauss-Seidel iteráció Közelítő és szimbolikus számítások 5. gyakorlat Iterációs módszerek: Jacobi és Gauss-Seidel iteráció Készítette: Gelle Kitti Csendes Tibor Somogyi Viktor London András Deák Gábor jegyzetei alapján 1 ITERÁCIÓS

Részletesebben

11. gyakorlat megoldásai

11. gyakorlat megoldásai 11. gyakorlat megoldásai Lokális szélsőértékek F1. Határozza meg az alábbi kétváltozós függvények lokális szélsőértékeit! (a) f(x, y) = 4x 2 + 2xy + 5y 2 + 2, (b) f(x, y) = y 4 3y + x 2 y + 2xy, (c) f(x,

Részletesebben

Kernel gépek vizsgálata

Kernel gépek vizsgálata Kernel gépek vizsgálata Lágler Krisztián 2011. május 12. FYMGQ8 Konzulens : Dr. Horváth Gábor 1 Tartalomjegyzék 1. Feladat kiírás 3 1.1. A kernelfüggvény hiperparamétereinek megválasztása..... 3 2. Bevezetés

Részletesebben

[1000 ; 0] 7 [1000 ; 3000]

[1000 ; 0] 7 [1000 ; 3000] Gépi tanulás (vimim36) Gyakorló feladatok 04 tavaszi félév Ahol lehet, ott konkrét számértékeket várok nem puszta egyenleteket. (Azok egy részét amúgyis megadom.). Egy bináris osztályozási feladatra tanított

Részletesebben

Differenciálegyenletek numerikus megoldása

Differenciálegyenletek numerikus megoldása a Matematika mérnököknek II. című tárgyhoz Differenciálegyenletek numerikus megoldása Fokozatos közeĺıtés módszere (1) (2) x (t) = f (t, x(t)), x I, x(ξ) = η. Az (1)-(2) kezdeti érték probléma ekvivalens

Részletesebben

5. elıadás március 22. Portfólió-optimalizálás

5. elıadás március 22. Portfólió-optimalizálás 5. elıadás 203. március 22. Portfólió-optimalizálás Alapfeladat Cél: minél nagyobb várható hozam elérése De: közben a kockázat legyen minél kisebb Kompromisszum: elvárt hozamot érje el a várható érték

Részletesebben

Többváltozós lineáris regresszió 3.

Többváltozós lineáris regresszió 3. Többváltozós lineáris regresszió 3. Orlovits Zsanett 2018. október 10. Alapok Kérdés: hogyan szerepeltethetünk egy minőségi (nominális) tulajdonságot (pl. férfi/nő, egészséges/beteg, szezonális hatások,

Részletesebben

Matematika III előadás

Matematika III előadás Matematika III. - 3. előadás Vinczéné Varga Adrienn Debreceni Egyetem Műszaki Kar, Műszaki Alaptárgyi Tanszék Előadáskövető fóliák Vinczéné Varga Adrienn (DE-MK) Matematika III. 2016/2017/I 1 / 19 Skalármezők

Részletesebben

Numerikus módszerek: Nemlineáris egyenlet megoldása (Newton módszer, húrmódszer). Lagrange interpoláció. Lineáris regresszió.

Numerikus módszerek: Nemlineáris egyenlet megoldása (Newton módszer, húrmódszer). Lagrange interpoláció. Lineáris regresszió. YBL - SGYMMAT202XXX Matematika II. Tantárgyfelelős: Dr. Joós Antal Tárgyelőadó: Dr. Joós Antal Tantárgyi leírás Oktatási cél: Azoknak a matematikai alapoknak a megszerzése, melyek a szaktárgyak elsajátításához

Részletesebben

Geometriai vagy kinematikai természetű feltételek: kötések vagy. kényszerek. 1. Egy apró korong egy mozdulatlan lejtőn vagy egy gömb belső

Geometriai vagy kinematikai természetű feltételek: kötések vagy. kényszerek. 1. Egy apró korong egy mozdulatlan lejtőn vagy egy gömb belső Kényszerek Geometriai vagy kinematikai természetű feltételek: kötések vagy kényszerek. Példák: 1. Egy apró korong egy mozdulatlan lejtőn vagy egy gömb belső felületén mozog. Kényszerek Geometriai vagy

Részletesebben

Statisztikai eljárások a mintafelismerésben és a gépi tanulásban

Statisztikai eljárások a mintafelismerésben és a gépi tanulásban Statisztikai eljárások a mintafelismerésben és a gépi tanulásban Varga Domonkos (I.évf. PhD hallgató) 2014 május A prezentáció felépítése 1) Alapfogalmak 2) A gépi tanulás, mintafelismerés alkalmazási

Részletesebben

Likelihood, deviancia, Akaike-féle információs kritérium

Likelihood, deviancia, Akaike-féle információs kritérium Többváltozós statisztika (SZIE ÁOTK, 2011. ősz) 1 Likelihood, deviancia, Akaike-féle információs kritérium Likelihood függvény Az adatokhoz paraméteres modellt illesztünk. A likelihood függvény a megfigyelt

Részletesebben

Képfeldolgozó eljárások áttekintés. Orvosi képdiagnosztika 9. ea ősz

Képfeldolgozó eljárások áttekintés. Orvosi képdiagnosztika 9. ea ősz Képfeldolgozó eljárások áttekintés Orvosi képdiagnosztika 9. ea. 2015 ősz Tartalomjegyzék Képmanipulációs eljárások Képjavítás (kontraszt módosítás, intenzitásviszonyok módosításahisztogram módosítás,

Részletesebben

A Newton-Raphson iteráció kezdeti értéktől való érzékenysége

A Newton-Raphson iteráció kezdeti értéktől való érzékenysége Szénási Eszter SZTE TTIK Matematika BSc, Numerikus matematika projekt 2015. november 30. A Newton-Raphson iteráció kezdeti értéktől való érzékenysége Medencék (attraktorok) színezése 2 Newton_project-szenasi.nb

Részletesebben