Osztályozás képdiagnosztikánál
|
|
- Árpád Juhász
- 6 évvel ezelőtt
- Látták:
Átírás
1 Osztályozás képdiagnosztikánál
2 Osztályozás Elválasztó felület keresése Input-output leképezés ismert osztályú (tanító) pontok alapján x, d P d 1,2,..., k i i i1 i Lineáris Paramétereiben lineáris, de nemlineáris Nemlineáris
3 Célfüggvény, kritérium függvény, objektív függvény, kockázat Veszteség függvény (loss function, hibafüggvény) minimumkeresés négyzetes hiba, kereszt entrópia L( d, f ( x, w)) d f ( w, x ) d y 2 2 i i i i i i i, xi, w i ln xi, w 1 i ln 1 xi, w Kockázat p(w,z) a paramétervektor és a megfigyelések együttes sűrűségfüggv. apasztalati kockázat (empirical risk) P 1 R ( w) d f ( w, x ) 2 E i i P i 1 L d f d f d f R w E L d, f x, w x, d R ( w) L( z, w) p( w, z) dz dw Egyéb objektív függvények (különbözőség, likelihood függvény, a posteriori sűrűségfüggvény) z, w
4 Az osztályozás minősítése R (risk) és R emp (empirical risk) kapcsolata R( w) R emp ( w) ( h) 2 1 4R emp ( h) ( w) h(ln (2l / h) 1) ln( / 4) 2 2 ( h) 4 h min R w, N 1, l Egy függvénykészlet a VC-dimenziója (h), ha létezik h olyan mintapont, melyeket a függvénykészlet elemeivel minden lehetséges módon be tudunk sorolni két osztály valamelyikébe (a h mintapontot minden lehetséges módon két színnel ki lehet színezni), de h+1 ilyen mintapont már nem létezik. A VC-dimenzió tehát az a maximális mintaszám, amit adott függvényosztály elemeivel hibátlanul particionálhatunk minden lehetséges módon. A VC-dimenzió egy függvényosztály komplexitásának egyfajta mértékeként is tekinthető.
5 Lineáris bináris osztályozás Optimális vetítési irány keresése Objektív függvény: különbözőség maximuma
6 LDA Optimális vetítési irány keresése LDA linear discriminant analysis: dimenzió redukció
7 LDA - KDA C( w) Kritérium függvény maximumkeresési feldat 2 m m 2 1 w m2 m1 m2 m1 w w SBw s s w x m x m w w x m x m w i 1 i 1 i 2 i 2 (1) ( 2) ic ic w S w w S w w S S w w S w W1 W 2 W1 W 2 W C( w) S B osztályok közötti S W osztályokon belüli
8 LDA optimális paraméter vektor w arg min w w SBw w SW w arg min w 1 w SWSBw w w Rayleigh hányados 1 W B B S S w w de ws w w m m m m w ezért 1 W S w m m m m w B S m m w
9 y Xw x 1 x 2 X x Analitikus megoldás Lineáris egyenletrenszer Mátrix invertálás A regularizació szerepe Lineáris osztályozás Lineáris modell, négyzetes hiba, csak a mintapontok P R ( w) ( d Xw) ( d Xw) Iteratív megoldás (gradiens módszer) w( k 1) w( k) μc( k). E w X d 1 X X X d -1 w X d X X I X d LS ( )
10 Lineáris osztályozás Egyenletek száma (P) Ismeretlenek száma (N) P<N Alulhatározott: végtelen számú megoldás (az N-P számú szabad paraméter tetszőlegesen megválasztható) P=N Van egyértelmű megoldás. Ha a lineáris egyenletek (az X mátrix sorai) lineárisan függetlenek, a mártix teljes rangú. P>N úlhatározott: Minden egyenletet kielégítő megoldás nem feltétlenül létezik. De LS értelemben lesz megoldás: Moore-Penrose inverz. Iteratív megoldásnál egy tartományon belül fog kóvályogni a megoldás. Példák a túlhatározott esetre : kétdimenziós (N=2), és P>2 mellett.
11 Gradiens módszerek (elsőrendű módszerek) Négyzetes hibafelület C 2 2 w( k) k dk x k wk ˆ C k 2 w k k 2 k xk. LMS algoritmus (-LMS) w ˆ k 1 wk μck wk 2μ k xk -LMS ( k) w k 1 w k k x x k kxk max
12 Gradiens módszerek (kapcsolatok) Online módosítás ( k) y Xw wk 1 wk k x k x kxk Kaczmarz iteráció Minták elővételi sorrendje nem közömbös. Batch módosítás ( k) w k 1 w k x k x k kxk SAR/SIR
13 Másodrendű módszerek Hibafelület négyzetes vagy a hibafelület aylor soros közelítésével dolgozunk C 0 Hesse mátrix Cw w w C w w C w w H w w H w 0 i, j w Newton módszer w i w w j 1 k 1 wk Hw( k) Cw( k). w w w R C( w) Az LMS/Newton algoritmus 1 k 1 wk 2R k xk R E xx Autokorrelációs mátrix Ha a négyzetes hiba várható értéke alapján keressük a minimumot
14 . Másodrendű módszerek A H mátrixot közelítjük 2 y w H E y wy w wiwj 1 w k 1 w k H w( k) k I C w( k). a H mátrix az optimumhoz közeledve egyre inkább az első tagtól függ, hiszen akkor általában mind, mind y(w) görbülete egyre kisebb, ezért felvethető az alábbi közelítés. H E y w y w A Levenberg-Marquardt eljárás (az első- és a másodrendű eljárás kombinálása)
15 Konjugált Gradiens módszer Olyan irányokat keresünk, hogy egy N-dimenziós keresési térben N lépés alatt garantált legyen a konvergencia (kvadratikus felületnél) qi Rq j 0, i j. j j 1 0 N j j j0 w w q 0 q Rq q p Rw j j 1 k j j j0 k k N w w 0 q, és w w, q Rw k k q Rw 0. w k1 w k k q k, j 1 2 q j q. C j a kezdőpontban érvényes negatív gradiens adja a legelső irányt, majd a következő irányok rendre az aktuális gradiens és a megelőző irány lineáris kombinációjaként kerülnek kiszámításra: q q 0 C 0 1 C k 1 q, k k k C k 1 C k k Rqk, k k j C k Rq j k1 q Rq k Rq k. 1 1 C k 1 C k C k C k C k q k
16 Itertatív eljárások konvergenciája w 1 w * (b) (a) (c) w (1) w (0) w 0 Példa konvergenciára négyzetes hibafelület esetén -"legmeredekebb lejtő" módszerrel a trajektória mentén (kis mellett) (a), -"legmeredekebb lejtő" módszerrel nagyobb mellett (b); - a konjugált gradiensek módszerével (c).
17 Logisztikus regresszió Folytonos Gauss eloszlás mellett (ha az eges osztályokhoz tartozó feltételes sűrűségfüggvényeknél a kovariancia mátrix azonos) ( a) Emlékeztető 1 W S m m w 2 1 LDA
18
19 Likelihood arány teszt Statisztikai döntés ( x) p( x C ) 1 p( x C ) 2 C 1 = Based on the Likelihood function = 1 C 2 C 1 p( x C1 ) PC ( 2) ( x) = Bayes döntés = P(C 2 p( x C ) P( C ) P(C C 2 C 1 p( x C1 ) ( K12 K22) P( C2) ( x) = p( x C ) ( K K ) P( C ) C 2 A Bayes döntés költségértékekkel ( K12 K22) P( C2) ( K K ) P( C )
20 Lineáris osztályozás Maximum likelihood megoldás pd ( 1 x, w) sgm( w x) ( w x) i i pd ( 0 x, w) 1 sgm( w x) 1 ( w x) i i p( d x, w) ( ( w x )) (1 ( w x ) y (1 y ) Egy mintára di (1 di ) di (1 di ) i i i i i i i xi w L di i L i1 i L p( d, ) y (1 y ) (1 d ) L( w) d ln y (1 d )ln(1 y ) i i i i i1 i1 i Az összes (L) mintára Likelihood függvény Iteratív megoldás
21 , Lineáris osztályozás Kernel gép (SVM) wxi wxi b a 0 ha d 1 b a 0 ha d 1 i i d ( wxb) 1 i 1, 2,, P i i 1 Lw, b, α w w ( ) 1 i di w xi b P 2 i1 x 2 x p x r optimális hipersík L L w, b, α 0 P w idixi w i1 i1 w, b, α 0 P idi 0 b i 0 xx p r w w r x 1 1 w Q( α) P idi i1 w 1 P P P i i jdid jxi x j i1 2 i1 j1 0 0 i1,..., P P s i1 d x i i i i ( ) sign P y x i dixi x b i1
22 Nemlineáris osztályozás Paramétereiben lineáris osztályozó: nemlineáris transzformáció + lineáris osztályozó y w i ix w φx LS megoldás Kernel gép i 1 ( w Φ Φ) Φ d d ( w φx ( ) b) 1 i 1, 2,, P i i 1 Q( α) φ ( x ) φ( x ) P P P i i jdid j i j i1 2 i1 j1 Τ K( x, x) ( x ) ( x) i i x Nemlineáris (x) Lineáris y transzformá osztályozó N ció M>N w P d ( ) i i xi i1 P y( x) sign i dik( xi, x) b i1
23 Nemlineáris osztályozó Nemparametrikus nemlineáris osztályozó NN nearest neighbour, k-nn Posterior becslése n cimkézett minta x körül egy V térfogat (tartomány) k mintából k i darab i cimkéjű m-edik osztályba sorolunk, ha Nemmetrikus módszerek Döntési fák CAR Szabály alapú módszerek...
24 Nemlineáris osztályozás Nemlineáris kernel gépek (SVM) Neuronhálók Klasszikus hálók Deep hálók
25 Az MLP-től a mély hálókig (Deep Klasszikus NN (MLP) Networks) Open question: hány rejtett réteg?
26 MLP sok rejtett réteggel Egy rejtett réteg elegendő az univerzális approximációs tulajdonsághoz (...), de előnyös lehet ha több rejtett réteget használunk. Összetettebb leképezés kevesebb neuronnal Különböző típusú rejtett rétegek is alkalmazhatók Hátrányok BP tanítás lassú úl sok szabad paraméter, túl nagy szabadságfok Számítási komplexitás nagy
27 Jellemzők kiválasztása A jellemzők meghatározása, kiválasztása: az egyik legnehezebb feladat ROI kiválasztása: elváltozás kiemelő szűrők (IRIS filter, SBF, AFUM, illesztett szűrők, stb.) ROI jellemzői: Haralick features (textúra jellemzők), geometriai jellemzők (kerület, terület, ezek aránya,...), ROI-n belül képjellemzők (minimum, maximum, átlag, szórás, magasabb momentumok, medián, entrópia,...), gradiens jellemzők: Gauss deriváltak DoG, LoG,... Globális-lokális jellemzők dilemmája A jellemzőtér dimenziója: hány jellemző alapján osztályozzunk? Dimenzió növelés, több megfigyelés- többdimenziós vektor: a dimenzió átka Szekvenciális döntés (több mérés, ugyanarról az objektumról, multimodális vizsgálat) Occam borotvája Dimenzió redukció, a releváns változók kiválasztása (PCA, NPCA, KPCA, PLS,...) Dimenzió redukció regularizáció segítségével: regularizációs tag: l2 norma, l1 norma Relevant vector machine (Bayes módszer a változók szelektálására)...
28 PCA x y 2 2 Jellemző kiválasztás x φ1, φ2,..., φn N M yiφi xˆ yii M N yi φi x i1 i1 N N N E φi x x φi φi E xx φi φi Rxxφi im 1 im 1 im 1 N M 2 N 2 2 E x xˆ E y iφi yiφi E yi i1 i1 im 1 N N φ i φ j 1 ij φ φ φ C φ φ φ xx ˆ i i i i i i i i im 1 im 1 N ˆ 2 i 2 i i xx φ C φ φ 0 i im1 C φ xx φ i i i 2 I, vagyis N N N φ i R xx φ i φ i i φ i i im 1 im 1 im 1 2 E y f w w Rw w w w w Rayleigh hányados
29 KPCA Φ: F, x X Φ( x) Jellemző kiválasztás N 1 P P R C Φx jφx j V CV V iφx i P j 1 i1 P P P k k 1 iφ xk Φ xi iφ xk Φ x j Φ x j Φ xi i1 P i1 j1 Φ x V Φ x CV, Kij K xi xj Φ xi Φ x 2 j PKα K α Pα Kα Sajátvektorok normalizálása k V k V 1 1 P i, j1 k k Φ x Φ x i j i j i, j1 k k kα α A jellemzőtérbeli vektorok vetítése P k k k k K α Kα i j ij V k Φ x k k Φ x Φ x K x, x P i i i1 i1 P i i
30 Osztályozás fő lépései (különböző megközelítések)
31 Jellemző kiválasztás Dimenzió redukció a legfontosabb jellemzők meghatározására (PCA, KPCA) Dimenzió redukció a legrelevánsabb jellemzők meghatározására (PLS, érzékenység analízis) Ritka megoldás keresése (regularizáció,...)
32 MLP BP algorithm anítás A telítődő nemlineáris aktivációs függvény hátrányai Szigmoid nemlinearitás, a derivált tart nullához... Exponenciális függvények számítása Lassú és nagy számítási komplexitású algoritmus Lokális minimumba ragadás veszélye Hogyan módosítsuk a háló architektúráját a hátrányos kiküszöbölése vagy mérséklése céljából Módosítsuk az aktivációs függvényt
33 Aktivációs függvények ReLU előnyei - Könnyű számítani - Nincs telítéses szakasz - A derivált számítása egyszerű - Univ approximation képesség megmarad - Hatékony gradiensalapú tanítási algoritmusok léteznek
34 Az új MLP architektúra
35 anítás (BP)
36 raining algorithms SGD Minibatch Különböző gradiens alapú algoritmusok Momentum (Nesterov momentum) AdaGrad, AdaDelta, RMSProp, Adam
37 Data set Increase the number of labelled data Artificially generated samples (augmentations) Shifting Rotating Flip vertically or horizontally...
38 Jellemző kiválasztás Különböző típusú rétegek alkalmazása A lényegkiemelést maga a háló végzi Szűrés (konvolúció), sok konvolúciós réteg Dimenzió redukció, feature selection
39 Convolutional layer
40 convolution
41 Feature selection
42 Dimension reduction Pooling layer
43 Fully connected layers Normál BC umor1 umor2 Nem azonosított elvált
44 A complex network
45 A complex network
46 Dropout Complex neurons (to reduce free parameters )
47 Dropout
48 Autoencoders Feature selection, dimension reduction (bottleneck layer)
49 An example
50 ransfer learning Fix (pretained) Fix (pretained) Fix (pretained) trainable trainable
51 Implementation
52
53 Implementation Models: GoogleNet: CNN model finetuned on the Extended Salient Object Subitizing dataset (~11K images) and synthetic images. his model significantly improves over our previous models. Recommended. AlexNet: CNN model finetuned on our initial Salient Object Subitizing dataset (~5500 images). he architecture is the same as the Caffe reference network. VGG16: CNN model finetuned on our initial Salient Object Subitizing dataset (~5500 images). Many further details can be found in Some figures of this slide set was obtained from: - Deep Learning NIPS 2015 utorial, Geoff Hinton, Yoshua Bengio & Yann LeCun - Introduction to Machine Learning CMU Deep Learning
54 Main types of suspicious areas malignant cases mikrokalcifikáció architekturális torzítás spikulált folt Jóindulatú elváltozás
55 A képek (esetek) változatossága zsíremlő zsír-grandular sűrű grandular IMC 2004, Como, Italy
56 Kép szegmentálás
57 Éldetektálás és textura alapú osztályozás Matching based on segment position + texture parameters
58 Egy lehetséges út a mikrokalcifikációk detektálásra Image reading Image egment selection exture analysis no Suspicious segment? yes Focusing on suspicious subsegment no Reinforcement yes Edge detection Curvilinear detection no yes Removing of curvilinear objects Verification no Fals positive result yes rue positive result
59
60 Kulcscsont és bordák árnyékának eltüntetése
61 Kulcscsont és bordák árnyékának eltüntetése
62 Kerekárnyék keresés
63 Kerekárnyék keresés
64 Kerekárnyék keresés
65 Kerekárnyék keresés
66 Kerekárnyék keresés
67 Kerekárnyék keresés
68 Összesített eredmények: FROC (Free-Response Receiver Operating Characteristic Curve)
69 example of the results of the steps of vessel feature extraction.
70
71
72
73
74
75
76
77
78
79
80
81
82
Diagnosztika, statisztikai döntések, hipotézisvizsgálat, osztályozás
Diagnosztika, statisztikai döntések, hipotézisvizsgálat, osztályozás Orvosi képdiagnosztika Diagnosztika = egy rendszer állapotának meghatározása a rendszerről rendelkezésre álló mérések, megfigyelések
RészletesebbenOsztályozási feladatok képdiagnosztikában. Orvosi képdiagnosztikai 2017 ősz
Osztályozási feladatok képdiagnosztikában Orvosi képdiagnosztikai 2017 ősz Osztályozás Szeparáló felületet keresünk Leképezéseket tanulunk meg azok mintáiból A tanuláshoz használt minták a tanító minták
RészletesebbenLeast Squares becslés
Least Squares becslés A négyzetes hibafüggvény: i d i ( ) φx i A négyzetes hibafüggvény mellett a minimumot biztosító megoldás W=( d LS becslés A gradiens számítása és nullává tétele eredményeképp A megoldás
RészletesebbenKonvolúciós neurális hálózatok (CNN)
Konvolúciós neurális hálózatok (CNN) Konvolúció Jelfeldolgozásban: Diszkrét jelek esetén diszkrét konvolúció: Képfeldolgozásban 2D konvolúció (szűrők): Konvolúciós neurális hálózat Konvolúciós réteg Kép,
RészletesebbenNeurális hálók tanítása során alkalmazott optimalizáció
Neurális hálók tanítása során alkalmazott optimalizáció Háló paramétereinek tanulása Lényegében egy szélsőérték keresési feladat: θ: háló paramétereinek vektora X: tanító minták bemeneteiből képzett mátrix
RészletesebbenRegresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.
Regresszió Csorba János Nagyméretű adathalmazok kezelése 2010. március 31. A feladat X magyarázó attribútumok halmaza Y magyarázandó attribútumok) Kérdés: f : X -> Y a kapcsolat pár tanítópontban ismert
RészletesebbenLineáris regressziós modellek 1
Lineáris regressziós modellek 1 Ispány Márton és Jeszenszky Péter 2016. szeptember 19. 1 Az ábrák C.M. Bishop: Pattern Recognition and Machine Learning c. könyvéből származnak. Tartalom Bevezető példák
RészletesebbenACM Snake. Orvosi képdiagnosztika 11. előadás első fele
ACM Snake Orvosi képdiagnosztika 11. előadás első fele ACM Snake (ismétlés) A szegmentáló kontúr egy paraméteres görbe: x Zs s X s, Y s,, s A szegmentáció energia funkcionál minimalizálása: E x Eint x
RészletesebbenOptimalizálás alapfeladata Legmeredekebb lejtő Lagrange függvény Log-barrier módszer Büntetőfüggvény módszer 2017/
Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatikai Intézet Számítógépes Optimalizálás Tanszék 9. Előadás Az optimalizálás alapfeladata Keressük f függvény maximumát ahol f : R n R és
RészletesebbenPrincipal Component Analysis
Principal Component Analysis Principal Component Analysis Principal Component Analysis Definíció Ortogonális transzformáció, amely az adatokat egy új koordinátarendszerbe transzformálja úgy, hogy a koordináták
RészletesebbenNeurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL
Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL TULICS@TMIT.BME.HU Példa X (tanult órák száma, aludt órák száma) y (dolgozaton elért pontszám) (5, 8) 80 (3, 5) 78 (5, 1) 82 (10, 2) 93 (4, 4)
RészletesebbenSzámítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Számítógépes képelemzés 7. előadás Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Momentumok Momentum-alapú jellemzők Tömegközéppont Irányultáság 1 2 tan 2 1 2,0 1,1 0, 2 Befoglaló
RészletesebbenIntelligens orvosi műszerek VIMIA023
Intelligens orvosi műszerek VIMIA023 Neurális hálók (Dobrowiecki Tadeusz anyagának átdolgozásával) 2017 ősz http://www.mit.bme.hu/oktatas/targyak/vimia023 dr. Pataki Béla pataki@mit.bme.hu (463-)2679 A
RészletesebbenBudapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók Előadó: Előadás anyaga: Hullám Gábor Pataki Béla Dobrowiecki Tadeusz BME I.E. 414, 463-26-79
RészletesebbenKeresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Keresés képi jellemzők alapján Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Lusta gépi tanulási algoritmusok Osztályozás: k=1: piros k=5: kék k-legközelebbi szomszéd (k=1,3,5,7)
RészletesebbenGauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei
A Gauss-Jordan elimináció, mátrixinvertálás Gauss-Jordan módszer Ugyanazzal a technikával, mint ahogy a k-adik oszlopban az a kk alatti elemeket kinulláztuk, a fölötte lévő elemeket is zérussá lehet tenni.
RészletesebbenBabeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet
/ Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet / Tartalom 3/ kernelek segítségével Felügyelt és félig-felügyelt tanulás felügyelt: D =
RészletesebbenKonjugált gradiens módszer
Közelítő és szimbolikus számítások 12. gyakorlat Konjugált gradiens módszer Készítette: Gelle Kitti Csendes Tibor Vinkó Tamás Faragó István Horváth Róbert jegyzetei alapján 1 LINEÁRIS EGYENLETRENDSZEREK
RészletesebbenVisszacsatolt (mély) neurális hálózatok
Visszacsatolt (mély) neurális hálózatok Visszacsatolt hálózatok kimenet rejtett rétegek bemenet Sima előrecsatolt neurális hálózat Visszacsatolt hálózatok kimenet rejtett rétegek bemenet Pl.: kép feliratozás,
RészletesebbenTanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,
RészletesebbenFEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 8 VIII. REGREssZIÓ 1. A REGREssZIÓs EGYENEs Két valószínűségi változó kapcsolatának leírására az eddigiek alapján vagy egy numerikus
RészletesebbenGépi tanulás. Féligellenőrzött tanulás. Pataki Béla (Bolgár Bence)
Gépi tanulás Féligellenőrzött tanulás Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Féligellenőrzött tanulás Mindig kevés az adat, de
RészletesebbenGoogle Summer of Code Project
Neuronhálózatok a részecskefizikában Bagoly Attila ELTE TTK Fizikus MSc, 2. évfolyam Integrating Machine Learning in Jupyter Notebooks Google Summer of Code Project 2016.10.10 Bagoly Attila (ELTE) Machine
RészletesebbenGépi tanulás a gyakorlatban. Lineáris regresszió
Gépi tanulás a gyakorlatban Lineáris regresszió Lineáris Regresszió Legyen adott egy tanuló adatbázis: Rendelkezésünkre áll egy olyan előfeldolgozott adathalmaz, aminek sorai az egyes ingatlanokat írják
RészletesebbenMély konvolúciós neurális hálózatok. Hadházi Dániel BME IE 338
Mély konvolúciós neurális hálózatok Hadházi Dániel BME IE 338 hadhazi@mit.bme.hu ÚJ ARCHITEKTÚRÁLIS ELEMEK Konvolúciós réteg Motiváció: Klasszikus képfeldolgozásnál alapművelet a konvolúció: Zajszűrésre
RészletesebbenA szimplex algoritmus
A szimplex algoritmus Ismétlés: reprezentációs tétel, az optimális megoldás és az extrém pontok kapcsolata Alapfogalmak: bázisok, bázismegoldások, megengedett bázismegoldások, degenerált bázismegoldás
RészletesebbenRegressziós vizsgálatok
Regressziós vizsgálatok Regresszió (regression) Általános jelentése: visszaesés, hanyatlás, visszafelé mozgás, visszavezetés. Orvosi területen: visszafejlődés, involúció. A betegség tünetei, vagy maga
RészletesebbenI. LABOR -Mesterséges neuron
I. LABOR -Mesterséges neuron A GYAKORLAT CÉLJA: A mesterséges neuron struktúrájának az ismertetése, neuronhálókkal kapcsolatos elemek, alapfogalmak bemutatása, aktivációs függvénytípusok szemléltetése,
RészletesebbenA maximum likelihood becslésről
A maximum likelihood becslésről Definíció Parametrikus becsléssel foglalkozunk. Adott egy modell, mellyel elképzeléseink szerint jól leírható a meghatározni kívánt rendszer. (A modell típusának és rendszámának
RészletesebbenFeladatok a Gazdasági matematika II. tárgy gyakorlataihoz
Debreceni Egyetem Közgazdaságtudományi Kar Feladatok a Gazdasági matematika II tárgy gyakorlataihoz a megoldásra ajánlott feladatokat jelöli e feladatokat a félév végére megoldottnak tekintjük a nehezebb
RészletesebbenKépszegmentáló eljárások. Orvosi képdiagnosztika 2018 ősz
Képszegmentáló eljárások Orvosi képdiagnosztika 2018 ősz Képszegmentálás Anatómiai részek elkülönítés: pl. csontok, szív, erek, szürkefehér állomány, stb Vizsgálandó terület körbehatárolása: pl. tüdőterület
RészletesebbenDeep Learning: Mélyhálós Tanulás
Deep Learning Deep Learning: Mélyhálós Tanulás Mesterséges Neuronhálók 2015 o sz Milacski Zoltán Ádám srph25@gmail.com http://milacski.web.elte.hu ELTE Informatika Doktori Iskola 2015-09-21 Deep Learning
RészletesebbenKépfeldolgozó eljárások áttekintés. Orvosi képdiagnosztika 9. ea ősz
Képfeldolgozó eljárások áttekintés Orvosi képdiagnosztika 9. ea. 2015 ősz Tartalomjegyzék Képmanipulációs eljárások Képjavítás (kontraszt módosítás, intenzitásviszonyok módosításahisztogram módosítás,
RészletesebbenNumerikus matematika vizsga
1. Az a = 2, t = 4, k = 3, k + = 2 számábrázolási jellemzők mellett hány pozitív, normalizált lebegőpontos szám ábrázolható? Adja meg a legnagyobb ábrázolható számot! Mi lesz a 0.8-hoz rendelt lebegőpontos
RészletesebbenLOGIT-REGRESSZIÓ a függő változó: névleges vagy sorrendi skála
LOGIT-REGRESSZIÓ a függő változó: névleges vagy sorrendi skála a független változó: névleges vagy sorrendi vagy folytonos skála BIOMETRIA2_NEMPARAMÉTERES_5 1 Y: visszafizeti-e a hitelt x: fizetés (életkor)
RészletesebbenSajátértékek és sajátvektorok. mf1n1a06- mf1n2a06 Csabai István
Sajátértékek és sajátvektorok A fizika numerikus módszerei I. mf1n1a06- mf1n2a06 Csabai István Lineáris transzformáció Vektorok lineáris transzformációja: általános esetben az x vektor iránya és nagysága
RészletesebbenNemlineáris programozás 2.
Optimumszámítás Nemlineáris programozás 2. Többváltozós optimalizálás feltételek mellett. Lagrange-feladatok. Nemlineáris programozás. A Kuhn-Tucker feltételek. Konvex programozás. Sydsaeter-Hammond: 18.1-5,
RészletesebbenLine aris f uggv enyilleszt es m arcius 19.
Lineáris függvényillesztés 2018. március 19. Illesztett paraméterek hibája Eddig azt néztük, hogy a mérési hiba hogyan propagál az illesztett paraméterekbe, ha van egy konkrét függvényünk. a hibaterjedés
RészletesebbenDeep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök
Gyires-Tóth Bálint Deep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök http://smartlab.tmit.bme.hu Deep Learning Híradó Hírek az elmúlt 168 órából Deep Learning Híradó Google
RészletesebbenFunkcionális konnektivitás vizsgálata fmri adatok alapján
Funkcionális konnektivitás vizsgálata fmri adatok alapján Képalkotási technikák 4 Log Resolution (mm) 3 Brain EEG & MEG fmri TMS PET Lesions 2 Column 1 0 Lamina -1 Neuron -2 Dendrite -3 Synapse -4 Mikrolesions
RészletesebbenNumerikus módszerek 1.
Numerikus módszerek 1. 10. előadás: Nemlineáris egyenletek numerikus megoldása Lócsi Levente ELTE IK 2013. november 18. Tartalomjegyzék 1 Bolzano-tétel, intervallumfelezés 2 Fixponttételek, egyszerű iterációk
RészletesebbenYBL - SGYMMAT2012XA Matematika II.
YBL - SGYMMAT2012XA Matematika II. Tantárgyfelelős: Dr. Joós Antal Tárgyelőadó: Dr. Joós Antal Tantárgyi leírás Oktatási cél: Azoknak a matematikai alapoknak a megszerzése, melyek a szaktárgyak elsajátításához
RészletesebbenNorma Determináns, inverz Kondíciószám Direkt és inverz hibák Lin. egyenletrendszerek A Gauss-módszer. Lineáris algebra numerikus módszerei
Indukált mátrixnorma Definíció A. M : R n n R mátrixnormát a. V : R n R vektornorma által indukált mátrixnormának nevezzük, ha A M = max { Ax V : x V = 1}. Az indukált mátrixnorma geometriai jelentése:
RészletesebbenMesterséges Intelligencia I.
Mesterséges Intelligencia I. 10. elıadás (2008. november 10.) Készítette: Romhányi Anita (ROANAAT.SZE) - 1 - Statisztikai tanulás (Megfigyelések alapján történı bizonytalan következetésnek tekintjük a
RészletesebbenSaj at ert ek-probl em ak febru ar 26.
Sajátérték-problémák 2018. február 26. Az alapfeladat Adott a következő egyenlet: Av = λv, (1) ahol A egy ismert mátrix v ismeretlen, nem zérus vektor λ ismeretlen szám Azok a v, λ kombinációk, amikre
RészletesebbenAlap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )
Budapesti Műszaki és Gazdaságtudományi Egyetem Gépészmérnöki Kar Hidrodinamikai Rendszerek Tanszék, Budapest, Műegyetem rkp. 3. D ép. 334. Tel: 463-6-80 Fa: 463-30-9 http://www.vizgep.bme.hu Alap-ötlet:
RészletesebbenMátrixok 2017 Mátrixok
2017 számtáblázatok" : számok rendezett halmaza, melyben a számok helye két paraméterrel van meghatározva. Például lineáris egyenletrendszer együtthatómátrixa 2 x 1 + 4 x 2 = 8 1 x 1 + 3 x 2 = 1 ( 2 4
RészletesebbenFEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 10 X. SZIMULÁCIÓ 1. VÉLETLEN számok A véletlen számok fontos szerepet játszanak a véletlen helyzetek generálásában (pénzérme, dobókocka,
RészletesebbenTanulás az idegrendszerben
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Funkcióvezérelt modellezés Abból indulunk ki, hogy milyen feladatot valósít meg a rendszer Horace Barlow: "A
Részletesebbenn n (n n ), lim ln(2 + 3e x ) x 3 + 2x 2e x e x + 1, sin x 1 cos x, lim e x2 1 + x 2 lim sin x 1 )
Matek szigorlat Komplex számok Sorozat határérték., a legnagyobb taggal egyszerűsítünk n n 3 3n 2 + 2 3n 2 n n + 2 25 n 3 9 n 2 + + 3) 2n 8 n 3 2n 3,, n n5 + n 2 n 2 5 2n + 2 3n 2) n+ 2. e-ados: + a )
Részletesebben3. Szűrés képtérben. Kató Zoltán. Képfeldolgozás és Számítógépes Grafika tanszék SZTE (http://www.inf.u-szeged.hu/~kato/teaching/)
3. Szűrés képtérben Kató Zoltán Képfeldolgozás és Számítógépes Grafika tanszék SZTE http://www.inf.u-szeged.hu/~kato/teaching/ 2 Kép transzformációk típusai Kép értékkészletének radiometriai információ
RészletesebbenBudapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók 2. Pataki Béla
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók 2. Előadó: Hullám Gábor Pataki Béla BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki
RészletesebbenAdatbányászati szemelvények MapReduce környezetben
Adatbányászati szemelvények MapReduce környezetben Salánki Ágnes salanki@mit.bme.hu 2014.11.10. Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs Rendszerek Tanszék Felügyelt
Részletesebben2 (j) f(x) dx = 1 arcsin(3x 2) + C. (d) A x + Bx + C 5x (2x 2 + 7) + Hx + I. 2 2x F x + G. x
I feladatsor Határozza meg az alábbi függvények határozatlan integrálját: a fx dx = x arctg + C b fx dx = arctgx + C c fx dx = 5/x 4 arctg 5 x + C d fx dx = arctg + C 5/ e fx dx = x + arctg + C f fx dx
RészletesebbenModellkiválasztás és struktúrák tanulása
Modellkiválasztás és struktúrák tanulása Szervezőelvek keresése Az unsupervised learning egyik fő célja Optimális reprezentációk Magyarázatok Predikciók Az emberi tanulás alapja Általános strukturális
RészletesebbenMatematika A2 vizsga mgeoldása június 4.
Matematika A vizsga mgeoldása 03. június.. (a (3 pont Definiálja az f(x, y függvény határértékét az (x 0, y 0 helyen! Megoldás: Legyen D R, f : D R. Legyen az f(x, y függvény értelmezve az (x 0, y 0 pont
RészletesebbenMegerősítéses tanulás 9. előadás
Megerősítéses tanulás 9. előadás 1 Backgammon (vagy Ostábla) 2 3 TD-Gammon 0.0 TD() tanulás (azaz időbeli differencia-módszer felelősségnyomokkal) függvényapproximátor: neuronháló 40 rejtett (belső) neuron
RészletesebbenNumerikus matematika. Irodalom: Stoyan Gisbert, Numerikus matematika mérnököknek és programozóknak, Typotex, Lebegőpontos számok
Numerikus matematika Irodalom: Stoyan Gisbert, Numerikus matematika mérnököknek és programozóknak, Typotex, 2007 Lebegőpontos számok Normák, kondíciószámok Lineáris egyenletrendszerek Legkisebb négyzetes
RészletesebbenVektorok, mátrixok, lineáris egyenletrendszerek
a Matematika mérnököknek I. című tárgyhoz Vektorok, mátrixok, lineáris egyenletrendszerek Vektorok A rendezett valós számpárokat kétdimenziós valós vektoroknak nevezzük. Jelölésükre latin kisbetűket használunk.
RészletesebbenGyakorló feladatok I.
Gyakorló feladatok I. a Matematika Aa Vektorüggvények tárgyhoz (D D5 kurzusok) Összeállította: Szili László Ajánlott irodalmak:. G.B. Thomas, M.D. Weir, J. Hass, F.R. Giordano: Thomas-féle KALKULUS I.,
RészletesebbenSergyán Szabolcs szeptember 21.
Éldetektálás Sergyán Szabolcs Budapesti Műszaki Főiskola Neumann János Informatikai Kar 2009. szeptember 21. Sergyán Sz. (BMF NIK) Éldetektálás 2009. szeptember 21. 1 / 28 Mit nevezünk élnek? Intuitív
RészletesebbenNumerikus módszerek II. zárthelyi dolgozat, megoldások, 2014/15. I. félév, A. csoport. x 2. c = 3 5, s = 4
Numerikus módszerek II. zárthelyi dolgozat, megoldások, 204/5. I. félév, A. csoport. Feladat. (6p) Alkalmas módon választva egy Givens-forgatást, határozzuk meg az A mátrix QR-felbontását! Oldjuk meg ennek
RészletesebbenMérnökgeodéziai hálózatok feldolgozása
Mérnökgeodéziai hálózatok feldolgozása dr. Siki Zoltán siki@agt.bme.hu XIV. Földmérő Találkozó Gyergyószentmiklós 2013.05.09-12. Mérnökgeodéziai hálózatok nagy relatív pontosságú hálózatok (1/100 000,
RészletesebbenGépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)
Gépi tanulás Hány tanítómintára van szükség? VKH Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Induktív tanulás A tanítás folyamata: Kiinduló
RészletesebbenStrukturált Generátorrendszerek Online Tanulása és Alk-ai
Strukturált Generátorrendszerek Online Tanulása és Alkalmazásai Problémamegoldó Szeminárium 2010. nov. 5 Tartalomjegyzék Motiváció, példák Regressziós feladatok (generátorrendszer fix) Legkisebb négyzetes
RészletesebbenE x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes)
6-7 ősz. gyakorlat Feladatok.) Adjon meg azt a perceptronon implementált Bayes-i klasszifikátort, amely kétdimenziós a bemeneti tér felett szeparálja a Gauss eloszlású mintákat! Rajzolja le a bemeneti
RészletesebbenNemlineáris modellek
Ferenci Tamás tamas.ferenci@medstat.hu 2018. február 7. Tartalom 1 2 3 4 A marginális hatás fogalma Marginális hatás: a magyarázó változó kis növelésének hatására mekkora az eredményváltozó egységnyi magyarázóváltozó-növelésre
RészletesebbenPONTFELHŐ REGISZTRÁCIÓ
PONTFELHŐ REGISZTRÁCIÓ ITERATIVE CLOSEST POINT Cserteg Tamás, URLGNI, 2018.11.22. TARTALOM Röviden Alakzatrekonstrukció áttekintés ICP algoritmusok Projektfeladat Demó FORRÁSOK Cikkek Efficient Variants
RészletesebbenKépfeldolgozó eljárások áttekintés. Orvosi képdiagnosztika
Képfeldolgozó eljárások áttekintés Orvosi képdiagnosztika Tartalomjegyzék Képmanipulációs eljárások Képjavítás (kontraszt módosítás, intenzitásviszonyok módosításahisztogram módosítás, zajszűrés) Képelemzés
RészletesebbenBevezetés a neurális számításokba Analóg processzortömbök,
Pannon Egyetem Villamosmérnöki és Információs Tanszék Bevezetés a neurális számításokba Analóg processzortömbök, neurális hálózatok Előadó: dr. Tömördi Katalin Neurális áramkörök (ismétlés) A neurális
RészletesebbenNemlineáris egyenletrendszerek megoldása április 15.
Nemlineáris egyenletrendszerek megoldása 2014. április 15. Nemlineáris egyenletrendszerek Az egyenletrendszer a következő formában adott: f i (x 1, x 2,..., x M ) = 0 i = 1...N az f i függvények az x j
RészletesebbenSupport Vector Machines
Support Vector Machnes Ormánd Róbert MA-SZE Mest. Int. Kutatócsoport 2009. február 17. Előadás vázlata Rövd bevezetés a gép tanulásba Bevezetés az SVM tanuló módszerbe Alapötlet Nem szeparálható eset Kernel
RészletesebbenPletykaalapú gépi tanulás teljesen elosztott környezetben
Pletykaalapú gépi tanulás teljesen elosztott környezetben Hegedűs István Jelasity Márk témavezető Szegedi Tudományegyetem MTA-SZTE Mesterséges Intelligencia Kutatócsopot Motiváció Az adat adatközpontokban
RészletesebbenInferencia valószínűségi modellekben
Statisztikai tanulás az idegrendszerben, 2016. Inferencia valószínűségi modellekben Bányai Mihály banyai.mihaly@wigner.mta.hu http://golab.wigner.mta.hu/people/mihaly-banyai/ Inferencia valószínűségi modellekben
RészletesebbenA lineáris programozás alapjai
A lineáris programozás alapjai A konvex analízis alapjai: konvexitás, konvex kombináció, hipersíkok, félterek, extrém pontok, Poliéderek, a Minkowski-Weyl tétel (a poliéderek reprezentációs tétele) Lineáris
RészletesebbenMatematikai statisztika c. tárgy oktatásának célja és tematikája
Matematikai statisztika c. tárgy oktatásának célja és tematikája 2015 Tematika Matematikai statisztika 1. Időkeret: 12 héten keresztül heti 3x50 perc (előadás és szeminárium) 2. Szükséges előismeretek:
Részletesebben11. gyakorlat megoldásai
11. gyakorlat megoldásai Lokális szélsőértékek F1. Határozzuk meg az alábbi kétváltozós függvények lokális szélsőértékeit! (a) f(x, y) = 4x 2 + 2xy + 5y 2 + 2, (b) f(x, y) = y 4 y + x 2 y + 2xy, (c) f(x,
RészletesebbenBevezetés a Korreláció &
Bevezetés a Korreláció & Regressziószámításba Petrovics Petra Doktorandusz Statisztikai kapcsolatok Asszociáció 2 minőségi/területi ismérv között Vegyes kapcsolat minőségi/területi és egy mennyiségi ismérv
RészletesebbenSearching in an Unsorted Database
Searching in an Unsorted Database "Man - a being in search of meaning." Plato History of data base searching v1 2018.04.20. 2 History of data base searching v2 2018.04.20. 3 History of data base searching
RészletesebbenSzámítógépes geometria (mester kurzus)
2010 sz, Debreceni Egyetem Csuklós szerkezetek animációja (Kép 1985-b l: Tony de Peltrie) Csontváz-modellek Csuklós szerkezet (robotkar) A robotkar részei: csuklók (joints) rotációs prizmatikus (transzlációs)
RészletesebbenNem-lineáris programozási feladatok
Nem-lineáris programozási feladatok S - lehetséges halmaz 2008.02.04 Dr.Bajalinov Erik, NyF MII 1 Elég egyszerű példa: nemlineáris célfüggvény + lineáris feltételek Lehetséges halmaz x 1 *x 2 =6.75 Gradiens
RészletesebbenMátrixhatvány-vektor szorzatok hatékony számítása
Mátrixhatvány-vektor szorzatok hatékony számítása Izsák Ferenc ELTE TTK, Alkalmazott Analízis és Számításmatematikai Tanszék & ELTE-MTA NumNet Kutatócsoport munkatárs: Szekeres Béla János Alkalmazott Analízis
RészletesebbenMegoldott feladatok november 30. n+3 szigorúan monoton csökken, 5. n+3. lim a n = lim. n+3 = 2n+3 n+4 2n+1
Megoldott feladatok 00. november 0.. Feladat: Vizsgáljuk az a n = n+ n+ sorozat monotonitását, korlátosságát és konvergenciáját. Konvergencia esetén számítsuk ki a határértéket! : a n = n+ n+ = n+ n+ =
RészletesebbenNEURONHÁLÓK ÉS TANÍTÁSUK A BACKPROPAGATION ALGORITMUSSAL. A tananyag az EFOP pályázat támogatásával készült.
NEURONHÁLÓK ÉS TANÍTÁSUK A BACKPROPAGATION ALGORITMUSSAL A tananyag az EFOP-3.5.1-16-2017-00004 pályázat támogatásával készült. Neuron helyett neuronháló Neuron reprezentációs erejének növelése: építsünk
RészletesebbenPIXEL SZINTŰ SZEGMENTÁLÁS CNN-EL
PIXEL SZINTŰ SZEGMENTÁLÁS CNN-EL Csúszóablakos szegmentálás Szegmentálás direkt osztályozással Kisméretű ablakkal kivágott kép alapján megítéli az adott pixel környezetének a típusát Nagyon lassú, nehezen
RészletesebbenGépi tanulás a gyakorlatban SVM
Gépi tanulás a gyakorlatban SVM Klasszifikáció Feladat: előre meghatározott csoportok elkülönítése egymástól Osztályokat elkülönítő felület Osztályokhoz rendelt döntési függvények Klasszifikáció Feladat:
RészletesebbenGauss-Seidel iteráció
Közelítő és szimbolikus számítások 5. gyakorlat Iterációs módszerek: Jacobi és Gauss-Seidel iteráció Készítette: Gelle Kitti Csendes Tibor Somogyi Viktor London András Deák Gábor jegyzetei alapján 1 ITERÁCIÓS
Részletesebben11. gyakorlat megoldásai
11. gyakorlat megoldásai Lokális szélsőértékek F1. Határozza meg az alábbi kétváltozós függvények lokális szélsőértékeit! (a) f(x, y) = 4x 2 + 2xy + 5y 2 + 2, (b) f(x, y) = y 4 3y + x 2 y + 2xy, (c) f(x,
RészletesebbenKernel gépek vizsgálata
Kernel gépek vizsgálata Lágler Krisztián 2011. május 12. FYMGQ8 Konzulens : Dr. Horváth Gábor 1 Tartalomjegyzék 1. Feladat kiírás 3 1.1. A kernelfüggvény hiperparamétereinek megválasztása..... 3 2. Bevezetés
Részletesebben[1000 ; 0] 7 [1000 ; 3000]
Gépi tanulás (vimim36) Gyakorló feladatok 04 tavaszi félév Ahol lehet, ott konkrét számértékeket várok nem puszta egyenleteket. (Azok egy részét amúgyis megadom.). Egy bináris osztályozási feladatra tanított
RészletesebbenDifferenciálegyenletek numerikus megoldása
a Matematika mérnököknek II. című tárgyhoz Differenciálegyenletek numerikus megoldása Fokozatos közeĺıtés módszere (1) (2) x (t) = f (t, x(t)), x I, x(ξ) = η. Az (1)-(2) kezdeti érték probléma ekvivalens
Részletesebben5. elıadás március 22. Portfólió-optimalizálás
5. elıadás 203. március 22. Portfólió-optimalizálás Alapfeladat Cél: minél nagyobb várható hozam elérése De: közben a kockázat legyen minél kisebb Kompromisszum: elvárt hozamot érje el a várható érték
RészletesebbenTöbbváltozós lineáris regresszió 3.
Többváltozós lineáris regresszió 3. Orlovits Zsanett 2018. október 10. Alapok Kérdés: hogyan szerepeltethetünk egy minőségi (nominális) tulajdonságot (pl. férfi/nő, egészséges/beteg, szezonális hatások,
RészletesebbenMatematika III előadás
Matematika III. - 3. előadás Vinczéné Varga Adrienn Debreceni Egyetem Műszaki Kar, Műszaki Alaptárgyi Tanszék Előadáskövető fóliák Vinczéné Varga Adrienn (DE-MK) Matematika III. 2016/2017/I 1 / 19 Skalármezők
RészletesebbenNumerikus módszerek: Nemlineáris egyenlet megoldása (Newton módszer, húrmódszer). Lagrange interpoláció. Lineáris regresszió.
YBL - SGYMMAT202XXX Matematika II. Tantárgyfelelős: Dr. Joós Antal Tárgyelőadó: Dr. Joós Antal Tantárgyi leírás Oktatási cél: Azoknak a matematikai alapoknak a megszerzése, melyek a szaktárgyak elsajátításához
RészletesebbenGeometriai vagy kinematikai természetű feltételek: kötések vagy. kényszerek. 1. Egy apró korong egy mozdulatlan lejtőn vagy egy gömb belső
Kényszerek Geometriai vagy kinematikai természetű feltételek: kötések vagy kényszerek. Példák: 1. Egy apró korong egy mozdulatlan lejtőn vagy egy gömb belső felületén mozog. Kényszerek Geometriai vagy
RészletesebbenStatisztikai eljárások a mintafelismerésben és a gépi tanulásban
Statisztikai eljárások a mintafelismerésben és a gépi tanulásban Varga Domonkos (I.évf. PhD hallgató) 2014 május A prezentáció felépítése 1) Alapfogalmak 2) A gépi tanulás, mintafelismerés alkalmazási
RészletesebbenLikelihood, deviancia, Akaike-féle információs kritérium
Többváltozós statisztika (SZIE ÁOTK, 2011. ősz) 1 Likelihood, deviancia, Akaike-féle információs kritérium Likelihood függvény Az adatokhoz paraméteres modellt illesztünk. A likelihood függvény a megfigyelt
RészletesebbenKépfeldolgozó eljárások áttekintés. Orvosi képdiagnosztika 9. ea ősz
Képfeldolgozó eljárások áttekintés Orvosi képdiagnosztika 9. ea. 2015 ősz Tartalomjegyzék Képmanipulációs eljárások Képjavítás (kontraszt módosítás, intenzitásviszonyok módosításahisztogram módosítás,
RészletesebbenA Newton-Raphson iteráció kezdeti értéktől való érzékenysége
Szénási Eszter SZTE TTIK Matematika BSc, Numerikus matematika projekt 2015. november 30. A Newton-Raphson iteráció kezdeti értéktől való érzékenysége Medencék (attraktorok) színezése 2 Newton_project-szenasi.nb
Részletesebben