Neurális hálók tanítása során alkalmazott optimalizáció

Méret: px
Mutatás kezdődik a ... oldaltól:

Download "Neurális hálók tanítása során alkalmazott optimalizáció"

Átírás

1 Neurális hálók tanítása során alkalmazott optimalizáció

2 Háló paramétereinek tanulása Lényegében egy szélsőérték keresési feladat: θ: háló paramétereinek vektora X: tanító minták bemeneteiből képzett mátrix : tanító mintákhoz tartozó elvárt kimenet f, : háló által megvalósított leképezés L, : úgynevezett Loss function J L f J θ arg min θ, X, d arg min θ d θ L f θ θ, X, d θ

3 Optimalizációs algoritmusok Hibafelület jellege szerint: Konvex: egyszerűbb eset a célfüggvény konvex függvénye a keresett paramétervektornak Globális: lassabb algoritmusok ha nem konvex célfüggvény szélsőértékének helyét keressük Neurális hálók esete: Nemlinearitások miatt nem konvex hibafelület Általában konvex optimalizációs eljárások Lokális optimumot képesek csak megtalálni Mély hálóknál ez kevésbé jelent problémát

4 Konvex optimalizációs algoritmusok Továbbiakban konvex optimalizáció: Iteratív algoritmusok (kivéve pár egyszerű eset) Iterációk során javítóirányt keresünk: θ θ k 1 k Δθ k Δθ k becslése J θ Taylor polinomja alapján Csoportosítás Taylor polinom fokszáma szerint: 0-ad rendű: pl. Genetikus algoritmus Elsőrendű: pl. SGD, Momentum, AdaGrad Másodrendű: Newton / kvázi Newton módszerek

5 Newton módszer 2 T T J 0 J 0 J θ θ θ θ θ θ θ H θ θ 0 2 J θ 0 H θ jelöli Hesse-mátrixát 0 J i, j θ θ J θ 0 J θ jelöli a gradienst -ban 0 i θ 0 θ Ha Hθ 0 pozitív definit, akkor θ Tehát i arg min J θ i j 2 θ θ 0 1 θ H θ J θ Jθ θ 0

6 Newton módszer 2 J θ θ csak approximálja J-t: 0 Viszont J θ 0 pontbeli kvadratikus közelítésének t.f.h. a minimumhelye: θ θ Tehát meghatározása line-search algoritmusokkal. Az alábbi trade-off problémát oldják meg: J θ θ 2 J θ θ0 θ θ0 θ J θ J θ θ 2 2 θ 0 θ 0

7 Newton módszer Interpretációja: 1. Aktuális paramétervektor környezetében egy kvadratikus felülettel közelítjük J θ -t. 2. Megkeressük a közelítés minimumhelyét, majd annak irányába lépünk elegendően nagyot. 3. Ha nem teljesül a leállási feltétel, akkor GOTO 1. Előnyei: Pár 10 / 100 iteráció gyakorlatban elég J θ affin transzformációjára érzéketlen

8 Newton módszer Hátrányai: Minden iterációban újra kell számolni, és invertálni a Hesse mtx.-ot (mely akár 10^8 10^8 méretű): Kvázi Newton módszerek ezt próbálják kikerülni Batch-elt tanításhoz illeszkedik jól túl nagy lépéseket tesz ahhoz, hogy sztochasztikus (pl. mini batch) optimalizációra alkalmas legyen: Így nem is lehet jól párhuzamosítani Klasszikus Neurális hálóknál alkalmazható inkább (lsd. Levenberg-Marquadt)

9 Kvázi Newton módszerek BFGS A Hesse mátrix inverzét közelítik BFGS algoritmus ú.n. secant feltétele: 2 J J és θ θ θ k k k 2 Első feltétel J definíciója miatt teljesül θ k Második feltétel kifejtését követően: Tehát a secant feltétel igaz, ha 2 J Jθ θ θ k k1 k1 J θ J θ H θ θ θ k 1 k k k 1 k 1 J J H θ θ θ θ θ k k 1 k k 1 k

10 Kvázi Newton módszerek BFGS Mit tudunk eddig 1 H θ k -ről: Szimmetrikus, hiszen szimmetrikus mátrix inverze 1 J J H θ θ θ θ θ k k 1 k k 1 k De ilyenből végtelen van regularizáció kell: Éljünk a simasági feltételezéssel ( H folytonos) H θk arg min H H θk H F Szerencsére analitikusan megoldható

11 Kvázi Newton módszerek BFGS BFGS frissítés tulajdonságai: Ha Hθ 0 -t diagonálisnak választjuk, akkor θk számítása Ok sizeθ komplexitású. Ehhez viszont szükség van J θ -re és -ra, minden i 0,..., k esetén k θ k Nagyméretű problémák esetén ez már problémát jelent (memória). Memória használata túl nagy: Pl. 1E5 iteráció, és 1E7 paraméter esetén ~1 TB

12 Kvázi Newton módszerek L-BFGS Belátható, hogy konvergál az optimumhoz De esetenként jóval lassabban, mint a Newton módszer tipikusan pár tíz/százezer iteráció kell Skálázásra érzékeny (sok numerikus művelet) Mini Batch módszerek problémásak L(imitált memóriahasználatú)-bfgs: Bár a közelített inverz Hesse kiszámításához szükség lenne az összes addigi gradiensre és paraméterre, ezt csak az utolsó m db alapján becsli. Matematikai bizonyítása a konvergenciának nincs, de praktikusan konvergens (itt már jelentősen függ a szükséges iterációk száma a változók számától). Mini Batch-es tanítást ez sem igazán kedveli

13 Kvázi Newton módszerek Konjugált Gradiens módszer Lineáris egyenletek megoldására találták ki, 1 most θ H J θ -t keressük iteratívan. Alapötlet lineáris egyenlet megoldása: 0 arg min H θ k θk esetén T k 1 J 0 k 1 k 1 θ θ H θ θ T k1 k θ H θ θ 0 Tehát az k-adik javítóirány H feletti konjugáltja a (k-1)- T ediknek, azaz θk 1 H θk 0

14 Kvázi Newton módszerek Konjugált Gradiens módszer Mint lineáris egyenlet megoldó: 1 x A b pi : i-edik keresési irány, x : i-edik becslése x -nak i

15 Kvázi Newton módszerek Konjugált Gradiens módszer Mint veszteségfüggvény minimalizáló eljárás: Aktuális pontbeli gradiensből az előző javítóiránnyal párhuzamos komponenst levonva áll elő az új javítóirány: Javító lépés nagysága: Nem igényli a Hesse mtx. kiszámítását Konvergencia: θ J θ θ Nagyságrendileg Newton iterációk száma 60 változók száma iterációra van szükség k k 1 k 1 arg min J θ k1 θ k

16 Futási példák Csonkolt Newton

17 Futási példák BFGS

18 Futási példák CG

19 Newton / kvázi Newton módszerek CG-t főleg viselkedése és komplexitása miatt soroltuk ide (gyakorlatban H I feltételezés). Általában bonyolultabb iterációk: De jóval kevesebb elég belőle Batch tanításnál Mini-batch/ LMS esetén viszont nem éri meg Klasszikus neurális hálóknál fontos szerep: Levenberg Marquadt algoritmus Newton módszer és elsőrendű módszer keveréke

20 Elsőrendű módszerek Gradiens irányába lépnek: Mikor pontosabb a másodfokú közelítés? Ha 2 J 0 J θ θ θ θ H θ θ k1 k k k Általánosságban is igaz, hogy minél izotropikusabb a hibafelület, annál jobbak az elsőrendű módszerek Kérdés, mi a helyzet, ha θ J θ k H θ I θ J θ k1 k1 Hθ k 1 1 egy forgatás? 1

21 Gradiens módszer Gradienssel ellentétes irányba lépünk: θ k θk 1 J θk 1, bátorsági tényező Konvex függvények esetén meghatározható az : Polyak módszer : J θ J θ J θ Léteznek line search algoritmusok (pl. Armijo) Gyakori az választás (pl. ) Problémás, ahol k 2 2 k k k k J rosszul kondicionált: Pl. szűk völgyek, elnyújtott hibafelület Azaz kb. ahol min H I túl nagy F

22 Gradiens módszer szemléltetés Pl. egy vízszintesen elnyújtott, kvadratikus J Gradiens vektor függőleges tengelyre eső vetülete jóval nagyobb, mint a vízszintes tengelyre eső vetülete pedig vízszintes irányban vagyunk messze a minimumtól

23 Gradiens módszer szemléltetés Pl. egy vízszintesen elnyújtott, kvadratikus J A A Lassú, kis amplitúdójú lépések vízszintesen Nagy lépések függőlegesen, ami cikk-cakk jellegű becslővektor trajektóriához vezet

24 Gradiens módszer szemléltetés Szűk völgy körül oszcillál Lapos felületen lelassul

25 Gradiens módszer konvergenciája Belátható, hogy minden esetben létezik olyan bátorsági tényező, mellyel konvergál Akár fix bátorsági tényező esetén is De a konvergencia sebessége nagyon függ a hibafelülettől (ellentétben a Newton módszerekkel) A paramétertér affin transzformációja érzékeny Jól tűri a sztochasztikus jelleget is Alkalmas mini batch-re (pl. LMS) 1 valószínűséggel konvergál, de jóval több lépés kell

26 Momentum módszerek Első interpretáció alul-áteresszük -at: Ezzel a cikk-cakkos ugrásokat kiküszöbölhetjük ' ' θ θ 1 J θ 0,1 Másik interpretáció fizikai modell: Integráljuk a gyorsulást ( ), súrlódással Integráljuk a sebességet k k 1 k 1 θ θ θ ' k k 1 k vk vk 1 J θk 1 0.5, 1 θ θ θ v k k 1 k J k 1 θ k

27 Nesterov Momentum Ha úgyis ellépünk vk 1 irányba, akkor az ottani gradiens irányába lépjünk tovább: Egyszerű momentum: Nesterov: k k 1 k 1 v v J θ v v J θ v k k 1 k 1 k 1

28 Momentum módszerek Sima momentum hasonló a CG-vel: Csak itt hasból választjuk -t, -t Gyakorlatban jobbak a gradiens módszernél Elméletileg ez nehezen látható be A Nesterov momentum viszont elméletileg is gyorsabb a sima momentumnál Jellemző az állapot-trajektóriára a túllövés: Nagy amplitúdójú gradiensek sokáig magukkal húzzák az azt követő javító lépéseket

29 Adaptive Gradient (AdaGrad) A hibafelület alakjához próbálunk adaptálódni / dimenziónként skálázunk: k-adik lépésnél J θ i 1,2,..., k 1 alapján becsüljük a dimenziónkénti elnyújtottságot: k 1 τ k J θ i j i j1 2 Majd ezzel normálunk (elkerülve a 0-val osztást): J i 1 i i θ θ τ k k k Sok iteráció után már túl kicsik a lépések: i Ez sima felületeknél általában nem baj, de neurális hálókra tipikusan nem ez a jellemző

30 RMSProp Ötlet: összegzés helyett mozgó átlag alapján becsüljük a hibafelületet 2 τk τk 1 1 J θk 0, 1 Mozgó átlagolás miatt elfelejti a hibafelület távolabbi részeit Ráadásul nem nő minden határon túl i i i θ k J θk 1 k i τ i i Ebből jön az elnevezésbeli RMS Mély NN esetén általában jobb az AdaGrad-nál

31 Adaptive Momentum (Adam) Kombináljuk az RMSProp-ot a Momentummal: 1. vk 1 vk J θk 1 0, 1 2. τk 2 τ 1 1 i k 2 J θ i k i 2 0, 1 3. θ k θ i k 1 vk τ i i k i Ötvözi a két módszer előnyét: Simítja a lépési irányt, mint a Momentum Adaptálódik a hibafelülethez, mint az RMSprop Mély hálók tanításának standard módszere

32 Módszerek szemléltetése Kvadratikus hibafelület: Összetettebb, konvex hibafelület: Nyeregpont: Elnyúló völgy:

33 Elsőrendű módszerek összegzés Milyen az ideális optimalizáló módszer? Azon irány mentén mozog gyorsan, melyre eső gradiens vetület stabil (még akkor is, ha ez kicsi) Az instabil gradiens vetületű irány mentén megfontoltabb (nagy amplitúdó esetén is) Különböző változatok a hibafelület lokális görbületét próbálják becsülni a gradiens vektorokból Jelentős hasonlóság a BFGS / CG módszerekkel Sokat segíthet az előfeldolgozás cél az izotrópia Bemenetenkénti normalizálás Bemenetek de-korrelációja (pl. PCA, igaz sok változó esetén nem egyszerű)

34 Görbület figyelembe vétele Módszerek áttekintése / osztályozása Másodrendű Newton Módszer, (LM) (Csonkolt Newton) BFGS, L-BFGS Konjugált Gradiens Származtatás Elsőrendű Adam, (Adadelta), RMSprop, Adagrad, Nesterov Momentum Momentum Gradient Descent

35 Általános megfontolások -1- Klasszikus NN-ek esete: Általában kevésbé redundáns tanítóminták Egy epoch-ban minden mintát felhasználunk Másodrendű módszerek jól használhatóak Mély NN-ek esete: Sok redundáns tanítóminta Érdemes a mintákat mini-batch-ekre partícionálni Egy partícióba kevésbé korrelált minták essenek Fontos, hogy kiegyensúlyozottak legyenek a bacth-ek

36 Általános megfontolások -2- Mini-batch mérete általában nagy legyen Szélsőséges eset (1 minta) on-line tanulás Másodrendű módszerek kevésbé hatékonyak: Bonyolultabb a hibafelület, kvadratikus approx.-ból származó javítóirányok csak kicsit jobbak a gradiensnél Gyakorlatban tetszőlegesen kis hibát a tanítómintákon el lehet velük érni (de ez gépi tanulásnál kb. lényegtelen) Hibafelület alakja: Lineáris neuron esetén kvadratikus NN / DNN esetén lokálisan kvadratikus (lsd. RELU)

37 Felhasznált források Felhasznált források: 1. Stanford CS231n Denzi Yuret - Alec Radford's animations for optimization algorithms 3. Horváth Gábor (szerk.) : Neurális hálózatok alfejezet 4. Faragó István Horváth Róbert : Numerikus módszerek, Typotex (2013) 5. Stephen Boyd and Lieven Vandenberghe : Convex Optimization, Cambridge University Press (2009) 6. Toronto University CSC321 Lect6:

Konjugált gradiens módszer

Konjugált gradiens módszer Közelítő és szimbolikus számítások 12. gyakorlat Konjugált gradiens módszer Készítette: Gelle Kitti Csendes Tibor Vinkó Tamás Faragó István Horváth Róbert jegyzetei alapján 1 LINEÁRIS EGYENLETRENDSZEREK

Részletesebben

Osztályozási feladatok képdiagnosztikában. Orvosi képdiagnosztikai 2017 ősz

Osztályozási feladatok képdiagnosztikában. Orvosi képdiagnosztikai 2017 ősz Osztályozási feladatok képdiagnosztikában Orvosi képdiagnosztikai 2017 ősz Osztályozás Szeparáló felületet keresünk Leképezéseket tanulunk meg azok mintáiból A tanuláshoz használt minták a tanító minták

Részletesebben

Gépi tanulás a gyakorlatban. Lineáris regresszió

Gépi tanulás a gyakorlatban. Lineáris regresszió Gépi tanulás a gyakorlatban Lineáris regresszió Lineáris Regresszió Legyen adott egy tanuló adatbázis: Rendelkezésünkre áll egy olyan előfeldolgozott adathalmaz, aminek sorai az egyes ingatlanokat írják

Részletesebben

Nemlineáris egyenletrendszerek megoldása április 15.

Nemlineáris egyenletrendszerek megoldása április 15. Nemlineáris egyenletrendszerek megoldása 2014. április 15. Nemlineáris egyenletrendszerek Az egyenletrendszer a következő formában adott: f i (x 1, x 2,..., x M ) = 0 i = 1...N az f i függvények az x j

Részletesebben

Numerikus módszerek beugró kérdések

Numerikus módszerek beugró kérdések 1. Definiálja a gépi számok halmazát (a tanult modellnek megfelelően)! Adja meg a normalizált lebegőpontos szám alakját. (4 pont) Az alakú számot normalizált lebegőpontos számnak nevezik, ha Ahol,,,. Jelöl:

Részletesebben

Saj at ert ek-probl em ak febru ar 26.

Saj at ert ek-probl em ak febru ar 26. Sajátérték-problémák 2018. február 26. Az alapfeladat Adott a következő egyenlet: Av = λv, (1) ahol A egy ismert mátrix v ismeretlen, nem zérus vektor λ ismeretlen szám Azok a v, λ kombinációk, amikre

Részletesebben

Deep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök

Deep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök Gyires-Tóth Bálint Deep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök http://smartlab.tmit.bme.hu Deep Learning Híradó Hírek az elmúlt 168 órából Deep Learning Híradó Google

Részletesebben

ACM Snake. Orvosi képdiagnosztika 11. előadás első fele

ACM Snake. Orvosi képdiagnosztika 11. előadás első fele ACM Snake Orvosi képdiagnosztika 11. előadás első fele ACM Snake (ismétlés) A szegmentáló kontúr egy paraméteres görbe: x Zs s X s, Y s,, s A szegmentáció energia funkcionál minimalizálása: E x Eint x

Részletesebben

Differenciálegyenletek numerikus megoldása

Differenciálegyenletek numerikus megoldása a Matematika mérnököknek II. című tárgyhoz Differenciálegyenletek numerikus megoldása Fokozatos közeĺıtés módszere (1) (2) x (t) = f (t, x(t)), x I, x(ξ) = η. Az (1)-(2) kezdeti érték probléma ekvivalens

Részletesebben

Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)

Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence) Gépi tanulás Hány tanítómintára van szükség? VKH Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Induktív tanulás A tanítás folyamata: Kiinduló

Részletesebben

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31. Regresszió Csorba János Nagyméretű adathalmazok kezelése 2010. március 31. A feladat X magyarázó attribútumok halmaza Y magyarázandó attribútumok) Kérdés: f : X -> Y a kapcsolat pár tanítópontban ismert

Részletesebben

Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )

Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( ) Budapesti Műszaki és Gazdaságtudományi Egyetem Gépészmérnöki Kar Hidrodinamikai Rendszerek Tanszék, Budapest, Műegyetem rkp. 3. D ép. 334. Tel: 463-6-80 Fa: 463-30-9 http://www.vizgep.bme.hu Alap-ötlet:

Részletesebben

Hidraulikus hálózatok robusztusságának növelése

Hidraulikus hálózatok robusztusságának növelése Dr. Dulovics Dezső Junior Szimpózium 2018. Hidraulikus hálózatok robusztusságának növelése Előadó: Huzsvár Tamás MSc. Képzés, II. évfolyam Témavezető: Wéber Richárd, Dr. Hős Csaba www.hds.bme.hu Az előadás

Részletesebben

Számítási feladatok a Számítógépi geometria órához

Számítási feladatok a Számítógépi geometria órához Számítási feladatok a Számítógépi geometria órához Kovács Zoltán Copyright c 2012 Last Revision Date: 2012. október 15. kovacsz@nyf.hu Technikai útmutató a jegyzet használatához A jegyzet képernyőbarát

Részletesebben

Numerikus módszerek 1.

Numerikus módszerek 1. Numerikus módszerek 1. 11. előadás: A Newton-módszer és társai Lócsi Levente ELTE IK 2013. november 25. Tartalomjegyzék 1 A Newton-módszer és konvergenciatételei 2 Húrmódszer és szelőmódszer 3 Általánosítás

Részletesebben

Eddig csak a polinom x-ben felvett értékét kerestük

Eddig csak a polinom x-ben felvett értékét kerestük Interpolációs polinom együtthatói Eddig csak a polinom x-ben felvett értékét kerestük Ez jó, ha kevés x-re kell kiértékelni Ha sok ismeretlen f (x)-et keresünk, akkor jobb kiszámolni az együtthatókat,

Részletesebben

Diszkréten mintavételezett függvények

Diszkréten mintavételezett függvények Diszkréten mintavételezett függvények A függvény (jel) értéke csak rögzített pontokban ismert, de köztes pontokban is meg akarjuk becsülni időben mintavételezett jel pixelekből álló műholdkép rácson futtatott

Részletesebben

Gauss-Seidel iteráció

Gauss-Seidel iteráció Közelítő és szimbolikus számítások 5. gyakorlat Iterációs módszerek: Jacobi és Gauss-Seidel iteráció Készítette: Gelle Kitti Csendes Tibor Somogyi Viktor London András Deák Gábor jegyzetei alapján 1 ITERÁCIÓS

Részletesebben

Számítógépes geometria (mester kurzus)

Számítógépes geometria (mester kurzus) 2010 sz, Debreceni Egyetem Csuklós szerkezetek animációja (Kép 1985-b l: Tony de Peltrie) Csontváz-modellek Csuklós szerkezet (robotkar) A robotkar részei: csuklók (joints) rotációs prizmatikus (transzlációs)

Részletesebben

Lineáris algebra numerikus módszerei

Lineáris algebra numerikus módszerei Hermite interpoláció Tegyük fel, hogy az x 0, x 1,..., x k [a, b] különböző alappontok (k n), továbbá m 0, m 1,..., m k N multiplicitások úgy, hogy Legyenek adottak k m i = n + 1. i=0 f (j) (x i ) = y

Részletesebben

alakú számot normalizált lebegőpontos számnak nevezik, ha ,, és. ( : mantissza, : mantissza hossza, : karakterisztika) Jelölés: Gépi számhalmaz:

alakú számot normalizált lebegőpontos számnak nevezik, ha ,, és. ( : mantissza, : mantissza hossza, : karakterisztika) Jelölés: Gépi számhalmaz: 1. A lebegőpontos számábrázolás egy modellje. A normalizált lebegőpontos szám fogalma, a legnagyobb, legkisebb pozitív szám, a relatív pontosság az M(t,-k,+k) gépi számhalmazban. Az input függvény (fl)

Részletesebben

n n (n n ), lim ln(2 + 3e x ) x 3 + 2x 2e x e x + 1, sin x 1 cos x, lim e x2 1 + x 2 lim sin x 1 )

n n (n n ), lim ln(2 + 3e x ) x 3 + 2x 2e x e x + 1, sin x 1 cos x, lim e x2 1 + x 2 lim sin x 1 ) Matek szigorlat Komplex számok Sorozat határérték., a legnagyobb taggal egyszerűsítünk n n 3 3n 2 + 2 3n 2 n n + 2 25 n 3 9 n 2 + + 3) 2n 8 n 3 2n 3,, n n5 + n 2 n 2 5 2n + 2 3n 2) n+ 2. e-ados: + a )

Részletesebben

I. LABOR -Mesterséges neuron

I. LABOR -Mesterséges neuron I. LABOR -Mesterséges neuron A GYAKORLAT CÉLJA: A mesterséges neuron struktúrájának az ismertetése, neuronhálókkal kapcsolatos elemek, alapfogalmak bemutatása, aktivációs függvénytípusok szemléltetése,

Részletesebben

Legkisebb négyzetek módszere, Spline interpoláció

Legkisebb négyzetek módszere, Spline interpoláció Közelítő és szimbolikus számítások 10. gyakorlat Legkisebb négyzetek módszere, Spline interpoláció Készítette: Gelle Kitti Csendes Tibor Somogyi Viktor Vinkó Tamás London András Deák Gábor jegyzetei alapján

Részletesebben

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 10 X. SZIMULÁCIÓ 1. VÉLETLEN számok A véletlen számok fontos szerepet játszanak a véletlen helyzetek generálásában (pénzérme, dobókocka,

Részletesebben

Nem-lineáris programozási feladatok

Nem-lineáris programozási feladatok Nem-lineáris programozási feladatok S - lehetséges halmaz 2008.02.04 Dr.Bajalinov Erik, NyF MII 1 Elég egyszerű példa: nemlineáris célfüggvény + lineáris feltételek Lehetséges halmaz x 1 *x 2 =6.75 Gradiens

Részletesebben

Numerikus módszerek 1.

Numerikus módszerek 1. Numerikus módszerek 1. 10. előadás: Nemlineáris egyenletek numerikus megoldása Lócsi Levente ELTE IK 2013. november 18. Tartalomjegyzék 1 Bolzano-tétel, intervallumfelezés 2 Fixponttételek, egyszerű iterációk

Részletesebben

Norma Determináns, inverz Kondíciószám Direkt és inverz hibák Lin. egyenletrendszerek A Gauss-módszer. Lineáris algebra numerikus módszerei

Norma Determináns, inverz Kondíciószám Direkt és inverz hibák Lin. egyenletrendszerek A Gauss-módszer. Lineáris algebra numerikus módszerei Indukált mátrixnorma Definíció A. M : R n n R mátrixnormát a. V : R n R vektornorma által indukált mátrixnormának nevezzük, ha A M = max { Ax V : x V = 1}. Az indukált mátrixnorma geometriai jelentése:

Részletesebben

Megoldott feladatok november 30. n+3 szigorúan monoton csökken, 5. n+3. lim a n = lim. n+3 = 2n+3 n+4 2n+1

Megoldott feladatok november 30. n+3 szigorúan monoton csökken, 5. n+3. lim a n = lim. n+3 = 2n+3 n+4 2n+1 Megoldott feladatok 00. november 0.. Feladat: Vizsgáljuk az a n = n+ n+ sorozat monotonitását, korlátosságát és konvergenciáját. Konvergencia esetén számítsuk ki a határértéket! : a n = n+ n+ = n+ n+ =

Részletesebben

10. Előadás. 1. Feltétel nélküli optimalizálás: Az eljárás alapjai

10. Előadás. 1. Feltétel nélküli optimalizálás: Az eljárás alapjai Optimalizálási eljárások MSc hallgatók számára 10. Előadás Előadó: Hajnal Péter Jegyzetelő: T. Szabó Tamás 2011. április 20. 1. Feltétel nélküli optimalizálás: Az eljárás alapjai A feltétel nélküli optimalizálásnál

Részletesebben

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017. Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017. Vizuális feldolgozórendszerek feladatai Mesterséges intelligencia és idegtudomány Mesterséges intelligencia és idegtudomány Párhuzamos problémák

Részletesebben

Robotok inverz geometriája

Robotok inverz geometriája Robotok inverz geometriája. A gyakorlat célja Inverz geometriai feladatot megvalósító függvények implementálása. A megvalósított függvénycsomag tesztelése egy kétszabadságfokú kar előírt végberendezés

Részletesebben

Sajátértékek és sajátvektorok. mf1n1a06- mf1n2a06 Csabai István

Sajátértékek és sajátvektorok. mf1n1a06- mf1n2a06 Csabai István Sajátértékek és sajátvektorok A fizika numerikus módszerei I. mf1n1a06- mf1n2a06 Csabai István Lineáris transzformáció Vektorok lineáris transzformációja: általános esetben az x vektor iránya és nagysága

Részletesebben

Optimalizálás alapfeladata Legmeredekebb lejtő Lagrange függvény Log-barrier módszer Büntetőfüggvény módszer 2017/

Optimalizálás alapfeladata Legmeredekebb lejtő Lagrange függvény Log-barrier módszer Büntetőfüggvény módszer 2017/ Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatikai Intézet Számítógépes Optimalizálás Tanszék 9. Előadás Az optimalizálás alapfeladata Keressük f függvény maximumát ahol f : R n R és

Részletesebben

Explicit hibabecslés Maxwell-egyenletek numerikus megoldásához

Explicit hibabecslés Maxwell-egyenletek numerikus megoldásához Explicit hibabecslés Maxwell-egyenletek numerikus megoldásához Izsák Ferenc 2007. szeptember 17. Explicit hibabecslés Maxwell-egyenletek numerikus megoldásához 1 Vázlat Bevezetés: a vizsgált egyenlet,

Részletesebben

Nemlineáris modellek

Nemlineáris modellek Ferenci Tamás tamas.ferenci@medstat.hu 2018. február 7. Tartalom 1 2 3 4 A marginális hatás fogalma Marginális hatás: a magyarázó változó kis növelésének hatására mekkora az eredményváltozó egységnyi magyarázóváltozó-növelésre

Részletesebben

Line aris f uggv enyilleszt es m arcius 19.

Line aris f uggv enyilleszt es m arcius 19. Lineáris függvényillesztés 2018. március 19. Illesztett paraméterek hibája Eddig azt néztük, hogy a mérési hiba hogyan propagál az illesztett paraméterekbe, ha van egy konkrét függvényünk. a hibaterjedés

Részletesebben

Készítette: Trosztel Mátyás Konzulens: Hajós Gergely

Készítette: Trosztel Mátyás Konzulens: Hajós Gergely Készítette: Trosztel Mátyás Konzulens: Hajós Gergely Monte Carlo Markov Chain MCMC során egy megfelelően konstruált Markov-lánc segítségével mintákat generálunk. Ezek eloszlása követi a céleloszlást. A

Részletesebben

YBL - SGYMMAT2012XA Matematika II.

YBL - SGYMMAT2012XA Matematika II. YBL - SGYMMAT2012XA Matematika II. Tantárgyfelelős: Dr. Joós Antal Tárgyelőadó: Dr. Joós Antal Tantárgyi leírás Oktatási cél: Azoknak a matematikai alapoknak a megszerzése, melyek a szaktárgyak elsajátításához

Részletesebben

6. gyakorlat. Gelle Kitti. Csendes Tibor Somogyi Viktor. London András. jegyzetei alapján

6. gyakorlat. Gelle Kitti. Csendes Tibor Somogyi Viktor. London András. jegyzetei alapján Közelítő és szimbolikus számítások 6. gyakorlat Sajátérték, Gersgorin körök Készítette: Gelle Kitti Csendes Tibor Somogyi Viktor Vinkó Tamás London András Deák Gábor jegyzetei alapján . Mátrixok sajátértékei

Részletesebben

Rekurzív sorozatok. SZTE Bolyai Intézet nemeth. Rekurzív sorozatok p.1/26

Rekurzív sorozatok. SZTE Bolyai Intézet   nemeth. Rekurzív sorozatok p.1/26 Rekurzív sorozatok Németh Zoltán SZTE Bolyai Intézet www.math.u-szeged.hu/ nemeth Rekurzív sorozatok p.1/26 Miért van szükség közelítő módszerekre? Rekurzív sorozatok p.2/26 Miért van szükség közelítő

Részletesebben

Adatbányászati szemelvények MapReduce környezetben

Adatbányászati szemelvények MapReduce környezetben Adatbányászati szemelvények MapReduce környezetben Salánki Ágnes salanki@mit.bme.hu 2014.11.10. Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs Rendszerek Tanszék Felügyelt

Részletesebben

Végeselem modellezés alapjai 1. óra

Végeselem modellezés alapjai 1. óra Végeselem modellezés alapjai. óra Gyenge alak, Tesztfüggvény, Lagrange-féle alakfüggvény, Stiness mátrix Kivonat Az óra célja, hogy megismertesse a végeselem módszer (FEM) alkalmazását egy egyszer probléma,

Részletesebben

Matematika (mesterképzés)

Matematika (mesterképzés) Matematika (mesterképzés) Környezet- és Településmérnököknek Debreceni Egyetem Műszaki Kar, Műszaki Alaptárgyi Tanszék Vinczéné Varga A. Környezet- és Településmérnököknek 2016/2017/I 1 / 29 Lineáris tér,

Részletesebben

3. előadás Stabilitás

3. előadás Stabilitás Stabilitás 3. előadás 2011. 09. 19. Alapfogalmak Tekintsük dx dt = f (t, x), x(t 0) = x 0 t (, ), (1) Jelölje t x(t; t 0, x 0 ) vagy x(.; t 0, x 0 ) a KÉF megoldását. Kívánalom: kezdeti állapot kis megváltozása

Részletesebben

1 Lebegőpontos számábrázolás

1 Lebegőpontos számábrázolás Tartalom 1 Lebegőpontos számábrázolás... 2 2 Vektornormák... 4 3 Indukált mátrixnormák és tulajdonságaik... 5 4 A lineáris rendszer jobboldala hibás... 6 5 A kondíciószám és tulajdonságai... 7 6 Perturbációs

Részletesebben

Matematika III előadás

Matematika III előadás Matematika III. - 3. előadás Vinczéné Varga Adrienn Debreceni Egyetem Műszaki Kar, Műszaki Alaptárgyi Tanszék Előadáskövető fóliák Vinczéné Varga Adrienn (DE-MK) Matematika III. 2016/2017/I 1 / 19 Skalármezők

Részletesebben

KOMPOZITLEMEZ ORTOTRÓP

KOMPOZITLEMEZ ORTOTRÓP KOMPOZITLEMEZ ORTOTRÓP ANYAGJELLEMZŐINEK MEGHATÁROZÁSA ÉS KÍSÉRLETI IGAZOLÁSA Nagy Anna anna.nagy@econengineering.com econ Engineering econ Engineering Kft. 2019 H-1116 Budapest, Kondorosi út 3. IV. emelet

Részletesebben

Függvények növekedési korlátainak jellemzése

Függvények növekedési korlátainak jellemzése 17 Függvények növekedési korlátainak jellemzése A jellemzés jól bevált eszközei az Ω, O, Θ, o és ω jelölések. Mivel az igények általában nemnegatívak, ezért az alábbi meghatározásokban mindenütt feltesszük,

Részletesebben

Numerikus módszerek 1.

Numerikus módszerek 1. Numerikus módszerek 1. Tantárgy kódja: IP-08bNM1E, IP-08bNM1G (2+2) Az elsajátítandó ismeretanyag rövid leírása: A lebegıpontos számábrázolás egy modellje. A hibaszámítás elemei. Lineáris egyenletrendszerek

Részletesebben

Differenciálegyenletek numerikus integrálása április 9.

Differenciálegyenletek numerikus integrálása április 9. Differenciálegyenletek numerikus integrálása 2018. április 9. Differenciálegyenletek Olyan egyenletek, ahol a megoldást függvény alakjában keressük az egyenletben a függvény és deriváltjai szerepelnek

Részletesebben

DIFFERENCIAEGYENLETEK

DIFFERENCIAEGYENLETEK DIFFERENCIAEGYENLETEK Példa: elsőrendű állandó e.h. lineáris differenciaegyenlet Ennek megoldása: Kezdeti feltétellel: Kezdeti feltétel nélkül ha 1 és a végtelen összeg (abszolút) konvergens: / 1 Minden

Részletesebben

A KLT (Kanade Lucas Tomasi) Feature Tracker Működése (jellegzetes pontok választása és követése)

A KLT (Kanade Lucas Tomasi) Feature Tracker Működése (jellegzetes pontok választása és követése) A KL (Kanade Lucas omasi) Feature racker Működése (jellegzetes pontok választása és követése) Készítette: Hajder Levente 008.11.18. 1. Feladat A rendelkezésre álló videó egy adott képkockájából minél több

Részletesebben

January 16, ψ( r, t) ψ( r, t) = 1 (1) ( ψ ( r,

January 16, ψ( r, t) ψ( r, t) = 1 (1) ( ψ ( r, Közelítő módszerek January 16, 27 1 A variációs módszer A variációs módszer szintén egy analitikus közelítő módszer. Olyan esetekben alkalmazzuk mikor ismert az analitikus alak amelyben keressük a sajátfüggvényt,

Részletesebben

Numerikus matematika. Irodalom: Stoyan Gisbert, Numerikus matematika mérnököknek és programozóknak, Typotex, Lebegőpontos számok

Numerikus matematika. Irodalom: Stoyan Gisbert, Numerikus matematika mérnököknek és programozóknak, Typotex, Lebegőpontos számok Numerikus matematika Irodalom: Stoyan Gisbert, Numerikus matematika mérnököknek és programozóknak, Typotex, 2007 Lebegőpontos számok Normák, kondíciószámok Lineáris egyenletrendszerek Legkisebb négyzetes

Részletesebben

P 2 P 1. 4.1 ábra Az f(x) függvény globális minimuma (P 1 ) és egy lokális minimuma (P 2 ).

P 2 P 1. 4.1 ábra Az f(x) függvény globális minimuma (P 1 ) és egy lokális minimuma (P 2 ). Paláncz Béla - Numerikus Módszerek - 211-4. Optimalizálás 4 Optimalizálás Bevezetés Az optimalizáció, egy függvény szélsőértéke helyének meghatározása, talán a legfontosabb numerikus eljárások közé tartozik.

Részletesebben

Nemlineáris programozás 2.

Nemlineáris programozás 2. Optimumszámítás Nemlineáris programozás 2. Többváltozós optimalizálás feltételek mellett. Lagrange-feladatok. Nemlineáris programozás. A Kuhn-Tucker feltételek. Konvex programozás. Sydsaeter-Hammond: 18.1-5,

Részletesebben

Irányításelmélet és technika II.

Irányításelmélet és technika II. Irányításelmélet és technika II. Modell-prediktív szabályozás Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki és Információs Rendszerek Tanszék amagyar@almos.vein.hu 2010 november

Részletesebben

Neurális hálózatok bemutató

Neurális hálózatok bemutató Neurális hálózatok bemutató Füvesi Viktor Miskolci Egyetem Alkalmazott Földtudományi Kutatóintézet Miért? Vannak feladatok amelyeket az agy gyorsabban hajt végre mint a konvencionális számítógépek. Pl.:

Részletesebben

Megerősítéses tanulás 7. előadás

Megerősítéses tanulás 7. előadás Megerősítéses tanulás 7. előadás 1 Ismétlés: TD becslés s t -ben stratégia szerint lépek! a t, r t, s t+1 TD becslés: tulajdonképpen ezt mintavételezzük: 2 Akcióértékelő függvény számolása TD-vel még mindig

Részletesebben

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Keresés képi jellemzők alapján Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Lusta gépi tanulási algoritmusok Osztályozás: k=1: piros k=5: kék k-legközelebbi szomszéd (k=1,3,5,7)

Részletesebben

Numerikus matematika vizsga

Numerikus matematika vizsga 1. Az a = 2, t = 4, k = 3, k + = 2 számábrázolási jellemzők mellett hány pozitív, normalizált lebegőpontos szám ábrázolható? Adja meg a legnagyobb ábrázolható számot! Mi lesz a 0.8-hoz rendelt lebegőpontos

Részletesebben

ANALÍZIS III. ELMÉLETI KÉRDÉSEK

ANALÍZIS III. ELMÉLETI KÉRDÉSEK ANALÍZIS III. ELMÉLETI KÉRDÉSEK Szerkesztette: Balogh Tamás 2014. május 15. Ha hibát találsz, kérlek jelezd a info@baloghtamas.hu e-mail címen! Ez a Mű a Creative Commons Nevezd meg! - Ne add el! - Így

Részletesebben

Többváltozós, valós értékű függvények

Többváltozós, valós értékű függvények TÖ Többváltozós, valós értékű függvények TÖ Definíció: többváltozós függvények Azokat a függvényeket, melyeknek az értelmezési tartománya R n egy részhalmaza, n változós függvényeknek nevezzük. TÖ Példák:.

Részletesebben

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók Előadó: Előadás anyaga: Hullám Gábor Pataki Béla Dobrowiecki Tadeusz BME I.E. 414, 463-26-79

Részletesebben

Losonczi László. Debreceni Egyetem, Közgazdaság- és Gazdaságtudományi Kar

Losonczi László. Debreceni Egyetem, Közgazdaság- és Gazdaságtudományi Kar Szélsőértékszámítás Losonczi László Debreceni Egyetem, Közgazdaság- és Gazdaságtudományi Kar Losonczi László (DE) Szélsőértékszámítás 1 / 21 2. SZÉLSOÉRTÉKSZÁMÍTÁS 2.1 A szélsőérték fogalma, létezése Azt

Részletesebben

Elhangzott tananyag óránkénti bontásban

Elhangzott tananyag óránkénti bontásban TTK, Matematikus alapszak Differenciálegyenletek (Előadás BMETE93AM03; Gyakorlat BME TE93AM04) Elhangzott tananyag óránkénti bontásban 2016. február 15. 1. előadás. Közönséges differenciálegyenlet fogalma.

Részletesebben

Tartalom. 1. Állapotegyenletek megoldása 2. Állapot visszacsatolás (pólusallokáció)

Tartalom. 1. Állapotegyenletek megoldása 2. Állapot visszacsatolás (pólusallokáció) Tartalom 1. Állapotegyenletek megoldása 2. Állapot visszacsatolás (pólusallokáció) 2015 1 Állapotgyenletek megoldása Tekintsük az ẋ(t) = ax(t), x(0) = 1 differenciálegyenletet. Ismert, hogy a megoldás

Részletesebben

x 2 e x dx c) (3x 2 2x)e 2x dx x sin x dx f) x cosxdx (1 x 2 )(sin 2x 2 cos 3x) dx e 2x cos x dx k) e x sin x cosxdx x ln x dx n) (2x + 1) ln 2 x dx

x 2 e x dx c) (3x 2 2x)e 2x dx x sin x dx f) x cosxdx (1 x 2 )(sin 2x 2 cos 3x) dx e 2x cos x dx k) e x sin x cosxdx x ln x dx n) (2x + 1) ln 2 x dx Integrálszámítás II. Parciális integrálás. g) i) l) o) e ( + )(e e ) cos h) e sin j) (sin 3 cos) m) arctg p) arcsin e (3 )e sin f) cos ( )(sin cos 3) e cos k) e sin cos ln n) ( + ) ln. e 3 e cos 3 3 cos

Részletesebben

Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás

Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás http:/uni-obuda.hu/users/kutor/ IRE 7/50/1 A neurális hálózatok általános jellemzői 1. A

Részletesebben

Grafikonok automatikus elemzése

Grafikonok automatikus elemzése Grafikonok automatikus elemzése MIT BSc önálló laboratórium konzulens: Orosz György 2016.05.18. A feladat elsődleges célkitűzései o eszközök adatlapján található grafikonok feldolgozása, digitalizálása

Részletesebben

Gépi tanulás Gregorics Tibor Mesterséges intelligencia

Gépi tanulás Gregorics Tibor Mesterséges intelligencia Gépi tanulás Tanulás fogalma Egy algoritmus akkor tanul, ha egy feladat megoldása során olyan változások következnek be a működésében, hogy később ugyanazt a feladatot vagy ahhoz hasonló más feladatokat

Részletesebben

Numerikus matematika

Numerikus matematika Numerikus matematika Baran Ágnes Gyakorlat Nemlineáris egyenletek Baran Ágnes Numerikus matematika 9.10. Gyakorlat 1 / 14 Feladatok (1) Mutassa meg, hogy az 3x 3 12x + 4 = 0 egyenletnek van gyöke a [0,

Részletesebben

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Számítógépes képelemzés 7. előadás Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Momentumok Momentum-alapú jellemzők Tömegközéppont Irányultáság 1 2 tan 2 1 2,0 1,1 0, 2 Befoglaló

Részletesebben

Matematika szigorlat, Mérnök informatikus szak I máj. 12. Név: Nept. kód: Idő: 1. f. 2. f. 3. f. 4. f. 5. f. 6. f. Össz.: Oszt.

Matematika szigorlat, Mérnök informatikus szak I máj. 12. Név: Nept. kód: Idő: 1. f. 2. f. 3. f. 4. f. 5. f. 6. f. Össz.: Oszt. Matematika szigorlat, Mérnök informatikus szak I. 2009. máj. 12. Név: Nept. kód: Idő: 1. f. 2. f. 3. f. 4. f. 5. f. 6. f. Össz.: Oszt.: 180 perc 0-49 pont: elégtelen, 50-61 pont: elégséges, 62-73 pont:

Részletesebben

Optimalizációs eljárások hatása a mért értékek megbízhatóságának a növelésére

Optimalizációs eljárások hatása a mért értékek megbízhatóságának a növelésére Optimalizációs eljárások hatása a mért értékek megbízhatóságának a növelésére Dr. Odry Péter, Kecskés István Workshop Miskolc, 2013. 09. 06. 2.2/a Altéma 2.2/a Altéma: Ferromágneses anyagok roncsolásmentes,

Részletesebben

Irányításelmélet és technika I.

Irányításelmélet és technika I. Irányításelmélet és technika I Folytonos idejű rendszerek leírása az állapottérben Állapotvisszacsatolást alkalmazó szabályozási körök Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki

Részletesebben

Irányításelmélet és technika II.

Irányításelmélet és technika II. Irányításelmélet és technika II. Legkisebb négyzetek módszere Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki és Információs Rendszerek Tanszék amagyar@almos.vein.hu 200 november

Részletesebben

Matematika szigorlat június 17. Neptun kód:

Matematika szigorlat június 17. Neptun kód: Név Matematika szigorlat 014. június 17. Neptun kód: 1.. 3. 4. 5. Elm. Fel. Össz. Oszt. Az eredményes szigorlat feltétele elméletből legalább 0 pont, feladatokból pedig legalább 30 pont elérése. A szigorlat

Részletesebben

Intelligens Rendszerek Gyakorlata. Neurális hálózatok I.

Intelligens Rendszerek Gyakorlata. Neurális hálózatok I. : Intelligens Rendszerek Gyakorlata Neurális hálózatok I. dr. Kutor László http://mobil.nik.bmf.hu/tantargyak/ir2.html IRG 3/1 Trend osztályozás Pnndemo.exe IRG 3/2 Hangulat azonosítás Happy.exe IRG 3/3

Részletesebben

Vektorterek. =a gyakorlatokon megoldásra ajánlott

Vektorterek. =a gyakorlatokon megoldásra ajánlott Vektorterek =a gyakorlatokon megoldásra ajánlott 40. Alteret alkotnak-e a valós R 5 vektortérben a megadott részhalmazok? Ha igen, akkor hány dimenziósak? (a) L = { (x 1, x 2, x 3, x 4, x 5 ) x 1 = x 5,

Részletesebben

Tartalom. Állapottér reprezentációk tulajdonságai stabilitás irányíthatóság megfigyelhetőség minimalitás

Tartalom. Állapottér reprezentációk tulajdonságai stabilitás irányíthatóság megfigyelhetőség minimalitás Tartalom Állapottér reprezentációk tulajdonságai stabilitás irányíthatóság megfigyelhetőség minimalitás 2018 1 Állapottér reprezentációk tulajdonságai Általánosan egy lineáris, SISO dinamikus rendszer

Részletesebben

Példák jellemzőkre: - minden pixelérték egy jellemző pl. neurális hálózat esetében csak kis képekre, nem invariáns sem a megvilágításra, sem a geom.

Példák jellemzőkre: - minden pixelérték egy jellemző pl. neurális hálózat esetében csak kis képekre, nem invariáns sem a megvilágításra, sem a geom. Lépések 1. tanító és teszt halmaz összeállítása / megszerzése 2. jellemzők kinyerése 3. tanító eljárás választása Sok vagy kevés adat áll-e rendelkezésünkre? Mennyi tanítási idő/memória áll rendelkezésre?

Részletesebben

Nemkonvex kvadratikus egyenlőtlenségrendszerek pontos dualitással

Nemkonvex kvadratikus egyenlőtlenségrendszerek pontos dualitással pontos dualitással Imre McMaster University Advanced Optimization Lab ELTE TTK Operációkutatási Tanszék Folytonos optimalizálás szeminárium 2004. július 6. 1 2 3 Kvadratikus egyenlőtlenségrendszerek Primál

Részletesebben

MATEMATIKA EMELT SZINTŰ SZÓBELI VIZSGA TÉMAKÖREI (TÉTELEK) 2005

MATEMATIKA EMELT SZINTŰ SZÓBELI VIZSGA TÉMAKÖREI (TÉTELEK) 2005 2005 1. * Halmazok, halmazműveletek, nevezetes ponthalmazok 2. Számhalmazok, halmazok számossága 3. Hatványozás, hatványfüggvény 4. Gyökvonás, gyökfüggvény 5. A logaritmus. Az exponenciális és a logaritmus

Részletesebben

Megerősítéses tanulás 9. előadás

Megerősítéses tanulás 9. előadás Megerősítéses tanulás 9. előadás 1 Backgammon (vagy Ostábla) 2 3 TD-Gammon 0.0 TD() tanulás (azaz időbeli differencia-módszer felelősségnyomokkal) függvényapproximátor: neuronháló 40 rejtett (belső) neuron

Részletesebben

Többváltozós, valós értékű függvények

Többváltozós, valós értékű függvények Többváltozós függvények Többváltozós, valós értékű függvények Többváltozós függvények Definíció: többváltozós függvények Azokat a függvényeket, melyeknek az értelmezési tartománya R n egy részhalmaza,

Részletesebben

Principal Component Analysis

Principal Component Analysis Principal Component Analysis Principal Component Analysis Principal Component Analysis Definíció Ortogonális transzformáció, amely az adatokat egy új koordinátarendszerbe transzformálja úgy, hogy a koordináták

Részletesebben

Optimalizálási eljárások GYAKORLAT, MSc hallgatók számára. Analízis R d -ben

Optimalizálási eljárások GYAKORLAT, MSc hallgatók számára. Analízis R d -ben Optimalizálási eljárások GYAKORLAT, MSc hallgatók számára Analízis R d -ben Gyakorlatvezetõ: Hajnal Péter 2012. február 8 1. Konvex függvények Definíció. f : D R konvex, ha dom(f) := D R n konvex és tetszőleges

Részletesebben

Teljesen elosztott adatbányászat pletyka algoritmusokkal. Jelasity Márk Ormándi Róbert, Hegedűs István

Teljesen elosztott adatbányászat pletyka algoritmusokkal. Jelasity Márk Ormándi Róbert, Hegedűs István Teljesen elosztott adatbányászat pletyka algoritmusokkal Jelasity Márk Ormándi Róbert, Hegedűs István Motiváció Nagyméretű hálózatos elosztott alkalmazások az Interneten egyre fontosabbak Fájlcserélő rendszerek

Részletesebben

Szélsőérték-számítás

Szélsőérték-számítás Szélsőérték-számítás Jelölések A következő jelölések mind az f függvény x szerinti parciális deriváltját jelentik: Ugyanígy az f függvény y szerinti parciális deriváltja: f x = xf = f x f y = yf = f y

Részletesebben

Fraktálok. Kontrakciók Affin leképezések. Czirbusz Sándor ELTE IK, Komputeralgebra Tanszék. TARTALOMJEGYZÉK Kontrakciók Affin transzformációk

Fraktálok. Kontrakciók Affin leképezések. Czirbusz Sándor ELTE IK, Komputeralgebra Tanszék. TARTALOMJEGYZÉK Kontrakciók Affin transzformációk Fraktálok Kontrakciók Affin leképezések Czirbusz Sándor ELTE IK, Komputeralgebra Tanszék TARTALOMJEGYZÉK 1 of 71 A Lipschitz tulajdonság ÁTMÉRŐ, PONT ÉS HALMAZ TÁVOLSÁGA Definíció Az (S, ρ) metrikus tér

Részletesebben

Sergyán Szabolcs szeptember 21.

Sergyán Szabolcs szeptember 21. Éldetektálás Sergyán Szabolcs Budapesti Műszaki Főiskola Neumann János Informatikai Kar 2009. szeptember 21. Sergyán Sz. (BMF NIK) Éldetektálás 2009. szeptember 21. 1 / 28 Mit nevezünk élnek? Intuitív

Részletesebben

A legjobb közeĺıtés itt most azt jelentette, hogy a lineáris

A legjobb közeĺıtés itt most azt jelentette, hogy a lineáris Többváltozós függvények differenciálhatósága f(x) f(x Az egyváltozós függvények differenciálhatóságát a lim 0 ) x x0 x x 0 függvényhatárértékkel definiáltuk, s szemléletes jelentése abban mutatkozott meg,

Részletesebben

cos 2 (2x) 1 dx c) sin(2x)dx c) cos(3x)dx π 4 cos(2x) dx c) 5sin 2 (x)cos(x)dx x3 5 x 4 +11dx arctg 11 (2x) 4x 2 +1 π 4

cos 2 (2x) 1 dx c) sin(2x)dx c) cos(3x)dx π 4 cos(2x) dx c) 5sin 2 (x)cos(x)dx x3 5 x 4 +11dx arctg 11 (2x) 4x 2 +1 π 4 Integrálszámítás I. Végezze el a következő integrálásokat:. α, haα sin() cos() e f) a sin h) () cos ().. 5 4 ( ) e + 4 sin h) (+) sin() sin() cos() + f) 5 i) cos ( +) 7 4. 4 (+) 6 4 cos() 5 +7 5. ( ) sin()cos

Részletesebben

Lineáris leképezések. Wettl Ferenc március 9. Wettl Ferenc Lineáris leképezések március 9. 1 / 31

Lineáris leképezések. Wettl Ferenc március 9. Wettl Ferenc Lineáris leképezések március 9. 1 / 31 Lineáris leképezések Wettl Ferenc 2015. március 9. Wettl Ferenc Lineáris leképezések 2015. március 9. 1 / 31 Tartalom 1 Mátrixleképezés, lineáris leképezés 2 Alkalmazás: dierenciálhatóság 3 2- és 3-dimenziós

Részletesebben

Konvolúciós neurális hálózatok (CNN)

Konvolúciós neurális hálózatok (CNN) Konvolúciós neurális hálózatok (CNN) Konvolúció Jelfeldolgozásban: Diszkrét jelek esetén diszkrét konvolúció: Képfeldolgozásban 2D konvolúció (szűrők): Konvolúciós neurális hálózat Konvolúciós réteg Kép,

Részletesebben

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 3 III. VÉLETLEN VEKTOROK 1. A KÉTDIMENZIÓs VÉLETLEN VEKTOR Definíció: Az leképezést (kétdimenziós) véletlen vektornak nevezzük, ha Definíció:

Részletesebben

12. Mikor nevezünk egy részhalmazt nyíltnak, illetve zártnak a valós számok körében?

12. Mikor nevezünk egy részhalmazt nyíltnak, illetve zártnak a valós számok körében? Ellenörző Kérdések 1. Mit jelent az, hogy egy f : A B függvény injektív, szürjektív, illetve bijektív? 2. Mikor nevezünk egy függvényt invertálhatónak? 3. Definiálja a komplex szám és műveleteinek fogalmát!

Részletesebben

A fontosabb definíciók

A fontosabb definíciók A legfontosabb definíciókat jelöli. A fontosabb definíciók [Descartes szorzat] Az A és B halmazok Descartes szorzatán az A és B elemeiből képezett összes (a, b) a A, b B rendezett párok halmazát értjük,

Részletesebben