Neurális hálók tanítása során alkalmazott optimalizáció
|
|
- Albert Kovács
- 5 évvel ezelőtt
- Látták:
Átírás
1 Neurális hálók tanítása során alkalmazott optimalizáció
2 Háló paramétereinek tanulása Lényegében egy szélsőérték keresési feladat: θ: háló paramétereinek vektora X: tanító minták bemeneteiből képzett mátrix : tanító mintákhoz tartozó elvárt kimenet f, : háló által megvalósított leképezés L, : úgynevezett Loss function J L f J θ arg min θ, X, d arg min θ d θ L f θ θ, X, d θ
3 Optimalizációs algoritmusok Hibafelület jellege szerint: Konvex: egyszerűbb eset a célfüggvény konvex függvénye a keresett paramétervektornak Globális: lassabb algoritmusok ha nem konvex célfüggvény szélsőértékének helyét keressük Neurális hálók esete: Nemlinearitások miatt nem konvex hibafelület Általában konvex optimalizációs eljárások Lokális optimumot képesek csak megtalálni Mély hálóknál ez kevésbé jelent problémát
4 Konvex optimalizációs algoritmusok Továbbiakban konvex optimalizáció: Iteratív algoritmusok (kivéve pár egyszerű eset) Iterációk során javítóirányt keresünk: θ θ k 1 k Δθ k Δθ k becslése J θ Taylor polinomja alapján Csoportosítás Taylor polinom fokszáma szerint: 0-ad rendű: pl. Genetikus algoritmus Elsőrendű: pl. SGD, Momentum, AdaGrad Másodrendű: Newton / kvázi Newton módszerek
5 Newton módszer 2 T T J 0 J 0 J θ θ θ θ θ θ θ H θ θ 0 2 J θ 0 H θ jelöli Hesse-mátrixát 0 J i, j θ θ J θ 0 J θ jelöli a gradienst -ban 0 i θ 0 θ Ha Hθ 0 pozitív definit, akkor θ Tehát i arg min J θ i j 2 θ θ 0 1 θ H θ J θ Jθ θ 0
6 Newton módszer 2 J θ θ csak approximálja J-t: 0 Viszont J θ 0 pontbeli kvadratikus közelítésének t.f.h. a minimumhelye: θ θ Tehát meghatározása line-search algoritmusokkal. Az alábbi trade-off problémát oldják meg: J θ θ 2 J θ θ0 θ θ0 θ J θ J θ θ 2 2 θ 0 θ 0
7 Newton módszer Interpretációja: 1. Aktuális paramétervektor környezetében egy kvadratikus felülettel közelítjük J θ -t. 2. Megkeressük a közelítés minimumhelyét, majd annak irányába lépünk elegendően nagyot. 3. Ha nem teljesül a leállási feltétel, akkor GOTO 1. Előnyei: Pár 10 / 100 iteráció gyakorlatban elég J θ affin transzformációjára érzéketlen
8 Newton módszer Hátrányai: Minden iterációban újra kell számolni, és invertálni a Hesse mtx.-ot (mely akár 10^8 10^8 méretű): Kvázi Newton módszerek ezt próbálják kikerülni Batch-elt tanításhoz illeszkedik jól túl nagy lépéseket tesz ahhoz, hogy sztochasztikus (pl. mini batch) optimalizációra alkalmas legyen: Így nem is lehet jól párhuzamosítani Klasszikus Neurális hálóknál alkalmazható inkább (lsd. Levenberg-Marquadt)
9 Kvázi Newton módszerek BFGS A Hesse mátrix inverzét közelítik BFGS algoritmus ú.n. secant feltétele: 2 J J és θ θ θ k k k 2 Első feltétel J definíciója miatt teljesül θ k Második feltétel kifejtését követően: Tehát a secant feltétel igaz, ha 2 J Jθ θ θ k k1 k1 J θ J θ H θ θ θ k 1 k k k 1 k 1 J J H θ θ θ θ θ k k 1 k k 1 k
10 Kvázi Newton módszerek BFGS Mit tudunk eddig 1 H θ k -ről: Szimmetrikus, hiszen szimmetrikus mátrix inverze 1 J J H θ θ θ θ θ k k 1 k k 1 k De ilyenből végtelen van regularizáció kell: Éljünk a simasági feltételezéssel ( H folytonos) H θk arg min H H θk H F Szerencsére analitikusan megoldható
11 Kvázi Newton módszerek BFGS BFGS frissítés tulajdonságai: Ha Hθ 0 -t diagonálisnak választjuk, akkor θk számítása Ok sizeθ komplexitású. Ehhez viszont szükség van J θ -re és -ra, minden i 0,..., k esetén k θ k Nagyméretű problémák esetén ez már problémát jelent (memória). Memória használata túl nagy: Pl. 1E5 iteráció, és 1E7 paraméter esetén ~1 TB
12 Kvázi Newton módszerek L-BFGS Belátható, hogy konvergál az optimumhoz De esetenként jóval lassabban, mint a Newton módszer tipikusan pár tíz/százezer iteráció kell Skálázásra érzékeny (sok numerikus művelet) Mini Batch módszerek problémásak L(imitált memóriahasználatú)-bfgs: Bár a közelített inverz Hesse kiszámításához szükség lenne az összes addigi gradiensre és paraméterre, ezt csak az utolsó m db alapján becsli. Matematikai bizonyítása a konvergenciának nincs, de praktikusan konvergens (itt már jelentősen függ a szükséges iterációk száma a változók számától). Mini Batch-es tanítást ez sem igazán kedveli
13 Kvázi Newton módszerek Konjugált Gradiens módszer Lineáris egyenletek megoldására találták ki, 1 most θ H J θ -t keressük iteratívan. Alapötlet lineáris egyenlet megoldása: 0 arg min H θ k θk esetén T k 1 J 0 k 1 k 1 θ θ H θ θ T k1 k θ H θ θ 0 Tehát az k-adik javítóirány H feletti konjugáltja a (k-1)- T ediknek, azaz θk 1 H θk 0
14 Kvázi Newton módszerek Konjugált Gradiens módszer Mint lineáris egyenlet megoldó: 1 x A b pi : i-edik keresési irány, x : i-edik becslése x -nak i
15 Kvázi Newton módszerek Konjugált Gradiens módszer Mint veszteségfüggvény minimalizáló eljárás: Aktuális pontbeli gradiensből az előző javítóiránnyal párhuzamos komponenst levonva áll elő az új javítóirány: Javító lépés nagysága: Nem igényli a Hesse mtx. kiszámítását Konvergencia: θ J θ θ Nagyságrendileg Newton iterációk száma 60 változók száma iterációra van szükség k k 1 k 1 arg min J θ k1 θ k
16 Futási példák Csonkolt Newton
17 Futási példák BFGS
18 Futási példák CG
19 Newton / kvázi Newton módszerek CG-t főleg viselkedése és komplexitása miatt soroltuk ide (gyakorlatban H I feltételezés). Általában bonyolultabb iterációk: De jóval kevesebb elég belőle Batch tanításnál Mini-batch/ LMS esetén viszont nem éri meg Klasszikus neurális hálóknál fontos szerep: Levenberg Marquadt algoritmus Newton módszer és elsőrendű módszer keveréke
20 Elsőrendű módszerek Gradiens irányába lépnek: Mikor pontosabb a másodfokú közelítés? Ha 2 J 0 J θ θ θ θ H θ θ k1 k k k Általánosságban is igaz, hogy minél izotropikusabb a hibafelület, annál jobbak az elsőrendű módszerek Kérdés, mi a helyzet, ha θ J θ k H θ I θ J θ k1 k1 Hθ k 1 1 egy forgatás? 1
21 Gradiens módszer Gradienssel ellentétes irányba lépünk: θ k θk 1 J θk 1, bátorsági tényező Konvex függvények esetén meghatározható az : Polyak módszer : J θ J θ J θ Léteznek line search algoritmusok (pl. Armijo) Gyakori az választás (pl. ) Problémás, ahol k 2 2 k k k k J rosszul kondicionált: Pl. szűk völgyek, elnyújtott hibafelület Azaz kb. ahol min H I túl nagy F
22 Gradiens módszer szemléltetés Pl. egy vízszintesen elnyújtott, kvadratikus J Gradiens vektor függőleges tengelyre eső vetülete jóval nagyobb, mint a vízszintes tengelyre eső vetülete pedig vízszintes irányban vagyunk messze a minimumtól
23 Gradiens módszer szemléltetés Pl. egy vízszintesen elnyújtott, kvadratikus J A A Lassú, kis amplitúdójú lépések vízszintesen Nagy lépések függőlegesen, ami cikk-cakk jellegű becslővektor trajektóriához vezet
24 Gradiens módszer szemléltetés Szűk völgy körül oszcillál Lapos felületen lelassul
25 Gradiens módszer konvergenciája Belátható, hogy minden esetben létezik olyan bátorsági tényező, mellyel konvergál Akár fix bátorsági tényező esetén is De a konvergencia sebessége nagyon függ a hibafelülettől (ellentétben a Newton módszerekkel) A paramétertér affin transzformációja érzékeny Jól tűri a sztochasztikus jelleget is Alkalmas mini batch-re (pl. LMS) 1 valószínűséggel konvergál, de jóval több lépés kell
26 Momentum módszerek Első interpretáció alul-áteresszük -at: Ezzel a cikk-cakkos ugrásokat kiküszöbölhetjük ' ' θ θ 1 J θ 0,1 Másik interpretáció fizikai modell: Integráljuk a gyorsulást ( ), súrlódással Integráljuk a sebességet k k 1 k 1 θ θ θ ' k k 1 k vk vk 1 J θk 1 0.5, 1 θ θ θ v k k 1 k J k 1 θ k
27 Nesterov Momentum Ha úgyis ellépünk vk 1 irányba, akkor az ottani gradiens irányába lépjünk tovább: Egyszerű momentum: Nesterov: k k 1 k 1 v v J θ v v J θ v k k 1 k 1 k 1
28 Momentum módszerek Sima momentum hasonló a CG-vel: Csak itt hasból választjuk -t, -t Gyakorlatban jobbak a gradiens módszernél Elméletileg ez nehezen látható be A Nesterov momentum viszont elméletileg is gyorsabb a sima momentumnál Jellemző az állapot-trajektóriára a túllövés: Nagy amplitúdójú gradiensek sokáig magukkal húzzák az azt követő javító lépéseket
29 Adaptive Gradient (AdaGrad) A hibafelület alakjához próbálunk adaptálódni / dimenziónként skálázunk: k-adik lépésnél J θ i 1,2,..., k 1 alapján becsüljük a dimenziónkénti elnyújtottságot: k 1 τ k J θ i j i j1 2 Majd ezzel normálunk (elkerülve a 0-val osztást): J i 1 i i θ θ τ k k k Sok iteráció után már túl kicsik a lépések: i Ez sima felületeknél általában nem baj, de neurális hálókra tipikusan nem ez a jellemző
30 RMSProp Ötlet: összegzés helyett mozgó átlag alapján becsüljük a hibafelületet 2 τk τk 1 1 J θk 0, 1 Mozgó átlagolás miatt elfelejti a hibafelület távolabbi részeit Ráadásul nem nő minden határon túl i i i θ k J θk 1 k i τ i i Ebből jön az elnevezésbeli RMS Mély NN esetén általában jobb az AdaGrad-nál
31 Adaptive Momentum (Adam) Kombináljuk az RMSProp-ot a Momentummal: 1. vk 1 vk J θk 1 0, 1 2. τk 2 τ 1 1 i k 2 J θ i k i 2 0, 1 3. θ k θ i k 1 vk τ i i k i Ötvözi a két módszer előnyét: Simítja a lépési irányt, mint a Momentum Adaptálódik a hibafelülethez, mint az RMSprop Mély hálók tanításának standard módszere
32 Módszerek szemléltetése Kvadratikus hibafelület: Összetettebb, konvex hibafelület: Nyeregpont: Elnyúló völgy:
33 Elsőrendű módszerek összegzés Milyen az ideális optimalizáló módszer? Azon irány mentén mozog gyorsan, melyre eső gradiens vetület stabil (még akkor is, ha ez kicsi) Az instabil gradiens vetületű irány mentén megfontoltabb (nagy amplitúdó esetén is) Különböző változatok a hibafelület lokális görbületét próbálják becsülni a gradiens vektorokból Jelentős hasonlóság a BFGS / CG módszerekkel Sokat segíthet az előfeldolgozás cél az izotrópia Bemenetenkénti normalizálás Bemenetek de-korrelációja (pl. PCA, igaz sok változó esetén nem egyszerű)
34 Görbület figyelembe vétele Módszerek áttekintése / osztályozása Másodrendű Newton Módszer, (LM) (Csonkolt Newton) BFGS, L-BFGS Konjugált Gradiens Származtatás Elsőrendű Adam, (Adadelta), RMSprop, Adagrad, Nesterov Momentum Momentum Gradient Descent
35 Általános megfontolások -1- Klasszikus NN-ek esete: Általában kevésbé redundáns tanítóminták Egy epoch-ban minden mintát felhasználunk Másodrendű módszerek jól használhatóak Mély NN-ek esete: Sok redundáns tanítóminta Érdemes a mintákat mini-batch-ekre partícionálni Egy partícióba kevésbé korrelált minták essenek Fontos, hogy kiegyensúlyozottak legyenek a bacth-ek
36 Általános megfontolások -2- Mini-batch mérete általában nagy legyen Szélsőséges eset (1 minta) on-line tanulás Másodrendű módszerek kevésbé hatékonyak: Bonyolultabb a hibafelület, kvadratikus approx.-ból származó javítóirányok csak kicsit jobbak a gradiensnél Gyakorlatban tetszőlegesen kis hibát a tanítómintákon el lehet velük érni (de ez gépi tanulásnál kb. lényegtelen) Hibafelület alakja: Lineáris neuron esetén kvadratikus NN / DNN esetén lokálisan kvadratikus (lsd. RELU)
37 Felhasznált források Felhasznált források: 1. Stanford CS231n Denzi Yuret - Alec Radford's animations for optimization algorithms 3. Horváth Gábor (szerk.) : Neurális hálózatok alfejezet 4. Faragó István Horváth Róbert : Numerikus módszerek, Typotex (2013) 5. Stephen Boyd and Lieven Vandenberghe : Convex Optimization, Cambridge University Press (2009) 6. Toronto University CSC321 Lect6:
Konjugált gradiens módszer
Közelítő és szimbolikus számítások 12. gyakorlat Konjugált gradiens módszer Készítette: Gelle Kitti Csendes Tibor Vinkó Tamás Faragó István Horváth Róbert jegyzetei alapján 1 LINEÁRIS EGYENLETRENDSZEREK
RészletesebbenOsztályozási feladatok képdiagnosztikában. Orvosi képdiagnosztikai 2017 ősz
Osztályozási feladatok képdiagnosztikában Orvosi képdiagnosztikai 2017 ősz Osztályozás Szeparáló felületet keresünk Leképezéseket tanulunk meg azok mintáiból A tanuláshoz használt minták a tanító minták
RészletesebbenGépi tanulás a gyakorlatban. Lineáris regresszió
Gépi tanulás a gyakorlatban Lineáris regresszió Lineáris Regresszió Legyen adott egy tanuló adatbázis: Rendelkezésünkre áll egy olyan előfeldolgozott adathalmaz, aminek sorai az egyes ingatlanokat írják
RészletesebbenNemlineáris egyenletrendszerek megoldása április 15.
Nemlineáris egyenletrendszerek megoldása 2014. április 15. Nemlineáris egyenletrendszerek Az egyenletrendszer a következő formában adott: f i (x 1, x 2,..., x M ) = 0 i = 1...N az f i függvények az x j
RészletesebbenNumerikus módszerek beugró kérdések
1. Definiálja a gépi számok halmazát (a tanult modellnek megfelelően)! Adja meg a normalizált lebegőpontos szám alakját. (4 pont) Az alakú számot normalizált lebegőpontos számnak nevezik, ha Ahol,,,. Jelöl:
RészletesebbenSaj at ert ek-probl em ak febru ar 26.
Sajátérték-problémák 2018. február 26. Az alapfeladat Adott a következő egyenlet: Av = λv, (1) ahol A egy ismert mátrix v ismeretlen, nem zérus vektor λ ismeretlen szám Azok a v, λ kombinációk, amikre
RészletesebbenDeep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök
Gyires-Tóth Bálint Deep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök http://smartlab.tmit.bme.hu Deep Learning Híradó Hírek az elmúlt 168 órából Deep Learning Híradó Google
RészletesebbenACM Snake. Orvosi képdiagnosztika 11. előadás első fele
ACM Snake Orvosi képdiagnosztika 11. előadás első fele ACM Snake (ismétlés) A szegmentáló kontúr egy paraméteres görbe: x Zs s X s, Y s,, s A szegmentáció energia funkcionál minimalizálása: E x Eint x
RészletesebbenDifferenciálegyenletek numerikus megoldása
a Matematika mérnököknek II. című tárgyhoz Differenciálegyenletek numerikus megoldása Fokozatos közeĺıtés módszere (1) (2) x (t) = f (t, x(t)), x I, x(ξ) = η. Az (1)-(2) kezdeti érték probléma ekvivalens
RészletesebbenGépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)
Gépi tanulás Hány tanítómintára van szükség? VKH Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Induktív tanulás A tanítás folyamata: Kiinduló
RészletesebbenRegresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.
Regresszió Csorba János Nagyméretű adathalmazok kezelése 2010. március 31. A feladat X magyarázó attribútumok halmaza Y magyarázandó attribútumok) Kérdés: f : X -> Y a kapcsolat pár tanítópontban ismert
RészletesebbenAlap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )
Budapesti Műszaki és Gazdaságtudományi Egyetem Gépészmérnöki Kar Hidrodinamikai Rendszerek Tanszék, Budapest, Műegyetem rkp. 3. D ép. 334. Tel: 463-6-80 Fa: 463-30-9 http://www.vizgep.bme.hu Alap-ötlet:
RészletesebbenHidraulikus hálózatok robusztusságának növelése
Dr. Dulovics Dezső Junior Szimpózium 2018. Hidraulikus hálózatok robusztusságának növelése Előadó: Huzsvár Tamás MSc. Képzés, II. évfolyam Témavezető: Wéber Richárd, Dr. Hős Csaba www.hds.bme.hu Az előadás
RészletesebbenSzámítási feladatok a Számítógépi geometria órához
Számítási feladatok a Számítógépi geometria órához Kovács Zoltán Copyright c 2012 Last Revision Date: 2012. október 15. kovacsz@nyf.hu Technikai útmutató a jegyzet használatához A jegyzet képernyőbarát
RészletesebbenNumerikus módszerek 1.
Numerikus módszerek 1. 11. előadás: A Newton-módszer és társai Lócsi Levente ELTE IK 2013. november 25. Tartalomjegyzék 1 A Newton-módszer és konvergenciatételei 2 Húrmódszer és szelőmódszer 3 Általánosítás
RészletesebbenEddig csak a polinom x-ben felvett értékét kerestük
Interpolációs polinom együtthatói Eddig csak a polinom x-ben felvett értékét kerestük Ez jó, ha kevés x-re kell kiértékelni Ha sok ismeretlen f (x)-et keresünk, akkor jobb kiszámolni az együtthatókat,
RészletesebbenDiszkréten mintavételezett függvények
Diszkréten mintavételezett függvények A függvény (jel) értéke csak rögzített pontokban ismert, de köztes pontokban is meg akarjuk becsülni időben mintavételezett jel pixelekből álló műholdkép rácson futtatott
RészletesebbenGauss-Seidel iteráció
Közelítő és szimbolikus számítások 5. gyakorlat Iterációs módszerek: Jacobi és Gauss-Seidel iteráció Készítette: Gelle Kitti Csendes Tibor Somogyi Viktor London András Deák Gábor jegyzetei alapján 1 ITERÁCIÓS
RészletesebbenSzámítógépes geometria (mester kurzus)
2010 sz, Debreceni Egyetem Csuklós szerkezetek animációja (Kép 1985-b l: Tony de Peltrie) Csontváz-modellek Csuklós szerkezet (robotkar) A robotkar részei: csuklók (joints) rotációs prizmatikus (transzlációs)
RészletesebbenLineáris algebra numerikus módszerei
Hermite interpoláció Tegyük fel, hogy az x 0, x 1,..., x k [a, b] különböző alappontok (k n), továbbá m 0, m 1,..., m k N multiplicitások úgy, hogy Legyenek adottak k m i = n + 1. i=0 f (j) (x i ) = y
Részletesebbenalakú számot normalizált lebegőpontos számnak nevezik, ha ,, és. ( : mantissza, : mantissza hossza, : karakterisztika) Jelölés: Gépi számhalmaz:
1. A lebegőpontos számábrázolás egy modellje. A normalizált lebegőpontos szám fogalma, a legnagyobb, legkisebb pozitív szám, a relatív pontosság az M(t,-k,+k) gépi számhalmazban. Az input függvény (fl)
Részletesebbenn n (n n ), lim ln(2 + 3e x ) x 3 + 2x 2e x e x + 1, sin x 1 cos x, lim e x2 1 + x 2 lim sin x 1 )
Matek szigorlat Komplex számok Sorozat határérték., a legnagyobb taggal egyszerűsítünk n n 3 3n 2 + 2 3n 2 n n + 2 25 n 3 9 n 2 + + 3) 2n 8 n 3 2n 3,, n n5 + n 2 n 2 5 2n + 2 3n 2) n+ 2. e-ados: + a )
RészletesebbenI. LABOR -Mesterséges neuron
I. LABOR -Mesterséges neuron A GYAKORLAT CÉLJA: A mesterséges neuron struktúrájának az ismertetése, neuronhálókkal kapcsolatos elemek, alapfogalmak bemutatása, aktivációs függvénytípusok szemléltetése,
RészletesebbenLegkisebb négyzetek módszere, Spline interpoláció
Közelítő és szimbolikus számítások 10. gyakorlat Legkisebb négyzetek módszere, Spline interpoláció Készítette: Gelle Kitti Csendes Tibor Somogyi Viktor Vinkó Tamás London András Deák Gábor jegyzetei alapján
RészletesebbenFEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 10 X. SZIMULÁCIÓ 1. VÉLETLEN számok A véletlen számok fontos szerepet játszanak a véletlen helyzetek generálásában (pénzérme, dobókocka,
RészletesebbenNem-lineáris programozási feladatok
Nem-lineáris programozási feladatok S - lehetséges halmaz 2008.02.04 Dr.Bajalinov Erik, NyF MII 1 Elég egyszerű példa: nemlineáris célfüggvény + lineáris feltételek Lehetséges halmaz x 1 *x 2 =6.75 Gradiens
RészletesebbenNumerikus módszerek 1.
Numerikus módszerek 1. 10. előadás: Nemlineáris egyenletek numerikus megoldása Lócsi Levente ELTE IK 2013. november 18. Tartalomjegyzék 1 Bolzano-tétel, intervallumfelezés 2 Fixponttételek, egyszerű iterációk
RészletesebbenNorma Determináns, inverz Kondíciószám Direkt és inverz hibák Lin. egyenletrendszerek A Gauss-módszer. Lineáris algebra numerikus módszerei
Indukált mátrixnorma Definíció A. M : R n n R mátrixnormát a. V : R n R vektornorma által indukált mátrixnormának nevezzük, ha A M = max { Ax V : x V = 1}. Az indukált mátrixnorma geometriai jelentése:
RészletesebbenMegoldott feladatok november 30. n+3 szigorúan monoton csökken, 5. n+3. lim a n = lim. n+3 = 2n+3 n+4 2n+1
Megoldott feladatok 00. november 0.. Feladat: Vizsgáljuk az a n = n+ n+ sorozat monotonitását, korlátosságát és konvergenciáját. Konvergencia esetén számítsuk ki a határértéket! : a n = n+ n+ = n+ n+ =
Részletesebben10. Előadás. 1. Feltétel nélküli optimalizálás: Az eljárás alapjai
Optimalizálási eljárások MSc hallgatók számára 10. Előadás Előadó: Hajnal Péter Jegyzetelő: T. Szabó Tamás 2011. április 20. 1. Feltétel nélküli optimalizálás: Az eljárás alapjai A feltétel nélküli optimalizálásnál
RészletesebbenMit látnak a robotok? Bányai Mihály Matemorfózis, 2017.
Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017. Vizuális feldolgozórendszerek feladatai Mesterséges intelligencia és idegtudomány Mesterséges intelligencia és idegtudomány Párhuzamos problémák
RészletesebbenRobotok inverz geometriája
Robotok inverz geometriája. A gyakorlat célja Inverz geometriai feladatot megvalósító függvények implementálása. A megvalósított függvénycsomag tesztelése egy kétszabadságfokú kar előírt végberendezés
RészletesebbenSajátértékek és sajátvektorok. mf1n1a06- mf1n2a06 Csabai István
Sajátértékek és sajátvektorok A fizika numerikus módszerei I. mf1n1a06- mf1n2a06 Csabai István Lineáris transzformáció Vektorok lineáris transzformációja: általános esetben az x vektor iránya és nagysága
RészletesebbenOptimalizálás alapfeladata Legmeredekebb lejtő Lagrange függvény Log-barrier módszer Büntetőfüggvény módszer 2017/
Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatikai Intézet Számítógépes Optimalizálás Tanszék 9. Előadás Az optimalizálás alapfeladata Keressük f függvény maximumát ahol f : R n R és
RészletesebbenExplicit hibabecslés Maxwell-egyenletek numerikus megoldásához
Explicit hibabecslés Maxwell-egyenletek numerikus megoldásához Izsák Ferenc 2007. szeptember 17. Explicit hibabecslés Maxwell-egyenletek numerikus megoldásához 1 Vázlat Bevezetés: a vizsgált egyenlet,
RészletesebbenNemlineáris modellek
Ferenci Tamás tamas.ferenci@medstat.hu 2018. február 7. Tartalom 1 2 3 4 A marginális hatás fogalma Marginális hatás: a magyarázó változó kis növelésének hatására mekkora az eredményváltozó egységnyi magyarázóváltozó-növelésre
RészletesebbenLine aris f uggv enyilleszt es m arcius 19.
Lineáris függvényillesztés 2018. március 19. Illesztett paraméterek hibája Eddig azt néztük, hogy a mérési hiba hogyan propagál az illesztett paraméterekbe, ha van egy konkrét függvényünk. a hibaterjedés
RészletesebbenKészítette: Trosztel Mátyás Konzulens: Hajós Gergely
Készítette: Trosztel Mátyás Konzulens: Hajós Gergely Monte Carlo Markov Chain MCMC során egy megfelelően konstruált Markov-lánc segítségével mintákat generálunk. Ezek eloszlása követi a céleloszlást. A
RészletesebbenYBL - SGYMMAT2012XA Matematika II.
YBL - SGYMMAT2012XA Matematika II. Tantárgyfelelős: Dr. Joós Antal Tárgyelőadó: Dr. Joós Antal Tantárgyi leírás Oktatási cél: Azoknak a matematikai alapoknak a megszerzése, melyek a szaktárgyak elsajátításához
Részletesebben6. gyakorlat. Gelle Kitti. Csendes Tibor Somogyi Viktor. London András. jegyzetei alapján
Közelítő és szimbolikus számítások 6. gyakorlat Sajátérték, Gersgorin körök Készítette: Gelle Kitti Csendes Tibor Somogyi Viktor Vinkó Tamás London András Deák Gábor jegyzetei alapján . Mátrixok sajátértékei
RészletesebbenRekurzív sorozatok. SZTE Bolyai Intézet nemeth. Rekurzív sorozatok p.1/26
Rekurzív sorozatok Németh Zoltán SZTE Bolyai Intézet www.math.u-szeged.hu/ nemeth Rekurzív sorozatok p.1/26 Miért van szükség közelítő módszerekre? Rekurzív sorozatok p.2/26 Miért van szükség közelítő
RészletesebbenAdatbányászati szemelvények MapReduce környezetben
Adatbányászati szemelvények MapReduce környezetben Salánki Ágnes salanki@mit.bme.hu 2014.11.10. Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs Rendszerek Tanszék Felügyelt
RészletesebbenVégeselem modellezés alapjai 1. óra
Végeselem modellezés alapjai. óra Gyenge alak, Tesztfüggvény, Lagrange-féle alakfüggvény, Stiness mátrix Kivonat Az óra célja, hogy megismertesse a végeselem módszer (FEM) alkalmazását egy egyszer probléma,
RészletesebbenMatematika (mesterképzés)
Matematika (mesterképzés) Környezet- és Településmérnököknek Debreceni Egyetem Műszaki Kar, Műszaki Alaptárgyi Tanszék Vinczéné Varga A. Környezet- és Településmérnököknek 2016/2017/I 1 / 29 Lineáris tér,
Részletesebben3. előadás Stabilitás
Stabilitás 3. előadás 2011. 09. 19. Alapfogalmak Tekintsük dx dt = f (t, x), x(t 0) = x 0 t (, ), (1) Jelölje t x(t; t 0, x 0 ) vagy x(.; t 0, x 0 ) a KÉF megoldását. Kívánalom: kezdeti állapot kis megváltozása
Részletesebben1 Lebegőpontos számábrázolás
Tartalom 1 Lebegőpontos számábrázolás... 2 2 Vektornormák... 4 3 Indukált mátrixnormák és tulajdonságaik... 5 4 A lineáris rendszer jobboldala hibás... 6 5 A kondíciószám és tulajdonságai... 7 6 Perturbációs
RészletesebbenMatematika III előadás
Matematika III. - 3. előadás Vinczéné Varga Adrienn Debreceni Egyetem Műszaki Kar, Műszaki Alaptárgyi Tanszék Előadáskövető fóliák Vinczéné Varga Adrienn (DE-MK) Matematika III. 2016/2017/I 1 / 19 Skalármezők
RészletesebbenKOMPOZITLEMEZ ORTOTRÓP
KOMPOZITLEMEZ ORTOTRÓP ANYAGJELLEMZŐINEK MEGHATÁROZÁSA ÉS KÍSÉRLETI IGAZOLÁSA Nagy Anna anna.nagy@econengineering.com econ Engineering econ Engineering Kft. 2019 H-1116 Budapest, Kondorosi út 3. IV. emelet
RészletesebbenFüggvények növekedési korlátainak jellemzése
17 Függvények növekedési korlátainak jellemzése A jellemzés jól bevált eszközei az Ω, O, Θ, o és ω jelölések. Mivel az igények általában nemnegatívak, ezért az alábbi meghatározásokban mindenütt feltesszük,
RészletesebbenNumerikus módszerek 1.
Numerikus módszerek 1. Tantárgy kódja: IP-08bNM1E, IP-08bNM1G (2+2) Az elsajátítandó ismeretanyag rövid leírása: A lebegıpontos számábrázolás egy modellje. A hibaszámítás elemei. Lineáris egyenletrendszerek
RészletesebbenDifferenciálegyenletek numerikus integrálása április 9.
Differenciálegyenletek numerikus integrálása 2018. április 9. Differenciálegyenletek Olyan egyenletek, ahol a megoldást függvény alakjában keressük az egyenletben a függvény és deriváltjai szerepelnek
RészletesebbenDIFFERENCIAEGYENLETEK
DIFFERENCIAEGYENLETEK Példa: elsőrendű állandó e.h. lineáris differenciaegyenlet Ennek megoldása: Kezdeti feltétellel: Kezdeti feltétel nélkül ha 1 és a végtelen összeg (abszolút) konvergens: / 1 Minden
RészletesebbenA KLT (Kanade Lucas Tomasi) Feature Tracker Működése (jellegzetes pontok választása és követése)
A KL (Kanade Lucas omasi) Feature racker Működése (jellegzetes pontok választása és követése) Készítette: Hajder Levente 008.11.18. 1. Feladat A rendelkezésre álló videó egy adott képkockájából minél több
RészletesebbenJanuary 16, ψ( r, t) ψ( r, t) = 1 (1) ( ψ ( r,
Közelítő módszerek January 16, 27 1 A variációs módszer A variációs módszer szintén egy analitikus közelítő módszer. Olyan esetekben alkalmazzuk mikor ismert az analitikus alak amelyben keressük a sajátfüggvényt,
RészletesebbenNumerikus matematika. Irodalom: Stoyan Gisbert, Numerikus matematika mérnököknek és programozóknak, Typotex, Lebegőpontos számok
Numerikus matematika Irodalom: Stoyan Gisbert, Numerikus matematika mérnököknek és programozóknak, Typotex, 2007 Lebegőpontos számok Normák, kondíciószámok Lineáris egyenletrendszerek Legkisebb négyzetes
RészletesebbenP 2 P 1. 4.1 ábra Az f(x) függvény globális minimuma (P 1 ) és egy lokális minimuma (P 2 ).
Paláncz Béla - Numerikus Módszerek - 211-4. Optimalizálás 4 Optimalizálás Bevezetés Az optimalizáció, egy függvény szélsőértéke helyének meghatározása, talán a legfontosabb numerikus eljárások közé tartozik.
RészletesebbenNemlineáris programozás 2.
Optimumszámítás Nemlineáris programozás 2. Többváltozós optimalizálás feltételek mellett. Lagrange-feladatok. Nemlineáris programozás. A Kuhn-Tucker feltételek. Konvex programozás. Sydsaeter-Hammond: 18.1-5,
RészletesebbenIrányításelmélet és technika II.
Irányításelmélet és technika II. Modell-prediktív szabályozás Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki és Információs Rendszerek Tanszék amagyar@almos.vein.hu 2010 november
RészletesebbenNeurális hálózatok bemutató
Neurális hálózatok bemutató Füvesi Viktor Miskolci Egyetem Alkalmazott Földtudományi Kutatóintézet Miért? Vannak feladatok amelyeket az agy gyorsabban hajt végre mint a konvencionális számítógépek. Pl.:
RészletesebbenMegerősítéses tanulás 7. előadás
Megerősítéses tanulás 7. előadás 1 Ismétlés: TD becslés s t -ben stratégia szerint lépek! a t, r t, s t+1 TD becslés: tulajdonképpen ezt mintavételezzük: 2 Akcióértékelő függvény számolása TD-vel még mindig
RészletesebbenKeresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Keresés képi jellemzők alapján Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Lusta gépi tanulási algoritmusok Osztályozás: k=1: piros k=5: kék k-legközelebbi szomszéd (k=1,3,5,7)
RészletesebbenNumerikus matematika vizsga
1. Az a = 2, t = 4, k = 3, k + = 2 számábrázolási jellemzők mellett hány pozitív, normalizált lebegőpontos szám ábrázolható? Adja meg a legnagyobb ábrázolható számot! Mi lesz a 0.8-hoz rendelt lebegőpontos
RészletesebbenANALÍZIS III. ELMÉLETI KÉRDÉSEK
ANALÍZIS III. ELMÉLETI KÉRDÉSEK Szerkesztette: Balogh Tamás 2014. május 15. Ha hibát találsz, kérlek jelezd a info@baloghtamas.hu e-mail címen! Ez a Mű a Creative Commons Nevezd meg! - Ne add el! - Így
RészletesebbenTöbbváltozós, valós értékű függvények
TÖ Többváltozós, valós értékű függvények TÖ Definíció: többváltozós függvények Azokat a függvényeket, melyeknek az értelmezési tartománya R n egy részhalmaza, n változós függvényeknek nevezzük. TÖ Példák:.
RészletesebbenBudapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók Előadó: Előadás anyaga: Hullám Gábor Pataki Béla Dobrowiecki Tadeusz BME I.E. 414, 463-26-79
RészletesebbenLosonczi László. Debreceni Egyetem, Közgazdaság- és Gazdaságtudományi Kar
Szélsőértékszámítás Losonczi László Debreceni Egyetem, Közgazdaság- és Gazdaságtudományi Kar Losonczi László (DE) Szélsőértékszámítás 1 / 21 2. SZÉLSOÉRTÉKSZÁMÍTÁS 2.1 A szélsőérték fogalma, létezése Azt
RészletesebbenElhangzott tananyag óránkénti bontásban
TTK, Matematikus alapszak Differenciálegyenletek (Előadás BMETE93AM03; Gyakorlat BME TE93AM04) Elhangzott tananyag óránkénti bontásban 2016. február 15. 1. előadás. Közönséges differenciálegyenlet fogalma.
RészletesebbenTartalom. 1. Állapotegyenletek megoldása 2. Állapot visszacsatolás (pólusallokáció)
Tartalom 1. Állapotegyenletek megoldása 2. Állapot visszacsatolás (pólusallokáció) 2015 1 Állapotgyenletek megoldása Tekintsük az ẋ(t) = ax(t), x(0) = 1 differenciálegyenletet. Ismert, hogy a megoldás
Részletesebbenx 2 e x dx c) (3x 2 2x)e 2x dx x sin x dx f) x cosxdx (1 x 2 )(sin 2x 2 cos 3x) dx e 2x cos x dx k) e x sin x cosxdx x ln x dx n) (2x + 1) ln 2 x dx
Integrálszámítás II. Parciális integrálás. g) i) l) o) e ( + )(e e ) cos h) e sin j) (sin 3 cos) m) arctg p) arcsin e (3 )e sin f) cos ( )(sin cos 3) e cos k) e sin cos ln n) ( + ) ln. e 3 e cos 3 3 cos
RészletesebbenMesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás
Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás http:/uni-obuda.hu/users/kutor/ IRE 7/50/1 A neurális hálózatok általános jellemzői 1. A
RészletesebbenGrafikonok automatikus elemzése
Grafikonok automatikus elemzése MIT BSc önálló laboratórium konzulens: Orosz György 2016.05.18. A feladat elsődleges célkitűzései o eszközök adatlapján található grafikonok feldolgozása, digitalizálása
RészletesebbenGépi tanulás Gregorics Tibor Mesterséges intelligencia
Gépi tanulás Tanulás fogalma Egy algoritmus akkor tanul, ha egy feladat megoldása során olyan változások következnek be a működésében, hogy később ugyanazt a feladatot vagy ahhoz hasonló más feladatokat
RészletesebbenNumerikus matematika
Numerikus matematika Baran Ágnes Gyakorlat Nemlineáris egyenletek Baran Ágnes Numerikus matematika 9.10. Gyakorlat 1 / 14 Feladatok (1) Mutassa meg, hogy az 3x 3 12x + 4 = 0 egyenletnek van gyöke a [0,
RészletesebbenSzámítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Számítógépes képelemzés 7. előadás Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Momentumok Momentum-alapú jellemzők Tömegközéppont Irányultáság 1 2 tan 2 1 2,0 1,1 0, 2 Befoglaló
RészletesebbenMatematika szigorlat, Mérnök informatikus szak I máj. 12. Név: Nept. kód: Idő: 1. f. 2. f. 3. f. 4. f. 5. f. 6. f. Össz.: Oszt.
Matematika szigorlat, Mérnök informatikus szak I. 2009. máj. 12. Név: Nept. kód: Idő: 1. f. 2. f. 3. f. 4. f. 5. f. 6. f. Össz.: Oszt.: 180 perc 0-49 pont: elégtelen, 50-61 pont: elégséges, 62-73 pont:
RészletesebbenOptimalizációs eljárások hatása a mért értékek megbízhatóságának a növelésére
Optimalizációs eljárások hatása a mért értékek megbízhatóságának a növelésére Dr. Odry Péter, Kecskés István Workshop Miskolc, 2013. 09. 06. 2.2/a Altéma 2.2/a Altéma: Ferromágneses anyagok roncsolásmentes,
RészletesebbenIrányításelmélet és technika I.
Irányításelmélet és technika I Folytonos idejű rendszerek leírása az állapottérben Állapotvisszacsatolást alkalmazó szabályozási körök Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki
RészletesebbenIrányításelmélet és technika II.
Irányításelmélet és technika II. Legkisebb négyzetek módszere Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki és Információs Rendszerek Tanszék amagyar@almos.vein.hu 200 november
RészletesebbenMatematika szigorlat június 17. Neptun kód:
Név Matematika szigorlat 014. június 17. Neptun kód: 1.. 3. 4. 5. Elm. Fel. Össz. Oszt. Az eredményes szigorlat feltétele elméletből legalább 0 pont, feladatokból pedig legalább 30 pont elérése. A szigorlat
RészletesebbenIntelligens Rendszerek Gyakorlata. Neurális hálózatok I.
: Intelligens Rendszerek Gyakorlata Neurális hálózatok I. dr. Kutor László http://mobil.nik.bmf.hu/tantargyak/ir2.html IRG 3/1 Trend osztályozás Pnndemo.exe IRG 3/2 Hangulat azonosítás Happy.exe IRG 3/3
RészletesebbenVektorterek. =a gyakorlatokon megoldásra ajánlott
Vektorterek =a gyakorlatokon megoldásra ajánlott 40. Alteret alkotnak-e a valós R 5 vektortérben a megadott részhalmazok? Ha igen, akkor hány dimenziósak? (a) L = { (x 1, x 2, x 3, x 4, x 5 ) x 1 = x 5,
RészletesebbenTartalom. Állapottér reprezentációk tulajdonságai stabilitás irányíthatóság megfigyelhetőség minimalitás
Tartalom Állapottér reprezentációk tulajdonságai stabilitás irányíthatóság megfigyelhetőség minimalitás 2018 1 Állapottér reprezentációk tulajdonságai Általánosan egy lineáris, SISO dinamikus rendszer
RészletesebbenPéldák jellemzőkre: - minden pixelérték egy jellemző pl. neurális hálózat esetében csak kis képekre, nem invariáns sem a megvilágításra, sem a geom.
Lépések 1. tanító és teszt halmaz összeállítása / megszerzése 2. jellemzők kinyerése 3. tanító eljárás választása Sok vagy kevés adat áll-e rendelkezésünkre? Mennyi tanítási idő/memória áll rendelkezésre?
RészletesebbenNemkonvex kvadratikus egyenlőtlenségrendszerek pontos dualitással
pontos dualitással Imre McMaster University Advanced Optimization Lab ELTE TTK Operációkutatási Tanszék Folytonos optimalizálás szeminárium 2004. július 6. 1 2 3 Kvadratikus egyenlőtlenségrendszerek Primál
RészletesebbenMATEMATIKA EMELT SZINTŰ SZÓBELI VIZSGA TÉMAKÖREI (TÉTELEK) 2005
2005 1. * Halmazok, halmazműveletek, nevezetes ponthalmazok 2. Számhalmazok, halmazok számossága 3. Hatványozás, hatványfüggvény 4. Gyökvonás, gyökfüggvény 5. A logaritmus. Az exponenciális és a logaritmus
RészletesebbenMegerősítéses tanulás 9. előadás
Megerősítéses tanulás 9. előadás 1 Backgammon (vagy Ostábla) 2 3 TD-Gammon 0.0 TD() tanulás (azaz időbeli differencia-módszer felelősségnyomokkal) függvényapproximátor: neuronháló 40 rejtett (belső) neuron
RészletesebbenTöbbváltozós, valós értékű függvények
Többváltozós függvények Többváltozós, valós értékű függvények Többváltozós függvények Definíció: többváltozós függvények Azokat a függvényeket, melyeknek az értelmezési tartománya R n egy részhalmaza,
RészletesebbenPrincipal Component Analysis
Principal Component Analysis Principal Component Analysis Principal Component Analysis Definíció Ortogonális transzformáció, amely az adatokat egy új koordinátarendszerbe transzformálja úgy, hogy a koordináták
RészletesebbenOptimalizálási eljárások GYAKORLAT, MSc hallgatók számára. Analízis R d -ben
Optimalizálási eljárások GYAKORLAT, MSc hallgatók számára Analízis R d -ben Gyakorlatvezetõ: Hajnal Péter 2012. február 8 1. Konvex függvények Definíció. f : D R konvex, ha dom(f) := D R n konvex és tetszőleges
RészletesebbenTeljesen elosztott adatbányászat pletyka algoritmusokkal. Jelasity Márk Ormándi Róbert, Hegedűs István
Teljesen elosztott adatbányászat pletyka algoritmusokkal Jelasity Márk Ormándi Róbert, Hegedűs István Motiváció Nagyméretű hálózatos elosztott alkalmazások az Interneten egyre fontosabbak Fájlcserélő rendszerek
RészletesebbenSzélsőérték-számítás
Szélsőérték-számítás Jelölések A következő jelölések mind az f függvény x szerinti parciális deriváltját jelentik: Ugyanígy az f függvény y szerinti parciális deriváltja: f x = xf = f x f y = yf = f y
RészletesebbenFraktálok. Kontrakciók Affin leképezések. Czirbusz Sándor ELTE IK, Komputeralgebra Tanszék. TARTALOMJEGYZÉK Kontrakciók Affin transzformációk
Fraktálok Kontrakciók Affin leképezések Czirbusz Sándor ELTE IK, Komputeralgebra Tanszék TARTALOMJEGYZÉK 1 of 71 A Lipschitz tulajdonság ÁTMÉRŐ, PONT ÉS HALMAZ TÁVOLSÁGA Definíció Az (S, ρ) metrikus tér
RészletesebbenSergyán Szabolcs szeptember 21.
Éldetektálás Sergyán Szabolcs Budapesti Műszaki Főiskola Neumann János Informatikai Kar 2009. szeptember 21. Sergyán Sz. (BMF NIK) Éldetektálás 2009. szeptember 21. 1 / 28 Mit nevezünk élnek? Intuitív
RészletesebbenA legjobb közeĺıtés itt most azt jelentette, hogy a lineáris
Többváltozós függvények differenciálhatósága f(x) f(x Az egyváltozós függvények differenciálhatóságát a lim 0 ) x x0 x x 0 függvényhatárértékkel definiáltuk, s szemléletes jelentése abban mutatkozott meg,
Részletesebbencos 2 (2x) 1 dx c) sin(2x)dx c) cos(3x)dx π 4 cos(2x) dx c) 5sin 2 (x)cos(x)dx x3 5 x 4 +11dx arctg 11 (2x) 4x 2 +1 π 4
Integrálszámítás I. Végezze el a következő integrálásokat:. α, haα sin() cos() e f) a sin h) () cos ().. 5 4 ( ) e + 4 sin h) (+) sin() sin() cos() + f) 5 i) cos ( +) 7 4. 4 (+) 6 4 cos() 5 +7 5. ( ) sin()cos
RészletesebbenLineáris leképezések. Wettl Ferenc március 9. Wettl Ferenc Lineáris leképezések március 9. 1 / 31
Lineáris leképezések Wettl Ferenc 2015. március 9. Wettl Ferenc Lineáris leképezések 2015. március 9. 1 / 31 Tartalom 1 Mátrixleképezés, lineáris leképezés 2 Alkalmazás: dierenciálhatóság 3 2- és 3-dimenziós
RészletesebbenKonvolúciós neurális hálózatok (CNN)
Konvolúciós neurális hálózatok (CNN) Konvolúció Jelfeldolgozásban: Diszkrét jelek esetén diszkrét konvolúció: Képfeldolgozásban 2D konvolúció (szűrők): Konvolúciós neurális hálózat Konvolúciós réteg Kép,
RészletesebbenFEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 3 III. VÉLETLEN VEKTOROK 1. A KÉTDIMENZIÓs VÉLETLEN VEKTOR Definíció: Az leképezést (kétdimenziós) véletlen vektornak nevezzük, ha Definíció:
Részletesebben12. Mikor nevezünk egy részhalmazt nyíltnak, illetve zártnak a valós számok körében?
Ellenörző Kérdések 1. Mit jelent az, hogy egy f : A B függvény injektív, szürjektív, illetve bijektív? 2. Mikor nevezünk egy függvényt invertálhatónak? 3. Definiálja a komplex szám és műveleteinek fogalmát!
RészletesebbenA fontosabb definíciók
A legfontosabb definíciókat jelöli. A fontosabb definíciók [Descartes szorzat] Az A és B halmazok Descartes szorzatán az A és B elemeiből képezett összes (a, b) a A, b B rendezett párok halmazát értjük,
Részletesebben