Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2006/2007
|
|
- Gizella Faragóné
- 8 évvel ezelőtt
- Látták:
Átírás
1 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2006/2007
2 Az Előadások Témái -hálók Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák Szemantikus hálók / Keretrendszerek Játékok modellezése Bizonytalanság kezelése Grafikus modellek Tanuló rendszerek Szimulált kifűtés, Genetikus algoritmusok Neurális hálók Gépi tanulás Nemparametrikus módszerek
3 Adminisztra trívia Előadások honlapja csatol/mestint -hálók Vizsga Szóbeli (60%) + Gyakorlat (40%) (v) Előadás (60%) Laborgyakorlatok: 1 Clean vagy Prolog - dedukciós algoritmus 30% 2 C / C++ / C# / - genetikus algoritmus 10% vagy 3 Matlab - Neurális hálózatok vagy SVM 10%
4 Többrétegű Hálók I -hálók Az információ számok a bemeneti X rétegből a kimeneti Y réteg fele halad. Egy mintára kiszámítjuk a kimeneti értéket, minden neuron értékét kiszámítva. Feltételezzük, hogy minden adat és súly folytonos. X Y MLP NEM Bayes-háló A neurális hálók kapcsolatai kommunikációt, a Bayes-hálók kapcsolatai függőséget jelentenek.
5 Többrétegű Hálók II -hálók x 1 x 2 x 3 Y x 4 W h 1 h 2 h 3 h 4 h 5 MI az információ? V Formálisan : A neuronháló csúcsai az információt feldolgozzák. y ki def = f akt (x be ) Az élek: a csúcsok közötti kapcsolatok. x (i) be def = A fenti lépések ismétlődnek. j w ij x (j) ki definíció szerint x ki R k
6 Többrétegű Hálók II -hálók x 1 x 2 x 3 Y x 4 W h 1 h 2 h 3 h 4 h 5 MI az információ? V Formálisan : A neuronháló csúcsai az információt feldolgozzák. y ki def = f akt (x be ) Az élek: a csúcsok közötti kapcsolatok. x (i) be def = A fenti lépések ismétlődnek. j w ij x (j) ki definíció szerint x ki R k
7 Többrétegű Hálók II -hálók x 1 x 2 x 3 Y x 4 W h 1 h 2 h 3 h 4 h 5 MI az információ? V Formálisan : A neuronháló csúcsai az információt feldolgozzák. y ki def = f akt (x be ) Az élek: a csúcsok közötti kapcsolatok. x (i) be def = A fenti lépések ismétlődnek. j w ij x (j) ki definíció szerint x ki R k
8 Többrétegű Hálók II -hálók x 1 x 2 x 3 Y x 4 W h 1 h 2 h 3 h 4 h 5 MI az információ? V Formálisan : A neuronháló csúcsai az információt feldolgozzák. y ki def = f akt (x be ) Az élek: a csúcsok közötti kapcsolatok. x (i) be def = A fenti lépések ismétlődnek. j w ij x (j) ki definíció szerint x ki R k
9 Többrétegű Hálók III -hálók A bemenő aktivitás: y j = i w ijx i + b j. A perceptron tanulási algoritmushoz hasonlóan: előbb: x i = [x 1,..., x d, 1] T w j = [w 1,..., w d, b] T Univerzális approximáció A következő rendszer: f M (z w, b) = 1 M w m f (z b m ) m=1 f (z b) 0 b 1 2 f (z) = sgn(z) univerzális approximátor, azaz δ > 0 g L 2 (R d ) M, w, b ú.h. g f M (z w, b) L2 δ
10 Többrétegű Hálók IV -hálók Univerzális approximátor: bizonyítás a szint-halmazokon alapszik (lásd Lebesgue integrálás). Vizualizálás: Mintavételezés a MATLAB kód: %Generatorfuggvenyek f = inline( ((x>0)-0.5).*2 ); g = inline( 2./(1+exp(-2*x))-1 ); % komponensek szama mcomp = 10; % fv.-nyek szama nf = 6; % X tengely xx=-10:0.05:10; xd=repmat(xx,[mcomp,1]); % plot init clf; hf = subplot(1,2,1); set(gca,... Position,[ ],... YTick,[], XTick,[]); hold on; box on; ylim([-25,25]); set(gca,... Position,[ ],... YTick,[], XTick,[]); hold on; box on; ylim([-25,25]); w és b értékekből hg = subplot(1,2,2); % megjelenitesi stilus style = { b, r, k, m, c, g }; % F.v.-nyek generalasa for ii=1:nf; % egyutthatok ss=(2*rand(mcomp,1) -1)*6; ww=(2*rand(mcomp,1) -1)*6; bb=(2*rand(mcomp,1) -1)*10; bd=diag(bb)*ones(size(xd)); y_f = sum(diag(ww) * f(diag(ss)*xd + bd) y_g = sum(diag(ww) * g(diag(ss)*xd + bd) % megjelenites plot(hf,xx,y_f,style{ii}, LineWidth,3); plot(hg,xx,y_g,style{ii}, LineWidth,3); end; % nyomtatas print -depsc2 rand_fn.eps
11 Aktivációs függvények Aktivacios fugveny F. Derivaltja Aktivacios fuggveny F. Derivaltja hálók Véletlen függvények a függvényosztályokból:
12 Backpropagation I -hálók Nem bináris függvényt közelít. A bemeneti/kimeneti értékek folytonosak. f NN : R d R Folytonos esetben használható a négyzetes hibafüggvény: E(w NN ) = 1 2 N ( yn f NN (x n ) ) 2 n=1 ahol w NN a neuronháló paraméterei. Differenciálható akt. függvényeknél a gradiens szabály alkalmazható backpropagation szabály.
13 Backpropagation II -hálók Error back-propagation négyzetes hiba visszaterjesztése Egy adott tanulási halmazhoz és egy w NN neurális hálóhoz rendelt négyzetes hiba E(w NN ) = 1 2 N ( yn f NN (x n ) ) 2 n=1 akkor zéró, ha a neurális háló minden adatot jól közelít. Egy adott w (0) NN hálónál jobban közelítő hálót kapunk ha egy kis lépést végzünk a negatív gradiens irányába.
14 Backpropagation III -hálók Képletesen w (t+1) NN w (t) NN α E(w (t) NN ) w (t) NN w (t) NN α we(w (t) NN ) ahol α tanulási együttható; w E(w (t) NN ) a hiba gradiense (vektorok!). Kérdés: milyen α értékek megfelelőek? Kis lépések hosszú konvergencia. Nagy lépések nem konvergál. E(w) (2)(1) (0) w w
15 Backpropagation IV Differenciálás szabálya: f (g 1 (w i ),..., g k (w i )) = f (g 1,..., g k ) g j w i g g j w i j -hálók Neuronháló függvénye: ( ( ) ) y =, f j h i w ij, i h 1 h 2 w i1 w i2 f j ( i h i w ij ) w in h N wij E() = j fj E() wij f j ( i w ij h i )
16 Backpropagation V (folyt) wij E() = fj E( ) wij f j ( Nn=1 w ij h i ) = h i f j ( Nn=1 w ij h i ) fj E() -hálók A bemeneti érték és a kimeneti hiba szorzódnak. És fj E() = fj E Lánc-deriválás szerint: fj E() = k ( ) ) (..., g k j v jkf j,... v jk gk E()g k () f j () v j1... Az egyéni hibák súlyozottan összeadódnak. v jk
17 Backpropagation VI -hálók (folyt) Tehát: amíg a működésnél a jel előre terjed, a tanulás folyamán a hiba visszafele; a kimeneti réteg felől a háló bemenete felé terjed. Hiba-visszaterjesztés (BP) = azaz az osztópontok összegzővé alakulnak; = azaz az összegző csomópontok meg hiba-elosztóvá.
18 Backpropagation Összefoglaló -hálók A BP algoritmus a gradiens szabály alkalmazása a neuronhálókra; Az alap a négyzetes hiba; Egyszerűen implementálható; Nagyon sok alkalmazás; Hátrányok: Mivel gradiens, lassú nagyon sokáig tarthat a tanulás. Más módszerekkel állítani be a súlyokat: Newton, Konjugált gradiens. E(w) Nincs a becsült mennyiségre konfidencia valószínűségi módszerek szükségesek. (2)(1) (0) w w Rosenbrock
19 Backpropagation Példa I Feladat: keressük a h(x 1, x 2 ) = 100 `x 2 x (1 x1 ) 2 függvény minimumát a gradiens szabály használatával. -hálók 1 h() = 400(x 2 x 2 1 )x 1 + 2(x 1 1) 2 h() = 200(x 2 x 2 1 ) A második egyenlet x 2 = x 1 Behelyettesítve x 1 = 1. Induljunk a ( 1, 1) pontból.
20 Backpropagation Példa II -hálók BP szabály = gradiens általában nagyon lassú. Rosenbrock fv. optimizálás 2 Gradient Descent Scaled Conjugate Gradients Quasi Newton 1.5 Conjugate Gradients
21 M.L.P. Összefoglaló -hálók Neurális hálók fekete-doboz módszerek: 1 minden feladat megoldására potenciálisan alkalmazhatóak; 2 jó eredményekhez (majdnem mindig) kell egy kis igazítás a módszeren; 3 siker függ a tapasztalattól; 5 BackPropagation = gradiens 1 általában nagyon lassú; 2 fejlett módszerek: konjugált gradiens módszerek, quasi-newton, etc. gyorsítanak a konvergencián. 3 lokális optimumok elkerülésére többszálú optimizálás, pl. mintavételezéssel kijelölni a kezdőértékeket. 5 Érdemes tehát tovább tanulni.
22 D.O. I D.O. The organization of behavior -hálók A neurális moduláció alapelvei: Két neuronok közötti kapcsolat erőssége arányos a neuronok pre-, illetve poszt-szinaptikus tevékenységével; Azon neuron csoportok, melyek általában egyszerre tüzelnek, egy egységet alkotnak; (modularitás) A gondolkodás folyamata ezen sejt-csoportok szekvenciális aktivációja;
23 D.O. II -hálók Organization of Behavior: When an axon of cell A is near enough to excite B and repeatedly or persistently takes part in firing it, some growth process or metabolic change takes place in one or both cells such that A s efficiency, as one of the cells firing B, is increased. Neuroscience synapse szabály (p. 62) w ij = αa i a j Ahol a i, a j neuronok aktivitásai; az összekötő szinapszis erőssége; w ij α tanulási együttható.
24 Önszervező Hálók I -hálók Cél: Haykin: Neural Networks A comprehensive foundation, IEEE press, 1994 Struktúrák felfedezése az adatokban; Felügyelet nélküli működés önszervezés. Tanulái szabályok: lokális szabályok, melyek sok neuronra alkalmazva egy globális függvényt határoznak meg. Alapja (Turing 1952): Global order can arise from local interactions.
25 Önszervező Hálók II -hálók Önszervező rendszerek alapelvei (von der Marlsburg): A szinapszisok önmegerősítőek A pre-, illetve posztszinaptikus neuronok egyidejű aktivációja erősíti a szinapszist (lásd ). A szinapszisok versengenek az erőforrásokért A legerősebb szinapszis biztos, hogy túléli. Ez a többi rovására történik (winner-takes-all). A szinapszisok változásai koordináltak Egy szinapszis nem kódol robusztusan, ezért egy régió neuronjai majdnem azonos bemenet kimenet kapcsolatot kódolnak.
26 Önszervező Hálók III -hálók X Önszervező tanulás Struktúra-felismerés A vizuális rendszer önszervező: fejlődésének elején csak a felismerésre való képesség van jelen; a működés során egyes kép-csoportok klaszterek együttesen lesznek ábrázolva; A származtatott fogalmak ábrázolása a hierarchia egy felsőbb szintjén történik. Y Példa: neurális rendszer pixelcsoportokat keres. némely pixelcsoport gyakori; ezen csoportok rözgülnek a rendszerben. a felső szinten a rendszer címkézést végez.
27 -féle tanulás I -hálók tanulás - auto-asszociatív rendszerek A rendszer bemenete egy minta - nincs kimeneti jel. A kimeneten vagy: az eredeti mintát; vagy egy csoportosítást, sűrített ábrázolást szeretnénk visszakapni. csoportosításkor a kimeneti neuronok versengenek: ^y j = x i w ij i { 1 l = k y l = 0 l k ahol k = argmax ^y j j
28 -féle tanulás II y l = { 1 l = k 0 l k ahol k = argmax ^y j j Végleges kimeneti érték az argmin művelet után. Versengés a bemeneti mintákért. -hálók y 1 y 2 y 3 y 4 y 5 W x 1 x 2 x 3 x 4 x 5 x 6 x 7 x 8 x 9 Feltételezve egy kezdő W véletlen súlyvektort, a v minta bemutatása után csak a w4 súlyok változnak a kompetitív tanulás során. v 1 v 2 v 3 v 4 v 5 v 6 v 7 v 8 v 9
29 -féle tanulás II y l = { 1 l = k 0 l k ahol k = argmax ^y j j Végleges kimeneti érték az argmin művelet után. Versengés a bemeneti mintákért. -hálók y 1 y 2 y 3 y 4 y 5 W x 1 x 2 x 3 x 4 x 5 x 6 x 7 x 8 x 9 Feltételezve egy kezdő W véletlen súlyvektort, a v minta bemutatása után csak a w4 súlyok változnak a kompetitív tanulás során. v 1 v 2 v 3 v 4 v 5 v 6 v 7 v 8 v 9
30 -féle tanulás III w ij = αx i y j minden y k neuron attraktorként működik. receptív mezők alakulnak ki Y Y 2 1 -hálók α 0 tanulási mód, pl. Y 4 Y 3 Y 5 α t = K t X 2 az asszociatív háló konvergál (lásd). X 1 ami nincs: kapcsolatok a kimeneti neuronok között: Kohonen-hálók
31 Kohonen hálók I -hálók Teuvo Kohonen Since the 1960 s, introduced several new concepts to neural computing: theories of distributed associative memory and optimal associative mappings, the self-organizing feature maps (SOMs), the learning vector quantization (LVQ),... the Adaptive-Subspace SOM (ASSOM) in which invariant-feature filters emerge... A new SOM architecture WEBSOM has been developed in his laboratory for exploratory textual data mining. Wikipedia link
32 Kohonen hálók II -hálók Jellemzők: kétrétegű háló, egy bemeneti és egy kimeneti réteggel; kompetitív háló: csak egy neuron lesz aktív; (mint előbb) (mint előbb) a kimeneti rétegen topológia van értelmezve (ÚJ)
33 Kohonen hálók Topológia Topológia szomszédságot jelent -hálók segít a tanulásban: a szomszédok is tanulnak kevésbé... értelmezhető eredmény: a szomszédok aktivitása is n 14 n 13 n 24 n 23 n 34 n 33 n 44 n 43 aktivitása alapján pontosabb n n 22 n 32 n 42 rekonstrukció a kimeneti n ij neuronok megcímkézhetőek: n 11 n 21 n 31 n 41 Kohonen:... fonéma annotáció
34 Kohonen hálók Tanulás I -hálók Az algoritmus iteratív: 1 minták egyenként; a t-edik időpontban legyen x t 2 kiszámtítjuk a kimeneti neuronok aktivitását: y j = i w ij x i (t) = W x(t) 3 megkeressük a nyertes kimeneti neuront: k def = argmax j y j 4 Az összes szomszédos neuron súlyát módosítjuk: w ij (t + 1) = w ij (t) + α η(j, k)x i (t) Normáljuk a súlyokat wj wj / wj 5 GOTO 1
35 Kohonen hálók Tanulás II -hálók Szavakban: a nyertes neuron aktivizálódik ; A nyertes neuront és szomszédait közelebb hozzuk a bemenethez; Mindegyik neuron specializálódik a mintákra: arra lesz a legnagyobb a kimenete;
36 Kohonen hálók Tanulás II -hálók Szavakban: a nyertes neuron aktivizálódik ; A nyertes neuront és szomszédait közelebb hozzuk a bemenethez; Mindegyik neuron specializálódik a mintákra: arra lesz a legnagyobb a kimenete; x t
37 Kohonen hálók Tanulás II -hálók Szavakban: a nyertes neuron aktivizálódik ; A nyertes neuront és szomszédait közelebb hozzuk a bemenethez; Mindegyik neuron specializálódik a mintákra: arra lesz a legnagyobb a kimenete; x t
38 Kohonen hálók Tanulás III x t -hálók Eredmény: a neuronok elhelyezkedését a bemeneti minták sűrűség függvénye határozza meg több neuron kerül a sűrűbb régiókba.
39 Kohonen hálók Tanulás III x t -hálók Eredmény: a neuronok elhelyezkedését a bemeneti minták sűrűség függvénye határozza meg több neuron kerül a sűrűbb régiókba.
40 Önszervező rendszerek Összefoglaló Az adatokhoz nincs kimeneti érték rendelve; A rendszer általában az adatok egy csoportosítását valósítja meg; -hálók Ez implicit módon a bemeneti adatok terének a felosztását jelenti; Zajszűrés/Sűrítés: a teljes bemeneti adatok helyett a hozzá tartozó osztály kódját küldjük.
41 Példa Térképészgép -hálók Walter Bischof, Jun Zhou (U. Alberta) és Terry Caelli (Australian N.U) a kartográfiát (részben) automatizáló programmal álltak elő. A program embertől tanulja, miként fedezzen fel és azonosítson légi felvételeken korábban nem szereplő vagy megváltozott elemeket: utakat, vasutakat, épületeket. Ágens portál Walter Bischof projektek Működése: Egyre többet tud meg okosabb lesz. Kellő mennyiségű gyakorlás után az operátor rábízza a munkát. Bayes-féle következtetést használ: korábbi mérések alapján végez új becsléseket. A legjobbakból állapítja meg az adott országút soron következő pontjait, és ezt mindaddig folytatja, amíg az új elemek pozíciója megfelel az elvárásoknak.
Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363
1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái -hálók 306/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363
1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái 288/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008
Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 007/008 Az Előadások Témái Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció i stratégiák Szemantikus hálók / Keretrendszerek
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363
1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái 262/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008
Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008 Az Előadások Témái Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák Szemantikus hálók
RészletesebbenIntelligens Rendszerek Gyakorlata. Neurális hálózatok I.
: Intelligens Rendszerek Gyakorlata Neurális hálózatok I. dr. Kutor László http://mobil.nik.bmf.hu/tantargyak/ir2.html IRG 3/1 Trend osztályozás Pnndemo.exe IRG 3/2 Hangulat azonosítás Happy.exe IRG 3/3
RészletesebbenBudapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók Előadó: Előadás anyaga: Hullám Gábor Pataki Béla Dobrowiecki Tadeusz BME I.E. 414, 463-26-79
RészletesebbenKeresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Keresés képi jellemzők alapján Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Lusta gépi tanulási algoritmusok Osztályozás: k=1: piros k=5: kék k-legközelebbi szomszéd (k=1,3,5,7)
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363
1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 20/2011 Az Előadások Témái 226/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák Szemantikus
RészletesebbenI. LABOR -Mesterséges neuron
I. LABOR -Mesterséges neuron A GYAKORLAT CÉLJA: A mesterséges neuron struktúrájának az ismertetése, neuronhálókkal kapcsolatos elemek, alapfogalmak bemutatása, aktivációs függvénytípusok szemléltetése,
RészletesebbenSzámítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Számítógépes képelemzés 7. előadás Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Momentumok Momentum-alapú jellemzők Tömegközéppont Irányultáság 1 2 tan 2 1 2,0 1,1 0, 2 Befoglaló
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363
1/6 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái 46/6 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció stratégiák Szemantikus hálók
RészletesebbenTanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,
RészletesebbenGépi tanulás a gyakorlatban. Lineáris regresszió
Gépi tanulás a gyakorlatban Lineáris regresszió Lineáris Regresszió Legyen adott egy tanuló adatbázis: Rendelkezésünkre áll egy olyan előfeldolgozott adathalmaz, aminek sorai az egyes ingatlanokat írják
RészletesebbenMit látnak a robotok? Bányai Mihály Matemorfózis, 2017.
Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017. Vizuális feldolgozórendszerek feladatai Mesterséges intelligencia és idegtudomány Mesterséges intelligencia és idegtudomány Párhuzamos problémák
RészletesebbenIntelligens Rendszerek Elmélete
Intelligens Rendszerek Elmélete Dr. Kutor László : Mesterséges neurális hálózatok felügyelt tanítása hiba visszateresztő Back error Propagation algoritmussal Versengéses tanulás http://mobil.nik.bmf.hu/tantargyak/ire.html
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363
1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái 206/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák
RészletesebbenIntelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban
Intelligens Rendszerek Elmélete : dr. Kutor László Versengéses és önszervező tanulás neurális hálózatokban http://mobil.nik.bmf.hu/tantargyak/ire.html Login név: ire jelszó: IRE07 IRE 9/1 Processzor Versengéses
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008
Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008 Az Előadások Témái : mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák Szemantikus hálók / Keretrendszerek
RészletesebbenNeurális hálózatok bemutató
Neurális hálózatok bemutató Füvesi Viktor Miskolci Egyetem Alkalmazott Földtudományi Kutatóintézet Miért? Vannak feladatok amelyeket az agy gyorsabban hajt végre mint a konvencionális számítógépek. Pl.:
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008
Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008 Az Előadások Témái Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció stratégiák Szemantikus hálók / Keretrendszerek
RészletesebbenBevezetés a neurális számításokba Analóg processzortömbök,
Pannon Egyetem Villamosmérnöki és Információs Tanszék Bevezetés a neurális számításokba Analóg processzortömbök, neurális hálózatok Előadó: dr. Tömördi Katalin Neurális áramkörök (ismétlés) A neurális
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008
Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008 Az Előadások Témái Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák Szemantikus hálók
RészletesebbenRegresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.
Regresszió Csorba János Nagyméretű adathalmazok kezelése 2010. március 31. A feladat X magyarázó attribútumok halmaza Y magyarázandó attribútumok) Kérdés: f : X -> Y a kapcsolat pár tanítópontban ismert
RészletesebbenAz idegrendszeri memória modelljei
Az idegrendszeri memória modelljei A memória típusai Rövidtávú Working memory - az aktuális feladat Vizuális, auditórikus,... Prefrontális cortex, szenzorikus területek Kapacitás: 7 +-2 minta Hosszútávú
RészletesebbenAz idegrendszeri memória modelljei
Az idegrendszeri memória modelljei A memória típusai Rövidtávú Working memory - az aktuális feladat Vizuális, auditórikus,... Prefrontális cortex, szenzorikus területek Kapacitás: 7 +-2 minta Hosszútávú
RészletesebbenTanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363
1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái 94/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák
RészletesebbenTanulás az idegrendszerben
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Funkcióvezérelt modellezés Abból indulunk ki, hogy milyen feladatot valósít meg a rendszer Horace Barlow: "A
RészletesebbenA TANTÁRGY ADATLAPJA
A TANTÁRGY ADATLAPJA 1. A képzési program adatai 1.1 Felsőoktatási intézmény Babeș Bolyai Tudományegyetem 1.2 Kar Matematika és Informatika Kar 1.3 Intézet Magyar Matematika és Informatika Intézet 1.4
RészletesebbenTARTALOMJEGYZÉK. TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS A lágy számításról A könyv célkitűzése és felépítése...
TARTALOMJEGYZÉK TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS...1 1. A lágy számításról...2 2. A könyv célkitűzése és felépítése...6 AZ ÖSSZETEVŐ LÁGY RENDSZEREK...9 I. BEVEZETÉS...10 3. Az összetevő
RészletesebbenMesterséges Intelligencia Elektronikus Almanach. MI Almanach projektismertetı rendezvény április 29., BME, I. ép., IB.017., 9h-12h.
Mesterséges Intelligencia Elektronikus Almanach Neurális hálózatokh 1 BME 1990: Miért neurális hálók? - az érdeklıdésünk terébe kerül a neurális hálózatok témakör - fıbb okok: - adaptív rendszerek - felismerési
RészletesebbenStratégiák tanulása az agyban
Statisztikai tanulás az idegrendszerben, 2019. Stratégiák tanulása az agyban Bányai Mihály banyai.mihaly@wigner.mta.hu http://golab.wigner.mta.hu/people/mihaly-banyai/ Kortárs MI thispersondoesnotexist.com
RészletesebbenTeljesen elosztott adatbányászat alprojekt
Teljesen elosztott adatbányászat alprojekt Hegedűs István, Ormándi Róbert, Jelasity Márk Big Data jelenség Big Data jelenség Exponenciális növekedés a(z): okos eszközök használatában, és a szenzor- és
RészletesebbenMegerősítéses tanulás
Megerősítéses tanulás elméleti kognitív neurális Introduction Knowledge representation Probabilistic models Bayesian behaviour Approximate inference I (computer lab) Vision I Approximate inference II:
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363
1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái 324/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák
Részletesebbenza TANTÁRGY ADATLAPJA
za TANTÁRGY ADATLAPJA 1. A képzési program adatai 1.1 Felsőoktatási intézmény Babeș Bolyai Tudományegyetem 1.2 Kar Matematika és Informatika Kar 1.3 Intézet Magyar Matematika és Informatika Intézet 1.4
RészletesebbenHibadetektáló rendszer légtechnikai berendezések számára
Hibadetektáló rendszer légtechnikai berendezések számára Tudományos Diákköri Konferencia A feladatunk Légtechnikai berendezések Monitorozás Hibadetektálás Újrataníthatóság A megvalósítás Mozgásérzékelő
RészletesebbenGépi tanulás és Mintafelismerés
Gépi tanulás és Mintafelismerés jegyzet Csató Lehel Matematika-Informatika Tanszék BabesBolyai Tudományegyetem, Kolozsvár 2007 Aug. 20 2 1. fejezet Bevezet A mesterséges intelligencia azon módszereit,
RészletesebbenMesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás
Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás http:/uni-obuda.hu/users/kutor/ IRE 7/50/1 A neurális hálózatok általános jellemzői 1. A
RészletesebbenA sz.ot.ag. III. Magyar Számítógépes Nyelvészeti Konferencia december 8. Bíró Tamás, ELTE, Budapest / RUG, Groningen, NL 1/ 16
A sz.ot.ag Optimalitáselmélet szimulált hőkezeléssel Bíró Tamás Humanities Computing, CLCG University of Groningen, Hollandia valamint Eötvös Loránd Tudományegyetem, Budapest birot@let.rug.nl, birot@nytud.hu
RészletesebbenVisszacsatolt (mély) neurális hálózatok
Visszacsatolt (mély) neurális hálózatok Visszacsatolt hálózatok kimenet rejtett rétegek bemenet Sima előrecsatolt neurális hálózat Visszacsatolt hálózatok kimenet rejtett rétegek bemenet Pl.: kép feliratozás,
RészletesebbenIntelligens orvosi műszerek VIMIA023
Intelligens orvosi műszerek VIMIA023 Neurális hálók (Dobrowiecki Tadeusz anyagának átdolgozásával) 2017 ősz http://www.mit.bme.hu/oktatas/targyak/vimia023 dr. Pataki Béla pataki@mit.bme.hu (463-)2679 A
RészletesebbenSzámítógép és programozás 2
Számítógép és programozás 2 11. Előadás Halmazkeresések, dinamikus programozás http://digitus.itk.ppke.hu/~flugi/ A keresési feladat megoldása Legyen a lehetséges megoldások halmaza M ciklus { X legyen
RészletesebbenFELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE
FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE Dr. Aradi Szilárd, Fehér Árpád Mesterséges intelligencia kialakulása 1956 Dartmouth-i konferencián egy maroknyi tudós megalapította a MI területét
RészletesebbenNeurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL
Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL TULICS@TMIT.BME.HU Példa X (tanult órák száma, aludt órák száma) y (dolgozaton elért pontszám) (5, 8) 80 (3, 5) 78 (5, 1) 82 (10, 2) 93 (4, 4)
RészletesebbenTanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,
RészletesebbenBabeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet
/ Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet / Tartalom 3/ kernelek segítségével Felügyelt és félig-felügyelt tanulás felügyelt: D =
RészletesebbenKONVOLÚCIÓS NEURONHÁLÓK. A tananyag az EFOP pályázat támogatásával készült.
KONVOLÚCIÓS NEURONHÁLÓK A tananyag az EFOP-3.5.1-16-2017-00004 pályázat támogatásával készült. 1. motiváció A klasszikus neuronháló struktúra a fully connected háló Két réteg között minden neuron kapcsolódik
RészletesebbenTanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok
Zrínyi Miklós Gimnázium Művészet és tudomány napja Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok 10/9/2009 Dr. Viharos Zsolt János Elsősorban volt Zrínyis diák Tudományos főmunkatárs
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363
1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái 69/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák
RészletesebbenModellezés és szimuláció. Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék
Modellezés és szimuláció Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék Kvantitatív forradalmak a földtudományban - geográfiában 1960- as évek eleje: statisztika 1970- as évek eleje:
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363
1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái 146/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák
RészletesebbenMesterséges intelligencia alapú regressziós tesztelés
Mesterséges intelligencia alapú regressziós tesztelés Gujgiczer Anna, Elekes Márton* * AZ EMBERI ERŐFORRÁSOK MINISZTÉRIUMA ÚNKP-16-1-I. KÓDSZÁMÚ ÚJ NEMZETI KIVÁLÓSÁG PROGRAMJÁNAK TÁMOGATÁSÁVAL KÉSZÜLT
RészletesebbenNEURÁLIS HÁLÓZATOK 1. eloadás 1
NEURÁLIS HÁLÓZATOKH 1. eloadás 1 Biológiai elozmények nyek: az agy Az agy az idegrendszerunk egyik legfontosabb része: - képes adatokat tárolni, - gyorsan és hatékonyan mukodik, - nagy a megbízhatósága,
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/364
/364 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 200/20 Az Előadások Témái 2/364 : mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák Szemantikus hálók
RészletesebbenGépi tanulás Gregorics Tibor Mesterséges intelligencia
Gépi tanulás Tanulás fogalma Egy algoritmus akkor tanul, ha egy feladat megoldása során olyan változások következnek be a működésében, hogy később ugyanazt a feladatot vagy ahhoz hasonló más feladatokat
RészletesebbenNeurális hálózatok.... a gyakorlatban
Neurális hálózatok... a gyakorlatban Java NNS Az SNNS Javás változata SNNS: Stuttgart Neural Network Simulator A Tübingeni Egyetemen fejlesztik http://www.ra.cs.unituebingen.de/software/javanns/ 2012/13.
RészletesebbenKovács Ernő 1, Füvesi Viktor 2
Kovács Ernő 1, Füvesi Viktor 2 1 Miskolci Egyetem, Elektrotechnikai - Elektronikai Tanszék 2 Miskolci Egyetem, Alkalmazott Földtudományi Kutatóintézet 1 HU-3515 Miskolc-Egyetemváros 2 HU-3515 Miskolc-Egyetemváros,
RészletesebbenNEURONHÁLÓK ÉS TANÍTÁSUK A BACKPROPAGATION ALGORITMUSSAL. A tananyag az EFOP pályázat támogatásával készült.
NEURONHÁLÓK ÉS TANÍTÁSUK A BACKPROPAGATION ALGORITMUSSAL A tananyag az EFOP-3.5.1-16-2017-00004 pályázat támogatásával készült. Neuron helyett neuronháló Neuron reprezentációs erejének növelése: építsünk
RészletesebbenNeurális hálózatok MATLAB programcsomagban
Debreceni Egyetem Informatikai Kar Neurális hálózatok MATLAB programcsomagban Témavezető: Dr. Fazekas István Egyetemi tanár Készítette: Horváth József Programtervező informatikus Debrecen 2011 1 Tartalomjegyzék
RészletesebbenKözösség detektálás gráfokban
Közösség detektálás gráfokban Önszervező rendszerek Hegedűs István Célkitűzés: valamilyen objektumok halmaza felett minták, csoportok detektálása csakis az egyedek közötti kapcsolatok struktúrájának a
Részletesebbenc adatpontok és az ismeretlen pont közötti kovariancia vektora
1. MELLÉKLET: Alkalmazott jelölések A mintaterület kiterjedése, területe c adatpontok és az ismeretlen pont közötti kovariancia vektora C(0) reziduális komponens varianciája C R (h) C R Cov{} d( u, X )
RészletesebbenStatisztikai eljárások a mintafelismerésben és a gépi tanulásban
Statisztikai eljárások a mintafelismerésben és a gépi tanulásban Varga Domonkos (I.évf. PhD hallgató) 2014 május A prezentáció felépítése 1) Alapfogalmak 2) A gépi tanulás, mintafelismerés alkalmazási
RészletesebbenFuzzy rendszerek és neurális hálózatok alkalmazása a diagnosztikában
Budapesti Műszaki és Gazdaságtudományi Egyetem Fuzzy rendszerek és neurális hálózatok alkalmazása a diagnosztikában Cselkó Richárd 2009. október. 15. Az előadás fő témái Soft Computing technikák alakalmazásának
RészletesebbenAdatbányászati szemelvények MapReduce környezetben
Adatbányászati szemelvények MapReduce környezetben Salánki Ágnes salanki@mit.bme.hu 2014.11.10. Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs Rendszerek Tanszék Felügyelt
RészletesebbenKonjugált gradiens módszer
Közelítő és szimbolikus számítások 12. gyakorlat Konjugált gradiens módszer Készítette: Gelle Kitti Csendes Tibor Vinkó Tamás Faragó István Horváth Róbert jegyzetei alapján 1 LINEÁRIS EGYENLETRENDSZEREK
RészletesebbenKonvolúciós neurális hálózatok (CNN)
Konvolúciós neurális hálózatok (CNN) Konvolúció Jelfeldolgozásban: Diszkrét jelek esetén diszkrét konvolúció: Képfeldolgozásban 2D konvolúció (szűrők): Konvolúciós neurális hálózat Konvolúciós réteg Kép,
RészletesebbenFEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 10 X. SZIMULÁCIÓ 1. VÉLETLEN számok A véletlen számok fontos szerepet játszanak a véletlen helyzetek generálásában (pénzérme, dobókocka,
RészletesebbenMATLAB. 6. gyakorlat. Integrálás folytatás, gyakorlás
MATLAB 6. gyakorlat Integrálás folytatás, gyakorlás Menetrend Kis ZH Példák integrálásra Kérdések, gyakorlás pdf Kis ZH Numerikus integrálás (ismétlés) A deriváláshoz hasonlóan lehet vektorértékek és megadott
RészletesebbenAlap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )
Budapesti Műszaki és Gazdaságtudományi Egyetem Gépészmérnöki Kar Hidrodinamikai Rendszerek Tanszék, Budapest, Műegyetem rkp. 3. D ép. 334. Tel: 463-6-80 Fa: 463-30-9 http://www.vizgep.bme.hu Alap-ötlet:
RészletesebbenGépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)
Gépi tanulás Hány tanítómintára van szükség? VKH Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Induktív tanulás A tanítás folyamata: Kiinduló
RészletesebbenSAT probléma kielégíthetőségének vizsgálata. masszív parallel. mesterséges neurális hálózat alkalmazásával
SAT probléma kielégíthetőségének vizsgálata masszív parallel mesterséges neurális hálózat alkalmazásával Tajti Tibor, Bíró Csaba, Kusper Gábor {gkusper, birocs, tajti}@aries.ektf.hu Eszterházy Károly Főiskola
RészletesebbenKereső algoritmusok a diszkrét optimalizálás problémájához
Kereső algoritmusok a diszkrét optimalizálás problémájához A. Grama, A. Gupta, G. Karypis és V. Kumar: Introduction to Parallel Computing, Addison Wesley, 2003. könyv anyaga alapján A kereső eljárások
RészletesebbenII. LABOR Tanulás, Perceptron, Adaline
II. LABOR Tanulás, Perceptron, Adaline A dolgozat célja a tanító algoritmusok osztályozása, a tanító és tesztel halmaz szerepe a neuronhálók tanításában, a Perceptron és ADALINE feldolgozó elemek struktúrája,
RészletesebbenDeep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök
Gyires-Tóth Bálint Deep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök http://smartlab.tmit.bme.hu Deep Learning Híradó Hírek az elmúlt 168 órából Deep Learning Híradó Google
RészletesebbenFunkcionális konnektivitás vizsgálata fmri adatok alapján
Funkcionális konnektivitás vizsgálata fmri adatok alapján Képalkotási technikák 4 Log Resolution (mm) 3 Brain EEG & MEG fmri TMS PET Lesions 2 Column 1 0 Lamina -1 Neuron -2 Dendrite -3 Synapse -4 Mikrolesions
RészletesebbenTanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,
RészletesebbenACM Snake. Orvosi képdiagnosztika 11. előadás első fele
ACM Snake Orvosi képdiagnosztika 11. előadás első fele ACM Snake (ismétlés) A szegmentáló kontúr egy paraméteres görbe: x Zs s X s, Y s,, s A szegmentáció energia funkcionál minimalizálása: E x Eint x
RészletesebbenA MESTERSÉGES NEURONHÁLÓZATOK BEVEZETÉSE AZ OKTATÁSBA A GAMF-ON
A MESTERSÉGES NEURONHÁLÓZATOK BEVEZETÉSE AZ OKTATÁSBA A GAMF-ON Pintér István, pinter@gandalf.gamf.hu Nagy Zoltán Gépipari és Automatizálási Mûszaki Fõiskola, Informatika Tanszék Gépipari és Automatizálási
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363
1/33 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái 110/33 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák Szemantikus
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363
1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái 169/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák
RészletesebbenModellkiválasztás és struktúrák tanulása
Modellkiválasztás és struktúrák tanulása Szervezőelvek keresése Az unsupervised learning egyik fő célja Optimális reprezentációk Magyarázatok Predikciók Az emberi tanulás alapja Általános strukturális
RészletesebbenGépi tanulás. Féligellenőrzött tanulás. Pataki Béla (Bolgár Bence)
Gépi tanulás Féligellenőrzött tanulás Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Féligellenőrzött tanulás Mindig kevés az adat, de
RészletesebbenSzámítógépes döntéstámogatás. Genetikus algoritmusok
BLSZM-10 p. 1/18 Számítógépes döntéstámogatás Genetikus algoritmusok Werner Ágnes Villamosmérnöki és Információs Rendszerek Tanszék e-mail: werner.agnes@virt.uni-pannon.hu BLSZM-10 p. 2/18 Bevezetés 1950-60-as
RészletesebbenBevezetés a lágy számítás módszereibe. Neurális hálózatok Alapok
BLSZM-09 p. 1/29 Bevezetés a lágy számítás módszereibe Neurális hálózatok Alapok Werner Ágnes Villamosmérnöki és Információs Rendszerek Tanszék e-mail: werner.agnes@virt.uni-pannon.hu BLSZM-09 p. 2/29
RészletesebbenPerceptron konvergencia tétel
Perceptron konvergencia tétel Mesterséges Intelligencia I. házi feladat Lám István A2D587 lam.istvan@gmail.com 1 A Perceptron 1.1 A perceptron definíciója A perceptron az egyik legegyszerűbb előrecsatolt
RészletesebbenMegerősítéses tanulás 9. előadás
Megerősítéses tanulás 9. előadás 1 Backgammon (vagy Ostábla) 2 3 TD-Gammon 0.0 TD() tanulás (azaz időbeli differencia-módszer felelősségnyomokkal) függvényapproximátor: neuronháló 40 rejtett (belső) neuron
RészletesebbenKOOPERÁCIÓ ÉS GÉPI TANULÁS LABORATÓRIUM
KOOPERÁCIÓ ÉS GÉPI TANULÁS LABORATÓRIUM Kernel módszerek idősor előrejelzés Mérési útmutató Készítette: Engedy István (engedy@mit.bme.hu) Méréstechnika és Információs Rendszerek Tanszék Budapesti Műszaki
RészletesebbenThe nontrivial extraction of implicit, previously unknown, and potentially useful information from data.
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Adatelemzés intelligens módszerekkel Hullám Gábor Adatelemzés hagyományos megközelítésben I. Megválaszolandó
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2006/2007
Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2006/2007 Az Előadások Témái Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák Szemantikus hálók
RészletesebbenNemlineáris egyenletrendszerek megoldása április 15.
Nemlineáris egyenletrendszerek megoldása 2014. április 15. Nemlineáris egyenletrendszerek Az egyenletrendszer a következő formában adott: f i (x 1, x 2,..., x M ) = 0 i = 1...N az f i függvények az x j
RészletesebbenGépi tanulás a gyakorlatban. Bevezetés
Gépi tanulás a gyakorlatban Bevezetés Motiváció Nagyon gyakran találkozunk gépi tanuló alkalmazásokkal Spam detekció Karakter felismerés Fotó címkézés Szociális háló elemzés Piaci szegmentáció analízis
RészletesebbenKereső algoritmusok a diszkrét optimalizálás problémájához
Kereső algoritmusok a diszkrét optimalizálás problémájához A. Grama, A. Gupta, G. Karypis és V. Kumar: Introduction to Parallel Computing, Addison Wesley, 2003. könyv anyaga alapján A kereső eljárások
RészletesebbenDifferenciálegyenletek numerikus megoldása
a Matematika mérnököknek II. című tárgyhoz Differenciálegyenletek numerikus megoldása Fokozatos közeĺıtés módszere (1) (2) x (t) = f (t, x(t)), x I, x(ξ) = η. Az (1)-(2) kezdeti érték probléma ekvivalens
RészletesebbenKutatás-fejlesztési eredmények a Számítógépes Algoritmusok és Mesterséges Intelligencia Tanszéken. Dombi József
Kutatás-fejlesztési eredmények a Számítógépes Algoritmusok és Mesterséges Intelligencia Tanszéken Dombi József Mesterséges intelligencia Klasszikus megközelítés (A*, kétszemélyes játékok, automatikus tételbizonyítás,
Részletesebben3. Fuzzy aritmetika. Gépi intelligencia I. Fodor János NIMGI1MIEM BMF NIK IMRI
3. Fuzzy aritmetika Gépi intelligencia I. Fodor János BMF NIK IMRI NIMGI1MIEM Tartalomjegyzék I 1 Intervallum-aritmetika 2 Fuzzy intervallumok és fuzzy számok Fuzzy intervallumok LR fuzzy intervallumok
RészletesebbenMegerősítéses tanulás 7. előadás
Megerősítéses tanulás 7. előadás 1 Ismétlés: TD becslés s t -ben stratégia szerint lépek! a t, r t, s t+1 TD becslés: tulajdonképpen ezt mintavételezzük: 2 Akcióértékelő függvény számolása TD-vel még mindig
RészletesebbenIrányításelmélet és technika II.
Irányításelmélet és technika II. Modell-prediktív szabályozás Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki és Információs Rendszerek Tanszék amagyar@almos.vein.hu 2010 november
RészletesebbenGauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei
A Gauss-Jordan elimináció, mátrixinvertálás Gauss-Jordan módszer Ugyanazzal a technikával, mint ahogy a k-adik oszlopban az a kk alatti elemeket kinulláztuk, a fölötte lévő elemeket is zérussá lehet tenni.
Részletesebben