Intelligens Rendszerek Gyakorlata. Neurális hálózatok I.
|
|
- Sára Fábián
- 8 évvel ezelőtt
- Látták:
Átírás
1 : Intelligens Rendszerek Gyakorlata Neurális hálózatok I. dr. Kutor László IRG 3/1
2 Trend osztályozás Pnndemo.exe IRG 3/2
3 Hangulat azonosítás Happy.exe IRG 3/3
4 Idősor közelítés Grnndemo.exe IRG 3/4
5 Pontsor közelítése függvénnyel Grnndemo.exe IRG 3/5
6 A neurális hálózat tervezésének lépései Reprezentatív tapasztalati adat gyűjtése (bemeneti adatok és elvárt válaszok) Megfelelő neurális paradigma kiválasztása Rendszer paraméterek kiválasztása Teljesítmény mérő módszer kiválasztása A rendszer tanítása és tesztelése (amíg az elvárt eredményhez nem jutunk) IRG 3/6
7 Eldöntendő jellemzők a neurális hálózatok tervezésénél Processzor szinten: - a processzor átviteli függvénye - a bemenő jelek típusa Hálózat szinten: - a hálózat topológiája - rétegelt struktúránál a rétegek száma - processzorok száma a különböző rétegekben - processzorok típusa a különböző rétegekben Tanítási szinten - tanító algoritmus - tanítási paraméterek (pl.: α, β,.) - a tanítás megállásának feltételei IRG 3/7
8 Az alap neuron (processzor) felépítése i O i I 1 I 2 I i I n-1 w j1 w j2 wji w jn S j j T O j i S j = W ji n i= 1 w ji j I i I n I B I bemenet), w ji súlytényezők, T Átviteli (Transzfer) függvény IRG 3/8
9 Leggyakrabban használt átviteli függvények 1. Ugrás függvény: O j = 0 vagy -1, ha S <= 0, O j = 1 ha S > 0 2. Korlátozott lineáris függvény O j = 0, ha S <= 0, O j = S ha 0 <= S < 1 O j = 1 ha S > 1 3. Szimoid függvény O j = 1/(1+e -Sj ) S S 0 1 O j = 1-1/(1+S) ha S >= 0 O j = /(1-S) ha S < 0 1 IRG 3/ S S
10 Tipikus neurális hálózat összeköttetések 1. Előrecsatolt (rétegelt) neurális hálózat (topológia) Bemenetek bemeneti réteg rejtett réteg kimeneti réteg Kimenetek súlytényező IRG 3/10
11 Az előrecsatolt hálóztok ábrázolása I 1 I 2 I i I n-1 I n O 1 Súlymátrix w 11 w 12 w 1i -- w 1n w 21 w 22 w 2i -- w 2n w j1 w j2 w ji -- w jn w m1 w m2 w mi -- w mn súlytényező IRG 3/11 O 2 O j O m O = f (S) S = I * W Mátrix műveletek!
12 Visszacsatolt neurális hálózat Rétegelt Teljesen összekötött I 1 I 2 I i j k IRG 3/12 O i O j O k O = I x W1+ O x W2
13 A hálózat hibája felügyelt tanítás esetén Egy tanító mintánál: E = ½ (T k -O k ) 2 A teljes tanító mintára: E = ½ (T k -O k ) 2 IRE 8/13 k p k A tanítás (súlytényező változtatás) mottója: hiba visszaterjesztés = Back error Propagation A hálózat súlytényezőit a hiba létrehozásában játszott szerepükkel arányosan változtatjuk. = A súlytényezőket a hibafüggvény parciális deriváltja szerint változtatjuk
14 Tanítási szabályok Tanítás = súlytényezők (kis lépésekkel (?) való) beállítása Tanítási típusok: 1. Felügyelt (felügyeletes) tanítás 2. Felügyelet nélküli (önszerveződő) tanítás Alap tanítási szabályok: i j O i w ji O j i j O i w ji O j C j Hebb szabály (Donald O. Hebb) w ji (t+1) = w ji (t) + α* O i * O j ahol α = tanítási tényező, 0 <= α <= 1 Delta szabály (Widrow- Hoff) w ji (t+1) = w ji (t) + α * O i * (C j O j ) ahol C j O j = Δ j IRG 3/14
15 A felügyeletes tanítás lényege, algoritmusa Mottó: Addig hangoljuk a súlytényezőket, amíg a bemenetre a hálózat megfelelő-, előre kiszámított választ nem ad. Algoritmusa: 1. Kezdeti súlytényezők beállítása 2. A tanítóminta bemeneti értéke alapján a hálózat kimeneti értékének kiszámítása. 3. A tanítóminta célértékének összehasonlítása a hálózat célértékével. 4. Szükség esetén a hálózat súlytényezőinek módosítása. 5. A tanítás folytatása mindaddig, amíg a hálózat az összes tanítómintára egy előre rögzített hibahatárnál kisebb hibával a célértéknek megfelelő kimeneti értéket nem tudja előállítani. IRE 8/15
16 A perceptron tanító algoritmus (delta szabállyal) Kezdeti súlytényezők beállítása (random!?) Tanítás iter amíg a hiba el nem éri a hibahatárt (Hi <= Hh) k= 0, Hi= 0 Minták iter amíg k = p nem teljesül (ahol p = tanító minták száma) A k.-ik tanítóminta bemeneti vektora alapján processzoronként az aktiváció kiszámítása S jk = I k j * Wji A köszöb átviteli függvény alapján processzoronként a kimeneti értékek kiszámítása. (O j ) A hálózat súlytényezőinek módosítása. w ji (t+1) = w ji (t) + α * O i * (C j O j ) ahol C j O j = az eltérés (Δ j ) A hálózat hibájának kiszámítása H k j =Cj k -Oj k A hibák összesítése H i =H i +H j K:=K+1 Minták end Tanítás end IRE 8/16
17 I 1 I 2 I i I n A delta szabály matematikai értelmezése S j S j = w ji * I i ; O j = S j ; i O j T j Lineáris átviteli függvény esetén W ji (t+1)=w ji (t)- α*oj*δe/δw ji δe/δw ji = δe/δo j * δo j /δs j * δs j /δw j δe/δo j = ½ * 2 * (Tj-Oj) * -1= -(Tj-Oj) E = ½ * ( T j O j ) 2 E j w i W i+1 Δw δo j /δs j =1 δs j /δw j = δ(w j1 *I 1 + w ji *I i + w jn *I n )= I i i j O i w ji O j T j Delta szabály w ji (t+1) = w ji (t) + α * I i * Δ j ahol α = tanítási tényező, 0 <= α <= 1, Δ j = T j O j IRE 8/17
18 Többrétegű neurális hálózatok tanítása (Általánosított delta szabállyal) Hálózat topológia i j N Processzor: H M k i O i w ji O j w kj O k T k j k Oi Sj f(s) j O j S = w O O j =f(s)= 1/(1+e -S ) j IRE 8/18 N i= 1 ji i
19 A hiba visszavezetése (Általánosított delta szabállyal) Δ 1 Hálózat topológia i j M N H k Δ j w 1j w 2j O i w ji O j w kj O k T k i j k Δ 2 Δ M-1 Átviteli függvények w Mj O k = f(s k ) O j =f(s)= 1/(1+e -S ) Δ M IRE 8/19
20 Tanítást leíró összefüggések a többrétegű hálózatoknál Általánosított delta szabály: (deriválás a lánc szabály alapján) δe/δw kj = δe/δok * δo k /δs k * δs k /δw kj Súlytényező változtatás a kimeneti rétegben W kj (t+1) = W kj (t) + αδ k Oj = Δk W kj (t+1) =W kj (t) + α*(t k -O k )*f(s k )*(1-f(S k ))*O j Súlytényező változtatás a rejtett rétegben Δj W ji (t+1) = W ji (t) + α*f(s j )*(1-f(S j ) * (Δk*W kj ))*O i (A levezetés a javasolt olvasmányok között található) IRE 8/20 M k=1
21 Versengéses (competitive) tanulás Carpenter, Grossberg 1988 Processzor I 1 I i S j f O j = f (S j ) 1 f (S j ) I N S j = I i * w ji S j Topológia: egy rétegű előrecsatolt, teljesen összekötött Megkötések: 1.) w ji = 1 2.) Súly értékek: 0<Wj<1 3.) A bemenő vektor bináris IRE 8/21
22 A versengéses tanító algoritmus (Grossberg) Mottó: A győztes visz mindent 1. Kezdeti súlytényezők beállítása (inicializálás, véletlenszerű) 0<Wj<1 2. A tanítóminta i-ik értéke (vektora) alapján, a processzorok kimeneti S j = O i * w ji, O j = f (S j ) értékeinek kiszámítása. 3. A legnagyobb kimeneti értékű processzor kiválasztása. A győztes visz mindent elv alapján, a győztes kimeneti értéket 1-re, az összes többi kimeneti értéket 0-ra változtatjuk 3. A győztes elem súlytényezőit megváltoztatjuk (csak azokat!) Δ W ji (t+1) = W ji (t) + Δ w ji, Δw ji = α (O i /m-w ji (t)) ahol α = tanulási együttható, 0 < α << 1 (tipikusan ) m = az aktív bemenetek száma 5. A pont ismétlése amíg a kimenetek két egymást követő tanítási ciklus során nem változnak. IRE 8/22
23 Teljesítmény mérési lehetőségek 1. Az összes tanító mintát figyelembe véve, mekkora az eltérés RMS (Root-Mean-Square) Egy tanító mintánál: E = ½ (T k -O k ) 2 A teljes tanító mintára: E = ½ (T k -O k ) 2 M k RMS= E/(M*K) M= tanító minták száma K= kimenetek száma 2. A helyes és hibás eredmények aránya IRE 8/23
24 Logikai függvények tanítása logikai ÉS Kizáró VAGY I 1 * I 2 O I 1 +I 2 O I 1 logikai VAGY 1 I I 2 I 2 I 1 + I 2 O IRE 8/24 I I 2
25 A négy kvadráns IRE 8/25
26 Neurális hálózat szimulátorok NWDemo C++ Neural Network Simulation Software Stuttgart Neural Network Simulator Emergent Neural Network Simulation System IRE 8/26
27 Neurális hálózat szimulátorok IRE 8/27
28 Az első mesterséges neurális hálózat: a Perceptron Frank Rosenblatt (1957) (amit a következő órán meg kell valósítani) Vetített nyomtatott betűk felismerése tanítás alapján 20 x 20 fotóérzékelő Mc. Culloch-Pitts neuronok Előrecsatolt egyrétegű hálózat I 1 O 1 I 400 O 36 IRE 8/28
Intelligens Rendszerek Elmélete
Intelligens Rendszerek Elmélete Dr. Kutor László : Mesterséges neurális hálózatok felügyelt tanítása hiba visszateresztő Back error Propagation algoritmussal Versengéses tanulás http://mobil.nik.bmf.hu/tantargyak/ire.html
RészletesebbenIntelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban
Intelligens Rendszerek Elmélete : dr. Kutor László Versengéses és önszervező tanulás neurális hálózatokban http://mobil.nik.bmf.hu/tantargyak/ire.html Login név: ire jelszó: IRE07 IRE 9/1 Processzor Versengéses
RészletesebbenMesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás
Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás http:/uni-obuda.hu/users/kutor/ IRE 7/50/1 A neurális hálózatok általános jellemzői 1. A
RészletesebbenIntelligens Rendszerek Elmélete
Intellgens Rendszerek Elmélete Dr. Kutor László A mesterséges neuráls hálózatok alapfogalma és meghatározó eleme http://mobl.nk.bmf.hu/tantargyak/re.html Logn név: re jelszó: IRE07 IRE 7/1 Neuráls hálózatok
RészletesebbenNeurális hálózatok.... a gyakorlatban
Neurális hálózatok... a gyakorlatban Java NNS Az SNNS Javás változata SNNS: Stuttgart Neural Network Simulator A Tübingeni Egyetemen fejlesztik http://www.ra.cs.unituebingen.de/software/javanns/ 2012/13.
RészletesebbenTisztelt Hallgatók! Jó tanulást kívánok, üdvözlettel: Kutor László
Tisztelt Hallgatók! Az alábbi anyaga arra ó, hogy lehessen tudni, mi tartozik egy-egy kérdéshez. Ami itt olvasható, az a éghegy csúcsa. Ha alapos tudást akarnak, a éghegy alát önállóan kell hozzá gyűteniük.
RészletesebbenBudapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók Előadó: Előadás anyaga: Hullám Gábor Pataki Béla Dobrowiecki Tadeusz BME I.E. 414, 463-26-79
RészletesebbenBevezetés a neurális számításokba Analóg processzortömbök,
Pannon Egyetem Villamosmérnöki és Információs Tanszék Bevezetés a neurális számításokba Analóg processzortömbök, neurális hálózatok Előadó: dr. Tömördi Katalin Neurális áramkörök (ismétlés) A neurális
RészletesebbenNeurális hálózatok bemutató
Neurális hálózatok bemutató Füvesi Viktor Miskolci Egyetem Alkalmazott Földtudományi Kutatóintézet Miért? Vannak feladatok amelyeket az agy gyorsabban hajt végre mint a konvencionális számítógépek. Pl.:
RészletesebbenFogalom értelmezések I.
Fogalom értelmezések I. Intelligencia értelmezések Köznapi értelmezése: értelem, ész, felfogó képesség, értelmesség, műveltség Boring szerint: amit az intelligencia teszt mér Wechsler szerint: Az intelligencia
RészletesebbenTanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,
RészletesebbenKeresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Keresés képi jellemzők alapján Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Lusta gépi tanulási algoritmusok Osztályozás: k=1: piros k=5: kék k-legközelebbi szomszéd (k=1,3,5,7)
RészletesebbenÁllandó tartós halhatatlan, könnyő átvinni reprodukálni,(oktatni a szakértıi rendszerhasználatát kell)
90. Mi az MI program, tudásalapú rendszer, szakértıi rendszer és kapcsolatuk? MI program Olyan programok, amik a beérkezı információkat valamilyen logikus módszerrel képesek feldolgozni, még akkor is,
RészletesebbenHibadetektáló rendszer légtechnikai berendezések számára
Hibadetektáló rendszer légtechnikai berendezések számára Tudományos Diákköri Konferencia A feladatunk Légtechnikai berendezések Monitorozás Hibadetektálás Újrataníthatóság A megvalósítás Mozgásérzékelő
RészletesebbenSzámítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Számítógépes képelemzés 7. előadás Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Momentumok Momentum-alapú jellemzők Tömegközéppont Irányultáság 1 2 tan 2 1 2,0 1,1 0, 2 Befoglaló
RészletesebbenTARTALOMJEGYZÉK. TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS A lágy számításról A könyv célkitűzése és felépítése...
TARTALOMJEGYZÉK TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS...1 1. A lágy számításról...2 2. A könyv célkitűzése és felépítése...6 AZ ÖSSZETEVŐ LÁGY RENDSZEREK...9 I. BEVEZETÉS...10 3. Az összetevő
RészletesebbenIntelligens orvosi műszerek VIMIA023
Intelligens orvosi műszerek VIMIA023 Neurális hálók (Dobrowiecki Tadeusz anyagának átdolgozásával) 2017 ősz http://www.mit.bme.hu/oktatas/targyak/vimia023 dr. Pataki Béla pataki@mit.bme.hu (463-)2679 A
RészletesebbenRegresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.
Regresszió Csorba János Nagyméretű adathalmazok kezelése 2010. március 31. A feladat X magyarázó attribútumok halmaza Y magyarázandó attribútumok) Kérdés: f : X -> Y a kapcsolat pár tanítópontban ismert
RészletesebbenNEURÁLIS HÁLÓZATOK 1. eloadás 1
NEURÁLIS HÁLÓZATOKH 1. eloadás 1 Biológiai elozmények nyek: az agy Az agy az idegrendszerunk egyik legfontosabb része: - képes adatokat tárolni, - gyorsan és hatékonyan mukodik, - nagy a megbízhatósága,
RészletesebbenTanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok
Zrínyi Miklós Gimnázium Művészet és tudomány napja Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok 10/9/2009 Dr. Viharos Zsolt János Elsősorban volt Zrínyis diák Tudományos főmunkatárs
RészletesebbenVisszacsatolt (mély) neurális hálózatok
Visszacsatolt (mély) neurális hálózatok Visszacsatolt hálózatok kimenet rejtett rétegek bemenet Sima előrecsatolt neurális hálózat Visszacsatolt hálózatok kimenet rejtett rétegek bemenet Pl.: kép feliratozás,
RészletesebbenMit látnak a robotok? Bányai Mihály Matemorfózis, 2017.
Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017. Vizuális feldolgozórendszerek feladatai Mesterséges intelligencia és idegtudomány Mesterséges intelligencia és idegtudomány Párhuzamos problémák
RészletesebbenA neurális hálózatok általános jellemzői
Mesterséges neurális hálóztok II. - A felügyelt tnítás prméterei, gyorsító megoldási - Versengéses tnulás Tudáskezelés fuzzy logikávl http:/uni-obud.hu/users/kutor/ IRE 7/50/1 2012. ősz Óbudi Egyetem,
RészletesebbenFuzzy rendszerek és neurális hálózatok alkalmazása a diagnosztikában
Budapesti Műszaki és Gazdaságtudományi Egyetem Fuzzy rendszerek és neurális hálózatok alkalmazása a diagnosztikában Cselkó Richárd 2009. október. 15. Az előadás fő témái Soft Computing technikák alakalmazásának
RészletesebbenI. LABOR -Mesterséges neuron
I. LABOR -Mesterséges neuron A GYAKORLAT CÉLJA: A mesterséges neuron struktúrájának az ismertetése, neuronhálókkal kapcsolatos elemek, alapfogalmak bemutatása, aktivációs függvénytípusok szemléltetése,
RészletesebbenII. LABOR Tanulás, Perceptron, Adaline
II. LABOR Tanulás, Perceptron, Adaline A dolgozat célja a tanító algoritmusok osztályozása, a tanító és tesztel halmaz szerepe a neuronhálók tanításában, a Perceptron és ADALINE feldolgozó elemek struktúrája,
RészletesebbenTanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,
RészletesebbenModellezés és szimuláció. Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék
Modellezés és szimuláció Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék Kvantitatív forradalmak a földtudományban - geográfiában 1960- as évek eleje: statisztika 1970- as évek eleje:
RészletesebbenTanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,
RészletesebbenKONVOLÚCIÓS NEURONHÁLÓK. A tananyag az EFOP pályázat támogatásával készült.
KONVOLÚCIÓS NEURONHÁLÓK A tananyag az EFOP-3.5.1-16-2017-00004 pályázat támogatásával készült. 1. motiváció A klasszikus neuronháló struktúra a fully connected háló Két réteg között minden neuron kapcsolódik
RészletesebbenIrányításelmélet és technika II.
Irányításelmélet és technika II. Modell-prediktív szabályozás Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki és Információs Rendszerek Tanszék amagyar@almos.vein.hu 2010 november
RészletesebbenTanulás az idegrendszerben
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Funkcióvezérelt modellezés Abból indulunk ki, hogy milyen feladatot valósít meg a rendszer Horace Barlow: "A
RészletesebbenKovács Ernő 1, Füvesi Viktor 2
Kovács Ernő 1, Füvesi Viktor 2 1 Miskolci Egyetem, Elektrotechnikai - Elektronikai Tanszék 2 Miskolci Egyetem, Alkalmazott Földtudományi Kutatóintézet 1 HU-3515 Miskolc-Egyetemváros 2 HU-3515 Miskolc-Egyetemváros,
RészletesebbenFELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE
FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE Dr. Aradi Szilárd, Fehér Árpád Mesterséges intelligencia kialakulása 1956 Dartmouth-i konferencián egy maroknyi tudós megalapította a MI területét
RészletesebbenForgalmi modellezés BMEKOKUM209
BME Közlekedésüzemi és Közlekedésgazdasági Tanszék Forgalmi modellezés BMEKOKUM209 Szimulációs modellezés Dr. Juhász János A forgalmi modellezés célja A közlekedési igények bővülése és a motorizáció növekedése
RészletesebbenBiológiai és mesterséges neurális hálózatok
Biológiai és mesterséges neurális hálózatok Szegedy Balázs 2018. október 10. Hasonlóságok és külömbségek A mesterséges neurális hálózatok története 1957-ben kezdődött: perceptron (Frank Rosenblatt). 400
RészletesebbenSAT probléma kielégíthetőségének vizsgálata. masszív parallel. mesterséges neurális hálózat alkalmazásával
SAT probléma kielégíthetőségének vizsgálata masszív parallel mesterséges neurális hálózat alkalmazásával Tajti Tibor, Bíró Csaba, Kusper Gábor {gkusper, birocs, tajti}@aries.ektf.hu Eszterházy Károly Főiskola
RészletesebbenE x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes)
6-7 ősz. gyakorlat Feladatok.) Adjon meg azt a perceptronon implementált Bayes-i klasszifikátort, amely kétdimenziós a bemeneti tér felett szeparálja a Gauss eloszlású mintákat! Rajzolja le a bemeneti
RészletesebbenGépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)
Gépi tanulás Hány tanítómintára van szükség? VKH Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Induktív tanulás A tanítás folyamata: Kiinduló
RészletesebbenMegerősítéses tanulás
Megerősítéses tanulás elméleti kognitív neurális Introduction Knowledge representation Probabilistic models Bayesian behaviour Approximate inference I (computer lab) Vision I Approximate inference II:
RészletesebbenAdatbányászati szemelvények MapReduce környezetben
Adatbányászati szemelvények MapReduce környezetben Salánki Ágnes salanki@mit.bme.hu 2014.11.10. Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs Rendszerek Tanszék Felügyelt
RészletesebbenNeurális hálózatok MATLAB programcsomagban
Debreceni Egyetem Informatikai Kar Neurális hálózatok MATLAB programcsomagban Témavezető: Dr. Fazekas István Egyetemi tanár Készítette: Horváth József Programtervező informatikus Debrecen 2011 1 Tartalomjegyzék
RészletesebbenWavelet transzformáció
1 Wavelet transzformáció Más felbontás: Walsh, Haar, wavelet alapok! Eddig: amplitúdó vagy frekvencia leírás: Pl. egy rövid, Dirac-delta jellegű impulzus Fourier-transzformált: nagyon sok, kb. ugyanolyan
RészletesebbenMINTA Írásbeli Záróvizsga Mechatronikai mérnök MSc. Debrecen,
MINTA Írásbeli Záróvizsga Mechatronikai mérnök MSc Debrecen, 2017. 01. 03. Név: Neptun kód: Megjegyzések: A feladatok megoldásánál használja a géprajz szabályait, valamint a szabványos áramköri elemeket.
RészletesebbenInformatika Rendszerek Alapjai
Informatika Rendszerek Alapjai Dr. Kutor László Alapfogalmak Információ-feldolgozó paradigmák Analóg és digitális rendszerek jellemzői Jelek típusai Átalakítás rendszerek között http://uni-obuda.hu/users/kutor/
RészletesebbenKonvolúciós neurális hálózatok (CNN)
Konvolúciós neurális hálózatok (CNN) Konvolúció Jelfeldolgozásban: Diszkrét jelek esetén diszkrét konvolúció: Képfeldolgozásban 2D konvolúció (szűrők): Konvolúciós neurális hálózat Konvolúciós réteg Kép,
RészletesebbenMesterséges Intelligencia MI
Mesterséges Intelligencia MI A szükséges mintaszám krlát elemzése Pataki Béla BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Mit is jelent az eredmény, ha pnts lenne
RészletesebbenGauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei
A Gauss-Jordan elimináció, mátrixinvertálás Gauss-Jordan módszer Ugyanazzal a technikával, mint ahogy a k-adik oszlopban az a kk alatti elemeket kinulláztuk, a fölötte lévő elemeket is zérussá lehet tenni.
RészletesebbenStatisztikai eljárások a mintafelismerésben és a gépi tanulásban
Statisztikai eljárások a mintafelismerésben és a gépi tanulásban Varga Domonkos (I.évf. PhD hallgató) 2014 május A prezentáció felépítése 1) Alapfogalmak 2) A gépi tanulás, mintafelismerés alkalmazási
RészletesebbenA MESTERSÉGES NEURONHÁLÓZATOK BEVEZETÉSE AZ OKTATÁSBA A GAMF-ON
A MESTERSÉGES NEURONHÁLÓZATOK BEVEZETÉSE AZ OKTATÁSBA A GAMF-ON Pintér István, pinter@gandalf.gamf.hu Nagy Zoltán Gépipari és Automatizálási Mûszaki Fõiskola, Informatika Tanszék Gépipari és Automatizálási
RészletesebbenBEKE ANDRÁS, FONETIKAI OSZTÁLY BESZÉDVIZSGÁLATOK GYAKORLATI ALKALMAZÁSA
BEKE ANDRÁS, FONETIKAI OSZTÁLY BESZÉDVIZSGÁLATOK GYAKORLATI ALKALMAZÁSA BESZÉDTUDOMÁNY Az emberi kommunikáció egyik leggyakrabban használt eszköze a nyelv. A nyelv hangzó változta, a beszéd a nyelvi kommunikáció
RészletesebbenPerceptron konvergencia tétel
Perceptron konvergencia tétel Mesterséges Intelligencia I. házi feladat Lám István A2D587 lam.istvan@gmail.com 1 A Perceptron 1.1 A perceptron definíciója A perceptron az egyik legegyszerűbb előrecsatolt
RészletesebbenIrányításelmélet és technika II.
Irányításelmélet és technika II. Legkisebb négyzetek módszere Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki és Információs Rendszerek Tanszék amagyar@almos.vein.hu 200 november
RészletesebbenAlap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )
Budapesti Műszaki és Gazdaságtudományi Egyetem Gépészmérnöki Kar Hidrodinamikai Rendszerek Tanszék, Budapest, Műegyetem rkp. 3. D ép. 334. Tel: 463-6-80 Fa: 463-30-9 http://www.vizgep.bme.hu Alap-ötlet:
RészletesebbenSegédlet a gyakorlati tananyaghoz GEVAU141B, GEVAU188B c. tantárgyakból
Segédlet a gyakorlati tananyaghoz GEVAU141B, GEVAU188B c. tantárgyakból 1 Átviteli tényező számítása: Lineáris rendszer: Pl1.: Egy villanymotor 100V-os bemenő jelre 1000 fordulat/perc kimenő jelet ad.
RészletesebbenLineáris regressziós modellek 1
Lineáris regressziós modellek 1 Ispány Márton és Jeszenszky Péter 2016. szeptember 19. 1 Az ábrák C.M. Bishop: Pattern Recognition and Machine Learning c. könyvéből származnak. Tartalom Bevezető példák
RészletesebbenDeep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök
Gyires-Tóth Bálint Deep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök http://smartlab.tmit.bme.hu Deep Learning Híradó Hírek az elmúlt 168 órából Deep Learning Híradó Google
RészletesebbenIntelligens Rendszerek Elmélete. Párhuzamos keresés genetikus algoritmusokkal
Intelligens Rendszerek Elmélete Dr. Kutor László Párhuzamos keresés genetikus algoritmusokkal http://mobil.nik.bmf.hu/tantargyak/ire.html login: ire jelszó: IRE0 IRE / A természet általános kereső algoritmusa:
RészletesebbenNormák, kondíciószám
Normák, kondíciószám A fizika numerikus módszerei I. mf1n1a06- mf1n2a06 Csabai István Lineáris egyenletrendszerek Nagyon sok probléma közvetlenül lineáris egyenletrendszer megoldásával kezelhetı Sok numerikus
Részletesebben[1000 ; 0] 7 [1000 ; 3000]
Gépi tanulás (vimim36) Gyakorló feladatok 04 tavaszi félév Ahol lehet, ott konkrét számértékeket várok nem puszta egyenleteket. (Azok egy részét amúgyis megadom.). Egy bináris osztályozási feladatra tanított
RészletesebbenStratégiák tanulása az agyban
Statisztikai tanulás az idegrendszerben, 2019. Stratégiák tanulása az agyban Bányai Mihály banyai.mihaly@wigner.mta.hu http://golab.wigner.mta.hu/people/mihaly-banyai/ Kortárs MI thispersondoesnotexist.com
RészletesebbenSzámítógépes döntéstámogatás. Genetikus algoritmusok
BLSZM-10 p. 1/18 Számítógépes döntéstámogatás Genetikus algoritmusok Werner Ágnes Villamosmérnöki és Információs Rendszerek Tanszék e-mail: werner.agnes@virt.uni-pannon.hu BLSZM-10 p. 2/18 Bevezetés 1950-60-as
RészletesebbenAKTUÁTOR MODELLEK KIVÁLASZTÁSA ÉS OBJEKTÍV ÖSSZEHASONLÍTÁSA
AKTUÁTOR MODELLEK KIVÁLASZTÁSA ÉS OBJEKTÍV ÖSSZEHASONLÍTÁSA Kovács Ernő 1, Füvesi Viktor 2 1 Egyetemi docens, PhD; 2 tudományos segédmunkatárs 1 Eletrotechnikai és Elektronikai Tanszék, Miskolci Egyetem
RészletesebbenA RADARJELEK DETEKTÁLÁSA NEURÁLIS HÁLÓZAT ALKALMAZÁSÁVAL
A RADARJELEK DETEKTÁLÁSA NEURÁLIS HÁLÓZAT ALKALMAZÁSÁVAL Dr. Ludányi Lajos mk. alezredes egyetemi adjunktus Zrínyi Miklós Nemzetvédelmi Egyetem Vezetés- és Szervezéstudományi Kar Fedélzeti Rendszerek Tanszék
RészletesebbenVéges állapotú gépek (FSM) tervezése
Véges állapotú gépek (FSM) tervezése F1. A 2. gyakorlaton foglalkoztunk a 3-mal vagy 5-tel osztható 4 bites számok felismerésével. Abban a feladatban a bemenet bitpárhuzamosan, azaz egy időben minden adatbit
RészletesebbenTanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,
RészletesebbenNEURONHÁLÓK ÉS TANÍTÁSUK A BACKPROPAGATION ALGORITMUSSAL. A tananyag az EFOP pályázat támogatásával készült.
NEURONHÁLÓK ÉS TANÍTÁSUK A BACKPROPAGATION ALGORITMUSSAL A tananyag az EFOP-3.5.1-16-2017-00004 pályázat támogatásával készült. Neuron helyett neuronháló Neuron reprezentációs erejének növelése: építsünk
RészletesebbenHORVÁTH ZSÓFIA 1. Beadandó feladat (HOZSAAI.ELTE) ápr 7. 8-as csoport
10-es Keressünk egy egész számokat tartalmazó négyzetes mátrixban olyan oszlopot, ahol a főátló alatti elemek mind nullák! Megolda si terv: Specifika cio : A = (mat: Z n m,ind: N, l: L) Ef =(mat = mat`)
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363
1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái 288/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák
RészletesebbenAlgoritmusok Tervezése. 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás
Algoritmusok Tervezése 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás Mi az algoritmus? Lépések sorozata egy feladat elvégzéséhez (legáltalánosabban) Informálisan algoritmusnak nevezünk bármilyen jól definiált
RészletesebbenVállalati modellek. Előadásvázlat. dr. Kovács László
Vállalati modellek Előadásvázlat dr. Kovács László Vállalati modell fogalom értelmezés Strukturált szervezet gazdasági tevékenység elvégzésére, nyereség optimalizálási céllal Jellemzői: gazdasági egység
RészletesebbenMesterséges intelligencia
Mesterséges intelligencia Botzheim János Budapesti Műszaki és Gazdaságtudományi Egyetem, Mechatronika, Optika és Gépészeti Informatika Tanszék Motivációk Hogyan lehetne automatikussá tenni azokat az összetett
RészletesebbenMérési hibák 2006.10.04. 1
Mérési hibák 2006.10.04. 1 Mérés jel- és rendszerelméleti modellje Mérési hibák_labor/2 Mérési hibák mérési hiba: a meghatározandó értékre a mérés során kapott eredmény és ideális értéke közötti különbség
RészletesebbenÚj dokumentálandó folyamatok, azok minimális tartalmi elvárásai
Új dokumentálandó folyamatok, azok minimális tartalmi elvárásai Dokumentált folyamattal való rendelkezés ISO/TS 16949:2009 IATF 16949:2015 Dokumentumok kezelése, Feljegyzések kezelése, Nem megfelelő termék
RészletesebbenNeurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL
Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL TULICS@TMIT.BME.HU Példa X (tanult órák száma, aludt órák száma) y (dolgozaton elért pontszám) (5, 8) 80 (3, 5) 78 (5, 1) 82 (10, 2) 93 (4, 4)
RészletesebbenMulti-20 modul. Felhasználói dokumentáció 1.1. Készítette: Parrag László. Jóváhagyta: Rubin Informatikai Zrt.
Multi-20 modul Felhasználói dokumentáció. Készítette: Parrag László Jóváhagyta: Rubin Informatikai Zrt. 49 Budapest, Egressy út 7-2. telefon: +36 469 4020; fax: +36 469 4029 e-mail: info@rubin.hu; web:
RészletesebbenInfobionika ROBOTIKA. X. Előadás. Robot manipulátorok II. Direkt és inverz kinematika. Készült a HEFOP P /1.0 projekt keretében
Infobionika ROBOTIKA X. Előadás Robot manipulátorok II. Direkt és inverz kinematika Készült a HEFOP-3.3.1-P.-2004-06-0018/1.0 projekt keretében Tartalom Direkt kinematikai probléma Denavit-Hartenberg konvenció
RészletesebbenInformációk. Ismétlés II. Ismétlés. Ismétlés III. A PROGRAMOZÁS ALAPJAI 2. Készítette: Vénné Meskó Katalin. Algoritmus. Algoritmus ábrázolása
1 Információk 2 A PROGRAMOZÁS ALAPJAI 2. Készítette: Vénné Meskó Katalin Elérhetőség mesko.katalin@tfk.kefo.hu Fogadóóra: szerda 9:50-10:35 Számonkérés időpontok Április 25. 9 00 Május 17. 9 00 Június
RészletesebbenAleksziev Rita Antónia Alkalmazott matematikus MSc. Transzformációtanulás 2 dimenziós képeken
Eötvös Loránd Tudományegyetem Természettudományi Kar Aleksziev Rita Antónia Alkalmazott matematikus MSc Számítástudomány szakirány Transzformációtanulás 2 dimenziós képeken mély autoenkóder hálózatokkal
RészletesebbenGépi tanulás a Rapidminer programmal. Stubendek Attila
Gépi tanulás a Rapidminer programmal Stubendek Attila Rapidminer letöltése Google: download rapidminer Rendszer kiválasztása (iskolai gépeken Other Systems java) Kicsomagolás lib/rapidminer.jar elindítása
RészletesebbenNéhány nem hagyományos matematikai modell (Ezeket rejtett modellnek is nevezik, ritkán modell nélküli rendszerről beszélnek.)
Néhány nem hagyományos matematikai modell (Ezeket rejtett modellnek is nevezik, ritkán modell nélküli rendszerről beszélnek.) A klasszikus szabályozáselmélet általában a differenciál egyenleteken alapuló
RészletesebbenBevezetés a programozásba I 3. gyakorlat. PLanG: Programozási tételek. Programozási tételek Algoritmusok
Pázmány Péter Katolikus Egyetem Információs Technológiai Kar Bevezetés a programozásba I 3. gyakorlat PLanG: 2011.09.27. Giachetta Roberto groberto@inf.elte.hu http://people.inf.elte.hu/groberto Algoritmusok
RészletesebbenIrányításelmélet és technika I.
Irányításelmélet és technika I Folytonos idejű rendszerek leírása az állapottérben Állapotvisszacsatolást alkalmazó szabályozási körök Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki
RészletesebbenKonjugált gradiens módszer
Közelítő és szimbolikus számítások 12. gyakorlat Konjugált gradiens módszer Készítette: Gelle Kitti Csendes Tibor Vinkó Tamás Faragó István Horváth Róbert jegyzetei alapján 1 LINEÁRIS EGYENLETRENDSZEREK
RészletesebbenA KLT (Kanade Lucas Tomasi) Feature Tracker Működése (jellegzetes pontok választása és követése)
A KL (Kanade Lucas omasi) Feature racker Működése (jellegzetes pontok választása és követése) Készítette: Hajder Levente 008.11.18. 1. Feladat A rendelkezésre álló videó egy adott képkockájából minél több
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363
1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái -hálók 306/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák
RészletesebbenAz informatika kulcsfogalmai
Az informatika kulcsfogalmai Kulcsfogalmak Melyek azok a fogalmak, amelyek nagyon sok más fogalommal kapcsolatba hozhatók? Melyek azok a fogalmak, amelyek más-más környezetben újra és újra megjelennek?
RészletesebbenSzámítógépvezérelt irányítás és szabályozás elmélete (Bevezetés a rendszer- és irányításelméletbe, Computer Controlled Systems) 8.
Számítógépvezérelt irányítás és szabályozás elmélete (Bevezetés a rendszer- és irányításelméletbe, Computer Controlled Systems) 8. előadás Szederkényi Gábor Pázmány Péter Katolikus Egyetem Információs
RészletesebbenDebreceni Egyetem Informatikai Kar. Fazekas István. Neurális hálózatok
Debreceni Egyetem Informatikai Kar Fazekas István Neurális hálózatok Debrecen, 2013 Szerző: Dr. Fazekas István egyetemi tanár Bíráló: Dr. Karácsony Zsolt egyetemi docens A tananyag a TÁMOP-4.1.2.A/1-11/1-2011-0103
RészletesebbenSoros felépítésű folytonos PID szabályozó
Soros felépítésű folytonos PID szabályozó Főbb funkciók: A program egy PID szabályozót és egy ez által szabályozott folyamatot szimulál, a kimeneti és a beavatkozó jel grafikonon való ábrázolásával. A
RészletesebbenIntelligens Rendszerek Elmélete. Párhuzamos keresés genetikus algoritmusokkal. A genetikus algoritmus működése. Az élet információ tárolói
Intelligens Rendszerek Elmélete dr. Kutor László Párhuzamos keresés genetikus algoritmusokkal http://mobil.nik.bmf.hu/tantargyak/ire.html login: ire jelszó: IRE07 IRE 5/ Természetes és mesterséges genetikus
RészletesebbenKOOPERÁCIÓ ÉS GÉPI TANULÁS LABORATÓRIUM
KOOPERÁCIÓ ÉS GÉPI TANULÁS LABORATÓRIUM Kernel módszerek idősor előrejelzés Mérési útmutató Készítette: Engedy István (engedy@mit.bme.hu) Méréstechnika és Információs Rendszerek Tanszék Budapesti Műszaki
RészletesebbenNagyfrekvenciás rendszerek elektronikája házi feladat
Nagyfrekvenciás rendszerek elektronikája házi feladat Az elkészítendő kis adatsebességű, rövidhullámú, BPSK adóvevő felépítése a következő: Számítsa ki a vevő földelt bázisú kis zajú hangolt kollektorkörös
RészletesebbenKísérletek tervezése. A gyógyszertervezés lehetségei. Hagyományos módszer. Mi a Neurális hálózat?
A gyógyszertervezés lehetségei Kísérletek tervezése Mesterséges neurális hálózatok alkalmazása a gyógyszertervezésben Korábbi vizsgálatok adatai Gyakorlat, szaktudás, intuíció Számítógépes programok tervezést
RészletesebbenGépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés
Gépi tanulás a gyakorlatban Kiértékelés és Klaszterezés Hogyan alkalmazzuk sikeresen a gépi tanuló módszereket? Hogyan válasszuk az algoritmusokat? Hogyan hangoljuk a paramétereiket? Precízebben: Tegyük
RészletesebbenA hálózattervezés alapvető ismeretei
A hálózattervezés alapvető ismeretei Infokommunikációs hálózatok tervezése és üzemeltetése 2011 2011 Sipos Attila ügyvivő szakértő BME Híradástechnikai Tanszék siposa@hit.bme.hu A terv általános meghatározásai
RészletesebbenBevezetés a lágy számítás módszereibe. Neurális hálózatok Alapok
BLSZM-09 p. 1/29 Bevezetés a lágy számítás módszereibe Neurális hálózatok Alapok Werner Ágnes Villamosmérnöki és Információs Rendszerek Tanszék e-mail: werner.agnes@virt.uni-pannon.hu BLSZM-09 p. 2/29
RészletesebbenProgramozó- készülék Kezelőkozol RT óra (pl. PC) Digitális bemenetek ROM memória Digitális kimenetek RAM memória Analóg bemenet Analóg kimenet
2. ZH A csoport 1. Hogyan adható meg egy digitális műszer pontossága? (3p) Digitális műszereknél a pontosságot két adattal lehet megadni: Az osztályjel ±%-os értékével, és a ± digit értékkel (jellemző
RészletesebbenBudapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók 2. Pataki Béla
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók 2. Előadó: Hullám Gábor Pataki Béla BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki
RészletesebbenCARE. Biztonságos. otthonok idős embereknek CARE. Biztonságos otthonok idős embereknek 2010-09-02. Dr. Vajda Ferenc Egyetemi docens
CARE Biztonságos CARE Biztonságos otthonok idős embereknek otthonok idős embereknek 2010-09-02 Dr. Vajda Ferenc Egyetemi docens 3D Érzékelés és Mobilrobotika kutatócsoport Budapesti Műszaki és Gazdaságtudományi
Részletesebben