II. LABOR Tanulás, Perceptron, Adaline

Méret: px
Mutatás kezdődik a ... oldaltól:

Download "II. LABOR Tanulás, Perceptron, Adaline"

Átírás

1 II. LABOR Tanulás, Perceptron, Adaline A dolgozat célja a tanító algoritmusok osztályozása, a tanító és tesztel halmaz szerepe a neuronhálók tanításában, a Perceptron és ADALINE feldolgozó elemek struktúrája, tansítása és a köztük lev hasonloságok és különbségek ismertetése. Elméleti alapfogalmak Tanulás A neurális hálózatok legfbb jellemzje az adaptációs tanulási képesség. A neurális hálózatokban a tanulás egyszeren a rendszer valamilyen képességének javítását jelenti. Így tanulásról beszélhetünk, amikor olyan hálózat-architektúrát illetve paramétereket (súlyvektort) keresünk, amely mellett egy hálózat egy adott függvénynek a minél jobb approximációjára lesz képes, de tanulás során egy hálózat azon képessége is fejleszthet, amely a bemenetére kerül minták közötti hasonlóság megállapítását teszi lehetvé. A neurális hálózatok fbb tanulási formái: Tanítóval történ tanulás (ellenrzött vagy felügyelt tanulás) Tanulás tanító nélkül (nem ellenrzött vagy felügyelet nélküli tanulás) Analitikus tanulás Ellenrzött tanulásnál a hálózat összetartozó be- és kimeneti értékei, ú.n. tanítópárok állnak rendelkezésre. A tanítás azon alapszik, hogy ismertek a hálózatnak valamely bemenetekre adandó kívánt válaszai, így a hálózat tényleges válasza minden esetben közvetlenül összehasonlítható a kívánt válasszal. Az összehasonlítás eredménye- a tényleges és a kívánt válasz különbsége- felhasználható a hálózat olyan módosítására, hogy a tényleges válaszok a kívánt válaszokkal minél inkább megegyezzenek, a hálózat kimenete és a kívánt kimenet közötti különbség csökkenjen. Ellenrzött tanulásról beszélünk akkor is, amikor a kívánt válasz pontosan nem ismert, csupán annyit tudunk, hogy a hálózat válasza helyes vagy nem. Ezt megersít (reinforcement) tanulásnak nevezzük. A neurális hálózatok tanításáról lévén szó, említést kell tenni a tanítási folyamat fontosabb lépéseirl. Amint ismert az információ, egy neurális háló súlyzóiban van eltárolva, és a tanítási folyamat ezen súlyzók meghatározását, beállítását, módosítását jelenti. A tanítás egy ciklikusan ismétld folyamat, amely során a tanító halmazból egyenként vesszük a bemeneteket, megmutatjuk a hálónak, felhasználva az aktuális súlyzókat, az adott bemenetre kiszámoljuk a háló kimenetét, majd az elvárt érték és a kiszámolt érték között számolunk egy hibát. A hibát majd alkalmazzuk a súlyzók módosítására. A tanítási algoritmust két különböz osztályba sorolhatjuk, attól függen, hogy milyen módon határozzuk meg a hibát, éspedig minden bementre egyenként számolunk egy hibát, majd minden egyes bemenet után tanítjuk a háló súlyzóit vagy csak a teljes tanító halmazra számolunk egy hibavektort, amely alapján csak egyetlen egyszer módosítjuk a súlyzókat. Els esetben a tanítás a hiba pillanatnyi értéke alapján történik (ezt a tanítási módot szokás online tanításnak nevezni) vagy a tanító halmaz minden egyes elemére kiszámolt globális hiba alapján (ezt a tanítási módot szokás batch tanításnak nevezni). 9

2 Mesterséges Intelligencia Labor Tanítási ciklus A tanítás során a tanító halmazból veszünk egy be- és kimeneti elempárt. Az adott bemenetre kiszámoljuk a neuron (neurális háló) kimenetét. Az elvárt érték és kiszámolt értékbl számolt hibát felhasználjuk a súlyzók (paramétere módosítására. A tanítás során vesszük egyenként a tanító halmazból az elempárokat, és minden elempárra elvégezzük a paraméter módosítást. Egy ilyen ciklust- a háló tanítását az összes elempárra - tanítási ciklusnak nevezünk. Egy neurális háló tanítása a tanítási ciklusok sorozatából tevdik össze. A tanítás befejezdését annak alapján dönthetjük el, hogy közben leellenrizzük, hogy a háló teljesíti-e az elvárt feltételeket. A felügyelt tanítás esetében például minden tanítási ciklusra számolunk egy globális hibát, melyet ábrázolunk, és ha a hiba egy bizonyos küszöbérték alá kerül, leállítjuk a tanítást. A tanítás lényegében több fázisból tevdik össze -els fázis, amikor tanítjuk a hálót, és erre rendelkezésre áll egy tanító halmaz, amely ki-bemeneti elempárokat tartalmaz -egy tesztel fázis, amikor leellenrizzük a háló viselkedését olyan bemenetekre is, amelyek nem voltak jelen a tanító halmazban. Elfordulhat, hogy a tanítás sikerrel jár, de a tesztelés sikertelen. Ebben az esetben újra kell tanítani a hálót. Mindkét esetben százalékban szokták kifejezni, hogy a tanító halmaz hány százalékára viselkedik helyesen a háló. A sikeres tanítás és tesztelés után elmentjük a súlyzókat és alkalmazhatjuk a hálót. Ahhoz, hogy egy adott tizedesnyi pontossággal meg tudjuk határozni, hogy hány százalékban ad helyes eredményt a háló, a tanító halmaznak megfelel számú elemet kell tartalmaznia. Ha 0 darab elemre tanítjuk a hálót, csak 0%-os pontosággal tudjuk meghatározni a helyes mködést. Ha 0 elembl egy elemre téved, azt jelenti, hogy 90% százalékban helyesen mködik a háló. Nem ellenrzött tanulásnál nem állnak rendelkezésünkre adott bemenethez tartozó kívánt válaszok. A hálózatnak a bemenetek és a kimenetek alapján kell valamilyen viselkedést kialakítania, a környezetbl nincs semmiféle visszajelzés, ami a hálózat viselkedésének helyességére utalna. Ebben az esetben is rendelkezésünkre áll egy tanító halmaz, de csak bemeneteket tartalmaz, és nem tartalmazza az elvárt kimeneteket. Analitikus tanulás-a megfelel viselkedést biztosító hálózat kialakítása elméleti úton, a feladatból határozható meg. Ebben az esetben nem is beszélhetünk tanulásról, a hálózat megfelel kialakítása nem lépésenként, a környezetbl szerzett információ fokozatos felhasználása révén, hanem analitikus módszerekkel végezhet el. Tanító halmaz - be és kimeneti elempárok, amelyek rendelkezésünkre állnak. Általában ezt egy táblázatban tároljuk. A következkben bemutatásra kerül az egyszer perceptron és ADALINE hálók struktúrája és az LSM tanítási algoritmus. Az egyszer perceptron csak egyszerbb gyakorlati feladatok megoldására alkalmazható (a bináris kimenetbl, és lineráis szeparálási képességébl adódóan). Az egyszer perceptron kiindulási pont a többréteg percetron (MLP) tanulmányozásában. A PERCEPTRON az egyike a legels és legegyszerbb mesterséges neurális hálózatoknak. Az elrecsatolt többréteg hálózatok olyan speciális változatának tekinthet, amely egyetlen rétegbl és azon belül egy vagy több processzáló elembl áll. Az egy processzáló elembl álló változatot szokás egyszer perceptronnak is nevezni. A Perceptront eredetileg Rosenblatt javasolta egy olyan hálózatként, amely képes arra, hogy megfelel beállítás, tanítás után két lineárisan szeparálható mintahalmazt szétválasszon. A 0

3 lineáris szeparálhatóság azt jelenti, hogy a bemeneti mintateret egy síkkal (hipersíkkal) két diszjunkt tartományra tudjuk bontani úgy, hogy a két tartomány eltér osztályba tartozó bemeneti mintapontokat tartalmazzon. Az egyszer perceptron tehát kétosztályos esetekben lineáris feladatok ellátására alkalmas. A késbbiekben az egyszer perceptront továbbfejlesztették, több elem, illetve többréteg hálózatokká, amelyek képességei az egyszer perceptron képességeit messze felülmúlják. A perceptron struktúrája az alábbi ábrán látható. Az egyszer perceptron egy partikuláris esete a McCulloch-Pitts mesterséges neuron modellnek, amikor az aktiváló függvény egy lépcsfüggvény. Az egyszer neuron szerepe osztályozni a bemeneteket a két lehetséges osztály egyikébe (y = + vagy y = -) A kimenetet a következképpen kell kiszámítani: v = N i= w i x i θ +, ha y = ϕ ( v) = sgn( v) =, ha x x ( n) ( n) C C 2 Az osztályok a következ egyenlet által megadott hipersíkkal vannak szétválasztva: N i= wix i θ = 0 Ennek egy partikuláris esete N=2 w x + w2 x2 θ = 0, egy egyenes egyenletét ábrázolja az x 2 Ox síkban. Ebben az esetben a bemeneti vektorok egy egyenessel vannak elválasztva. Egy példa egy ilyen típusú feladatra az ÉS logikai függvény, ellenpélda pedig a XOR, ami nem szeparálható egy egyenessel. N=3 esetében az elválasztás egy síkkal, N>3 esetében hipersíkkal történik. Az egyszer perceptron csak lineárisan szeparálható feladatok megoldására alkalmazható.

4 Mesterséges Intelligencia Labor Változók, paraméterek jelölése: x =, x, x,..., -bemeneti vektor 2 x N [ ] T w [ θ w, w,..., ] T = -súlyzó vektor (szinaptikus kapcsolatok, 2 w N vektora) θ küszöb (referencia bemenet) y a neuron kimenete d várt válasz µ tanítási együttható, 0 <=µ <. Perceptron típusú neurális háló tanításának lépései: ) súlyzók inicializálása: w = 0; 2) a háló (neuron) kimenetének kiszámolása y = sgn [ w x] T ahol sgn() a aktiváló függvény. 3) módosítjuk a súlyzók értékét (szinaptikus kapcsolatok ersségét) w [ k + ] = w[ k] + µ ( d y)x -vektoriális forma w k + = w k + η d y x -skaláris forma i [ ] i[ ] ( ) i ( n) ( n) +, ha x C ahol d ( n) =, ha x C2 4) vesszük a következ elemet a tanító halmazból Addig ismételjük a ciklust, amíg az osztályozás minden bemeneti vektorra helyes. ADALINE mesterséges neuronháló. LMS (Least Mean Square) algoritmus Az ADALINE neuron abban különbözik a perceptron-tól, hogy a hibát nem a kimeneten, hanem a lineáris kimenet alapján számoljuk ki. Az LMS algoritmust ismert Widrow Hoff algoritmus, vagy delta-szabály. Az ADALINE felépítését a következ ábra szemlélteti 2 halmazból a) a súlyzók inicializálása w k (0) = 0, k =,2,..., N b) a háló kimenetének a kiszámolása egy bemeneti vektorra a tanítási N y = j = 0 w j x j c) kiszámoljuk a hibát, mint a várt kimenet és a lineáris kimenet közötti különbséget d) módosítjuk a súlyzókat a delta- szabályt alkalmazva

5 Egy feldolgozó elem nemlineáris aktiváló függvénnyel A súlyzók módosítása abban az esetben, ha a neuron nemlineáris aktivációs függvényt tartalmaz, a következ képlet alapján alakul: w ( k + ) = w( + µε f ( s) x( ahol ε ( = ( d( y( ) az elvárt érték és a háló kimenetén kapott érték közötti különbség, f ( s) az aktivációs függvény deriváltja, w súlyvektor, x a bemeneti vektor, µ pedig a tanítási együttható. Példa feladat: Tervezzünk egy neuronhálót, amelyet 3x3 mátrixon ábrázolt karakterek azonosítására alkalmazunk. A feladat megoldásának fontosabb lépései: ) A tanítandó karakterek tervezése (meghatározása) 2) A háló be és kimeneteinek a meghatározása 3) A neuronháló struktúrájának a meghatározása 4) A tanítóhalmaz felépítése 5) A háló tanítása 6) A háló tesztelése csak elhívási fázist alkalmazva Végezzük el a háló tanítását két esetre majd hasonlítsuk össze a kapott megoldásokat. Els változatban két karakterre, majd négy karakterre végezzük el a háló tanítását. Két karakteres megoldásnál alkalmazzuk a következ karaktereket A neuronháló bemeneteinek a számát a karakter pixelek száma (a neuronháló változó bemenetei), valamint egy konstans érték bemenet együttesen adja. A neuronháló kimenetei számának a meghatározására két megoldást javasolunk. Ha két karakterünk van a háló kimenetét binárisan lehet kódolni. Például a T karakternek feleljen meg logikai igaz, a H karakternek pedig logikai hamis. Ennek megfelelen a háló egyetlen PERCEPTRON típusú neuronnal megvalósítható. Ebben az esetben a háló tanítása könnyen elvégezhet. Igen ám, de ennek a megoldásnak van egy hátránya. 3

6 Mesterséges Intelligencia Labor Ha hibás karaktert viszünk a bemenetre, attól függen, hogy melyik karakterhez hasonlít jobban vagy T, vagy H karakternek ismeri fel a háló, a valóságban pedig egy harmadik karakterrl van szó. A hibás karaktereknek a felismerésére a megoldás a következ: annyi kimenete legyen a neuronhálónak mint az osztályozandó karakterek száma. Ebben a megközelítésben minden egyes karakterhez hozzárendelünk egy perceptron típusú neuront. Ha a helyes karakter kerül a háló bemenetére a karakternek megfelel neuron kimenete aktív lesz, míg hibás karakter esetében a háló kimenetee nulla marad. Ha több karaktert kell osztályozni a hálónak annyi kimenete lesz ahány karakter. Az következ táblázatokban a tanítóhalmazok alakulása van feltüntetve a három esetnek megfelelen.. táblázat Két karakter egy kimenet Bemenetek Elvárt kimenet

7 2. táblázat Két karakter két kimenet Bemenetek Elvárt kimenet táblázat 4 karakter 4 kimenet Bemenetek Elvárt kimenet A kimenetek kódolása függ az alkalmazott aktivációs függvény típusától. Küszöbfüggvényt alkalmazva a kimeneteket 0, el kodoljuk, lépcsfüggvény esetében pedig -,. A tanítás több tanítási ciklust tartalmaz. Egy tanítási ciklus a következ lépéseket tartalmazza a) a tanítóhalmazból a következ karakter bevitele a neuronháló bemenetére b) a háló kimenetének kiszámolása c) a hiba kiszámolása az elvárt kimenet és a kiszámolt háló kimenete között d) a súlyzók tanítása e) a hiba összegzése A tanítási ciklusokat addig kell ismételni, amíg a hiba egy meghatározott érték alá nem csökken. Mivel elre a tanítási ciklusoknak a száma ismeretlen, egyszerübb ha elre meghatározzuk a tanítási ciklusok számát, majd ellenrizzk, hogy a hiba eléggé lecsökkent-e? Ha a hiba a tanítás után a meghatározott küszöbérték alá csökkent, a tanítást befejezetnek mínsítjük. Ellentkez esetben tanítási együtthatót módosítva, tanítási ciklusok számát növelve megismételjük a neuronháló tanítását. A tanító halmazon kívül egy tesztel halmazt is fel kel építeni. A tesztel halmaz nem csak ideális, hanem zajos, hibás karaktereket is tartalmaz. A tesztel halmaz minden elemére kiszámoljuk a háló kimenetét. Minden egyes tanítási ciklusban minden egyes karaktert beviszünk a háló bemenetére A tanítóhalmazt két külön mátrixban van tárolva. A T mátrix tartalmazza a karakterek kódolását a d mátrix pedig tartalmazza a kimenetek kódolását. A T mátrix méretét tanulmányozva, azt látjuk, hogy egy-el több oszlopot tartalmaz mint a 3-as táblázatban bemutatott tanító halmaz. Ennek oka, hogy a konstans érték bemenet is bekerült a tanító halmazba. Amint látható a T mátrix els oszlopának minden egyes eleme -es. Az els oszlop reprezentálja a konstans érték bemeneteket. A tanítás során a konstans értékeket is tanítani kell. A konstans értéknek a tanító halmazba való bevitelével azt érjük el, hogy ehhez a bemenethez kapcsolódó sulyzó reprezentálja a konstans értéket aminek a tanítása egyszerre fog történni a változó bemenetekhez kapcsolodó súlyzókkal. Az alábbi példában 4 karakter tanítása van szemléltetve T=[ ; 0 0 ; ; 5

8 Mesterséges Intelligencia Labor ]; Amint látható a kimenetek kódolásából aktivációs függvényként lépcsfüggvényt alkalmaztunk d=[ - - -; - - -; - - -; ]; A következ sorban a súlyzómátrixok véletlenszer inicializálása látható. A súlyzómátrix sorainak a számát meghatározza a neuronháló bemeneteinek a száma, míg a súlyzómátrix oszlopainak a számát meghatározza a neuronk (a hálo kimeneteine a száma w=(rand(0,4)-0.5)*a; a tanítási együttható [0 ] közötti értéket vehet fel. Túl nagy tanítási együtthatót választva a tanulás divergensé válhat. Túl kicsi tanítási együttható lassú tanulsát eredményez. A tanítást ciklus többször lefutatva különböz tanítási együtthatókra meghatározhatóak azon tannítási együthatóknak az értéke, amely a legyorsabb tanulást eredményezi. u=0.05; Az alábbi programrész tartalmazza a háló tanítását. Amint látható a programban két ciklus különíthet el. A bels ciklus biztosítja a tanító halmazból minden egyes karakter tanítását. A küls ciklus határozza meg a tanítási ciklusoknak a számát. for i=:n E(i)=0; for j=:4 x=t(j,:)'; %- a j-ik elem kiválasztása a tanítóhalmazból s=w'*x; %az inger kiszámolása y=sign(s); % a háló kimenetének a kiszámolása h=d(j,:)'-y; % a hiba kiszámolása w=w+u*x*h'; % a súlyzok tanítása E(i)=E(i)+h'*h; % a hiba összegzése egy tanítási ciklusra. A hibát egy vektorban tároljuk, a vektor minden egyes eleme egyes tanítási ciklusokban kapott hibákat tartalmazzák. Grafikusan ábrázolva a hibát következtetni lehet a háló tanulásának alakulására. end end plot(e); grid on; title('négyzetes hiba változása') xlabel('cikluslépés') ylabel('négyzetes hiba') A tesztelési fázis a következ programrészben van szemléltetve. Amint látható a tesztelés csak elhívási fázist tartalmaz, és megyegyezik a tanítás során az elhívási fázisaal, azzal a különbséggel, hogy a bemeneteket a Teszt_halmaz nev mátrix tartalmazza. 6

9 for j=:4 x=teszt_halmaz(j,:)'; s=w'*x; y=sign(s); end %- a j-ik elem kiválasztása a tanítóhalmazból %az inger kiszámolása % a háló kimenetének a kiszámolása Gyakorlati feladatok kérdések ) Tervezzünk egy-egy neurális hálót az ÉS, VAGY, XOR logikai függvények megvalósítására. Probáljuk a súlyzók értékét analitikusan meghatározni, majd a háló tanítására alkalmazzuk a delta-szabályt 2) Tervezzünk egy neuronhálót melynek bemeneteit egy 3x3 as mátrixon ábrázolt bemeneti vektorból kapjuk. A hálót tanítsuk meg a T és H karakterek felismerésére. Hasonlítsuk össze a PERCEPTRON és ADALINE algoritmusokat a tanítási hiba függvényében, valamint tanulmányozzuk a hiba változását különböz tanítási együtthatókra. 3) Módosítsuk a háló topológiáját úgy, hogy négy különböz karaktert tudjunk osztályozni. Végezzük el a tanítást különböz tanítási együtthatókra, és hasonlítsuk össze a PERCEPTRON és ADALINE algoritmusokat. 4) Vezessük le a w ( k + ) = w( + µεf ( s) x( tanítási képletet, ha a neuron nemlineáris aktivációs függvényt tartalmaz, kiindulva a következ képletbl: 2 ε ( wi ( k + ) = wi ( µ w ( i 7

I. LABOR -Mesterséges neuron

I. LABOR -Mesterséges neuron I. LABOR -Mesterséges neuron A GYAKORLAT CÉLJA: A mesterséges neuron struktúrájának az ismertetése, neuronhálókkal kapcsolatos elemek, alapfogalmak bemutatása, aktivációs függvénytípusok szemléltetése,

Részletesebben

Intelligens Rendszerek Gyakorlata. Neurális hálózatok I.

Intelligens Rendszerek Gyakorlata. Neurális hálózatok I. : Intelligens Rendszerek Gyakorlata Neurális hálózatok I. dr. Kutor László http://mobil.nik.bmf.hu/tantargyak/ir2.html IRG 3/1 Trend osztályozás Pnndemo.exe IRG 3/2 Hangulat azonosítás Happy.exe IRG 3/3

Részletesebben

E x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes)

E x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes) 6-7 ősz. gyakorlat Feladatok.) Adjon meg azt a perceptronon implementált Bayes-i klasszifikátort, amely kétdimenziós a bemeneti tér felett szeparálja a Gauss eloszlású mintákat! Rajzolja le a bemeneti

Részletesebben

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók Előadó: Előadás anyaga: Hullám Gábor Pataki Béla Dobrowiecki Tadeusz BME I.E. 414, 463-26-79

Részletesebben

Bevezetés a neurális számításokba Analóg processzortömbök,

Bevezetés a neurális számításokba Analóg processzortömbök, Pannon Egyetem Villamosmérnöki és Információs Tanszék Bevezetés a neurális számításokba Analóg processzortömbök, neurális hálózatok Előadó: dr. Tömördi Katalin Neurális áramkörök (ismétlés) A neurális

Részletesebben

Neurális hálózatok bemutató

Neurális hálózatok bemutató Neurális hálózatok bemutató Füvesi Viktor Miskolci Egyetem Alkalmazott Földtudományi Kutatóintézet Miért? Vannak feladatok amelyeket az agy gyorsabban hajt végre mint a konvencionális számítógépek. Pl.:

Részletesebben

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Keresés képi jellemzők alapján Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Lusta gépi tanulási algoritmusok Osztályozás: k=1: piros k=5: kék k-legközelebbi szomszéd (k=1,3,5,7)

Részletesebben

Intelligens orvosi műszerek VIMIA023

Intelligens orvosi műszerek VIMIA023 Intelligens orvosi műszerek VIMIA023 Neurális hálók (Dobrowiecki Tadeusz anyagának átdolgozásával) 2017 ősz http://www.mit.bme.hu/oktatas/targyak/vimia023 dr. Pataki Béla pataki@mit.bme.hu (463-)2679 A

Részletesebben

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,

Részletesebben

Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás

Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás http:/uni-obuda.hu/users/kutor/ IRE 7/50/1 A neurális hálózatok általános jellemzői 1. A

Részletesebben

[1000 ; 0] 7 [1000 ; 3000]

[1000 ; 0] 7 [1000 ; 3000] Gépi tanulás (vimim36) Gyakorló feladatok 04 tavaszi félév Ahol lehet, ott konkrét számértékeket várok nem puszta egyenleteket. (Azok egy részét amúgyis megadom.). Egy bináris osztályozási feladatra tanított

Részletesebben

Hibadetektáló rendszer légtechnikai berendezések számára

Hibadetektáló rendszer légtechnikai berendezések számára Hibadetektáló rendszer légtechnikai berendezések számára Tudományos Diákköri Konferencia A feladatunk Légtechnikai berendezések Monitorozás Hibadetektálás Újrataníthatóság A megvalósítás Mozgásérzékelő

Részletesebben

Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban

Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban Intelligens Rendszerek Elmélete : dr. Kutor László Versengéses és önszervező tanulás neurális hálózatokban http://mobil.nik.bmf.hu/tantargyak/ire.html Login név: ire jelszó: IRE07 IRE 9/1 Processzor Versengéses

Részletesebben

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Számítógépes képelemzés 7. előadás Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Momentumok Momentum-alapú jellemzők Tömegközéppont Irányultáság 1 2 tan 2 1 2,0 1,1 0, 2 Befoglaló

Részletesebben

Intelligens Rendszerek Elmélete

Intelligens Rendszerek Elmélete Intelligens Rendszerek Elmélete Dr. Kutor László : Mesterséges neurális hálózatok felügyelt tanítása hiba visszateresztő Back error Propagation algoritmussal Versengéses tanulás http://mobil.nik.bmf.hu/tantargyak/ire.html

Részletesebben

Ipari kemencék PID irányítása

Ipari kemencék PID irányítása Ipari kemencék PID irányítása 1. A gyakorlat célja: Az ellenállással melegített ipari kemencék modelljének meghatározása. A Opelt PID tervezési módszer alkalmazása ipari kemencék irányítására. Az ipari

Részletesebben

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017. Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017. Vizuális feldolgozórendszerek feladatai Mesterséges intelligencia és idegtudomány Mesterséges intelligencia és idegtudomány Párhuzamos problémák

Részletesebben

Gépi tanulás a gyakorlatban. Bevezetés

Gépi tanulás a gyakorlatban. Bevezetés Gépi tanulás a gyakorlatban Bevezetés Motiváció Nagyon gyakran találkozunk gépi tanuló alkalmazásokkal Spam detekció Karakter felismerés Fotó címkézés Szociális háló elemzés Piaci szegmentáció analízis

Részletesebben

NEURÁLIS HÁLÓZATOK 1. eloadás 1

NEURÁLIS HÁLÓZATOK 1. eloadás 1 NEURÁLIS HÁLÓZATOKH 1. eloadás 1 Biológiai elozmények nyek: az agy Az agy az idegrendszerunk egyik legfontosabb része: - képes adatokat tárolni, - gyorsan és hatékonyan mukodik, - nagy a megbízhatósága,

Részletesebben

Modellezés és szimuláció. Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék

Modellezés és szimuláció. Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék Modellezés és szimuláció Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék Kvantitatív forradalmak a földtudományban - geográfiában 1960- as évek eleje: statisztika 1970- as évek eleje:

Részletesebben

FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE

FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE Dr. Aradi Szilárd, Fehér Árpád Mesterséges intelligencia kialakulása 1956 Dartmouth-i konferencián egy maroknyi tudós megalapította a MI területét

Részletesebben

Robotok inverz geometriája

Robotok inverz geometriája Robotok inverz geometriája. A gyakorlat célja Inverz geometriai feladatot megvalósító függvények implementálása. A megvalósított függvénycsomag tesztelése egy kétszabadságfokú kar előírt végberendezés

Részletesebben

Ipari mintavételes PID szabályozóstruktúra megvalósítása

Ipari mintavételes PID szabályozóstruktúra megvalósítása Ipari mintavételes PID szabályozóstruktúra megvalósítása 1. A gyakorlat célja Készítsen diszkrét PID szabályozót megvalósító programot C++, obiektumorientált környezetben. Teszteléssel igazolja a szabályozó

Részletesebben

Lineáris egyenletrendszerek

Lineáris egyenletrendszerek Lineáris egyenletrendszerek 1 Alapfogalmak 1 Deníció Egy m egyenletb l álló, n-ismeretlenes lineáris egyenletrendszer általános alakja: a 11 x 1 + a 12 x 2 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + + a

Részletesebben

Neurális hálózatok.... a gyakorlatban

Neurális hálózatok.... a gyakorlatban Neurális hálózatok... a gyakorlatban Java NNS Az SNNS Javás változata SNNS: Stuttgart Neural Network Simulator A Tübingeni Egyetemen fejlesztik http://www.ra.cs.unituebingen.de/software/javanns/ 2012/13.

Részletesebben

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31. Regresszió Csorba János Nagyméretű adathalmazok kezelése 2010. március 31. A feladat X magyarázó attribútumok halmaza Y magyarázandó attribútumok) Kérdés: f : X -> Y a kapcsolat pár tanítópontban ismert

Részletesebben

1. Alapfogalmak Algoritmus Számítási probléma Specifikáció Algoritmusok futási ideje

1. Alapfogalmak Algoritmus Számítási probléma Specifikáció Algoritmusok futási ideje 1. Alapfogalmak 1.1. Algoritmus Az algoritmus olyan elemi műveletekből kompozíciós szabályok szerint felépített összetett művelet, amelyet megadott feltételt teljesítő bemeneti adatra végrehajtva, a megkívánt

Részletesebben

Taylor-polinomok. 1. Alapfeladatok. 2015. április 11. 1. Feladat: Írjuk fel az f(x) = e 2x függvény másodfokú Maclaurinpolinomját!

Taylor-polinomok. 1. Alapfeladatok. 2015. április 11. 1. Feladat: Írjuk fel az f(x) = e 2x függvény másodfokú Maclaurinpolinomját! Taylor-polinomok 205. április.. Alapfeladatok. Feladat: Írjuk fel az fx) = e 2x függvény másodfokú Maclaurinpolinomját! Megoldás: A feladatot kétféle úton is megoldjuk. Az els megoldásban induljunk el

Részletesebben

Közönséges differenciál egyenletek megoldása numerikus módszerekkel: egylépéses numerikus eljárások

Közönséges differenciál egyenletek megoldása numerikus módszerekkel: egylépéses numerikus eljárások Közönséges differenciál egyenletek megoldása numerikus módszerekkel: egylépéses numerikus eljárások Bevezetés Ebben a cikkben megmutatjuk, hogyan használhatóak a Mathematica egylépéses numerikus eljárásai,

Részletesebben

Algoritmusok Tervezése. 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás

Algoritmusok Tervezése. 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás Algoritmusok Tervezése 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás Mi az algoritmus? Lépések sorozata egy feladat elvégzéséhez (legáltalánosabban) Informálisan algoritmusnak nevezünk bármilyen jól definiált

Részletesebben

Irányításelmélet és technika II.

Irányításelmélet és technika II. Irányításelmélet és technika II. Legkisebb négyzetek módszere Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki és Információs Rendszerek Tanszék amagyar@almos.vein.hu 200 november

Részletesebben

Fényerősség. EV3 programleírás. Használt rövidítések. A program működésének összegzése

Fényerősség. EV3 programleírás. Használt rövidítések. A program működésének összegzése EV3 programleírás A 11- es program egy 60W- os hagyományos izzó fényerősségét méri (más típusú izzókkal is használható) tíz pontnál, 5 cm- es intervallumokra felosztva. Használt rövidítések ol Külső ciklus

Részletesebben

Függvények növekedési korlátainak jellemzése

Függvények növekedési korlátainak jellemzése 17 Függvények növekedési korlátainak jellemzése A jellemzés jól bevált eszközei az Ω, O, Θ, o és ω jelölések. Mivel az igények általában nemnegatívak, ezért az alábbi meghatározásokban mindenütt feltesszük,

Részletesebben

7. Szisztolikus rendszerek (Eberhard Zehendner)

7. Szisztolikus rendszerek (Eberhard Zehendner) 7. Szisztolikus rendszerek (Eberhard Zehendner) A szisztolikus rács a speciális feladatot ellátó számítógépek legtökéletesebb formája legegyszerubb esetben csupán egyetlen számítási muvelet ismételt végrehajtására

Részletesebben

Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok

Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok Zrínyi Miklós Gimnázium Művészet és tudomány napja Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok 10/9/2009 Dr. Viharos Zsolt János Elsősorban volt Zrínyis diák Tudományos főmunkatárs

Részletesebben

Mély neuronhálók alkalmazása és optimalizálása

Mély neuronhálók alkalmazása és optimalizálása magyar nyelv beszédfelismerési feladatokhoz 2015. január 10. Konzulens: Dr. Mihajlik Péter A megvalósítandó feladatok Irodalomkutatás Nyílt kutatási eszközök keresése, beszédfelismer rendszerek tervezése

Részletesebben

HORVÁTH ZSÓFIA 1. Beadandó feladat (HOZSAAI.ELTE) ápr 7. 8-as csoport

HORVÁTH ZSÓFIA 1. Beadandó feladat (HOZSAAI.ELTE) ápr 7. 8-as csoport 10-es Keressünk egy egész számokat tartalmazó négyzetes mátrixban olyan oszlopot, ahol a főátló alatti elemek mind nullák! Megolda si terv: Specifika cio : A = (mat: Z n m,ind: N, l: L) Ef =(mat = mat`)

Részletesebben

Adatbányászati szemelvények MapReduce környezetben

Adatbányászati szemelvények MapReduce környezetben Adatbányászati szemelvények MapReduce környezetben Salánki Ágnes salanki@mit.bme.hu 2014.11.10. Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs Rendszerek Tanszék Felügyelt

Részletesebben

Gépi tanulás a gyakorlatban. Lineáris regresszió

Gépi tanulás a gyakorlatban. Lineáris regresszió Gépi tanulás a gyakorlatban Lineáris regresszió Lineáris Regresszió Legyen adott egy tanuló adatbázis: Rendelkezésünkre áll egy olyan előfeldolgozott adathalmaz, aminek sorai az egyes ingatlanokat írják

Részletesebben

Algoritmusok helyességének bizonyítása. A Floyd-módszer

Algoritmusok helyességének bizonyítása. A Floyd-módszer Algoritmusok helyességének bizonyítása A Floyd-módszer Algoritmusok végrehajtása Egy A algoritmus esetében a változókat három változótípusról beszélhetünk, melyeket az X, Y és Z vektorokba csoportosítjuk

Részletesebben

BAGME11NNF Munkavédelmi mérnökasszisztens Galla Jánosné, 2011.

BAGME11NNF Munkavédelmi mérnökasszisztens Galla Jánosné, 2011. BAGME11NNF Munkavédelmi mérnökasszisztens Galla Jánosné, 2011. 1 Mérési hibák súlya és szerepe a mérési eredményben A mérési hibák csoportosítása A hiba rendűsége Mérési bizonytalanság Standard és kiterjesztett

Részletesebben

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363 1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái 262/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák

Részletesebben

Grafikus folyamatmonitorizálás

Grafikus folyamatmonitorizálás Grafikus folyamatmonitorizálás 1. A gyakorlat célja Ipari folyamatok irányítását megvalósító program alapjának megismerése, fejlesztése, lassú folyamatok grafikus monitorizálásának megvalósítása. 2. Elméleti

Részletesebben

Függvények július 13. Határozza meg a következ határértékeket! 1. Feladat: x 0 7x 15 x ) = lim. x 7 x 15 x ) = (2 + 0) = lim.

Függvények július 13. Határozza meg a következ határértékeket! 1. Feladat: x 0 7x 15 x ) = lim. x 7 x 15 x ) = (2 + 0) = lim. Függvények 205. július 3. Határozza meg a következ határértékeket!. Feladat: 2. Feladat: 3. Feladat: 4. Feladat: (2 + 7 5 ) (2 + 7 5 ) (2 + 0 ) (2 + 7 5 ) (2 + 7 5 ) (2 + 0) (2 + 0 7 5 ) (2 + 0 7 5 ) (2

Részletesebben

Kovács Ernő 1, Füvesi Viktor 2

Kovács Ernő 1, Füvesi Viktor 2 Kovács Ernő 1, Füvesi Viktor 2 1 Miskolci Egyetem, Elektrotechnikai - Elektronikai Tanszék 2 Miskolci Egyetem, Alkalmazott Földtudományi Kutatóintézet 1 HU-3515 Miskolc-Egyetemváros 2 HU-3515 Miskolc-Egyetemváros,

Részletesebben

Végeselem modellezés alapjai 1. óra

Végeselem modellezés alapjai 1. óra Végeselem modellezés alapjai. óra Gyenge alak, Tesztfüggvény, Lagrange-féle alakfüggvény, Stiness mátrix Kivonat Az óra célja, hogy megismertesse a végeselem módszer (FEM) alkalmazását egy egyszer probléma,

Részletesebben

LINEÁRIS PROGRAMOZÁSI FELADATOK MEGOLDÁSA SZIMPLEX MÓDSZERREL

LINEÁRIS PROGRAMOZÁSI FELADATOK MEGOLDÁSA SZIMPLEX MÓDSZERREL LINEÁRIS PROGRAMOZÁSI FELADATOK MEGOLDÁSA SZIMPLEX MÓDSZERREL x 1-2x 2 6 -x 1-3x 3 = -7 x 1 - x 2-3x 3-2 3x 1-2x 2-2x 3 4 4x 1-2x 2 + x 3 max Alapfogalmak: feltételrendszer (narancs színnel jelölve), célfüggvény

Részletesebben

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 8 VIII. REGREssZIÓ 1. A REGREssZIÓs EGYENEs Két valószínűségi változó kapcsolatának leírására az eddigiek alapján vagy egy numerikus

Részletesebben

MBNK12: Permutációk (el adásvázlat, április 11.) Maróti Miklós

MBNK12: Permutációk (el adásvázlat, április 11.) Maróti Miklós MBNK12: Permutációk el adásvázlat 2016 április 11 Maróti Miklós 1 Deníció Az A halmaz permutációin a π : A A bijektív leképezéseket értjünk Tetsz leges n pozitív egészre az {1 n} halmaz összes permutációinak

Részletesebben

Hajlított tartó elmozdulásmez jének meghatározása Ritz-módszerrel

Hajlított tartó elmozdulásmez jének meghatározása Ritz-módszerrel Hajlított tartó elmozdulásmez jének meghatározása Ritz-módszerrel Segédlet az A végeselem módszer alapjai tárgy 4. laborgyakorlatához http://www.mm.bme.hu/~kossa/vemalap4.pdf Kossa Attila (kossa@mm.bme.hu)

Részletesebben

Vektorterek. Wettl Ferenc február 17. Wettl Ferenc Vektorterek február / 27

Vektorterek. Wettl Ferenc február 17. Wettl Ferenc Vektorterek február / 27 Vektorterek Wettl Ferenc 2015. február 17. Wettl Ferenc Vektorterek 2015. február 17. 1 / 27 Tartalom 1 Egyenletrendszerek 2 Algebrai struktúrák 3 Vektortér 4 Bázis, dimenzió 5 Valós mátrixok és egyenletrendszerek

Részletesebben

3. Előadás. Megyesi László: Lineáris algebra, oldal. 3. előadás Lineáris egyenletrendszerek

3. Előadás. Megyesi László: Lineáris algebra, oldal. 3. előadás Lineáris egyenletrendszerek 3. Előadás Megyesi László: Lineáris algebra, 47. 50. oldal. Gondolkodnivalók Determinánsok 1. Gondolkodnivaló Determinánselméleti tételek segítségével határozzuk meg a következő n n-es determinánst: 1

Részletesebben

Konvexitás, elaszticitás

Konvexitás, elaszticitás DIFFERENCIÁLSZÁMÍTÁS ALKALMAZÁSAI Konveitás, elaszticitás Tanulási cél A másodrendű deriváltat vizsgálva milyen következtetéseket vonhatunk le a üggvény konveitására vonatkozóan. Elaszticitás ogalmának

Részletesebben

Bázistranszformáció és alkalmazásai 2.

Bázistranszformáció és alkalmazásai 2. Bázistranszformáció és alkalmazásai 2. Lineáris algebra gyakorlat Összeállította: Bogya Norbert Tartalomjegyzék 1 Mátrix rangja 2 Mátrix inverze 3 Mátrixegyenlet Mátrix rangja Tartalom 1 Mátrix rangja

Részletesebben

Egyszerű programozási tételek

Egyszerű programozási tételek Egyszerű programozási tételek 2. előadás Sergyán Szabolcs sergyan.szabolcs@nik.uni-obuda.hu Óbudai Egyetem Neumann János Informatikai Kar 2011. szeptember 15. Sergyán (OE NIK) AAO 02 2011. szeptember 15.

Részletesebben

Érdekes informatika feladatok

Érdekes informatika feladatok A keres,kkel és adatbázissal ellátott lengyel honlap számos díjat kapott: Spirit of Delphi '98, Delphi Community Award, Poland on the Internet, Golden Bagel Award stb. Az itt megtalálható komponenseket

Részletesebben

Gauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei

Gauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei A Gauss-Jordan elimináció, mátrixinvertálás Gauss-Jordan módszer Ugyanazzal a technikával, mint ahogy a k-adik oszlopban az a kk alatti elemeket kinulláztuk, a fölötte lévő elemeket is zérussá lehet tenni.

Részletesebben

Kibernetika korábbi vizsga zárthelyi dolgozatokból válogatott tesztkérdések Figyelem! Az alábbi tesztek csak mintául szolgálnak a tesztkérdések megoldásához, azaz a bemagolásuk nem jelenti a tananyag elsajátítását

Részletesebben

Teljesen elosztott adatbányászat pletyka algoritmusokkal. Jelasity Márk Ormándi Róbert, Hegedűs István

Teljesen elosztott adatbányászat pletyka algoritmusokkal. Jelasity Márk Ormándi Róbert, Hegedűs István Teljesen elosztott adatbányászat pletyka algoritmusokkal Jelasity Márk Ormándi Róbert, Hegedűs István Motiváció Nagyméretű hálózatos elosztott alkalmazások az Interneten egyre fontosabbak Fájlcserélő rendszerek

Részletesebben

Irányításelmélet és technika II.

Irányításelmélet és technika II. Irányításelmélet és technika II. Modell-prediktív szabályozás Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki és Információs Rendszerek Tanszék amagyar@almos.vein.hu 2010 november

Részletesebben

TARTALOMJEGYZÉK. TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS A lágy számításról A könyv célkitűzése és felépítése...

TARTALOMJEGYZÉK. TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS A lágy számításról A könyv célkitűzése és felépítése... TARTALOMJEGYZÉK TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS...1 1. A lágy számításról...2 2. A könyv célkitűzése és felépítése...6 AZ ÖSSZETEVŐ LÁGY RENDSZEREK...9 I. BEVEZETÉS...10 3. Az összetevő

Részletesebben

A félév során előkerülő témakörök

A félév során előkerülő témakörök A félév során előkerülő témakörök rekurzív algoritmusok rendező algoritmusok alapvető adattípusok, adatszerkezetek, és kapcsolódó algoritmusok dinamikus programozás mohó algoritmusok gráf algoritmusok

Részletesebben

Gépi tanulás Gregorics Tibor Mesterséges intelligencia

Gépi tanulás Gregorics Tibor Mesterséges intelligencia Gépi tanulás Tanulás fogalma Egy algoritmus akkor tanul, ha egy feladat megoldása során olyan változások következnek be a működésében, hogy később ugyanazt a feladatot vagy ahhoz hasonló más feladatokat

Részletesebben

Programozási módszertan. Függvények rekurzív megadása "Oszd meg és uralkodj" elv, helyettesítő módszer, rekurziós fa módszer, mester módszer

Programozási módszertan. Függvények rekurzív megadása Oszd meg és uralkodj elv, helyettesítő módszer, rekurziós fa módszer, mester módszer PM-03 p. 1/13 Programozási módszertan Függvények rekurzív megadása "Oszd meg és uralkodj" elv, helyettesítő módszer, rekurziós fa módszer, mester módszer Werner Ágnes Villamosmérnöki és Információs Rendszerek

Részletesebben

January 16, ψ( r, t) ψ( r, t) = 1 (1) ( ψ ( r,

January 16, ψ( r, t) ψ( r, t) = 1 (1) ( ψ ( r, Közelítő módszerek January 16, 27 1 A variációs módszer A variációs módszer szintén egy analitikus közelítő módszer. Olyan esetekben alkalmazzuk mikor ismert az analitikus alak amelyben keressük a sajátfüggvényt,

Részletesebben

Diszkréten mintavételezett függvények

Diszkréten mintavételezett függvények Diszkréten mintavételezett függvények A függvény (jel) értéke csak rögzített pontokban ismert, de köztes pontokban is meg akarjuk becsülni időben mintavételezett jel pixelekből álló műholdkép rácson futtatott

Részletesebben

Példatár a bevezetés a Matlab programozásába tárgyhoz

Példatár a bevezetés a Matlab programozásába tárgyhoz Példatár a bevezetés a Matlab programozásába tárgyhoz Sáfár Orsolya 1 Ciklusszervezés 1. Írjunk egy olyan szorzotabla(n,m) nev függvényt, melynek bemenete n és m pozitív egészek, és a kimenete egy mátrix,

Részletesebben

Forgalmi modellezés BMEKOKUM209

Forgalmi modellezés BMEKOKUM209 BME Közlekedésüzemi és Közlekedésgazdasági Tanszék Forgalmi modellezés BMEKOKUM209 Szimulációs modellezés Dr. Juhász János A forgalmi modellezés célja A közlekedési igények bővülése és a motorizáció növekedése

Részletesebben

Digitális technika házi feladat III. Megoldások

Digitális technika házi feladat III. Megoldások IV. Szinkron hálózatok Digitális technika házi feladat III. Megoldások 1. Adja meg az alábbi állapottáblával megadott 3 kimenetű sorrendi hálózat minimális állapotgráfját! a b/x1x c/x0x b d/xxx e/x0x c

Részletesebben

Bevezetés a programozásba. 5. Előadás: Tömbök

Bevezetés a programozásba. 5. Előadás: Tömbök Bevezetés a programozásba 5. Előadás: Tömbök ISMÉTLÉS Specifikáció Előfeltétel: milyen körülmények között követelünk helyes működést Utófeltétel: mit várunk a kimenettől, mi az összefüggés a kimenet és

Részletesebben

Stratégiák tanulása az agyban

Stratégiák tanulása az agyban Statisztikai tanulás az idegrendszerben, 2019. Stratégiák tanulása az agyban Bányai Mihály banyai.mihaly@wigner.mta.hu http://golab.wigner.mta.hu/people/mihaly-banyai/ Kortárs MI thispersondoesnotexist.com

Részletesebben

Gibbs-jelenség viselkedésének vizsgálata egyszer négyszögjel esetén

Gibbs-jelenség viselkedésének vizsgálata egyszer négyszögjel esetén Matematikai modellek, I. kisprojekt Gibbs-jelenség viselkedésének vizsgálata egyszer négyszögjel esetén Unger amás István B.Sc. szakos matematikus hallgató ungert@maxwell.sze.hu, http://maxwell.sze.hu/~ungert

Részletesebben

Megoldott feladatok november 30. n+3 szigorúan monoton csökken, 5. n+3. lim a n = lim. n+3 = 2n+3 n+4 2n+1

Megoldott feladatok november 30. n+3 szigorúan monoton csökken, 5. n+3. lim a n = lim. n+3 = 2n+3 n+4 2n+1 Megoldott feladatok 00. november 0.. Feladat: Vizsgáljuk az a n = n+ n+ sorozat monotonitását, korlátosságát és konvergenciáját. Konvergencia esetén számítsuk ki a határértéket! : a n = n+ n+ = n+ n+ =

Részletesebben

Support Vector Machines

Support Vector Machines Support Vector Machnes Ormánd Róbert MA-SZE Mest. Int. Kutatócsoport 2009. február 17. Előadás vázlata Rövd bevezetés a gép tanulásba Bevezetés az SVM tanuló módszerbe Alapötlet Nem szeparálható eset Kernel

Részletesebben

Online algoritmusok. Algoritmusok és bonyolultságuk. Horváth Bálint március 30. Horváth Bálint Online algoritmusok március 30.

Online algoritmusok. Algoritmusok és bonyolultságuk. Horváth Bálint március 30. Horváth Bálint Online algoritmusok március 30. Online algoritmusok Algoritmusok és bonyolultságuk Horváth Bálint 2018. március 30. Horváth Bálint Online algoritmusok 2018. március 30. 1 / 28 Motiváció Gyakran el fordul, hogy a bemenetet csak részenként

Részletesebben

Permutációk véges halmazon (el adásvázlat, február 12.)

Permutációk véges halmazon (el adásvázlat, február 12.) Permutációk véges halmazon el adásvázlat 2008 február 12 Maróti Miklós Ennek az el adásnak a megértéséhez a következ fogalmakat kell tudni: ismétlés nélküli variáció leképezés indulási és érkezési halmaz

Részletesebben

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363 1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái 288/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák

Részletesebben

Algoritmizálás és adatmodellezés tanítása 2. előadás

Algoritmizálás és adatmodellezés tanítása 2. előadás Algoritmizálás és adatmodellezés tanítása 2. előadás Tartalom Összegzés vektorra, mátrixra Megszámolás vektorra, mátrixra Maximum-kiválasztás vektorra, mátrixra Eldöntés vektorra, mátrixra Kiválasztás

Részletesebben

Szinkronizmusból való kiesés elleni védelmi funkció

Szinkronizmusból való kiesés elleni védelmi funkció Budapest, 2011. december Szinkronizmusból való kiesés elleni védelmi funkció Szinkronizmusból való kiesés elleni védelmi funkciót főleg szinkron generátorokhoz alkalmaznak. Ha a generátor kiesik a szinkronizmusból,

Részletesebben

Analóg-digitál átalakítók (A/D konverterek)

Analóg-digitál átalakítók (A/D konverterek) 9. Laboratóriumi gyakorlat Analóg-digitál átalakítók (A/D konverterek) 1. A gyakorlat célja: Bemutatjuk egy sorozatos közelítés elvén működő A/D átalakító tömbvázlatát és elvi kapcsolási rajzát. Tanulmányozzuk

Részletesebben

Debreceni Egyetem Informatikai Kar. Fazekas István. Neurális hálózatok

Debreceni Egyetem Informatikai Kar. Fazekas István. Neurális hálózatok Debreceni Egyetem Informatikai Kar Fazekas István Neurális hálózatok Debrecen, 2013 Szerző: Dr. Fazekas István egyetemi tanár Bíráló: Dr. Karácsony Zsolt egyetemi docens A tananyag a TÁMOP-4.1.2.A/1-11/1-2011-0103

Részletesebben

Határozott integrál és alkalmazásai

Határozott integrál és alkalmazásai Határozott integrál és alkalmazásai 5. május 5.. Alapfeladatok. Feladat: + d = Megoldás: Egy határozott integrál kiszámolása a feladat. Ilyenkor a Newton-Leibniz-tételt használhatjuk, mely azt mondja ki,

Részletesebben

Sorozatok, sorozatok konvergenciája

Sorozatok, sorozatok konvergenciája Sorozatok, sorozatok konvergenciája Elméleti áttekintés Minden konvergens sorozat korlátos Minden monoton és korlátos sorozat konvergens Legyen a n ) n egy sorozat és ϕ : N N egy szigorúan növekvő függvény

Részletesebben

Térinformatikai algoritmusok Elemi algoritmusok

Térinformatikai algoritmusok Elemi algoritmusok Cserép Máté Analóg programozásnak nevezzük azt, amikor egy feladat megoldásához egy már ismert és megoldott feladat megoldását használjuk fel. Általában nem pontosan ugyanazt a feladatot oldottuk meg korábban,

Részletesebben

Sztöchiometriai egyenletrendszerek minimális számú aktív változót tartalmazó megoldásainak meghatározása a P-gráf módszertan alkalmazásával

Sztöchiometriai egyenletrendszerek minimális számú aktív változót tartalmazó megoldásainak meghatározása a P-gráf módszertan alkalmazásával Sztöchiometriai egyenletrendszerek minimális számú aktív változót tartalmazó megoldásainak meghatározása a P-gráf módszertan alkalmazásával * Pannon Egyetem, M szaki Informatikai Kar, Számítástudomány

Részletesebben

Neurális hálózatok MATLAB programcsomagban

Neurális hálózatok MATLAB programcsomagban Debreceni Egyetem Informatikai Kar Neurális hálózatok MATLAB programcsomagban Témavezető: Dr. Fazekas István Egyetemi tanár Készítette: Horváth József Programtervező informatikus Debrecen 2011 1 Tartalomjegyzék

Részletesebben

Dinamikus modellek szerkezete, SDG modellek

Dinamikus modellek szerkezete, SDG modellek Diagnosztika - 3. p. 1/2 Modell Alapú Diagnosztika Diszkrét Módszerekkel Dinamikus modellek szerkezete, SDG modellek Hangos Katalin PE Villamosmérnöki és Információs Rendszerek Tanszék Diagnosztika - 3.

Részletesebben

Pontműveletek. Sergyán Szabolcs Óbudai Egyetem Neumann János Informatikai Kar február 20.

Pontműveletek. Sergyán Szabolcs Óbudai Egyetem Neumann János Informatikai Kar február 20. Pontműveletek Sergyán Szabolcs sergyan.szabolcs@nik.uni-obuda.hu Óbudai Egyetem Neumann János Informatikai Kar 2012. február 20. Sergyán (OE NIK) Pontműveletek 2012. február 20. 1 / 40 Felhasznált irodalom

Részletesebben

Véges állapotú gépek (FSM) tervezése

Véges állapotú gépek (FSM) tervezése Véges állapotú gépek (FSM) tervezése F1. A 2. gyakorlaton foglalkoztunk a 3-mal vagy 5-tel osztható 4 bites számok felismerésével. Abban a feladatban a bemenet bitpárhuzamosan, azaz egy időben minden adatbit

Részletesebben

Mérési struktúrák

Mérési struktúrák Mérési struktúrák 2007.02.19. 1 Mérési struktúrák A mérés művelete: a mérendő jellemző és a szimbólum halmaz közötti leképezés megvalósítása jel- és rendszerelméleti aspektus mérési folyamat: a leképezést

Részletesebben

Konvolúciós neurális hálózatok (CNN)

Konvolúciós neurális hálózatok (CNN) Konvolúciós neurális hálózatok (CNN) Konvolúció Jelfeldolgozásban: Diszkrét jelek esetén diszkrét konvolúció: Képfeldolgozásban 2D konvolúció (szűrők): Konvolúciós neurális hálózat Konvolúciós réteg Kép,

Részletesebben

Matematika A2 vizsga mgeoldása június 4.

Matematika A2 vizsga mgeoldása június 4. Matematika A vizsga mgeoldása 03. június.. (a (3 pont Definiálja az f(x, y függvény határértékét az (x 0, y 0 helyen! Megoldás: Legyen D R, f : D R. Legyen az f(x, y függvény értelmezve az (x 0, y 0 pont

Részletesebben

Differenciálegyenletek numerikus megoldása

Differenciálegyenletek numerikus megoldása a Matematika mérnököknek II. című tárgyhoz Differenciálegyenletek numerikus megoldása Fokozatos közeĺıtés módszere (1) (2) x (t) = f (t, x(t)), x I, x(ξ) = η. Az (1)-(2) kezdeti érték probléma ekvivalens

Részletesebben

Lineáris algebra gyakorlat

Lineáris algebra gyakorlat Lineáris algebra gyakorlat 7. gyakorlat Gyakorlatvezet : Bogya Norbert 2012. március 26. Ismétlés Tartalom 1 Ismétlés 2 Koordinátasor 3 Bázistranszformáció és alkalmazásai Vektorrendszer rangja Mátrix

Részletesebben

SCILAB programcsomag segítségével

SCILAB programcsomag segítségével Felhasználói függvények de niálása és függvények 3D ábrázolása SCILAB programcsomag segítségével 1. Felhasználói függvények de niálása A Scilab programcsomag rengeteg matematikai függvényt biztosít a számítások

Részletesebben

2. Laboratóriumi gyakorlat A TERMISZTOR. 1. A gyakorlat célja. 2. Elméleti bevezető

2. Laboratóriumi gyakorlat A TERMISZTOR. 1. A gyakorlat célja. 2. Elméleti bevezető . Laboratóriumi gyakorlat A EMISZO. A gyakorlat célja A termisztorok működésének bemutatása, valamint főbb paramétereik meghatározása. Az ellenállás-hőmérséklet = f és feszültség-áram U = f ( I ) jelleggörbék

Részletesebben

Térinformatikai algoritmusok Elemi algoritmusok

Térinformatikai algoritmusok Elemi algoritmusok Cserép Máté 2016. szeptember 14. Analóg programozásnak nevezzük azt, amikor egy feladat megoldásához egy már ismert és megoldott feladat megoldását használjuk fel. Általában nem pontosan ugyanazt a feladatot

Részletesebben

Ensemble előrejelzések: elméleti és gyakorlati háttér HÁGEL Edit Országos Meteorológiai Szolgálat Numerikus Modellező és Éghajlat-dinamikai Osztály 34

Ensemble előrejelzések: elméleti és gyakorlati háttér HÁGEL Edit Országos Meteorológiai Szolgálat Numerikus Modellező és Éghajlat-dinamikai Osztály 34 Ensemble előrejelzések: elméleti és gyakorlati háttér HÁGEL Edit Országos Meteorológiai Szolgálat Numerikus Modellező és Éghajlat-dinamikai Osztály 34. Meteorológiai Tudományos Napok Az előadás vázlata

Részletesebben

Funkcionális és logikai programozás. { Márton Gyöngyvér, 2012} { Sapientia, Erdélyi Magyar Tudományegyetem }

Funkcionális és logikai programozás. { Márton Gyöngyvér, 2012} { Sapientia, Erdélyi Magyar Tudományegyetem } Funkcionális és logikai programozás { Márton Gyöngyvér, 2012} { Sapientia, Erdélyi Magyar Tudományegyetem } http://www.ms.sapientia.ro/~mgyongyi ` 1 Jelenlét: Követelmények, osztályozás Az első 4 előadáson

Részletesebben

1. Kombinációs hálózatok mérési gyakorlatai

1. Kombinációs hálózatok mérési gyakorlatai 1. Kombinációs hálózatok mérési gyakorlatai 1.1 Logikai alapkapuk vizsgálata A XILINX ISE DESIGN SUITE 14.7 WebPack fejlesztőrendszer segítségével és töltse be a rendelkezésére álló SPARTAN 3E FPGA ba:

Részletesebben