Bevezetés a neurális számításokba Analóg processzortömbök,

Méret: px
Mutatás kezdődik a ... oldaltól:

Download "Bevezetés a neurális számításokba Analóg processzortömbök,"

Átírás

1 Pannon Egyetem Villamosmérnöki és Információs Tanszék Bevezetés a neurális számításokba Analóg processzortömbök, neurális hálózatok Előadó: dr. Tömördi Katalin

2 Neurális áramkörök (ismétlés) A neurális hálózatokban a neuronok egy szabályos geometriai rácson helyezkednek el, melyek egy processzor réteget alkotnak ( v 2 dimenziós). Több réteg összekapcsolásával kapjuk a teljes neurális hálózatot. A programot a rétegek közötti és a rétegen belüli összeköttetések súlytényezői jelentik. Tervezési irányok: élő szervezetek részletes modelljeinek elektronikai utánzása idegrendszeri működés struktúrájának és az elemi neuron-működés modelljének utánzása tipikus kanonikus optimálási eljárások, komplex fizikai, kémiai effektusok áramköri megoldásba transzformálása. 2

3 A tanulási szabályok főbb típusai tanítással/tanítóval tanulás (Ellenőrzött vagy felügyelt tanítás) amikor a bemenetekhez a kívánt kimeneteket is megadjuk, ismerjük. A kívánt és számított válaszok alapján módosítjuk a súlytényezőket, cél, hogy a különbség csökkenjen. Megerősítő tanulás amikor csak azt tudjuk, hogy a válasz helyes vagy nem tanítás/tanító nélkül ( Nem ellenőrzött vagy felügyelet nélküli tanítás) Nem ismerjük a kívánt válaszokat. Valamilyen adaptív úton a bemenetek sorozata alapján a beépített tanuló algoritmus valamilyen szempont szerint osztályokat alkot (és egyben módosítja saját magát - azaz az összeköttetések súlytényezőit) ezért önszervező hálózatnak is hívják Analitikus tanítás - direkt eljárással a súlytényezőket a feladatból elméleti úton, zárt formában kapjuk meg.. 3

4 Ellenőrzött tanulás Összetartozó be-ki meneti tanító mintapárokkal Neurális hálónk, vagyis a megtanított rendszer a vizsgált rendszer valamilyen modelljeként jelenjen meg, működése a rendszer működésének feleljen meg, - modell illesztési feladat (ábra) d=g(u,n), n zaj-hatások y= ĝ(u) modell illesztés, itt a paramétereken keresztül y= ĝ(w,u) kifejezőbb. Az illesztési feladat ekkor minimalizálási, szélsőérték keresési feladat, ahol C(d,y) kritérium fv. minimumát keressük w függvényében. 4

5 . 5

6 Ellenőrzött tanulás Kritérium függvény C=f(d,y) Leggyakrabb valamilyen négyzetes hibakritérium: C( d,y) = E d - y d - y = E d y j {( ) T ( )} ( ) 2 j j Lehet még pl.: abszolút érték fv., annak hatványai, lin. Kombinációi, igen-nem fv.. 6

7 Ellenőrzött tanulás szélsőérték keresés A kritérium fv minimumát, szélsőértékét kereső eljárások leginkább gradiens alapúak: C [ C( w) ] = = 0 w Megerősítő tanulásnál csak azt tudjuk,helyes-e a válasz (lehet több is), csak kritika van (learning with a critic) nincs hiba mérték, nincs gradiens. Ez a módszer akkor lehet jó, ha több jó válasz van ugyanarra a bementre. Sztochasztikus eljárások Gradiens módszerek hátránya lokális minimumokban benn ragadhat, ezért véletlen zaj segítségét használják. 7

8 Ellenőrzött tanulás szélsőérték keresés Véletlen keresés: (Ha nem ismerjük a kritérium felületet) Pl. ha a próbált paraméterhez tartozó kritérium érték az előzőnél kisebb, akkor ez lesz a következő lépés kiinduló pontja, egyébként a régi, és úgy keresünk tovább Előzőek kombinációi Genetikus algoritmus: itt nem egy pont mozog a vizsgálat szempontjából a kritérium felületen, hanem egyszerre több ponton értékelünk. jellemző: kereszteződés, mutáció, reprodukció. 8

9 Nem ellenőrzött tanulás Nincsenek kívánt kimenetek megadva Hebb tanulás (biológiai eredetű) két elem közti w az elemek aktivitásának szorzatával arányosan nő: w ( k+ ) = w ( k) µ x y w ( k+ ) = w ( k) +µ x y ij ij i j Anti Hebb: ij ij i j A különböző változatainál normalizáló eljárások használatosak súlyok ne növekedjenek minden határon túl. 9

10 Nem ellenőrzött tanulás Versengő A processzáló elem-elrendezésben egy győztest válasszunk ki. A győztes PE kimenete aktiv, a többié 0. A cél a bemeneti mintatér olyan tartományokra osztása, hogy minden egyes tartományba tartozó bemenet hatására egy, és csakis egy elem aktivizálódjon. Két lépés van:. kiszámoljuk minden elem kimenetét, kiválasztjuk a győztest, amely a győztes mindent visz elv alapján működik. 2. csak az ő vagy még a környezete súlytényezőit is módosítjuk. 0

11 Nem ellenőrzött tanulás Győztes PE beállítása pl. az oldalirányú súlytényezők beállításával: közeli PE-k között gerjesztő, távoliknál gátló kapcsolat: Mexikói kalap fv..

12 Analitikus tanulás Energia fv. pl.: Hopfield CNN (Cellular Neural Network). 2

13 Ellenőrzött tanulás A perceptron (Rosenblatt) tanulása x x 2 x 0 = n p p.0 ha I > 0 yi = f wijxj = f ( I) = j= ha I 0 f p : bináris küszöbelem H H 2 H T u T... u T w i n n w i2 I f p y i =f p (I) I = wij xj = wi 0 + wij xj j= 0 j= u u TT w in x x T x n A tanulás szakaszosan történik. Egy tanulási szakasz (epoch) alatt egy adott bemenet(sorozat)ból kiszámít a neurális hálózat egy kimenetet (sorozatot) és ennek értékétől függően megváltoztatjuk a súlytényezősorozat (a program ) értékét.. 3

14 A perceptron tanulása A tanulás szabályai: ha az adott bemenet mellett számított kimenet jó (y i = d i ), akkor az ezen PEhez tartozó súlytényezőket (w ij ) nem változtatjuk; ha y i = 0, de d i =, akkor növeljük az "aktív" inputok (melyek zérusnál nagyobbak) súlytényezőit; ha y i =, de d i = 0, akkor csökkentjük az "aktív" inputok súlytényezőit. A fenti növelések és csökkentések mértéke sokféle lehet, tipikusan: rögzített növekmény, a (d i -y i ) -vel arányos növekmény vagy az előző kettő kombinációja.. 4

15 A perceptron tanulása és a lineáris szeparálhatóság A kétbemenetű perceptron I=w x +w 2 x 2 +w 0 egyenletének megoldása az (x, x 2 ) kétdimenziós síkon egy egyenest ad. Ez az egyenes tehát lineárisan szeparálja azon (x, x 2 ) értékek halmazát, amelyek 0 kimenetet adnak azoktól, melyek -et adnak. Az XOR (exclusive or) logikai függvény igazságtáblázata azonban az alábbi ábrán látható ebben a koordináta rendszerben. x 2 másik logikai kimenet x 2 egyik logikai kimenetet adó (x,x 2 ) párok halmaza x x. 5

16 lineáris szeparálhatóság Megoldás: rejtett réteget vezetünk be, vagy magasabb dimenzióban probálkozunk lineáris szétválasztással. Az utóbbi esetben egy új input változót alkalmazunk, legyen x3 = x x2 azaz x x2 x3 y Ekkor az bemeneti állapotokat térben ábrázolhatjuk és ezeket a pontokat már egy síkkal szét tudjuk választani: Térben lineárisan szeparálható XOR függvény 6

17 Perceptron tanulása - Példa x x 2 w w 2 x 0 = w 0 f( ) f ( d y) = + Az ábrán látható perceptron ki- ill. bementének k C C n ( x) y 2 ha x > 0 = 0 ha x 0 lehetséges értékei a 0 (inaktív) és az (aktív). A tanulási szabály kimondja, hogy ha a kívánt és a számolt kimenet megegyezik, akkor a súlytényezők értékei nem változnak, ellenkező esetben pedig, ha a kimenet aktív kellene legyen, de nem az, akkor növeljük, míg ha a kimenet passzív kellene legyen, de nem az, akkor csökkentjük az aktív bemenetekhez tartozó súlytényezőket. A hálózatnak az ÉS műveletet fogjuk megtanítani, mely az alábbi 4 szabályt jelenti: x 0 0 x d

18 Perceptron tanulása - Példa A két tanulási együtthatót C =0 ill. C 2 =0.-nek választjuk, azaz fix növekményt (k=c 2 ) használunk. Mindhárom súlytényező értékét kezdetben 0.08-nak választva a táblázatban nyomonkövethetjük a tanulás folyamatát. Ennek során ( I wx ) i i = először kiszámoljuk a súlyozott összeget, majd a kimenetet (y=f(i)), és végül hiba (e 0) esetén ±k-val módosítjuk az aktív bemenetekhez (x i =) tartozó súlytényezőket.. 8

19 Perceptron tanulása - Példa w 0 w w 2 x x 2 d i y e

20 Adaline - Példa Az Adaline felépítése lényegében megegyezik a perceptronéval, azzal a különbséggel, hogy itt a be- és kimenetek értéke {-,+ } és a következő Widrow-Hoff tanulási szabályt alkalmazzuk: w = w + C ( d I) x n ' i i i Látható, hogy itt a hiba valamekkora részét (C-től függően) egyenletesen elosztjuk az összes súlytényező között és minden lépésben mindegyik értékét ennek megfelelően változtatjuk. w 0 x w x 0 = k = C f ( x) f( ) y ( d I) n ha x > 0 = - ha x 0 x 2 w 2. 20

21 Adaline - Példa f k = C ( x) ( d I) n ha x > 0 = - ha x 0 C = 0.5 e = d I e = d y A C értékét egynél kisebbre (C=0.5) választva könnyedén megtaníthatjuk az ÉS műveletet w 0 w w 2 x x 2 d I y e e

22 Ellenőrzött tanulás Tanulási szabályok: Backpropagation (hibavisszaterjesztés) A backpropagation a többrétegű hálózatoknál alkalmazott hibavisszaterjesztés módszere. Az elemi processzálóegység a perceptronhoz hasonló felépítésű, azzal a különbséggel, hogy a kimenet a rejtett rétegeken [ s] [ s] ( j ) [ s] yj = f I = + ( I ) j e szigmoid karakterisztika adja meg, ahol s-sel a réteg számát jelöljük. A tanítás algoritmusa a következő:. Az x bemeneti vektorból kiindulva, rétegenként kiszámoljuk a kimeneteket, s végül eljutunk a hálózat y kimenetéhez. 2. A kimeneti réteg minden processzáló elemére előbb kiszámítjuk a lokális hibát: e j =d j y j, majd ennek felhasználásával a hozzátartozó súlytényezők megváltozását: [ s] [ s] [ s ] () w = C e y ij j i. 22

23 Tanulási szabályok: Backpropagation (hibavisszaterjesztés) 3. Az összes rejtett réteg minden processzáló elemére hátulról előre haladva számoljuk ki előbb a lokális hibákat: majd pedig a [ s] [ s] [ s ] egyenlettel a súlytényező-változást..0.0 w = C e y ij j i [ s+ n ] [ s] [ s] ( [ s] ) [ s+ ] s+ j = j j k kj k = e y y e w 4. Módosítjuk a hálózat összes súlytényezőjét a kapott értékekkel. [ ] x 0 f( ) y w 0 w f( ) y.0 w w w 2 w 0 f( ) y 0 w y 20 2 w 2 x f( ) f( ) 2 w 22 y 2. 23

24 A hibavisszaterjesztés módszere (részletesebben) Adott az -3 rejtett rétegű előrecsatolt struktúra, szigmoid karakterisztikájú, folytonos működésű elemekkel. A leíró egyenletek : n [ s] [ s] [ s ] [ s] [ s] I j = wij yi ; yj = f I j = ; s=, 2,..., r r = max 4 s I j i= + e Feltesszük, hogy: Létezik egy globális hibafüggvény E. Csak ennyit, a formáját sem írjuk elő, [] [ 2] [ ] csak azt, hogy: ˆ r s E = E I, I,..., I ; j =,2,..., n, amely tehát az I j [] -ek függvénye, továbbá A lokális hiba legyen ( z) = + e ( ) [ ] ( ) ( ) [ ] j j j e [ s] j E = I [ s] j (gradiens tipus) valamint A kimeneti (r-edik) rétegen a lokális hiba e j [r] adott. Pl. lehet d j -y j [r]. f Z. 24

25 A hibavisszaterjesztés módszere Alaplépés: Ha adottak a lokális hibák az (s+)-edik rétegen, akkor kiszámítjuk a lokális hibákat az s-edik rétegen: [ ] s+ s+ [ s+ n ] [ s] E E I ( [ ]) k E I y k j ' s [ s+ ] [ s+ ] j = = [ s] = [ s+ ] [ s] = [ s+ ] [ s] [ s] j k kj Ij k Ik Ij k Ik yj Ij k= e f I e w tehát a hibavisszaszámító egyenlet: [ s+ n ] [ s] [ s] ( [ s] ) [ s+ ] s+ j = j j k kj k = e y y e w [ ] [ ] [ s]. 25

26 A hibavisszaterjesztés módszere A további levezetés ebből ismét a láncszabály alkalmazásával történik: Standard legmeredekebb csökkenés módszerével (c: tanuló együttható): [ s] E wij c [ s w ] A tanulási szabály tehát: Ahol: = E E I j s [ s ] = [ s ] = e [ s] j y ji w I w [ s] ji j ji [ s] [ s] [ s ] ji j i ( ij) w = c e y + m [ ] [ s ] i Legyen a globális hibafüggvény: réteg, itt f(z)=z, ezért E = d y 2 k ( [ o] ) 2 k k, ahol o a kimeneti [ o] E E e = = = d y [ o] [ o] I y ( [ o] ) k k k k k

27 A hibavisszaterjesztés módszere, számítás Számítás:. Adottak az input (u) kívánt output (d) párok és a w jk [s] kezdeti súlytényező értékek. u alapján kiszámítjuk az y j -ket minden réteg minden PE-jére. Tanulás: 2. A kimeneti rétegen f(z)=z, így és w = c e y. 3. Minden rejtett rétegben kiszámítjuk a hibát a hibavisszaszámító egyenlettel ( ) [ o] [ o] e : = d y j j j [ o] [ o] ji j i lépésenként az első rejtett rétegig és kiszámítjuk ugyanilyen sorrendben a súlytényező változásokat (illetve ezekből az új súlytényező értékeket): [ s] [ s] [ s ] ji j i ( ij) w = c e y + m [ s+ n ] [ s] [ s] ( [ s] ) [ s+ ] s+ j = j j k kj k = e y y e w [ ] x.0 0 f( ) y.0 w 0 w w 2 f( ) y w w 2 w 0 f( ) y 0 w y 20 2 w 2 x f( ) f( ) 2 w 22 y 2. 27

28 A hibavisszaterjesztés módszere, számítás. 28

Intelligens Rendszerek Gyakorlata. Neurális hálózatok I.

Intelligens Rendszerek Gyakorlata. Neurális hálózatok I. : Intelligens Rendszerek Gyakorlata Neurális hálózatok I. dr. Kutor László http://mobil.nik.bmf.hu/tantargyak/ir2.html IRG 3/1 Trend osztályozás Pnndemo.exe IRG 3/2 Hangulat azonosítás Happy.exe IRG 3/3

Részletesebben

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók Előadó: Előadás anyaga: Hullám Gábor Pataki Béla Dobrowiecki Tadeusz BME I.E. 414, 463-26-79

Részletesebben

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31. Regresszió Csorba János Nagyméretű adathalmazok kezelése 2010. március 31. A feladat X magyarázó attribútumok halmaza Y magyarázandó attribútumok) Kérdés: f : X -> Y a kapcsolat pár tanítópontban ismert

Részletesebben

Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban

Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban Intelligens Rendszerek Elmélete : dr. Kutor László Versengéses és önszervező tanulás neurális hálózatokban http://mobil.nik.bmf.hu/tantargyak/ire.html Login név: ire jelszó: IRE07 IRE 9/1 Processzor Versengéses

Részletesebben

Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás

Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás http:/uni-obuda.hu/users/kutor/ IRE 7/50/1 A neurális hálózatok általános jellemzői 1. A

Részletesebben

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Keresés képi jellemzők alapján Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Lusta gépi tanulási algoritmusok Osztályozás: k=1: piros k=5: kék k-legközelebbi szomszéd (k=1,3,5,7)

Részletesebben

Intelligens Rendszerek Elmélete

Intelligens Rendszerek Elmélete Intelligens Rendszerek Elmélete Dr. Kutor László : Mesterséges neurális hálózatok felügyelt tanítása hiba visszateresztő Back error Propagation algoritmussal Versengéses tanulás http://mobil.nik.bmf.hu/tantargyak/ire.html

Részletesebben

Intelligens orvosi műszerek VIMIA023

Intelligens orvosi műszerek VIMIA023 Intelligens orvosi műszerek VIMIA023 Neurális hálók (Dobrowiecki Tadeusz anyagának átdolgozásával) 2017 ősz http://www.mit.bme.hu/oktatas/targyak/vimia023 dr. Pataki Béla pataki@mit.bme.hu (463-)2679 A

Részletesebben

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,

Részletesebben

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Számítógépes képelemzés 7. előadás Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Momentumok Momentum-alapú jellemzők Tömegközéppont Irányultáság 1 2 tan 2 1 2,0 1,1 0, 2 Befoglaló

Részletesebben

TARTALOMJEGYZÉK. TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS A lágy számításról A könyv célkitűzése és felépítése...

TARTALOMJEGYZÉK. TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS A lágy számításról A könyv célkitűzése és felépítése... TARTALOMJEGYZÉK TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS...1 1. A lágy számításról...2 2. A könyv célkitűzése és felépítése...6 AZ ÖSSZETEVŐ LÁGY RENDSZEREK...9 I. BEVEZETÉS...10 3. Az összetevő

Részletesebben

Neurális hálózatok bemutató

Neurális hálózatok bemutató Neurális hálózatok bemutató Füvesi Viktor Miskolci Egyetem Alkalmazott Földtudományi Kutatóintézet Miért? Vannak feladatok amelyeket az agy gyorsabban hajt végre mint a konvencionális számítógépek. Pl.:

Részletesebben

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017. Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017. Vizuális feldolgozórendszerek feladatai Mesterséges intelligencia és idegtudomány Mesterséges intelligencia és idegtudomány Párhuzamos problémák

Részletesebben

Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok

Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok Zrínyi Miklós Gimnázium Művészet és tudomány napja Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok 10/9/2009 Dr. Viharos Zsolt János Elsősorban volt Zrínyis diák Tudományos főmunkatárs

Részletesebben

Neurális hálózatok.... a gyakorlatban

Neurális hálózatok.... a gyakorlatban Neurális hálózatok... a gyakorlatban Java NNS Az SNNS Javás változata SNNS: Stuttgart Neural Network Simulator A Tübingeni Egyetemen fejlesztik http://www.ra.cs.unituebingen.de/software/javanns/ 2012/13.

Részletesebben

Dinamikus modellek szerkezete, SDG modellek

Dinamikus modellek szerkezete, SDG modellek Diagnosztika - 3. p. 1/2 Modell Alapú Diagnosztika Diszkrét Módszerekkel Dinamikus modellek szerkezete, SDG modellek Hangos Katalin PE Villamosmérnöki és Információs Rendszerek Tanszék Diagnosztika - 3.

Részletesebben

I. LABOR -Mesterséges neuron

I. LABOR -Mesterséges neuron I. LABOR -Mesterséges neuron A GYAKORLAT CÉLJA: A mesterséges neuron struktúrájának az ismertetése, neuronhálókkal kapcsolatos elemek, alapfogalmak bemutatása, aktivációs függvénytípusok szemléltetése,

Részletesebben

Gauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei

Gauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei A Gauss-Jordan elimináció, mátrixinvertálás Gauss-Jordan módszer Ugyanazzal a technikával, mint ahogy a k-adik oszlopban az a kk alatti elemeket kinulláztuk, a fölötte lévő elemeket is zérussá lehet tenni.

Részletesebben

Gépi tanulás a gyakorlatban. Lineáris regresszió

Gépi tanulás a gyakorlatban. Lineáris regresszió Gépi tanulás a gyakorlatban Lineáris regresszió Lineáris Regresszió Legyen adott egy tanuló adatbázis: Rendelkezésünkre áll egy olyan előfeldolgozott adathalmaz, aminek sorai az egyes ingatlanokat írják

Részletesebben

Kovács Ernő 1, Füvesi Viktor 2

Kovács Ernő 1, Füvesi Viktor 2 Kovács Ernő 1, Füvesi Viktor 2 1 Miskolci Egyetem, Elektrotechnikai - Elektronikai Tanszék 2 Miskolci Egyetem, Alkalmazott Földtudományi Kutatóintézet 1 HU-3515 Miskolc-Egyetemváros 2 HU-3515 Miskolc-Egyetemváros,

Részletesebben

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,

Részletesebben

Számítógépes döntéstámogatás. Genetikus algoritmusok

Számítógépes döntéstámogatás. Genetikus algoritmusok BLSZM-10 p. 1/18 Számítógépes döntéstámogatás Genetikus algoritmusok Werner Ágnes Villamosmérnöki és Információs Rendszerek Tanszék e-mail: werner.agnes@virt.uni-pannon.hu BLSZM-10 p. 2/18 Bevezetés 1950-60-as

Részletesebben

E x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes)

E x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes) 6-7 ősz. gyakorlat Feladatok.) Adjon meg azt a perceptronon implementált Bayes-i klasszifikátort, amely kétdimenziós a bemeneti tér felett szeparálja a Gauss eloszlású mintákat! Rajzolja le a bemeneti

Részletesebben

Hibadetektáló rendszer légtechnikai berendezések számára

Hibadetektáló rendszer légtechnikai berendezések számára Hibadetektáló rendszer légtechnikai berendezések számára Tudományos Diákköri Konferencia A feladatunk Légtechnikai berendezések Monitorozás Hibadetektálás Újrataníthatóság A megvalósítás Mozgásérzékelő

Részletesebben

NEURÁLIS HÁLÓZATOK 1. eloadás 1

NEURÁLIS HÁLÓZATOK 1. eloadás 1 NEURÁLIS HÁLÓZATOKH 1. eloadás 1 Biológiai elozmények nyek: az agy Az agy az idegrendszerunk egyik legfontosabb része: - képes adatokat tárolni, - gyorsan és hatékonyan mukodik, - nagy a megbízhatósága,

Részletesebben

II. LABOR Tanulás, Perceptron, Adaline

II. LABOR Tanulás, Perceptron, Adaline II. LABOR Tanulás, Perceptron, Adaline A dolgozat célja a tanító algoritmusok osztályozása, a tanító és tesztel halmaz szerepe a neuronhálók tanításában, a Perceptron és ADALINE feldolgozó elemek struktúrája,

Részletesebben

Irányításelmélet és technika II.

Irányításelmélet és technika II. Irányításelmélet és technika II. Modell-prediktív szabályozás Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki és Információs Rendszerek Tanszék amagyar@almos.vein.hu 2010 november

Részletesebben

Adatbányászati szemelvények MapReduce környezetben

Adatbányászati szemelvények MapReduce környezetben Adatbányászati szemelvények MapReduce környezetben Salánki Ágnes salanki@mit.bme.hu 2014.11.10. Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs Rendszerek Tanszék Felügyelt

Részletesebben

Irányításelmélet és technika II.

Irányításelmélet és technika II. Irányításelmélet és technika II. Legkisebb négyzetek módszere Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki és Információs Rendszerek Tanszék amagyar@almos.vein.hu 200 november

Részletesebben

Intelligens Rendszerek Elmélete

Intelligens Rendszerek Elmélete Intellgens Rendszerek Elmélete Dr. Kutor László A mesterséges neuráls hálózatok alapfogalma és meghatározó eleme http://mobl.nk.bmf.hu/tantargyak/re.html Logn név: re jelszó: IRE07 IRE 7/1 Neuráls hálózatok

Részletesebben

15. LINEÁRIS EGYENLETRENDSZEREK

15. LINEÁRIS EGYENLETRENDSZEREK 15 LINEÁRIS EGYENLETRENDSZEREK 151 Lineáris egyenletrendszer, Gauss elimináció 1 Definíció Lineáris egyenletrendszernek nevezzük az (1) a 11 x 1 + a 12 x 2 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + + a

Részletesebben

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363 1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái 288/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák

Részletesebben

FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE

FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE Dr. Aradi Szilárd, Fehér Árpád Mesterséges intelligencia kialakulása 1956 Dartmouth-i konferencián egy maroknyi tudós megalapította a MI területét

Részletesebben

A szimplex algoritmus

A szimplex algoritmus A szimplex algoritmus Ismétlés: reprezentációs tétel, az optimális megoldás és az extrém pontok kapcsolata Alapfogalmak: bázisok, bázismegoldások, megengedett bázismegoldások, degenerált bázismegoldás

Részletesebben

Optimalizálás alapfeladata Legmeredekebb lejtő Lagrange függvény Log-barrier módszer Büntetőfüggvény módszer 2017/

Optimalizálás alapfeladata Legmeredekebb lejtő Lagrange függvény Log-barrier módszer Büntetőfüggvény módszer 2017/ Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatikai Intézet Számítógépes Optimalizálás Tanszék 9. Előadás Az optimalizálás alapfeladata Keressük f függvény maximumát ahol f : R n R és

Részletesebben

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,

Részletesebben

Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )

Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( ) Budapesti Műszaki és Gazdaságtudományi Egyetem Gépészmérnöki Kar Hidrodinamikai Rendszerek Tanszék, Budapest, Műegyetem rkp. 3. D ép. 334. Tel: 463-6-80 Fa: 463-30-9 http://www.vizgep.bme.hu Alap-ötlet:

Részletesebben

Visszacsatolt (mély) neurális hálózatok

Visszacsatolt (mély) neurális hálózatok Visszacsatolt (mély) neurális hálózatok Visszacsatolt hálózatok kimenet rejtett rétegek bemenet Sima előrecsatolt neurális hálózat Visszacsatolt hálózatok kimenet rejtett rétegek bemenet Pl.: kép feliratozás,

Részletesebben

Dr. Oniga István DIGITÁLIS TECHNIKA 8

Dr. Oniga István DIGITÁLIS TECHNIKA 8 Dr. Oniga István DIGITÁLIS TECHNIA 8 Szekvenciális (sorrendi) hálózatok Szekvenciális hálózatok fogalma Tárolók RS tárolók tárolók T és D típusú tárolók Számlálók Szinkron számlálók Aszinkron számlálók

Részletesebben

Tanulás az idegrendszerben

Tanulás az idegrendszerben Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Funkcióvezérelt modellezés Abból indulunk ki, hogy milyen feladatot valósít meg a rendszer Horace Barlow: "A

Részletesebben

Nemlineáris programozás 2.

Nemlineáris programozás 2. Optimumszámítás Nemlineáris programozás 2. Többváltozós optimalizálás feltételek mellett. Lagrange-feladatok. Nemlineáris programozás. A Kuhn-Tucker feltételek. Konvex programozás. Sydsaeter-Hammond: 18.1-5,

Részletesebben

Algoritmusok Tervezése. Fuzzy rendszerek Dr. Bécsi Tamás

Algoritmusok Tervezése. Fuzzy rendszerek Dr. Bécsi Tamás Algoritmusok Tervezése Fuzzy rendszerek Dr. Bécsi Tamás Bevezetés Mese a homokkupacról és a hidegről és a hegyekről Bevezetés, Fuzzy történet Két értékű logika, Boole algebra Háromértékű logika n értékű

Részletesebben

Norma Determináns, inverz Kondíciószám Direkt és inverz hibák Lin. egyenletrendszerek A Gauss-módszer. Lineáris algebra numerikus módszerei

Norma Determináns, inverz Kondíciószám Direkt és inverz hibák Lin. egyenletrendszerek A Gauss-módszer. Lineáris algebra numerikus módszerei Indukált mátrixnorma Definíció A. M : R n n R mátrixnormát a. V : R n R vektornorma által indukált mátrixnormának nevezzük, ha A M = max { Ax V : x V = 1}. Az indukált mátrixnorma geometriai jelentése:

Részletesebben

b) Ábrázolja ugyanabban a koordinátarendszerben a g függvényt! (2 pont) c) Oldja meg az ( x ) 2

b) Ábrázolja ugyanabban a koordinátarendszerben a g függvényt! (2 pont) c) Oldja meg az ( x ) 2 1) Az ábrán egy ; intervallumon értelmezett függvény grafikonja látható. Válassza ki a felsoroltakból a függvény hozzárendelési szabályát! a) b) c) ( ) ) Határozza meg az 1. feladatban megadott, ; intervallumon

Részletesebben

Egyenletek, egyenlőtlenségek, egyenletrendszerek I.

Egyenletek, egyenlőtlenségek, egyenletrendszerek I. Egyenletek, egyenlőtlenségek, egyenletrendszerek I. DEFINÍCIÓ: (Nyitott mondat) Az olyan állítást, amelyben az alany helyén változó szerepel, nyitott mondatnak nevezzük. A nyitott mondatba írt változót

Részletesebben

Debreceni Egyetem Informatikai Kar. Fazekas István. Neurális hálózatok

Debreceni Egyetem Informatikai Kar. Fazekas István. Neurális hálózatok Debreceni Egyetem Informatikai Kar Fazekas István Neurális hálózatok Debrecen, 2013 Szerző: Dr. Fazekas István egyetemi tanár Bíráló: Dr. Karácsony Zsolt egyetemi docens A tananyag a TÁMOP-4.1.2.A/1-11/1-2011-0103

Részletesebben

Fuzzy rendszerek és neurális hálózatok alkalmazása a diagnosztikában

Fuzzy rendszerek és neurális hálózatok alkalmazása a diagnosztikában Budapesti Műszaki és Gazdaságtudományi Egyetem Fuzzy rendszerek és neurális hálózatok alkalmazása a diagnosztikában Cselkó Richárd 2009. október. 15. Az előadás fő témái Soft Computing technikák alakalmazásának

Részletesebben

[1000 ; 0] 7 [1000 ; 3000]

[1000 ; 0] 7 [1000 ; 3000] Gépi tanulás (vimim36) Gyakorló feladatok 04 tavaszi félév Ahol lehet, ott konkrét számértékeket várok nem puszta egyenleteket. (Azok egy részét amúgyis megadom.). Egy bináris osztályozási feladatra tanított

Részletesebben

Modellezés és szimuláció. Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék

Modellezés és szimuláció. Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék Modellezés és szimuláció Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék Kvantitatív forradalmak a földtudományban - geográfiában 1960- as évek eleje: statisztika 1970- as évek eleje:

Részletesebben

Modellek és Algoritmusok - 2.ZH Elmélet

Modellek és Algoritmusok - 2.ZH Elmélet Modellek és Algoritmusok - 2.ZH Elmélet Ha hibát elírást találsz kérlek jelezd: sellei_m@hotmail.com A fríss/javított változat elérhet : people.inf.elte.hu/semsaai/modalg/ 2.ZH Számonkérés: 3.EA-tól(DE-ek)

Részletesebben

Lineáris algebra gyakorlat

Lineáris algebra gyakorlat Lineáris algebra gyakorlat 7. gyakorlat Gyakorlatvezet : Bogya Norbert 2012. március 26. Ismétlés Tartalom 1 Ismétlés 2 Koordinátasor 3 Bázistranszformáció és alkalmazásai Vektorrendszer rangja Mátrix

Részletesebben

Hidraulikus hálózatok robusztusságának növelése

Hidraulikus hálózatok robusztusságának növelése Dr. Dulovics Dezső Junior Szimpózium 2018. Hidraulikus hálózatok robusztusságának növelése Előadó: Huzsvár Tamás MSc. Képzés, II. évfolyam Témavezető: Wéber Richárd, Dr. Hős Csaba www.hds.bme.hu Az előadás

Részletesebben

1. feladatsor: Vektorterek, lineáris kombináció, mátrixok, determináns (megoldás)

1. feladatsor: Vektorterek, lineáris kombináció, mátrixok, determináns (megoldás) Matematika A2c gyakorlat Vegyészmérnöki, Biomérnöki, Környezetmérnöki szakok, 2017/18 ősz 1. feladatsor: Vektorterek, lineáris kombináció, mátrixok, determináns (megoldás) 1. Valós vektorterek-e a következő

Részletesebben

Konjugált gradiens módszer

Konjugált gradiens módszer Közelítő és szimbolikus számítások 12. gyakorlat Konjugált gradiens módszer Készítette: Gelle Kitti Csendes Tibor Vinkó Tamás Faragó István Horváth Róbert jegyzetei alapján 1 LINEÁRIS EGYENLETRENDSZEREK

Részletesebben

Lineáris regressziós modellek 1

Lineáris regressziós modellek 1 Lineáris regressziós modellek 1 Ispány Márton és Jeszenszky Péter 2016. szeptember 19. 1 Az ábrák C.M. Bishop: Pattern Recognition and Machine Learning c. könyvéből származnak. Tartalom Bevezető példák

Részletesebben

Gépi tanulás Gregorics Tibor Mesterséges intelligencia

Gépi tanulás Gregorics Tibor Mesterséges intelligencia Gépi tanulás Tanulás fogalma Egy algoritmus akkor tanul, ha egy feladat megoldása során olyan változások következnek be a működésében, hogy később ugyanazt a feladatot vagy ahhoz hasonló más feladatokat

Részletesebben

Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)

Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence) Gépi tanulás Hány tanítómintára van szükség? VKH Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Induktív tanulás A tanítás folyamata: Kiinduló

Részletesebben

Kétváltozós függvények differenciálszámítása

Kétváltozós függvények differenciálszámítása Kétváltozós függvények differenciálszámítása 13. előadás Farkas István DE ATC Gazdaságelemzési és Statisztikai Tanszék Kétváltozós függvények p. 1/1 Definíció, szemléltetés Definíció. Az f : R R R függvényt

Részletesebben

Tisztelt Hallgatók! Jó tanulást kívánok, üdvözlettel: Kutor László

Tisztelt Hallgatók! Jó tanulást kívánok, üdvözlettel: Kutor László Tisztelt Hallgatók! Az alábbi anyaga arra ó, hogy lehessen tudni, mi tartozik egy-egy kérdéshez. Ami itt olvasható, az a éghegy csúcsa. Ha alapos tudást akarnak, a éghegy alát önállóan kell hozzá gyűteniük.

Részletesebben

Forgalmi modellezés BMEKOKUM209

Forgalmi modellezés BMEKOKUM209 BME Közlekedésüzemi és Közlekedésgazdasági Tanszék Forgalmi modellezés BMEKOKUM209 Szimulációs modellezés Dr. Juhász János A forgalmi modellezés célja A közlekedési igények bővülése és a motorizáció növekedése

Részletesebben

A lineáris programozás alapfeladata Standard alak Az LP feladat megoldása Az LP megoldása: a szimplex algoritmus 2018/

A lineáris programozás alapfeladata Standard alak Az LP feladat megoldása Az LP megoldása: a szimplex algoritmus 2018/ Operációkutatás I. 2018/2019-2. Szegedi Tudományegyetem Informatika Intézet Számítógépes Optimalizálás Tanszék 2. Előadás LP alapfeladat A lineáris programozás (LP) alapfeladata standard formában Max c

Részletesebben

MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉP SZINT Függvények

MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉP SZINT Függvények MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉP SZINT Függvények A szürkített hátterű feladatrészek nem tartoznak az érintett témakörhöz, azonban szolgálhatnak fontos információval az érintett feladatrészek

Részletesebben

A lineáris programozás alapfeladata Standard alak Az LP feladat megoldása Az LP megoldása: a szimplex algoritmus 2017/

A lineáris programozás alapfeladata Standard alak Az LP feladat megoldása Az LP megoldása: a szimplex algoritmus 2017/ Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatika Intézet Számítógépes Optimalizálás Tanszék 2. Előadás LP alapfeladat A lineáris programozás (LP) alapfeladata standard formában Max c

Részletesebben

Szinguláris értékek. Wettl Ferenc április 3. Wettl Ferenc Szinguláris értékek április 3. 1 / 28

Szinguláris értékek. Wettl Ferenc április 3. Wettl Ferenc Szinguláris értékek április 3. 1 / 28 Szinguláris értékek Wettl Ferenc 2015. április 3. Wettl Ferenc Szinguláris értékek 2015. április 3. 1 / 28 Tartalom 1 Szinguláris érték 2 Alkalmazások 3 Norma 4 Mátrixnorma Wettl Ferenc Szinguláris értékek

Részletesebben

A digitális analóg és az analóg digitális átalakító áramkör

A digitális analóg és az analóg digitális átalakító áramkör A digitális analóg és az analóg digitális átalakító áramkör I. rész Bevezetésként tisztázzuk a címben szereplő két fogalmat. A számítástechnikai kislexikon a következőképpen fogalmaz: digitális jel: olyan

Részletesebben

Digitális jelfeldolgozás

Digitális jelfeldolgozás Digitális jelfeldolgozás Kvantálás Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki és Információs Rendszerek Tanszék magyar.attila@virt.uni-pannon.hu 2010. szeptember 15. Áttekintés

Részletesebben

Gépi tanulás a Rapidminer programmal. Stubendek Attila

Gépi tanulás a Rapidminer programmal. Stubendek Attila Gépi tanulás a Rapidminer programmal Stubendek Attila Rapidminer letöltése Google: download rapidminer Rendszer kiválasztása (iskolai gépeken Other Systems java) Kicsomagolás lib/rapidminer.jar elindítása

Részletesebben

Vektorterek. Wettl Ferenc február 17. Wettl Ferenc Vektorterek február / 27

Vektorterek. Wettl Ferenc február 17. Wettl Ferenc Vektorterek február / 27 Vektorterek Wettl Ferenc 2015. február 17. Wettl Ferenc Vektorterek 2015. február 17. 1 / 27 Tartalom 1 Egyenletrendszerek 2 Algebrai struktúrák 3 Vektortér 4 Bázis, dimenzió 5 Valós mátrixok és egyenletrendszerek

Részletesebben

Megerősítéses tanulás 9. előadás

Megerősítéses tanulás 9. előadás Megerősítéses tanulás 9. előadás 1 Backgammon (vagy Ostábla) 2 3 TD-Gammon 0.0 TD() tanulás (azaz időbeli differencia-módszer felelősségnyomokkal) függvényapproximátor: neuronháló 40 rejtett (belső) neuron

Részletesebben

KONVOLÚCIÓS NEURONHÁLÓK. A tananyag az EFOP pályázat támogatásával készült.

KONVOLÚCIÓS NEURONHÁLÓK. A tananyag az EFOP pályázat támogatásával készült. KONVOLÚCIÓS NEURONHÁLÓK A tananyag az EFOP-3.5.1-16-2017-00004 pályázat támogatásával készült. 1. motiváció A klasszikus neuronháló struktúra a fully connected háló Két réteg között minden neuron kapcsolódik

Részletesebben

Számítógépes döntéstámogatás. Döntések fuzzy környezetben Közelítő következtetések

Számítógépes döntéstámogatás. Döntések fuzzy környezetben Közelítő következtetések BLSZM-09 p. 1/17 Számítógépes döntéstámogatás Döntések fuzzy környezetben Közelítő következtetések Werner Ágnes Villamosmérnöki és Információs Rendszerek Tanszék e-mail: werner.agnes@virt.uni-pannon.hu

Részletesebben

7. Laboratóriumi gyakorlat KIS ELMOZDULÁSOK MÉRÉSE KAPACITÍV ÉS INDUKTÍV MÓDSZERREL

7. Laboratóriumi gyakorlat KIS ELMOZDULÁSOK MÉRÉSE KAPACITÍV ÉS INDUKTÍV MÓDSZERREL 7. Laboratóriumi gyakorlat KIS ELMOZDULÁSOK MÉRÉSE KAPACITÍV ÉS INDUKTÍV MÓDSZERREL 1. A gyakorlat célja Kis elmozulások (.1mm 1cm) mérésének bemutatása egyszerű felépítésű érzékkőkkel. Kapacitív és inuktív

Részletesebben

2012. október 2 és 4. Dr. Vincze Szilvia

2012. október 2 és 4. Dr. Vincze Szilvia 2012. október 2 és 4. Dr. Vincze Szilvia Tartalomjegyzék 1.) Az egyváltozós valós függvény fogalma, műveletek 2.) Zérushely, polinomok zérushelye 3.) Korlátosság 4.) Monotonitás 5.) Szélsőérték 6.) Konvex

Részletesebben

Mérési struktúrák

Mérési struktúrák Mérési struktúrák 2007.02.19. 1 Mérési struktúrák A mérés művelete: a mérendő jellemző és a szimbólum halmaz közötti leképezés megvalósítása jel- és rendszerelméleti aspektus mérési folyamat: a leképezést

Részletesebben

MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉPSZINT Függvények

MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉPSZINT Függvények MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉPSZINT Függvények A szürkített hátterű feladatrészek nem tartoznak az érintett témakörhöz, azonban szolgálhatnak fontos információval az érintett feladatrészek megoldásához!

Részletesebben

Figyelem, próbálja önállóan megoldani, csak ellenőrzésre használja a következő oldalak megoldásait!

Figyelem, próbálja önállóan megoldani, csak ellenőrzésre használja a következő oldalak megoldásait! Elméleti kérdések: Második zárthelyi dolgozat biomatematikából * (Minta, megoldásokkal) E. Mit értünk hatványfüggvényen? Adjon példát nem invertálható hatványfüggvényre. Adjon példát mindenütt konkáv hatványfüggvényre.

Részletesebben

Passzív és aktív aluláteresztő szűrők

Passzív és aktív aluláteresztő szűrők 7. Laboratóriumi gyakorlat Passzív és aktív aluláteresztő szűrők. A gyakorlat célja: A Micro-Cap és Filterlab programok segítségével tanulmányozzuk a passzív és aktív aluláteresztő szűrők elépítését, jelátvitelét.

Részletesebben

Feladatok a Gazdasági matematika II. tárgy gyakorlataihoz

Feladatok a Gazdasági matematika II. tárgy gyakorlataihoz Debreceni Egyetem Közgazdaságtudományi Kar Feladatok a Gazdasági matematika II tárgy gyakorlataihoz a megoldásra ajánlott feladatokat jelöli e feladatokat a félév végére megoldottnak tekintjük a nehezebb

Részletesebben

MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉP SZINT Függvények

MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉP SZINT Függvények MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉP SZINT Függvények ) Az ábrán egy ; intervallumon értelmezett függvény grafikonja látható. Válassza ki a felsoroltakból a függvény hozzárendelési szabályát! a) x

Részletesebben

Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet

Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet / Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet / Tartalom 3/ kernelek segítségével Felügyelt és félig-felügyelt tanulás felügyelt: D =

Részletesebben

Vektorok, mátrixok, lineáris egyenletrendszerek

Vektorok, mátrixok, lineáris egyenletrendszerek a Matematika mérnököknek I. című tárgyhoz Vektorok, mátrixok, lineáris egyenletrendszerek Vektorok A rendezett valós számpárokat kétdimenziós valós vektoroknak nevezzük. Jelölésükre latin kisbetűket használunk.

Részletesebben

Hobbi Elektronika. A digitális elektronika alapjai: További logikai műveletek

Hobbi Elektronika. A digitális elektronika alapjai: További logikai műveletek Hobbi Elektronika A digitális elektronika alapjai: További logikai műveletek 1 Felhasznált anyagok M. Morris Mano and Michael D. Ciletti: Digital Design - With an Introduction to the Verilog HDL, 5th.

Részletesebben

10. gyakorlat Struktúrák, uniók, típusdefiníciók

10. gyakorlat Struktúrák, uniók, típusdefiníciók 10. gyakorlat Struktúrák, uniók, típusdefiníciók Házi - (f0218) Olvass be 5 darab maximum 99 karakter hosszú szót úgy, hogy mindegyiknek pontosan annyi helyet foglalsz, amennyi kell! A sztringeket írasd

Részletesebben

Teljesen elosztott adatbányászat pletyka algoritmusokkal. Jelasity Márk Ormándi Róbert, Hegedűs István

Teljesen elosztott adatbányászat pletyka algoritmusokkal. Jelasity Márk Ormándi Róbert, Hegedűs István Teljesen elosztott adatbányászat pletyka algoritmusokkal Jelasity Márk Ormándi Róbert, Hegedűs István Motiváció Nagyméretű hálózatos elosztott alkalmazások az Interneten egyre fontosabbak Fájlcserélő rendszerek

Részletesebben

Függvények Megoldások

Függvények Megoldások Függvények Megoldások ) Az ábrán egy ; intervallumon értelmezett függvény grafikonja látható. Válassza ki a felsoroltakból a függvény hozzárendelési szabályát! a) x x b) x x + c) x ( x + ) b) Az x függvény

Részletesebben

Monte Carlo módszerek a statisztikus fizikában. Az Ising modell. 8. előadás

Monte Carlo módszerek a statisztikus fizikában. Az Ising modell. 8. előadás Monte Carlo módszerek a statisztikus fizikában. Az Ising modell. 8. előadás Démon algoritmus az ideális gázra időátlag fizikai mennyiségek átlagértéke sokaságátlag E, V, N pl. molekuláris dinamika Monte

Részletesebben

Egyszerű programozási tételek

Egyszerű programozási tételek Egyszerű programozási tételek Sorozatszámítás tétele Például az X tömbben kövek súlyát tároljuk. Ha ki kellene számolni az összsúlyt, akkor az S = f(s, X(i)) helyére S = S + X(i) kell írni. Az f0 tartalmazza

Részletesebben

Gauss-Seidel iteráció

Gauss-Seidel iteráció Közelítő és szimbolikus számítások 5. gyakorlat Iterációs módszerek: Jacobi és Gauss-Seidel iteráció Készítette: Gelle Kitti Csendes Tibor Somogyi Viktor London András Deák Gábor jegyzetei alapján 1 ITERÁCIÓS

Részletesebben

SZÉCHENYI ISTVÁN EGYETEM MŰSZAKI TUDOMÁNYI KAR RENDSZERELEMZÉS I.

SZÉCHENYI ISTVÁN EGYETEM MŰSZAKI TUDOMÁNYI KAR RENDSZERELEMZÉS I. SZÉCHENYI ISTVÁN EGYETEM MŰSZAKI TUDOMÁNYI KAR RENDSZERELEMZÉS I. Minden jog fenntartva, beleértve a sokszorosítás és a mű bővített, vagy rövidített változatának kiadási jogát is. A Szerző előzetes írásbeli

Részletesebben

Gépi tanulás a gyakorlatban. Bevezetés

Gépi tanulás a gyakorlatban. Bevezetés Gépi tanulás a gyakorlatban Bevezetés Motiváció Nagyon gyakran találkozunk gépi tanuló alkalmazásokkal Spam detekció Karakter felismerés Fotó címkézés Szociális háló elemzés Piaci szegmentáció analízis

Részletesebben

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 10 X. SZIMULÁCIÓ 1. VÉLETLEN számok A véletlen számok fontos szerepet játszanak a véletlen helyzetek generálásában (pénzérme, dobókocka,

Részletesebben

Irányításelmélet és technika I.

Irányításelmélet és technika I. Irányításelmélet és technika I Folytonos idejű rendszerek leírása az állapottérben Állapotvisszacsatolást alkalmazó szabályozási körök Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki

Részletesebben

Intelligens Rendszerek Elmélete. Párhuzamos keresés genetikus algoritmusokkal

Intelligens Rendszerek Elmélete. Párhuzamos keresés genetikus algoritmusokkal Intelligens Rendszerek Elmélete Dr. Kutor László Párhuzamos keresés genetikus algoritmusokkal http://mobil.nik.bmf.hu/tantargyak/ire.html login: ire jelszó: IRE0 IRE / A természet általános kereső algoritmusa:

Részletesebben

9. Laboratóriumi gyakorlat NYOMÁSÉRZÉKELŐK

9. Laboratóriumi gyakorlat NYOMÁSÉRZÉKELŐK 9. Laboratóriumi gyakorlat NYOMÁSÉRZÉKELŐK 1.A gyakorlat célja Az MPX12DP piezorezisztiv differenciális nyomásérzékelő tanulmányozása. A nyomás feszültség p=f(u) karakterisztika megrajzolása. 2. Elméleti

Részletesebben

Statisztikai eljárások a mintafelismerésben és a gépi tanulásban

Statisztikai eljárások a mintafelismerésben és a gépi tanulásban Statisztikai eljárások a mintafelismerésben és a gépi tanulásban Varga Domonkos (I.évf. PhD hallgató) 2014 május A prezentáció felépítése 1) Alapfogalmak 2) A gépi tanulás, mintafelismerés alkalmazási

Részletesebben

Követelmény a 7. évfolyamon félévkor matematikából

Követelmény a 7. évfolyamon félévkor matematikából Követelmény a 7. évfolyamon félévkor matematikából Gondolkodási és megismerési módszerek Elemek halmazba rendezése több szempont alapján. Halmazok ábrázolása. A nyelv logikai elemeinek helyes használata.

Részletesebben

Robotok inverz geometriája

Robotok inverz geometriája Robotok inverz geometriája. A gyakorlat célja Inverz geometriai feladatot megvalósító függvények implementálása. A megvalósított függvénycsomag tesztelése egy kétszabadságfokú kar előírt végberendezés

Részletesebben

Problémás regressziók

Problémás regressziók Universitas Eotvos Nominata 74 203-4 - II Problémás regressziók A közönséges (OLS) és a súlyozott (WLS) legkisebb négyzetes lineáris regresszió egy p- változós lineáris egyenletrendszer megoldása. Az egyenletrendszer

Részletesebben

Kalkulus 2., Matematika BSc 1. Házi feladat

Kalkulus 2., Matematika BSc 1. Házi feladat . Házi feladat Beadási határidő: 07.0.. Jelölések x = (x,..., x n, y = (y,..., y n, z = (z,..., z n R n esetén. x, y = n i= x iy i, skalárszorzat R n -ben. d(x, y = x y = n i= (x i y i, metrika R n -ben

Részletesebben

Logaritmikus erősítő tanulmányozása

Logaritmikus erősítő tanulmányozása 13. fejezet A műveleti erősítők Logaritmikus erősítő tanulmányozása A műveleti erősítő olyan elektronikus áramkör, amely a két bemenete közötti potenciálkülönbséget igen nagy mértékben fölerősíti. A műveleti

Részletesebben