Bevezetés a neurális számításokba Analóg processzortömbök,
|
|
- Jázmin Kelemenné
- 7 évvel ezelőtt
- Látták:
Átírás
1 Pannon Egyetem Villamosmérnöki és Információs Tanszék Bevezetés a neurális számításokba Analóg processzortömbök, neurális hálózatok Előadó: dr. Tömördi Katalin
2 Neurális áramkörök (ismétlés) A neurális hálózatokban a neuronok egy szabályos geometriai rácson helyezkednek el, melyek egy processzor réteget alkotnak ( v 2 dimenziós). Több réteg összekapcsolásával kapjuk a teljes neurális hálózatot. A programot a rétegek közötti és a rétegen belüli összeköttetések súlytényezői jelentik. Tervezési irányok: élő szervezetek részletes modelljeinek elektronikai utánzása idegrendszeri működés struktúrájának és az elemi neuron-működés modelljének utánzása tipikus kanonikus optimálási eljárások, komplex fizikai, kémiai effektusok áramköri megoldásba transzformálása. 2
3 A tanulási szabályok főbb típusai tanítással/tanítóval tanulás (Ellenőrzött vagy felügyelt tanítás) amikor a bemenetekhez a kívánt kimeneteket is megadjuk, ismerjük. A kívánt és számított válaszok alapján módosítjuk a súlytényezőket, cél, hogy a különbség csökkenjen. Megerősítő tanulás amikor csak azt tudjuk, hogy a válasz helyes vagy nem tanítás/tanító nélkül ( Nem ellenőrzött vagy felügyelet nélküli tanítás) Nem ismerjük a kívánt válaszokat. Valamilyen adaptív úton a bemenetek sorozata alapján a beépített tanuló algoritmus valamilyen szempont szerint osztályokat alkot (és egyben módosítja saját magát - azaz az összeköttetések súlytényezőit) ezért önszervező hálózatnak is hívják Analitikus tanítás - direkt eljárással a súlytényezőket a feladatból elméleti úton, zárt formában kapjuk meg.. 3
4 Ellenőrzött tanulás Összetartozó be-ki meneti tanító mintapárokkal Neurális hálónk, vagyis a megtanított rendszer a vizsgált rendszer valamilyen modelljeként jelenjen meg, működése a rendszer működésének feleljen meg, - modell illesztési feladat (ábra) d=g(u,n), n zaj-hatások y= ĝ(u) modell illesztés, itt a paramétereken keresztül y= ĝ(w,u) kifejezőbb. Az illesztési feladat ekkor minimalizálási, szélsőérték keresési feladat, ahol C(d,y) kritérium fv. minimumát keressük w függvényében. 4
5 . 5
6 Ellenőrzött tanulás Kritérium függvény C=f(d,y) Leggyakrabb valamilyen négyzetes hibakritérium: C( d,y) = E d - y d - y = E d y j {( ) T ( )} ( ) 2 j j Lehet még pl.: abszolút érték fv., annak hatványai, lin. Kombinációi, igen-nem fv.. 6
7 Ellenőrzött tanulás szélsőérték keresés A kritérium fv minimumát, szélsőértékét kereső eljárások leginkább gradiens alapúak: C [ C( w) ] = = 0 w Megerősítő tanulásnál csak azt tudjuk,helyes-e a válasz (lehet több is), csak kritika van (learning with a critic) nincs hiba mérték, nincs gradiens. Ez a módszer akkor lehet jó, ha több jó válasz van ugyanarra a bementre. Sztochasztikus eljárások Gradiens módszerek hátránya lokális minimumokban benn ragadhat, ezért véletlen zaj segítségét használják. 7
8 Ellenőrzött tanulás szélsőérték keresés Véletlen keresés: (Ha nem ismerjük a kritérium felületet) Pl. ha a próbált paraméterhez tartozó kritérium érték az előzőnél kisebb, akkor ez lesz a következő lépés kiinduló pontja, egyébként a régi, és úgy keresünk tovább Előzőek kombinációi Genetikus algoritmus: itt nem egy pont mozog a vizsgálat szempontjából a kritérium felületen, hanem egyszerre több ponton értékelünk. jellemző: kereszteződés, mutáció, reprodukció. 8
9 Nem ellenőrzött tanulás Nincsenek kívánt kimenetek megadva Hebb tanulás (biológiai eredetű) két elem közti w az elemek aktivitásának szorzatával arányosan nő: w ( k+ ) = w ( k) µ x y w ( k+ ) = w ( k) +µ x y ij ij i j Anti Hebb: ij ij i j A különböző változatainál normalizáló eljárások használatosak súlyok ne növekedjenek minden határon túl. 9
10 Nem ellenőrzött tanulás Versengő A processzáló elem-elrendezésben egy győztest válasszunk ki. A győztes PE kimenete aktiv, a többié 0. A cél a bemeneti mintatér olyan tartományokra osztása, hogy minden egyes tartományba tartozó bemenet hatására egy, és csakis egy elem aktivizálódjon. Két lépés van:. kiszámoljuk minden elem kimenetét, kiválasztjuk a győztest, amely a győztes mindent visz elv alapján működik. 2. csak az ő vagy még a környezete súlytényezőit is módosítjuk. 0
11 Nem ellenőrzött tanulás Győztes PE beállítása pl. az oldalirányú súlytényezők beállításával: közeli PE-k között gerjesztő, távoliknál gátló kapcsolat: Mexikói kalap fv..
12 Analitikus tanulás Energia fv. pl.: Hopfield CNN (Cellular Neural Network). 2
13 Ellenőrzött tanulás A perceptron (Rosenblatt) tanulása x x 2 x 0 = n p p.0 ha I > 0 yi = f wijxj = f ( I) = j= ha I 0 f p : bináris küszöbelem H H 2 H T u T... u T w i n n w i2 I f p y i =f p (I) I = wij xj = wi 0 + wij xj j= 0 j= u u TT w in x x T x n A tanulás szakaszosan történik. Egy tanulási szakasz (epoch) alatt egy adott bemenet(sorozat)ból kiszámít a neurális hálózat egy kimenetet (sorozatot) és ennek értékétől függően megváltoztatjuk a súlytényezősorozat (a program ) értékét.. 3
14 A perceptron tanulása A tanulás szabályai: ha az adott bemenet mellett számított kimenet jó (y i = d i ), akkor az ezen PEhez tartozó súlytényezőket (w ij ) nem változtatjuk; ha y i = 0, de d i =, akkor növeljük az "aktív" inputok (melyek zérusnál nagyobbak) súlytényezőit; ha y i =, de d i = 0, akkor csökkentjük az "aktív" inputok súlytényezőit. A fenti növelések és csökkentések mértéke sokféle lehet, tipikusan: rögzített növekmény, a (d i -y i ) -vel arányos növekmény vagy az előző kettő kombinációja.. 4
15 A perceptron tanulása és a lineáris szeparálhatóság A kétbemenetű perceptron I=w x +w 2 x 2 +w 0 egyenletének megoldása az (x, x 2 ) kétdimenziós síkon egy egyenest ad. Ez az egyenes tehát lineárisan szeparálja azon (x, x 2 ) értékek halmazát, amelyek 0 kimenetet adnak azoktól, melyek -et adnak. Az XOR (exclusive or) logikai függvény igazságtáblázata azonban az alábbi ábrán látható ebben a koordináta rendszerben. x 2 másik logikai kimenet x 2 egyik logikai kimenetet adó (x,x 2 ) párok halmaza x x. 5
16 lineáris szeparálhatóság Megoldás: rejtett réteget vezetünk be, vagy magasabb dimenzióban probálkozunk lineáris szétválasztással. Az utóbbi esetben egy új input változót alkalmazunk, legyen x3 = x x2 azaz x x2 x3 y Ekkor az bemeneti állapotokat térben ábrázolhatjuk és ezeket a pontokat már egy síkkal szét tudjuk választani: Térben lineárisan szeparálható XOR függvény 6
17 Perceptron tanulása - Példa x x 2 w w 2 x 0 = w 0 f( ) f ( d y) = + Az ábrán látható perceptron ki- ill. bementének k C C n ( x) y 2 ha x > 0 = 0 ha x 0 lehetséges értékei a 0 (inaktív) és az (aktív). A tanulási szabály kimondja, hogy ha a kívánt és a számolt kimenet megegyezik, akkor a súlytényezők értékei nem változnak, ellenkező esetben pedig, ha a kimenet aktív kellene legyen, de nem az, akkor növeljük, míg ha a kimenet passzív kellene legyen, de nem az, akkor csökkentjük az aktív bemenetekhez tartozó súlytényezőket. A hálózatnak az ÉS műveletet fogjuk megtanítani, mely az alábbi 4 szabályt jelenti: x 0 0 x d
18 Perceptron tanulása - Példa A két tanulási együtthatót C =0 ill. C 2 =0.-nek választjuk, azaz fix növekményt (k=c 2 ) használunk. Mindhárom súlytényező értékét kezdetben 0.08-nak választva a táblázatban nyomonkövethetjük a tanulás folyamatát. Ennek során ( I wx ) i i = először kiszámoljuk a súlyozott összeget, majd a kimenetet (y=f(i)), és végül hiba (e 0) esetén ±k-val módosítjuk az aktív bemenetekhez (x i =) tartozó súlytényezőket.. 8
19 Perceptron tanulása - Példa w 0 w w 2 x x 2 d i y e
20 Adaline - Példa Az Adaline felépítése lényegében megegyezik a perceptronéval, azzal a különbséggel, hogy itt a be- és kimenetek értéke {-,+ } és a következő Widrow-Hoff tanulási szabályt alkalmazzuk: w = w + C ( d I) x n ' i i i Látható, hogy itt a hiba valamekkora részét (C-től függően) egyenletesen elosztjuk az összes súlytényező között és minden lépésben mindegyik értékét ennek megfelelően változtatjuk. w 0 x w x 0 = k = C f ( x) f( ) y ( d I) n ha x > 0 = - ha x 0 x 2 w 2. 20
21 Adaline - Példa f k = C ( x) ( d I) n ha x > 0 = - ha x 0 C = 0.5 e = d I e = d y A C értékét egynél kisebbre (C=0.5) választva könnyedén megtaníthatjuk az ÉS műveletet w 0 w w 2 x x 2 d I y e e
22 Ellenőrzött tanulás Tanulási szabályok: Backpropagation (hibavisszaterjesztés) A backpropagation a többrétegű hálózatoknál alkalmazott hibavisszaterjesztés módszere. Az elemi processzálóegység a perceptronhoz hasonló felépítésű, azzal a különbséggel, hogy a kimenet a rejtett rétegeken [ s] [ s] ( j ) [ s] yj = f I = + ( I ) j e szigmoid karakterisztika adja meg, ahol s-sel a réteg számát jelöljük. A tanítás algoritmusa a következő:. Az x bemeneti vektorból kiindulva, rétegenként kiszámoljuk a kimeneteket, s végül eljutunk a hálózat y kimenetéhez. 2. A kimeneti réteg minden processzáló elemére előbb kiszámítjuk a lokális hibát: e j =d j y j, majd ennek felhasználásával a hozzátartozó súlytényezők megváltozását: [ s] [ s] [ s ] () w = C e y ij j i. 22
23 Tanulási szabályok: Backpropagation (hibavisszaterjesztés) 3. Az összes rejtett réteg minden processzáló elemére hátulról előre haladva számoljuk ki előbb a lokális hibákat: majd pedig a [ s] [ s] [ s ] egyenlettel a súlytényező-változást..0.0 w = C e y ij j i [ s+ n ] [ s] [ s] ( [ s] ) [ s+ ] s+ j = j j k kj k = e y y e w 4. Módosítjuk a hálózat összes súlytényezőjét a kapott értékekkel. [ ] x 0 f( ) y w 0 w f( ) y.0 w w w 2 w 0 f( ) y 0 w y 20 2 w 2 x f( ) f( ) 2 w 22 y 2. 23
24 A hibavisszaterjesztés módszere (részletesebben) Adott az -3 rejtett rétegű előrecsatolt struktúra, szigmoid karakterisztikájú, folytonos működésű elemekkel. A leíró egyenletek : n [ s] [ s] [ s ] [ s] [ s] I j = wij yi ; yj = f I j = ; s=, 2,..., r r = max 4 s I j i= + e Feltesszük, hogy: Létezik egy globális hibafüggvény E. Csak ennyit, a formáját sem írjuk elő, [] [ 2] [ ] csak azt, hogy: ˆ r s E = E I, I,..., I ; j =,2,..., n, amely tehát az I j [] -ek függvénye, továbbá A lokális hiba legyen ( z) = + e ( ) [ ] ( ) ( ) [ ] j j j e [ s] j E = I [ s] j (gradiens tipus) valamint A kimeneti (r-edik) rétegen a lokális hiba e j [r] adott. Pl. lehet d j -y j [r]. f Z. 24
25 A hibavisszaterjesztés módszere Alaplépés: Ha adottak a lokális hibák az (s+)-edik rétegen, akkor kiszámítjuk a lokális hibákat az s-edik rétegen: [ ] s+ s+ [ s+ n ] [ s] E E I ( [ ]) k E I y k j ' s [ s+ ] [ s+ ] j = = [ s] = [ s+ ] [ s] = [ s+ ] [ s] [ s] j k kj Ij k Ik Ij k Ik yj Ij k= e f I e w tehát a hibavisszaszámító egyenlet: [ s+ n ] [ s] [ s] ( [ s] ) [ s+ ] s+ j = j j k kj k = e y y e w [ ] [ ] [ s]. 25
26 A hibavisszaterjesztés módszere A további levezetés ebből ismét a láncszabály alkalmazásával történik: Standard legmeredekebb csökkenés módszerével (c: tanuló együttható): [ s] E wij c [ s w ] A tanulási szabály tehát: Ahol: = E E I j s [ s ] = [ s ] = e [ s] j y ji w I w [ s] ji j ji [ s] [ s] [ s ] ji j i ( ij) w = c e y + m [ ] [ s ] i Legyen a globális hibafüggvény: réteg, itt f(z)=z, ezért E = d y 2 k ( [ o] ) 2 k k, ahol o a kimeneti [ o] E E e = = = d y [ o] [ o] I y ( [ o] ) k k k k k
27 A hibavisszaterjesztés módszere, számítás Számítás:. Adottak az input (u) kívánt output (d) párok és a w jk [s] kezdeti súlytényező értékek. u alapján kiszámítjuk az y j -ket minden réteg minden PE-jére. Tanulás: 2. A kimeneti rétegen f(z)=z, így és w = c e y. 3. Minden rejtett rétegben kiszámítjuk a hibát a hibavisszaszámító egyenlettel ( ) [ o] [ o] e : = d y j j j [ o] [ o] ji j i lépésenként az első rejtett rétegig és kiszámítjuk ugyanilyen sorrendben a súlytényező változásokat (illetve ezekből az új súlytényező értékeket): [ s] [ s] [ s ] ji j i ( ij) w = c e y + m [ s+ n ] [ s] [ s] ( [ s] ) [ s+ ] s+ j = j j k kj k = e y y e w [ ] x.0 0 f( ) y.0 w 0 w w 2 f( ) y w w 2 w 0 f( ) y 0 w y 20 2 w 2 x f( ) f( ) 2 w 22 y 2. 27
28 A hibavisszaterjesztés módszere, számítás. 28
Intelligens Rendszerek Gyakorlata. Neurális hálózatok I.
: Intelligens Rendszerek Gyakorlata Neurális hálózatok I. dr. Kutor László http://mobil.nik.bmf.hu/tantargyak/ir2.html IRG 3/1 Trend osztályozás Pnndemo.exe IRG 3/2 Hangulat azonosítás Happy.exe IRG 3/3
RészletesebbenBudapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók Előadó: Előadás anyaga: Hullám Gábor Pataki Béla Dobrowiecki Tadeusz BME I.E. 414, 463-26-79
RészletesebbenRegresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.
Regresszió Csorba János Nagyméretű adathalmazok kezelése 2010. március 31. A feladat X magyarázó attribútumok halmaza Y magyarázandó attribútumok) Kérdés: f : X -> Y a kapcsolat pár tanítópontban ismert
RészletesebbenIntelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban
Intelligens Rendszerek Elmélete : dr. Kutor László Versengéses és önszervező tanulás neurális hálózatokban http://mobil.nik.bmf.hu/tantargyak/ire.html Login név: ire jelszó: IRE07 IRE 9/1 Processzor Versengéses
RészletesebbenMesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás
Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás http:/uni-obuda.hu/users/kutor/ IRE 7/50/1 A neurális hálózatok általános jellemzői 1. A
RészletesebbenKeresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Keresés képi jellemzők alapján Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Lusta gépi tanulási algoritmusok Osztályozás: k=1: piros k=5: kék k-legközelebbi szomszéd (k=1,3,5,7)
RészletesebbenIntelligens Rendszerek Elmélete
Intelligens Rendszerek Elmélete Dr. Kutor László : Mesterséges neurális hálózatok felügyelt tanítása hiba visszateresztő Back error Propagation algoritmussal Versengéses tanulás http://mobil.nik.bmf.hu/tantargyak/ire.html
RészletesebbenIntelligens orvosi műszerek VIMIA023
Intelligens orvosi műszerek VIMIA023 Neurális hálók (Dobrowiecki Tadeusz anyagának átdolgozásával) 2017 ősz http://www.mit.bme.hu/oktatas/targyak/vimia023 dr. Pataki Béla pataki@mit.bme.hu (463-)2679 A
RészletesebbenTanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,
RészletesebbenSzámítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Számítógépes képelemzés 7. előadás Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Momentumok Momentum-alapú jellemzők Tömegközéppont Irányultáság 1 2 tan 2 1 2,0 1,1 0, 2 Befoglaló
RészletesebbenTARTALOMJEGYZÉK. TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS A lágy számításról A könyv célkitűzése és felépítése...
TARTALOMJEGYZÉK TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS...1 1. A lágy számításról...2 2. A könyv célkitűzése és felépítése...6 AZ ÖSSZETEVŐ LÁGY RENDSZEREK...9 I. BEVEZETÉS...10 3. Az összetevő
RészletesebbenNeurális hálózatok bemutató
Neurális hálózatok bemutató Füvesi Viktor Miskolci Egyetem Alkalmazott Földtudományi Kutatóintézet Miért? Vannak feladatok amelyeket az agy gyorsabban hajt végre mint a konvencionális számítógépek. Pl.:
RészletesebbenMit látnak a robotok? Bányai Mihály Matemorfózis, 2017.
Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017. Vizuális feldolgozórendszerek feladatai Mesterséges intelligencia és idegtudomány Mesterséges intelligencia és idegtudomány Párhuzamos problémák
RészletesebbenTanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok
Zrínyi Miklós Gimnázium Művészet és tudomány napja Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok 10/9/2009 Dr. Viharos Zsolt János Elsősorban volt Zrínyis diák Tudományos főmunkatárs
RészletesebbenNeurális hálózatok.... a gyakorlatban
Neurális hálózatok... a gyakorlatban Java NNS Az SNNS Javás változata SNNS: Stuttgart Neural Network Simulator A Tübingeni Egyetemen fejlesztik http://www.ra.cs.unituebingen.de/software/javanns/ 2012/13.
RészletesebbenDinamikus modellek szerkezete, SDG modellek
Diagnosztika - 3. p. 1/2 Modell Alapú Diagnosztika Diszkrét Módszerekkel Dinamikus modellek szerkezete, SDG modellek Hangos Katalin PE Villamosmérnöki és Információs Rendszerek Tanszék Diagnosztika - 3.
RészletesebbenI. LABOR -Mesterséges neuron
I. LABOR -Mesterséges neuron A GYAKORLAT CÉLJA: A mesterséges neuron struktúrájának az ismertetése, neuronhálókkal kapcsolatos elemek, alapfogalmak bemutatása, aktivációs függvénytípusok szemléltetése,
RészletesebbenGauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei
A Gauss-Jordan elimináció, mátrixinvertálás Gauss-Jordan módszer Ugyanazzal a technikával, mint ahogy a k-adik oszlopban az a kk alatti elemeket kinulláztuk, a fölötte lévő elemeket is zérussá lehet tenni.
RészletesebbenGépi tanulás a gyakorlatban. Lineáris regresszió
Gépi tanulás a gyakorlatban Lineáris regresszió Lineáris Regresszió Legyen adott egy tanuló adatbázis: Rendelkezésünkre áll egy olyan előfeldolgozott adathalmaz, aminek sorai az egyes ingatlanokat írják
RészletesebbenKovács Ernő 1, Füvesi Viktor 2
Kovács Ernő 1, Füvesi Viktor 2 1 Miskolci Egyetem, Elektrotechnikai - Elektronikai Tanszék 2 Miskolci Egyetem, Alkalmazott Földtudományi Kutatóintézet 1 HU-3515 Miskolc-Egyetemváros 2 HU-3515 Miskolc-Egyetemváros,
RészletesebbenTanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,
RészletesebbenSzámítógépes döntéstámogatás. Genetikus algoritmusok
BLSZM-10 p. 1/18 Számítógépes döntéstámogatás Genetikus algoritmusok Werner Ágnes Villamosmérnöki és Információs Rendszerek Tanszék e-mail: werner.agnes@virt.uni-pannon.hu BLSZM-10 p. 2/18 Bevezetés 1950-60-as
RészletesebbenE x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes)
6-7 ősz. gyakorlat Feladatok.) Adjon meg azt a perceptronon implementált Bayes-i klasszifikátort, amely kétdimenziós a bemeneti tér felett szeparálja a Gauss eloszlású mintákat! Rajzolja le a bemeneti
RészletesebbenHibadetektáló rendszer légtechnikai berendezések számára
Hibadetektáló rendszer légtechnikai berendezések számára Tudományos Diákköri Konferencia A feladatunk Légtechnikai berendezések Monitorozás Hibadetektálás Újrataníthatóság A megvalósítás Mozgásérzékelő
RészletesebbenNEURÁLIS HÁLÓZATOK 1. eloadás 1
NEURÁLIS HÁLÓZATOKH 1. eloadás 1 Biológiai elozmények nyek: az agy Az agy az idegrendszerunk egyik legfontosabb része: - képes adatokat tárolni, - gyorsan és hatékonyan mukodik, - nagy a megbízhatósága,
RészletesebbenII. LABOR Tanulás, Perceptron, Adaline
II. LABOR Tanulás, Perceptron, Adaline A dolgozat célja a tanító algoritmusok osztályozása, a tanító és tesztel halmaz szerepe a neuronhálók tanításában, a Perceptron és ADALINE feldolgozó elemek struktúrája,
RészletesebbenIrányításelmélet és technika II.
Irányításelmélet és technika II. Modell-prediktív szabályozás Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki és Információs Rendszerek Tanszék amagyar@almos.vein.hu 2010 november
RészletesebbenAdatbányászati szemelvények MapReduce környezetben
Adatbányászati szemelvények MapReduce környezetben Salánki Ágnes salanki@mit.bme.hu 2014.11.10. Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs Rendszerek Tanszék Felügyelt
RészletesebbenIrányításelmélet és technika II.
Irányításelmélet és technika II. Legkisebb négyzetek módszere Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki és Információs Rendszerek Tanszék amagyar@almos.vein.hu 200 november
RészletesebbenIntelligens Rendszerek Elmélete
Intellgens Rendszerek Elmélete Dr. Kutor László A mesterséges neuráls hálózatok alapfogalma és meghatározó eleme http://mobl.nk.bmf.hu/tantargyak/re.html Logn név: re jelszó: IRE07 IRE 7/1 Neuráls hálózatok
Részletesebben15. LINEÁRIS EGYENLETRENDSZEREK
15 LINEÁRIS EGYENLETRENDSZEREK 151 Lineáris egyenletrendszer, Gauss elimináció 1 Definíció Lineáris egyenletrendszernek nevezzük az (1) a 11 x 1 + a 12 x 2 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + + a
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363
1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái 288/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák
RészletesebbenFELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE
FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE Dr. Aradi Szilárd, Fehér Árpád Mesterséges intelligencia kialakulása 1956 Dartmouth-i konferencián egy maroknyi tudós megalapította a MI területét
RészletesebbenA szimplex algoritmus
A szimplex algoritmus Ismétlés: reprezentációs tétel, az optimális megoldás és az extrém pontok kapcsolata Alapfogalmak: bázisok, bázismegoldások, megengedett bázismegoldások, degenerált bázismegoldás
RészletesebbenOptimalizálás alapfeladata Legmeredekebb lejtő Lagrange függvény Log-barrier módszer Büntetőfüggvény módszer 2017/
Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatikai Intézet Számítógépes Optimalizálás Tanszék 9. Előadás Az optimalizálás alapfeladata Keressük f függvény maximumát ahol f : R n R és
RészletesebbenTanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,
RészletesebbenAlap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )
Budapesti Műszaki és Gazdaságtudományi Egyetem Gépészmérnöki Kar Hidrodinamikai Rendszerek Tanszék, Budapest, Műegyetem rkp. 3. D ép. 334. Tel: 463-6-80 Fa: 463-30-9 http://www.vizgep.bme.hu Alap-ötlet:
RészletesebbenVisszacsatolt (mély) neurális hálózatok
Visszacsatolt (mély) neurális hálózatok Visszacsatolt hálózatok kimenet rejtett rétegek bemenet Sima előrecsatolt neurális hálózat Visszacsatolt hálózatok kimenet rejtett rétegek bemenet Pl.: kép feliratozás,
RészletesebbenDr. Oniga István DIGITÁLIS TECHNIKA 8
Dr. Oniga István DIGITÁLIS TECHNIA 8 Szekvenciális (sorrendi) hálózatok Szekvenciális hálózatok fogalma Tárolók RS tárolók tárolók T és D típusú tárolók Számlálók Szinkron számlálók Aszinkron számlálók
RészletesebbenTanulás az idegrendszerben
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Funkcióvezérelt modellezés Abból indulunk ki, hogy milyen feladatot valósít meg a rendszer Horace Barlow: "A
RészletesebbenNemlineáris programozás 2.
Optimumszámítás Nemlineáris programozás 2. Többváltozós optimalizálás feltételek mellett. Lagrange-feladatok. Nemlineáris programozás. A Kuhn-Tucker feltételek. Konvex programozás. Sydsaeter-Hammond: 18.1-5,
RészletesebbenAlgoritmusok Tervezése. Fuzzy rendszerek Dr. Bécsi Tamás
Algoritmusok Tervezése Fuzzy rendszerek Dr. Bécsi Tamás Bevezetés Mese a homokkupacról és a hidegről és a hegyekről Bevezetés, Fuzzy történet Két értékű logika, Boole algebra Háromértékű logika n értékű
RészletesebbenNorma Determináns, inverz Kondíciószám Direkt és inverz hibák Lin. egyenletrendszerek A Gauss-módszer. Lineáris algebra numerikus módszerei
Indukált mátrixnorma Definíció A. M : R n n R mátrixnormát a. V : R n R vektornorma által indukált mátrixnormának nevezzük, ha A M = max { Ax V : x V = 1}. Az indukált mátrixnorma geometriai jelentése:
Részletesebbenb) Ábrázolja ugyanabban a koordinátarendszerben a g függvényt! (2 pont) c) Oldja meg az ( x ) 2
1) Az ábrán egy ; intervallumon értelmezett függvény grafikonja látható. Válassza ki a felsoroltakból a függvény hozzárendelési szabályát! a) b) c) ( ) ) Határozza meg az 1. feladatban megadott, ; intervallumon
RészletesebbenEgyenletek, egyenlőtlenségek, egyenletrendszerek I.
Egyenletek, egyenlőtlenségek, egyenletrendszerek I. DEFINÍCIÓ: (Nyitott mondat) Az olyan állítást, amelyben az alany helyén változó szerepel, nyitott mondatnak nevezzük. A nyitott mondatba írt változót
RészletesebbenDebreceni Egyetem Informatikai Kar. Fazekas István. Neurális hálózatok
Debreceni Egyetem Informatikai Kar Fazekas István Neurális hálózatok Debrecen, 2013 Szerző: Dr. Fazekas István egyetemi tanár Bíráló: Dr. Karácsony Zsolt egyetemi docens A tananyag a TÁMOP-4.1.2.A/1-11/1-2011-0103
RészletesebbenFuzzy rendszerek és neurális hálózatok alkalmazása a diagnosztikában
Budapesti Műszaki és Gazdaságtudományi Egyetem Fuzzy rendszerek és neurális hálózatok alkalmazása a diagnosztikában Cselkó Richárd 2009. október. 15. Az előadás fő témái Soft Computing technikák alakalmazásának
Részletesebben[1000 ; 0] 7 [1000 ; 3000]
Gépi tanulás (vimim36) Gyakorló feladatok 04 tavaszi félév Ahol lehet, ott konkrét számértékeket várok nem puszta egyenleteket. (Azok egy részét amúgyis megadom.). Egy bináris osztályozási feladatra tanított
RészletesebbenModellezés és szimuláció. Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék
Modellezés és szimuláció Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék Kvantitatív forradalmak a földtudományban - geográfiában 1960- as évek eleje: statisztika 1970- as évek eleje:
RészletesebbenModellek és Algoritmusok - 2.ZH Elmélet
Modellek és Algoritmusok - 2.ZH Elmélet Ha hibát elírást találsz kérlek jelezd: sellei_m@hotmail.com A fríss/javított változat elérhet : people.inf.elte.hu/semsaai/modalg/ 2.ZH Számonkérés: 3.EA-tól(DE-ek)
RészletesebbenLineáris algebra gyakorlat
Lineáris algebra gyakorlat 7. gyakorlat Gyakorlatvezet : Bogya Norbert 2012. március 26. Ismétlés Tartalom 1 Ismétlés 2 Koordinátasor 3 Bázistranszformáció és alkalmazásai Vektorrendszer rangja Mátrix
RészletesebbenHidraulikus hálózatok robusztusságának növelése
Dr. Dulovics Dezső Junior Szimpózium 2018. Hidraulikus hálózatok robusztusságának növelése Előadó: Huzsvár Tamás MSc. Képzés, II. évfolyam Témavezető: Wéber Richárd, Dr. Hős Csaba www.hds.bme.hu Az előadás
Részletesebben1. feladatsor: Vektorterek, lineáris kombináció, mátrixok, determináns (megoldás)
Matematika A2c gyakorlat Vegyészmérnöki, Biomérnöki, Környezetmérnöki szakok, 2017/18 ősz 1. feladatsor: Vektorterek, lineáris kombináció, mátrixok, determináns (megoldás) 1. Valós vektorterek-e a következő
RészletesebbenKonjugált gradiens módszer
Közelítő és szimbolikus számítások 12. gyakorlat Konjugált gradiens módszer Készítette: Gelle Kitti Csendes Tibor Vinkó Tamás Faragó István Horváth Róbert jegyzetei alapján 1 LINEÁRIS EGYENLETRENDSZEREK
RészletesebbenLineáris regressziós modellek 1
Lineáris regressziós modellek 1 Ispány Márton és Jeszenszky Péter 2016. szeptember 19. 1 Az ábrák C.M. Bishop: Pattern Recognition and Machine Learning c. könyvéből származnak. Tartalom Bevezető példák
RészletesebbenGépi tanulás Gregorics Tibor Mesterséges intelligencia
Gépi tanulás Tanulás fogalma Egy algoritmus akkor tanul, ha egy feladat megoldása során olyan változások következnek be a működésében, hogy később ugyanazt a feladatot vagy ahhoz hasonló más feladatokat
RészletesebbenGépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)
Gépi tanulás Hány tanítómintára van szükség? VKH Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Induktív tanulás A tanítás folyamata: Kiinduló
RészletesebbenKétváltozós függvények differenciálszámítása
Kétváltozós függvények differenciálszámítása 13. előadás Farkas István DE ATC Gazdaságelemzési és Statisztikai Tanszék Kétváltozós függvények p. 1/1 Definíció, szemléltetés Definíció. Az f : R R R függvényt
RészletesebbenTisztelt Hallgatók! Jó tanulást kívánok, üdvözlettel: Kutor László
Tisztelt Hallgatók! Az alábbi anyaga arra ó, hogy lehessen tudni, mi tartozik egy-egy kérdéshez. Ami itt olvasható, az a éghegy csúcsa. Ha alapos tudást akarnak, a éghegy alát önállóan kell hozzá gyűteniük.
RészletesebbenForgalmi modellezés BMEKOKUM209
BME Közlekedésüzemi és Közlekedésgazdasági Tanszék Forgalmi modellezés BMEKOKUM209 Szimulációs modellezés Dr. Juhász János A forgalmi modellezés célja A közlekedési igények bővülése és a motorizáció növekedése
RészletesebbenA lineáris programozás alapfeladata Standard alak Az LP feladat megoldása Az LP megoldása: a szimplex algoritmus 2018/
Operációkutatás I. 2018/2019-2. Szegedi Tudományegyetem Informatika Intézet Számítógépes Optimalizálás Tanszék 2. Előadás LP alapfeladat A lineáris programozás (LP) alapfeladata standard formában Max c
RészletesebbenMATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉP SZINT Függvények
MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉP SZINT Függvények A szürkített hátterű feladatrészek nem tartoznak az érintett témakörhöz, azonban szolgálhatnak fontos információval az érintett feladatrészek
RészletesebbenA lineáris programozás alapfeladata Standard alak Az LP feladat megoldása Az LP megoldása: a szimplex algoritmus 2017/
Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatika Intézet Számítógépes Optimalizálás Tanszék 2. Előadás LP alapfeladat A lineáris programozás (LP) alapfeladata standard formában Max c
RészletesebbenSzinguláris értékek. Wettl Ferenc április 3. Wettl Ferenc Szinguláris értékek április 3. 1 / 28
Szinguláris értékek Wettl Ferenc 2015. április 3. Wettl Ferenc Szinguláris értékek 2015. április 3. 1 / 28 Tartalom 1 Szinguláris érték 2 Alkalmazások 3 Norma 4 Mátrixnorma Wettl Ferenc Szinguláris értékek
RészletesebbenA digitális analóg és az analóg digitális átalakító áramkör
A digitális analóg és az analóg digitális átalakító áramkör I. rész Bevezetésként tisztázzuk a címben szereplő két fogalmat. A számítástechnikai kislexikon a következőképpen fogalmaz: digitális jel: olyan
RészletesebbenDigitális jelfeldolgozás
Digitális jelfeldolgozás Kvantálás Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki és Információs Rendszerek Tanszék magyar.attila@virt.uni-pannon.hu 2010. szeptember 15. Áttekintés
RészletesebbenGépi tanulás a Rapidminer programmal. Stubendek Attila
Gépi tanulás a Rapidminer programmal Stubendek Attila Rapidminer letöltése Google: download rapidminer Rendszer kiválasztása (iskolai gépeken Other Systems java) Kicsomagolás lib/rapidminer.jar elindítása
RészletesebbenVektorterek. Wettl Ferenc február 17. Wettl Ferenc Vektorterek február / 27
Vektorterek Wettl Ferenc 2015. február 17. Wettl Ferenc Vektorterek 2015. február 17. 1 / 27 Tartalom 1 Egyenletrendszerek 2 Algebrai struktúrák 3 Vektortér 4 Bázis, dimenzió 5 Valós mátrixok és egyenletrendszerek
RészletesebbenMegerősítéses tanulás 9. előadás
Megerősítéses tanulás 9. előadás 1 Backgammon (vagy Ostábla) 2 3 TD-Gammon 0.0 TD() tanulás (azaz időbeli differencia-módszer felelősségnyomokkal) függvényapproximátor: neuronháló 40 rejtett (belső) neuron
RészletesebbenKONVOLÚCIÓS NEURONHÁLÓK. A tananyag az EFOP pályázat támogatásával készült.
KONVOLÚCIÓS NEURONHÁLÓK A tananyag az EFOP-3.5.1-16-2017-00004 pályázat támogatásával készült. 1. motiváció A klasszikus neuronháló struktúra a fully connected háló Két réteg között minden neuron kapcsolódik
RészletesebbenSzámítógépes döntéstámogatás. Döntések fuzzy környezetben Közelítő következtetések
BLSZM-09 p. 1/17 Számítógépes döntéstámogatás Döntések fuzzy környezetben Közelítő következtetések Werner Ágnes Villamosmérnöki és Információs Rendszerek Tanszék e-mail: werner.agnes@virt.uni-pannon.hu
Részletesebben7. Laboratóriumi gyakorlat KIS ELMOZDULÁSOK MÉRÉSE KAPACITÍV ÉS INDUKTÍV MÓDSZERREL
7. Laboratóriumi gyakorlat KIS ELMOZDULÁSOK MÉRÉSE KAPACITÍV ÉS INDUKTÍV MÓDSZERREL 1. A gyakorlat célja Kis elmozulások (.1mm 1cm) mérésének bemutatása egyszerű felépítésű érzékkőkkel. Kapacitív és inuktív
Részletesebben2012. október 2 és 4. Dr. Vincze Szilvia
2012. október 2 és 4. Dr. Vincze Szilvia Tartalomjegyzék 1.) Az egyváltozós valós függvény fogalma, műveletek 2.) Zérushely, polinomok zérushelye 3.) Korlátosság 4.) Monotonitás 5.) Szélsőérték 6.) Konvex
RészletesebbenMérési struktúrák
Mérési struktúrák 2007.02.19. 1 Mérési struktúrák A mérés művelete: a mérendő jellemző és a szimbólum halmaz közötti leképezés megvalósítása jel- és rendszerelméleti aspektus mérési folyamat: a leképezést
RészletesebbenMATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉPSZINT Függvények
MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉPSZINT Függvények A szürkített hátterű feladatrészek nem tartoznak az érintett témakörhöz, azonban szolgálhatnak fontos információval az érintett feladatrészek megoldásához!
RészletesebbenFigyelem, próbálja önállóan megoldani, csak ellenőrzésre használja a következő oldalak megoldásait!
Elméleti kérdések: Második zárthelyi dolgozat biomatematikából * (Minta, megoldásokkal) E. Mit értünk hatványfüggvényen? Adjon példát nem invertálható hatványfüggvényre. Adjon példát mindenütt konkáv hatványfüggvényre.
RészletesebbenPasszív és aktív aluláteresztő szűrők
7. Laboratóriumi gyakorlat Passzív és aktív aluláteresztő szűrők. A gyakorlat célja: A Micro-Cap és Filterlab programok segítségével tanulmányozzuk a passzív és aktív aluláteresztő szűrők elépítését, jelátvitelét.
RészletesebbenFeladatok a Gazdasági matematika II. tárgy gyakorlataihoz
Debreceni Egyetem Közgazdaságtudományi Kar Feladatok a Gazdasági matematika II tárgy gyakorlataihoz a megoldásra ajánlott feladatokat jelöli e feladatokat a félév végére megoldottnak tekintjük a nehezebb
RészletesebbenMATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉP SZINT Függvények
MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK KÖZÉP SZINT Függvények ) Az ábrán egy ; intervallumon értelmezett függvény grafikonja látható. Válassza ki a felsoroltakból a függvény hozzárendelési szabályát! a) x
RészletesebbenBabeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet
/ Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet / Tartalom 3/ kernelek segítségével Felügyelt és félig-felügyelt tanulás felügyelt: D =
RészletesebbenVektorok, mátrixok, lineáris egyenletrendszerek
a Matematika mérnököknek I. című tárgyhoz Vektorok, mátrixok, lineáris egyenletrendszerek Vektorok A rendezett valós számpárokat kétdimenziós valós vektoroknak nevezzük. Jelölésükre latin kisbetűket használunk.
RészletesebbenHobbi Elektronika. A digitális elektronika alapjai: További logikai műveletek
Hobbi Elektronika A digitális elektronika alapjai: További logikai műveletek 1 Felhasznált anyagok M. Morris Mano and Michael D. Ciletti: Digital Design - With an Introduction to the Verilog HDL, 5th.
Részletesebben10. gyakorlat Struktúrák, uniók, típusdefiníciók
10. gyakorlat Struktúrák, uniók, típusdefiníciók Házi - (f0218) Olvass be 5 darab maximum 99 karakter hosszú szót úgy, hogy mindegyiknek pontosan annyi helyet foglalsz, amennyi kell! A sztringeket írasd
RészletesebbenTeljesen elosztott adatbányászat pletyka algoritmusokkal. Jelasity Márk Ormándi Róbert, Hegedűs István
Teljesen elosztott adatbányászat pletyka algoritmusokkal Jelasity Márk Ormándi Róbert, Hegedűs István Motiváció Nagyméretű hálózatos elosztott alkalmazások az Interneten egyre fontosabbak Fájlcserélő rendszerek
RészletesebbenFüggvények Megoldások
Függvények Megoldások ) Az ábrán egy ; intervallumon értelmezett függvény grafikonja látható. Válassza ki a felsoroltakból a függvény hozzárendelési szabályát! a) x x b) x x + c) x ( x + ) b) Az x függvény
RészletesebbenMonte Carlo módszerek a statisztikus fizikában. Az Ising modell. 8. előadás
Monte Carlo módszerek a statisztikus fizikában. Az Ising modell. 8. előadás Démon algoritmus az ideális gázra időátlag fizikai mennyiségek átlagértéke sokaságátlag E, V, N pl. molekuláris dinamika Monte
RészletesebbenEgyszerű programozási tételek
Egyszerű programozási tételek Sorozatszámítás tétele Például az X tömbben kövek súlyát tároljuk. Ha ki kellene számolni az összsúlyt, akkor az S = f(s, X(i)) helyére S = S + X(i) kell írni. Az f0 tartalmazza
RészletesebbenGauss-Seidel iteráció
Közelítő és szimbolikus számítások 5. gyakorlat Iterációs módszerek: Jacobi és Gauss-Seidel iteráció Készítette: Gelle Kitti Csendes Tibor Somogyi Viktor London András Deák Gábor jegyzetei alapján 1 ITERÁCIÓS
RészletesebbenSZÉCHENYI ISTVÁN EGYETEM MŰSZAKI TUDOMÁNYI KAR RENDSZERELEMZÉS I.
SZÉCHENYI ISTVÁN EGYETEM MŰSZAKI TUDOMÁNYI KAR RENDSZERELEMZÉS I. Minden jog fenntartva, beleértve a sokszorosítás és a mű bővített, vagy rövidített változatának kiadási jogát is. A Szerző előzetes írásbeli
RészletesebbenGépi tanulás a gyakorlatban. Bevezetés
Gépi tanulás a gyakorlatban Bevezetés Motiváció Nagyon gyakran találkozunk gépi tanuló alkalmazásokkal Spam detekció Karakter felismerés Fotó címkézés Szociális háló elemzés Piaci szegmentáció analízis
RészletesebbenFEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 10 X. SZIMULÁCIÓ 1. VÉLETLEN számok A véletlen számok fontos szerepet játszanak a véletlen helyzetek generálásában (pénzérme, dobókocka,
RészletesebbenIrányításelmélet és technika I.
Irányításelmélet és technika I Folytonos idejű rendszerek leírása az állapottérben Állapotvisszacsatolást alkalmazó szabályozási körök Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki
RészletesebbenIntelligens Rendszerek Elmélete. Párhuzamos keresés genetikus algoritmusokkal
Intelligens Rendszerek Elmélete Dr. Kutor László Párhuzamos keresés genetikus algoritmusokkal http://mobil.nik.bmf.hu/tantargyak/ire.html login: ire jelszó: IRE0 IRE / A természet általános kereső algoritmusa:
Részletesebben9. Laboratóriumi gyakorlat NYOMÁSÉRZÉKELŐK
9. Laboratóriumi gyakorlat NYOMÁSÉRZÉKELŐK 1.A gyakorlat célja Az MPX12DP piezorezisztiv differenciális nyomásérzékelő tanulmányozása. A nyomás feszültség p=f(u) karakterisztika megrajzolása. 2. Elméleti
RészletesebbenStatisztikai eljárások a mintafelismerésben és a gépi tanulásban
Statisztikai eljárások a mintafelismerésben és a gépi tanulásban Varga Domonkos (I.évf. PhD hallgató) 2014 május A prezentáció felépítése 1) Alapfogalmak 2) A gépi tanulás, mintafelismerés alkalmazási
RészletesebbenKövetelmény a 7. évfolyamon félévkor matematikából
Követelmény a 7. évfolyamon félévkor matematikából Gondolkodási és megismerési módszerek Elemek halmazba rendezése több szempont alapján. Halmazok ábrázolása. A nyelv logikai elemeinek helyes használata.
RészletesebbenRobotok inverz geometriája
Robotok inverz geometriája. A gyakorlat célja Inverz geometriai feladatot megvalósító függvények implementálása. A megvalósított függvénycsomag tesztelése egy kétszabadságfokú kar előírt végberendezés
RészletesebbenProblémás regressziók
Universitas Eotvos Nominata 74 203-4 - II Problémás regressziók A közönséges (OLS) és a súlyozott (WLS) legkisebb négyzetes lineáris regresszió egy p- változós lineáris egyenletrendszer megoldása. Az egyenletrendszer
RészletesebbenKalkulus 2., Matematika BSc 1. Házi feladat
. Házi feladat Beadási határidő: 07.0.. Jelölések x = (x,..., x n, y = (y,..., y n, z = (z,..., z n R n esetén. x, y = n i= x iy i, skalárszorzat R n -ben. d(x, y = x y = n i= (x i y i, metrika R n -ben
RészletesebbenLogaritmikus erősítő tanulmányozása
13. fejezet A műveleti erősítők Logaritmikus erősítő tanulmányozása A műveleti erősítő olyan elektronikus áramkör, amely a két bemenete közötti potenciálkülönbséget igen nagy mértékben fölerősíti. A műveleti
Részletesebben