A MESTERSÉGES NEURONHÁLÓZATOK BEVEZETÉSE AZ OKTATÁSBA A GAMF-ON



Hasonló dokumentumok
Intelligens Rendszerek Gyakorlata. Neurális hálózatok I.

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla

I. LABOR -Mesterséges neuron

Modellezés és szimuláció. Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék

Neurális hálózatok bemutató

Intelligens Rendszerek Elmélete

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

Neurális hálózatok.... a gyakorlatban

Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Intelligens orvosi műszerek VIMIA023

AKTUÁTOR MODELLEK KIVÁLASZTÁSA ÉS OBJEKTÍV ÖSSZEHASONLÍTÁSA

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.

Bevezetés a neurális számításokba Analóg processzortömbök,

Tanulás az idegrendszerben

Mesterséges Intelligencia Elektronikus Almanach. MI Almanach projektismertetı rendezvény április 29., BME, I. ép., IB.017., 9h-12h.

Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban

A TANTÁRGY ADATLAPJA

Optikai karakterfelismerés

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók 2. Pataki Béla

Hibadetektáló rendszer légtechnikai berendezések számára

Fuzzy rendszerek és neurális hálózatok alkalmazása a diagnosztikában

Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL

Visszacsatolt (mély) neurális hálózatok

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Útjelzések, akadályok felismerése valós időben

NEURÁLIS HÁLÓZATOK 1. eloadás 1

SZOFTVEREK A SORBANÁLLÁSI ELMÉLET OKTATÁSÁBAN

Konjugált gradiens módszer

Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok

FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE

Konvolúciós neurális hálózatok (CNN)

MATEMATIKA - STATISZTIKA TANSZÉK

Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet

A RADARJELEK DETEKTÁLÁSA NEURÁLIS HÁLÓZAT ALKALMAZÁSÁVAL

Perceptron konvergencia tétel

Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )

Lineáris regressziós modellek 1

A KLT (Kanade Lucas Tomasi) Feature Tracker Működése (jellegzetes pontok választása és követése)

1.ábra: A Beszédmester nyitóképe

Irányításelmélet és technika II.

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

A TÉRINFORMATIKA OKTATÁSA ÉS ALKALMAZÁSI LEHETÕSÉGEI

Gyártórendszerek irányítási struktúrái

Sergyán Szabolcs szeptember 21.

Orvosi diagnosztikai célú röntgenképfeldolgozás

A DIGITÁLIS KÉPFELDOLGOZÁS OKTATÁSÁNAK EREDMÉNYEI ÉS NÉHÁNY AKTUÁLIS KÉRDÉSE A DEBRECENI EGYETEMEN

TARTALOMJEGYZÉK. TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS A lágy számításról A könyv célkitűzése és felépítése...

Kovács Ernő 1, Füvesi Viktor 2

MÉRŐERŐSÍTŐK EREDŐ FESZÜLTSÉGERŐSÍTÉSE

Google Summer of Code Project

Hurokegyenlet alakja, ha az áram irányával megegyező feszültségeséseket tekintjük pozitívnak:

PTE PMMFK Levelező-távoktatás, villamosmérnök szak

Statisztikai eljárások a mintafelismerésben és a gépi tanulásban

KONVOLÚCIÓS NEURONHÁLÓK. A tananyag az EFOP pályázat támogatásával készült.

MŰSZAKI TUDOMÁNY AZ ÉSZAK-ALFÖLDI RÉGIÓBAN 2010

[1000 ; 0] 7 [1000 ; 3000]

Gépi tanulás a gyakorlatban. Bevezetés

Haszongépj. Németh. Huba. és s Fejlesztési Budapest. Kutatási. Knorr-Bremse November 17. Knorr-Bremse

TECHNIKAI RENDSZEREK ÁLLAPOTLEÍRÁSÁNAK KÉRDÉSEI QUESTIONS REGARDING THE DESCRIPTION OF THE STATE OF TECHNICAL SYSTEMS

Egy gazdasa gmatematikai modell An economical mathematics model

Teljesen elosztott adatbányászat alprojekt

Mesterséges neurális hálók

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008

V É G E S E L E M M Ó D S Z E R M É R N Ö K I M E C H A N I K A I A L K A LM A Z Á S A I

Véletlen sorozatok ellenőrzésének módszerei. dolgozat

Robotok inverz geometriája

Intelligens Rendszerek Elmélete

II. LABOR Tanulás, Perceptron, Adaline

Forgalmi modellezés BMEKOKUM209

Pletykaalapú gépi tanulás teljesen elosztott környezetben

Neurális hálózatok MATLAB programcsomagban

Előrenéző és paraméter tanuló algoritmusok on-line klaszterezési problémákra

kodolosuli.hu: Interaktív, programozást tanító portál BALLA TAMÁS, DR. KIRÁLY SÁNDOR NETWORKSHOP 2017, SZEGED

VI. Magyar Földrajzi Konferencia

Osztályozási feladatok képdiagnosztikában. Orvosi képdiagnosztikai 2017 ősz

Adatbányászati szemelvények MapReduce környezetben

Nagy adattömbökkel végzett FORRÓ TI BOR tudományos számítások lehetőségei. kisszámítógépes rendszerekben. Kutató Intézet

I. BESZÁLLÍTÓI TELJESÍTMÉNYEK ÉRTÉKELÉSE

SZEMLÉLETES RÉSZINFORMÁCIÓK INTEGRÁCIÓS PROBLÉMÁINAK VIZSGÁLATA A VIRTUÁLIS VALÓSÁGOT TEREMTŐ SZIMULÁTOROK ALAPJÁN

RHadoop. Kocsis Imre Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs Rendszerek Tanszék

Leica SmartRTK, az aktív ionoszféra kezelésének záloga (I. rész)

A SZAKMAI GYAKORLAT KÖVETELMÉNYEI

TANMENET ... Az iskola fejbélyegzője. a matematika tantárgy. tanításához a 9. a, b osztályok számára

A matematikai feladatok és megoldások konvenciói

permittivitás: tan : ), továbbá a külső gerjesztő mágneses tér erőssége.

A Szekszárdi I. Béla Gimnázium Helyi Tanterve

Matematika (mesterképzés)

A MATEMATIKAI SZOFTVEREK ALKALMAZÁSI KÉSZSÉGÉT, VALAMINT A TÉRSZEMLÉLETET FEJLESZTŐ TANANYAGOK KIDOLGOZÁSA A DEBRECENI EGYETEM MŰSZAKI KARÁN

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

AZ ELSŐÉVES HALLGATÓK INFORMATIKA TANULÁSI SZOKÁSAINAK VIZSGÁLATA ADATBÁNYÁSZATI ESZKÖZÖKKEL A BUDAPESTI MŰSZAKI FŐISKOLÁN

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Matematikai statisztika c. tárgy oktatásának célja és tematikája

HU-3515 Miskolc-Egyetemváros tel.: +36-(46) mellék: 12-16, 12-18, fax : +36-(46) elkke@uni-miskolc.hu

Sztöchiometriai egyenletrendszerek minimális számú aktív változót tartalmazó megoldásainak meghatározása a P-gráf módszertan alkalmazásával

Tanulmányi standardok a tanulói fejlesztés szolgálatában

Megerősítéses tanulás

JÓVÁHAGYÁS. szervezet. Név Dr. Szakonyi Lajos KPI Oktatási Minisztérium

Átírás:

A MESTERSÉGES NEURONHÁLÓZATOK BEVEZETÉSE AZ OKTATÁSBA A GAMF-ON Pintér István, pinter@gandalf.gamf.hu Nagy Zoltán Gépipari és Automatizálási Mûszaki Fõiskola, Informatika Tanszék Gépipari és Automatizálási Mûszaki Fõiskola, végzõs informatika szakos hallgató Abstract In this paper our results in teaching of the artificial neural networks (ANN) are given. After a short intro-duction the ANNs and the pattern recognition framework are summarized and the concepts used are defined. The educational results in single layer perceptron and multi layer perceptron (MLP) algorithms are discussed and the comparison of a new MLP-based algorithm and the MLP itself is given by illustrations in some well-known classification problems. The Hamming-MAXNET system is summarized succintly, and finally a new direction, the wavelet-neural network is mentioned. 1. Bevezetõ gondolatok, eredmények A hazai felsõfokú intézményekben, így fõiskolánkon is jól bevált módszer az új tananyagok "kipróbálása" fakultatív tantárgy vagy speciális kollégium formájában. Különösen fontos ez olyan témakörök oktatásba vitelénél, amelyeknek nincs elegendõ, publikált, fõiskolai szintû oktatási elõzménye ilyen új terület a mesterséges neuronhálózatok oktatása is. Véleményünk szerint ennek fõiskolai szintû oktatása indokolt: nemcsak azért, mert sok új mûszaki rendszer "mûködési elve" itt keresendõ [1], hanem azért is, mert "a tanítvány nem edény, amit meg kell tölteni, hanem fáklya, amit lángra kell lobbantani". A speciális kollégium meghirdetésének legfõbb konkrét motivációja az új informatika szakos tantervünk volt nevezetesen ennek "Ismeretalapú rendszerek" tantárgya, melynek e témakör egy részét jelenti, ám fontos szerepet játszottak a szóban forgó tudományterület letisztult, hozzáférhetõ (részben hazai) eredményei is. A témakör a "Jelfelismerés" speciális kollégium tananyagában szerepelt, melyet 1994-95-ben tartottunk érdeklõdõ másodéves hallgatóinknak. Az évfolyam megválasztásának oka az volt, hogy a nyári hallgatói termelési gyakorlat ideje is rendelkezésre álljon a tanultak begyakorlására, illetve a C programok megírására (fõiskolánkon a képzési idõ 3 év). A neuronhálózatok modellezésének problémájával egyikünk (Pintér) elõször 1984-ben találkozott egy lebilincselõ elõadás formájában [2]. Bár helyesnek tartjuk élesen különválasztani a valóságos neuronok matematikai modellezését a mesterséges neuronhálózatmodellek mûszaki alkalmazásától, a fenti elõadás szemléletünket alapvetõen befolyásolta (amit erõsített egy késõbbi elõadás is [3]). A speciális kollégium anyagát ennek a hozzáállásnak megfelelõen a [4] cikkre és az [5] könyvre alapoztuk. Idõközben megjelent a témakör átfogó 36

magyar nyelvû jegyzete is [6] ez sajnos még nem állt rendelkezésünkre. Tanszékünkön eddig a következõ részterületek oktatására került sor: egyrétegû perceptron hálózat, többrétegû perceptron hálózat (MLP), az MLP algoritmus különféle módosított változatai, a Hamming- és MAXNET hálózat. A tanultak eredményeképp jól mûködõ, a hallgatók által írt programok születtek, amelyeket módunk volt a "GERENIA" nevû, pályázaton elnyert fejlesztõ rendszer osztályozási képességével is összehasonlítani [7],[8]. 2. A jelfelismerési feladat és a mesterséges neuronhálózat A jelfelismerés során a bemenõ adatok (alakzatok, pattern) alapján azt kell meghatározni, hogy azok mely osztályból származnak. Ezt a feladatot az osztályozó rendszer végzi el, ami e képességét a tanulási folyamat során éri el; ehhez a tanítóval történõ tanulás során (supervised learning) elegendõ számú reprezentáns (prototípus) áll rendelkezésre minden, elõre ismert osztályból, a tanító nélküli tanulás (unsupervised learning) során az osztályok megalkotása is feladat a tanulás során. A tanulás után következik a tanultak "felidézése" és "alkalmazása", vagyis elvárjuk, hogy a rendszer egy számára eddig még ismeretlen bemenõ alakzatot is a lehetõ legkisebb tévesztési aránnyal osztályozzon. Kézenfekvõ hazai példa ilyen rendszerre a Recognita OCR szoftver, amely egy képolvasó eszközbõl nyert adatok alapján eldönti, hogy a vizsgált képrész szöveg-e vagy ábra, és pl. a szöveg esetén további döntést hoz a karakterek kódjáról és attribútumairól. Ha az osztályozó feladata valamely mért jel alapján történõ osztályba sorolás, akkor kritikus lehet a konkrét feladattól függõ jelreprezentáció : ebbõl lehet további transzformációkkal a lényegkiemelés (feature extraction) során az osztályozó betanításához és ezután a "mûködtetéséhez" szükséges lényegvektorokat elõállítani. Ebben az értelemben tehát elválasztható a jelreprezentáció és a lényegkiemelés problémája az osztályozási feladattól. A gyakorlati tapasztalatok azt mutatják, hogy sok feladat megoldható az imént vázolt módszerrel; a fentebbi példa esetében pl. a lényegkiemelés ú.n. kontúrelemzésen alapszik [9]. A fentiek miatt a speciális kollégium során a tárgyalt mesterséges neuronhálózatokat (MNH) egyszerûen osztályozóknak tekintettük (ez a hivatkozott jegyzetben megadott 5 felhasználási terület egyike). A tárgyalt eseteknek megfelelõ MNH szorosan összekapcsolt, elemi mûveletvégzõ egységekbõl (csomópontokból) felépített, rétegekbe szervezett rendszer. Egy csomópont skaláris szorzás, kivonás és nemlineáris leképezés mûveletek elvégzésére képes több bemenetû, egy kimenetû részrendszer; a csomópont aktív, ha az y kimenet "nagy": N 1 y = f w i x i ϑ, ahol x i a bemenõ lényegvektor i-edik komponense, w i az ehhez rendelt i = 0 súlytényezõ, ϑ a küszöbérték, f(.) a nemlineáris leképezés (tipikusan vagy elõjel-függvény jellegû, vagy lineáris, de telítéses jellegû, vagy szigmoid jellegû). A tanítás a súlytényezõk iteratív beállítás át jelenti; az iterációnkénti súlytényezõ-módosítást a tanító algoritmus adja meg. Felfoghatjuk ezt úgy is, hogy a MNH "tudását" a súlytényezõkbe "sulykoljuk". Ezekbõl a csomópontokból, mint rész-rendszerekbõl rétegekbe szervezéssel alakíthatunk ki nagyobb rendszert; ekkor a bemenõ vektor komponensei az elsõ (rejtett) rétegbe futnak, e réteg kimenetei alkotják a következõ rejtett réteg bementeit s. í. t. amíg a kimeneti rétegbe nem érünk: ennek feladata már a kívánt osztályhoz rendelt kód elõállítása (pl. ez épp annyi 37

csomópontot tartalmaz, ahány osztály van, s ezek közül csak egy aktív kimenetû: épp az, amelyhez tartozó osztályba sorolja a MNH a "bemutatott" lényegvektort). A súlytényezõk beállítására a konkrét elrendezéstõl függõ algoritmusokat lehet elõállítani. 3. Egyrétegû és többrétegû perceptron hálózat (MLP) Elõször az egyrétegû perceptron hálózatot tárgyaltuk, mivel ezen jól bemutatható a bonyolultabb MLP tanulóalgoritmus levezetése során használt apparátus. Ehhez bevezettük az ismeretmátrix segédfogalmat: ez a M osztályba tartozó, osztályonként L prototípus alakzatot és alakzatonként N komponensû lényegvektort tartalmazó MLxN -es mátrix. Adott ezen kívül minden prototípus alakzat esetén a célértékvektor is, aminek j-edik komponense a j-edik kimeneti csomópont aktivitása az egyes bemutatott bemenõ vektorok esetén; így a kimeneti réteg csomópontjaira kritériumfüggvényt lehet definiálni, aminek extrémumát keresve adódik a tanító algoritmus. A tanító algoritmust két lépésben kaptuk meg: elõször a tényleges és az elvárt kimenetek különbségeinek négyzetösszegét minimalizáló eljárást elemeztük a gradiens módszer használata mellett és nem vettük figyelembe a kimeneti signum-típusú nemlinearitást (levezetésünk nem tér el lényegesen az itt is hivatkozott szakirodalomban olvashatóktól, ezért nem részletezzük). A kapott összefüggésben ezután figyelembe vettük, hogy itt a kimenõ érték csak ±1 lehet, így adódott az egyszerû, ismert alak. Megjegyezzük azonban, hogy bár az egyrétegû perceptron csak lineárisan szeparálható esetben jó, és pl. már az ún. XOR problémát sem tudja megoldani nagyon hasznos volt részletesen végigvizsgálni, mivel a felhasznált fogalmak és a levezetés módszere hasonló a többrétegû perceptron esetéhez, tehát ott már csak a valóban új gondolatokra illetve fogásokra kellett figyelni. Érdekes észrevétel az is, hogy bár a szakirodalom nem tér ki részletesen a küszöbérték iterációjának problémájára, ez nagyon fontos része az algoritmusnak (legalábbis csak ennek helyes tanítása során tudtuk visszakapni a szakirodalmi ábrákat ill. eredményeket). A MLP hálózat tanító algoritmusának levezetése során ugyanazt a fogalomrendszert lehetett használni, mint az egyrétegû esetben, de itt új elemként megjelenik a kimenti nemlinearitást jelentõ függvény deriváltja is. Az MLP algoritmus eleganciájának okaként azt jelöltük meg, hogy e derivált egyszerûen elõállítható magából a függvénybõl, s erre két tipikus nemlinearitás is található: a logisztikus leképezés (szigmoid függvény) illetve a th(.) függvény. A megírt programokkal szerzett tapasztalatok szerint jobb eredmény érhetõ el az utóbbival. Itt is jelentkezett a küszöbérték iterációjával kapcsolatos probléma: a legjobbnak az XOR probléma vizsgálata alapján az bizonyult, amikor a küszöbértékeket egy tanítási ciklus után módosítottuk (tanítási ciklus alatt az ismeretmátrix egyszeri teljes bemutatását értjük, az ábrák 200 tanítási ciklussal készültek 1.1., 1.2., 1.3. ábrák). Ezután következhetett a MLP algoritmus részletes vizsgálata különféle 2D osztályelrendezésekre. A 2. ábra a MLP algoritmust mutatja az XOR probléma tanulása közben: látható a hibafüggvény alakulása és két kiragadott állapot képe az osztályokkal és a diszkriminancia függvénnyel, a 3. ábra esetén ez a SAKK problémán követhetõ. 38

2.5 2 1.5 1 0.5 0 5 4.5 4 3.5 3 2.5 2 1.5 1 0.5 0 1.1 ábra. Az XOR probléma tanítása a küszöbértékek módosítása nélkül (MLP). 1.2 ábra. Az XOR probléma tanítása a küszöbértékek cikluson kivüli módosításával (MLP). 4 3.5 3 2.5 2 1.5 1 0.5 0 1.3 ábra. Az XOR probléma tanítása a küszöbérték cikluson belüli módosításával (MLP). 39

40 200 2. ábra. A MLP és az XOR probléma (40 ill. 200 iteráció után). 500 1500 3. ábra. A MLP és a SAKK probléma A tapasztalatok birtokában egyikünk (Nagy) kidolgozott egy módosított MLP algoritmust, amivel ezek a problémák (is) pontosabban oldhatók meg (4. ábra). 40

p i egy i pedig Informatika a Felsõoktatásban 96 - Networkshop 96 Debrecen, 1996. augusztus 27-30. XOR 4.ábra. A módosított MLP algoritmus eredménye. SAKK 4. A Hamming- és a MAXNET hálózat Vizsgálatainkban az egyrétegû Hamming-hálózat asszociatív memória ként szolgált: ismert, ideális alakzatokra (ezek ±1 értékû elemekbõl álló 16x16-os képek, amiket a hálózat tárol) kellett a hálózatnak a bemutatott, zajos bemenet alapján "asszociálnia". A hálózat elõször kiszámítja a bemutatott alakzat és prototípus alakzatok Hamming-távolságának és a maximális Hamming-távolságnak az eltérését:, ahol N az alakzatok elemi jeleinek számát (esetünkben 256), a x Hamming-távolságot, a bemutatott alakzat prototípus-alakzat egy elemi jelét, (feladat-alakzat) egy elemi jelét jelöli. Ezt úgy is értelmezhetjük, hogy az egyes ismert ideális képeknek egy-egy neuron felel meg, amelyek küszöbértéke N/2, az egyes súlytényezõk értéke pedig. A Hamming-távolság meghatározása után a maximális értékû kimenet meghatározása következik; ezt a feladatot végzi el a MAXNET hálózat. Ez a Hamminghálózatra épülõ egyrétegû hálózat, amelynek csomópontjai az oldalirányú gátlás révén kapcsolódnak egymáshoz: egy csomó-pont a többit azonos 0 < ε < 1 értékkel gátolja, s a döntést az alábbi iteráció után kapjuk:, ahol f(.) a lineáris, telítéses nemlinearitás. A "zajt" egyenletes eloszlású álvéletlenszám-generátorral állítottuk elõ az egyes elemi jelek ellentettbe forgatásával; a döntéshez szükséges iterációszám gátlástól való függését vizsgáltuk. A Hamming-hálózattal kapcsolatban a kutatás jelenleg is élénk [10]. 5. Wavelet-neuronhálózatok Jelenlegi vizsgálataink a wavelet-neuronhálózatokkal kapcsolatosak. A wavelet-analízis a jelfeldolgozás új eszközének számít; munkánk során beszédfeldolgozási feladatokra dolgoztunk ki új, wavelet-alapú módszereket [11]. A neuronhálózatos megközelítést az kínálja, hogy egy jelet waveletek segítségével így közelíthetünk:, ahol K a 41

waveletek száma, w k a súlytényezõknek felel meg, b k és a k pedig az adott waveletnek megfelelõ eltolási érték ill. skálatényezõ. Ebben az esetben tehát a t pontbeli approximáció ról van szó: a t bemenet esetén szeretnénk megkapni a jel közelítõ értékét e pontban. A w k, b k és a k paraméterek ismét a kimeneti hibanégyzet minimalizálásával kaphatók meg. Természetesen osztályozó elrendezés is konstruálható [12]. 6.Összefoglalás A dolgozatban közölt gyakorlati eredményeink alapján megállapítható, hogy a mesterséges neuronhálózatok oktatása lehetséges fõiskolánkon. Kitértünk jelenlegi vizsgálatainkra is. Irodalomjegyzék [1] Neuralogix: NLX420 NSP (Neural Processor Slice) Data Sheet, 1992. [2] Lábos E.: A neuronális és neuronhálózati tevékenység szimulációjának néhány problémája. MTA KKP-3 Tudományos ülésszak. Budapest, 1984. márc. 13-14. [3] Lábos E.: Mesterséges neuronhálózatok - state of the art. HTE elõadás. Budapest, 1994. 05. 02. [4] Lippmann, R. P.: An introduction to computing with neural nets. IEEE ASSP Magazine, April 1987, pp. 4-22. [5] Pao, Y. H.: Adaptive Pattern Recognition. Academic Press, 1989. [6] Horváth Gábor szerk.: Neurális hálózatok és mûszaki alkalmazásaik. Mûegyetemi Kiadó, 1995. [7] Nagy Z.: Nyári szakmai gyakorlati feladat. GAMF Informatika Tanszék, 1995. [8] Hizsnyai G.: Nyári szakmai gyakorlati feladat. GAMF Informatika Tanszék, 1995. [9] Marosi István személyes közlése. [10] Meilijson, I, Ruppin, E., Sipper, M.:A single-iteration threshold Hamming Network. IEEE Trans. on Neural Network, January 1995. pp. 261-266. [11] Pintér, I.: Perceptual wavelet representation of speech signals and its application to speech enhancement. Computer Speech and Language, Vol. 10. No. 1. 1996. pp. 1-22. [12] Szu, H., H., Telfer, B., Kadambe, S.: Neural network adaptive wavelets for signal representation and classification. Optical Engineering, September 1992, pp. 1907-1916. 42