Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Hasonló dokumentumok
Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2006/2007

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Neurális hálózatok bemutató

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.

za TANTÁRGY ADATLAPJA

TARTALOMJEGYZÉK. TARTALOMJEGYZÉK...vii ELŐSZÓ... xiii BEVEZETÉS A lágy számításról A könyv célkitűzése és felépítése...

I. LABOR -Mesterséges neuron

Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

A TANTÁRGY ADATLAPJA

Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet

Intelligens Rendszerek Gyakorlata. Neurális hálózatok I.

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban

E x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes)

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/364

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Intelligens Rendszerek Elmélete

Neurális hálózatok.... a gyakorlatban

Modellezés és szimuláció. Szatmári József SZTE Természeti Földrajzi és Geoinformatikai Tanszék

NEURÁLIS HÁLÓZATOK 1. eloadás 1

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás

Intelligens orvosi műszerek VIMIA023

Gépi tanulás a gyakorlatban. Bevezetés

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008

Hibadetektáló rendszer légtechnikai berendezések számára

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008

Gépi tanulás és Mintafelismerés

Mesterséges Intelligencia 1

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008

Tanulás az idegrendszerben

Bevezetés a neurális számításokba Analóg processzortömbök,

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

II. LABOR Tanulás, Perceptron, Adaline

Számítógépes döntéstámogatás. Genetikus algoritmusok

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2006/2007

Perceptron konvergencia tétel

FELÜGYELT ÉS MEGERŐSÍTÉSES TANULÓ RENDSZEREK FEJLESZTÉSE

A fordítóprogramok szerkezete. Kódoptimalizálás. A kódoptimalizálás célja. A szintézis menete valójában. Kódoptimalizálási lépések osztályozása

SAT probléma kielégíthetőségének vizsgálata. masszív parallel. mesterséges neurális hálózat alkalmazásával

D I G I T Á L I S T E C H N I K A Gyakorló feladatok 3.

Gépi tanulás a Rapidminer programmal. Stubendek Attila

A félév során előkerülő témakörök

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/364

Informatika Rendszerek Alapjai

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

Tartalomjegyzék. Tartalomjegyzék... 3 Előszó... 9

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

A RADARJELEK DETEKTÁLÁSA NEURÁLIS HÁLÓZAT ALKALMAZÁSÁVAL

Bevezetés a programozásba I 3. gyakorlat. PLanG: Programozási tételek. Programozási tételek Algoritmusok

Fuzzy rendszerek és neurális hálózatok alkalmazása a diagnosztikában

Mesterséges intelligencia

Digitális technika házi feladat III. Megoldások

Konvolúciós neurális hálózatok (CNN)

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Magyar Matematika-Informatika Intézet Babeş Bolyai Tudományegyetem, Kolozsvár 2015/2016 1/370

Bodó / Csató / Gaskó / Sulyok / Simon október 9. Matematika és Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár

Hálózati Folyamok Alkalmazásai. Mályusz Levente BME Építéskivitelezési és Szervezési Tanszék

Konjugált gradiens módszer

Neurális hálózatok MATLAB programcsomagban

Forgalmi modellezés BMEKOKUM209

egy szisztolikus példa

Bevezetés az informatikába

2018, Diszkrét matematika

MATE-INFO UBB verseny, március 25. MATEMATIKA írásbeli vizsga

SZTE Eötvös Loránd Kollégium. 2. Móra György: Információkinyerés természetes nyelvű szövegekből

Digitális technika (VIMIAA02) Laboratórium 1

Support Vector Machines

Mesterséges Intelligencia Elektronikus Almanach. MI Almanach projektismertetı rendezvény április 29., BME, I. ép., IB.017., 9h-12h.

Flynn féle osztályozás Single Isntruction Multiple Instruction Single Data SISD SIMD Multiple Data MISD MIMD

Digitális technika (VIMIAA02) Laboratórium 1

Kétszemélyes játékok

Hálózati Folyamok Alkalmazásai. Mályusz Levente BME Építéskivitelezési és Szervezési Tanszék

Algoritmizálás, adatmodellezés tanítása 6. előadás

A sorozat fogalma. függvényeket sorozatoknak nevezzük. Amennyiben az értékkészlet. az értékkészlet a komplex számok halmaza, akkor komplex

Debreceni Egyetem Informatikai Kar. Fazekas István. Neurális hálózatok

Megerősítéses tanulás 9. előadás

Visszacsatolt (mély) neurális hálózatok

Teljesen elosztott adatbányászat pletyka algoritmusokkal. Jelasity Márk Ormándi Róbert, Hegedűs István

Gépi tanulás a gyakorlatban SVM

Ellátási lánc optimalizálás P-gráf módszertan alkalmazásával mennyiségi és min ségi paraméterek gyelembevételével

Informatikai Kar Eötvös Loránd Tudományegyetem Mesterséges neuronhálók

Stratégiák tanulása az agyban

Gépi tanulás Gregorics Tibor Mesterséges intelligencia

V. Kétszemélyes játékok

Neurális hálózatok elméleti alapjai TULICS MIKLÓS GÁBRIEL

Rendszermodellezés: házi feladat bemutatás

Irányítástechnika GÁSPÁR PÉTER. Prof. BOKOR JÓZSEF útmutatásai alapján

Átírás:

1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011

Az Előadások Témái 262/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák Szemantikus hálók / Keretrendszerek Játékok modellezése Bizonytalanság kezelése Fuzzy rendszerek Grafikus modellek Tanuló rendszerek Szimulált kifűtés, Genetikus algoritmusok A perceptron modell Neurális hálók, önszerveződés Gépi tanulás

Admin...... trívia http://.cs.ubbcluj.ro/~csatol/mestint Vizsga Szóbeli (60%) + Gyakorlat (40%) Laborgyakorlatok: 1 Gráfok ábrázolása - dedukciós algoritmus 18% 2 Játékelmélet 10% 3 - tanulási algoritmus % 4 Opcionális feladatok - max. 3/személy sok% Bemutatók (5 20 pont) Alkalmazások bemutatása, melyek adaptív, gépi tanulásos vagy mestint módszereket alkalmaznak. 263/363

264/363 ET look and disposition I Robotika Tendy-One, a Wendy robot 21.-edik századi reinkarnációja. A robot képes törékeny tárgyak hordozására valamint emberek segítésére a leülés illetve felállás műveleteiben. Érzékelőin keresztül válaszol az emberi érintésekre. Képes egy szelet kenyér megfogására, ugyanakkor képes embereket kisegíteni az ágyukból. Az első ennyire nagyfokú integrációval rendelkező robot. mondta Shigeki Sugano, a Waseda Egyetem tanára, a Tendy-One projekt vezetője. pcworld hír ABCnes hír

Történeti áttekintő IdegSejt Ramon y Cajal 265/363 1894 1900 közötti időszakban; idegrendszer vizsgálata; építőegység azonosítása: neuron; idegsejt mint az idegrendszer építőeleme

http://nobelprize.org/medicine/articles/cajal/ 266/363 Történeti áttekintő I Neuron Ramon y Cajal Nobel díj 1906 The cerebellar cortex (a kitten cerebellum). The letter A marks the Purkinje cells ith dendritic ramifications.

267/363 Történeti áttekintő II Neuron Idegsejt fényképe:

Történeti áttekintő III Neuron Neuron alkotóelemei Szóma (sejtmag) az információ feldolgozása; Dendrit az információ összegyűjtése; Axon az információ terjesztése; mi az információ? 268/363 http://.ship.edu/~cgboeree http://en.ikipedia.org/iki/neuron

269/363 Történeti áttekintő IV Modell Neuron x 1 1 x 2 x 3 2 3 N i=1 ix i z f(z) y N x N Ahol: x i bemeneti értékek; i súlyok (dendritek); összegző (szóma); f(z) átalakító; kapcsolatok (axonok);

270/363 Történeti áttekintő V Modell X Y aszinkron működés; nagyon sok kapcsolat;?hogyan? kreáljunk/töröljünk kapcsolatokat;

271/363 Történeti áttekintő VI Modell X Y szinkron ciklusos működés; rétegek korlátolt számú kapcsolat;

272/363 Történeti áttekintő Idegrendszer = információ-feldolgozó egység. Kérdések (nincsenek kellően tisztázva): Mi az információ, Hogyan történik a feldolgozás. biológiai neuronok aszinkron-működésűek: miért jó a mesterséges neuron szinkronizált jellege. mesterséges neuronok egymáshoz kapcsolódása csekély: a biológiai rendszerek nagyságrendekkel több kapcsolatot kezelnek.

273/363 I Egyszerűsített természetes neuron-modell: x 1 x 2 x 3 x N 1 2 3 N x 0 = 1 0 = b N i=1 ix i z y Korai neuron-modell: McCullogh-Pitts 1958; x i és y értékek binárisak; Aktivációs függvény a lépcsőfüggvény: { 1 ha z < 0 H(z) = +1 ha z 0

274/363 II ON/OFF neuron állapotok A neuronok vagy aktívak vagy nem, mint a bináris logikában rezolució-szerű működés Tanulási szabály: ha (x (n), y (n) )-en hiba történt, akkor i (t + 1) i (t) + x (n) i y (n) ahol ij súly, x (n) bemeneti minta, y (n) a minta osztálya. Konvergencia-tétel: Ha a { tanulási minták (x (n), y (n) ) } N n=1 elválaszthatóak, def (osztályozási feladat) akkor a perceptron konvergál.

275/363 Elválaszthatóság I kék osztály kódja legyen +1; piros osztály kódja legyen 1; T x + b Szeparáló hipersík a {, b} vektorral illetve valós szám által meghatározott felület, ha T x i + b > 0 i ; y i > 0. T x i + b < 0 i ; y i < 0.

vissza 276/363 Elválaszthatóság II T x + b Szeparáló hipersík: ) y i ( T x i + b > 0 i = 1, N. ahol x i - i-edik mintavektor és y i az ahhoz tartozó osztály kódja.

Konvergenciatétel Konvergenciatétel A tanulási szabály alkalmazásával a perceptron véges idő alatt konvergál. Biz: Módszer: találjunk felső és alsó korlátot a lépések számának. 1 Újradefiniáljuk a bemeneti adatokat: ^x i x i def = [x i, 1] T R d+1 def = [, b] T R d+1 def = y i^x i 277/363

278/363 Konvergenciatétel II 2 Újradefiniált feladat Találjunk egy (1) R d+1 értéket úgy, hogy i ; T x i > 0 minden x i -re (már tartalmazzák a címkéket is). 3 Tanítási szabály Ha hiba történt, akkor módosítjuk a perceptron súlyait: i (t + 1) i (t) + x (n) i (rekurzívan visszafejtve: (t + 1) = x 1 + + x t ) 4 Hiba T (t)x (n) < 0. (1) Amennyiben van egy érték, akkor nagyon sok elfogadható érték létezik.

279/363 Konvergenciatétel III 5 Feltételezzük, hogy létezik szeparáló hipersík: 0 R d+1 i ; T 0 x(n) α > 0 6 Vizsgáljuk a T 0 (t + 1) skaláris szorzatot: T 0 (t + 1) = T 0 x1 + + T 0 xt tα 7 Cauchy-Schartz egyenlőtlenség a 2 b 2 ( a T b ) 2 alkalmazzuk: ( ) 2 0 2 (t + 1) 2 T 0 (t) (tα) 2 vagyis (t + 1) 2 (tα)2 0 2

280/363 Konvergenciatétel IV Másrészt - minden tanuló lépésnél: 8 (t + 1) = (t) + x (t), tehát: (t + 1) 2 = (t) + x (t) 2 = (t) 2 + 2(t)x (t) + x (t) 2 (t) 2 + x (t) 2 = tβ 2 Ahol β 2 = max { x (n) 2 ; n = 1..N } 9 Van tehát két egyenlőtlenség, melyből kiszámítható a t maximális értéke: t max x 0 2 β 2 α 2 Tehát a perceptron konvergál

281/363 Demó I Kódoljuk a perceptron algoritmust: generáljuk az adatokat. Specifikáljuk: az adatok dimenzióját, számát; az elválasztó hipersíkot; generáljuk a bemeneti mintákat illetve az azokhoz tartozó kimeneti osztálykódokat. Transzformálunk a konvergenciatétel szerint. Inicializáljuk a perceptront zeró értékekkel. Futtatjuk az algoritmust: mérjük a hibajavító lépéseket; mérjük a ciklusok számát.

282/363 Demó II kód: 1 % ADATOK parameterei dim = 9; N = 200; % az elvalaszto hipersik _0 = [1; 3; 4; 1; 2; 6; 5; 5; 3]; 6 b = 2; % adatgeneralas X = sign(rand(n,dim) 0.5); % cimkek generalasa Y = sign(x* _0 + b); 11 % hatar mintak szurese idx = find(~y); idx = setdiff([1:n],idx); X = X(idx,:); Y=Y(idx); N = length(y);

283/363 Demó III %% tanulas %%%%%% % 1 mintak atalakitasa X = [ X ones(n,1)]; % 2 5 XX= diag(y) * X; %% Tanulas lokalis valtozok beallitasa = zeros(dim+1,1); Term = 0; steps = 0; seeps = 0;

284/363 Demó IV 1 hile ~Term; Term = 1; for ii=1:n; if XX(ii,:) * <= 0 6 = + XX(ii,:)'; steps = steps + 1; fprintf('%d:',steps); % megj. fprintf('%4d',);fprintf('\n'); Term = 0; 11 end; end; seeps = seeps +1; end;

285/363 Demó V Kiíratjuk a statisztikákat: 1 fprintf('\nteljes bejarasok szama: %d\n',seeps); fprintf('eredmeny: '); fprintf('%4d ',); fprintf('\n'); fprintf('kezdo hipersik:'); fprintf('%4d',[_0;b]); fprintf('\n');

60-as évek tanulási paradigmája; Logikai függvényeket keres bemenet és kimenet binárisak; Cél a gondolkodás modellezése Nem tudja szeparálni az XOR művelet kimeneteit (Minsky és Papert 62) Feladat: találjunk konfigurációt, mely az XOR-t helyesen osztályozza. x 1 11 21 22 b 1 h 1 b 2 v 1 v 2 b 3 y x 2 h 2 286/363

287/363 Kitekintő A perceptron egy black-box fekete doboz módszer; Valós életből vett feladatok megoldására lehet használni: 1 Gyűjtünk adatokat, 2 Építünk modellt, 3 Tanítjuk a modellt, 4 Paraméterek = modell kiválasztása. A későbbi neurális háló modellek jó példái a fenti automatizált feladatmegoldási paradigmának. A neurális hálózat modelleket nagyon sokáig ma is használ(j)ták modellezésre.