A neurális hálózatok tanításának alapjai II.: Módszerek a túltanulás elkerülésére. Szoldán Péter

Hasonló dokumentumok
Tanulás tanuló gépek tanuló algoritmusok mesterséges neurális hálózatok

Intelligens Rendszerek Elmélete. Versengéses és önszervező tanulás neurális hálózatokban

Gépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés

Mit látnak a robotok? Bányai Mihály Matemorfózis, 2017.

8. Egyenletek, egyenlőtlenségek, egyenletrendszerek II.

Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)

E x μ x μ K I. és 1. osztály. pontokként), valamint a bayesi döntést megvalósító szeparáló görbét (kék egyenes)

Diszkrét matematika II., 5. előadás. Lineáris egyenletrendszerek

Mesterséges neurális hálózatok II. - A felügyelt tanítás paraméterei, gyorsító megoldásai - Versengéses tanulás

Gépi tanulás a Rapidminer programmal. Stubendek Attila

Lineáris egyenletrendszerek

A mérési eredmény megadása

3. Egyenletek, egyenletrendszerek, egyenlőtlenségek

7. gyakorlat. Lineáris algebrai egyenletrendszerek megoldhatósága

Adatbányászati szemelvények MapReduce környezetben

JAVÍTÁSI-ÉRTÉKELÉSI ÚTMUTATÓ A MATEMATIKA KÖZÉPSZINTŰ ÍRÁSBELI 2. FELADATSORHOZ

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Másodfokú egyenletek, egyenlőtlenségek

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

6. Függvények. 1. Az alábbi függvények közül melyik szigorúan monoton növekvő a 0;1 intervallumban?

Lineáris regressziós modellek 1

Lineáris egyenletrendszerek

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Másodfokú egyenletek, egyenlőtlenségek

Prievara Tibor Nádori Gergely. A 21. századi szülő

Mély neuronhálók alkalmazása és optimalizálása

Lineáris algebra 2. Filip Ferdinánd december 7. siva.banki.hu/jegyzetek

Sajátértékek és sajátvektorok. mf1n1a06- mf1n2a06 Csabai István

Deep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök

Robotok inverz geometriája

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók 2. Pataki Béla

Biomatematika 12. Szent István Egyetem Állatorvos-tudományi Kar. Fodor János

7. gyakorlat. Lineáris algebrai egyenletrendszerek megoldhatósága

3. Lineáris differenciálegyenletek

Compressed Sensing. Sipos Roland Adatbányászat szeminárium Május 22.

MATEMATIKA I. RÉSZLETES ÉRETTSÉGI VIZSGAKÖVETELMÉNY A) KOMPETENCIÁK

PRÓBAÉRETTSÉGI VIZSGA

Az egyenes egyenlete: 2 pont. Az összevont alak: 1 pont. Melyik ábrán látható e függvény grafikonjának egy részlete?

Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )

[Biomatematika 2] Orvosi biometria

Hadházi Dániel.

Intelligens Rendszerek Gyakorlata. Neurális hálózatok I.

Gépi tanulás és Mintafelismerés

Egyenletek, egyenletrendszerek, egyenlőtlenségek Megoldások

1. MATEMATIKA EMELT SZINTŰ ÍRÁSBELI FELADATSOR

Egyenletek, egyenlőtlenségek VII.

Egy gazdasa gmatematikai modell An economical mathematics model

Egyenletek, egyenlőtlenségek, egyenletrendszerek I.

A KroneckerCapelli-tételb l következik, hogy egy Bx = 0 homogén lineáris egyenletrendszernek

Módszertani megjegyzés: A kikötés az osztás műveletéhez kötődik. A jobb megértés miatt célszerű egy-két példát mu-

Megoldások MATEMATIKA II. VIZSGA (VK) NBT. NG. NMH. SZAKOS HALLGATÓK RÉSZÉRE (Kérjük, hogy a megfelelő szakot jelölje be!

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Matematikai geodéziai számítások 10.

GPK M1 (BME) Interpoláció / 16

Typotex Kiadó. Bevezetés

A leíró statisztikák

MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK MEGOLDÁSAI KÖZÉP SZINT Függvények

Matematika (mesterképzés)

Megerősítéses tanulás 7. előadás

1. Számológép és táblázat használata nélkül számítsd ki a következő számokat, majd. ; 8. (7 pont) függvényt! (9 pont)


1. feladatsor: Vektorterek, lineáris kombináció, mátrixok, determináns (megoldás)

Stratégiák tanulása az agyban

egyenlőtlenségnek kell teljesülnie.

6. modul Egyenesen előre!

MATEMATIKA JAVÍTÁSI-ÉRTÉKELÉSI ÚTMUTATÓ

Matematika 10 Másodfokú egyenletek. matematika és fizika szakos középiskolai tanár. > o < szeptember 27.

Least Squares becslés

Függvények Megoldások

Tanmenetjavaslat a 6. osztályos matematika kísérleti tankönyvhöz

Hibadetektáló rendszer légtechnikai berendezések számára

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

3. Előadás. Megyesi László: Lineáris algebra, oldal. 3. előadás Lineáris egyenletrendszerek

1. Generátorrendszer. Házi feladat (fizikából tudjuk) Ha v és w nem párhuzamos síkvektorok, akkor generátorrendszert alkotnak a sík vektorainak

Másodfokú egyenletek. 2. Ábrázoljuk és jellemezzük a következő,a valós számok halmazán értelmezett függvényeket!

MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK MEGOLDÁSAI KÖZÉPSZINT Függvények

Első zárthelyi dolgozat megoldásai biomatematikából * A verzió

Helyi tanterv Német nyelvű matematika érettségi előkészítő. 11. évfolyam

Intelligens Rendszerek Elmélete

JAVÍTÁSI-ÉRTÉKELÉSI ÚTMUTATÓ

A(a; b) = 2. A(a; b) = a+b. Példák A(37; 49) = x 2x = x = : 2 x = x = x

MATEMATIKA ÉRETTSÉGI TÍPUSFELADATOK MEGOLDÁSAI EMELT SZINT Számelmélet

BAGME11NNF Munkavédelmi mérnökasszisztens Galla Jánosné, 2011.

Osztályozóvizsga követelményei

Fogyasztás, beruházás és rövid távú árupiaci egyensúly kétszektoros makromodellekben

MATEMATIKA Kiss Árpád Országos Közoktatási Szolgáltató Intézmény Vizsgafejlesztő Központ

Lineáris egyenletrendszerek. GAUSS ELIMINÁCIÓ (kiküszöbölés)

HALMAZOK. A racionális számok halmazát olyan számok alkotják, amelyek felírhatók b. jele:. A racionális számok halmazának végtelen sok eleme van.

Irányításelmélet és technika II.

Brósch Zoltán (Debreceni Egyetem Kossuth Lajos Gyakorló Gimnáziuma) Megoldások

Mat. A2 3. gyakorlat 2016/17, második félév

Intelligens orvosi műszerek VIMIA023

Klár Gergely 2010/2011. tavaszi félév

11. modul: LINEÁRIS FÜGGVÉNYEK

Megoldások IV. osztály

PRÓBAÉRETTSÉGI MATEMATIKA május-június EMELT SZINT. Vizsgafejlesztő Központ

Nagy András. Feladatok a logaritmus témaköréhez 11. osztály 2010.

1. tétel. 1. Egy derékszögű háromszög egyik szöge 50, a szög melletti befogója 7 cm. Mekkora a háromszög átfogója? (4 pont)

Hiányos másodfokú egyenletek. x 8x 0 4. A másodfokú egyenlet megoldóképlete

Exponenciális, logaritmikus függvények

Átírás:

>ready to transmit

A neurális hálózatok tanításának alapjai II.: Módszerek a túltanulás elkerülésére Szoldán Péter

A hálózatnak nincs kontextusa Képzeljék el, hogy amióta megszülettek, semmit mást nem csináltak, csak egy székben ültek, és kutya vagy macska képeket néztek Ez az egész világuk, semmi mást nem tudnak semmiről Így kell elképzelni egy neurális hálózatot: csak arról van fogalma, amit mutattunk neki

Mit tud a gép? Csak azt, amit megtanítottak neki, amit látott A tudása a súlyokban tárolódik, amivel az előző neuronok kimenetét súlyozza, amit a tanulás során határoztunk meg A súlyokat kizárólag az befolyásolja, hogy a kitűzött feladatot mennyire jól tudja megoldani Ha olyasmit lát, amit még sose, nem tud rá mit mondani

Súlyok keresése: egyenletrendszer Be Súlyok Cél 10? 20? + 50-30? 10x + 20y -30z = 50

Ahány ismeretlen, annyi egyenlet kell, különben végtelen megoldás van 10x + 20y -30z = 50 x=5, y=0, z=0 x=0, y=2.5, z=0 x=0, y=0, z=-1.67 x=2, y=2, z=0.33

Egy ismeretlen, egy egyenlet kell 5x = 10 x = 2

Két ismeretlen, két egyenlet kell 5x + 1y = 14 x + 2y = 10 x = 2, y = 4

n ismeretlen, n egyenlet kell Különben az egyenletrendszer alulhatározott, végtelen megoldása van A hálózatnak ez lehetőséget ad arra, hogy lusta módon a matematikailag legegyszerűbb megoldást keresse meg Ha kevés az adat (az egyenlet), ez oda vezethet, hogy valami számunkra nyilvánvalóan értelmetlen dolgot csinál Csak akkor csinálja meg, amit akarunk, ha muszáj neki, mert az adatok kényszerítik

Első pixel alapján lehet dönteni? Például kutya kép bal felső sarka halványkék, 202 piros, 237 zöld, 255 kék Macska kép bal felső sarka fehér, 255 piros, 255 zöld, 255 kék

A lusta hálózat, azaz túltanulás Ha csak ezt a két képet mutatjuk, akkor: Az első pixelhez tartozó neuron hamar rájön, hogy ha kék, akkor mondja azt, hogy kutya, ha fehér, macska A hálózat többi része erre fog hallgatni, hiszen ez a neuron tökéletes választ ad, ő az Andi Így a hálózat megtanulja: ha halványkék a bal felső sarok, akkor kutya, ha fehér, akkor macska. Kész!

Radiológiai példa túltanulásra 37 éves, nő, nem rákos 75 éves, férfi, rákos Nő -> nem rákos, férfi -> rákos? 50 évnél fiatalabb -> nem rákos, 50 évnél öregebb -> rákos?

Túltanulás lehet bonyolult is A neuronok súlyaikkal komplexebb szabályokat is tudnak alkotni Lehet például olyasmi, hogy az első pixel kék, a tizenhetedik piros, a kétszázadik az ötödik sorban meg zöld A lényeg, hogy megfognak valamit, ami csak konkrétan az adott tanuló halmazra igaz, általában nem

A túltanulás (overfitting) Túltanulásnak nevezzük, amikor a hálózat az elvárt általánosítás helyett az adott adathalmaz valami egyébként jelentéktelen sajátosságát kihasználva tanulja meg megjósolni az elvárt értékeket, bemagolja a tanulóhalmazt Emiatt a túltanult hálózat általánosító képessége csökken, újabb tesztadatokra nem fog jó eredményeket produkálni

Teszthalmaz A hálózatokat mindig teszthalmazon értékeljük A teszthalmaz nem tartalmazhat a tanulóhalmazban levő képeket A teszthalmazon mindig rosszabbul teljesít a hálózat, de ha jelentősen, akkor túltanulásról beszélünk A gyakorlatban a rendelkezésre álló összes adat véletlenszerűen kiválasztott kb. 10%-át szokás félretenni teszthalmaznak

Túltanulás grafikonon Ahogy elkezd tanulni a hálózat, egyre jobb lesz a tanuló- és teszthalmazon is Amikor elkezd túltanulni, a teszt hiba növekszik, pedig a tanulóhalmazon a hiba csökken: kék vagy fehér pixel szerint kutya vagy macska nem általánosítható

További adatok lerontják a tévesen felismert összefüggéseket Bal felső pixel fehér egy újabb kutyánál, kék egy macskánál: fehér-kék szabály nem működik már! Valami mást kell kitalálnia Javítottuk a hálózat teljesítményét!

Legjobb: nagy tanulóhalmaz kell Minden egyes mintakép, vagy mintaadat, amit mutatunk a hálózatnak, egy-egy újabb egyenletnek felel meg Így ha például egy hálózatban 5 millió paraméter van, akkor hozzávetőlegesen 5 millió képet kellene neki mutatni, hogy jó legyen Ezt a google könnyen megteszi kutyás képekkel, de általában nagyon nehéz feladat

Adatjavítás (data augmentation) I. Véletlen eljárással csináljunk a meglevő adatokból újabbakat Forgatás Tükrözés

Adatjavítás (data augmentation) II. Háromdimenziós adatoknál a forgatás a dimenziók felcserélése is lehet, ha a tengely nem anatómiailag fix, mint például egy daganatnál axialis coronalis sagittalis

Adatjavítás (data augmentation) III. Szín, telítettség, kontraszt, árnyalat Szélek levágása, átméretezés (mértékkel!)

Adatjavítás (data augmentation) IV. Ha mindegyiket egyszerre alkalmazzuk, akkor sokszoros adatmennyiséget kapunk Például 8 féle tükrözés, 32 féle szín, 32 féle levágás 8 x 32 x 32 = 8,192-szeres adatmennyiséget jelent Ez csak elméleti, a javított adatok messze nem annyira jók, mint valódi új adatok, de azért sokat segítenek

Korai megállás (early stopping) I. Általában a túltanulás előtt a hálózat elkezd általánosabb összefüggéseket megtanulni, a véletlen inicializálás miatt A túltanulás, az apró jellegzetességekre figyelés csak később jön Ezért ha jó pillanatban megállítjuk a tanulást, az tud segíteni a túltanulás ellen

Korai megállás (early stopping) II. Ott kell megállítani, ahol a legjobb az eredménye a teszthalmazon

Korai megállás (early stopping) III. De mikor álljunk meg? Például minden 500 lépés után megnézzük, mi a teljesítmény a teszthalmazon, és megállunk, ha elkezd csökkenni Sajnos ez lassítja a tanulást, sok idő a teszthalmazon állandóan ellenőrizgetni Másik baj, hogy túltanulhatja a teszthalmazt is, mert pont ott állunk meg, ahol a teszthalmazra pont jó: kell egy harmadik halmaz is (tanuló, ellenőrző, teszt)

Súlycsökkentés (weight decay) I. Az ilyesfajta megoldások, ahol egy vagy néhány érték magas, a többi alacsony, általában túltanulást jeleznek: semmi sem érdekel, csak hogy kék-e a bal felső pixel! x=5, y=0, z=0 x=0, y=2.5, z=0 x=0, y=0, z=-1.67 Próbáljuk egyenletesebbé tenni!

Súlycsökkentés (weight decay) II. Be 10 20-30 Súlyok 1 1-3 -1 9 1 10-60 30 + Ki -20 Cél Hibához adjuk hozzá a súlyok négyzetét! Ez bünteti az egyenlőtlen súlyeloszlást. Hiba 50 70 +11 81

Súlycsökkentés (weight decay) III. Négyzetösszeg erősen regularizál, L2 regularizáció Például 3, 0, 0 négyzetösszege 9 1, 1, 1 négyzetösszege 3 Matematika iránt érdeklődőknek: a négyzetes közép mindig nagyobb a számtaninál, a különbség annál nagyobb, minél távolabb vannak egymástól a számok Négyzetes közép: sqrt( (a 2 + b 2 + c 2 ) / 3 ) Számtani közép ( átlag ) : ( a + b + c ) / 3

Súlycsökkentés (weight decay) IV. Mivel a súlyok négyzete nagyon erős hatást gyakorol, ezért ezt az úgynevezett regularizációs tényezőt csak valamilyen kicsi együtthatóval (λ) szabad a hibához hozzáadni, például λ = 0.0001 egy gyakori érték Különben arra készteti a hálózatot, hogy minden súly nullává váljon ( modell összeomlás, model collapse )

Kihagyás (dropout) I. Bizonyos rétegeknél véletlenszerűen kihagyunk a számolásból neuronokat

Kihagyás (dropout) II. Az indoka ennek az, hogy általában a túltanulás jellemzője, hogy nagyon egyedi dolgokra figyel oda Ha véletlenszerűen kimarad egy-egy neuron, akkor a következő réteg kénytelen általánosabb összefüggéseket keresni, tanulni Minden tanulási lépésben más-más neuronokat hagyunk ki, mindig újra generáljuk a véletlen számokat

Kihagyás (dropout) III. Analóg azzal, amikor rossz a vétel a TV-n, de még látszik valami: az ember azért meg tudja mondani, hogy mi van ott nagyjából

Kihagyás (dropout) IV. Gyakorlati eredmények nagyon jók a kihagyással A változtatható paraméter az, hogy hány százalékát hagyjuk ki a neuronoknak? Például drop_rate = 0.2, vagy keep_rate = 0.8, akkor minden ötödiket A gyakorlatban a keep rate kb. 0.5 0.8

Várható eredmények Ebben a kontextusban értékeljék a teljesítményünket, hogy 187 pozitív (és 800 negatív) mellkas CT felvételből tudtunk kihozni 80.6% pontosságot tüdőrák diagnosztikára

>connection ended