Gépi tanulás a gyakorlatban. Lineáris regresszió

Hasonló dokumentumok
Gépi tanulás a gyakorlatban. Bevezetés

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

Konjugált gradiens módszer

Többváltozós, valós értékű függvények

Kétváltozós függvények differenciálszámítása

Gépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés

Optimalizálás alapfeladata Legmeredekebb lejtő Lagrange függvény Log-barrier módszer Büntetőfüggvény módszer 2017/

Matematika III előadás

Statisztika I. 12. előadás. Előadó: Dr. Ertsey Imre

First Prev Next Last Go Back Full Screen Close Quit

Nemlineáris modellek

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Matematika. 4. konzultáció: Kétváltozós függvények szélsőértéke. Parciális függvény, parciális derivált

Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )

2 (j) f(x) dx = 1 arcsin(3x 2) + C. (d) A x + Bx + C 5x (2x 2 + 7) + Hx + I. 2 2x F x + G. x

Tanulási cél Szorzatfüggvényekre vonatkozó integrálási technikák megismerése és különböző típusokra való alkalmazása. 5), akkor

Numerikus módszerek beugró kérdések

Matematika III előadás

Figyelem, próbálja önállóan megoldani, csak ellenőrzésre használja a következő oldalak megoldásait!

VIK A1 Matematika BOSCH, Hatvan, 5. Gyakorlati anyag

Nem-lineáris programozási feladatok

Feladatok a Gazdasági matematika II. tárgy gyakorlataihoz

10. Előadás. 1. Feltétel nélküli optimalizálás: Az eljárás alapjai

Nemlineáris programozás 2.

Matematika A1a Analízis

A szimplex algoritmus

Függvények 1. oldal Készítette: Ernyei Kitti. Függvények

Hamilton rendszerek, Lyapunov függvények és Stabilitás. Hamilton rendszerek valós dinamikai rendszerek, konzerva3v mechanikai rendszerek

Mesterséges Intelligencia I.

Legkisebb négyzetek módszere, Spline interpoláció

MATEMATIKA 2. dolgozat megoldása (A csoport)

Matematika I. NÉV:... FELADATOK: 2. Határozzuk meg az f(x) = 2x 3 + 2x 2 2x + 1 függvény szélsőértékeit a [ 2, 2] halmazon.

Mesterséges Intelligencia MI

Többváltozós, valós értékű függvények

Nemlineáris egyenletrendszerek megoldása április 15.

Adatbányászati szemelvények MapReduce környezetben

Maple: Deriváltak és a függvény nevezetes pontjai

Teljesen elosztott adatbányászat pletyka algoritmusokkal. Jelasity Márk Ormándi Róbert, Hegedűs István

BIOMATEMATIKA ELŐADÁS

A lineáris programozás alapjai

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Kalkulus 2., Matematika BSc 1. Házi feladat

Diszkréten mintavételezett függvények

Statisztikai módszerek a skálafüggetlen hálózatok

További forgalomirányítási és szervezési játékok. 1. Nematomi forgalomirányítási játék

Matematika 8. osztály

1. Parciális függvény, parciális derivált (ismétlés)

Line aris f uggv enyilleszt es m arcius 19.

Gépi tanulás és Mintafelismerés

Kollektív tanulás milliós hálózatokban. Jelasity Márk

FÜGGVÉNYEK. A derékszögű koordináta-rendszer

9. feladatsor: Többváltozós függvények deriválása (megoldás)

(Independence, dependence, random variables)

Deep Learning a gyakorlatban Python és LUA alapon Tanítás: alap tippek és trükkök

Osztályozás, regresszió. Nagyméretű adathalmazok kezelése Tatai Márton

Számítógép és programozás 2

EuroOffice Optimalizáló (Solver)

Második zárthelyi dolgozat megoldásai biomatematikából * A verzió

Problémás regressziók

Peer-to-peer (P2P) gépi tanulás. Hegedűs István

Mesterséges Intelligencia I. (I602, IB602)

Szélsőérték-számítás

Matematika I. NÉV:... FELADATOK:

Összefoglalás és gyakorlás

Kétváltozós függvény szélsőértéke

Tanulás Boltzmann gépekkel. Reiz Andrea

Gépi tanulás Gregorics Tibor Mesterséges intelligencia

Óravázlatok: Matematika 2.

Hozzárendelés, lineáris függvény

6. Függvények. Legyen függvény és nem üreshalmaz. A függvényt az f K-ra való kiterjesztésének

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008

6. Folytonosság. pontbeli folytonosság, intervallumon való folytonosság, folytonos függvények

9. TÖBBVÁLTOZÓS FÜGGVÉNYEK DIFFERENCIÁLSZÁMITÁSA. 9.1 Metrika és topológia R k -ban

ACM Snake. Orvosi képdiagnosztika 11. előadás első fele

Számítógép és programozás 2

ELTE TáTK Közgazdaságtudományi Tanszék GAZDASÁGSTATISZTIKA. Készítette: Bíró Anikó. Szakmai felelős: Bíró Anikó június

Descartes-féle, derékszögű koordináta-rendszer

A szimplex algoritmus

Biomatematika 12. Szent István Egyetem Állatorvos-tudományi Kar. Fodor János

DIFFERENCIÁLEGYENLETEK. BSc. Matematika II. BGRMA2HNND, BGRMA2HNNC

Függvények Megoldások

Teljesen elosztott adatbányászat alprojekt

Felügyelt önálló tanulás - Analízis III.

A fontosabb definíciók

4.2. Tétel: Legyen gyenge rendezés az X halmazon. Legyen továbbá B X, amelyre

Totális Unimodularitás és LP dualitás. Tapolcai János

Least Squares becslés

1. Bevezetés. 2. Felületek megadása térben. A fenti kúp egy z tengellyel rendelkező. ismerhető fel, hogy. 1. definíció. Legyen D R n.

Függvények vizsgálata

Utolsó el adás. Wettl Ferenc BME Algebra Tanszék, Wettl Ferenc (BME) Utolsó el adás / 20

Online migrációs ütemezési modellek

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Hidraulikus hálózatok robusztusságának növelése

2. SZÉLSŽÉRTÉKSZÁMÍTÁS. 2.1 A széls érték fogalma, létezése

Számítógépes döntéstámogatás. Statisztikai elemzés

Lengyelné Dr. Szilágyi Szilvia április 7.

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

11. gyakorlat megoldásai

First Prev Next Last Go Back Full Screen Close Quit. (Derivált)

Gazdasági matematika II. vizsgadolgozat, megoldással,

Átírás:

Gépi tanulás a gyakorlatban Lineáris regresszió

Lineáris Regresszió Legyen adott egy tanuló adatbázis: Rendelkezésünkre áll egy olyan előfeldolgozott adathalmaz, aminek sorai az egyes ingatlanokat írják le. Az adathalmaznak két oszlopa van. Az első az ingatlanok területét, a második az ingatlanok árait tartalmazza. Szeretnénk előrejelezni ingatlanok árait. Tanuló példák száma: m=11 Felügyelt módszer, valós segéd információval regressziós feladat Dimenzió: d=1 (bemeneti pontok dimenziója) Jellemzők: 1 db, terület (x1) Címkék: valós érték (ár) valós érték felügyelt regresszió (y) Modell: egyenes (h)

Lineáris regresszió Tanulás során: tanuló adatbázis modell (h) Hogyan reprezentáljuk h-t? Tanulás Tanító adatbázis Tanuló algoritmus Modell h(x)=a*x+b a és b paraméterek Tanulás során: a és b paraméterek meghatározása Felhasználás Adatok Modell Információ az adatokról Hogyan válasszuk a-t és b-t? Nézzünk néhány példát! a=1, b=0 a=0, b=1.2m

Lineáris regresszió Hogyan válasszuk a-t és b-t (h modell paramétereit)? Ötlet: válasszuk úgy a-t és b-t, hogy a tanuló példákon h(x) közel kerüljön y-hoz, minden (x,y) tanító példára Költség függvény:, ahol y (i) h(x (i) ) Tanulás: minimalizáljuk J(a,b)-t a tanuló adatbázison és a tanult modell legyen a minimum hely x (i)

Lineáris regresszió Értsük meg a költség függvényt! a modell: h a,b (x) a példák (nem csak tanító példák!) függvénye, adott paraméterek esetén területhez rendel becsült eladási árat a költség függvény: J(a,b) a paraméterek függvénye, adott tanuló halmaz esetén megmondja, hogy az adott paraméterű modell mennyire jól illeszkedik a tanuló halmazra (hiba függvény) Egyszerűsítés: legyen h(x) = a*x (hagyjuk el a b paramétert egy időre) Origón átmenő egyeneseket tekintünk csak! h (1) (x)=1*x a (1) =1 h (2) (x)=0.5*x a (2) =0.5 h (3) (x)=0*x=0 a (3) =0 x (1) x (2) x (3) a (3) = 0 J= (1+4+9)/6 ~ 2.33 a (2) = 0.5 J= 0.25(1+4+9)/6 ~ 0.58 a (1) = 1 J=0

Lineáris regresszió Értsük meg a költség függvényt! Előzőek alapján sejtés: J(a) parabolikus függvény Valóban:

Lineáris regresszió Az egyszerűsítés elvetésével is hasonló a helyzet: a modell: h a,b (x)=a*x+b nem csak az origón átmenő egyenesek két paraméter a költség függvény: J(a,b) két változós függvény szintén parabolikus A költség függvény: minden egyes alappontja meghatároz egy modellt a hozzá tartozó függvény érték meghatározza, hogy az adott modell mennyire jó a tanuló halmazon h a1,b1 (x) J(a,b) h a2,b2 (x) a b

Lineáris regresszió A költség függvény: minden egyes alappontja meghatároz egy modellt a hozzá tartozó függvény érték meghatározza, hogy az adott modell mennyire jó a tanuló halmazon Tanulás-Modell felhasználás: Adott egy tanuló adatbázis: és néhány paraméter: a modell a példák függvénye: definiáljunk egy költség függvényt a paraméterek függvényében: Tanulás: optimalizáljuk a költség függvényt: Felhasználás: használjuk az optimális paraméterekkel a modellt h a1,b1 (x) J(a,b) h a2,b2 (x) a b

Lineáris regresszió 1.Kvíz: Lehet-e negatív a lineáris regresszió költségfüggvényének az értéke? 1. Igen, ha a tanító halmaz minden (x,y) elemére h(x)<y 2. Igen, ha feltesszük, hogy felügyelt tanulásról van szó 3.Nem 2.Kvíz: Lehet-e olyan paraméter párt mondani, amely mellett az egy dimenziós lineáris regresszió költségfüggvény értéke 0 (adott tanító halmazon)? 1. Igen, (a=1,b=1) 2.Nem 3. Igen, (a=1, b=0) 4. Igen, (a=0, b=0)

Lineáris regresszió Tanulás: opt. a költség függvényt: Hogyan határozzuk meg a költség függvény minimumát? Kimerítő keresés nagy műveletigény főleg nagyobb dimenzióban Hegymászó algoritmus a lineáris regresszió esetén túl általános Algoritmus: Theta_0 = véletlen, i=0 Amíg nem konvergált Theta_i+1 := Theta_i környezetéből egy olyan véletlen pont Ha J(Theta_i+1) >= J(Theta_i) akkor Theta_i+1=Theta_i Gradiens módszer (Gradient descent) jó választás, hiszen a költség függvény parabolikus Nézzük meg részletesebben!

Gradiens módszer Hasonlít a Hegymászó algoritmushoz, csak a szomszéd választás irányított. Algoritmus: Azaz a gradiens irányával ellentétes irányba (kivonás) lépünk el A lépés hosszát Alpha határozza meg

Gradiens módszer Interpretáció: Tegyük fel ismét, hogy h(x)=a*x, és így egy dimenziós parabola Tegyük fel továbbá, hogy eljutottunk a i pontba, ekkor a gradiens update jelentése a következő J(a) a i A derivált függvény értéke (gradiens) az a i helyen megadja az a i pontba húzott érintő meredekségét A gradiens update ebben az esetben a minimum felé tolja a i+1 -et (Alpha > 0)

Gradiens módszer Gradiens módszer tulajdonságai: Általánosságban megfelelő Alpha választásával lokális optimum megtalálását biztosítja Parabolikus (több dimenzióban kvadratikus függvények esetén) egy optimum van lokális = globális Tanuló konstans (learning rate, Alpha szerepe) Lépés méretét határozza meg Túl kicsi lassú konvergencia Túl nagy túl léphet a az optimumon (akár divergálhat is)

Gradiens módszer 3. Kvíz: Parabolikus (kvadratikus) költségfüggvény esetén az gradiens módszer megtalálja a globális optimumot 1.Igen, feltéve, hogy a lépésköz (Alpha) paraméter megfelelően van beállítva 2. Nem, divergál 3. Igen, mindig 4.Igen, feltéve, hogy a költségfüggvény folytonosan differenciálható

Gradiens módszer Lineáris regresszió esetén Tegyük fel ismét, hogy a a két változós optimalizálandó költségfüggvényünk Ahhoz, hogy a Gradiens módszer alkalmazható legyen le kell azt deriválnunk minden változója szerint (parciális deriválás)

Gradiens módszer Annak függvényében, hogy milyen költség függvényt alkalmazunk eltérő módszerekről beszélhetünk: Eddig a teljes tanító halmazt használtuk hiba (költség mérésére) batch mód Tanító halmaz egy véletlen részhalmazán történő mérés mini batch mód Egy példán történő mérés stochastic mód