Lineáris regressziós modellek 1

Hasonló dokumentumok
Least Squares becslés

Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )

A maximum likelihood becslésről

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Optimalizálás alapfeladata Legmeredekebb lejtő Lagrange függvény Log-barrier módszer Büntetőfüggvény módszer 2017/

Gauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei

Biomatematika 12. Szent István Egyetem Állatorvos-tudományi Kar. Fodor János

e (t µ) 2 f (t) = 1 F (t) = 1 Normális eloszlás negyedik centrális momentuma:

Legkisebb négyzetek módszere, Spline interpoláció

Likelihood, deviancia, Akaike-féle információs kritérium

Osztályozás, regresszió. Nagyméretű adathalmazok kezelése Tatai Márton

Principal Component Analysis

Számítógépes döntéstámogatás. Statisztikai elemzés

Kabos: Statisztika II. t-próba 9.1. Ha ismert a doboz szórása de nem ismerjük a

LNM folytonos Az interpoláció Lagrange interpoláció. Lineáris algebra numerikus módszerei

A mérési eredmény megadása

[Biomatematika 2] Orvosi biometria

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Gyakorló feladatok I.

Line aris f uggv enyilleszt es m arcius 19.

LINEÁRIS MODELLBEN május. 1. Lineáris modell, legkisebb négyzetek elve

Gazdasági matematika II. vizsgadolgozat megoldása, június 10

Lineáris algebra Gyakorló feladatok

Lineáris algebra numerikus módszerei

5. előadás - Regressziószámítás

MÉSZÁROS JÓZSEFNÉ, NUMERIKUS MÓDSZEREK

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

Gyakorló feladatok. Agbeko Kwami Nutefe és Nagy Noémi

ELTE TáTK Közgazdaságtudományi Tanszék GAZDASÁGSTATISZTIKA. Készítette: Bíró Anikó. Szakmai felelős: Bíró Anikó június

Regressziós vizsgálatok

Feladatok és megoldások a 13. hétre

A valószínűségszámítás elemei

Gépi tanulás a gyakorlatban. Lineáris regresszió

Általánosan, bármilyen mérés annyit jelent, mint meghatározni, hányszor van meg

Abszolút folytonos valószín ségi változó (4. el adás)

Statisztikai következtetések Nemlineáris regresszió Feladatok Vége

Numerikus matematika. Irodalom: Stoyan Gisbert, Numerikus matematika mérnököknek és programozóknak, Typotex, Lebegőpontos számok

Vektorok, mátrixok, lineáris egyenletrendszerek

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet

1. Generátorrendszer. Házi feladat (fizikából tudjuk) Ha v és w nem párhuzamos síkvektorok, akkor generátorrendszert alkotnak a sík vektorainak

Feladatok a Gazdasági matematika II. tárgy gyakorlataihoz

Adatbányászati szemelvények MapReduce környezetben

Statisztikai módszerek a skálafüggetlen hálózatok

Lineáris egyenletrendszerek

5. elıadás március 22. Portfólió-optimalizálás

BIOMATEMATIKA ELŐADÁS

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Véletlen jelenség: okok rendszere hozza létre - nem ismerhetjük mind, ezért sztochasztikus.

A szimplex algoritmus

A többváltozós lineáris regresszió III. Főkomponens-analízis

Leíró és matematikai statisztika el adásnapló Matematika alapszak, matematikai elemz szakirány 2016/2017. tavaszi félév

Egyenletek, egyenletrendszerek, matematikai modell. 1. Oldja meg az Ax=b egyenletrendszert Gauss módszerrel és adja meg az A mátrix LUfelbontását,

Adatok statisztikai értékelésének főbb lehetőségei

Ökonometria. Logisztikus regresszió. Ferenci Tamás 1 Nyolcadik fejezet. Budapesti Corvinus Egyetem. 1 Statisztika Tanszék

Kernel gépek vizsgálata

Adatmodellez es, f uggv enyilleszt es m arcius 12.

Megoldások. ξ jelölje az első meghibásodásig eltelt időt. Akkor ξ N(6, 4; 2, 3) normális eloszlású P (ξ

Többváltozós lineáris regresszió 3.

Loss Distribution Approach

Gépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés

Matematika A3 Valószínűségszámítás, 6. gyakorlat 2013/14. tavaszi félév

Statisztika - bevezetés Méréselmélet PE MIK MI_BSc VI_BSc 1

c adatpontok és az ismeretlen pont közötti kovariancia vektora

6. előadás - Regressziószámítás II.

3. Fuzzy aritmetika. Gépi intelligencia I. Fodor János NIMGI1MIEM BMF NIK IMRI

Matematika A2 vizsga mgeoldása június 4.

Nemlineáris programozás 2.

1. Görbe illesztés a legkisebb négyzetek módszerével

January 16, ψ( r, t) ψ( r, t) = 1 (1) ( ψ ( r,

Gépi tanulás a gyakorlatban. Bevezetés

y = y 0 exp (ax) Y (x) = exp (Ax)Y 0 A n x n 1 (n 1)! = A I + d exp (Ax) = A exp (Ax) exp (Ax)

Többváltozós lineáris regressziós modell feltételeinek

Biometria az orvosi gyakorlatban. Regresszió Túlélésanalízis

Gépi tanulás. Hány tanítómintára van szükség? VKH. Pataki Béla (Bolgár Bence)

A valószínűségszámítás elemei

Fraktálok. Kontrakciók Affin leképezések. Czirbusz Sándor ELTE IK, Komputeralgebra Tanszék. TARTALOMJEGYZÉK Kontrakciók Affin transzformációk

Lineáris algebra zárthelyi dolgozat javítókulcs, Informatika I márc.11. A csoport

Bevezeto Least-squares es variansai Globalis modszerek Lokalis modszerek. Implicit Fitting. Vaitkus Márton. 3D Számítógépes Geometria 2 (2016)

Vektorterek. =a gyakorlatokon megoldásra ajánlott

Kauzális modellek. Randall Munroe

Norma Determináns, inverz Kondíciószám Direkt és inverz hibák Lin. egyenletrendszerek A Gauss-módszer. Lineáris algebra numerikus módszerei

Saj at ert ek-probl em ak febru ar 26.

Irányításelmélet és technika II.

Mátrixok 2017 Mátrixok

1. Példa. A gamma függvény és a Fubini-tétel.

GPK M1 (BME) Interpoláció / 16

4/24/12. Regresszióanalízis. Legkisebb négyzetek elve. Regresszióanalízis

Példa: Tartó lehajlásfüggvényének meghatározása a Rayleigh Ritz-féle módszer segítségével

egyetemi jegyzet Meskó Balázs

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Diszkréten mintavételezett függvények

Biometria az orvosi gyakorlatban. Korrelációszámítás, regresszió

6. Előadás. Megyesi László: Lineáris algebra, oldal. 6. előadás Bázis, dimenzió

A Markowitz modell: kvadratikus programozás

A következő feladat célja az, hogy egyszerű módon konstruáljunk Poisson folyamatokat.

További sajátértékek. 10. előadás, május 3. Megjegyzések. A szűrés hatása a portfólió optimalizálásra

Kvadratikus alakok és euklideszi terek (előadásvázlat, október 5.) Maróti Miklós, Kátai-Urbán Kamilla

Konjugált gradiens módszer

biometria II. foglalkozás előadó: Prof. Dr. Rajkó Róbert Matematikai-statisztikai adatfeldolgozás

Átírás:

Lineáris regressziós modellek 1 Ispány Márton és Jeszenszky Péter 2016. szeptember 19. 1 Az ábrák C.M. Bishop: Pattern Recognition and Machine Learning c. könyvéből származnak.

Tartalom Bevezető példák Polinom-illesztés Lineáris bázis függvény modellek Normális eloszlás Sztochasztikus görbeillesztés Regularizáció 2 / 37

Mintázatfelismerés Mintázatok felismerése adatokban hosszú múltra tekint vissza. Tycho Brahe asztronómiai megfigyelései vezették Keplert a bolygómozgás törvényeinek felismerésére. Az atomi spektrumokbeli szabályosságok felfedezése alapján fejlődött ki a kvantummechanika a XX. század elején. A fenti problémáknál a mintázat felismerését (felfedezését) emberek végezték el. A XX. század végére olyan mennyiségű adat és hozzá kapcsolódó probléma gyűlt fel, hogy ez már humán erővel kezelhetetlenné vált. Ugyanekkora tette lehetővé az informatika fejlődése, hogy ezek a problémák megoldhatóvá váltak automatikus módszerek alkalmazásával. (alakfelismerés adatbányászat) 3 / 37

Karakterfelismerés (1) Kézzel írt számjegyek felismerése: minden számjegy megfeleltethető egy 28 28 pixelű képnek, amely egy 748 dimenziós valós vektorral (input vektor) reprezentálható. Feladat: olyan gép (szoftver) készítése, amely egy x input vektorhoz meghatározza a 0, 1,..., 9 számjegyek valamelyikét mint outputot. A feladat nehézsége a kézírás változatosságában van. 4 / 37

Karakterfelismerés (2) Az adhoc megoldások helyett érdemes a gépi tanulás megközeĺıtését alkalmazni. Ennek során egy nagyméretű N számjegyből álló {x 1,..., x N } tanító adatállományt használunk egy adaptív modell paramétereinek meghatározására. Ennél az adatállománynál, pl. szakértői annotálás után, ismerjük az output vagy célváltozó értékeit: {t 1,..., t N }. A gépi tanulás eredménye egy olyan y(x) függvényben foglalható össze, amely egy új x digitális képhez generál egy y célértéket. Ezen függvény pontos alakja a tanulási fázis után határozódik meg. A számítások sokszor felgyorsíthatóak előfeldolgozás révén, ún. jellemző kinyerés alkalmazásával, ami az eredeti input változók alkalmas transzformációját jelenti. A példa a felügyelt tanítás egy speciális esete, egy osztályozási feladat (diszkrét a célváltozó). Ha a célváltozó folytonos, akkor regressziós feladatról beszélünk. 5 / 37

Példa: polinom illesztése Mesterséges példa az (x, t) függvénykapcsolat gépi tanulással való vizsgálatára. Legyen az ismert kapcsolat t = sin(2πx). Tekintsünk egy N elemű tanító állományt x = (x 1,..., x N ) és t = (t 1,..., t N ) értékekkel. Legyen a közeĺıtő függvény polinom alakú, legfeljebb M fokszámú, amelyet a következő alakban írhatunk fel y(x, w) := M w j x j ahol w := (w 0, w 1,..., w M ) az ismeretlen paraméterek vagy súlyok, amelyeket a tanító adatállomány segítségével szeretnénk meghatározni. j=0 6 / 37

A szinusz görbe és 10 tanító pont 7 / 37

Négyzet-összeg hibafüggvény (1) A súlyok meghatározása egy alkalmasan megválasztott célfüggvény (rizikófüggvény) minimalizálása révén történik. A leggyakrabban hasaznált rizikófüggvény az alábbi E(w) := 1 2 N (y(x n, w) t n ) 2 n=1 négyzet-összeg hiba vagy négyzetes rizikó, melyet a négyzetes hibából kapunk. A négyzetes hiba az y predikció és a t célérték között az (y t) 2. 8 / 37

Négyzet-összeg hibafüggvény (2) 9 / 37

0-ad fokú polinom 10 / 37

Első fokú polinom 11 / 37

Harmad fokú polinom 12 / 37

9-ed fokú polinom 13 / 37

Túlillesztés 14 / 37

Polinom együtthatók Súly M = 0 M = 1 M = 3 M = 9 w0 0.19 0.82 0.31 0.35 w1-1.27 7.99 232.37 w2-25.43-5321.83 w3 17.37 48568.31 w4-231639.30 w5 640042.26 w6-1061800.52 w7 1042400.18 w8-557682.99 w9 125201.43 15 / 37

Adatállomány mérete (N = 15, M = 9) 16 / 37

Adatállomány mérete (N = 100, M = 9) 17 / 37

Lineáris bázis függvény modellek (1) A polinom illesztés feladata általánosítható olyan alakban, amely már jóval flexibilisebb függvényekkel való közeĺıtést is megenged. Legyen y(x, w) := M 1 j=0 w j φ j (x) = w φ(x) ahol φ j, j = 0, 1,..., M 1, az ún. bázis függvények. Rendszerint φ 0 (x) = 1, így w 0 a torzítás. A legegyszerűbb esetben lineáris bázisfüggvényeket használunk, ekkor φ j (x) = x j, ahol x j az x vektor j-edik koordinátája. További bázis függvények: polinomiális bázis függvény: φ j (x) = x j Gauss-féle bázis függvény: φ j (x) = exp { (x µ j ) }, 2 ahol µ 2s 2 j ún. hely míg s pedig skála paraméter Szigmoid bázis függvény: φ j (x) = σ ( x µj s ), ahol µ j ún. hely míg s pedig skála paraméter, σ(x) = 1 1+exp( a) a logisztikus függvény 18 / 37

Polinom bázis függvény Globális: kis x-beli változás kihat az összes bázis függvényre 19 / 37

Gauss-féle bázis függvény Lokális: kis x-beli változás csak a közeli (µ-ben) bázis föggvényekre hat ki 20 / 37

Szigmoid bázis függvény Lokális: kis x-beli változás csak a közeli (µ-ben) bázis föggvényekre hat ki 21 / 37

A normális eloszlás A legszélesebb körben használt eloszlás folytonos adatok modellezésére. Sűrűségfüggvény: N (x µ, σ 2 ) := 1 (2πσ 2 exp ) 1/2 { 1 } (x µ)2 2σ2 22 / 37

Normális eloszlás paramétereinek becslése A maximum likelihood módszer alkalmazása. Maximalizáljuk az alábbi ún. likelihood függvényt ismert x megfigyelés vektor mellett a µ és σ 2 paraméterekben: L(x µ, σ 2 ) := N N (x n µ, σ 2 ) n=1 23 / 37

(Log)Likelihood függvény maximalizálása ln L(x µ, σ 2 ) = 1 2σ 2 N (x n µ) 2 N 2 ln σ2 N 2 ln(2π) n=1 Ez µ-ben a N n=1 (x n µ) 2 négyzetösszeg minimalizálását jelenti, ami deriválással az alábbi egyenletre vezet: Ennek megoldása: N (x n µ) = 0 n=1 N µ = 1 N n=1 Ezután µ-be µ-t helyettesítve és σ 2 -ben maximalizálva kapjuk x n σ 2 = 1 N N (x n µ) 2 n=1 24 / 37

A becslés tulajdonságai (zöld-igazi, piros-becsült) 25 / 37

Sztochasztikus görbeillesztés 26 / 37

Maximum likelihood (1) Legyenek adottak (x n, t n ), n = 1, 0ldots, N, megfigyelések egy determinisztikus függvény és egy normális eloszlású hiba összegéből: t n = y(x n, w) + ɛ n ɛ n N (0, β 1 ) ahol β a szórásnégyzet reciproka az ún. pontosság. Ez megegyezik azzal, hogy t n N (y(x n, w), β 1 ) Az X = {x 1,..., x N } input és t = (t 1,..., t N ) output esetén az alábbi likelihood függvényt kapjuk L(t X, w, β) := N N (t n w φ(x n ), β 1 ) n=1 27 / 37

Maximum likelihood (2) Ismét a loglikehood függvényt tekintve az alábbit kapjuk ahol ln L(t X, w, β) = N 2 ln β N 2 ln(2π) βe D(w) E D (w) := 1 2 N (t n w φ(x n )) 2 n=1 A loglikelihood maximalizálása ekvivalens az E D (w) hiba négyzet-összeg minimalizálásval, amit deriválással tudunk elvégezni: w E D (w) = N (t n w φ(x n ))φ(x n ) = 0 n=1 28 / 37

Maximum likelihood (3) Az ún. normálegyenletet megoldva az alábbi OLS-nek (ordinary least squares) nevezett becslés adódik a w paraméterre: ahol ŵ = (Φ Φ) 1 Φ t = Φ t φ 0 (x 1 ) φ 1 (x 1 ) φ M 1 (x 1 ) φ 0 (x 2 ) φ 1 (x 2 ) φ M 1 (x 2 ) Φ :=...... φ 0 (x N ) φ 1 (x N ) φ M 1 (x N ) egy N M-es mátrix. Φ az ún. Moore-Penrose pszeudo-inverz. Ha a β paraméterre is maximalizálunk, akkor kapjuk, hogy β 1 = 1 N N (t n ŵ φ(x n )) n=1 29 / 37

A legkisebb négyzetek geometriája Legyen y = Φŵ = [φ 0,..., φ M 1 ]ŵ y S T t T S M-dimensional, T N-dimensional (M N) Az S síkot a φ 0,..., φ M 1 vektorok (Φ oszlopai) feszítik fel 30 / 37

Regularizált legkisebb négyzetek (1) Tekintsük az alábbi hiba (rizikó) függvényt: E D (w) + λe w (w), ahol λ a regularizációs együttható. Négyzetes hibafüggvénnyel és kvadratikus regulátorral kapjuk, hogy az alábbi kifejezést kell minimalizálni: A megoldás: 1 2 N (t n w φ(x n )) 2 + λ 2 w w n=1 ŵ λ = (λi + Φ Φ) 1 Φ t Ridge regresszió, segít ha az OLS-beli inverz nem létezik. 31 / 37

Regularizáció 32 / 37

Regularizáció 33 / 37

Regularizáció 34 / 37

Polinom együtthatók Súly lnλ = lnλ = 18 lnλ = 0 w0 0.35 0.35 0.13 w1 232.37 4.74-0.05 w2-5321.83-0.77-0.06 w3 48568.31-31.97-0.05 w4-231639.30-3.89-0.03 w5 640042.26 55.28-0.02 w6-1061800.52 41.32-0.01 w7 1042400.18-45.95-0.00 w8-557682.99-91.53 0.00 w9 125201.43 72.68 0.01 35 / 37

Regularizált legkisebb négyzetek (2) Általánosabb regularizálót is használhatunk (q > 0): 1 2 N (t n w φ(x n )) 2 + λ 2 n=1 M 1 j=0 w j q Elnevezés: q = 1 lasso, q = 2 kvadratikus 36 / 37

Regularizált legkisebb négyzetek (3) A lasso hajlamosabb ritkább (sparse) megoldásokat előálĺıtani mint a kvadratikus regularizáló. 37 / 37