Fodor Gábor március 17. Fodor Gábor Osztályozás március / 39

Méret: px
Mutatás kezdődik a ... oldaltól:

Download "Fodor Gábor március 17. Fodor Gábor Osztályozás március / 39"

Átírás

1 Osztályozás Fodor Gábor március 17. Fodor Gábor Osztályozás március / 39

2 Bevezetés 1 Bevezetés 2 Döntési szabályok 3 Döntési fák 4 Bayes-hálók 5 Lineáris szeparálás 6 Support Vector Machine 7 Meta algoritmusok 8 Források Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

3 Bevezetés Bevezetés Felügyelt tanulás (Supervised learning) Magyarázó attribútumok, magyarázandó attribútum Tanító pontok, teszthalmaz Regresszió és Osztályozás Előfeldolgozás (Hiányos adatok, adattisztítás, adattranszformáció, releváns adatok) Hiba mértékek (Accuracy, Precision, Recall, ROC, AUC, Cost) Fodor Gábor Osztályozás március / 39

4 Döntési szabályok 1 Bevezetés 2 Döntési szabályok 3 Döntési fák 4 Bayes-hálók 5 Lineáris szeparálás 6 Support Vector Machine 7 Meta algoritmusok 8 Források Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

5 Döntési szabályok Definíciók Def. (Döntési szabály) Az A attribútumhalmaz felett értelmezett döntési szabály alatt olyan R : φ(a) Y = y logikai implikációt értünk, amelyek feltételrészében az attribútumokra vonatkozó feltételek logikai kapcsolatai állnak, a következményrészben pedig az osztályattribútumra vonatkozó ítélet. Def. (Illeszkedés) Az R : φ(a) Y = y döntési szabályra illeszkedik a t objektum, ha a feltételrész attribútumváltozóiba t megfelelő értékeit helyettesítve igaz értéket kapunk. Def. (Fedés) Az R : φ(a) Y = y szabály lefedi az T objektumhalmazt, ha minden objektum illeszkedik a szabályra. Adott τ tanító halmaz esetén az R által fedett tanítópontok halmazát cover τ (R)-rel jelöljük. Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

6 Döntési szabályok Döntési szabályok szabályhalmaz és szabálysorozat egyértelműség teljesség kifejezőerő döntési táblázat Fodor Gábor Osztályozás március / 39

7 1R algoritmus Döntési szabályok Pofonegyszerű osztályozó algoritmus, kiválaszt egy attribútumot, majd annyi szabályt álĺıt elő, ahány különböző értéket vesz fel az attribútumunk a tanító adathalmazban. Az A = a Y = y i szabály következményében szereplő y i osztály értelemszerűen a leggyakoribb lesz az A attribútumában a-t felvevő tanítópontok közül. Az 1R egyértelmű szabályhalmazt álĺıt elő. Valós attribútumok problémája,,egyszerűsége ellenére elég jól muzsikál a gyakorlatban. 0R osztályozó Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

8 A Prism módszer Döntési szabályok Alapfeltétel: nincsenek olyan tanítópontok, melyek fontos magyarázó attribútumai megegyeznek, de osztályattribútumukban különböznek. (!) separate and conquer Csak 100%-os pontosságú szabályokat álĺıt elő. Fodor Gábor Osztályozás március / 39

9 Döntési fák 1 Bevezetés 2 Döntési szabályok 3 Döntési fák 4 Bayes-hálók 5 Lineáris szeparálás 6 Support Vector Machine 7 Meta algoritmusok 8 Források Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

10 Döntési fák Általában Könnyen értelmezhető, egyértelmű szabályhalmazok Faépítés rekurzív vágásokkal(kérdésekkel) Leállás: Attribútumhiány Mélységi korlát Nincs jó vágás Főbb algoritmuscsaládok: Interactive Dichotomatizer 3 (ID3) Classification and Regression Trees (CART,C&RT) Chi-squared Automatic Interaction Detection (CHAID) Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

11 Egy kis információelmélet Döntési fák X, Y diszkrét v.v. k, l lehetséges értékkel Ekkor Y entrópiája: l H(Y ) = P(Y = i) log P(Y = i) i=1 Tegyük fel X megfigyelt változó értéke x j, ekkor Y -nal kapcsolatos bizonytalanságunk: H(Y X = x j ) = l P(Y = i X = x j ) log P(Y = i X = x j ) i=1 X ismeretében a várható bizonytalanságunk: k H(Y X ) = P(X = x j )H(Y X = x j ) j=1 Kölcsönös információ I (Y, X ) = H(Y ) H(Y X ) Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

12 ID3 Döntési fák Az egyik legősibb és legismertebb osztályozó algoritmus Y osztályozásakor azt az X attribútumot választja, melyre I (X, Y ) maximális Hátrány: terebélyes fa Javítási ötlet nyereségaránnyal gainratio(x ) = I (X, Y )/H(X ) Egy attribútum szerint legfeljebb egyszer vágunk. Bináris fa Feltételek a csomópontokban: Sorrend, kategória, intervallum Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

13 Döntési fák Vágási függvények X diszkrét v.v. k lehetséges értékkel, p i := P(X = x i ), p = (p 1, p 2,..., p k ) Egy Φ : [0, 1] k R vágási függvényre vonatkozó Taylor-Silverman kritériumok: 1 Φ(p) 0 2 Φ az elfajult eloszlásra minimális 3 Φ az egyenletes eloszlásra maximális 4 Φ(p) a p komponenseire nézve szimmetrikus. 5 Φ differenciálható Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

14 CART Döntési fák Entrópia helyett Gini-index: Gini(p) = 1 k i=1 Ferdén is tudnak vágni (lineáris kombináció) Mindig bináris döntés p 2 i Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

15 Egy kis statisztika Döntési fák A 1,..., A r teljes eseményrendszer H 0 : P(A i ) = p i (i = 1,..., r), n független megfigyelés során jelölje ν i a megfelelő A i gyakoriságát! Ekkor H 0 fennállásakor (ν 1,..., ν r ) polinomiális eloszlású. n n r = n esetén: T. P H0 (ν 1 = n 1,..., ν r = n r ) = n! n 1!... n r! pn pnr r Ha (ν 1, ν 2,..., ν r ) polinomiális eloszlású n és p 1,..., p r (p i > 0) paraméterekkel akkor n esetén r (ν i np i ) 2 χ 2 (r 1) np i i=1 Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

16 CHAID Döntési fák Három lépés Minden magyarázó változóra a statisztikailag leginkább független kategóriák páronkénti egyesítése A leginkább függő attribútum kategóriái szerinti felosztás A rekurzió folytatása valamely megálĺıtási kritériumig Függetlenségvizsgálat χ 2 próbával diszkrét esetben X, Y diszkrét, A i = {X = x i }, B j = {Y = y j }, p i = P(A i ), q j = P(B j ) ν ij = {k : X k = x i, Y k = y j } H 0 : X és Y függetlenek: P(A i B j ) = P(A i )P(B j ) = p i q j χ 2 = i (ν ij np i q j ) 2 j np i q j Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

17 Bayes-hálók 1 Bevezetés 2 Döntési szabályok 3 Döntési fák 4 Bayes-hálók 5 Lineáris szeparálás 6 Support Vector Machine 7 Meta algoritmusok 8 Források Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

18 Bayes-hálók Bayes-hálók bevezető G (DAG a diszkrét attribútumokon mint csúcsokon) a változók közötti függőségi viszonyokat kódolja. Lokális Markov-feltétel: Bármely attribútum független nem leszármazottaitól, ha ismert szüleinek értéke. T. (Láncszabály Bayes-hálókra) Következtetés a hálóban Def. (Markov-takaró) P(X) = n P(X i Par i ) i=1 Egy változó Markov-takarója a szüleinek, gyermekeinek és a gyermekei szüleinek halmaza. Feltételes valószínűségi tábla (CPT) Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

19 Bayes-hálók A tanulás nehézségei Paramétertanulás, struktúratanulás Melyek a jó struktúrák? Kritériumfüggvények: BIC 1 (B, D) = N i=1 log(p(d i B)) logn 2 Θ AIC 2 (B, D) = Az óriási keresési tér szűkítése Topológikus sorrend felálĺıtása N log(p(d i B)) Θ i=1 Szülőhalmazok méretének korlátozása 1 Bayesian Information Criterion 2 Akaike Information Criterion Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

20 Bayes-hálók Mohó keresések Tetszőleges kiindulási gráf (üres, szakértői, random) éltörlés élhozzáadás élfordítás WEKA algoritmusok K2 HillClimbing RepeatedHillClimbing Simulated Annealing Fodor Gábor Osztályozás március / 39

21 Bayes-hálók Naive Bayes Classifier (NB) Durva függetlenségi feltétel, rögzített struktúra C osztályattribútum A 1, A 2,..., A n magyarázó változók Bayes-tétel miatt P(C A 1, A 2,..., A n ) = P(C)P(A 1, A 2,..., A n C) P(A 1, A 2,..., A n ) Függetlenségi feltételünk alapján ML döntés P(A 1,..., A n C) = classify(a 1,..., a n ) = arg max c n P(A i C) i=1 ( P(C = c) n i=1 ) P(A i = a i C = c Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

22 Bayes-hálók Tree Augmented Naive Bayes Model(TAN) Bonyolultabb, de kezelhető struktúra C árva A 1, A 2,..., A n mind C gyermekei A 1, A 2,..., A n pontokon irányított fa A tanulás működik polinomidőben! 1 Meghatározzuk az adatok segítségével Î (A i, A j C)-t minden (i, j) párra, ezekkel súlyozzuk egy n-pontú teljes gráf éleit. 2 Ebben a gráfban keresünk egy maximális feszítőfát, erre ismertek O(n 2 log n) idejű algoritmusok. 3 Kiválasztunk egy gyökeret és ennek megfelelően irányítjuk a feszítőfa éleit. 4 Végül hozzáadjuk a gráfhoz a C csúcsot és behúzzuk a maradék éleket. Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

23 Lineáris szeparálás 1 Bevezetés 2 Döntési szabályok 3 Döntési fák 4 Bayes-hálók 5 Lineáris szeparálás 6 Support Vector Machine 7 Meta algoritmusok 8 Források Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

24 Lineáris szeparálás Lineáris szeparálás Két osztály lineárisan szeparálható, ha egy hipersík segítségével el tudjuk különíteni a két osztály pontjait. w 1 a 1 + w 2 a w n a n = 0 Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

25 Lineáris szeparálás Perceptron A neurális hálók ősének tekinthető Minden attribútum valós Ha a lineáris kombináció pozitív első osztály Feladatunk megfelelő (nem optimális!) w súlyok keresése Winnow módszer csupa bináris attribútumra Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

26 Lineáris szeparálás Rocchio Klasszikus IR algoritmus Minden attribútum valós Minden osztályhoz prototípusvektor (D c mintaátlag) Kicsiny számításigény, gyors tanulás (online környezetben is) c = βavg dj C d j γavg dj / C d j Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

27 Support Vector Machine 1 Bevezetés 2 Döntési szabályok 3 Döntési fák 4 Bayes-hálók 5 Lineáris szeparálás 6 Support Vector Machine 7 Meta algoritmusok 8 Források Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

28 Hard-Margin SVM Support Vector Machine Bináris osztályozás { 1, +1} Tfh. lineárisan szeparálhatók az osztályok! A szeparáló sík egyenlete: D(x) = w T x + b = 0 Kis átalakításokkal: y k (w T x k + b) > 1 x pont távolsága D(x)-től: D(x) / w y k (D(x k )) w δ Célunk 1 2 w 2 -t minimalizálni, y k (w T x k + b) 1 korlátok mellett. (Kvadratikus optimalizálási feladat, KKT, Lagrange multiplikátorok) Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

29 Soft-Margin SVM Support Vector Machine A feltételek enyhítese ξ i nemnegatív segédváltozókkal: y i (w T x i + b) 1 ξ i A segédváltozók miatt mindig létezik megengedett megoldás. 1 2 w 2 + C i ξ p i min y k (w T x k + b) 1 i = 1, 2,... Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

30 Support Vector Machine Nemlinearitás kezelése magfüggvényekkel Nemlineáris transzformáció (magasabb dimenzióba) A transzformált térben az optimális szeparáló sík meghatározása D(x) = w T g(x) + b H(x, x ) = g T (x)g(x) Lineáris magfüggvények H(x, x ) = x T x Polinomiális magfüggvények H(x, x ) = (x T x + 1) RBF magfüggvények H(x, x ) = exp( γ x x ) Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

31 Support Vector Machine SVM vs. NN Előnyök 1 Maximált általánosítóképesség 2 Nincs lokális optimum 3 Hatékonyság kiugró (outlier) értékek esetén is Hátrányok 1 Bináris döntés 2 Lassú tanulás 3 Paraméterek kezelése Mindkét módszer univerzális függvényapproximátor Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

32 overfitting Support Vector Machine Fodor Gábor Osztályozás március / 39

33 Meta algoritmusok 1 Bevezetés 2 Döntési szabályok 3 Döntési fák 4 Bayes-hálók 5 Lineáris szeparálás 6 Support Vector Machine 7 Meta algoritmusok 8 Források Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

34 Meta algoritmusok RandomForest M magyarázó változó, N adatsor, Minden egyes döntési fának választunk (visszatevéses mintavételezéssel-bootstrap) egy N méretű mintát. Minden csomópontban random m(<< M) attribútum közül kiválasztjuk azt, amelyik szerint vágunk. Végül az erdőt összeszavaztatjuk többségi szavazással. Előnyök Sok attribútummal is elbír Pontos osztályozás Gyors tanulás Túltanulás elkerülése Hátrányok Független attribútumok Torz mintavételezés Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

35 Bagging, Stacking Meta algoritmusok Bootstrap aggregating Szintén Leo Breiman 1994-ből, nemcsak döntési fát, tetszőleges tanuló algoritmust alkalmazhatunk. Túltanulás elkerülése Stabil modelleken nem segít. Stacking n belső modell kimenetét adjuk egy összeszavaztató modellnek Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

36 Boosting Meta algoritmusok AdaBoost Freund és Schapire 1995 Cél: egyszerű modellek adaptív alkalmazásával pontos eredmény T körben tanítunk egy-egy h t modellt, a D t (i) eloszlással mintavételezett tanítóhalmazon. A modell hibája: ɛ t = D t (i) i:h t(x i ) y i Frissítés: Végső döntésünk: α t := 1 2 ln(1 ɛ t ɛ t ) D i (t) = D i(t) exp( α t h t (x i )y i ) Z t H(x) = T α t h t (x) t=1 Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

37 Meta algoritmusok Adatbányászati eszközök Fodor Gábor Osztályozás március / 39

38 Források 1 Bevezetés 2 Döntési szabályok 3 Döntési fák 4 Bayes-hálók 5 Lineáris szeparálás 6 Support Vector Machine 7 Meta algoritmusok 8 Források Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39

39 Források Források Bodon Ferenc, Adatbányászati algoritmusok, (2010) Nir Friedman, Dan Geiger, Moises Goldszmidt, Bayesian Network Classifiers, (1997) R. R. Bouckaert, E. Frank, M. Hall, R. Kirkby, P. Reutemann, A. Seewald, D. Scuse, WEKA Manual for Version 3-7-1, (2010) Shiego Abe, Support Vector Machines for Pattern Classification, (2005) Fodor Gábor Osztályozás március / 39

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31. Regresszió Csorba János Nagyméretű adathalmazok kezelése 2010. március 31. A feladat X magyarázó attribútumok halmaza Y magyarázandó attribútumok) Kérdés: f : X -> Y a kapcsolat pár tanítópontban ismert

Részletesebben

BME, Budapest. BME, Budapest, 2012.március 1.

BME, Budapest. BME, Budapest, 2012.március 1. BME, Budapest BME, Budapest, 2012.március 1. Osztályozás és regresszió Adatbányászati (data mining) algoritmusokat az adatbázisból tőrténő tudásfeltárás (knowledge discovery in databases) során alkalmaznak.

Részletesebben

Csima Judit április 9.

Csima Judit április 9. Osztályozókról még pár dolog Csima Judit BME, VIK, Számítástudományi és Információelméleti Tanszék 2018. április 9. Csima Judit Osztályozókról még pár dolog 1 / 19 SVM (support vector machine) ez is egy

Részletesebben

Asszociációs szabályok

Asszociációs szabályok Asszociációs szabályok Nikházy László Nagy adathalmazok kezelése 2010. március 10. Mi az értelme? A ö asszociációs szabály azt állítja, hogy azon vásárlói kosarak, amik tartalmaznak pelenkát, általában

Részletesebben

Random Forests - Véletlen erdők

Random Forests - Véletlen erdők Random Forests - Véletlen erdők Szabó Adrienn Adatbányászat és Webes Keresés Kutatócsoport 2010 Tartalom Fő forrás: Leo Breiman: Random Forests Machine Learning, 45, 5-32, 2001 Alapok Döntési fa Véletlen

Részletesebben

Gépi tanulás a gyakorlatban SVM

Gépi tanulás a gyakorlatban SVM Gépi tanulás a gyakorlatban SVM Klasszifikáció Feladat: előre meghatározott csoportok elkülönítése egymástól Osztályokat elkülönítő felület Osztályokhoz rendelt döntési függvények Klasszifikáció Feladat:

Részletesebben

Új típusú döntési fa építés és annak alkalmazása többtényezős döntés területén

Új típusú döntési fa építés és annak alkalmazása többtényezős döntés területén Új típusú döntési fa építés és annak alkalmazása többtényezős döntés területén Dombi József Szegedi Tudományegyetem Bevezetés - ID3 (Iterative Dichotomiser 3) Az ID algoritmusok egy elemhalmaz felhasználásával

Részletesebben

Döntési fák. (Klasszifikációs és regressziós fák: (Classification And Regression Trees: CART ))

Döntési fák. (Klasszifikációs és regressziós fák: (Classification And Regression Trees: CART )) Döntési fák (Klasszifikációs és regressziós fák: (Classification And Regression Trees: CART )) Rekurzív osztályozó módszer, Klasszifikációs és regressziós fák folytonos, kategóriás, illetve túlélés adatok

Részletesebben

Kódverifikáció gépi tanulással

Kódverifikáció gépi tanulással Kódverifikáció gépi tanulással Szoftver verifikáció és validáció kiselőadás Hidasi Balázs 2013. 12. 12. Áttekintés Gépi tanuló módszerek áttekintése Kódverifikáció Motiváció Néhány megközelítés Fault Invariant

Részletesebben

Egy uttes m odszerek Isp any M arton es Jeszenszky P eter okt ober 18.

Egy uttes m odszerek Isp any M arton es Jeszenszky P eter okt ober 18. Együttes módszerek Ispány Márton és Jeszenszky Péter 2016. október 18. Tartalom Bevezetés Zsákolás (bagging) Gyorsítás (boosting) AdaBoost Véletlen erdők (random forests) Hibajavító kimenet kódolás (error-correcting

Részletesebben

EÖTVÖS LORÁND TUDOMÁNYEGYETEM KLASSZIFIKÁCIÓ AZ ADATBÁNYÁSZATBAN

EÖTVÖS LORÁND TUDOMÁNYEGYETEM KLASSZIFIKÁCIÓ AZ ADATBÁNYÁSZATBAN EÖTVÖS LORÁND TUDOMÁNYEGYETEM KLASSZIFIKÁCIÓ AZ ADATBÁNYÁSZATBAN SZAKDOLGOZAT Készítette: Bényász Melinda Matematika Bsc Matematikai elemz szakirány Témavezet : Kósa Balázs Informatikai Kar Információs

Részletesebben

Osztályozás, regresszió. Nagyméretű adathalmazok kezelése Tatai Márton

Osztályozás, regresszió. Nagyméretű adathalmazok kezelése Tatai Márton Osztályozás, regresszió Nagyméretű adathalmazok kezelése Tatai Márton Osztályozási algoritmusok Osztályozás Diszkrét értékkészletű, ismeretlen attribútumok értékének meghatározása ismert attribútumok értéke

Részletesebben

Újfajta, automatikus, döntési fa alapú adatbányászati módszer idősorok osztályozására

Újfajta, automatikus, döntési fa alapú adatbányászati módszer idősorok osztályozására VÉGZŐS KONFERENCIA 2009 2009. május 20, Budapest Újfajta, automatikus, döntési fa alapú adatbányászati módszer idősorok osztályozására Hidasi Balázs hidasi@tmit.bme.hu Konzulens: Gáspár-Papanek Csaba Budapesti

Részletesebben

Statisztika - bevezetés Méréselmélet PE MIK MI_BSc VI_BSc 1

Statisztika - bevezetés Méréselmélet PE MIK MI_BSc VI_BSc 1 Statisztika - bevezetés 00.04.05. Méréselmélet PE MIK MI_BSc VI_BSc Bevezetés Véletlen jelenség fogalma jelenséget okok bizonyos rendszere hozza létre ha mindegyik figyelembe vehető egyértelmű leírás általában

Részletesebben

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363 1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái 206/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák

Részletesebben

Gépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés

Gépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés Gépi tanulás a gyakorlatban Kiértékelés és Klaszterezés Hogyan alkalmazzuk sikeresen a gépi tanuló módszereket? Hogyan válasszuk az algoritmusokat? Hogyan hangoljuk a paramétereiket? Precízebben: Tegyük

Részletesebben

Gépi tanulás Gregorics Tibor Mesterséges intelligencia

Gépi tanulás Gregorics Tibor Mesterséges intelligencia Gépi tanulás Tanulás fogalma Egy algoritmus akkor tanul, ha egy feladat megoldása során olyan változások következnek be a működésében, hogy később ugyanazt a feladatot vagy ahhoz hasonló más feladatokat

Részletesebben

Diszkrét idejű felújítási paradoxon

Diszkrét idejű felújítási paradoxon Magda Gábor Szaller Dávid Tóvári Endre 2009. 11. 18. X 1, X 2,... független és X-szel azonos eloszlású, pozitív egész értékeket felvevő valószínűségi változó (felújítási idők) P(X M) = 1 valamilyen M N

Részletesebben

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Keresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Keresés képi jellemzők alapján Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Lusta gépi tanulási algoritmusok Osztályozás: k=1: piros k=5: kék k-legközelebbi szomszéd (k=1,3,5,7)

Részletesebben

KÖZELÍTŐ INFERENCIA II.

KÖZELÍTŐ INFERENCIA II. STATISZTIKAI TANULÁS AZ IDEGRENDSZERBEN KÖZELÍTŐ INFERENCIA II. MONTE CARLO MÓDSZEREK ISMÉTLÉS Egy valószínűségi modellben a következtetéseinket a látensek vagy a paraméterek fölötti poszterior írja le.

Részletesebben

Szeleteljük fel úgy a tulajdonságteret, hogy az egyes szeletekbe lehetőleg egyfajta objektumok kerüljenek, de túl sok szelet se legyen.

Szeleteljük fel úgy a tulajdonságteret, hogy az egyes szeletekbe lehetőleg egyfajta objektumok kerüljenek, de túl sok szelet se legyen. KEMOMETRIA VIII-1/27 /2013 ősz CART Classification and Regression Trees Osztályozó fák Szeleteljük fel úgy a tulajdonságteret, hogy az egyes szeletekbe lehetőleg egyfajta objektumok kerüljenek, de túl

Részletesebben

Gépi tanulás a gyakorlatban. Lineáris regresszió

Gépi tanulás a gyakorlatban. Lineáris regresszió Gépi tanulás a gyakorlatban Lineáris regresszió Lineáris Regresszió Legyen adott egy tanuló adatbázis: Rendelkezésünkre áll egy olyan előfeldolgozott adathalmaz, aminek sorai az egyes ingatlanokat írják

Részletesebben

Principal Component Analysis

Principal Component Analysis Principal Component Analysis Principal Component Analysis Principal Component Analysis Definíció Ortogonális transzformáció, amely az adatokat egy új koordinátarendszerbe transzformálja úgy, hogy a koordináták

Részletesebben

Készítette: Fegyverneki Sándor

Készítette: Fegyverneki Sándor VALÓSZÍNŰSÉGSZÁMÍTÁS Összefoglaló segédlet Készítette: Fegyverneki Sándor Miskolci Egyetem, 2001. i JELÖLÉSEK: N a természetes számok halmaza (pozitív egészek) R a valós számok halmaza R 2 {(x, y) x, y

Részletesebben

Nemparaméteres próbák

Nemparaméteres próbák Nemparaméteres próbák Budapesti Mőszaki és Gazdaságtudományi Egyetem Gépészmérnöki Kar Hidrodinamikai Rendszerek Tanszék 1111, Budapest, Mőegyetem rkp. 3. D ép. 334. Tel: 463-16-80 Fax: 463-30-91 http://www.vizgep.bme.hu

Részletesebben

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function

Tanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,

Részletesebben

(Independence, dependence, random variables)

(Independence, dependence, random variables) Két valószínűségi változó együttes vizsgálata Feltételes eloszlások Két diszkrét változó együttes eloszlása a lehetséges értékpárok és a hozzájuk tartozó valószínűségek (táblázat) Példa: Egy urna 3 fehér,

Részletesebben

Valószínűségi változók. Várható érték és szórás

Valószínűségi változók. Várható érték és szórás Matematikai statisztika gyakorlat Valószínűségi változók. Várható érték és szórás Valószínűségi változók 2016. március 7-11. 1 / 13 Valószínűségi változók Legyen a (Ω, A, P) valószínűségi mező. Egy X :

Részletesebben

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék

Számítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Számítógépes képelemzés 7. előadás Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Momentumok Momentum-alapú jellemzők Tömegközéppont Irányultáság 1 2 tan 2 1 2,0 1,1 0, 2 Befoglaló

Részletesebben

KÖZELÍTŐ INFERENCIA II.

KÖZELÍTŐ INFERENCIA II. STATISZTIKAI TANULÁS AZ IDEGRENDSZERBEN KÖZELÍTŐ INFERENCIA II. MONTE CARLO MÓDSZEREK ISMÉTLÉS Egy valószínűségi modellben a következtetéseinket a látensek vagy a paraméterek fölötti poszterior írja le.

Részletesebben

Markov-láncok stacionárius eloszlása

Markov-láncok stacionárius eloszlása Markov-láncok stacionárius eloszlása Adatbányászat és Keresés Csoport, MTA SZTAKI dms.sztaki.hu Kiss Tamás 2013. április 11. Tartalom Markov láncok definíciója, jellemzése Visszatérési idők Stacionárius

Részletesebben

Nagyméretű adathalmazok kezelése (BMEVISZM144) Reinhardt Gábor április 5.

Nagyméretű adathalmazok kezelése (BMEVISZM144) Reinhardt Gábor április 5. Asszociációs szabályok Budapesti Műszaki- és Gazdaságtudományi Egyetem 2012. április 5. Tartalom 1 2 3 4 5 6 7 ismétlés A feladat Gyakran együtt vásárolt termékek meghatározása Tanultunk rá hatékony algoritmusokat

Részletesebben

Bizonytalanság. Mesterséges intelligencia április 4.

Bizonytalanság. Mesterséges intelligencia április 4. Bizonytalanság Mesterséges intelligencia 2014. április 4. Bevezetés Eddig: logika, igaz/hamis Ha nem teljes a tudás A világ nem figyelhető meg közvetlenül Részleges tudás nem reprezentálható logikai eszközökkel

Részletesebben

Totális Unimodularitás és LP dualitás. Tapolcai János

Totális Unimodularitás és LP dualitás. Tapolcai János Totális Unimodularitás és LP dualitás Tapolcai János tapolcai@tmit.bme.hu 1 Optimalizálási feladat kezelése NP-nehéz Hatékony megoldás vélhetően nem létezik Jó esetben hatékony algoritmussal közelíteni

Részletesebben

Adatbányászati feladatgyűjtemény tehetséges hallgatók számára

Adatbányászati feladatgyűjtemény tehetséges hallgatók számára Adatbányászati feladatgyűjtemény tehetséges hallgatók számára Buza Krisztián Számítástudományi és Információelméleti Tanszék Budapesti Műszaki és Gazdaságtudományi Egyetem Tartalomjegyék Modellek kiértékelése...

Részletesebben

1. gyakorlat. Mesterséges Intelligencia 2.

1. gyakorlat. Mesterséges Intelligencia 2. 1. gyakorlat Mesterséges Intelligencia. Elérhetőségek web: www.inf.u-szeged.hu/~gulyasg mail: gulyasg@inf.u-szeged.hu Követelmények (nem teljes) gyakorlat látogatása kötelező ZH írása a gyakorlaton elhangzott

Részletesebben

e (t µ) 2 f (t) = 1 F (t) = 1 Normális eloszlás negyedik centrális momentuma:

e (t µ) 2 f (t) = 1 F (t) = 1 Normális eloszlás negyedik centrális momentuma: Normális eloszlás ξ valószínűségi változó normális eloszlású. ξ N ( µ, σ 2) Paraméterei: µ: várható érték, σ 2 : szórásnégyzet (µ tetszőleges, σ 2 tetszőleges pozitív valós szám) Normális eloszlás sűrűségfüggvénye:

Részletesebben

Support Vector Machines

Support Vector Machines Support Vector Machnes Ormánd Róbert MA-SZE Mest. Int. Kutatócsoport 2009. február 17. Előadás vázlata Rövd bevezetés a gép tanulásba Bevezetés az SVM tanuló módszerbe Alapötlet Nem szeparálható eset Kernel

Részletesebben

Véletlenszám generátorok és tesztelésük. Tossenberger Tamás

Véletlenszám generátorok és tesztelésük. Tossenberger Tamás Véletlenszám generátorok és tesztelésük Tossenberger Tamás Érdekességek Pénzérme feldobó gép: $0,25-os érme 1/6000 valószínűséggel esik az élére 51% eséllyel érkezik a felfelé mutató oldalára Pörgetésnél

Részletesebben

Modellkiválasztás és struktúrák tanulása

Modellkiválasztás és struktúrák tanulása Modellkiválasztás és struktúrák tanulása Szervezőelvek keresése Az unsupervised learning egyik fő célja Optimális reprezentációk Magyarázatok Predikciók Az emberi tanulás alapja Általános strukturális

Részletesebben

A fontosabb definíciók

A fontosabb definíciók A legfontosabb definíciókat jelöli. A fontosabb definíciók [Descartes szorzat] Az A és B halmazok Descartes szorzatán az A és B elemeiből képezett összes (a, b) a A, b B rendezett párok halmazát értjük,

Részletesebben

egyenletesen, és c olyan színű golyót teszünk az urnába, amilyen színűt húztunk. Bizonyítsuk

egyenletesen, és c olyan színű golyót teszünk az urnába, amilyen színűt húztunk. Bizonyítsuk Valószínűségszámítás 8. feladatsor 2015. november 26. 1. Bizonyítsuk be, hogy az alábbi folyamatok mindegyike martingál. a S n, Sn 2 n, Y n = t n 1+ 1 t 2 Sn, t Fn = σ S 1,..., S n, 0 < t < 1 rögzített,

Részletesebben

Nagy adathalmazok labor

Nagy adathalmazok labor 1 Nagy adathalmazok labor 2018-2019 őszi félév 2018.09.19 1. Döntési fák 2. Naive Bayes 3. Logisztikus regresszió 2 Féléves terv o Kiértékelés: cross-validation, bias-variance trade-off o Supervised learning

Részletesebben

Szepesvári Csaba. 2005 ápr. 11

Szepesvári Csaba. 2005 ápr. 11 Gépi tanulás III. Szepesvári Csaba MTA SZTAKI 2005 ápr. 11 Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 1 / 37 1 Döntési fák 2 Felügyelet nélküli tanulás Klaszter-anaĺızis EM algoritmus Gauss

Részletesebben

Elméleti összefoglaló a Sztochasztika alapjai kurzushoz

Elméleti összefoglaló a Sztochasztika alapjai kurzushoz Elméleti összefoglaló a Sztochasztika alapjai kurzushoz 1. dolgozat Véletlen kísérletek, események valószín sége Deníció. Egy véletlen kísérlet lehetséges eredményeit kimeneteleknek nevezzük. A kísérlet

Részletesebben

Elméleti összefoglaló a Valószín ségszámítás kurzushoz

Elméleti összefoglaló a Valószín ségszámítás kurzushoz Elméleti összefoglaló a Valószín ségszámítás kurzushoz Véletlen kísérletek, események valószín sége Deníció. Egy véletlen kísérlet lehetséges eredményeit kimeneteleknek nevezzük. A kísérlet kimeneteleinek

Részletesebben

Numerikus módszerek 1.

Numerikus módszerek 1. Numerikus módszerek 1. 10. előadás: Nemlineáris egyenletek numerikus megoldása Lócsi Levente ELTE IK 2013. november 18. Tartalomjegyzék 1 Bolzano-tétel, intervallumfelezés 2 Fixponttételek, egyszerű iterációk

Részletesebben

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 8 VIII. REGREssZIÓ 1. A REGREssZIÓs EGYENEs Két valószínűségi változó kapcsolatának leírására az eddigiek alapján vagy egy numerikus

Részletesebben

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla

Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók Előadó: Előadás anyaga: Hullám Gábor Pataki Béla Dobrowiecki Tadeusz BME I.E. 414, 463-26-79

Részletesebben

Intelligens adatelemzés

Intelligens adatelemzés Antal Péter, Antos András, Horváth Gábor, Hullám Gábor, Kocsis Imre, Marx Péter, Millinghoffer András, Pataricza András, Salánki Ágnes Intelligens adatelemzés Szerkesztette: Antal Péter A jegyzetben az

Részletesebben

Statisztika elméleti összefoglaló

Statisztika elméleti összefoglaló 1 Statisztika elméleti összefoglaló Tel.: 0/453-91-78 1. Tartalomjegyzék 1. Tartalomjegyzék.... Becsléselmélet... 3 3. Intervallumbecslések... 5 4. Hipotézisvizsgálat... 8 5. Regresszió-számítás... 11

Részletesebben

Diszkrét matematika 2. estis képzés

Diszkrét matematika 2. estis képzés Diszkrét matematika 2. estis képzés 2018. tavasz 1. Diszkrét matematika 2. estis képzés 9. előadás Nagy Gábor nagygabr@gmail.com nagy@compalg.inf.elte.hu compalg.inf.elte.hu/ nagy Komputeralgebra Tanszék

Részletesebben

ACTA CAROLUS ROBERTUS

ACTA CAROLUS ROBERTUS ACTA CAROLUS ROBERTUS Károly Róbert Főiskola tudományos közleményei Alapítva: 2011 3 (1) ACTA CAROLUS ROBERTUS 3 (1) Informatika szekció SZÖVEGOSZTÁLYOZÁSI MÓDSZEREK A WEKA ADATBÁNYÁSZATI SZOFTVER SEGÍTSÉGÉVEL

Részletesebben

Biomatematika 2 Orvosi biometria

Biomatematika 2 Orvosi biometria Biomatematika 2 Orvosi biometria 2017.02.13. Populáció és minta jellemző adatai Hibaszámítás Valószínűség 1 Esemény Egy kísérlet vagy megfigyelés (vagy mérés) lehetséges eredményeinek összessége (halmaza)

Részletesebben

Intelligens orvosi műszerek VIMIA023

Intelligens orvosi műszerek VIMIA023 Intelligens orvosi műszerek VIMIA023 Neurális hálók (Dobrowiecki Tadeusz anyagának átdolgozásával) 2017 ősz http://www.mit.bme.hu/oktatas/targyak/vimia023 dr. Pataki Béla pataki@mit.bme.hu (463-)2679 A

Részletesebben

Gazdasági matematika II. vizsgadolgozat megoldása A csoport

Gazdasági matematika II. vizsgadolgozat megoldása A csoport Gazdasági matematika II. vizsgadolgozat megoldása A csoport Definiálja az alábbi fogalmakat!. Egy eseménynek egy másik eseményre vonatkozó feltételes valószínűsége. ( pont) Az A esemény feltételes valószínűsége

Részletesebben

[Biomatematika 2] Orvosi biometria

[Biomatematika 2] Orvosi biometria [Biomatematika 2] Orvosi biometria 2016.02.15. Esemény Egy kísérlet vagy megfigyelés (vagy mérés) lehetséges eredményeinek összessége (halmaza) alkotja az eseményteret. Esemény: az eseménytér részhalmazai.

Részletesebben

Mesterséges Intelligencia I.

Mesterséges Intelligencia I. Mesterséges Intelligencia I. 10. elıadás (2008. november 10.) Készítette: Romhányi Anita (ROANAAT.SZE) - 1 - Statisztikai tanulás (Megfigyelések alapján történı bizonytalan következetésnek tekintjük a

Részletesebben

Számítógép és programozás 2

Számítógép és programozás 2 Számítógép és programozás 2 6. Előadás Problémaosztályok http://digitus.itk.ppke.hu/~flugi/ Emlékeztető A specifikáció egy előfeltételből és utófeltételből álló leírása a feladatnak Léteznek olyan feladatok,

Részletesebben

A valószínűségszámítás elemei

A valószínűségszámítás elemei Alapfogalmak BIOSTATISZTIKA ÉS INFORMATIKA A valószínűségszámítás elemei Jelenség: minden, ami lényegében azonos feltételek mellett megismételhető, amivel kapcsolatban megfigyeléseket lehet végezni, lehet

Részletesebben

SVM (közepesen mély bevezetés)

SVM (közepesen mély bevezetés) SVM (közepesen mély bevezetés) Adatbányászat és Keresés Csoport, MTA SZTAKI dms.sztaki.hu Szabó Adrienn 2013. április 4. Bevezetés Alapötlet Jelölések Maximum margin classier Optimalizálási feladat Tartalom

Részletesebben

Diszkrét matematika 2.C szakirány

Diszkrét matematika 2.C szakirány Diszkrét matematika 2.C szakirány 2017. ősz 1. Diszkrét matematika 2.C szakirány 2. előadás Nagy Gábor nagygabr@gmail.com nagy@compalg.inf.elte.hu compalg.inf.elte.hu/ nagy Komputeralgebra Tanszék 2017.

Részletesebben

Gépi tanulás a gyakorlatban. Bevezetés

Gépi tanulás a gyakorlatban. Bevezetés Gépi tanulás a gyakorlatban Bevezetés Motiváció Nagyon gyakran találkozunk gépi tanuló alkalmazásokkal Spam detekció Karakter felismerés Fotó címkézés Szociális háló elemzés Piaci szegmentáció analízis

Részletesebben

Információs rendszerek elméleti alapjai. Információelmélet

Információs rendszerek elméleti alapjai. Információelmélet Információs rendszerek elméleti alapjai Információelmélet Az információ nem növekedés törvénye Adatbázis x (x adatbázis tartalma) Kérdés : y Válasz: a = f(y, x) Mennyi az a információtartalma: 2017. 04.

Részletesebben

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008 Az Előadások Témái Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák Szemantikus hálók

Részletesebben

Diszkrét matematika 2. estis képzés

Diszkrét matematika 2. estis képzés Diszkrét matematika 2. estis képzés 2016. tavasz 1. Diszkrét matematika 2. estis képzés 9. előadás Nagy Gábor nagygabr@gmail.com nagy@compalg.inf.elte.hu compalg.inf.elte.hu/ nagy Komputeralgebra Tanszék

Részletesebben

Likelihood, deviancia, Akaike-féle információs kritérium

Likelihood, deviancia, Akaike-féle információs kritérium Többváltozós statisztika (SZIE ÁOTK, 2011. ősz) 1 Likelihood, deviancia, Akaike-féle információs kritérium Likelihood függvény Az adatokhoz paraméteres modellt illesztünk. A likelihood függvény a megfigyelt

Részletesebben

1/1. Házi feladat. 1. Legyen p és q igaz vagy hamis matematikai kifejezés. Mutassuk meg, hogy

1/1. Házi feladat. 1. Legyen p és q igaz vagy hamis matematikai kifejezés. Mutassuk meg, hogy /. Házi feladat. Legyen p és q igaz vagy hamis matematikai kifejezés. Mutassuk meg, hogy mindig igaz. (p (( p) q)) (( p) ( q)). Igazoljuk, hogy minden A, B és C halmazra A \ (B C) = (A \ B) (A \ C) teljesül.

Részletesebben

Gépi tanulás. Féligellenőrzött tanulás. Pataki Béla (Bolgár Bence)

Gépi tanulás. Féligellenőrzött tanulás. Pataki Béla (Bolgár Bence) Gépi tanulás Féligellenőrzött tanulás Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Féligellenőrzött tanulás Mindig kevés az adat, de

Részletesebben

Diszkrét Matematika MSc hallgatók számára. 4. Előadás

Diszkrét Matematika MSc hallgatók számára. 4. Előadás Diszkrét Matematika MSc hallgatók számára 4. Előadás Előadó: Hajnal Péter Jegyzetelő: Szarvák Gábor 2012. február 28. Emlékeztető. A primál feladat optimális értékét p -gal, a feladat optimális értékét

Részletesebben

Algoritmusok Tervezése. 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás

Algoritmusok Tervezése. 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás Algoritmusok Tervezése 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás Mi az algoritmus? Lépések sorozata egy feladat elvégzéséhez (legáltalánosabban) Informálisan algoritmusnak nevezünk bármilyen jól definiált

Részletesebben

Adatszerkezetek 7a. Dr. IványiPéter

Adatszerkezetek 7a. Dr. IványiPéter Adatszerkezetek 7a. Dr. IványiPéter 1 Fák Fákat akkor használunk, ha az adatok között valamilyen alá- és fölérendeltség van. Pl. könyvtárszerkezet gyökér () Nincsennek hurkok!!! 2 Bináris fák Azokat a

Részletesebben

Kernel gépek vizsgálata

Kernel gépek vizsgálata Kernel gépek vizsgálata Lágler Krisztián 2011. május 12. FYMGQ8 Konzulens : Dr. Horváth Gábor 1 Tartalomjegyzék 1. Feladat kiírás 3 1.1. A kernelfüggvény hiperparamétereinek megválasztása..... 3 2. Bevezetés

Részletesebben

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363

Mesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363 1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 20/2011 Az Előadások Témái 226/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák Szemantikus

Részletesebben

Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet

Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet / Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet / Tartalom 3/ kernelek segítségével Felügyelt és félig-felügyelt tanulás felügyelt: D =

Részletesebben

4. Az A és B események egymást kizáró eseményeknek vagy idegen (diszjunkt)eseményeknek nevezzük, ha AB=O

4. Az A és B események egymást kizáró eseményeknek vagy idegen (diszjunkt)eseményeknek nevezzük, ha AB=O 1. Mit nevezünk elemi eseménynek és eseménytérnek? A kísérlet lehetséges kimeneteleit elemi eseményeknek nevezzük. Az adott kísélethez tartozó elemi események halmazát eseménytérnek nevezzük, jele: X 2.

Részletesebben

Adaptív dinamikus szegmentálás idősorok indexeléséhez

Adaptív dinamikus szegmentálás idősorok indexeléséhez Adaptív dinamikus szegmentálás idősorok indexeléséhez IPM-08irAREAE kurzus cikkfeldolgozás Balassi Márton 1 Englert Péter 1 Tömösy Péter 1 1 Eötvös Loránd Tudományegyetem Informatikai Kar 2013. november

Részletesebben

Algoritmuselmélet 18. előadás

Algoritmuselmélet 18. előadás Algoritmuselmélet 18. előadás Katona Gyula Y. Budapesti Műszaki és Gazdaságtudományi Egyetem Számítástudományi Tsz. I. B. 137/b kiskat@cs.bme.hu 2002 Május 7. ALGORITMUSELMÉLET 18. ELŐADÁS 1 Közelítő algoritmusok

Részletesebben

Eloszlás-független módszerek (folytatás) 14. elıadás ( lecke) 27. lecke khí-négyzet eloszlású statisztikák esetszámtáblázatok

Eloszlás-független módszerek (folytatás) 14. elıadás ( lecke) 27. lecke khí-négyzet eloszlású statisztikák esetszámtáblázatok Eloszlás-független módszerek (folytatás) 14. elıadás (7-8. lecke) Illeszkedés-vizsgálat 7. lecke khí-négyzet eloszlású statisztikák esetszámtáblázatok elemzésére Illeszkedés-vizsgálat Gyakorisági sorok

Részletesebben

A maximum likelihood becslésről

A maximum likelihood becslésről A maximum likelihood becslésről Definíció Parametrikus becsléssel foglalkozunk. Adott egy modell, mellyel elképzeléseink szerint jól leírható a meghatározni kívánt rendszer. (A modell típusának és rendszámának

Részletesebben

Diszkrét matematika 2.C szakirány

Diszkrét matematika 2.C szakirány Diszkrét matematika 2.C szakirány 2017. tavasz 1. Diszkrét matematika 2.C szakirány 11. előadás Nagy Gábor nagygabr@gmail.com nagy@compalg.inf.elte.hu compalg.inf.elte.hu/ nagy Komputeralgebra Tanszék

Részletesebben

Két diszkrét változó függetlenségének vizsgálata, illeszkedésvizsgálat

Két diszkrét változó függetlenségének vizsgálata, illeszkedésvizsgálat Két diszkrét változó függetlenségének vizsgálata, illeszkedésvizsgálat Szűcs Mónika SZTE ÁOK-TTIK Orvosi Fizikai és Orvosi Informatikai Intézet Orvosi fizika és statisztika I. előadás 2016.11.09 Orvosi

Részletesebben

Általános algoritmustervezési módszerek

Általános algoritmustervezési módszerek Általános algoritmustervezési módszerek Ebben a részben arra mutatunk példát, hogy miként használhatóak olyan általános algoritmustervezési módszerek mint a dinamikus programozás és a korlátozás és szétválasztás

Részletesebben

Mesterséges Intelligencia MI

Mesterséges Intelligencia MI Mesterséges Intelligencia MI Valószínűségi hálók - alapok Dobrowiecki Tadeusz Eredics Péter, és mások BME I.E. 437, 463-28-99 dobrowiecki@mit.bme.hu, http://www.mit.bme.hu/general/staff/tade Valószínűségi

Részletesebben

Diszkrét matematika 2.C szakirány

Diszkrét matematika 2.C szakirány Diszkrét matematika 2.C szakirány 2017. tavasz 1. Diszkrét matematika 2.C szakirány 3. előadás Nagy Gábor nagygabr@gmail.com nagy@compalg.inf.elte.hu compalg.inf.elte.hu/ nagy Komputeralgebra Tanszék 2017.

Részletesebben

Osztályozóvizsga követelményei

Osztályozóvizsga követelményei Osztályozóvizsga követelményei Képzés típusa: Tantárgy: Nyolcosztályos gimnázium Matematika Évfolyam: 12 Emelt óraszámú csoport Emelt szintű csoport Vizsga típusa: Írásbeli Követelmények, témakörök: Emelt

Részletesebben

Kernel módszerek. 7. fejezet

Kernel módszerek. 7. fejezet 7. fejezet Kernel módszerek Ebben a fejezetben olyan tanuló rendszerekkel foglalkozunk, amelyek a válaszokat ún. kernel függvények (vagy magfüggvények) súlyozott összegeként állítják elő. A megközelítés

Részletesebben

Véletlenszám generátorok és tesztelésük HORVÁTH BÁLINT

Véletlenszám generátorok és tesztelésük HORVÁTH BÁLINT Véletlenszám generátorok és tesztelésük HORVÁTH BÁLINT Mi a véletlen? Determinisztikus vs. Véletlen esemény? Véletlenszám: számok sorozata, ahol véletlenszerűen követik egymást az elemek Pszeudo-véletlenszám

Részletesebben

Exact inference in general Bayesian networks

Exact inference in general Bayesian networks Exact inference in general Bayesian networks Peter Antal antal@mit.bme.hu Overview The Probability Propagation in Trees of Cliques (a.k.a. ~in join trees) Practical inference Exercises Literature: Valószínűségi

Részletesebben

MATEMATIKA 2. dolgozat megoldása (A csoport)

MATEMATIKA 2. dolgozat megoldása (A csoport) MATEMATIKA. dolgozat megoldása (A csoport). Definiálja az alábbi fogalmakat: (egyváltozós) függvény folytonossága, differenciálhatósága, (többváltozós függvény) iránymenti deriváltja. (3x8 pont). Az f

Részletesebben

Funkcionálanalízis. n=1. n=1. x n y n. n=1

Funkcionálanalízis. n=1. n=1. x n y n. n=1 Funkcionálanalízis 2011/12 tavaszi félév - 2. előadás 1.4. Lényeges alap-terek, példák Sorozat terek (Folytatás.) C: konvergens sorozatok tere. A tér pontjai sorozatok: x = (x n ). Ezen belül C 0 a nullsorozatok

Részletesebben

[1000 ; 0] 7 [1000 ; 3000]

[1000 ; 0] 7 [1000 ; 3000] Gépi tanulás (vimim36) Gyakorló feladatok 04 tavaszi félév Ahol lehet, ott konkrét számértékeket várok nem puszta egyenleteket. (Azok egy részét amúgyis megadom.). Egy bináris osztályozási feladatra tanított

Részletesebben

Nagy Gábor compalg.inf.elte.hu/ nagy

Nagy Gábor  compalg.inf.elte.hu/ nagy Diszkrét matematika 3. estis képzés 2018. ősz 1. Diszkrét matematika 3. estis képzés 9. előadás Nagy Gábor nagygabr@gmail.com nagy@compalg.inf.elte.hu compalg.inf.elte.hu/ nagy Komputeralgebra Tanszék

Részletesebben

Mi az adat? Az adat elemi ismeret. Az adatokból információkat

Mi az adat? Az adat elemi ismeret. Az adatokból információkat Mi az adat? Az adat elemi ismeret. Tények, fogalmak olyan megjelenési formája, amely alkalmas emberi eszközökkel történő értelmezésre, feldolgozásra, továbbításra. Az adatokból gondolkodás vagy gépi feldolgozás

Részletesebben

x, x R, x rögzített esetén esemény. : ( ) x Valószínűségi Változó: Feltételes valószínűség: Teljes valószínűség Tétele: Bayes Tétel:

x, x R, x rögzített esetén esemény. : ( ) x Valószínűségi Változó: Feltételes valószínűség: Teljes valószínűség Tétele: Bayes Tétel: Feltételes valószínűség: Teljes valószínűség Tétele: Bayes Tétel: Valószínűségi változó általános fogalma: A : R leképezést valószínűségi változónak nevezzük, ha : ( ) x, x R, x rögzített esetén esemény.

Részletesebben

Lineáris regressziós modellek 1

Lineáris regressziós modellek 1 Lineáris regressziós modellek 1 Ispány Márton és Jeszenszky Péter 2016. szeptember 19. 1 Az ábrák C.M. Bishop: Pattern Recognition and Machine Learning c. könyvéből származnak. Tartalom Bevezető példák

Részletesebben

Eseményalgebra. Esemény: minden amirl a kísérlet elvégzése során eldönthet egyértelmen hogy a kísérlet során bekövetkezett-e vagy sem.

Eseményalgebra. Esemény: minden amirl a kísérlet elvégzése során eldönthet egyértelmen hogy a kísérlet során bekövetkezett-e vagy sem. Eseményalgebra. Esemény: minden amirl a kísérlet elvégzése során eldönthet egyértelmen hogy a kísérlet során bekövetkezett-e vagy sem. Elemi esemény: a kísérlet egyes lehetséges egyes lehetséges kimenetelei.

Részletesebben

Közösség detektálás gráfokban

Közösség detektálás gráfokban Közösség detektálás gráfokban Önszervező rendszerek Hegedűs István Célkitűzés: valamilyen objektumok halmaza felett minták, csoportok detektálása csakis az egyedek közötti kapcsolatok struktúrájának a

Részletesebben

Statisztikai eljárások a mintafelismerésben és a gépi tanulásban

Statisztikai eljárások a mintafelismerésben és a gépi tanulásban Statisztikai eljárások a mintafelismerésben és a gépi tanulásban Varga Domonkos (I.évf. PhD hallgató) 2014 május A prezentáció felépítése 1) Alapfogalmak 2) A gépi tanulás, mintafelismerés alkalmazási

Részletesebben

GVMST22GNC Statisztika II. Keleti Károly Gazdasági Kar Vállalkozásmenedzsment Intézet

GVMST22GNC Statisztika II. Keleti Károly Gazdasági Kar Vállalkozásmenedzsment Intézet GVMST22GNC Statisztika II. 3. előadás: 8. Hipotézisvizsgálat Kóczy Á. László Keleti Károly Gazdasági Kar Vállalkozásmenedzsment Intézet Hipotézisvizsgálat v becslés Becslés Ismeretlen paraméter Közeĺıtő

Részletesebben