Fodor Gábor március 17. Fodor Gábor Osztályozás március / 39
|
|
- Péter Faragó
- 5 évvel ezelőtt
- Látták:
Átírás
1 Osztályozás Fodor Gábor március 17. Fodor Gábor Osztályozás március / 39
2 Bevezetés 1 Bevezetés 2 Döntési szabályok 3 Döntési fák 4 Bayes-hálók 5 Lineáris szeparálás 6 Support Vector Machine 7 Meta algoritmusok 8 Források Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
3 Bevezetés Bevezetés Felügyelt tanulás (Supervised learning) Magyarázó attribútumok, magyarázandó attribútum Tanító pontok, teszthalmaz Regresszió és Osztályozás Előfeldolgozás (Hiányos adatok, adattisztítás, adattranszformáció, releváns adatok) Hiba mértékek (Accuracy, Precision, Recall, ROC, AUC, Cost) Fodor Gábor Osztályozás március / 39
4 Döntési szabályok 1 Bevezetés 2 Döntési szabályok 3 Döntési fák 4 Bayes-hálók 5 Lineáris szeparálás 6 Support Vector Machine 7 Meta algoritmusok 8 Források Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
5 Döntési szabályok Definíciók Def. (Döntési szabály) Az A attribútumhalmaz felett értelmezett döntési szabály alatt olyan R : φ(a) Y = y logikai implikációt értünk, amelyek feltételrészében az attribútumokra vonatkozó feltételek logikai kapcsolatai állnak, a következményrészben pedig az osztályattribútumra vonatkozó ítélet. Def. (Illeszkedés) Az R : φ(a) Y = y döntési szabályra illeszkedik a t objektum, ha a feltételrész attribútumváltozóiba t megfelelő értékeit helyettesítve igaz értéket kapunk. Def. (Fedés) Az R : φ(a) Y = y szabály lefedi az T objektumhalmazt, ha minden objektum illeszkedik a szabályra. Adott τ tanító halmaz esetén az R által fedett tanítópontok halmazát cover τ (R)-rel jelöljük. Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
6 Döntési szabályok Döntési szabályok szabályhalmaz és szabálysorozat egyértelműség teljesség kifejezőerő döntési táblázat Fodor Gábor Osztályozás március / 39
7 1R algoritmus Döntési szabályok Pofonegyszerű osztályozó algoritmus, kiválaszt egy attribútumot, majd annyi szabályt álĺıt elő, ahány különböző értéket vesz fel az attribútumunk a tanító adathalmazban. Az A = a Y = y i szabály következményében szereplő y i osztály értelemszerűen a leggyakoribb lesz az A attribútumában a-t felvevő tanítópontok közül. Az 1R egyértelmű szabályhalmazt álĺıt elő. Valós attribútumok problémája,,egyszerűsége ellenére elég jól muzsikál a gyakorlatban. 0R osztályozó Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
8 A Prism módszer Döntési szabályok Alapfeltétel: nincsenek olyan tanítópontok, melyek fontos magyarázó attribútumai megegyeznek, de osztályattribútumukban különböznek. (!) separate and conquer Csak 100%-os pontosságú szabályokat álĺıt elő. Fodor Gábor Osztályozás március / 39
9 Döntési fák 1 Bevezetés 2 Döntési szabályok 3 Döntési fák 4 Bayes-hálók 5 Lineáris szeparálás 6 Support Vector Machine 7 Meta algoritmusok 8 Források Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
10 Döntési fák Általában Könnyen értelmezhető, egyértelmű szabályhalmazok Faépítés rekurzív vágásokkal(kérdésekkel) Leállás: Attribútumhiány Mélységi korlát Nincs jó vágás Főbb algoritmuscsaládok: Interactive Dichotomatizer 3 (ID3) Classification and Regression Trees (CART,C&RT) Chi-squared Automatic Interaction Detection (CHAID) Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
11 Egy kis információelmélet Döntési fák X, Y diszkrét v.v. k, l lehetséges értékkel Ekkor Y entrópiája: l H(Y ) = P(Y = i) log P(Y = i) i=1 Tegyük fel X megfigyelt változó értéke x j, ekkor Y -nal kapcsolatos bizonytalanságunk: H(Y X = x j ) = l P(Y = i X = x j ) log P(Y = i X = x j ) i=1 X ismeretében a várható bizonytalanságunk: k H(Y X ) = P(X = x j )H(Y X = x j ) j=1 Kölcsönös információ I (Y, X ) = H(Y ) H(Y X ) Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
12 ID3 Döntési fák Az egyik legősibb és legismertebb osztályozó algoritmus Y osztályozásakor azt az X attribútumot választja, melyre I (X, Y ) maximális Hátrány: terebélyes fa Javítási ötlet nyereségaránnyal gainratio(x ) = I (X, Y )/H(X ) Egy attribútum szerint legfeljebb egyszer vágunk. Bináris fa Feltételek a csomópontokban: Sorrend, kategória, intervallum Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
13 Döntési fák Vágási függvények X diszkrét v.v. k lehetséges értékkel, p i := P(X = x i ), p = (p 1, p 2,..., p k ) Egy Φ : [0, 1] k R vágási függvényre vonatkozó Taylor-Silverman kritériumok: 1 Φ(p) 0 2 Φ az elfajult eloszlásra minimális 3 Φ az egyenletes eloszlásra maximális 4 Φ(p) a p komponenseire nézve szimmetrikus. 5 Φ differenciálható Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
14 CART Döntési fák Entrópia helyett Gini-index: Gini(p) = 1 k i=1 Ferdén is tudnak vágni (lineáris kombináció) Mindig bináris döntés p 2 i Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
15 Egy kis statisztika Döntési fák A 1,..., A r teljes eseményrendszer H 0 : P(A i ) = p i (i = 1,..., r), n független megfigyelés során jelölje ν i a megfelelő A i gyakoriságát! Ekkor H 0 fennállásakor (ν 1,..., ν r ) polinomiális eloszlású. n n r = n esetén: T. P H0 (ν 1 = n 1,..., ν r = n r ) = n! n 1!... n r! pn pnr r Ha (ν 1, ν 2,..., ν r ) polinomiális eloszlású n és p 1,..., p r (p i > 0) paraméterekkel akkor n esetén r (ν i np i ) 2 χ 2 (r 1) np i i=1 Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
16 CHAID Döntési fák Három lépés Minden magyarázó változóra a statisztikailag leginkább független kategóriák páronkénti egyesítése A leginkább függő attribútum kategóriái szerinti felosztás A rekurzió folytatása valamely megálĺıtási kritériumig Függetlenségvizsgálat χ 2 próbával diszkrét esetben X, Y diszkrét, A i = {X = x i }, B j = {Y = y j }, p i = P(A i ), q j = P(B j ) ν ij = {k : X k = x i, Y k = y j } H 0 : X és Y függetlenek: P(A i B j ) = P(A i )P(B j ) = p i q j χ 2 = i (ν ij np i q j ) 2 j np i q j Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
17 Bayes-hálók 1 Bevezetés 2 Döntési szabályok 3 Döntési fák 4 Bayes-hálók 5 Lineáris szeparálás 6 Support Vector Machine 7 Meta algoritmusok 8 Források Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
18 Bayes-hálók Bayes-hálók bevezető G (DAG a diszkrét attribútumokon mint csúcsokon) a változók közötti függőségi viszonyokat kódolja. Lokális Markov-feltétel: Bármely attribútum független nem leszármazottaitól, ha ismert szüleinek értéke. T. (Láncszabály Bayes-hálókra) Következtetés a hálóban Def. (Markov-takaró) P(X) = n P(X i Par i ) i=1 Egy változó Markov-takarója a szüleinek, gyermekeinek és a gyermekei szüleinek halmaza. Feltételes valószínűségi tábla (CPT) Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
19 Bayes-hálók A tanulás nehézségei Paramétertanulás, struktúratanulás Melyek a jó struktúrák? Kritériumfüggvények: BIC 1 (B, D) = N i=1 log(p(d i B)) logn 2 Θ AIC 2 (B, D) = Az óriási keresési tér szűkítése Topológikus sorrend felálĺıtása N log(p(d i B)) Θ i=1 Szülőhalmazok méretének korlátozása 1 Bayesian Information Criterion 2 Akaike Information Criterion Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
20 Bayes-hálók Mohó keresések Tetszőleges kiindulási gráf (üres, szakértői, random) éltörlés élhozzáadás élfordítás WEKA algoritmusok K2 HillClimbing RepeatedHillClimbing Simulated Annealing Fodor Gábor Osztályozás március / 39
21 Bayes-hálók Naive Bayes Classifier (NB) Durva függetlenségi feltétel, rögzített struktúra C osztályattribútum A 1, A 2,..., A n magyarázó változók Bayes-tétel miatt P(C A 1, A 2,..., A n ) = P(C)P(A 1, A 2,..., A n C) P(A 1, A 2,..., A n ) Függetlenségi feltételünk alapján ML döntés P(A 1,..., A n C) = classify(a 1,..., a n ) = arg max c n P(A i C) i=1 ( P(C = c) n i=1 ) P(A i = a i C = c Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
22 Bayes-hálók Tree Augmented Naive Bayes Model(TAN) Bonyolultabb, de kezelhető struktúra C árva A 1, A 2,..., A n mind C gyermekei A 1, A 2,..., A n pontokon irányított fa A tanulás működik polinomidőben! 1 Meghatározzuk az adatok segítségével Î (A i, A j C)-t minden (i, j) párra, ezekkel súlyozzuk egy n-pontú teljes gráf éleit. 2 Ebben a gráfban keresünk egy maximális feszítőfát, erre ismertek O(n 2 log n) idejű algoritmusok. 3 Kiválasztunk egy gyökeret és ennek megfelelően irányítjuk a feszítőfa éleit. 4 Végül hozzáadjuk a gráfhoz a C csúcsot és behúzzuk a maradék éleket. Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
23 Lineáris szeparálás 1 Bevezetés 2 Döntési szabályok 3 Döntési fák 4 Bayes-hálók 5 Lineáris szeparálás 6 Support Vector Machine 7 Meta algoritmusok 8 Források Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
24 Lineáris szeparálás Lineáris szeparálás Két osztály lineárisan szeparálható, ha egy hipersík segítségével el tudjuk különíteni a két osztály pontjait. w 1 a 1 + w 2 a w n a n = 0 Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
25 Lineáris szeparálás Perceptron A neurális hálók ősének tekinthető Minden attribútum valós Ha a lineáris kombináció pozitív első osztály Feladatunk megfelelő (nem optimális!) w súlyok keresése Winnow módszer csupa bináris attribútumra Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
26 Lineáris szeparálás Rocchio Klasszikus IR algoritmus Minden attribútum valós Minden osztályhoz prototípusvektor (D c mintaátlag) Kicsiny számításigény, gyors tanulás (online környezetben is) c = βavg dj C d j γavg dj / C d j Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
27 Support Vector Machine 1 Bevezetés 2 Döntési szabályok 3 Döntési fák 4 Bayes-hálók 5 Lineáris szeparálás 6 Support Vector Machine 7 Meta algoritmusok 8 Források Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
28 Hard-Margin SVM Support Vector Machine Bináris osztályozás { 1, +1} Tfh. lineárisan szeparálhatók az osztályok! A szeparáló sík egyenlete: D(x) = w T x + b = 0 Kis átalakításokkal: y k (w T x k + b) > 1 x pont távolsága D(x)-től: D(x) / w y k (D(x k )) w δ Célunk 1 2 w 2 -t minimalizálni, y k (w T x k + b) 1 korlátok mellett. (Kvadratikus optimalizálási feladat, KKT, Lagrange multiplikátorok) Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
29 Soft-Margin SVM Support Vector Machine A feltételek enyhítese ξ i nemnegatív segédváltozókkal: y i (w T x i + b) 1 ξ i A segédváltozók miatt mindig létezik megengedett megoldás. 1 2 w 2 + C i ξ p i min y k (w T x k + b) 1 i = 1, 2,... Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
30 Support Vector Machine Nemlinearitás kezelése magfüggvényekkel Nemlineáris transzformáció (magasabb dimenzióba) A transzformált térben az optimális szeparáló sík meghatározása D(x) = w T g(x) + b H(x, x ) = g T (x)g(x) Lineáris magfüggvények H(x, x ) = x T x Polinomiális magfüggvények H(x, x ) = (x T x + 1) RBF magfüggvények H(x, x ) = exp( γ x x ) Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
31 Support Vector Machine SVM vs. NN Előnyök 1 Maximált általánosítóképesség 2 Nincs lokális optimum 3 Hatékonyság kiugró (outlier) értékek esetén is Hátrányok 1 Bináris döntés 2 Lassú tanulás 3 Paraméterek kezelése Mindkét módszer univerzális függvényapproximátor Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
32 overfitting Support Vector Machine Fodor Gábor Osztályozás március / 39
33 Meta algoritmusok 1 Bevezetés 2 Döntési szabályok 3 Döntési fák 4 Bayes-hálók 5 Lineáris szeparálás 6 Support Vector Machine 7 Meta algoritmusok 8 Források Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
34 Meta algoritmusok RandomForest M magyarázó változó, N adatsor, Minden egyes döntési fának választunk (visszatevéses mintavételezéssel-bootstrap) egy N méretű mintát. Minden csomópontban random m(<< M) attribútum közül kiválasztjuk azt, amelyik szerint vágunk. Végül az erdőt összeszavaztatjuk többségi szavazással. Előnyök Sok attribútummal is elbír Pontos osztályozás Gyors tanulás Túltanulás elkerülése Hátrányok Független attribútumok Torz mintavételezés Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
35 Bagging, Stacking Meta algoritmusok Bootstrap aggregating Szintén Leo Breiman 1994-ből, nemcsak döntési fát, tetszőleges tanuló algoritmust alkalmazhatunk. Túltanulás elkerülése Stabil modelleken nem segít. Stacking n belső modell kimenetét adjuk egy összeszavaztató modellnek Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
36 Boosting Meta algoritmusok AdaBoost Freund és Schapire 1995 Cél: egyszerű modellek adaptív alkalmazásával pontos eredmény T körben tanítunk egy-egy h t modellt, a D t (i) eloszlással mintavételezett tanítóhalmazon. A modell hibája: ɛ t = D t (i) i:h t(x i ) y i Frissítés: Végső döntésünk: α t := 1 2 ln(1 ɛ t ɛ t ) D i (t) = D i(t) exp( α t h t (x i )y i ) Z t H(x) = T α t h t (x) t=1 Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
37 Meta algoritmusok Adatbányászati eszközök Fodor Gábor Osztályozás március / 39
38 Források 1 Bevezetés 2 Döntési szabályok 3 Döntési fák 4 Bayes-hálók 5 Lineáris szeparálás 6 Support Vector Machine 7 Meta algoritmusok 8 Források Fodor Gábor (fodgabor@math.bme.hu) Osztályozás március / 39
39 Források Források Bodon Ferenc, Adatbányászati algoritmusok, (2010) Nir Friedman, Dan Geiger, Moises Goldszmidt, Bayesian Network Classifiers, (1997) R. R. Bouckaert, E. Frank, M. Hall, R. Kirkby, P. Reutemann, A. Seewald, D. Scuse, WEKA Manual for Version 3-7-1, (2010) Shiego Abe, Support Vector Machines for Pattern Classification, (2005) Fodor Gábor Osztályozás március / 39
Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.
Regresszió Csorba János Nagyméretű adathalmazok kezelése 2010. március 31. A feladat X magyarázó attribútumok halmaza Y magyarázandó attribútumok) Kérdés: f : X -> Y a kapcsolat pár tanítópontban ismert
RészletesebbenBME, Budapest. BME, Budapest, 2012.március 1.
BME, Budapest BME, Budapest, 2012.március 1. Osztályozás és regresszió Adatbányászati (data mining) algoritmusokat az adatbázisból tőrténő tudásfeltárás (knowledge discovery in databases) során alkalmaznak.
RészletesebbenCsima Judit április 9.
Osztályozókról még pár dolog Csima Judit BME, VIK, Számítástudományi és Információelméleti Tanszék 2018. április 9. Csima Judit Osztályozókról még pár dolog 1 / 19 SVM (support vector machine) ez is egy
RészletesebbenAsszociációs szabályok
Asszociációs szabályok Nikházy László Nagy adathalmazok kezelése 2010. március 10. Mi az értelme? A ö asszociációs szabály azt állítja, hogy azon vásárlói kosarak, amik tartalmaznak pelenkát, általában
RészletesebbenRandom Forests - Véletlen erdők
Random Forests - Véletlen erdők Szabó Adrienn Adatbányászat és Webes Keresés Kutatócsoport 2010 Tartalom Fő forrás: Leo Breiman: Random Forests Machine Learning, 45, 5-32, 2001 Alapok Döntési fa Véletlen
RészletesebbenGépi tanulás a gyakorlatban SVM
Gépi tanulás a gyakorlatban SVM Klasszifikáció Feladat: előre meghatározott csoportok elkülönítése egymástól Osztályokat elkülönítő felület Osztályokhoz rendelt döntési függvények Klasszifikáció Feladat:
RészletesebbenÚj típusú döntési fa építés és annak alkalmazása többtényezős döntés területén
Új típusú döntési fa építés és annak alkalmazása többtényezős döntés területén Dombi József Szegedi Tudományegyetem Bevezetés - ID3 (Iterative Dichotomiser 3) Az ID algoritmusok egy elemhalmaz felhasználásával
RészletesebbenDöntési fák. (Klasszifikációs és regressziós fák: (Classification And Regression Trees: CART ))
Döntési fák (Klasszifikációs és regressziós fák: (Classification And Regression Trees: CART )) Rekurzív osztályozó módszer, Klasszifikációs és regressziós fák folytonos, kategóriás, illetve túlélés adatok
RészletesebbenKódverifikáció gépi tanulással
Kódverifikáció gépi tanulással Szoftver verifikáció és validáció kiselőadás Hidasi Balázs 2013. 12. 12. Áttekintés Gépi tanuló módszerek áttekintése Kódverifikáció Motiváció Néhány megközelítés Fault Invariant
RészletesebbenEgy uttes m odszerek Isp any M arton es Jeszenszky P eter okt ober 18.
Együttes módszerek Ispány Márton és Jeszenszky Péter 2016. október 18. Tartalom Bevezetés Zsákolás (bagging) Gyorsítás (boosting) AdaBoost Véletlen erdők (random forests) Hibajavító kimenet kódolás (error-correcting
RészletesebbenEÖTVÖS LORÁND TUDOMÁNYEGYETEM KLASSZIFIKÁCIÓ AZ ADATBÁNYÁSZATBAN
EÖTVÖS LORÁND TUDOMÁNYEGYETEM KLASSZIFIKÁCIÓ AZ ADATBÁNYÁSZATBAN SZAKDOLGOZAT Készítette: Bényász Melinda Matematika Bsc Matematikai elemz szakirány Témavezet : Kósa Balázs Informatikai Kar Információs
RészletesebbenOsztályozás, regresszió. Nagyméretű adathalmazok kezelése Tatai Márton
Osztályozás, regresszió Nagyméretű adathalmazok kezelése Tatai Márton Osztályozási algoritmusok Osztályozás Diszkrét értékkészletű, ismeretlen attribútumok értékének meghatározása ismert attribútumok értéke
RészletesebbenÚjfajta, automatikus, döntési fa alapú adatbányászati módszer idősorok osztályozására
VÉGZŐS KONFERENCIA 2009 2009. május 20, Budapest Újfajta, automatikus, döntési fa alapú adatbányászati módszer idősorok osztályozására Hidasi Balázs hidasi@tmit.bme.hu Konzulens: Gáspár-Papanek Csaba Budapesti
RészletesebbenStatisztika - bevezetés Méréselmélet PE MIK MI_BSc VI_BSc 1
Statisztika - bevezetés 00.04.05. Méréselmélet PE MIK MI_BSc VI_BSc Bevezetés Véletlen jelenség fogalma jelenséget okok bizonyos rendszere hozza létre ha mindegyik figyelembe vehető egyértelmű leírás általában
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363
1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 Az Előadások Témái 206/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák
RészletesebbenGépi tanulás a gyakorlatban. Kiértékelés és Klaszterezés
Gépi tanulás a gyakorlatban Kiértékelés és Klaszterezés Hogyan alkalmazzuk sikeresen a gépi tanuló módszereket? Hogyan válasszuk az algoritmusokat? Hogyan hangoljuk a paramétereiket? Precízebben: Tegyük
RészletesebbenGépi tanulás Gregorics Tibor Mesterséges intelligencia
Gépi tanulás Tanulás fogalma Egy algoritmus akkor tanul, ha egy feladat megoldása során olyan változások következnek be a működésében, hogy később ugyanazt a feladatot vagy ahhoz hasonló más feladatokat
RészletesebbenDiszkrét idejű felújítási paradoxon
Magda Gábor Szaller Dávid Tóvári Endre 2009. 11. 18. X 1, X 2,... független és X-szel azonos eloszlású, pozitív egész értékeket felvevő valószínűségi változó (felújítási idők) P(X M) = 1 valamilyen M N
RészletesebbenKeresés képi jellemzők alapján. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Keresés képi jellemzők alapján Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Lusta gépi tanulási algoritmusok Osztályozás: k=1: piros k=5: kék k-legközelebbi szomszéd (k=1,3,5,7)
RészletesebbenKÖZELÍTŐ INFERENCIA II.
STATISZTIKAI TANULÁS AZ IDEGRENDSZERBEN KÖZELÍTŐ INFERENCIA II. MONTE CARLO MÓDSZEREK ISMÉTLÉS Egy valószínűségi modellben a következtetéseinket a látensek vagy a paraméterek fölötti poszterior írja le.
RészletesebbenSzeleteljük fel úgy a tulajdonságteret, hogy az egyes szeletekbe lehetőleg egyfajta objektumok kerüljenek, de túl sok szelet se legyen.
KEMOMETRIA VIII-1/27 /2013 ősz CART Classification and Regression Trees Osztályozó fák Szeleteljük fel úgy a tulajdonságteret, hogy az egyes szeletekbe lehetőleg egyfajta objektumok kerüljenek, de túl
RészletesebbenGépi tanulás a gyakorlatban. Lineáris regresszió
Gépi tanulás a gyakorlatban Lineáris regresszió Lineáris Regresszió Legyen adott egy tanuló adatbázis: Rendelkezésünkre áll egy olyan előfeldolgozott adathalmaz, aminek sorai az egyes ingatlanokat írják
RészletesebbenPrincipal Component Analysis
Principal Component Analysis Principal Component Analysis Principal Component Analysis Definíció Ortogonális transzformáció, amely az adatokat egy új koordinátarendszerbe transzformálja úgy, hogy a koordináták
RészletesebbenKészítette: Fegyverneki Sándor
VALÓSZÍNŰSÉGSZÁMÍTÁS Összefoglaló segédlet Készítette: Fegyverneki Sándor Miskolci Egyetem, 2001. i JELÖLÉSEK: N a természetes számok halmaza (pozitív egészek) R a valós számok halmaza R 2 {(x, y) x, y
RészletesebbenNemparaméteres próbák
Nemparaméteres próbák Budapesti Mőszaki és Gazdaságtudományi Egyetem Gépészmérnöki Kar Hidrodinamikai Rendszerek Tanszék 1111, Budapest, Mőegyetem rkp. 3. D ép. 334. Tel: 463-16-80 Fax: 463-30-91 http://www.vizgep.bme.hu
RészletesebbenTanulás az idegrendszerben. Structure Dynamics Implementation Algorithm Computation - Function
Tanulás az idegrendszerben Structure Dynamics Implementation Algorithm Computation - Function Tanulás pszichológiai szinten Classical conditioning Hebb ötlete: "Ha az A sejt axonja elég közel van a B sejthez,
Részletesebben(Independence, dependence, random variables)
Két valószínűségi változó együttes vizsgálata Feltételes eloszlások Két diszkrét változó együttes eloszlása a lehetséges értékpárok és a hozzájuk tartozó valószínűségek (táblázat) Példa: Egy urna 3 fehér,
RészletesebbenValószínűségi változók. Várható érték és szórás
Matematikai statisztika gyakorlat Valószínűségi változók. Várható érték és szórás Valószínűségi változók 2016. március 7-11. 1 / 13 Valószínűségi változók Legyen a (Ω, A, P) valószínűségi mező. Egy X :
RészletesebbenSzámítógépes képelemzés 7. előadás. Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék
Számítógépes képelemzés 7. előadás Dr. Balázs Péter SZTE, Képfeldolgozás és Számítógépes Grafika Tanszék Momentumok Momentum-alapú jellemzők Tömegközéppont Irányultáság 1 2 tan 2 1 2,0 1,1 0, 2 Befoglaló
RészletesebbenKÖZELÍTŐ INFERENCIA II.
STATISZTIKAI TANULÁS AZ IDEGRENDSZERBEN KÖZELÍTŐ INFERENCIA II. MONTE CARLO MÓDSZEREK ISMÉTLÉS Egy valószínűségi modellben a következtetéseinket a látensek vagy a paraméterek fölötti poszterior írja le.
RészletesebbenMarkov-láncok stacionárius eloszlása
Markov-láncok stacionárius eloszlása Adatbányászat és Keresés Csoport, MTA SZTAKI dms.sztaki.hu Kiss Tamás 2013. április 11. Tartalom Markov láncok definíciója, jellemzése Visszatérési idők Stacionárius
RészletesebbenNagyméretű adathalmazok kezelése (BMEVISZM144) Reinhardt Gábor április 5.
Asszociációs szabályok Budapesti Műszaki- és Gazdaságtudományi Egyetem 2012. április 5. Tartalom 1 2 3 4 5 6 7 ismétlés A feladat Gyakran együtt vásárolt termékek meghatározása Tanultunk rá hatékony algoritmusokat
RészletesebbenBizonytalanság. Mesterséges intelligencia április 4.
Bizonytalanság Mesterséges intelligencia 2014. április 4. Bevezetés Eddig: logika, igaz/hamis Ha nem teljes a tudás A világ nem figyelhető meg közvetlenül Részleges tudás nem reprezentálható logikai eszközökkel
RészletesebbenTotális Unimodularitás és LP dualitás. Tapolcai János
Totális Unimodularitás és LP dualitás Tapolcai János tapolcai@tmit.bme.hu 1 Optimalizálási feladat kezelése NP-nehéz Hatékony megoldás vélhetően nem létezik Jó esetben hatékony algoritmussal közelíteni
RészletesebbenAdatbányászati feladatgyűjtemény tehetséges hallgatók számára
Adatbányászati feladatgyűjtemény tehetséges hallgatók számára Buza Krisztián Számítástudományi és Információelméleti Tanszék Budapesti Műszaki és Gazdaságtudományi Egyetem Tartalomjegyék Modellek kiértékelése...
Részletesebben1. gyakorlat. Mesterséges Intelligencia 2.
1. gyakorlat Mesterséges Intelligencia. Elérhetőségek web: www.inf.u-szeged.hu/~gulyasg mail: gulyasg@inf.u-szeged.hu Követelmények (nem teljes) gyakorlat látogatása kötelező ZH írása a gyakorlaton elhangzott
Részletesebbene (t µ) 2 f (t) = 1 F (t) = 1 Normális eloszlás negyedik centrális momentuma:
Normális eloszlás ξ valószínűségi változó normális eloszlású. ξ N ( µ, σ 2) Paraméterei: µ: várható érték, σ 2 : szórásnégyzet (µ tetszőleges, σ 2 tetszőleges pozitív valós szám) Normális eloszlás sűrűségfüggvénye:
RészletesebbenSupport Vector Machines
Support Vector Machnes Ormánd Róbert MA-SZE Mest. Int. Kutatócsoport 2009. február 17. Előadás vázlata Rövd bevezetés a gép tanulásba Bevezetés az SVM tanuló módszerbe Alapötlet Nem szeparálható eset Kernel
RészletesebbenVéletlenszám generátorok és tesztelésük. Tossenberger Tamás
Véletlenszám generátorok és tesztelésük Tossenberger Tamás Érdekességek Pénzérme feldobó gép: $0,25-os érme 1/6000 valószínűséggel esik az élére 51% eséllyel érkezik a felfelé mutató oldalára Pörgetésnél
RészletesebbenModellkiválasztás és struktúrák tanulása
Modellkiválasztás és struktúrák tanulása Szervezőelvek keresése Az unsupervised learning egyik fő célja Optimális reprezentációk Magyarázatok Predikciók Az emberi tanulás alapja Általános strukturális
RészletesebbenA fontosabb definíciók
A legfontosabb definíciókat jelöli. A fontosabb definíciók [Descartes szorzat] Az A és B halmazok Descartes szorzatán az A és B elemeiből képezett összes (a, b) a A, b B rendezett párok halmazát értjük,
Részletesebbenegyenletesen, és c olyan színű golyót teszünk az urnába, amilyen színűt húztunk. Bizonyítsuk
Valószínűségszámítás 8. feladatsor 2015. november 26. 1. Bizonyítsuk be, hogy az alábbi folyamatok mindegyike martingál. a S n, Sn 2 n, Y n = t n 1+ 1 t 2 Sn, t Fn = σ S 1,..., S n, 0 < t < 1 rögzített,
RészletesebbenNagy adathalmazok labor
1 Nagy adathalmazok labor 2018-2019 őszi félév 2018.09.19 1. Döntési fák 2. Naive Bayes 3. Logisztikus regresszió 2 Féléves terv o Kiértékelés: cross-validation, bias-variance trade-off o Supervised learning
RészletesebbenSzepesvári Csaba. 2005 ápr. 11
Gépi tanulás III. Szepesvári Csaba MTA SZTAKI 2005 ápr. 11 Szepesvári Csaba (SZTAKI) Gépi tanulás III. 2005 ápr. 11 1 / 37 1 Döntési fák 2 Felügyelet nélküli tanulás Klaszter-anaĺızis EM algoritmus Gauss
RészletesebbenElméleti összefoglaló a Sztochasztika alapjai kurzushoz
Elméleti összefoglaló a Sztochasztika alapjai kurzushoz 1. dolgozat Véletlen kísérletek, események valószín sége Deníció. Egy véletlen kísérlet lehetséges eredményeit kimeneteleknek nevezzük. A kísérlet
RészletesebbenElméleti összefoglaló a Valószín ségszámítás kurzushoz
Elméleti összefoglaló a Valószín ségszámítás kurzushoz Véletlen kísérletek, események valószín sége Deníció. Egy véletlen kísérlet lehetséges eredményeit kimeneteleknek nevezzük. A kísérlet kimeneteleinek
RészletesebbenNumerikus módszerek 1.
Numerikus módszerek 1. 10. előadás: Nemlineáris egyenletek numerikus megoldása Lócsi Levente ELTE IK 2013. november 18. Tartalomjegyzék 1 Bolzano-tétel, intervallumfelezés 2 Fixponttételek, egyszerű iterációk
RészletesebbenFEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 8 VIII. REGREssZIÓ 1. A REGREssZIÓs EGYENEs Két valószínűségi változó kapcsolatának leírására az eddigiek alapján vagy egy numerikus
RészletesebbenBudapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék. Neurális hálók. Pataki Béla
Budapesti Műszaki és Gazdaságtudományi Egyetem Méréstechnika és Információs rendszerek Tanszék Neurális hálók Előadó: Előadás anyaga: Hullám Gábor Pataki Béla Dobrowiecki Tadeusz BME I.E. 414, 463-26-79
RészletesebbenIntelligens adatelemzés
Antal Péter, Antos András, Horváth Gábor, Hullám Gábor, Kocsis Imre, Marx Péter, Millinghoffer András, Pataricza András, Salánki Ágnes Intelligens adatelemzés Szerkesztette: Antal Péter A jegyzetben az
RészletesebbenStatisztika elméleti összefoglaló
1 Statisztika elméleti összefoglaló Tel.: 0/453-91-78 1. Tartalomjegyzék 1. Tartalomjegyzék.... Becsléselmélet... 3 3. Intervallumbecslések... 5 4. Hipotézisvizsgálat... 8 5. Regresszió-számítás... 11
RészletesebbenDiszkrét matematika 2. estis képzés
Diszkrét matematika 2. estis képzés 2018. tavasz 1. Diszkrét matematika 2. estis képzés 9. előadás Nagy Gábor nagygabr@gmail.com nagy@compalg.inf.elte.hu compalg.inf.elte.hu/ nagy Komputeralgebra Tanszék
RészletesebbenACTA CAROLUS ROBERTUS
ACTA CAROLUS ROBERTUS Károly Róbert Főiskola tudományos közleményei Alapítva: 2011 3 (1) ACTA CAROLUS ROBERTUS 3 (1) Informatika szekció SZÖVEGOSZTÁLYOZÁSI MÓDSZEREK A WEKA ADATBÁNYÁSZATI SZOFTVER SEGÍTSÉGÉVEL
RészletesebbenBiomatematika 2 Orvosi biometria
Biomatematika 2 Orvosi biometria 2017.02.13. Populáció és minta jellemző adatai Hibaszámítás Valószínűség 1 Esemény Egy kísérlet vagy megfigyelés (vagy mérés) lehetséges eredményeinek összessége (halmaza)
RészletesebbenIntelligens orvosi műszerek VIMIA023
Intelligens orvosi műszerek VIMIA023 Neurális hálók (Dobrowiecki Tadeusz anyagának átdolgozásával) 2017 ősz http://www.mit.bme.hu/oktatas/targyak/vimia023 dr. Pataki Béla pataki@mit.bme.hu (463-)2679 A
RészletesebbenGazdasági matematika II. vizsgadolgozat megoldása A csoport
Gazdasági matematika II. vizsgadolgozat megoldása A csoport Definiálja az alábbi fogalmakat!. Egy eseménynek egy másik eseményre vonatkozó feltételes valószínűsége. ( pont) Az A esemény feltételes valószínűsége
Részletesebben[Biomatematika 2] Orvosi biometria
[Biomatematika 2] Orvosi biometria 2016.02.15. Esemény Egy kísérlet vagy megfigyelés (vagy mérés) lehetséges eredményeinek összessége (halmaza) alkotja az eseményteret. Esemény: az eseménytér részhalmazai.
RészletesebbenMesterséges Intelligencia I.
Mesterséges Intelligencia I. 10. elıadás (2008. november 10.) Készítette: Romhányi Anita (ROANAAT.SZE) - 1 - Statisztikai tanulás (Megfigyelések alapján történı bizonytalan következetésnek tekintjük a
RészletesebbenSzámítógép és programozás 2
Számítógép és programozás 2 6. Előadás Problémaosztályok http://digitus.itk.ppke.hu/~flugi/ Emlékeztető A specifikáció egy előfeltételből és utófeltételből álló leírása a feladatnak Léteznek olyan feladatok,
RészletesebbenA valószínűségszámítás elemei
Alapfogalmak BIOSTATISZTIKA ÉS INFORMATIKA A valószínűségszámítás elemei Jelenség: minden, ami lényegében azonos feltételek mellett megismételhető, amivel kapcsolatban megfigyeléseket lehet végezni, lehet
RészletesebbenSVM (közepesen mély bevezetés)
SVM (közepesen mély bevezetés) Adatbányászat és Keresés Csoport, MTA SZTAKI dms.sztaki.hu Szabó Adrienn 2013. április 4. Bevezetés Alapötlet Jelölések Maximum margin classier Optimalizálási feladat Tartalom
RészletesebbenDiszkrét matematika 2.C szakirány
Diszkrét matematika 2.C szakirány 2017. ősz 1. Diszkrét matematika 2.C szakirány 2. előadás Nagy Gábor nagygabr@gmail.com nagy@compalg.inf.elte.hu compalg.inf.elte.hu/ nagy Komputeralgebra Tanszék 2017.
RészletesebbenGépi tanulás a gyakorlatban. Bevezetés
Gépi tanulás a gyakorlatban Bevezetés Motiváció Nagyon gyakran találkozunk gépi tanuló alkalmazásokkal Spam detekció Karakter felismerés Fotó címkézés Szociális háló elemzés Piaci szegmentáció analízis
RészletesebbenInformációs rendszerek elméleti alapjai. Információelmélet
Információs rendszerek elméleti alapjai Információelmélet Az információ nem növekedés törvénye Adatbázis x (x adatbázis tartalma) Kérdés : y Válasz: a = f(y, x) Mennyi az a információtartalma: 2017. 04.
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008
Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2007/2008 Az Előadások Témái Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák Szemantikus hálók
RészletesebbenDiszkrét matematika 2. estis képzés
Diszkrét matematika 2. estis képzés 2016. tavasz 1. Diszkrét matematika 2. estis képzés 9. előadás Nagy Gábor nagygabr@gmail.com nagy@compalg.inf.elte.hu compalg.inf.elte.hu/ nagy Komputeralgebra Tanszék
RészletesebbenLikelihood, deviancia, Akaike-féle információs kritérium
Többváltozós statisztika (SZIE ÁOTK, 2011. ősz) 1 Likelihood, deviancia, Akaike-féle információs kritérium Likelihood függvény Az adatokhoz paraméteres modellt illesztünk. A likelihood függvény a megfigyelt
Részletesebben1/1. Házi feladat. 1. Legyen p és q igaz vagy hamis matematikai kifejezés. Mutassuk meg, hogy
/. Házi feladat. Legyen p és q igaz vagy hamis matematikai kifejezés. Mutassuk meg, hogy mindig igaz. (p (( p) q)) (( p) ( q)). Igazoljuk, hogy minden A, B és C halmazra A \ (B C) = (A \ B) (A \ C) teljesül.
RészletesebbenGépi tanulás. Féligellenőrzött tanulás. Pataki Béla (Bolgár Bence)
Gépi tanulás Féligellenőrzött tanulás Pataki Béla (Bolgár Bence) BME I.E. 414, 463-26-79 pataki@mit.bme.hu, http://www.mit.bme.hu/general/staff/pataki Féligellenőrzött tanulás Mindig kevés az adat, de
RészletesebbenDiszkrét Matematika MSc hallgatók számára. 4. Előadás
Diszkrét Matematika MSc hallgatók számára 4. Előadás Előadó: Hajnal Péter Jegyzetelő: Szarvák Gábor 2012. február 28. Emlékeztető. A primál feladat optimális értékét p -gal, a feladat optimális értékét
RészletesebbenAlgoritmusok Tervezése. 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás
Algoritmusok Tervezése 6. Előadás Algoritmusok 101 Dr. Bécsi Tamás Mi az algoritmus? Lépések sorozata egy feladat elvégzéséhez (legáltalánosabban) Informálisan algoritmusnak nevezünk bármilyen jól definiált
RészletesebbenAdatszerkezetek 7a. Dr. IványiPéter
Adatszerkezetek 7a. Dr. IványiPéter 1 Fák Fákat akkor használunk, ha az adatok között valamilyen alá- és fölérendeltség van. Pl. könyvtárszerkezet gyökér () Nincsennek hurkok!!! 2 Bináris fák Azokat a
RészletesebbenKernel gépek vizsgálata
Kernel gépek vizsgálata Lágler Krisztián 2011. május 12. FYMGQ8 Konzulens : Dr. Horváth Gábor 1 Tartalomjegyzék 1. Feladat kiírás 3 1.1. A kernelfüggvény hiperparamétereinek megválasztása..... 3 2. Bevezetés
RészletesebbenMesterséges Intelligencia. Csató Lehel. Csató Lehel. Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 2010/2011 1/363
1/363 Matematika-Informatika Tanszék Babeş Bolyai Tudományegyetem, Kolozsvár 20/2011 Az Előadások Témái 226/363 Bevezető: mi a mesterséges intelligencia... Tudás reprezentáció Gráfkeresési stratégiák Szemantikus
RészletesebbenBabeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet
/ Babeş Bolyai Tudományegyetem, Kolozsvár Matematika és Informatika Kar Magyar Matematika és Informatika Intézet / Tartalom 3/ kernelek segítségével Felügyelt és félig-felügyelt tanulás felügyelt: D =
Részletesebben4. Az A és B események egymást kizáró eseményeknek vagy idegen (diszjunkt)eseményeknek nevezzük, ha AB=O
1. Mit nevezünk elemi eseménynek és eseménytérnek? A kísérlet lehetséges kimeneteleit elemi eseményeknek nevezzük. Az adott kísélethez tartozó elemi események halmazát eseménytérnek nevezzük, jele: X 2.
RészletesebbenAdaptív dinamikus szegmentálás idősorok indexeléséhez
Adaptív dinamikus szegmentálás idősorok indexeléséhez IPM-08irAREAE kurzus cikkfeldolgozás Balassi Márton 1 Englert Péter 1 Tömösy Péter 1 1 Eötvös Loránd Tudományegyetem Informatikai Kar 2013. november
RészletesebbenAlgoritmuselmélet 18. előadás
Algoritmuselmélet 18. előadás Katona Gyula Y. Budapesti Műszaki és Gazdaságtudományi Egyetem Számítástudományi Tsz. I. B. 137/b kiskat@cs.bme.hu 2002 Május 7. ALGORITMUSELMÉLET 18. ELŐADÁS 1 Közelítő algoritmusok
RészletesebbenEloszlás-független módszerek (folytatás) 14. elıadás ( lecke) 27. lecke khí-négyzet eloszlású statisztikák esetszámtáblázatok
Eloszlás-független módszerek (folytatás) 14. elıadás (7-8. lecke) Illeszkedés-vizsgálat 7. lecke khí-négyzet eloszlású statisztikák esetszámtáblázatok elemzésére Illeszkedés-vizsgálat Gyakorisági sorok
RészletesebbenA maximum likelihood becslésről
A maximum likelihood becslésről Definíció Parametrikus becsléssel foglalkozunk. Adott egy modell, mellyel elképzeléseink szerint jól leírható a meghatározni kívánt rendszer. (A modell típusának és rendszámának
RészletesebbenDiszkrét matematika 2.C szakirány
Diszkrét matematika 2.C szakirány 2017. tavasz 1. Diszkrét matematika 2.C szakirány 11. előadás Nagy Gábor nagygabr@gmail.com nagy@compalg.inf.elte.hu compalg.inf.elte.hu/ nagy Komputeralgebra Tanszék
RészletesebbenKét diszkrét változó függetlenségének vizsgálata, illeszkedésvizsgálat
Két diszkrét változó függetlenségének vizsgálata, illeszkedésvizsgálat Szűcs Mónika SZTE ÁOK-TTIK Orvosi Fizikai és Orvosi Informatikai Intézet Orvosi fizika és statisztika I. előadás 2016.11.09 Orvosi
RészletesebbenÁltalános algoritmustervezési módszerek
Általános algoritmustervezési módszerek Ebben a részben arra mutatunk példát, hogy miként használhatóak olyan általános algoritmustervezési módszerek mint a dinamikus programozás és a korlátozás és szétválasztás
RészletesebbenMesterséges Intelligencia MI
Mesterséges Intelligencia MI Valószínűségi hálók - alapok Dobrowiecki Tadeusz Eredics Péter, és mások BME I.E. 437, 463-28-99 dobrowiecki@mit.bme.hu, http://www.mit.bme.hu/general/staff/tade Valószínűségi
RészletesebbenDiszkrét matematika 2.C szakirány
Diszkrét matematika 2.C szakirány 2017. tavasz 1. Diszkrét matematika 2.C szakirány 3. előadás Nagy Gábor nagygabr@gmail.com nagy@compalg.inf.elte.hu compalg.inf.elte.hu/ nagy Komputeralgebra Tanszék 2017.
RészletesebbenOsztályozóvizsga követelményei
Osztályozóvizsga követelményei Képzés típusa: Tantárgy: Nyolcosztályos gimnázium Matematika Évfolyam: 12 Emelt óraszámú csoport Emelt szintű csoport Vizsga típusa: Írásbeli Követelmények, témakörök: Emelt
RészletesebbenKernel módszerek. 7. fejezet
7. fejezet Kernel módszerek Ebben a fejezetben olyan tanuló rendszerekkel foglalkozunk, amelyek a válaszokat ún. kernel függvények (vagy magfüggvények) súlyozott összegeként állítják elő. A megközelítés
RészletesebbenVéletlenszám generátorok és tesztelésük HORVÁTH BÁLINT
Véletlenszám generátorok és tesztelésük HORVÁTH BÁLINT Mi a véletlen? Determinisztikus vs. Véletlen esemény? Véletlenszám: számok sorozata, ahol véletlenszerűen követik egymást az elemek Pszeudo-véletlenszám
RészletesebbenExact inference in general Bayesian networks
Exact inference in general Bayesian networks Peter Antal antal@mit.bme.hu Overview The Probability Propagation in Trees of Cliques (a.k.a. ~in join trees) Practical inference Exercises Literature: Valószínűségi
RészletesebbenMATEMATIKA 2. dolgozat megoldása (A csoport)
MATEMATIKA. dolgozat megoldása (A csoport). Definiálja az alábbi fogalmakat: (egyváltozós) függvény folytonossága, differenciálhatósága, (többváltozós függvény) iránymenti deriváltja. (3x8 pont). Az f
RészletesebbenFunkcionálanalízis. n=1. n=1. x n y n. n=1
Funkcionálanalízis 2011/12 tavaszi félév - 2. előadás 1.4. Lényeges alap-terek, példák Sorozat terek (Folytatás.) C: konvergens sorozatok tere. A tér pontjai sorozatok: x = (x n ). Ezen belül C 0 a nullsorozatok
Részletesebben[1000 ; 0] 7 [1000 ; 3000]
Gépi tanulás (vimim36) Gyakorló feladatok 04 tavaszi félév Ahol lehet, ott konkrét számértékeket várok nem puszta egyenleteket. (Azok egy részét amúgyis megadom.). Egy bináris osztályozási feladatra tanított
RészletesebbenNagy Gábor compalg.inf.elte.hu/ nagy
Diszkrét matematika 3. estis képzés 2018. ősz 1. Diszkrét matematika 3. estis képzés 9. előadás Nagy Gábor nagygabr@gmail.com nagy@compalg.inf.elte.hu compalg.inf.elte.hu/ nagy Komputeralgebra Tanszék
RészletesebbenMi az adat? Az adat elemi ismeret. Az adatokból információkat
Mi az adat? Az adat elemi ismeret. Tények, fogalmak olyan megjelenési formája, amely alkalmas emberi eszközökkel történő értelmezésre, feldolgozásra, továbbításra. Az adatokból gondolkodás vagy gépi feldolgozás
Részletesebbenx, x R, x rögzített esetén esemény. : ( ) x Valószínűségi Változó: Feltételes valószínűség: Teljes valószínűség Tétele: Bayes Tétel:
Feltételes valószínűség: Teljes valószínűség Tétele: Bayes Tétel: Valószínűségi változó általános fogalma: A : R leképezést valószínűségi változónak nevezzük, ha : ( ) x, x R, x rögzített esetén esemény.
RészletesebbenLineáris regressziós modellek 1
Lineáris regressziós modellek 1 Ispány Márton és Jeszenszky Péter 2016. szeptember 19. 1 Az ábrák C.M. Bishop: Pattern Recognition and Machine Learning c. könyvéből származnak. Tartalom Bevezető példák
RészletesebbenEseményalgebra. Esemény: minden amirl a kísérlet elvégzése során eldönthet egyértelmen hogy a kísérlet során bekövetkezett-e vagy sem.
Eseményalgebra. Esemény: minden amirl a kísérlet elvégzése során eldönthet egyértelmen hogy a kísérlet során bekövetkezett-e vagy sem. Elemi esemény: a kísérlet egyes lehetséges egyes lehetséges kimenetelei.
RészletesebbenKözösség detektálás gráfokban
Közösség detektálás gráfokban Önszervező rendszerek Hegedűs István Célkitűzés: valamilyen objektumok halmaza felett minták, csoportok detektálása csakis az egyedek közötti kapcsolatok struktúrájának a
RészletesebbenStatisztikai eljárások a mintafelismerésben és a gépi tanulásban
Statisztikai eljárások a mintafelismerésben és a gépi tanulásban Varga Domonkos (I.évf. PhD hallgató) 2014 május A prezentáció felépítése 1) Alapfogalmak 2) A gépi tanulás, mintafelismerés alkalmazási
RészletesebbenGVMST22GNC Statisztika II. Keleti Károly Gazdasági Kar Vállalkozásmenedzsment Intézet
GVMST22GNC Statisztika II. 3. előadás: 8. Hipotézisvizsgálat Kóczy Á. László Keleti Károly Gazdasági Kar Vállalkozásmenedzsment Intézet Hipotézisvizsgálat v becslés Becslés Ismeretlen paraméter Közeĺıtő
Részletesebben