Bayesi tanulás. Kooperáció és gépi tanulás laboratórium (VIMIMB02) március 12. Elméleti alapok. Bayesi lineáris regresszió

Méret: px
Mutatás kezdődik a ... oldaltól:

Download "Bayesi tanulás. Kooperáció és gépi tanulás laboratórium (VIMIMB02) március 12. Elméleti alapok. Bayesi lineáris regresszió"

Átírás

1 Bayesi tanulás Kooperáció és gépi tanulás laboratórium (VIMIMB02) március 12. Elméleti alapok A mérés során a gépi tanulás bayesi megközelítésével fogunk megismerkedni. Az elméleti anyag egy része előadáson elhangzott, a többi megtalálható a hivatkozott irodalomban [1]; itt egy rövid áttekintést adunk. Bayesi lineáris regresszió A regresszió felügyelt tanulási feladat. Legyenek adottak a {x i, z i } P párok (tanítóhalmaz), ahol x i R d a minták leírásai, z i R pedig a mintákhoz tartozó valós értékek. Célunk, hogy a tanítóhalmaz alapján egy olyan modellt tanuljunk, amely képes további mintapontokra (teszthalmaz) értékeket jósolni. Az előző mérésen három megközelítést vázoltunk fel: 1. Generatív modellek. Modellezzük a p(x, z) együttes eloszlást, majd a Bayes-tétel segítségével számítsuk ki a p(z x, X, z) prediktív eloszlást, ahol {X, z} a teljes tanítóhalmaz, x pedig az új minta. 2. Diszkriminatív modellek. Modellezzük közvetlenül a p(z X) feltételes eloszlást, majd ebből számítsuk ki a prediktív eloszlást. Látható, hogy diszkriminatív és generatív modelleknél egy új mintánál nem csak pontbecslést kapunk, hanem egy eloszlást, amely felhasználható például bizonytalanságunk jellemzésére, hibakorlátok számítására is. 3. Diszkriminatív függvények. Keressünk olyan f F függvényt, amelyre f(x i ) z i. Ebben az esetben csak pontbecslést kapunk. A 2. és 3. esettel az előző mérésen, a Gauss-folyamatoknál és szupportvektor-regressziónál foglalkoztunk. Az 1. esethez modellezzük a x i minták és z i értékek közötti kapcsolatot egy normál zajjal terhelt lineáris összefüggéssel: azaz z i = w T x i + ε, ε N (ε 0, β 1 ), p(z i x i, w, β) = N (z i w T x i, β 1 ), vagy az összes változóra együttesen felírva (függetlenséget feltételezve egyszerű szorzással): p(z X, w, β) = P N (z i w T x i, β 1 ). 1

2 Ha itt megállunk, az ún. maximum likelihood (ML) megoldásra jutunk: keressük azt a w paraméterezést, amelyre a fenti valószínűség (likelihood) maximális más szóval, azt a w vektort, amelynél a legnagyobb valószínűséggel kapnánk az adott, ismert z értékeket. A gyakorlatban direkt maximalizálás helyett inkább a likelihood negatív logaritmusát minimalizáljuk, ami a logaritmusfüggvény szigorú monotonitása miatt ekvivalens probléma. Mivel az optimalizációt nem befolyásolják a konstans tagok, ezek szintén figyelmen kívül hagyhatók, így a normál eloszlás definíciója alapján ln p(z X, w, β) = P (z i w T x i ) 2 + const, tehát a negatív log-likelihood minimalizálásával lényegében a legkisebb négyzetek módszerét kaptuk vissza. Korábban láttuk, hogy ha nem teszünk semmilyen megszorítást w-re, ez a módszer hajlamos a túlilleszkedésre (az ML megoldásokra ez általában is igaz). Így a teljes bayesi megközelítés felé vezető úton a következő lépés egy paraméter-prior megadása, legyen ez most p(w α) = N (w 0, α 1 ), ahol α-t hiperparaméternek nevezzük. Ekkor a Bayes-tételt felhasználva w poszerior eloszlása: p(w z, X, α, β) p(z X, w, β)p(w α). Vegyük ismét a negatív logaritmust (mivel itt már két tag összege szerepel, a ML megoldással ellentétben a β tagot most nem hagyhatjuk el): ln p(w z, X, α, β) = β P (z i w T x i ) 2 + αw T w + const. Ennek a feladatnak a megoldását maximum a posteriori (MAP) becslésnek nevezzük; látható, hogy egybeesik az előző mérésen látott regularizált görbeillesztéssel λ = α/β regularizációs együtthatóval. Általában nem is w paraméter értékére van szükségünk, hanem egy új x mintához akarunk z értéket jósolni. Ehhez most felírjuk a prediktív eloszlást, azaz átlagolunk a w paraméter összes lehetséges értéke szerint, súlyozva annak poszterior valószínűségével: p(z x, X, z, α, β) = p(z x, w, β)p(w z, X, α, β)dw p(z x, w, β)p(z X, w, β)p(w α)dw A fenti eljárást nevezzük bayesi modellátlagolásnak is. Felmerül a kérdés: hol van a bevezetőben említett együttes eloszlás? Ha ugyanis valóban modelleznénk X-et is, akkor a következő likelihood-ot kellene felírnunk (1. ábra): p(x, z w, β, θ) a megfelelő p(w, β, θ) priorral. Tegyük fel, hogy p(w, β, θ) = p(w, β)p(θ), azaz θ független a többi paramétertől. Ekkor a posterior is faktorizálható: p(x, z w, β, θ) = p(x θ)p(z X, w, β). 2

3 θ m 0 S 0 X w z β 1. ábra. Bayesi lineáris regressziónak megfelelő Bayes-háló. A függőségi viszonyokat irányított élek jelzik. A w paraméterek becslése innentől megegyezik a fent leírtakkal: p(w z, X, α, β, θ) p(z X, w, β)p(w α), θ becslése pedig nem szükséges a korábbi függetlenségi feltevés miatt. Ebben az értelemben tehát minden teljes bayesi modell generatív. Láttuk tehát a lineáris regresszió teljes bayesi megközelítésének és az előző mérésen nézett regularizált görbeillesztéseknek a kapcsolatát. Nézzük most kicsit általánosabban, legyen a prior p(w m 0, S 0 ) = N (w m 0, S 0 ), és ismételjük meg a fentieket. Mivel először csak w a posteriori valószínűségére vagyunk kíváncsiak, minden konstans tagot (amelyben w nem szerepel) figyelmen kívül hagyhatunk, ezek a legvégén, a normalizálással automatikusan visszakerülnek tudjuk, hogy a sűrűségfüggvények integrálja 1 kell, hogy legyen. Ismét felírjuk tehát a negatív logaritmust a nem-konstans tagokra: ln p(w z, X, m 0, S 0, β) = ln p(z X, w, β) ln p(w m 0, S 0 ) + const [ P ] [ ] = ln N (z i w T x i, β 1 ) ln N (w m 0, S 0 ) + const = 1 P β ( ) z i w T 2 1 x i (w m 0) T S 1 0 (w m 0 ) + const ( = 1 2 wt β ) ( x i x T 1 i + S 0 w β ) T z i x i + S 1 0 m 0 w + const. i i 3

4 Ez w-ben kvadratikus kifejezés, így kiegészíthetjük teljes négyzetté: 1 2 wt Σ 1 w ϕ T w = 1 2 (w Σϕ)T Σ 1 (w Σϕ) + const, ahonnan a negatív logaritmust visszaalakítva (exponenciálist használva) és normalizálva megkapjuk, hogy p(w z, X, m 0, S 0, β) = N (w ψ, Σ), Σ 1 = βx T X + S 0 1, ψ = Σ(βX T z + S 0 1 m 0 ), ahol X a mintavektorokból képzett mátrix, z pedig az értékek vektora. Végül kiszámoljuk a p(z x, X, z, β, m 0, S 0 ) = p(z x, w, β)p(w z, X, m 0, S 0, β)dw prediktív eloszlást oly módon, hogy most a w-t és z-t tartalmazó kifejezéseket tartjuk meg: ( ) ln p(z x, w, β)p(w z, X, m 0, S 0, β) = β 2 (z wt x) (w ψ)t Σ 1 (w ψ) + const = 1 2 wt ( βxx T + Σ 1) w ( βzx + Σ 1 ψ ) T w + β 2 z2 + const. A teljes négyzetté kiegészítésnél most minden tagot megtartunk: 1 2 wt S 1 w + ρ T w + β 2 z2 = 1 2 (w Sρ)T S 1 (w Sρ) (βz2 ρ T Sρ). Az exponenciális formára visszaalakítás után w-re normál eloszlást kapunk, és kihasználjuk, hogy ennek integrálja 1. A prediktív eloszlás tehát a következőképpen alakul: p(z x, X, z, β, m 0, S 0 ) = p(z x, w, β)p(w z, X, m 0, S 0, β)dw { = exp 1 } 2 (βz2 ρ T Sρ) N (w m, S)dw { = exp 1 } 2 (βz2 ρ T Sρ), ahol ρ = βzx + Σ 1 ψ, S 1 = βxx T + Σ 1. Végül a z-s tagok teljes négyzetté alakításával megmutatjuk, hogy ez is normál eloszlás: ln p(z x, X, z, β, m 0, S 0 ) = 1 2 (βz2 ρ T Sρ) = 1 2 ( β β 2 x T Sx ) z 2 ( βx T SΣ 1 ψ ) z + const, 4

5 így p(z x, X, z, β, m 0, S 0 ) = N (z µ, σ 2 ), σ 2 = (β(1 βx T Sx)) 1, µ = σ 2 βx T SΣ 1 ψ. Tehát megkaptuk a prediktív eloszlást, ezt azonban tovább egyszerűsíthetjük a Sherman Morrison formula felhasználásával, amely az inverz változását írja le 1-rangú mátrix hozzáadása esetén: (A + uv T ) 1 = A 1 A 1 uv T A v T A 1 u. Mivel S 1 éppen ilyen alakú mátrix, felhasználjuk a formulát: majd jobbról-balról beszorozva S = (βxx T + Σ 1 ) 1 = Σ βσxxt Σ 1 + βx T Σx, x T Sx = x T Σx βxt Σxx T Σx 1 + βx T Σx = xt Σx + β(x T Σx) 2 β(x T Σx) βx T Σx ahonnan βx T Sx = és végül σ 2 -t egyszerűbb alakra hozhatjuk: ( σ 2 = (β(1 βx T Sx)) 1 = Ezt behelyettesítve µ-t is átírhatjuk: βxt Σx 1 + βx T Σx = βx T Σx, β 1 + βx T Σx = ) 1 = 1 β + xt Σx. x T Σx 1 + βx T Σx µ = σ 2 βx T SΣ 1 ψ = x T SΣ 1 ψ + βx T Σxx T SΣ 1 ψ = x T ( SΣ 1 + βσxx T SΣ 1) ψ, viszont S-t kiemelve így tehát SΣ 1 + βσxx T SΣ 1 = S ( βxx T + Σ 1) = SS 1 = I, µ = x T ψ. Összefoglalva, a prediktív eloszlás a következő: p(z x, X, z, β, m 0, S 0 ) = N (z µ, σ 2 ), σ 2 = 1 β + xt Σx, µ = x T ψ, Σ = ( βx T X + S 0 1 ) 1, ψ = Σ(βX T z + S 0 1 m 0 ). 5

6 A fenti keretet könnyen kiterjeszthetjük a nemlineáris esetre is, ha a x i mintákra ún. bázisfüggvényeket alkalmazunk, azaz a x i φ n (x i ), n = 1,..., N. helyettesítésekkel élünk. Ilyen bázisfüggvény lehet például a Gauss-i radiális bázisfüggvény: φ n (x i ) = exp { γ(x i µ n ) 2}, ahol µ n az n. bázisfüggvény pozíciója, γ pedig a szélessége. Ekkor a bizonyítás menete lényegében változatlan marad, a prediktív eloszlás pedig a következőképpen módosul: p(z x, X, z, β, m 0, S 0 ) = N (z µ, σ 2 ), σ 2 = 1 β + φt Σφ, µ = φ T ψ, Σ = ( βφ T Φ + S 0 1 ) 1, ψ = Σ(βΦ T z + S 0 1 m 0 ), ahol φ = [φ 1 (x)... φ n (x)] T és Φ = φ 1 (x 1 ) φ 2 (x 1 ) φ n (x 1 ) φ 1 (x 2 ) φ 2 (x 2 ) φ n (x 2 ) φ 1 (x P ) φ 2 (x P ) φ n (x P ). Következtetés Bayes-hálókban Gibbs-mintavételezéssel Bayes-hálókban való következtetésekre használhatunk egzakt és közelítő megoldásokat. A Markov Chain Monte Carlo (MCMC) módszerek az előbbire mutatnak példát; az a posteriori eloszlást iteratív mintavételezéssel közelítjük, amelyről megfelelő feltételek mellett megmutatható, hogy kellő ideig ismételve tetszőlegesen közel kerül a valódi eloszláshoz (aszimptotikusan egzakt). A Metropolis, Metropolis Hastings algoritmusról korábbi tanulmányaik során minden bizonnyal hallottak, a részletek megtalálhatók a hivatkozott irodalomban [1]. A Gibbs-mintavételezéshez vegyünk egy p(x) = p(x 1, x 2,..., x n ) együttes eloszlást és adjunk kiinduló értéket minden változónak. Minden lépésben ki kell választanunk egy x i változót, és mintavételeznünk a p(x i x \i ) = p(x i x 1, x 2,..., x i 1, x i+1,..., x n ) eloszlást. Az így kapott mintát (az új x i és a meglévő x \i együttesét) eltároljuk, majd kiválasztjuk a következő változót. Az egyes x i változók poszerior eloszlását a kapott minták hisztogramjával közelítjük; megmutatható, hogy ez aszimptotikusan közelíti a valódi poszteriort. A Gibbs-mintavételezést bemutatjuk egy konkrét példán. Legyen adott egy R R I J hiányos mátrix, amely I darab felhasználó J darab filmre adott értékeléseit tartalmazza. A célunk, hogy a hiányzó értékek prediktálásával a felhasználóknak várhatóan tetsző filmeket javasoljunk. Ehhez 6

7 z x 2. ábra. Bayesi nemlineáris regresszió. A bázisfüggvények a 10, 20,..., 100 pontokon helyezkednek el. A mintákat fekete pontok, a várható értéket piros vonal, a szórást szürke sáv jelzi. keressük azokat az U R I L, V R J L teljes (!) mátrixokat, amelyeknek szorzata a lehető legjobban közelíti R meglévő értékeit: R U T V, ahol L az ún. látens faktorok száma. Általánosságban L rank(r), azaz alacsony rangú approximációt keresünk. R hiányzó értékeit a U T V szorzat alapján fogjuk jósolni. Használjunk bayesi megközelítést: R értékei legyenek függetlenek és β precizitású normál zajjal terheltek: p(r U, V, β) = I J [ N (Rij u T i v j, β 1 ) ] I ij, valamint legyen p(u α u ) = p(v α v ) = I J N (u i 0, αu 1 I), N (v j 0, αv 1 I), ahol u i és v j a megfelelő mátrix i. illetve j. oszlopa, valamint { 1, ha R ij létezik, I ij = 0, egyébként. A Gibbs-mintavételezéshez szükségünk lesz a feltételes eloszlásokra, így a korábban megismert stratégiát követjük: felírjuk az együttes eloszlás logaritmusát, kigyűjtjük a keresett tagokat, majd kiegészítjük teljes négyzetté, végül exponenciálist veszünk és normalizálunk. 7

8 α u α v U V R β 3. ábra. Valószínűségi mátrixfaktorizációnak megfelelő Bayes-háló. Nézzük az U-t tartalmazó tagokra: azaz ln p(u, V, R β, α u, α v ) I J = I ij ln N (R ij u T i v j, β 1 ) + = = = I ln N (u i 0, αu 1 I) + const I J 1 2 β(r ij u T i v j ) 2 I ij 1 I α u u T i Iu i + const 2 ( ) ( ) T I 1 J J 2 ut i β I ij v j vj T + α u I u i + β I ij R ij v j u i + const I 1 2 (u i Λ 1 i ϕ i ) T Λ i (u i Λ 1 i ϕ i ) + const, p(u R, V, α u, α v, β) = i Λ i = β N (u i ψ i, Λ 1 i ), J I ij v j vj T + α u I, ψ i = Λ 1 i β J I ij R ij v j. A V -re vonatkozó összefüggések ugyanígy származtathatók. A mintavételezés menete tehát a következő lesz: 1. Inicializáljuk U-t és V -t, feltöltjük I-t és R-t. 2. Felváltva mintavételezzük p(u R, V, β, α u, α v )-t és p(v R, U, β, α u, α v )-t. 3. A kapott mintákból kiszámítjuk a hisztogramot, amely a poszteriort közelíti. 8

9 ábra. Mátrixfaktorizáció mátrix esetén, 5 látens faktorral. Az ábra az R 5,5 elemre kapott minták hisztogramját mutatja, a piros vonal a valódi értéket jelzi. A bal oldalon β = 1, a jobb oldalon β = 100 paramétert használtunk. A mérés során megoldandó feladatok Bayesi regresszió 1) Hozzon létre két mesterséges egydimenziós adathalmazt. Adathalmazonként száz minta elegendő; az egyiket származtassa egy normál zajjal terhelt lineáris kapcsolatból, a másik mutasson tetszőleges típusú nemlinearitást. A továbbiakban az egyszerűség kedvéért legyen S 0 = αi, m 0 = 0. 2) Hozza létre a bázisfüggvényeket oly módon, hogy a tartományon egyenletesen helyezkedjenek el. Például: location<-seq(0,100,10) phi<-function(x) exp(-width*(x-location)^2) ahol a bázisfüggvényt használtuk. 3) Hozza létre a Φ mátrixot: Φ = φ n (x i ) = exp { γ(x i µ n ) 2}, φ 1 (x 1 ) φ 2 (x 1 ) φ 11 (x 1 ) φ 1 (x 2 ) φ 2 (x 2 ) φ 11 (x 2 ) φ 1 (x 100 ) φ 2 (x 100 ) φ 11 (x 100 ) 9.

10 4) Emlékeztetőül álljon itt a prediktív eloszlás: p(z x, X, z, β, m 0, S 0 ) = N (z µ, σ 2 ), σ 2 = 1 β + φt Σφ, µ = φ T ψ, Σ = ( βφ T Φ + S ) 1 1 0, ψ = Σ(βΦ T z + S 1 0 m 0 ), ahol φ = φ 1 (x). φ n (x). Hozza létre ezeknek megfelelően a Σ mátrixot és ψ vektort, valamint a σ 2 és µ függvényeket, amelyek az egyes mintákhoz a várható értéket és szórást adják vissza, pl. mu<-function(x) phi(x)%*%psi 5) Ábrázolja mindkét adathalmazon az illesztett görbét oly módon, hogy a tartományon alkalmas időközönként kirajzolja az átlagot és a szórást. Például: sx<-seq(0,100,0.1) pred<-sapply(sx,mu) #... ggplot() geom_line(aes(x=sx,y=pred)) +... A 2. ábrán láthat erre példát. 6) Vizsgálja meg és dokumentálja az α, β és γ paraméterek hatását az illesztésre. 10

11 Gibbs-mintavételezés Ebben a feladatban az egyszerűség kedvéért a teljes R mátrixot fogjuk használni. A hiány kezelése elméletben triviális, gyakorlatban viszont ügyes indexelési sémát igényel, amitől most eltekintünk. 1) Hozzon létre egy véletlen mátrixot, amely a bevezetőben említett R szerepét fogja játszani. Inicializálja az U és V mátrixokat is. I<-20 J<-30 L<-15 R<-matrix(runif(I*J,0,10),I,J) U<-matrix(0,I,L) V<-matrix(0,J,L) 2) Emlékeztetőül álljon itt U feltételes eloszlása a Gibbs-mintavételezéshez: p(u R, V, α u, α v, β) = i N (u i ψ i, Λ 1 i ), Λ i = β J v j vj T + α u I, ψ i = Λ 1 i β J R ij v j. A fenti összefüggések alapján implementálja U és V mintavételezését. Többváltozós normál eloszlásból való mintavételezéshez használja a MASS könyvtár mvrnorm() függvényét. Mátrixot invertálni a solve() függvénnyel lehet. Megjegyzés. Mátrixot direkt módon ritkán szoktunk invertálni; ennek kiszámítása és tárolása ugyanis számítás- és főleg memóriaigényes. A mátrix inverzére rendszerint nem önmagában van szükségünk, hanem egy másik vektorral megszorozva. Így az A 1 b szorzás elvégzése helyett megoldhatjuk az Ax = b lineáris rendszert x-re, ami ugyanazt az eredményt adja. Lineáris rendszerek megoldására igen hatékony algoritmusok állnak rendelkezésre, jól példa erre az ún. konjugált gradiens (CG) solver. Mivel az mvrnorm() függvény explicite igényli a preciziós mátrix inverzét (kovarianciamátrix), erre most nincs lehetőségünk. A gyakorlatban kénytelenek lennénk hatékonyabb implementáció után nézni (a Julia nyelv megfelelő csomagja például támogatja a kanonikus paraméterek használatát, amivel a direkt invertálás elkerülhető). 3) Az MCMC módszereket futtatás előtt célszerű bemelegíteni (burn-in), azaz egy ideig a mintákat eldobva futtatni, hogy kellően közel tudjanak kerülni a keresett eloszláshoz. Ennek megfelelően végezze az iterációt két lépésben: először egy rövidebb burn-in szakaszban, majd mintarögzítéssel. Először hozza létre a mintagyűjtéshez szükséges változókat: U_sum<-U # U atlagahoz V_sum<-V # V atlagahoz smp<-vector() # R egy tetszoleges elemenek hisztogramjahoz 11

12 5. ábra. Az R mátrix hőtérképe. Majd futtassa a Markov-láncot két szakaszban: # Burn-in for(iter in 1:burn_in) { #... U mintavetelezese... #... V mintavetelezese... } # Rogzites for(iter in 1:iters) { #... U mintavetelezese... U_sum<-U_sum+U #... V mintavetelezese... V_sum<-V_sum+V } smp<-append(smp,(u%*%t(v))[5,5]) U_avg<-U_sum/iters V_avg<-V_sum/iters 4) Ábrázolja az R és a számított UV T mátrixot, illetve a kettő különbségét hőtérképen. df<-as.data.frame(r) df[[j+1]]<-1:i dt<-melt(df,id.vars=j+1) names(dt)<-c("x","y","val") ggplot(dt,aes(x=x,y=y,fill=val)) + geom_tile() A közelítés hibáját adja meg a múlt órán megismert RMSE mérték szerint is: RMSE<-sqrt(mean((R-U_avg%*%t(V_avg))^2)) 5) Ábrázolja hisztogramon R tetszőleges eleméhez kapott mintákat. Erre a 3. ábrán láthat példát, ahol az (5, 5) elemet választottuk. 12

13 6) Vizsgálja meg a következő paraméterek hatását az eredményekre: Hivatkozások Precizitás (β). A Gauss-folyamatoknál megismert paraméterek közül melyikkel analóg ez? A faktorok paraméterei (α u, α v ). A regressziónál megismert paraméterek közül melyikkel analóg ez a kettő? Látens faktorok száma (L). A polinomiális görbeillesztésnél megismert paraméterek közül melyikkel analóg ez? Iterációk száma. [1] Christopher M. Bishop. Pattern Recognition and Machine Learning (Information Science and Statistics). Springer-Verlag New York, Inc., Secaucus, NJ, USA,

A maximum likelihood becslésről

A maximum likelihood becslésről A maximum likelihood becslésről Definíció Parametrikus becsléssel foglalkozunk. Adott egy modell, mellyel elképzeléseink szerint jól leírható a meghatározni kívánt rendszer. (A modell típusának és rendszámának

Részletesebben

Kernel gépek vizsgálata

Kernel gépek vizsgálata Kernel gépek vizsgálata Kooperáció és gépi tanulás laboratórium (VIMIMB02) 2018. március 5. Elméleti alapok A mérés során újabb kernel gépeket fogunk megismerni: a szupportvektor-gépek (SVM) regressziós

Részletesebben

Least Squares becslés

Least Squares becslés Least Squares becslés A négyzetes hibafüggvény: i d i ( ) φx i A négyzetes hibafüggvény mellett a minimumot biztosító megoldás W=( d LS becslés A gradiens számítása és nullává tétele eredményeképp A megoldás

Részletesebben

KÖZELÍTŐ INFERENCIA II.

KÖZELÍTŐ INFERENCIA II. STATISZTIKAI TANULÁS AZ IDEGRENDSZERBEN KÖZELÍTŐ INFERENCIA II. MONTE CARLO MÓDSZEREK ISMÉTLÉS Egy valószínűségi modellben a következtetéseinket a látensek vagy a paraméterek fölötti poszterior írja le.

Részletesebben

KÖZELÍTŐ INFERENCIA II.

KÖZELÍTŐ INFERENCIA II. STATISZTIKAI TANULÁS AZ IDEGRENDSZERBEN KÖZELÍTŐ INFERENCIA II. MONTE CARLO MÓDSZEREK ISMÉTLÉS Egy valószínűségi modellben a következtetéseinket a látensek vagy a paraméterek fölötti poszterior írja le.

Részletesebben

Lineáris regressziós modellek 1

Lineáris regressziós modellek 1 Lineáris regressziós modellek 1 Ispány Márton és Jeszenszky Péter 2016. szeptember 19. 1 Az ábrák C.M. Bishop: Pattern Recognition and Machine Learning c. könyvéből származnak. Tartalom Bevezető példák

Részletesebben

Biometria az orvosi gyakorlatban. Korrelációszámítás, regresszió

Biometria az orvosi gyakorlatban. Korrelációszámítás, regresszió SZDT-08 p. 1/31 Biometria az orvosi gyakorlatban Korrelációszámítás, regresszió Werner Ágnes Villamosmérnöki és Információs Rendszerek Tanszék e-mail: werner.agnes@virt.uni-pannon.hu Korrelációszámítás

Részletesebben

Line aris f uggv enyilleszt es m arcius 19.

Line aris f uggv enyilleszt es m arcius 19. Lineáris függvényillesztés 2018. március 19. Illesztett paraméterek hibája Eddig azt néztük, hogy a mérési hiba hogyan propagál az illesztett paraméterekbe, ha van egy konkrét függvényünk. a hibaterjedés

Részletesebben

Általánosan, bármilyen mérés annyit jelent, mint meghatározni, hányszor van meg

Általánosan, bármilyen mérés annyit jelent, mint meghatározni, hányszor van meg LMeasurement.tex, March, 00 Mérés Általánosan, bármilyen mérés annyit jelent, mint meghatározni, hányszor van meg a mérendő mennyiségben egy másik, a mérendővel egynemű, önkényesen egységnek választott

Részletesebben

Konjugált gradiens módszer

Konjugált gradiens módszer Közelítő és szimbolikus számítások 12. gyakorlat Konjugált gradiens módszer Készítette: Gelle Kitti Csendes Tibor Vinkó Tamás Faragó István Horváth Róbert jegyzetei alapján 1 LINEÁRIS EGYENLETRENDSZEREK

Részletesebben

Megoldások. ξ jelölje az első meghibásodásig eltelt időt. Akkor ξ N(6, 4; 2, 3) normális eloszlású P (ξ

Megoldások. ξ jelölje az első meghibásodásig eltelt időt. Akkor ξ N(6, 4; 2, 3) normális eloszlású P (ξ Megoldások Harmadik fejezet gyakorlatai 3.. gyakorlat megoldása ξ jelölje az első meghibásodásig eltelt időt. Akkor ξ N(6, 4;, 3 normális eloszlású P (ξ 8 ξ 5 feltételes valószínűségét (.3. alapján számoljuk.

Részletesebben

Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )

Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( ) Budapesti Műszaki és Gazdaságtudományi Egyetem Gépészmérnöki Kar Hidrodinamikai Rendszerek Tanszék, Budapest, Műegyetem rkp. 3. D ép. 334. Tel: 463-6-80 Fa: 463-30-9 http://www.vizgep.bme.hu Alap-ötlet:

Részletesebben

Inferencia valószínűségi modellekben

Inferencia valószínűségi modellekben Statisztikai tanulás az idegrendszerben, 2016. Inferencia valószínűségi modellekben Bányai Mihály banyai.mihaly@wigner.mta.hu http://golab.wigner.mta.hu/people/mihaly-banyai/ Inferencia valószínűségi modellekben

Részletesebben

Biomatematika 12. Szent István Egyetem Állatorvos-tudományi Kar. Fodor János

Biomatematika 12. Szent István Egyetem Állatorvos-tudományi Kar. Fodor János Szent István Egyetem Állatorvos-tudományi Kar Biomatematikai és Számítástechnikai Tanszék Biomatematika 12. Regresszió- és korrelációanaĺızis Fodor János Copyright c Fodor.Janos@aotk.szie.hu Last Revision

Részletesebben

egyenletesen, és c olyan színű golyót teszünk az urnába, amilyen színűt húztunk. Bizonyítsuk

egyenletesen, és c olyan színű golyót teszünk az urnába, amilyen színűt húztunk. Bizonyítsuk Valószínűségszámítás 8. feladatsor 2015. november 26. 1. Bizonyítsuk be, hogy az alábbi folyamatok mindegyike martingál. a S n, Sn 2 n, Y n = t n 1+ 1 t 2 Sn, t Fn = σ S 1,..., S n, 0 < t < 1 rögzített,

Részletesebben

1. Példa. A gamma függvény és a Fubini-tétel.

1. Példa. A gamma függvény és a Fubini-tétel. . Példa. A gamma függvény és a Fubini-tétel.. Az x exp x + t )) függvény az x, t tartományon folytonos, és nem negatív, ezért alkalmazható rá a Fubini-tétel. I x exp x + t )) dxdt + t dt π 4. [ exp x +

Részletesebben

Lineáris algebra numerikus módszerei

Lineáris algebra numerikus módszerei Hermite interpoláció Tegyük fel, hogy az x 0, x 1,..., x k [a, b] különböző alappontok (k n), továbbá m 0, m 1,..., m k N multiplicitások úgy, hogy Legyenek adottak k m i = n + 1. i=0 f (j) (x i ) = y

Részletesebben

Principal Component Analysis

Principal Component Analysis Principal Component Analysis Principal Component Analysis Principal Component Analysis Definíció Ortogonális transzformáció, amely az adatokat egy új koordinátarendszerbe transzformálja úgy, hogy a koordináták

Részletesebben

Gauss-Seidel iteráció

Gauss-Seidel iteráció Közelítő és szimbolikus számítások 5. gyakorlat Iterációs módszerek: Jacobi és Gauss-Seidel iteráció Készítette: Gelle Kitti Csendes Tibor Somogyi Viktor London András Deák Gábor jegyzetei alapján 1 ITERÁCIÓS

Részletesebben

Probabilisztikus modellek II: Inferencia. Nagy Dávid

Probabilisztikus modellek II: Inferencia. Nagy Dávid Probabilisztikus modellek II: Inferencia Nagy Dávid Statisztikai tanulás az idegrendszerben, 2015 előző előadás előző előadás az agy modellt épít a világról előző előadás az agy modellt épít a világról

Részletesebben

Gauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei

Gauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei A Gauss-Jordan elimináció, mátrixinvertálás Gauss-Jordan módszer Ugyanazzal a technikával, mint ahogy a k-adik oszlopban az a kk alatti elemeket kinulláztuk, a fölötte lévő elemeket is zérussá lehet tenni.

Részletesebben

Abszolút folytonos valószín ségi változó (4. el adás)

Abszolút folytonos valószín ségi változó (4. el adás) Abszolút folytonos valószín ségi változó (4. el adás) Deníció (Abszolút folytonosság és s r ségfüggvény) Az X valószín ségi változó abszolút folytonos, ha van olyan f : R R függvény, melyre P(X t) = t

Részletesebben

Gyakorló feladatok I.

Gyakorló feladatok I. Gyakorló feladatok I. a Matematika Aa Vektorüggvények tárgyhoz (D D5 kurzusok) Összeállította: Szili László Ajánlott irodalmak:. G.B. Thomas, M.D. Weir, J. Hass, F.R. Giordano: Thomas-féle KALKULUS I.,

Részletesebben

Mesterséges Intelligencia I.

Mesterséges Intelligencia I. Mesterséges Intelligencia I. 10. elıadás (2008. november 10.) Készítette: Romhányi Anita (ROANAAT.SZE) - 1 - Statisztikai tanulás (Megfigyelések alapján történı bizonytalan következetésnek tekintjük a

Részletesebben

15. LINEÁRIS EGYENLETRENDSZEREK

15. LINEÁRIS EGYENLETRENDSZEREK 15 LINEÁRIS EGYENLETRENDSZEREK 151 Lineáris egyenletrendszer, Gauss elimináció 1 Definíció Lineáris egyenletrendszernek nevezzük az (1) a 11 x 1 + a 12 x 2 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + + a

Részletesebben

Saj at ert ek-probl em ak febru ar 26.

Saj at ert ek-probl em ak febru ar 26. Sajátérték-problémák 2018. február 26. Az alapfeladat Adott a következő egyenlet: Av = λv, (1) ahol A egy ismert mátrix v ismeretlen, nem zérus vektor λ ismeretlen szám Azok a v, λ kombinációk, amikre

Részletesebben

Diverzifikáció Markowitz-modell MAD modell CAPM modell 2017/ Szegedi Tudományegyetem Informatikai Intézet

Diverzifikáció Markowitz-modell MAD modell CAPM modell 2017/ Szegedi Tudományegyetem Informatikai Intézet Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatikai Intézet Számítógépes Optimalizálás Tanszék 11. Előadás Portfólió probléma Portfólió probléma Portfólió probléma Adott részvények (kötvények,tevékenységek,

Részletesebben

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 8 VIII. REGREssZIÓ 1. A REGREssZIÓs EGYENEs Két valószínűségi változó kapcsolatának leírására az eddigiek alapján vagy egy numerikus

Részletesebben

Loss Distribution Approach

Loss Distribution Approach Modeling operational risk using the Loss Distribution Approach Tartalom»Szabályozói környezet»modellezési struktúra»eseményszám eloszlás»káreloszlás»aggregált veszteségek»további problémák 2 Szabályozói

Részletesebben

Mesterséges Intelligencia MI

Mesterséges Intelligencia MI Mesterséges Intelligencia MI Valószínűségi hálók - következtetés Dobrowiecki Tadeusz Eredics Péter, és mások BME I.E. 437, 463-28-99 dobrowiecki@mit.bme.hu, http://www.mit.bme.hu/general/staff/tade Következtetés

Részletesebben

Diszkrét matematika I., 12. előadás Dr. Takách Géza NyME FMK Informatikai Intézet takach november 30.

Diszkrét matematika I., 12. előadás Dr. Takách Géza NyME FMK Informatikai Intézet   takach november 30. 1 Diszkrét matematika I, 12 előadás Dr Takách Géza NyME FMK Informatikai Intézet takach@infnymehu http://infnymehu/ takach 2005 november 30 Vektorok Definíció Egy tetszőleges n pozitív egész számra n-komponensű

Részletesebben

11. Előadás. 11. előadás Bevezetés a lineáris programozásba

11. Előadás. 11. előadás Bevezetés a lineáris programozásba 11. Előadás Gondolkodnivalók Sajátérték, Kvadratikus alak 1. Gondolkodnivaló Adjuk meg, hogy az alábbi A mátrixnak mely α értékekre lesz sajátértéke a 5. Ezen α-ák esetén határozzuk meg a 5 sajátértékhez

Részletesebben

GROVER-algoritmus. Sinkovicz Péter. ELTE, MSc II dec.15.

GROVER-algoritmus. Sinkovicz Péter. ELTE, MSc II dec.15. ELTE, MSc II. 2011.dec.15. Áttekintés Feladat Algoritmus Kvantum keresési algoritmus áttekintése Input: N = 2 n elemű tömb, Ψ 1 = 0 1 kezdőállapot, f x0 (x) orákulum függvény. Output: x 0 keresett elem

Részletesebben

Matematika A2 vizsga mgeoldása június 4.

Matematika A2 vizsga mgeoldása június 4. Matematika A vizsga mgeoldása 03. június.. (a (3 pont Definiálja az f(x, y függvény határértékét az (x 0, y 0 helyen! Megoldás: Legyen D R, f : D R. Legyen az f(x, y függvény értelmezve az (x 0, y 0 pont

Részletesebben

e (t µ) 2 f (t) = 1 F (t) = 1 Normális eloszlás negyedik centrális momentuma:

e (t µ) 2 f (t) = 1 F (t) = 1 Normális eloszlás negyedik centrális momentuma: Normális eloszlás ξ valószínűségi változó normális eloszlású. ξ N ( µ, σ 2) Paraméterei: µ: várható érték, σ 2 : szórásnégyzet (µ tetszőleges, σ 2 tetszőleges pozitív valós szám) Normális eloszlás sűrűségfüggvénye:

Részletesebben

Optimalizálás alapfeladata Legmeredekebb lejtő Lagrange függvény Log-barrier módszer Büntetőfüggvény módszer 2017/

Optimalizálás alapfeladata Legmeredekebb lejtő Lagrange függvény Log-barrier módszer Büntetőfüggvény módszer 2017/ Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatikai Intézet Számítógépes Optimalizálás Tanszék 9. Előadás Az optimalizálás alapfeladata Keressük f függvény maximumát ahol f : R n R és

Részletesebben

Feladatok a Gazdasági matematika II. tárgy gyakorlataihoz

Feladatok a Gazdasági matematika II. tárgy gyakorlataihoz Debreceni Egyetem Közgazdaságtudományi Kar Feladatok a Gazdasági matematika II tárgy gyakorlataihoz a megoldásra ajánlott feladatokat jelöli e feladatokat a félév végére megoldottnak tekintjük a nehezebb

Részletesebben

1. feladatsor: Vektorterek, lineáris kombináció, mátrixok, determináns (megoldás)

1. feladatsor: Vektorterek, lineáris kombináció, mátrixok, determináns (megoldás) Matematika A2c gyakorlat Vegyészmérnöki, Biomérnöki, Környezetmérnöki szakok, 2017/18 ősz 1. feladatsor: Vektorterek, lineáris kombináció, mátrixok, determináns (megoldás) 1. Valós vektorterek-e a következő

Részletesebben

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 9 IX. ROBUsZTUs statisztika 1. ROBUsZTUssÁG Az eddig kidolgozott módszerek főleg olyanok voltak, amelyek valamilyen értelemben optimálisak,

Részletesebben

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 4 IV. MINTA, ALAPsTATIsZTIKÁK 1. MATEMATIKAI statisztika A matematikai statisztika alapfeladatát nagy általánosságban a következőképpen

Részletesebben

Lineáris leképezések. Wettl Ferenc március 9. Wettl Ferenc Lineáris leképezések március 9. 1 / 31

Lineáris leképezések. Wettl Ferenc március 9. Wettl Ferenc Lineáris leképezések március 9. 1 / 31 Lineáris leképezések Wettl Ferenc 2015. március 9. Wettl Ferenc Lineáris leképezések 2015. március 9. 1 / 31 Tartalom 1 Mátrixleképezés, lineáris leképezés 2 Alkalmazás: dierenciálhatóság 3 2- és 3-dimenziós

Részletesebben

Megoldott feladatok november 30. n+3 szigorúan monoton csökken, 5. n+3. lim a n = lim. n+3 = 2n+3 n+4 2n+1

Megoldott feladatok november 30. n+3 szigorúan monoton csökken, 5. n+3. lim a n = lim. n+3 = 2n+3 n+4 2n+1 Megoldott feladatok 00. november 0.. Feladat: Vizsgáljuk az a n = n+ n+ sorozat monotonitását, korlátosságát és konvergenciáját. Konvergencia esetén számítsuk ki a határértéket! : a n = n+ n+ = n+ n+ =

Részletesebben

Kalkulus I. gyakorlat Fizika BSc I/1.

Kalkulus I. gyakorlat Fizika BSc I/1. . Ábrázoljuk a következő halmazokat a síkon! {, y) R 2 : + y < }, b) {, y) R 2 : 2 + y 2 < 4}, c) {, y) R 2 : 2 + y 2 < 4, + y < }, {, y) R 2 : + y < }. Kalkulus I. gyakorlat Fizika BSc I/.. gyakorlat

Részletesebben

Legkisebb négyzetek módszere, Spline interpoláció

Legkisebb négyzetek módszere, Spline interpoláció Közelítő és szimbolikus számítások 10. gyakorlat Legkisebb négyzetek módszere, Spline interpoláció Készítette: Gelle Kitti Csendes Tibor Somogyi Viktor Vinkó Tamás London András Deák Gábor jegyzetei alapján

Részletesebben

IBNR számítási módszerek áttekintése

IBNR számítási módszerek áttekintése 1/13 IBNR számítási módszerek áttekintése Prokaj Vilmos email: Prokaj.Vilmos@pszaf.hu 1. Kifutási háromszög Év 1 2 3 4 5 2/13 1 X 1,1 X 1,2 X 1,3 X 1,4 X 1,5 2 X 2,1 X 2,2 X 2,3 X 2,4 X 2,5 3 X 3,1 X 3,2

Részletesebben

Matematikai geodéziai számítások 5.

Matematikai geodéziai számítások 5. Matematikai geodéziai számítások 5 Hibaterjedési feladatok Dr Bácsatyai László Matematikai geodéziai számítások 5: Hibaterjedési feladatok Dr Bácsatyai László Lektor: Dr Benedek Judit Ez a modul a TÁMOP

Részletesebben

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 10 X. SZIMULÁCIÓ 1. VÉLETLEN számok A véletlen számok fontos szerepet játszanak a véletlen helyzetek generálásában (pénzérme, dobókocka,

Részletesebben

Matematikai statisztika c. tárgy oktatásának célja és tematikája

Matematikai statisztika c. tárgy oktatásának célja és tematikája Matematikai statisztika c. tárgy oktatásának célja és tematikája 2015 Tematika Matematikai statisztika 1. Időkeret: 12 héten keresztül heti 3x50 perc (előadás és szeminárium) 2. Szükséges előismeretek:

Részletesebben

6. Függvények. Legyen függvény és nem üreshalmaz. A függvényt az f K-ra való kiterjesztésének

6. Függvények. Legyen függvény és nem üreshalmaz. A függvényt az f K-ra való kiterjesztésének 6. Függvények I. Elméleti összefoglaló A függvény fogalma, értelmezési tartomány, képhalmaz, értékkészlet Legyen az A és B halmaz egyike sem üreshalmaz. Ha az A halmaz minden egyes eleméhez hozzárendeljük

Részletesebben

BIOMATEMATIKA ELŐADÁS

BIOMATEMATIKA ELŐADÁS BIOMATEMATIKA ELŐADÁS 3. Hibaszámítás, lineáris regresszió Debreceni Egyetem, 2015 Dr. Bérczes Attila, Bertók Csanád A diasor tartalma 1 Hibaszámítás Hibák fajtái, definíciók Abszolút, relatív, öröklött

Részletesebben

Statisztikai módszerek a skálafüggetlen hálózatok

Statisztikai módszerek a skálafüggetlen hálózatok Statisztikai módszerek a skálafüggetlen hálózatok vizsgálatára Gyenge Ádám1 1 Budapesti Műszaki és Gazdaságtudományi Egyetem Villamosmérnöki és Informatikai Kar Számítástudományi és Információelméleti

Részletesebben

17. előadás: Vektorok a térben

17. előadás: Vektorok a térben 17. előadás: Vektorok a térben Szabó Szilárd A vektor fogalma A mai előadásban n 1 tetszőleges egész szám lehet, de az egyszerűség kedvéért a képletek az n = 2 esetben szerepelnek. Vektorok: rendezett

Részletesebben

Monte Carlo módszerek a statisztikus fizikában. Az Ising modell. 8. előadás

Monte Carlo módszerek a statisztikus fizikában. Az Ising modell. 8. előadás Monte Carlo módszerek a statisztikus fizikában. Az Ising modell. 8. előadás Démon algoritmus az ideális gázra időátlag fizikai mennyiségek átlagértéke sokaságátlag E, V, N pl. molekuláris dinamika Monte

Részletesebben

Többváltozós lineáris regressziós modell feltételeinek

Többváltozós lineáris regressziós modell feltételeinek Többváltozós lineáris regressziós modell feltételeinek tesztelése I. - A hibatagra vonatkozó feltételek tesztelése - Petrovics Petra Doktorandusz Többváltozós lineáris regressziós modell x 1, x 2,, x p

Részletesebben

Felügyelt önálló tanulás - Analízis III.

Felügyelt önálló tanulás - Analízis III. Felügyelt önálló tanulás - Analízis III Kormos Máté Differenciálható sokaságok Sokaságok Röviden, sokaságoknak nevezzük azokat az objektumokat, amelyek egy n dimenziós térben lokálisan k dimenziósak Definíció:

Részletesebben

Matematikai geodéziai számítások 5.

Matematikai geodéziai számítások 5. Nyugat-magyarországi Egyetem Geoinformatikai Kara Dr Bácsatyai László Matematikai geodéziai számítások 5 MGS5 modul Hibaterjedési feladatok SZÉKESFEHÉRVÁR 2010 Jelen szellemi terméket a szerzői jogról

Részletesebben

Diszkrét Matematika. zöld könyv ): XIII. fejezet: 1583, 1587, 1588, 1590, Matematikai feladatgyűjtemény II. (

Diszkrét Matematika. zöld könyv ): XIII. fejezet: 1583, 1587, 1588, 1590, Matematikai feladatgyűjtemény II. ( FELADATOK A LEKÉPEZÉSEK, PERMUTÁCIÓK TÉMAKÖRHÖZ Diszkrét Matematika 4. LEKÉPEZÉSEK Értelmezési tartomány és értékkészlet meghatározása : Összefoglaló feladatgyűjtemény matematikából ( zöld könyv ): XIII.

Részletesebben

Adaptív dinamikus szegmentálás idősorok indexeléséhez

Adaptív dinamikus szegmentálás idősorok indexeléséhez Adaptív dinamikus szegmentálás idősorok indexeléséhez IPM-08irAREAE kurzus cikkfeldolgozás Balassi Márton 1 Englert Péter 1 Tömösy Péter 1 1 Eötvös Loránd Tudományegyetem Informatikai Kar 2013. november

Részletesebben

Markov-láncok stacionárius eloszlása

Markov-láncok stacionárius eloszlása Markov-láncok stacionárius eloszlása Adatbányászat és Keresés Csoport, MTA SZTAKI dms.sztaki.hu Kiss Tamás 2013. április 11. Tartalom Markov láncok definíciója, jellemzése Visszatérési idők Stacionárius

Részletesebben

Likelihood, deviancia, Akaike-féle információs kritérium

Likelihood, deviancia, Akaike-féle információs kritérium Többváltozós statisztika (SZIE ÁOTK, 2011. ősz) 1 Likelihood, deviancia, Akaike-féle információs kritérium Likelihood függvény Az adatokhoz paraméteres modellt illesztünk. A likelihood függvény a megfigyelt

Részletesebben

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 3 III. VÉLETLEN VEKTOROK 1. A KÉTDIMENZIÓs VÉLETLEN VEKTOR Definíció: Az leképezést (kétdimenziós) véletlen vektornak nevezzük, ha Definíció:

Részletesebben

Számítógépes döntéstámogatás. Statisztikai elemzés

Számítógépes döntéstámogatás. Statisztikai elemzés SZDT-03 p. 1/22 Számítógépes döntéstámogatás Statisztikai elemzés Werner Ágnes Villamosmérnöki és Információs Rendszerek Tanszék e-mail: werner.agnes@virt.uni-pannon.hu Előadás SZDT-03 p. 2/22 Rendelkezésre

Részletesebben

Statisztika elméleti összefoglaló

Statisztika elméleti összefoglaló 1 Statisztika elméleti összefoglaló Tel.: 0/453-91-78 1. Tartalomjegyzék 1. Tartalomjegyzék.... Becsléselmélet... 3 3. Intervallumbecslések... 5 4. Hipotézisvizsgálat... 8 5. Regresszió-számítás... 11

Részletesebben

Keresztmetszet másodrendű nyomatékainak meghatározása

Keresztmetszet másodrendű nyomatékainak meghatározása BUDAPEST MŰSZAK ÉS GAZDASÁGTUDOMÁNY EGYETEM Keresztmetszet másodrendű nyomatékainak meghatározása Segédlet a Szilárdságtan c tárgy házi feladatához Készítette: Lehotzky Dávid Budapest, 205 február 28 ábra

Részletesebben

Numerikus matematika vizsga

Numerikus matematika vizsga 1. Az a = 2, t = 4, k = 3, k + = 2 számábrázolási jellemzők mellett hány pozitív, normalizált lebegőpontos szám ábrázolható? Adja meg a legnagyobb ábrázolható számot! Mi lesz a 0.8-hoz rendelt lebegőpontos

Részletesebben

Matematikai geodéziai számítások 6.

Matematikai geodéziai számítások 6. Matematikai geodéziai számítások 6. Lineáris regresszió számítás elektronikus távmérőkre Dr. Bácsatyai, László Matematikai geodéziai számítások 6.: Lineáris regresszió számítás elektronikus távmérőkre

Részletesebben

Folyadékszcintillációs spektroszkópia jegyz könyv

Folyadékszcintillációs spektroszkópia jegyz könyv Folyadékszcintillációs spektroszkópia jegyz könyv Zsigmond Anna Julia Fizika MSc I. Mérés vezet je: Horváth Ákos Mérés dátuma: 2010. október 21. Leadás dátuma: 2010. november 8. 1 1. Bevezetés A mérés

Részletesebben

GPK M1 (BME) Interpoláció / 16

GPK M1 (BME) Interpoláció / 16 Interpoláció Matematika M1 gépészmérnököknek 2017. március 13. GPK M1 (BME) Interpoláció 2017 1 / 16 Az interpoláció alapfeladata - Példa Tegyük fel, hogy egy ipari termék - pl. autó - előzetes konstrukciójának

Részletesebben

Matematikai statisztika I. témakör: Valószínűségszámítási ismétlés

Matematikai statisztika I. témakör: Valószínűségszámítási ismétlés Matematikai statisztika I. témakör: Valószínűségszámítási ismétlés Elek Péter 1. Valószínűségi változók és eloszlások 1.1. Egyváltozós eset Ismétlés: valószínűség fogalma Valószínűségekre vonatkozó axiómák

Részletesebben

LINEÁRIS ALGEBRA. matematika alapszak. Euklideszi terek. SZTE Bolyai Intézet, őszi félév. Euklideszi terek LINEÁRIS ALGEBRA 1 / 40

LINEÁRIS ALGEBRA. matematika alapszak. Euklideszi terek. SZTE Bolyai Intézet, őszi félév. Euklideszi terek LINEÁRIS ALGEBRA 1 / 40 LINEÁRIS ALGEBRA matematika alapszak SZTE Bolyai Intézet, 2016-17. őszi félév Euklideszi terek Euklideszi terek LINEÁRIS ALGEBRA 1 / 40 Euklideszi tér Emlékeztető: A standard belső szorzás és standard

Részletesebben

January 16, ψ( r, t) ψ( r, t) = 1 (1) ( ψ ( r,

January 16, ψ( r, t) ψ( r, t) = 1 (1) ( ψ ( r, Közelítő módszerek January 16, 27 1 A variációs módszer A variációs módszer szintén egy analitikus közelítő módszer. Olyan esetekben alkalmazzuk mikor ismert az analitikus alak amelyben keressük a sajátfüggvényt,

Részletesebben

Biológiai rendszerek modellellenőrzése bayesi megközelítésben

Biológiai rendszerek modellellenőrzése bayesi megközelítésben Biológiai rendszerek modellellenőrzése bayesi megközelítésben Gál Tamás Zoltán Szoftver verifikáció és validáció kiselőadás, 2013. ősz Forrás: Sumit K. Jha et al.: A Bayesian Approach to Model Checking

Részletesebben

Hipotézis STATISZTIKA. Kétmintás hipotézisek. Munkahipotézis (H a ) Tematika. Tudományos hipotézis. 1. Előadás. Hipotézisvizsgálatok

Hipotézis STATISZTIKA. Kétmintás hipotézisek. Munkahipotézis (H a ) Tematika. Tudományos hipotézis. 1. Előadás. Hipotézisvizsgálatok STATISZTIKA 1. Előadás Hipotézisvizsgálatok Tematika 1. Hipotézis vizsgálatok 2. t-próbák 3. Variancia-analízis 4. A variancia-analízis validálása, erőfüggvény 5. Korreláció számítás 6. Kétváltozós lineáris

Részletesebben

A L Hospital-szabály, elaszticitás, monotonitás, konvexitás

A L Hospital-szabály, elaszticitás, monotonitás, konvexitás A L Hospital-szabály, elaszticitás, monotonitás, konvexitás 9. előadás Farkas István DE ATC Gazdaságelemzési és Statisztikai Tanszék A L Hospital-szabály, elaszticitás, monotonitás, konvexitás p. / A L

Részletesebben

Hipotézis, sejtés STATISZTIKA. Kétmintás hipotézisek. Tudományos hipotézis. Munkahipotézis (H a ) Nullhipotézis (H 0 ) 11. Előadás

Hipotézis, sejtés STATISZTIKA. Kétmintás hipotézisek. Tudományos hipotézis. Munkahipotézis (H a ) Nullhipotézis (H 0 ) 11. Előadás STATISZTIKA Hipotézis, sejtés 11. Előadás Hipotézisvizsgálatok, nem paraméteres próbák Tudományos hipotézis Nullhipotézis felállítása (H 0 ): Kétmintás hipotézisek Munkahipotézis (H a ) Nullhipotézis (H

Részletesebben

Gyakorló feladatok a kétváltozós regresszióhoz 2. Nemlineáris regresszió

Gyakorló feladatok a kétváltozós regresszióhoz 2. Nemlineáris regresszió Gyakorló feladatok a kétváltozós regresszióhoz 2. Nemlineáris regresszió 1. A fizetés (Y, órabér dollárban) és iskolázottság (X, elvégzett iskolai év) közti kapcsolatot vizsgáljuk az Y t α + β X 2 t +

Részletesebben

A szimplex algoritmus

A szimplex algoritmus A szimplex algoritmus Ismétlés: reprezentációs tétel, az optimális megoldás és az extrém pontok kapcsolata Alapfogalmak: bázisok, bázismegoldások, megengedett bázismegoldások, degenerált bázismegoldás

Részletesebben

Gauss-eliminációval, Cholesky felbontás, QR felbontás

Gauss-eliminációval, Cholesky felbontás, QR felbontás Közelítő és szimbolikus számítások 4. gyakorlat Mátrix invertálás Gauss-eliminációval, Cholesky felbontás, QR felbontás Készítette: Gelle Kitti Csendes Tibor Somogyi Viktor London András Deák Gábor jegyzetei

Részletesebben

Pontműveletek. Sergyán Szabolcs Óbudai Egyetem Neumann János Informatikai Kar február 20.

Pontműveletek. Sergyán Szabolcs Óbudai Egyetem Neumann János Informatikai Kar február 20. Pontműveletek Sergyán Szabolcs sergyan.szabolcs@nik.uni-obuda.hu Óbudai Egyetem Neumann János Informatikai Kar 2012. február 20. Sergyán (OE NIK) Pontműveletek 2012. február 20. 1 / 40 Felhasznált irodalom

Részletesebben

Nagy számok törvényei Statisztikai mintavétel Várható érték becslése. Dr. Berta Miklós Fizika és Kémia Tanszék Széchenyi István Egyetem

Nagy számok törvényei Statisztikai mintavétel Várható érték becslése. Dr. Berta Miklós Fizika és Kémia Tanszék Széchenyi István Egyetem agy számok törvényei Statisztikai mintavétel Várható érték becslése Dr. Berta Miklós Fizika és Kémia Tanszék Széchenyi István Egyetem A mérés mint statisztikai mintavétel A méréssel az eloszlásfüggvénnyel

Részletesebben

3. Fuzzy aritmetika. Gépi intelligencia I. Fodor János NIMGI1MIEM BMF NIK IMRI

3. Fuzzy aritmetika. Gépi intelligencia I. Fodor János NIMGI1MIEM BMF NIK IMRI 3. Fuzzy aritmetika Gépi intelligencia I. Fodor János BMF NIK IMRI NIMGI1MIEM Tartalomjegyzék I 1 Intervallum-aritmetika 2 Fuzzy intervallumok és fuzzy számok Fuzzy intervallumok LR fuzzy intervallumok

Részletesebben

3. Lineáris differenciálegyenletek

3. Lineáris differenciálegyenletek 3. Lineáris differenciálegyenletek A közönséges differenciálegyenletek két nagy csoportba oszthatók lineáris és nemlineáris egyenletek csoportjába. Ez a felbontás kicsit önkényesnek tűnhet, a megoldásra

Részletesebben

Relációk Függvények. A diákon megjelenő szövegek és képek csak a szerző (Kocsis Imre, DE MFK) engedélyével használhatók fel!

Relációk Függvények. A diákon megjelenő szövegek és képek csak a szerző (Kocsis Imre, DE MFK) engedélyével használhatók fel! függvények RE 1 Relációk Függvények függvények RE 2 Definíció Ha A, B és ρ A B, akkor azt mondjuk, hogy ρ reláció A és B között, vagy azt, hogy ρ leképezés A-ból B-be. Ha speciálisan A=B, azaz ρ A A, akkor

Részletesebben

Vektorok, mátrixok, lineáris egyenletrendszerek

Vektorok, mátrixok, lineáris egyenletrendszerek a Matematika mérnököknek I. című tárgyhoz Vektorok, mátrixok, lineáris egyenletrendszerek Vektorok A rendezett valós számpárokat kétdimenziós valós vektoroknak nevezzük. Jelölésükre latin kisbetűket használunk.

Részletesebben

3. Előadás. Megyesi László: Lineáris algebra, oldal. 3. előadás Lineáris egyenletrendszerek

3. Előadás. Megyesi László: Lineáris algebra, oldal. 3. előadás Lineáris egyenletrendszerek 3. Előadás Megyesi László: Lineáris algebra, 47. 50. oldal. Gondolkodnivalók Determinánsok 1. Gondolkodnivaló Determinánselméleti tételek segítségével határozzuk meg a következő n n-es determinánst: 1

Részletesebben

Matematikai alapok és valószínőségszámítás. Statisztikai becslés Statisztikák eloszlása

Matematikai alapok és valószínőségszámítás. Statisztikai becslés Statisztikák eloszlása Matematikai alapok és valószínőségszámítás Statisztikai becslés Statisztikák eloszlása Mintavétel A statisztikában a cél, hogy az érdeklõdés tárgyát képezõ populáció bizonyos paramétereit a populációból

Részletesebben

Függvények július 13. f(x) = 1 x+x 2 f() = 1 ()+() 2 f(f(x)) = 1 (1 x+x 2 )+(1 x+x 2 ) 2 Rendezés után kapjuk, hogy:

Függvények július 13. f(x) = 1 x+x 2 f() = 1 ()+() 2 f(f(x)) = 1 (1 x+x 2 )+(1 x+x 2 ) 2 Rendezés után kapjuk, hogy: Függvények 015. július 1. 1. Feladat: Határozza meg a következ összetett függvényeket! f(x) = cos x + x g(x) = x f(g(x)) =? g(f(x)) =? Megoldás: Összetett függvény el állításához a küls függvényben a független

Részletesebben

Kvadratikus alakok és euklideszi terek (előadásvázlat, október 5.) Maróti Miklós, Kátai-Urbán Kamilla

Kvadratikus alakok és euklideszi terek (előadásvázlat, október 5.) Maróti Miklós, Kátai-Urbán Kamilla Kvadratikus alakok és euklideszi terek (előadásvázlat, 0. október 5.) Maróti Miklós, Kátai-Urbán Kamilla Az előadáshoz ajánlott jegyzet: Szabó László: Bevezetés a lineáris algebrába, Polygon Kiadó, Szeged,

Részletesebben

Irányításelmélet és technika II.

Irányításelmélet és technika II. Irányításelmélet és technika II. Legkisebb négyzetek módszere Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki és Információs Rendszerek Tanszék amagyar@almos.vein.hu 200 november

Részletesebben

Numerikus matematika. Irodalom: Stoyan Gisbert, Numerikus matematika mérnököknek és programozóknak, Typotex, Lebegőpontos számok

Numerikus matematika. Irodalom: Stoyan Gisbert, Numerikus matematika mérnököknek és programozóknak, Typotex, Lebegőpontos számok Numerikus matematika Irodalom: Stoyan Gisbert, Numerikus matematika mérnököknek és programozóknak, Typotex, 2007 Lebegőpontos számok Normák, kondíciószámok Lineáris egyenletrendszerek Legkisebb négyzetes

Részletesebben

ODE SOLVER-ek használata a MATLAB-ban

ODE SOLVER-ek használata a MATLAB-ban ODE SOLVER-ek használata a MATLAB-ban Mi az az ODE? ordinary differential equation Milyen ODE megoldók vannak a MATLAB-ban? ode45, ode23, ode113, ode15s, ode23s, ode23t, ode23tb, stb. A részletes leírásuk

Részletesebben

Adatok statisztikai értékelésének főbb lehetőségei

Adatok statisztikai értékelésének főbb lehetőségei Adatok statisztikai értékelésének főbb lehetőségei 1. a. Egy- vagy kétváltozós eset b. Többváltozós eset 2. a. Becslési problémák, hipotézis vizsgálat b. Mintázatelemzés 3. Szint: a. Egyedi b. Populáció

Részletesebben

Feladatok az 5. hétre. Eredményekkel és teljesen kidolgozott megoldásokkal az 1,2,3.(a),(b),(c), 6.(a) feladatokra

Feladatok az 5. hétre. Eredményekkel és teljesen kidolgozott megoldásokkal az 1,2,3.(a),(b),(c), 6.(a) feladatokra Feladatok az 5. hétre. Eredményekkel és teljesen kidolgozott megoldásokkal az 1,,3.(a),(b),(), 6.(a) feladatokra 1. Oldjuk meg a következő kezdeti érték feladatot: y 1 =, y(0) = 3, 1 x y (0) = 1. Ha egy

Részletesebben

Többváltozós lineáris regressziós modell feltételeinek tesztelése I.

Többváltozós lineáris regressziós modell feltételeinek tesztelése I. Többváltozós lineáris regressziós modell feltételeinek tesztelése I. - A hibatagra vonatkozó feltételek tesztelése - Kvantitatív statisztikai módszerek Petrovics Petra Többváltozós lineáris regressziós

Részletesebben

LNM folytonos Az interpoláció Lagrange interpoláció. Lineáris algebra numerikus módszerei

LNM folytonos Az interpoláció Lagrange interpoláció. Lineáris algebra numerikus módszerei Legkisebb négyzetek módszere, folytonos eset Folytonos eset Legyen f C[a, b]és h(x) = a 1 φ 1 (x) + a 2 φ 2 (x) +... + a n φ n (x). Ekkor tehát az n 2 F (a 1,..., a n ) = f a i φ i = = b a i=1 f (x) 2

Részletesebben

[Biomatematika 2] Orvosi biometria

[Biomatematika 2] Orvosi biometria [Biomatematika 2] Orvosi biometria 2016.02.22. Valószínűségi változó Véletlentől függő számértékeket (értékek sokasága) felvevő változókat valószínűségi változóknak nevezzük(jelölés: ξ, η, x). (pl. x =

Részletesebben

Egyenletek, egyenlőtlenségek VII.

Egyenletek, egyenlőtlenségek VII. Egyenletek, egyenlőtlenségek VII. Magasabbfokú egyenletek: A 3, vagy annál nagyobb fokú egyenleteket magasabb fokú egyenleteknek nevezzük. Megjegyzés: Egy n - ed fokú egyenletnek legfeljebb n darab valós

Részletesebben

Matematikai geodéziai számítások 10.

Matematikai geodéziai számítások 10. Matematikai geodéziai számítások 10. Hibaellipszis, talpponti görbe és közepes ponthiba Dr. Bácsatyai, László Matematikai geodéziai számítások 10.: Hibaellipszis, talpponti görbe és Dr. Bácsatyai, László

Részletesebben

Az idegrendszeri memória modelljei

Az idegrendszeri memória modelljei Az idegrendszeri memória modelljei A memória típusai Rövidtávú Working memory - az aktuális feladat Vizuális, auditórikus,... Prefrontális cortex, szenzorikus területek Kapacitás: 7 +-2 minta Hosszútávú

Részletesebben

Matematikai geodéziai számítások 6.

Matematikai geodéziai számítások 6. Nyugat-magyarországi Egyetem Geoinformatikai Kara Dr. Bácsatyai László Matematikai geodéziai számítások 6. MGS6 modul Lineáris regresszió számítás elektronikus távmérőkre SZÉKESFEHÉRVÁR 2010 Jelen szellemi

Részletesebben