Bayesi tanulás. Kooperáció és gépi tanulás laboratórium (VIMIMB02) március 12. Elméleti alapok. Bayesi lineáris regresszió
|
|
- Emil Somogyi
- 5 évvel ezelőtt
- Látták:
Átírás
1 Bayesi tanulás Kooperáció és gépi tanulás laboratórium (VIMIMB02) március 12. Elméleti alapok A mérés során a gépi tanulás bayesi megközelítésével fogunk megismerkedni. Az elméleti anyag egy része előadáson elhangzott, a többi megtalálható a hivatkozott irodalomban [1]; itt egy rövid áttekintést adunk. Bayesi lineáris regresszió A regresszió felügyelt tanulási feladat. Legyenek adottak a {x i, z i } P párok (tanítóhalmaz), ahol x i R d a minták leírásai, z i R pedig a mintákhoz tartozó valós értékek. Célunk, hogy a tanítóhalmaz alapján egy olyan modellt tanuljunk, amely képes további mintapontokra (teszthalmaz) értékeket jósolni. Az előző mérésen három megközelítést vázoltunk fel: 1. Generatív modellek. Modellezzük a p(x, z) együttes eloszlást, majd a Bayes-tétel segítségével számítsuk ki a p(z x, X, z) prediktív eloszlást, ahol {X, z} a teljes tanítóhalmaz, x pedig az új minta. 2. Diszkriminatív modellek. Modellezzük közvetlenül a p(z X) feltételes eloszlást, majd ebből számítsuk ki a prediktív eloszlást. Látható, hogy diszkriminatív és generatív modelleknél egy új mintánál nem csak pontbecslést kapunk, hanem egy eloszlást, amely felhasználható például bizonytalanságunk jellemzésére, hibakorlátok számítására is. 3. Diszkriminatív függvények. Keressünk olyan f F függvényt, amelyre f(x i ) z i. Ebben az esetben csak pontbecslést kapunk. A 2. és 3. esettel az előző mérésen, a Gauss-folyamatoknál és szupportvektor-regressziónál foglalkoztunk. Az 1. esethez modellezzük a x i minták és z i értékek közötti kapcsolatot egy normál zajjal terhelt lineáris összefüggéssel: azaz z i = w T x i + ε, ε N (ε 0, β 1 ), p(z i x i, w, β) = N (z i w T x i, β 1 ), vagy az összes változóra együttesen felírva (függetlenséget feltételezve egyszerű szorzással): p(z X, w, β) = P N (z i w T x i, β 1 ). 1
2 Ha itt megállunk, az ún. maximum likelihood (ML) megoldásra jutunk: keressük azt a w paraméterezést, amelyre a fenti valószínűség (likelihood) maximális más szóval, azt a w vektort, amelynél a legnagyobb valószínűséggel kapnánk az adott, ismert z értékeket. A gyakorlatban direkt maximalizálás helyett inkább a likelihood negatív logaritmusát minimalizáljuk, ami a logaritmusfüggvény szigorú monotonitása miatt ekvivalens probléma. Mivel az optimalizációt nem befolyásolják a konstans tagok, ezek szintén figyelmen kívül hagyhatók, így a normál eloszlás definíciója alapján ln p(z X, w, β) = P (z i w T x i ) 2 + const, tehát a negatív log-likelihood minimalizálásával lényegében a legkisebb négyzetek módszerét kaptuk vissza. Korábban láttuk, hogy ha nem teszünk semmilyen megszorítást w-re, ez a módszer hajlamos a túlilleszkedésre (az ML megoldásokra ez általában is igaz). Így a teljes bayesi megközelítés felé vezető úton a következő lépés egy paraméter-prior megadása, legyen ez most p(w α) = N (w 0, α 1 ), ahol α-t hiperparaméternek nevezzük. Ekkor a Bayes-tételt felhasználva w poszerior eloszlása: p(w z, X, α, β) p(z X, w, β)p(w α). Vegyük ismét a negatív logaritmust (mivel itt már két tag összege szerepel, a ML megoldással ellentétben a β tagot most nem hagyhatjuk el): ln p(w z, X, α, β) = β P (z i w T x i ) 2 + αw T w + const. Ennek a feladatnak a megoldását maximum a posteriori (MAP) becslésnek nevezzük; látható, hogy egybeesik az előző mérésen látott regularizált görbeillesztéssel λ = α/β regularizációs együtthatóval. Általában nem is w paraméter értékére van szükségünk, hanem egy új x mintához akarunk z értéket jósolni. Ehhez most felírjuk a prediktív eloszlást, azaz átlagolunk a w paraméter összes lehetséges értéke szerint, súlyozva annak poszterior valószínűségével: p(z x, X, z, α, β) = p(z x, w, β)p(w z, X, α, β)dw p(z x, w, β)p(z X, w, β)p(w α)dw A fenti eljárást nevezzük bayesi modellátlagolásnak is. Felmerül a kérdés: hol van a bevezetőben említett együttes eloszlás? Ha ugyanis valóban modelleznénk X-et is, akkor a következő likelihood-ot kellene felírnunk (1. ábra): p(x, z w, β, θ) a megfelelő p(w, β, θ) priorral. Tegyük fel, hogy p(w, β, θ) = p(w, β)p(θ), azaz θ független a többi paramétertől. Ekkor a posterior is faktorizálható: p(x, z w, β, θ) = p(x θ)p(z X, w, β). 2
3 θ m 0 S 0 X w z β 1. ábra. Bayesi lineáris regressziónak megfelelő Bayes-háló. A függőségi viszonyokat irányított élek jelzik. A w paraméterek becslése innentől megegyezik a fent leírtakkal: p(w z, X, α, β, θ) p(z X, w, β)p(w α), θ becslése pedig nem szükséges a korábbi függetlenségi feltevés miatt. Ebben az értelemben tehát minden teljes bayesi modell generatív. Láttuk tehát a lineáris regresszió teljes bayesi megközelítésének és az előző mérésen nézett regularizált görbeillesztéseknek a kapcsolatát. Nézzük most kicsit általánosabban, legyen a prior p(w m 0, S 0 ) = N (w m 0, S 0 ), és ismételjük meg a fentieket. Mivel először csak w a posteriori valószínűségére vagyunk kíváncsiak, minden konstans tagot (amelyben w nem szerepel) figyelmen kívül hagyhatunk, ezek a legvégén, a normalizálással automatikusan visszakerülnek tudjuk, hogy a sűrűségfüggvények integrálja 1 kell, hogy legyen. Ismét felírjuk tehát a negatív logaritmust a nem-konstans tagokra: ln p(w z, X, m 0, S 0, β) = ln p(z X, w, β) ln p(w m 0, S 0 ) + const [ P ] [ ] = ln N (z i w T x i, β 1 ) ln N (w m 0, S 0 ) + const = 1 P β ( ) z i w T 2 1 x i (w m 0) T S 1 0 (w m 0 ) + const ( = 1 2 wt β ) ( x i x T 1 i + S 0 w β ) T z i x i + S 1 0 m 0 w + const. i i 3
4 Ez w-ben kvadratikus kifejezés, így kiegészíthetjük teljes négyzetté: 1 2 wt Σ 1 w ϕ T w = 1 2 (w Σϕ)T Σ 1 (w Σϕ) + const, ahonnan a negatív logaritmust visszaalakítva (exponenciálist használva) és normalizálva megkapjuk, hogy p(w z, X, m 0, S 0, β) = N (w ψ, Σ), Σ 1 = βx T X + S 0 1, ψ = Σ(βX T z + S 0 1 m 0 ), ahol X a mintavektorokból képzett mátrix, z pedig az értékek vektora. Végül kiszámoljuk a p(z x, X, z, β, m 0, S 0 ) = p(z x, w, β)p(w z, X, m 0, S 0, β)dw prediktív eloszlást oly módon, hogy most a w-t és z-t tartalmazó kifejezéseket tartjuk meg: ( ) ln p(z x, w, β)p(w z, X, m 0, S 0, β) = β 2 (z wt x) (w ψ)t Σ 1 (w ψ) + const = 1 2 wt ( βxx T + Σ 1) w ( βzx + Σ 1 ψ ) T w + β 2 z2 + const. A teljes négyzetté kiegészítésnél most minden tagot megtartunk: 1 2 wt S 1 w + ρ T w + β 2 z2 = 1 2 (w Sρ)T S 1 (w Sρ) (βz2 ρ T Sρ). Az exponenciális formára visszaalakítás után w-re normál eloszlást kapunk, és kihasználjuk, hogy ennek integrálja 1. A prediktív eloszlás tehát a következőképpen alakul: p(z x, X, z, β, m 0, S 0 ) = p(z x, w, β)p(w z, X, m 0, S 0, β)dw { = exp 1 } 2 (βz2 ρ T Sρ) N (w m, S)dw { = exp 1 } 2 (βz2 ρ T Sρ), ahol ρ = βzx + Σ 1 ψ, S 1 = βxx T + Σ 1. Végül a z-s tagok teljes négyzetté alakításával megmutatjuk, hogy ez is normál eloszlás: ln p(z x, X, z, β, m 0, S 0 ) = 1 2 (βz2 ρ T Sρ) = 1 2 ( β β 2 x T Sx ) z 2 ( βx T SΣ 1 ψ ) z + const, 4
5 így p(z x, X, z, β, m 0, S 0 ) = N (z µ, σ 2 ), σ 2 = (β(1 βx T Sx)) 1, µ = σ 2 βx T SΣ 1 ψ. Tehát megkaptuk a prediktív eloszlást, ezt azonban tovább egyszerűsíthetjük a Sherman Morrison formula felhasználásával, amely az inverz változását írja le 1-rangú mátrix hozzáadása esetén: (A + uv T ) 1 = A 1 A 1 uv T A v T A 1 u. Mivel S 1 éppen ilyen alakú mátrix, felhasználjuk a formulát: majd jobbról-balról beszorozva S = (βxx T + Σ 1 ) 1 = Σ βσxxt Σ 1 + βx T Σx, x T Sx = x T Σx βxt Σxx T Σx 1 + βx T Σx = xt Σx + β(x T Σx) 2 β(x T Σx) βx T Σx ahonnan βx T Sx = és végül σ 2 -t egyszerűbb alakra hozhatjuk: ( σ 2 = (β(1 βx T Sx)) 1 = Ezt behelyettesítve µ-t is átírhatjuk: βxt Σx 1 + βx T Σx = βx T Σx, β 1 + βx T Σx = ) 1 = 1 β + xt Σx. x T Σx 1 + βx T Σx µ = σ 2 βx T SΣ 1 ψ = x T SΣ 1 ψ + βx T Σxx T SΣ 1 ψ = x T ( SΣ 1 + βσxx T SΣ 1) ψ, viszont S-t kiemelve így tehát SΣ 1 + βσxx T SΣ 1 = S ( βxx T + Σ 1) = SS 1 = I, µ = x T ψ. Összefoglalva, a prediktív eloszlás a következő: p(z x, X, z, β, m 0, S 0 ) = N (z µ, σ 2 ), σ 2 = 1 β + xt Σx, µ = x T ψ, Σ = ( βx T X + S 0 1 ) 1, ψ = Σ(βX T z + S 0 1 m 0 ). 5
6 A fenti keretet könnyen kiterjeszthetjük a nemlineáris esetre is, ha a x i mintákra ún. bázisfüggvényeket alkalmazunk, azaz a x i φ n (x i ), n = 1,..., N. helyettesítésekkel élünk. Ilyen bázisfüggvény lehet például a Gauss-i radiális bázisfüggvény: φ n (x i ) = exp { γ(x i µ n ) 2}, ahol µ n az n. bázisfüggvény pozíciója, γ pedig a szélessége. Ekkor a bizonyítás menete lényegében változatlan marad, a prediktív eloszlás pedig a következőképpen módosul: p(z x, X, z, β, m 0, S 0 ) = N (z µ, σ 2 ), σ 2 = 1 β + φt Σφ, µ = φ T ψ, Σ = ( βφ T Φ + S 0 1 ) 1, ψ = Σ(βΦ T z + S 0 1 m 0 ), ahol φ = [φ 1 (x)... φ n (x)] T és Φ = φ 1 (x 1 ) φ 2 (x 1 ) φ n (x 1 ) φ 1 (x 2 ) φ 2 (x 2 ) φ n (x 2 ) φ 1 (x P ) φ 2 (x P ) φ n (x P ). Következtetés Bayes-hálókban Gibbs-mintavételezéssel Bayes-hálókban való következtetésekre használhatunk egzakt és közelítő megoldásokat. A Markov Chain Monte Carlo (MCMC) módszerek az előbbire mutatnak példát; az a posteriori eloszlást iteratív mintavételezéssel közelítjük, amelyről megfelelő feltételek mellett megmutatható, hogy kellő ideig ismételve tetszőlegesen közel kerül a valódi eloszláshoz (aszimptotikusan egzakt). A Metropolis, Metropolis Hastings algoritmusról korábbi tanulmányaik során minden bizonnyal hallottak, a részletek megtalálhatók a hivatkozott irodalomban [1]. A Gibbs-mintavételezéshez vegyünk egy p(x) = p(x 1, x 2,..., x n ) együttes eloszlást és adjunk kiinduló értéket minden változónak. Minden lépésben ki kell választanunk egy x i változót, és mintavételeznünk a p(x i x \i ) = p(x i x 1, x 2,..., x i 1, x i+1,..., x n ) eloszlást. Az így kapott mintát (az új x i és a meglévő x \i együttesét) eltároljuk, majd kiválasztjuk a következő változót. Az egyes x i változók poszerior eloszlását a kapott minták hisztogramjával közelítjük; megmutatható, hogy ez aszimptotikusan közelíti a valódi poszteriort. A Gibbs-mintavételezést bemutatjuk egy konkrét példán. Legyen adott egy R R I J hiányos mátrix, amely I darab felhasználó J darab filmre adott értékeléseit tartalmazza. A célunk, hogy a hiányzó értékek prediktálásával a felhasználóknak várhatóan tetsző filmeket javasoljunk. Ehhez 6
7 z x 2. ábra. Bayesi nemlineáris regresszió. A bázisfüggvények a 10, 20,..., 100 pontokon helyezkednek el. A mintákat fekete pontok, a várható értéket piros vonal, a szórást szürke sáv jelzi. keressük azokat az U R I L, V R J L teljes (!) mátrixokat, amelyeknek szorzata a lehető legjobban közelíti R meglévő értékeit: R U T V, ahol L az ún. látens faktorok száma. Általánosságban L rank(r), azaz alacsony rangú approximációt keresünk. R hiányzó értékeit a U T V szorzat alapján fogjuk jósolni. Használjunk bayesi megközelítést: R értékei legyenek függetlenek és β precizitású normál zajjal terheltek: p(r U, V, β) = I J [ N (Rij u T i v j, β 1 ) ] I ij, valamint legyen p(u α u ) = p(v α v ) = I J N (u i 0, αu 1 I), N (v j 0, αv 1 I), ahol u i és v j a megfelelő mátrix i. illetve j. oszlopa, valamint { 1, ha R ij létezik, I ij = 0, egyébként. A Gibbs-mintavételezéshez szükségünk lesz a feltételes eloszlásokra, így a korábban megismert stratégiát követjük: felírjuk az együttes eloszlás logaritmusát, kigyűjtjük a keresett tagokat, majd kiegészítjük teljes négyzetté, végül exponenciálist veszünk és normalizálunk. 7
8 α u α v U V R β 3. ábra. Valószínűségi mátrixfaktorizációnak megfelelő Bayes-háló. Nézzük az U-t tartalmazó tagokra: azaz ln p(u, V, R β, α u, α v ) I J = I ij ln N (R ij u T i v j, β 1 ) + = = = I ln N (u i 0, αu 1 I) + const I J 1 2 β(r ij u T i v j ) 2 I ij 1 I α u u T i Iu i + const 2 ( ) ( ) T I 1 J J 2 ut i β I ij v j vj T + α u I u i + β I ij R ij v j u i + const I 1 2 (u i Λ 1 i ϕ i ) T Λ i (u i Λ 1 i ϕ i ) + const, p(u R, V, α u, α v, β) = i Λ i = β N (u i ψ i, Λ 1 i ), J I ij v j vj T + α u I, ψ i = Λ 1 i β J I ij R ij v j. A V -re vonatkozó összefüggések ugyanígy származtathatók. A mintavételezés menete tehát a következő lesz: 1. Inicializáljuk U-t és V -t, feltöltjük I-t és R-t. 2. Felváltva mintavételezzük p(u R, V, β, α u, α v )-t és p(v R, U, β, α u, α v )-t. 3. A kapott mintákból kiszámítjuk a hisztogramot, amely a poszteriort közelíti. 8
9 ábra. Mátrixfaktorizáció mátrix esetén, 5 látens faktorral. Az ábra az R 5,5 elemre kapott minták hisztogramját mutatja, a piros vonal a valódi értéket jelzi. A bal oldalon β = 1, a jobb oldalon β = 100 paramétert használtunk. A mérés során megoldandó feladatok Bayesi regresszió 1) Hozzon létre két mesterséges egydimenziós adathalmazt. Adathalmazonként száz minta elegendő; az egyiket származtassa egy normál zajjal terhelt lineáris kapcsolatból, a másik mutasson tetszőleges típusú nemlinearitást. A továbbiakban az egyszerűség kedvéért legyen S 0 = αi, m 0 = 0. 2) Hozza létre a bázisfüggvényeket oly módon, hogy a tartományon egyenletesen helyezkedjenek el. Például: location<-seq(0,100,10) phi<-function(x) exp(-width*(x-location)^2) ahol a bázisfüggvényt használtuk. 3) Hozza létre a Φ mátrixot: Φ = φ n (x i ) = exp { γ(x i µ n ) 2}, φ 1 (x 1 ) φ 2 (x 1 ) φ 11 (x 1 ) φ 1 (x 2 ) φ 2 (x 2 ) φ 11 (x 2 ) φ 1 (x 100 ) φ 2 (x 100 ) φ 11 (x 100 ) 9.
10 4) Emlékeztetőül álljon itt a prediktív eloszlás: p(z x, X, z, β, m 0, S 0 ) = N (z µ, σ 2 ), σ 2 = 1 β + φt Σφ, µ = φ T ψ, Σ = ( βφ T Φ + S ) 1 1 0, ψ = Σ(βΦ T z + S 1 0 m 0 ), ahol φ = φ 1 (x). φ n (x). Hozza létre ezeknek megfelelően a Σ mátrixot és ψ vektort, valamint a σ 2 és µ függvényeket, amelyek az egyes mintákhoz a várható értéket és szórást adják vissza, pl. mu<-function(x) phi(x)%*%psi 5) Ábrázolja mindkét adathalmazon az illesztett görbét oly módon, hogy a tartományon alkalmas időközönként kirajzolja az átlagot és a szórást. Például: sx<-seq(0,100,0.1) pred<-sapply(sx,mu) #... ggplot() geom_line(aes(x=sx,y=pred)) +... A 2. ábrán láthat erre példát. 6) Vizsgálja meg és dokumentálja az α, β és γ paraméterek hatását az illesztésre. 10
11 Gibbs-mintavételezés Ebben a feladatban az egyszerűség kedvéért a teljes R mátrixot fogjuk használni. A hiány kezelése elméletben triviális, gyakorlatban viszont ügyes indexelési sémát igényel, amitől most eltekintünk. 1) Hozzon létre egy véletlen mátrixot, amely a bevezetőben említett R szerepét fogja játszani. Inicializálja az U és V mátrixokat is. I<-20 J<-30 L<-15 R<-matrix(runif(I*J,0,10),I,J) U<-matrix(0,I,L) V<-matrix(0,J,L) 2) Emlékeztetőül álljon itt U feltételes eloszlása a Gibbs-mintavételezéshez: p(u R, V, α u, α v, β) = i N (u i ψ i, Λ 1 i ), Λ i = β J v j vj T + α u I, ψ i = Λ 1 i β J R ij v j. A fenti összefüggések alapján implementálja U és V mintavételezését. Többváltozós normál eloszlásból való mintavételezéshez használja a MASS könyvtár mvrnorm() függvényét. Mátrixot invertálni a solve() függvénnyel lehet. Megjegyzés. Mátrixot direkt módon ritkán szoktunk invertálni; ennek kiszámítása és tárolása ugyanis számítás- és főleg memóriaigényes. A mátrix inverzére rendszerint nem önmagában van szükségünk, hanem egy másik vektorral megszorozva. Így az A 1 b szorzás elvégzése helyett megoldhatjuk az Ax = b lineáris rendszert x-re, ami ugyanazt az eredményt adja. Lineáris rendszerek megoldására igen hatékony algoritmusok állnak rendelkezésre, jól példa erre az ún. konjugált gradiens (CG) solver. Mivel az mvrnorm() függvény explicite igényli a preciziós mátrix inverzét (kovarianciamátrix), erre most nincs lehetőségünk. A gyakorlatban kénytelenek lennénk hatékonyabb implementáció után nézni (a Julia nyelv megfelelő csomagja például támogatja a kanonikus paraméterek használatát, amivel a direkt invertálás elkerülhető). 3) Az MCMC módszereket futtatás előtt célszerű bemelegíteni (burn-in), azaz egy ideig a mintákat eldobva futtatni, hogy kellően közel tudjanak kerülni a keresett eloszláshoz. Ennek megfelelően végezze az iterációt két lépésben: először egy rövidebb burn-in szakaszban, majd mintarögzítéssel. Először hozza létre a mintagyűjtéshez szükséges változókat: U_sum<-U # U atlagahoz V_sum<-V # V atlagahoz smp<-vector() # R egy tetszoleges elemenek hisztogramjahoz 11
12 5. ábra. Az R mátrix hőtérképe. Majd futtassa a Markov-láncot két szakaszban: # Burn-in for(iter in 1:burn_in) { #... U mintavetelezese... #... V mintavetelezese... } # Rogzites for(iter in 1:iters) { #... U mintavetelezese... U_sum<-U_sum+U #... V mintavetelezese... V_sum<-V_sum+V } smp<-append(smp,(u%*%t(v))[5,5]) U_avg<-U_sum/iters V_avg<-V_sum/iters 4) Ábrázolja az R és a számított UV T mátrixot, illetve a kettő különbségét hőtérképen. df<-as.data.frame(r) df[[j+1]]<-1:i dt<-melt(df,id.vars=j+1) names(dt)<-c("x","y","val") ggplot(dt,aes(x=x,y=y,fill=val)) + geom_tile() A közelítés hibáját adja meg a múlt órán megismert RMSE mérték szerint is: RMSE<-sqrt(mean((R-U_avg%*%t(V_avg))^2)) 5) Ábrázolja hisztogramon R tetszőleges eleméhez kapott mintákat. Erre a 3. ábrán láthat példát, ahol az (5, 5) elemet választottuk. 12
13 6) Vizsgálja meg a következő paraméterek hatását az eredményekre: Hivatkozások Precizitás (β). A Gauss-folyamatoknál megismert paraméterek közül melyikkel analóg ez? A faktorok paraméterei (α u, α v ). A regressziónál megismert paraméterek közül melyikkel analóg ez a kettő? Látens faktorok száma (L). A polinomiális görbeillesztésnél megismert paraméterek közül melyikkel analóg ez? Iterációk száma. [1] Christopher M. Bishop. Pattern Recognition and Machine Learning (Information Science and Statistics). Springer-Verlag New York, Inc., Secaucus, NJ, USA,
A maximum likelihood becslésről
A maximum likelihood becslésről Definíció Parametrikus becsléssel foglalkozunk. Adott egy modell, mellyel elképzeléseink szerint jól leírható a meghatározni kívánt rendszer. (A modell típusának és rendszámának
RészletesebbenKernel gépek vizsgálata
Kernel gépek vizsgálata Kooperáció és gépi tanulás laboratórium (VIMIMB02) 2018. március 5. Elméleti alapok A mérés során újabb kernel gépeket fogunk megismerni: a szupportvektor-gépek (SVM) regressziós
RészletesebbenLeast Squares becslés
Least Squares becslés A négyzetes hibafüggvény: i d i ( ) φx i A négyzetes hibafüggvény mellett a minimumot biztosító megoldás W=( d LS becslés A gradiens számítása és nullává tétele eredményeképp A megoldás
RészletesebbenKÖZELÍTŐ INFERENCIA II.
STATISZTIKAI TANULÁS AZ IDEGRENDSZERBEN KÖZELÍTŐ INFERENCIA II. MONTE CARLO MÓDSZEREK ISMÉTLÉS Egy valószínűségi modellben a következtetéseinket a látensek vagy a paraméterek fölötti poszterior írja le.
RészletesebbenKÖZELÍTŐ INFERENCIA II.
STATISZTIKAI TANULÁS AZ IDEGRENDSZERBEN KÖZELÍTŐ INFERENCIA II. MONTE CARLO MÓDSZEREK ISMÉTLÉS Egy valószínűségi modellben a következtetéseinket a látensek vagy a paraméterek fölötti poszterior írja le.
RészletesebbenLineáris regressziós modellek 1
Lineáris regressziós modellek 1 Ispány Márton és Jeszenszky Péter 2016. szeptember 19. 1 Az ábrák C.M. Bishop: Pattern Recognition and Machine Learning c. könyvéből származnak. Tartalom Bevezető példák
RészletesebbenBiometria az orvosi gyakorlatban. Korrelációszámítás, regresszió
SZDT-08 p. 1/31 Biometria az orvosi gyakorlatban Korrelációszámítás, regresszió Werner Ágnes Villamosmérnöki és Információs Rendszerek Tanszék e-mail: werner.agnes@virt.uni-pannon.hu Korrelációszámítás
RészletesebbenLine aris f uggv enyilleszt es m arcius 19.
Lineáris függvényillesztés 2018. március 19. Illesztett paraméterek hibája Eddig azt néztük, hogy a mérési hiba hogyan propagál az illesztett paraméterekbe, ha van egy konkrét függvényünk. a hibaterjedés
RészletesebbenÁltalánosan, bármilyen mérés annyit jelent, mint meghatározni, hányszor van meg
LMeasurement.tex, March, 00 Mérés Általánosan, bármilyen mérés annyit jelent, mint meghatározni, hányszor van meg a mérendő mennyiségben egy másik, a mérendővel egynemű, önkényesen egységnek választott
RészletesebbenKonjugált gradiens módszer
Közelítő és szimbolikus számítások 12. gyakorlat Konjugált gradiens módszer Készítette: Gelle Kitti Csendes Tibor Vinkó Tamás Faragó István Horváth Róbert jegyzetei alapján 1 LINEÁRIS EGYENLETRENDSZEREK
RészletesebbenMegoldások. ξ jelölje az első meghibásodásig eltelt időt. Akkor ξ N(6, 4; 2, 3) normális eloszlású P (ξ
Megoldások Harmadik fejezet gyakorlatai 3.. gyakorlat megoldása ξ jelölje az első meghibásodásig eltelt időt. Akkor ξ N(6, 4;, 3 normális eloszlású P (ξ 8 ξ 5 feltételes valószínűségét (.3. alapján számoljuk.
RészletesebbenAlap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )
Budapesti Műszaki és Gazdaságtudományi Egyetem Gépészmérnöki Kar Hidrodinamikai Rendszerek Tanszék, Budapest, Műegyetem rkp. 3. D ép. 334. Tel: 463-6-80 Fa: 463-30-9 http://www.vizgep.bme.hu Alap-ötlet:
RészletesebbenInferencia valószínűségi modellekben
Statisztikai tanulás az idegrendszerben, 2016. Inferencia valószínűségi modellekben Bányai Mihály banyai.mihaly@wigner.mta.hu http://golab.wigner.mta.hu/people/mihaly-banyai/ Inferencia valószínűségi modellekben
RészletesebbenBiomatematika 12. Szent István Egyetem Állatorvos-tudományi Kar. Fodor János
Szent István Egyetem Állatorvos-tudományi Kar Biomatematikai és Számítástechnikai Tanszék Biomatematika 12. Regresszió- és korrelációanaĺızis Fodor János Copyright c Fodor.Janos@aotk.szie.hu Last Revision
Részletesebbenegyenletesen, és c olyan színű golyót teszünk az urnába, amilyen színűt húztunk. Bizonyítsuk
Valószínűségszámítás 8. feladatsor 2015. november 26. 1. Bizonyítsuk be, hogy az alábbi folyamatok mindegyike martingál. a S n, Sn 2 n, Y n = t n 1+ 1 t 2 Sn, t Fn = σ S 1,..., S n, 0 < t < 1 rögzített,
Részletesebben1. Példa. A gamma függvény és a Fubini-tétel.
. Példa. A gamma függvény és a Fubini-tétel.. Az x exp x + t )) függvény az x, t tartományon folytonos, és nem negatív, ezért alkalmazható rá a Fubini-tétel. I x exp x + t )) dxdt + t dt π 4. [ exp x +
RészletesebbenLineáris algebra numerikus módszerei
Hermite interpoláció Tegyük fel, hogy az x 0, x 1,..., x k [a, b] különböző alappontok (k n), továbbá m 0, m 1,..., m k N multiplicitások úgy, hogy Legyenek adottak k m i = n + 1. i=0 f (j) (x i ) = y
RészletesebbenPrincipal Component Analysis
Principal Component Analysis Principal Component Analysis Principal Component Analysis Definíció Ortogonális transzformáció, amely az adatokat egy új koordinátarendszerbe transzformálja úgy, hogy a koordináták
RészletesebbenGauss-Seidel iteráció
Közelítő és szimbolikus számítások 5. gyakorlat Iterációs módszerek: Jacobi és Gauss-Seidel iteráció Készítette: Gelle Kitti Csendes Tibor Somogyi Viktor London András Deák Gábor jegyzetei alapján 1 ITERÁCIÓS
RészletesebbenProbabilisztikus modellek II: Inferencia. Nagy Dávid
Probabilisztikus modellek II: Inferencia Nagy Dávid Statisztikai tanulás az idegrendszerben, 2015 előző előadás előző előadás az agy modellt épít a világról előző előadás az agy modellt épít a világról
RészletesebbenGauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei
A Gauss-Jordan elimináció, mátrixinvertálás Gauss-Jordan módszer Ugyanazzal a technikával, mint ahogy a k-adik oszlopban az a kk alatti elemeket kinulláztuk, a fölötte lévő elemeket is zérussá lehet tenni.
RészletesebbenAbszolút folytonos valószín ségi változó (4. el adás)
Abszolút folytonos valószín ségi változó (4. el adás) Deníció (Abszolút folytonosság és s r ségfüggvény) Az X valószín ségi változó abszolút folytonos, ha van olyan f : R R függvény, melyre P(X t) = t
RészletesebbenGyakorló feladatok I.
Gyakorló feladatok I. a Matematika Aa Vektorüggvények tárgyhoz (D D5 kurzusok) Összeállította: Szili László Ajánlott irodalmak:. G.B. Thomas, M.D. Weir, J. Hass, F.R. Giordano: Thomas-féle KALKULUS I.,
RészletesebbenMesterséges Intelligencia I.
Mesterséges Intelligencia I. 10. elıadás (2008. november 10.) Készítette: Romhányi Anita (ROANAAT.SZE) - 1 - Statisztikai tanulás (Megfigyelések alapján történı bizonytalan következetésnek tekintjük a
Részletesebben15. LINEÁRIS EGYENLETRENDSZEREK
15 LINEÁRIS EGYENLETRENDSZEREK 151 Lineáris egyenletrendszer, Gauss elimináció 1 Definíció Lineáris egyenletrendszernek nevezzük az (1) a 11 x 1 + a 12 x 2 + + a 1n x n = b 1 a 21 x 1 + a 22 x 2 + + a
RészletesebbenSaj at ert ek-probl em ak febru ar 26.
Sajátérték-problémák 2018. február 26. Az alapfeladat Adott a következő egyenlet: Av = λv, (1) ahol A egy ismert mátrix v ismeretlen, nem zérus vektor λ ismeretlen szám Azok a v, λ kombinációk, amikre
RészletesebbenDiverzifikáció Markowitz-modell MAD modell CAPM modell 2017/ Szegedi Tudományegyetem Informatikai Intézet
Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatikai Intézet Számítógépes Optimalizálás Tanszék 11. Előadás Portfólió probléma Portfólió probléma Portfólió probléma Adott részvények (kötvények,tevékenységek,
RészletesebbenFEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 8 VIII. REGREssZIÓ 1. A REGREssZIÓs EGYENEs Két valószínűségi változó kapcsolatának leírására az eddigiek alapján vagy egy numerikus
RészletesebbenLoss Distribution Approach
Modeling operational risk using the Loss Distribution Approach Tartalom»Szabályozói környezet»modellezési struktúra»eseményszám eloszlás»káreloszlás»aggregált veszteségek»további problémák 2 Szabályozói
RészletesebbenMesterséges Intelligencia MI
Mesterséges Intelligencia MI Valószínűségi hálók - következtetés Dobrowiecki Tadeusz Eredics Péter, és mások BME I.E. 437, 463-28-99 dobrowiecki@mit.bme.hu, http://www.mit.bme.hu/general/staff/tade Következtetés
RészletesebbenDiszkrét matematika I., 12. előadás Dr. Takách Géza NyME FMK Informatikai Intézet takach november 30.
1 Diszkrét matematika I, 12 előadás Dr Takách Géza NyME FMK Informatikai Intézet takach@infnymehu http://infnymehu/ takach 2005 november 30 Vektorok Definíció Egy tetszőleges n pozitív egész számra n-komponensű
Részletesebben11. Előadás. 11. előadás Bevezetés a lineáris programozásba
11. Előadás Gondolkodnivalók Sajátérték, Kvadratikus alak 1. Gondolkodnivaló Adjuk meg, hogy az alábbi A mátrixnak mely α értékekre lesz sajátértéke a 5. Ezen α-ák esetén határozzuk meg a 5 sajátértékhez
RészletesebbenGROVER-algoritmus. Sinkovicz Péter. ELTE, MSc II dec.15.
ELTE, MSc II. 2011.dec.15. Áttekintés Feladat Algoritmus Kvantum keresési algoritmus áttekintése Input: N = 2 n elemű tömb, Ψ 1 = 0 1 kezdőállapot, f x0 (x) orákulum függvény. Output: x 0 keresett elem
RészletesebbenMatematika A2 vizsga mgeoldása június 4.
Matematika A vizsga mgeoldása 03. június.. (a (3 pont Definiálja az f(x, y függvény határértékét az (x 0, y 0 helyen! Megoldás: Legyen D R, f : D R. Legyen az f(x, y függvény értelmezve az (x 0, y 0 pont
Részletesebbene (t µ) 2 f (t) = 1 F (t) = 1 Normális eloszlás negyedik centrális momentuma:
Normális eloszlás ξ valószínűségi változó normális eloszlású. ξ N ( µ, σ 2) Paraméterei: µ: várható érték, σ 2 : szórásnégyzet (µ tetszőleges, σ 2 tetszőleges pozitív valós szám) Normális eloszlás sűrűségfüggvénye:
RészletesebbenOptimalizálás alapfeladata Legmeredekebb lejtő Lagrange függvény Log-barrier módszer Büntetőfüggvény módszer 2017/
Operációkutatás I. 2017/2018-2. Szegedi Tudományegyetem Informatikai Intézet Számítógépes Optimalizálás Tanszék 9. Előadás Az optimalizálás alapfeladata Keressük f függvény maximumát ahol f : R n R és
RészletesebbenFeladatok a Gazdasági matematika II. tárgy gyakorlataihoz
Debreceni Egyetem Közgazdaságtudományi Kar Feladatok a Gazdasági matematika II tárgy gyakorlataihoz a megoldásra ajánlott feladatokat jelöli e feladatokat a félév végére megoldottnak tekintjük a nehezebb
Részletesebben1. feladatsor: Vektorterek, lineáris kombináció, mátrixok, determináns (megoldás)
Matematika A2c gyakorlat Vegyészmérnöki, Biomérnöki, Környezetmérnöki szakok, 2017/18 ősz 1. feladatsor: Vektorterek, lineáris kombináció, mátrixok, determináns (megoldás) 1. Valós vektorterek-e a következő
RészletesebbenFEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 9 IX. ROBUsZTUs statisztika 1. ROBUsZTUssÁG Az eddig kidolgozott módszerek főleg olyanok voltak, amelyek valamilyen értelemben optimálisak,
RészletesebbenFEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 4 IV. MINTA, ALAPsTATIsZTIKÁK 1. MATEMATIKAI statisztika A matematikai statisztika alapfeladatát nagy általánosságban a következőképpen
RészletesebbenLineáris leképezések. Wettl Ferenc március 9. Wettl Ferenc Lineáris leképezések március 9. 1 / 31
Lineáris leképezések Wettl Ferenc 2015. március 9. Wettl Ferenc Lineáris leképezések 2015. március 9. 1 / 31 Tartalom 1 Mátrixleképezés, lineáris leképezés 2 Alkalmazás: dierenciálhatóság 3 2- és 3-dimenziós
RészletesebbenMegoldott feladatok november 30. n+3 szigorúan monoton csökken, 5. n+3. lim a n = lim. n+3 = 2n+3 n+4 2n+1
Megoldott feladatok 00. november 0.. Feladat: Vizsgáljuk az a n = n+ n+ sorozat monotonitását, korlátosságát és konvergenciáját. Konvergencia esetén számítsuk ki a határértéket! : a n = n+ n+ = n+ n+ =
RészletesebbenKalkulus I. gyakorlat Fizika BSc I/1.
. Ábrázoljuk a következő halmazokat a síkon! {, y) R 2 : + y < }, b) {, y) R 2 : 2 + y 2 < 4}, c) {, y) R 2 : 2 + y 2 < 4, + y < }, {, y) R 2 : + y < }. Kalkulus I. gyakorlat Fizika BSc I/.. gyakorlat
RészletesebbenLegkisebb négyzetek módszere, Spline interpoláció
Közelítő és szimbolikus számítások 10. gyakorlat Legkisebb négyzetek módszere, Spline interpoláció Készítette: Gelle Kitti Csendes Tibor Somogyi Viktor Vinkó Tamás London András Deák Gábor jegyzetei alapján
RészletesebbenIBNR számítási módszerek áttekintése
1/13 IBNR számítási módszerek áttekintése Prokaj Vilmos email: Prokaj.Vilmos@pszaf.hu 1. Kifutási háromszög Év 1 2 3 4 5 2/13 1 X 1,1 X 1,2 X 1,3 X 1,4 X 1,5 2 X 2,1 X 2,2 X 2,3 X 2,4 X 2,5 3 X 3,1 X 3,2
RészletesebbenMatematikai geodéziai számítások 5.
Matematikai geodéziai számítások 5 Hibaterjedési feladatok Dr Bácsatyai László Matematikai geodéziai számítások 5: Hibaterjedési feladatok Dr Bácsatyai László Lektor: Dr Benedek Judit Ez a modul a TÁMOP
RészletesebbenFEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 10 X. SZIMULÁCIÓ 1. VÉLETLEN számok A véletlen számok fontos szerepet játszanak a véletlen helyzetek generálásában (pénzérme, dobókocka,
RészletesebbenMatematikai statisztika c. tárgy oktatásának célja és tematikája
Matematikai statisztika c. tárgy oktatásának célja és tematikája 2015 Tematika Matematikai statisztika 1. Időkeret: 12 héten keresztül heti 3x50 perc (előadás és szeminárium) 2. Szükséges előismeretek:
Részletesebben6. Függvények. Legyen függvény és nem üreshalmaz. A függvényt az f K-ra való kiterjesztésének
6. Függvények I. Elméleti összefoglaló A függvény fogalma, értelmezési tartomány, képhalmaz, értékkészlet Legyen az A és B halmaz egyike sem üreshalmaz. Ha az A halmaz minden egyes eleméhez hozzárendeljük
RészletesebbenBIOMATEMATIKA ELŐADÁS
BIOMATEMATIKA ELŐADÁS 3. Hibaszámítás, lineáris regresszió Debreceni Egyetem, 2015 Dr. Bérczes Attila, Bertók Csanád A diasor tartalma 1 Hibaszámítás Hibák fajtái, definíciók Abszolút, relatív, öröklött
RészletesebbenStatisztikai módszerek a skálafüggetlen hálózatok
Statisztikai módszerek a skálafüggetlen hálózatok vizsgálatára Gyenge Ádám1 1 Budapesti Műszaki és Gazdaságtudományi Egyetem Villamosmérnöki és Informatikai Kar Számítástudományi és Információelméleti
Részletesebben17. előadás: Vektorok a térben
17. előadás: Vektorok a térben Szabó Szilárd A vektor fogalma A mai előadásban n 1 tetszőleges egész szám lehet, de az egyszerűség kedvéért a képletek az n = 2 esetben szerepelnek. Vektorok: rendezett
RészletesebbenMonte Carlo módszerek a statisztikus fizikában. Az Ising modell. 8. előadás
Monte Carlo módszerek a statisztikus fizikában. Az Ising modell. 8. előadás Démon algoritmus az ideális gázra időátlag fizikai mennyiségek átlagértéke sokaságátlag E, V, N pl. molekuláris dinamika Monte
RészletesebbenTöbbváltozós lineáris regressziós modell feltételeinek
Többváltozós lineáris regressziós modell feltételeinek tesztelése I. - A hibatagra vonatkozó feltételek tesztelése - Petrovics Petra Doktorandusz Többváltozós lineáris regressziós modell x 1, x 2,, x p
RészletesebbenFelügyelt önálló tanulás - Analízis III.
Felügyelt önálló tanulás - Analízis III Kormos Máté Differenciálható sokaságok Sokaságok Röviden, sokaságoknak nevezzük azokat az objektumokat, amelyek egy n dimenziós térben lokálisan k dimenziósak Definíció:
RészletesebbenMatematikai geodéziai számítások 5.
Nyugat-magyarországi Egyetem Geoinformatikai Kara Dr Bácsatyai László Matematikai geodéziai számítások 5 MGS5 modul Hibaterjedési feladatok SZÉKESFEHÉRVÁR 2010 Jelen szellemi terméket a szerzői jogról
RészletesebbenDiszkrét Matematika. zöld könyv ): XIII. fejezet: 1583, 1587, 1588, 1590, Matematikai feladatgyűjtemény II. (
FELADATOK A LEKÉPEZÉSEK, PERMUTÁCIÓK TÉMAKÖRHÖZ Diszkrét Matematika 4. LEKÉPEZÉSEK Értelmezési tartomány és értékkészlet meghatározása : Összefoglaló feladatgyűjtemény matematikából ( zöld könyv ): XIII.
RészletesebbenAdaptív dinamikus szegmentálás idősorok indexeléséhez
Adaptív dinamikus szegmentálás idősorok indexeléséhez IPM-08irAREAE kurzus cikkfeldolgozás Balassi Márton 1 Englert Péter 1 Tömösy Péter 1 1 Eötvös Loránd Tudományegyetem Informatikai Kar 2013. november
RészletesebbenMarkov-láncok stacionárius eloszlása
Markov-láncok stacionárius eloszlása Adatbányászat és Keresés Csoport, MTA SZTAKI dms.sztaki.hu Kiss Tamás 2013. április 11. Tartalom Markov láncok definíciója, jellemzése Visszatérési idők Stacionárius
RészletesebbenLikelihood, deviancia, Akaike-féle információs kritérium
Többváltozós statisztika (SZIE ÁOTK, 2011. ősz) 1 Likelihood, deviancia, Akaike-féle információs kritérium Likelihood függvény Az adatokhoz paraméteres modellt illesztünk. A likelihood függvény a megfigyelt
RészletesebbenFEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI
FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI statisztika 3 III. VÉLETLEN VEKTOROK 1. A KÉTDIMENZIÓs VÉLETLEN VEKTOR Definíció: Az leképezést (kétdimenziós) véletlen vektornak nevezzük, ha Definíció:
RészletesebbenSzámítógépes döntéstámogatás. Statisztikai elemzés
SZDT-03 p. 1/22 Számítógépes döntéstámogatás Statisztikai elemzés Werner Ágnes Villamosmérnöki és Információs Rendszerek Tanszék e-mail: werner.agnes@virt.uni-pannon.hu Előadás SZDT-03 p. 2/22 Rendelkezésre
RészletesebbenStatisztika elméleti összefoglaló
1 Statisztika elméleti összefoglaló Tel.: 0/453-91-78 1. Tartalomjegyzék 1. Tartalomjegyzék.... Becsléselmélet... 3 3. Intervallumbecslések... 5 4. Hipotézisvizsgálat... 8 5. Regresszió-számítás... 11
RészletesebbenKeresztmetszet másodrendű nyomatékainak meghatározása
BUDAPEST MŰSZAK ÉS GAZDASÁGTUDOMÁNY EGYETEM Keresztmetszet másodrendű nyomatékainak meghatározása Segédlet a Szilárdságtan c tárgy házi feladatához Készítette: Lehotzky Dávid Budapest, 205 február 28 ábra
RészletesebbenNumerikus matematika vizsga
1. Az a = 2, t = 4, k = 3, k + = 2 számábrázolási jellemzők mellett hány pozitív, normalizált lebegőpontos szám ábrázolható? Adja meg a legnagyobb ábrázolható számot! Mi lesz a 0.8-hoz rendelt lebegőpontos
RészletesebbenMatematikai geodéziai számítások 6.
Matematikai geodéziai számítások 6. Lineáris regresszió számítás elektronikus távmérőkre Dr. Bácsatyai, László Matematikai geodéziai számítások 6.: Lineáris regresszió számítás elektronikus távmérőkre
RészletesebbenFolyadékszcintillációs spektroszkópia jegyz könyv
Folyadékszcintillációs spektroszkópia jegyz könyv Zsigmond Anna Julia Fizika MSc I. Mérés vezet je: Horváth Ákos Mérés dátuma: 2010. október 21. Leadás dátuma: 2010. november 8. 1 1. Bevezetés A mérés
RészletesebbenGPK M1 (BME) Interpoláció / 16
Interpoláció Matematika M1 gépészmérnököknek 2017. március 13. GPK M1 (BME) Interpoláció 2017 1 / 16 Az interpoláció alapfeladata - Példa Tegyük fel, hogy egy ipari termék - pl. autó - előzetes konstrukciójának
RészletesebbenMatematikai statisztika I. témakör: Valószínűségszámítási ismétlés
Matematikai statisztika I. témakör: Valószínűségszámítási ismétlés Elek Péter 1. Valószínűségi változók és eloszlások 1.1. Egyváltozós eset Ismétlés: valószínűség fogalma Valószínűségekre vonatkozó axiómák
RészletesebbenLINEÁRIS ALGEBRA. matematika alapszak. Euklideszi terek. SZTE Bolyai Intézet, őszi félév. Euklideszi terek LINEÁRIS ALGEBRA 1 / 40
LINEÁRIS ALGEBRA matematika alapszak SZTE Bolyai Intézet, 2016-17. őszi félév Euklideszi terek Euklideszi terek LINEÁRIS ALGEBRA 1 / 40 Euklideszi tér Emlékeztető: A standard belső szorzás és standard
RészletesebbenJanuary 16, ψ( r, t) ψ( r, t) = 1 (1) ( ψ ( r,
Közelítő módszerek January 16, 27 1 A variációs módszer A variációs módszer szintén egy analitikus közelítő módszer. Olyan esetekben alkalmazzuk mikor ismert az analitikus alak amelyben keressük a sajátfüggvényt,
RészletesebbenBiológiai rendszerek modellellenőrzése bayesi megközelítésben
Biológiai rendszerek modellellenőrzése bayesi megközelítésben Gál Tamás Zoltán Szoftver verifikáció és validáció kiselőadás, 2013. ősz Forrás: Sumit K. Jha et al.: A Bayesian Approach to Model Checking
RészletesebbenHipotézis STATISZTIKA. Kétmintás hipotézisek. Munkahipotézis (H a ) Tematika. Tudományos hipotézis. 1. Előadás. Hipotézisvizsgálatok
STATISZTIKA 1. Előadás Hipotézisvizsgálatok Tematika 1. Hipotézis vizsgálatok 2. t-próbák 3. Variancia-analízis 4. A variancia-analízis validálása, erőfüggvény 5. Korreláció számítás 6. Kétváltozós lineáris
RészletesebbenA L Hospital-szabály, elaszticitás, monotonitás, konvexitás
A L Hospital-szabály, elaszticitás, monotonitás, konvexitás 9. előadás Farkas István DE ATC Gazdaságelemzési és Statisztikai Tanszék A L Hospital-szabály, elaszticitás, monotonitás, konvexitás p. / A L
RészletesebbenHipotézis, sejtés STATISZTIKA. Kétmintás hipotézisek. Tudományos hipotézis. Munkahipotézis (H a ) Nullhipotézis (H 0 ) 11. Előadás
STATISZTIKA Hipotézis, sejtés 11. Előadás Hipotézisvizsgálatok, nem paraméteres próbák Tudományos hipotézis Nullhipotézis felállítása (H 0 ): Kétmintás hipotézisek Munkahipotézis (H a ) Nullhipotézis (H
RészletesebbenGyakorló feladatok a kétváltozós regresszióhoz 2. Nemlineáris regresszió
Gyakorló feladatok a kétváltozós regresszióhoz 2. Nemlineáris regresszió 1. A fizetés (Y, órabér dollárban) és iskolázottság (X, elvégzett iskolai év) közti kapcsolatot vizsgáljuk az Y t α + β X 2 t +
RészletesebbenA szimplex algoritmus
A szimplex algoritmus Ismétlés: reprezentációs tétel, az optimális megoldás és az extrém pontok kapcsolata Alapfogalmak: bázisok, bázismegoldások, megengedett bázismegoldások, degenerált bázismegoldás
RészletesebbenGauss-eliminációval, Cholesky felbontás, QR felbontás
Közelítő és szimbolikus számítások 4. gyakorlat Mátrix invertálás Gauss-eliminációval, Cholesky felbontás, QR felbontás Készítette: Gelle Kitti Csendes Tibor Somogyi Viktor London András Deák Gábor jegyzetei
RészletesebbenPontműveletek. Sergyán Szabolcs Óbudai Egyetem Neumann János Informatikai Kar február 20.
Pontműveletek Sergyán Szabolcs sergyan.szabolcs@nik.uni-obuda.hu Óbudai Egyetem Neumann János Informatikai Kar 2012. február 20. Sergyán (OE NIK) Pontműveletek 2012. február 20. 1 / 40 Felhasznált irodalom
RészletesebbenNagy számok törvényei Statisztikai mintavétel Várható érték becslése. Dr. Berta Miklós Fizika és Kémia Tanszék Széchenyi István Egyetem
agy számok törvényei Statisztikai mintavétel Várható érték becslése Dr. Berta Miklós Fizika és Kémia Tanszék Széchenyi István Egyetem A mérés mint statisztikai mintavétel A méréssel az eloszlásfüggvénnyel
Részletesebben3. Fuzzy aritmetika. Gépi intelligencia I. Fodor János NIMGI1MIEM BMF NIK IMRI
3. Fuzzy aritmetika Gépi intelligencia I. Fodor János BMF NIK IMRI NIMGI1MIEM Tartalomjegyzék I 1 Intervallum-aritmetika 2 Fuzzy intervallumok és fuzzy számok Fuzzy intervallumok LR fuzzy intervallumok
Részletesebben3. Lineáris differenciálegyenletek
3. Lineáris differenciálegyenletek A közönséges differenciálegyenletek két nagy csoportba oszthatók lineáris és nemlineáris egyenletek csoportjába. Ez a felbontás kicsit önkényesnek tűnhet, a megoldásra
RészletesebbenRelációk Függvények. A diákon megjelenő szövegek és képek csak a szerző (Kocsis Imre, DE MFK) engedélyével használhatók fel!
függvények RE 1 Relációk Függvények függvények RE 2 Definíció Ha A, B és ρ A B, akkor azt mondjuk, hogy ρ reláció A és B között, vagy azt, hogy ρ leképezés A-ból B-be. Ha speciálisan A=B, azaz ρ A A, akkor
RészletesebbenVektorok, mátrixok, lineáris egyenletrendszerek
a Matematika mérnököknek I. című tárgyhoz Vektorok, mátrixok, lineáris egyenletrendszerek Vektorok A rendezett valós számpárokat kétdimenziós valós vektoroknak nevezzük. Jelölésükre latin kisbetűket használunk.
Részletesebben3. Előadás. Megyesi László: Lineáris algebra, oldal. 3. előadás Lineáris egyenletrendszerek
3. Előadás Megyesi László: Lineáris algebra, 47. 50. oldal. Gondolkodnivalók Determinánsok 1. Gondolkodnivaló Determinánselméleti tételek segítségével határozzuk meg a következő n n-es determinánst: 1
RészletesebbenMatematikai alapok és valószínőségszámítás. Statisztikai becslés Statisztikák eloszlása
Matematikai alapok és valószínőségszámítás Statisztikai becslés Statisztikák eloszlása Mintavétel A statisztikában a cél, hogy az érdeklõdés tárgyát képezõ populáció bizonyos paramétereit a populációból
RészletesebbenFüggvények július 13. f(x) = 1 x+x 2 f() = 1 ()+() 2 f(f(x)) = 1 (1 x+x 2 )+(1 x+x 2 ) 2 Rendezés után kapjuk, hogy:
Függvények 015. július 1. 1. Feladat: Határozza meg a következ összetett függvényeket! f(x) = cos x + x g(x) = x f(g(x)) =? g(f(x)) =? Megoldás: Összetett függvény el állításához a küls függvényben a független
RészletesebbenKvadratikus alakok és euklideszi terek (előadásvázlat, október 5.) Maróti Miklós, Kátai-Urbán Kamilla
Kvadratikus alakok és euklideszi terek (előadásvázlat, 0. október 5.) Maróti Miklós, Kátai-Urbán Kamilla Az előadáshoz ajánlott jegyzet: Szabó László: Bevezetés a lineáris algebrába, Polygon Kiadó, Szeged,
RészletesebbenIrányításelmélet és technika II.
Irányításelmélet és technika II. Legkisebb négyzetek módszere Magyar Attila Pannon Egyetem Műszaki Informatikai Kar Villamosmérnöki és Információs Rendszerek Tanszék amagyar@almos.vein.hu 200 november
RészletesebbenNumerikus matematika. Irodalom: Stoyan Gisbert, Numerikus matematika mérnököknek és programozóknak, Typotex, Lebegőpontos számok
Numerikus matematika Irodalom: Stoyan Gisbert, Numerikus matematika mérnököknek és programozóknak, Typotex, 2007 Lebegőpontos számok Normák, kondíciószámok Lineáris egyenletrendszerek Legkisebb négyzetes
RészletesebbenODE SOLVER-ek használata a MATLAB-ban
ODE SOLVER-ek használata a MATLAB-ban Mi az az ODE? ordinary differential equation Milyen ODE megoldók vannak a MATLAB-ban? ode45, ode23, ode113, ode15s, ode23s, ode23t, ode23tb, stb. A részletes leírásuk
RészletesebbenAdatok statisztikai értékelésének főbb lehetőségei
Adatok statisztikai értékelésének főbb lehetőségei 1. a. Egy- vagy kétváltozós eset b. Többváltozós eset 2. a. Becslési problémák, hipotézis vizsgálat b. Mintázatelemzés 3. Szint: a. Egyedi b. Populáció
RészletesebbenFeladatok az 5. hétre. Eredményekkel és teljesen kidolgozott megoldásokkal az 1,2,3.(a),(b),(c), 6.(a) feladatokra
Feladatok az 5. hétre. Eredményekkel és teljesen kidolgozott megoldásokkal az 1,,3.(a),(b),(), 6.(a) feladatokra 1. Oldjuk meg a következő kezdeti érték feladatot: y 1 =, y(0) = 3, 1 x y (0) = 1. Ha egy
RészletesebbenTöbbváltozós lineáris regressziós modell feltételeinek tesztelése I.
Többváltozós lineáris regressziós modell feltételeinek tesztelése I. - A hibatagra vonatkozó feltételek tesztelése - Kvantitatív statisztikai módszerek Petrovics Petra Többváltozós lineáris regressziós
RészletesebbenLNM folytonos Az interpoláció Lagrange interpoláció. Lineáris algebra numerikus módszerei
Legkisebb négyzetek módszere, folytonos eset Folytonos eset Legyen f C[a, b]és h(x) = a 1 φ 1 (x) + a 2 φ 2 (x) +... + a n φ n (x). Ekkor tehát az n 2 F (a 1,..., a n ) = f a i φ i = = b a i=1 f (x) 2
Részletesebben[Biomatematika 2] Orvosi biometria
[Biomatematika 2] Orvosi biometria 2016.02.22. Valószínűségi változó Véletlentől függő számértékeket (értékek sokasága) felvevő változókat valószínűségi változóknak nevezzük(jelölés: ξ, η, x). (pl. x =
RészletesebbenEgyenletek, egyenlőtlenségek VII.
Egyenletek, egyenlőtlenségek VII. Magasabbfokú egyenletek: A 3, vagy annál nagyobb fokú egyenleteket magasabb fokú egyenleteknek nevezzük. Megjegyzés: Egy n - ed fokú egyenletnek legfeljebb n darab valós
RészletesebbenMatematikai geodéziai számítások 10.
Matematikai geodéziai számítások 10. Hibaellipszis, talpponti görbe és közepes ponthiba Dr. Bácsatyai, László Matematikai geodéziai számítások 10.: Hibaellipszis, talpponti görbe és Dr. Bácsatyai, László
RészletesebbenAz idegrendszeri memória modelljei
Az idegrendszeri memória modelljei A memória típusai Rövidtávú Working memory - az aktuális feladat Vizuális, auditórikus,... Prefrontális cortex, szenzorikus területek Kapacitás: 7 +-2 minta Hosszútávú
RészletesebbenMatematikai geodéziai számítások 6.
Nyugat-magyarországi Egyetem Geoinformatikai Kara Dr. Bácsatyai László Matematikai geodéziai számítások 6. MGS6 modul Lineáris regresszió számítás elektronikus távmérőkre SZÉKESFEHÉRVÁR 2010 Jelen szellemi
Részletesebben