Blind Source Separation. Kiváltott agyi jelek informatikai feldolgozása

Hasonló dokumentumok
Blind Source Separation. Kiváltott agyi jelek informatikai feldolgozása

Principal Component Analysis

Szinguláris érték felbontás Singular Value Decomposition

Sajátértékek és sajátvektorok. mf1n1a06- mf1n2a06 Csabai István

Adatelemzési eljárások az idegrendszer kutatásban Somogyvári Zoltán

Saj at ert ek-probl em ak febru ar 22.

Mátrixok 2017 Mátrixok

Saj at ert ek-probl em ak febru ar 26.

A maximum likelihood becslésről

Vektorok, mátrixok, lineáris egyenletrendszerek

Az agyi jelek adaptív feldolgozása MENTÁ LIS FÁ R A DT S ÁG MÉRÉSE

Bevezetés az állapottér-elméletbe Dinamikus rendszerek állapottér reprezentációi

[Biomatematika 2] Orvosi biometria

3. előadás Stabilitás

Miért fontos számunkra az előző gyakorlaton tárgyalt lineáris algebrai ismeretek

Gyakorló többnyire régebbi zh feladatok. Intelligens orvosi műszerek október 2.

Strukturált Generátorrendszerek Online Tanulása és Alk-ai

Least Squares becslés

Bevezetés az állapottér elméletbe: Állapottér reprezentációk

1.1. Vektorok és operátorok mátrix formában

Norma Determináns, inverz Kondíciószám Direkt és inverz hibák Lin. egyenletrendszerek A Gauss-módszer. Lineáris algebra numerikus módszerei

Tartalom. Állapottér reprezentációk tulajdonságai stabilitás irányíthatóság megfigyelhetőség minimalitás

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

A KroneckerCapelli-tételb l következik, hogy egy Bx = 0 homogén lineáris egyenletrendszernek

Robotok inverz geometriája

Gauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei

Problémás regressziók

Kvadratikus alakok és euklideszi terek (előadásvázlat, október 5.) Maróti Miklós, Kátai-Urbán Kamilla

Mérnökgeodéziai hálózatok feldolgozása

Matematika (mesterképzés)

Regressziós vizsgálatok

Lineáris algebra Gyakorló feladatok

Diverzifikáció Markowitz-modell MAD modell CAPM modell 2017/ Szegedi Tudományegyetem Informatikai Intézet

Szinguláris értékek. Wettl Ferenc április 3. Wettl Ferenc Szinguláris értékek április 3. 1 / 28

Biomatematika 12. Szent István Egyetem Állatorvos-tudományi Kar. Fodor János

BIOMATEMATIKA ELŐADÁS

Numerikus módszerek II. zárthelyi dolgozat, megoldások, 2014/15. I. félév, A. csoport. x 2. c = 3 5, s = 4

Geofizikai kutatómódszerek I.

[Biomatematika 2] Orvosi biometria

Funkcionális konnektivitás vizsgálata fmri adatok alapján

5. előadás - Regressziószámítás

Lineáris algebra (10A103)

KOMPOZITLEMEZ ORTOTRÓP

A szimplex algoritmus

Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )

3. Lineáris differenciálegyenletek

Matematikai geodéziai számítások 6.

10. Előadás. Megyesi László: Lineáris algebra, oldal. 10. előadás Sajátérték, Kvadaratikus alak

IBNR számítási módszerek áttekintése

Számítógépvezérelt irányítás és szabályozás elmélete (Bevezetés a rendszer- és irányításelméletbe, Computer Controlled Systems) 8.

Kettőnél több csoport vizsgálata. Makara B. Gábor

Vektorterek. =a gyakorlatokon megoldásra ajánlott

Diszkrét matematika I., 12. előadás Dr. Takách Géza NyME FMK Informatikai Intézet takach november 30.

Mátrixfüggvények. Wettl Ferenc április 28. Wettl Ferenc Mátrixfüggvények április / 22

Tartalom. 1. Állapotegyenletek megoldása 2. Állapot visszacsatolás (pólusallokáció)

Képrekonstrukció 3. előadás

Jelek és rendszerek 1. 10/9/2011 Dr. Buchman Attila Informatikai Rendszerek és Hálózatok Tanszék

Nem-paraméteres predikció, Lasso közelítés

Szalai Péter. April 17, Szalai Péter April 17, / 36

(Independence, dependence, random variables)

Bevezetés az algebrába 2

Adatok statisztikai értékelésének főbb lehetőségei

Jelfeldolgozás. Gyakorlat: A tantermi gyakorlatokon való részvétel kötelező! Kollokvium: csak gyakorlati jeggyel!

Matematikai geodéziai számítások 6.

Optimális mérési elrendezés hidraulikus hálózatokon

Gépi tanulás a gyakorlatban. Lineáris regresszió

Gauss-eliminációval, Cholesky felbontás, QR felbontás

HORVÁTH ZSÓFIA 1. Beadandó feladat (HOZSAAI.ELTE) ápr 7. 8-as csoport

Irányításelmélet és technika II.

Szinguláris értékek. Wettl Ferenc április 12. Wettl Ferenc Szinguláris értékek április / 35

Numerikus módszerek I. zárthelyi dolgozat (2017/18. I., A. csoport) Megoldások

1. Diagonalizálás. A Hom(V) diagonalizálható, ha van olyan bázis, amelyben A mátrixa diagonális. A diagonalizálható van sajátvektorokból álló bázis.

Irányításelmélet és technika II.

1. Példa. A gamma függvény és a Fubini-tétel.

Számítógépvezérelt irányítás és szabályozás elmélete (Bevezetés a rendszer- és irányításelméletbe, Computer Controlled Systems) 7.

Alkalmazott algebra - SVD

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Dinamikus modellek szerkezete, SDG modellek

12. előadás. Egyenletrendszerek, mátrixok. Dr. Szörényi Miklós, Dr. Kallós Gábor

Hurokegyenlet alakja, ha az áram irányával megegyező feszültségeséseket tekintjük pozitívnak:

Wavelet transzformáció

PONTFELHŐ REGISZTRÁCIÓ

Függvények növekedési korlátainak jellemzése

1. Adatok kiértékelése. 2. A feltételek megvizsgálása. 3. A hipotézis megfogalmazása

1. Bázistranszformáció

y ij = µ + α i + e ij STATISZTIKA Sir Ronald Aylmer Fisher Példa Elmélet A variancia-analízis alkalmazásának feltételei Lineáris modell

Korreláció számítás az SPSSben

4. Lokalizáció Magyar Attila

Matematikai geodéziai számítások 5.

Gyakorló feladatok. Agbeko Kwami Nutefe és Nagy Noémi

5. elıadás március 22. Portfólió-optimalizálás

Általánosan, bármilyen mérés annyit jelent, mint meghatározni, hányszor van meg

Az fmri alapjai Statisztikai analízis II. Dr. Kincses Tamás Szegedi Tudományegyetem Neurológiai Klinika

Megkülönböztetett kiszolgáló routerek az

Gauss-Seidel iteráció

1. Mátrixösszeadás és skalárral szorzás

Lineáris algebra. (közgazdászoknak)

1. zárthelyi,

Akusztikai tervezés a geometriai akusztika módszereivel

EEG mérések hardveres és szoftveres validációja

Átírás:

Blind Source Separation Kiváltott agyi jelek informatikai feldolgozása 1

Bevezetés Az EEG jelek elemzése során egyik fő nehézség a különböző források szuperponálásából kapott többcsatornás jelből az egyes források megállapítása Neuronális források, Artefact-ek BSS Kevert jelből bizonyos tulajdonságok alapján eltérő források elkülönítése Statisztikai függetlenség, Ritka jelek, Időben, frekvenciában, vagy idő-frekvencia térben való elkülönülés, Időbeli megjósolhatóság, Simaság. 2

BSS Modell 3

Lineáris modell A legtöbb lineáris BSS modell mátrix faktorizációként írható le Egy mátrix több mátrix szorzataként való felírása (dekompozíció). Legyen X a megfigyelési mátrixunk (a mért EEG többcsatornás jel): X = HS + V X = x 1, x 2,, x N szenzor jelek S = s 1, s 2,, s N ismeretlen források V = v 1, v 2,, v N ismeretlen zaj Y = WX Y = y 1, y 2,, y N ismeretlen források 4

BSS változók Változó Leírás Mátrix dimenziója S Ismeretlen forrás n x N X Megfigyelés(szenzor jelek) m x N (m >= n) Y Becsült források vagy független komponensek n x N H Ismeretlen keverési (mixing) mátrix m x m or n x m W Szétválasztó mátrix (demixing) m x n or n x n G=WH Globális (mixing-demixing) mátrix m x n or n x n Abban az esetben, ha n > m, a W mátrix nem szükségszerűen létezik. Ilyenkor cél a H meghatározása, ezután pedig valamilyen a priori tudás alapján (ritka, nem-negatív, sima, korrelálatlanság, statisztikai függetlenség) a források meghatározása. 5

Források-szenzorok száma Az esetek döntő többségében a források száma nem ismert. Attól függően, hogy a források száma és a mért jelek száma hogyan aránylik egymáshoz, a következő esetek lehetségesek: A teljesen meghatározott esetben a források száma megegyezik a mért jelek számával. A túlhatározott esetben a keverékek száma több, mint a forrásoké. Az alulhatározott esetben a források száma több, mint a keverékeké. Ilyenkor a fenti BSS sémák önmagukban nem alkalmazhatók. A problémán segíthet a ritka jelek előfordulása. 6

ICA Independent Component Analysis Az ICA feladata a mért jelekből megállapítani, hogy azokat milyen források generálták. Az egyes forrásokról feltesszük, hogy azok függetlenek egymástól. A függetlenség mértékét könnyen leírhatjuk komponensek függetlenségével: Tekintsük az x(n) többcsatornás jelet, és annak x i (n) komponenseit. A komponensek függetlenek, ha p X p n m = p x x i n, i=1 ahol p(y) az együttes eloszlása a p y x i n marginális eloszlásoknak, m a független komponensek száma. 7

Késleltetés A korábbi egyenlet a BSS legalapvetőbb eljárása, amikor a forrásaink terjedési sebessége nem befolyásolja a mért jelet, valamint egy úton terjednek, visszaverődés nélkül. Abban az esetben, amikor az egyes források és az elektródák között késleltetés lép fel, konvolúciós modellről beszélhetünk. Megkülönböztetünk visszhangos és visszhang nélküli esetet. Az visszhang nélküli esetben a probléma a következőképpen módosul: m x i n = h ij s j n δ ij j=1 + v i n, i = 1,..., n e h ij és δ ij a j. forrás és az i. szenzor közötti csillapítás, illetve késleltetés. A szétválasztó folyamat ebben az esetben: n e y i m = w jix i m δ ji, j = 1,..., m 8 j=1

Visszhang Visszhangos esetben a fenti egyenlet a következő formájú lesz: m x i n = K j=1 k=1 h k ij s j n δ k ij + v i n, i = 1,..., n e A BSS feladata a W mátrix meghatározása a Y=WX formulában úgy, hogy az Y becsült források minél jobban közelítsék az eredeti S forrásokat. 9

W meghatározása A rendszer akkor valósít meg sikeres blind source separation-t, ha a G=WH globális mátrix permutációs mátrix: Négyzetes mátrix, aminek minden sorában és oszlopában pontosan egy helyen van 1-es, mindenhol máshol 0-s. Statisztikailag független források esetén ez azt jelenti, hogy a kovariancia mátrix R f y k = E f y k y T k diagonális mátrix. f y egy a források eloszlásától függő nem-lineáris transzformáció. A legtöbb ICA a következő adaptív eljárást alkalmazza a W meghatározására: W k = W k + 1 W k = μ k I R f y W k ahol μ k a tanulási tényező. 10

Zajos jelek Általános esetben a szenzoros jelek zajjal terheltek Interferencia, zaj Külön szenzorral (elektródával) mérhetünk referencia zajt (jelet), amelyet felhasználva azt kiszűrhetjük a többi mért jelből 11

BSS alapvető elvek, megközelítések Számos BSS eljárás van, amelyek különböző kritériumok szerint eltérnek Jelek reprezentációja Időbeli, Frekvenciabeli, Idő-frekvenciabeli Jelek statisztikai jellege Ritka (Sparse Component Analysis, SCA) Független (Independent Component Analysis, ICA) Simaság (Smooth Component Analysis, SmoCA) Nem-negatív értékek (nonnegative matrix factorization, NMF) Ezek kombinációja is lehetséges 12

Frekvenciában ritka tulajdonsággal rendelkező jel 13

Idő-frekvencia térben ritka jel 14

BSS alapvető elvek, megközelítések Ezek a BSS eljárások a felügyelet-nélküli tanuló eljárások osztályába tartoznak Cél: adathalmazok struktúrájának feltárása ICA: statisztikailag független komponensek feltárása PCA (principal component analysis): az adathalmaz minél alacsonyabb dimenzióban való leírása SCA: valamilyen térben ritka komponensek feltárása Az eljárások tiszta matematikai modellek és algoritmusok A kapott adatok értelmezéséről nem mondanak semmit A felhasználó feladata értelmezni azokat, és a saját tudása alapján a megfelelő eljárást kiválasztani 15

Többdimenziós jelek szűrése, rekonstrukciója (deflation) BSS végrehajtása után megtehetjük, hogy újra összerakjuk a jelet úgy, hogy egyes komponenseket kihagyunk/módosítunk Artefact-ek kiszűrése Zaj eliminálása Csupán adott források megtartása Lépések: Komponensek meghatározása Y = WX Komponensek eliminálása és a megfigyelésekbe (szenzor jelekbe) történő visszatöltése X r = W + Y r W + = H estim a keverési mátrix pszeudo inverze, Y r pedig a megfelelő komponensek eliminálása (pl. kinullázás) után kapott források jelei 16

Defláció megoldási lehetőségek (a) Szakértői döntés hard switch (b) Külső nemlineáris adaptív szűrők alkalmazása a komponensek szűrésére és a hard switch-ekhez (c) Alternatív puha döntés (soft decision) nemlineáris transzformációval 17

Lehetséges párhuzamos Deflation megvalósítás 18

BSS eljárások: AMUSE és SOBI 19

Algorithm for Multiple Unknown Signals Extraction AMUSE Időben eltolt korrelációs mátrixok alkalmazása Az AMUSE feltevései: A keverő A mátrix teljes rangú A komponensek térben dekorreláltak és alacsonyabb komplexitásúak A jelek időben korrelált sztohasztikus jelek nulla átlagértékkel A komponenseket sorba rendezi az időben eltolt kovariancia mátrixuk sajátértékei szerint Minden futásra ugyanazt az eredményt adja Két egymás utáni PCA eljárásként tekinthető Bemenő adatok fehérítése PCA elvégzése az előző fázis kimenetének idő-késleltetett kovariancia mátrixán 20

AMUSE Első lépés: kovariancia mátrix kiszámítása 0 időeltolással R X = E x t x T t = R x 0 = 1 N x k xt k Második lépés: sajátérték-sajátvektor felbontás (SVD, singular value decomposition) R X 0 = UΣV T = V x Λ x V x T = V s Λ s V s T + V N Λ N V N T ahol Σ diagonális mátrix a sajátérékekkel, V pedig a sajátvektorok mátrixa Fehérítsünk 12 z k = Λ s V T s x k = Qx k Becsüljük meg a kovariancia mátrixot egy 0-tól eltérő p időeltolásra N R z p = 1 N k=1 z k z T k p = U z Σ z V z T A szétválasztó mátrix becslése: 1 W = H 1 = U T Q = V s Λ 2 s U z H = Q T U y k = sƹ k = U T z z k 21

Second-order Blind Identification (SOBI) Az AMUSE-al ellentétben, amely SVD-t alkalmaz diagonizálásra, a SOBI joint diagonalization eljárást használ Több mátrix egyszerre diagonizálása Eljárások: Jacobi mátrix diagonizálás, Alternating Least Squares, Parallel Factor Analysis Kovarianciamátrixokat állítunk elő több időeltolással és ezeket egyszerre diagonizáljuk R z p i = 1 N z k zt k p = QR z p i Q T Joint approximate diagonalization (JAD) technika alkalmazása az R z p i mátrixokon T R z p i = UD i U 22

Alzheimer-kór korai felismerése BSS alkalmazásával 23

Alzheimer-kór Az Alzheimer-kór gyógyszeres kezelése korai stádiumban hatékony, ám ennek diagnózisa nehéz Kutatások kimutatták, hogy a kórnak van korai tüneti időszaka, amely évekig tart, neuronális tüneteket produkál, ám a klinikai tünetek nem, vagy csak kis mértékben megfigyelhetőek Általános tünet, hogy az EEG-ben mért energia a mélyebb frekvenciák felé tolódik el Alkalmas mérés lehet az EEG jelek vizsgálata 24

Eredmények Az AMUSE után az első 5-7 komponenst használták a kimenetek újra előállításához EEG frekvencia-sávok szerint szűrték az EEG jelet (egyszerűség kedvéért minden mért sávonkénti energiát minden elektródára átlagolták). Kék: AD betegek Piros: korai stádiumú AD Zöld: egészséges kontroll populáció 25

ҧ ҧ ҧ Állapot-tér modell A korábbi modellek lineáris viselkedést írtak le minden fajta késleltetés vagy dinamizmus nélkül Ám előfordulhat olyan, hogy ezeket is figyelembe kell venni: Állapot-tér modell Bevezetünk egy változót, amely a modell állapotát írja le. Ekkor a keverést végző modell: ξ k + 1 = Aξҧ k + തBs k + ഥNv p k x k = Cξҧ k + ഥDs k + v k A szétválasztást végző modell: ξ k + 1 = Aξ k + Bx k + Lv R k x k = Cξ k + Dx k 26

Állapot-tér modell blokk-diagramm Lineáris dinamikus állapot-tér modell. Egy tanuló algoritmus valósítja meg az A,B,C,D,L mátrixok számítását. 27

Állapot-tér modell változói Ha az A, B és L mátrixok nullák, akkor a probléma visszaegyszerűsödik a pillanatnyi (instantaneous) BSS eljárásra Az A,B,C,D,L mátrixokat az x(k) értékei alapján becsüljük meg. Figyelembe vehetünk valamilyen a priori tudást is. A változókat két osztályba sorolhatjuk Belső ξ(k), amely a rendszer dinamikájáért felelős Aktuális állapotbeli ismerete megadja a múltbéli viselkedést leíró információt, amely a jövőbeli viselkedés becsléséhez szükséges Külső x(k), y(k), amelyek bemenetet és a kimenetet reprezentálják Hasonló módon a paraméterek is lehetnek Belső A, B, L Külső C, D 28

Állapot-tér meghatározása A változók és paraméterek szétválasztása segít azok meghatározásában Első lépés: a belső paraméterek (A,B) meghatározása Különböző kritériumok lehetségesek: ritkaság, alacsony dimenzió Második lépés: a belső paraméterek fixen tartásával a külső paraméterek (C,D) meghatározása Történhet ICA vagy egyéb BSS eljárással 29