Funkcionális konnektivitás vizsgálata fmri-adatok alapján Bányai Mihály banyai.mihaly@wigner.mta.hu http://golab.wigner.mta.hu/people/mihaly-banyai!! Neuroinformatika 2014.
Képalkotási technikák 4 3 EEG & MEG TMS fmri PET Lesions Log Resol ution (mm) Brain Column Lamina Neuron Dendrite Synapse 2 1 0-1 -2-3 -4 Optical Imaging Mikrolesions Multi-unit Single cell Patch clamp -3-2 -1 0 1 2 3 4 5 6 7 8 millisecundum sec min hour day year Log time (sec)
Az aktivitás lokalizációján túl Interakció az aktív területek között! Funkcionális részhálózatok! Még mindig adatelemzés, nem funkcióvezérelt (algoritmikus) modellezés
Konnektivitási mértékek " Funkcionális konnektivitás Korreláció a voxelek között Rengeteg adat, muszáj szűrni valahogy Irányítatlan vagy irányított mérték (pl. feltételes kölcsönös információ) " Effektív konnektivitás Regions of interest (ROI): kiválasztásuk anatómiai vagy funkcionális úton történik Modellt használunk az összeköttetési erősséget becslésére
Uncertainty Observations tend to be noisy! Some physical quantities vary! A single measure: variance! Not always enough: multimodal observations! Histograms
Probability A consistent way to handle uncertainty! Interpretations! frequency of an outcome! level of ignorance of an observer! The probability of getting either outcome A or B is p(a)+p(b), if they are mutually exclusive! The probabilities of all mutually exclusive outcomes sum up to 1! The probability of observing certain outcomes of two independent events is p(a)p(b)
Conditional probability p(a B) = p(a, B) p(b) What is the probability of A if we know that B happened?! Bayes theorem for inverting conditionals p(a B) = p(b A)p(A) p(b)
Probability distributions Random variables! Discrete! how probable are certain values! uniform, multinomial! Continuous! how probable is that a value falls into an interval! uniform, Gaussian, lognormal
Joint and marginal distributions p(x, y) Handling two or more variables together! Integrating out variables from a joint distribution p(x) = Z 1 1 p(x, y)dy
A probabilistic model The likelihood describes how likely is that the data was generated from a parameter setting, incorporates the functional form of the model! The prior encodes our preliminary knowledge about the parameters! Hidden variables make explicit assumptions about causes or covariants we do not observe Posterior Likelihood Prior p( D, M) = p(d,m)p( M) p(d M) Evidence or marginal likelihood
Graphical models Directed, undirected or bipartite graphs! Independence relations between variables! General algorithms exist for inference and learning
How to choose distributions? To fit observations, if possible! Computational tractability! Gaussian is often preferred! choose form of prior to combine with likelihood yielding the same form: conjugate prior! To minimize bias (max. entropy)! Avoidable (somewhat)! nonparametric models! Hierarchical models - still have to choose later
No free lunch We can t find a method that fits any dataset arbitrarily well! To achieve good fit (and to make sense) knowledge about the problem has to be incorporated! With hierarchical models, at some point you have to have a fixed distribution or a point estimate of a parameter
Generation We can create synthetic data from a probability model! It will be distributed according to the marginal distribution of the visible variables! Ancestral sampling! we first generate random values for the hidden variables! then apply the stochastic rule of the model to generate the visibles
Inference p(x,y) Distribution of the hidden variables given the observations and the parameters! Inferring the hidden causes that produced the data
Learning p( y) Distribution of the parameters given the observations! Fitting the model to data! Involves inferring the hidden variables, and then integrating them out
Prediction p(y t+1,y 1...t ) Distribution of future observables given past ones (and maybe some part of the future ones too)
Testing hypotheses Frequentist tests! what does it mean that p < 0.05 for a t- test?! Bayesian inference! posterior probability of everything! assumptions are more explicit! we can formulate the probability of a hypothesis being true or make predictions! calculations are more complicated
Iterative estimation We often cannot infer hidden variables in one step! Iterative schemes make step-by-step improvements to approximate true posteriors! Natural systems might implement such schemes
Konnektivitási modellek becslése Rejtett változós modellek Statisztikai tanulás Modellkiválasztás Dynamic Causal Modelling N ẋ= A u B j x Cu i=1 j y= x, h
Paraméterbecslés posterior likelihood prior p y, M = p y, M p M p y M ={A, B, C, h } evidence M egy konkrét modell összekötöttségi mintája A priorban állítjuk be, hogy melyik kapcsolatokat engedjük meg Minden eloszlás formája Gauss A poszteriort EM-algoritmus segítségével közelítjük
A modellek valószínűségi eloszlása p r = 1 Z k m p m n r = r nk k k p y n m nk = p y p m nk d r k k 1 Alpha-1 az egyes modellek előfordulása a populációban Az alphák egyre normálva megadják az egyes modellek poszterior eloszlásának várható értékét A hierarchikus modellt variational (EM-szerű) módon lehet invertálni Csak a log-evidence becslésére van szükség
Egy példa - skizofrénia Több tünetegyüttes gyűjtőneve Hallucinációk, tévképzetek, memóriaproblémák A biológiai háttér jórészt ismeretlen Egy lehetséges elmélet: szétkapcsoltsági hipotézis A memóriaformáció tudatos irányítása sérül bizonyos agyterületek közötti elégtelen kommunikáció miatt
A kísérlet Hely-objektum asszociáció tanulása Tanulási és visszakérdezési sorozatok egymás után Skizofrén és kontroll csoport 24
A modelltér definíciója Összekötöttség Anatómiai és funkcionális adatok alapján Bemenetek a kísérleti körülmények alapján Vizsgált modellhalmazok A kontroll áramlás kapcsolatainak kombinációi A bemenetek hatásainak kombinációi 25
Eredmények
Human Connectome Project Rengeteg nyilvános adat! Strukturális és funkcionális mérések! Taskok és resting state! Feldolgozott adatsorok