7. Előadás tartalma Lineáris szűrők: Klasszikus szűrők súly és átviteli üggvénye Gibbs jelenség Inverz probléma dekonvolúció: Inverz probléma ormális elírása Dekonvolúció nehézsége Közismert algoritmusok: Wiener inverz szűrés, RLA/ ML-EM, MAP becslés, és ezek kapcsolataik
Szűrők idő és rekvencia tartományban Ampl. spektrum Időbeli jel
Ideális szűrők Amplitúdó éles vágásánál Gibbs jelenség:
Gibbs gyűrű eektus Gibbs jelenség elkerülhető sima átmenetű szűrőkkel: Butterworth szűrő: adott sávkorlát mellett a legsimább ampl. spektrumú lineáris szűrő Gauss szűrő: alkalmazásával nincs Gibbs arteekt
Gibbs gyűrű eektus
Inverz probléma Megigyelési modell (zajos LTI): h-t (avagy a PSF-t) mi beolyásolhatja? Páciens bemozdulása a elvételek készítése alatt Out-o-ocus elrendezés Szóródó otonok képek rögzítése során Jelen előadás során, g és R : R a vizsgált 3D objektum projekciója Alapötlet direkt módszer: Dekonvolúció rekvenciatérben: F g h G / H u u
Inverz probléma statisztikai Cél megbecsülni interpretációja -et: Maximum likelihood módszer: ML P arg maxpg Gyakorlatban majdnem mindig P g P g h és az arg min log P g -t szoktuk keresni ML Maximum a posterior (MAP) becslés: arg max arg max MAP P g P g P Gyakorlatban ezeket a szélsőérték keresési problémákat is negatív logaritmálás után oldjuk meg.
Direkt dekonvolúció zajérzékenysége Problémák a direkt módszerrel: PSF-et nem ismerjük pontosan H H F G / H F H / H N / H F a PSF általában alul-áteresztő jellegű magas rekvenciákon N. / H dominál (~0-val osztás) a: elmosott kép b: direkt dekonvolúció eredménye, ha nincs additív zaj c: eredmény ha van additív zaj
Csonkolt dekonvolúció Azon rekvenciákon, melyeken az MTF alacsony 0 legyen az eredmény F u G. / H u u Hu 0 egyébként Direkt dekonvolúció eredménye Csonkolt dekonvolúció eredménye
Wiener inverz-szűrés Várható értékben legpontosabb szűrő: W iener W iener F H G u u u Wiener arg min E Wiener valódi A matematikai levezetést hanyagolva: H Winer u Interpretáció: H Winer u H u E E H N F u u u 1/ H SNR 1 u u 0 SNR 1 u SNR u H u E E F u N u
Wiener inverz szűrés Az eredmény ( Wiener ) gyakran nem realisztikus: Negatív intenzitások is előordulnak (negatív luxus?) Nagyrekvencián a hirtelen romló SNR Gibbs arteektet generál SNR gyakran nem mérhető ki Wiener szűrés eredménye: jobb részletgazdagság, de a gyűrűk egy része megmaradt
Eljárások illusztrálása -0-
Eljárások illusztrálása -1- Csonkolt dekonvolúció Wiener inverz szűrés
Kényszermentes ML becslés 1 Additív Gauss zaj esete ( 0,W ): Ha rendszer torzításának mátrixa, tehát: h H Minimalizáljuk a negatív log likelihood üggvényt: T L g H W g H Mivel pozitív szemideinit, ezért L konvex. Tehát L ML 0 kényszer deiniálja az optimum helyet T T H W H H W g ún. súlyozott LS becslés T arg max K exp g H W g H ML ML H ' T W H 1
Kényszermentes ML becslés példa Stacionárius, 0 várható értékű Gauss megigyelési zaj esete : Cov g I, tehát W I ML Vizsgáljuk meg T 1 T T 1 T H W H H W g H H H g ML spektrumát: H G H G G u u u u u FML G H u u H H u u H Hu u Konzekvencia: ML eljárással nem lehet a rosszul kondícionált inverz problémát megoldani.
ML becslés pozitivitási kényszerrel Nem negativitási kényszer: R Jó esetben konvex optimalizálási probléma: P g - log max. s.t. 0 min. s.t. Konvex a probléma, ha log-konkáv. Nem adható rá analitikus megoldás Milyen eloszlású lehet valójában az additív zaj: Poisson: otonok inherens zaja Gauss: termikus zaj Uniorm: kvantálási zaj (A/D átalakítás) Pr g Lg 0
Richardson Lucy algoritmus (+) Interpretáljuk a képpontok intenzitását otonok becsapódási valószínűségeivel: P i : P( egy otonon a detektor i-edik érzékelőelemébe csapódik, ha nincs zaj és torzítás ) P gk : P( egy otonon a detektor k-adik érzékelőelemébe csapódott a megigyelt kép rögzítése során ) P g k i : P( ideális esetben az i-edik érzékelőelembe csapódó oton a k-adik érzékelőelembe csapódik bele a képalkotó LTI rendszer torzítása miatt )
Richardson Lucy algoritmus Lényegében egy Bayes-i becslés: Bayes szabály: P i g k j P g P k i i Pg P k j j Dekomponálás: Tehát: P i P P g P g i i k k P k j k g P g i Pg P k j j P k i k
Richardson Lucy algoritmus Bevett gyakorlat: iteráljunk a célváltozó elett: P 1 P g P g k i k g P k j r j P Oldjuk el a valószínűségi értelmezést: P T T 1 ; P g i i g g 1 i i P g k i h i k T T T T..h h 1 1; h 0 ezekből következik: g 1 1 P r i r i k j
Richardson Lucy algoritmus (+) T P 1 i i : dekonvolvált kép i-edik pixelének normált intenzitása T P g g g 1 i i : képalkotó rendszer (LTI + zaj) által torzított kép i-edik pixelének relatív intenzitása P g h : csak az LTI rendszerrel leírható torzítást k modellezzük i k i h 11 T : minden olyan oton, mely a torzítatlan rendszer esetén a detektorba csapódna be a torzított rendszer esetén is a detektorba csapódik be (maximum más érzékelőelembe) Végig monokróm spektrumú otonokat eltételezve a detektált intenzitás (luxus) egyenesen arányos a becsapódó otonok számával
Richardson Lucy algoritmus Végezzük el a behelyettesítést: h g h g r k k j j r r 1 k i k r k i k r i i i h k h j k 0 Érdemes észrevenni, hogy ha 0, akkor r minden iterációban 0, tehát teljesül a nemnegativitási kényszer Eljárás konvergenciája bizonyítható. Ekvivalens a pozitivitási kényszeres ML becsléssel, Poisson zaj modell esetén.
Eljárások illusztrálása --
ML becslések összegzése Jelentősen elerősítik a zajt: A probléma rosszul kondícionált jellegét nem képesek megelelően kezelni. Kivétel az iteratív algoritmusok köre, ha elegendően sima, és konvergencia előtt leállunk! Explicit regularizáció szükséges: 0 Deiniáljuk a-priori eloszlását, és azt rögzítsük a minimalizálandó célüggvényünkben Megj.: RLA-nál szerepelt prior, de annak más a szerepe, értelmezése 0
MAP becslések Bayes becsléselmélet: max. g g P P P Másképpen : min. log P g ML prior K ML log P g : bünteti a mérések és a zaj nélkül becsült, torzított kép eltérését: g g g h log P prior : meghatározza, hogy milyen dekonvolvált képet preerálunk (pl. zajmentesség, pozitivitás, simaság, stb.). Analitikai értelmezés: regularizált becslés
MAP becslés példa stacionárius Gauss zaj, rekvenciatérbeli prior Prior rekvenciatartományban: Gauss, stacionárius zaj: 1 g H j 1 Parseval tétel szerint: ML F G H F u u u N u 1 F G H F W F N u u opt Mivel konvex, ezért F, tehát: Összegezve: F W F prior u u u ML j j u u u u u 0 F opt u u H u G u H N W u
MAP becslés példa stacionárius Gauss zaj, simasági prior W E N E F N esetén: F opt u Tehát a Wiener dekonvolúció is egy MAP becslés gyakorlatban nem határozható meg E Gyakran ehér zaj, és u u u N E F u u H G u u E E H N F u u u u értéke szabályozza, hogy mennyire domináljon a prior (magas rekvenciás komponensekért mennyire büntetünk). u W 1 E F u
Eljárások illusztrálása -3-
Ismertetett módszerek csoportosítása ML becslés: - Csak a megigyelési zaj osztályát ismerjük - Zajérzékenység jelentős probléma, csak a konzisztenciára igyel Példák: - Direkt dekonvolúció (additív Gauss zajos ML becslés) - Richardson Lucy (additív Poisson zajos, pozitivitási kényszeres ML becslés) MAP becslés: - Explicit módon deiniáljuk, hogy milyen jellegű képet akarunk - Ha jól regularizálunk, akkor a zajérzékenység redukálódik, de az eredmény kevésbé konzisztens Példák: - Csonkolt dekonvolúció - Wiener dekonvolúció (additív Gaussz zaj + rekvencia üggő energia minimalizáció) - Egyéb, regularizált dekonvolúciók
MAP és ML becslés összehasonlítása Stabilitás: MAP-nál a regularizáció célja ennek kikényszerítése (pl. sima, kevésbé zajos, stb. dekonvolvált kép előállítása) ML becslésnél ez legeljebb impliciten kényszeríthető ki (pl. iteratív becsléseknél konvergencia előtti leállás). Becslés inkonzisztenciája ( g h ): Likelihood tag minimalizálásával redukálható ML becsléseknél ennek az értéke kisebb ez viszont a zajos input képhez ( g) a becsült torzítatlan kép túlilleszkedést vonja maga után (rosszabb képminőség)