Monte-Carlo alapú multi-pinhole SPECT képrekonstrukciós eljárás kidolgozása és vizsgálata

Hasonló dokumentumok
Rekonstrukciós eljárások. Orvosi képdiagnosztika 2017 ősz

Compton-effektus. Zsigmond Anna. jegyzıkönyv. Fizika BSc III.

Képrekonstrukció 3. előadás

Izotópok. Izotópok. diagnosztikai alkalmazásai. diagnosztikai alkalmazásai. Képalkotó eljárásokkal nyerhető információ

A maximum likelihood becslésről

minipet labor Klinikai PET-CT

Magspektroszkópiai gyakorlatok

Gauss-Seidel iteráció

Folyadékszcintillációs spektroszkópia jegyz könyv

Konjugált gradiens módszer

E(L)JÖVENDŐ. IKT kutatási eredmények a gazdaság és a társadalom szolgálatában. 1 Intelligens környezet és e-technológiák

PET gyakorlati problémák. PET rekonstrukció

Nagyságrendek. Kiegészítő anyag az Algoritmuselmélet tárgyhoz. Friedl Katalin BME SZIT február 1.

Abszolút és relatív aktivitás mérése

4. A nukleá ris mediciná fizikái álápjái

Izotópok. diagnosztikai alkalmazásai 2. Az izotóp kiválasztásának szempontjai. hf > 50 kev. α β γ. Maximáljuk a nyerhető információt.

Országos Onkológiai Intézet, Sugárterápiás Centrum 2. Országos Onkológiai Intézet, Nukleáris Medicina Osztály 4

A Nukleáris Medicina alapjai

Akusztikai tervezés a geometriai akusztika módszereivel

6. gyakorlat. Gelle Kitti. Csendes Tibor Somogyi Viktor. London András. jegyzetei alapján

Matematika A2 vizsga mgeoldása június 4.

Röntgendiagnosztikai alapok

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

1. feladatsor: Vektorterek, lineáris kombináció, mátrixok, determináns (megoldás)

Röntgensugárzás. Röntgensugárzás

Készítette: Trosztel Mátyás Konzulens: Hajós Gergely

Bevezetés a modern fizika fejezeteibe. 4. (e) Kvantummechanika. Utolsó módosítás: december 3. Dr. Márkus Ferenc BME Fizika Tanszék

Izotópok. diagnosztikai alkalmazásai. Képalkotó eljárásokkal nyerhető információ. Izotópdiagnosztikai eljárás lépései

17. előadás: Vektorok a térben

Radioaktív sugárzások az orvosi gyakorlatban. Az ionizáló sugárzások biológiai hatása. A sugárhatás osztályozása. A sugárhatás osztályozása

Azonos és egymással nem kölcsönható részecskékből álló kvantumos rendszer makrókanónikus sokaságban.

Gamma-röntgen spektrométer és eljárás kifejlesztése anyagok elemi összetétele és izotópszelektív radioaktivitása egyidejű elemzésére

1.9. B - SPLINEOK B - SPLINEOK EGZISZTENCIÁJA. numerikus analízis ii. 34. [ a, b] - n legfeljebb n darab gyöke lehet. = r (m 1) n = r m + n 1

PET Pozitronemissziós tomográfia

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Alkalmazás a makrókanónikus sokaságra: A fotongáz

Példa: Tartó lehajlásfüggvényének meghatározása végeselemes módszer segítségével

Képrekonstrukció 4. előadás

1. Generátorrendszer. Házi feladat (fizikából tudjuk) Ha v és w nem párhuzamos síkvektorok, akkor generátorrendszert alkotnak a sík vektorainak

Sugárzások kölcsönhatása az anyaggal

Nem roncsoló tesztelés diszkrét tomográfiával

Az izotópdiagnosztika fizikai alapjai

Gamma sugárzás. Gamma-kamera SPECT PET. Tömeg-energia ekvivalencia. Nukleáris medicína. γ-sugárzás előállítása. γ-sugárzás kölcsönhatása az anyaggal

Matematikai geodéziai számítások 10.

Hadházi Dániel.

Determinánsok. A determináns fogalma olyan algebrai segédeszköz, amellyel. szolgáltat az előbbi kérdésekre, bár ez nem mindig hatékony.

MÉRÉSI EREDMÉNYEK PONTOSSÁGA, A HIBASZÁMÍTÁS ELEMEI

FEGYVERNEKI SÁNDOR, Valószínűség-sZÁMÍTÁs És MATEMATIKAI

Példa: Tartó lehajlásfüggvényének meghatározása a Rayleigh Ritz-féle módszer segítségével

KOVÁCS BÉLA, MATEMATIKA I.

Matematika (mesterképzés)

Keresztmetszet másodrendű nyomatékainak meghatározása

Pontműveletek. Sergyán Szabolcs Óbudai Egyetem Neumann János Informatikai Kar február 20.

Függvények növekedési korlátainak jellemzése

Saj at ert ek-probl em ak febru ar 26.

Radiofarmakológiai vizsgálatok követelménymodul szóbeli vizsgafeladatai

10. Előadás. 1. Feltétel nélküli optimalizálás: Az eljárás alapjai

Röntgensugárzás az orvostudományban. Röntgen kép és Komputer tomográf (CT)

Orvosi tomográkus képalkotás/ct technika alapja

Regresszió. Csorba János. Nagyméretű adathalmazok kezelése március 31.

Biofizika és orvostechnika alapjai

Az ipari komputer tomográfia vizsgálati lehetőségei

A kvantummechanika kísérleti előzményei A részecske hullám kettősségről

Leképezések. Leképezések tulajdonságai. Számosságok.

Robotok inverz geometriája

Izotópos méréstechnika, alkalmazási lehetőségek

A brachistochron probléma megoldása

OpenCL alapú eszközök verifikációja és validációja a gyakorlatban

Végeselem modellezés alapjai 1. óra

Alap-ötlet: Karl Friedrich Gauss ( ) valószínűségszámítási háttér: Andrej Markov ( )

Tárgy. Forgóasztal. Lézer. Kamera 3D REKONSTRUKCIÓ LÉZERES LETAPOGATÁSSAL

Véletlen jelenség: okok rendszere hozza létre - nem ismerhetjük mind, ezért sztochasztikus.

Megoldott feladatok november 30. n+3 szigorúan monoton csökken, 5. n+3. lim a n = lim. n+3 = 2n+3 n+4 2n+1

Ütközések elemzése energia-impulzus diagramokkal II. A relativisztikus rakéta

Gamma-kamera SPECT PET

Szimuláció RICHARD M. KARP és AVI WIGDERSON. (Készítette: Domoszlai László)

Infobionika ROBOTIKA. X. Előadás. Robot manipulátorok II. Direkt és inverz kinematika. Készült a HEFOP P /1.0 projekt keretében

Radioaktív sugárzások az orvosi gyakorlatban. Az ionizáló sugárzások biológiai hatása. A sugárhatás osztályozása. A sugárhatás osztályozása

1. mérési gyakorlat: Radioaktív izotópok sugárzásának vizsgálata

Optika gyakorlat 5. Gyakorló feladatok

Pásztázó elektronmikroszkóp. Alapelv. Szinkron pásztázás

Gamma kamera, SPECT, PET. Készítette: Szatmári Dávid PTE ÁOK, Biofizikai Intézet, március 1.

BIOMATEMATIKA ELŐADÁS

Függvények Megoldások

Gauss-Jordan módszer Legkisebb négyzetek módszere, egyenes LNM, polinom LNM, függvény. Lineáris algebra numerikus módszerei

Adatelemzési eljárások az idegrendszer kutatásban Somogyvári Zoltán

3. Fuzzy aritmetika. Gépi intelligencia I. Fodor János NIMGI1MIEM BMF NIK IMRI

Gauss elimináció, LU felbontás

Az Orvosi Fizika Szigorlat menete a 2012/2. tanévtől

Radioaktív sugárzások tulajdonságai és kölcsönhatásuk az elnyelő közeggel. A radioaktív sugárzások detektálása.

6. Függvények. Legyen függvény és nem üreshalmaz. A függvényt az f K-ra való kiterjesztésének

Lineáris leképezések. Wettl Ferenc március 9. Wettl Ferenc Lineáris leképezések március 9. 1 / 31

Számítási feladatok a Számítógépi geometria órához

Robotika. Kinematika. Magyar Attila

Számítógépes Grafika mintafeladatok

Általánosan, bármilyen mérés annyit jelent, mint meghatározni, hányszor van meg

Gamma-kamera SPECT PET

6. Függvények. 1. Az alábbi függvények közül melyik szigorúan monoton növekvő a 0;1 intervallumban?

Grafikus csővezeték 1 / 44

4. Laplace transzformáció és alkalmazása

Átírás:

Budapesti Műszaki és Gazdaságtudományi Egyetem Monte-Carlo alapú multi-pinhole SPECT képrekonstrukciós eljárás kidolgozása és vizsgálata FERENCZY Máté Témavezető: Dr. CZIFRUS Szabolcs egyetemi docens BME Nukleáris Technikai Intézet Nukleáris Technikai Tanszék BME 2011

Tartalomjegyzék 1. Bevezetés és elméleti alapok 4 1.1. Rövid történeti áttekintés.................................. 4 1.2. A SPECT képalkotás alapjai................................. 4 1.2.1. Radiofarmakonok.................................. 5 1.2.2. Detektorrendszer................................... 6 1.2.3. Kollimátorok..................................... 7 1.3. Egyfoton-emissziós képalkotás az orvosi gyakorlatban................. 9 1.3.1. Planáris képalkotás.................................. 9 1.3.2. Tomográfia...................................... 10 1.3.3. Kisállat vizsgálatok.................................. 11 1.4. Képrekonstrukciós algoritmusok.............................. 12 1.4.1. Analitikus algoritmusok............................... 12 1.4.2. Iterációs algoritmusok................................ 16 1.5. Grafikuskártya-programozás................................ 22 1.5.1. CUDA......................................... 23 1.5.2. OpenCL........................................ 23 1.6. Jelenlegi megoldások a mutli-pinhole SPECT képrekonstrukcióban.......... 24 2. Célkitűzés és a kutatási irány kiválasztása 26 2.1. Motiváció........................................... 26 2.2. A modellezendő geometria................................. 26 2.3. Alternatív MC stratégiák................................... 28 2.3.1. Adjungált MC..................................... 28 2.3.2. Midway MC...................................... 29 2.3.3. Direkt MC....................................... 29 3. Az implementált algoritmus ismertetése 30 3.1. Pinhole választás....................................... 32 4. Verifikáció és eredmények 34 4.1. Az MCNP modell....................................... 34 4.2. Verifikáció MCNP pontforrás-szimulációval........................ 35 4.3. További eredmények..................................... 36 4.3.1. Paramétervizsgálat.................................. 38 4.3.2. Pontforrás rekonstrukciója............................. 39 4.3.3. Derenzo-fantom rekonstrukciója.......................... 39 5. A koherens szórás modellezése 43 5.1. MCNP szimulációk a fázistér feltérképezésére...................... 43 5.2. A koherens szórás rövid elmélete.............................. 44 5.3. Az implementált algoritmus................................. 45 5.4. Az algoritmus verifikációja................................. 45 1

5.5. Kitekintés........................................... 47 6. Összefoglalás 48 6.1. Kitekintés........................................... 48 Irodalomjegyzék 51 Ábrák jegyzéke 54 Táblázatok jegyzéke 55 2

Önállósági nyilatkozat Kijelentem, hogy jelen diplomamunka saját, önálló munkám, az abban hivatkozott szakirodalom felhasználása a forráskezelés szabályai szerint történt. 3

1. fejezet Bevezetés és elméleti alapok 1.1. Rövid történeti áttekintés A szakaszban leírtak alapjául [1] szolgál. A XX. század kezdetéig a klinikai orvostudománynak igen kevés vizsgálóeszköz állt rendelkezésére, a mikroszkóp, a hőmérő, a sztetoszkóp és a szike. A megfigyelhető szervek megértéséhez halottak alapos anatómiai vizsgálata és élők betegség vagy sérülés okozta funkcionális hiányosságainak megfigyelése volt szükséges évszázadokon keresztül. Azonban 1896-ig semmilyen módon nem lehetett vizsgálni vagy mérni az élő emberi test belső, rejtett világát. Röntgen felfedezésével útjára indult az orvosi képalkotás fejlődése, mely egyre több információt nyújt az élő belső állapotáról. A nukleáris medicina létrejötte azonban még több mint fél évszázaddal később következett csak be, ugyanis a képalkotáshoz szükséges radioaktív izotópok előállításához a szabályozott láncreakció megvalósítását meg kellett várni. A második világháború után elinduló kísérleti atomreaktorok voltak az elsők, melyek elkezdték gyártani az orvosi vizsgálatokhoz szükséges mesterséges izotópokat. Az első felvételt, mely még külön mérési pontokból állt, Ansell és Rotblat készítette 1948-ban egy pajzsmirigyről. A módszer gyakorlati alkalmazásához azonban elengedhetetlen volt nagy felületű foton detektorok léte. Anger 1952-ben számolt be egy NaI szcintillációs kamera alkalmazásáról, mellyel lefektette a mai modern gamma kamerák (Anger-kamerák) alapjait. Tomográfiás SPECT (Single Photon Emission Computed Tomography) képalkotásról először Kuhl és Edwards publikált 1963-ban, mely során több képet készítenek különböző szögekből. Pozitron emisszió méréséről már 1951-ben beszámolt Wren, majd nem sokkal később az első képalkotásra alkalmas elrendezéseket is leírták (Brownell és Sweet, 1953.). 1.2. A SPECT képalkotás alapjai Az egy-foton emissziós komputer tomográfia (SPECT) egy funkcionális orvosi képalkotó eljárás, mellyel a szervek, szövetek működéséről kaphatunk értékes információt. A tomográfiás képalkotás során planáris képekből matematikai módszerekkel állítjuk vissza a teljes három-dimenziós képet. Az alapelvek szemléltetéséhez a planáris elrendezést vizsgáljuk részletesebben. Alapelvét az 1.1 ábra szemlélteti. A páciens testébe valamilyen formában gamma-sugárzást kibocsátó radioaktív izotópot juttatunk, mely bizonyos helyeken feldúsul a szervezetben. A bomló magok gamma-fotonokat emittálnak, ezeket jelölik az ábrán a folytonos nyilak. Némelyek már a páciensben elnyelődnek (D), vagy ha ki is jutnak, a detektort elkerülik (C). Ezen fotonok által szállított információ elvész a képalkotás során. Más fotonok szóródás nélkül a detektor felé haladnak (A), azonban ezeknek csak a kollimátor által átengedett része jut el a szcintillációs (NaI) kristályig. A kristály a gamma-fotonok hatására látható fényt bocsát ki, melyet fotoelektron-sokszorozók alakítanak elektromos jellé. A következő részben részletesebben megvizsgáljuk a SPECT rendszer egyes elemeit. 4

1.1. ábra: A SPECT képalkotás alapelve. [2] 1.2.1. Radiofarmakonok Az alszakaszban leírtak alapjául [3] szolgál. A klinikai információt a páciensbe juttatott farmakon eloszlása hordozza. A farmakonhoz radioaktív izotópot kapcsolva mérhetővé válik a keresett eloszlás a testből kilépő gamma-fotonok mérése révén. Ezeket az vegyi anyagokat nevezzük radiofarmakonoknak. Ahogy az a fentiekből is látszik, a radiofarmakonok funkciójukat tekintve két igen eltérő részből tevődnek össze, így nagyrészt külön érdemes ezekkel foglalkozni. Radionuklidok Az alkalmazott radionuklidokat úgy választjuk meg, hogy felezési idejük egy nagyságrendbe essen a mérési idővel. Ennél jóval rövidebb felezési idő esetén még a mérés során nagyon lecsökkenne a számlálási sebesség, túl hosszú felezési idők pedig felesleges dózistöbbletet jelentenek a páciens számára. A detektálhatóság szempontjából fontos, hogy a választott izotóp valamilyen megfelelően választott energiájú fotont (röntgen vagy gamma) bocsásson ki. A kibocsátott foton energiája ideális esetben 50 és 300 kev között van, alacsony energiáknál a fotonok nagyon kis hányada jut ki a páciensből, magasabb energiáknál pedig a detektálási hatásfok romlik le. Már korábban is előkerült, hogy a páciens sugárterhelését minimalizálni kell, ezért kerülni kell az ionizáló, rövid hatótávolságú (α és β) részecskéket kibocsátó magokat, hiszen ezek nem járulnak hozzá a kép javításához, de dózistöbbletet jelentenek. Azonban a radioaktív bomlások többségénél a gamma-foton kibocsátás mellett van valamilyen töltött részecske emittálás (általában β) is. Két olyan bomlási mód létezik, melynél nem jelentkezik ez a probléma, ezek az izomer átalakulás és az elektronbefogás. Töltött részecskék még ezekben az esetekben is keletkeznek (konverziós és Auger-elektronok), azonban lényegesen kisebb arányban, mint egyéb bomlási módok esetén. Háromféle módon állíthatóak elő a szükséges radionuklidok: atomreaktorban, ciklotronban vagy generátorral. A reaktorban neutronaktivációval alakíthatunk át stabil izotópokat, vagy az üzemanyagból (vagy urán céltárgyból) vonhatunk ki hasadási termékeket kémiai úton. Egy ciklotronban valamilyen céltárgyat felgyorsított, töltött részecskékből álló nyalábbal bombázunk. Mindkét esetben a létrehozott radioaktív magokat a kórházba kell szállítani a gyártó létesítményből. Ez azonban egy újabb problémát vet föl, ugyanis a sugárvédelmi szempontból megfelelően rövid felezési idejű magok jelentős része elbomlana a szállítás során. Ezen probléma orvoslására szolgál a 5

radionuklid előállítás bomlás E γ [kev] felezési idő Tc-99m generátor EC 140 6 óra I-123 ciklotron EC 160 13 óra Tl-201 ciklotron EC 68-80 (rtg.) 73,5 óra Ga-67 ciklotron EC 93, 184, 296 78 óra In-111 ciklotron EC 172, 247 2,8 nap I-131 reaktor β 284, 364 8 nap 1.1. táblázat: Néhány orvosi képalkotásban használt radioizotóp és tulajdonságaik. [3] harmadik módszer, a generátor, mellyel bizonyos radionuklidok előállíthatóak. Ehhez az szükséges, hogy legyen egy hosszabb felezési idejű anyamag, melytől aztán a vizsgálat helyszínén kémiai úton elválasztható a kívánt izotóp. Ezzel a módszerrel állítják elő a leggyakrabban alkalmazott Tc-99m izotópot, melynek anyamagja a Mo-99, amit leggyakrabban magas dúsítású urán céltárgy neutron-besugárzásával gyártanak (kumulatív hasadási hozama 6,13% [4]). Az 1.1 táblázat néhány orvosi gyakorlatban használt radioizotópot mutat be a teljesség igénye nélkül. Farmakonok A legfontosabb követelmény a farmakonokkal szemben, hogy a vizsgálandó terület (szerv) gyorsan és a lehető legnagyobb részét felvegye a szervezetbe jutatott anyagnak. A gyakorlatban azonban sokszor más helyeken is feldúsulnak, melyek korlátozzák a bevihető aktivitást, sőt, planáris képalkotás esetén átfedhetnek a vizsgált területtel, így zavarva a diagnózist. Tomográfiás (3D) felvétel készítésével a második probléma kiküszöbölhető. A páciens sugárterhelését befolyásolja a farmakon választás is, a sugárzó izotóp ugyanis ki is ürülhet a szervezetből. Ezt egy biológiai felezési idővel jellemezhetjük, melyből a teljes felezési idő 1 a következő egyszerű képlet szerint adódik: τ tot = 1 τ fiz + 1 τ bio. Így a teljes felezési idő mindenképp rövidebb lesz az izotóp fizikai felezési idejénél. Azonban erre az effektusra nem érdemes hagyatkozni a beteg dózisának minimalizálásakor, mivel a biológiai felezési idő lényegesen eltérő lehet a különböző esetekben. 1.2.2. Detektorrendszer Az alszakaszban leírtak alapjául [5] szolgál. Hal Anger (1.2 ábra) sok fontos találmányával kimagasló szerepet játszott a nukleáris medicina fejlődésében és a képalkotó berendezések iparának kialakulásában. Egyik forradalmi ötlete a róla elnevezett gamma-kamera, az Anger-kamera. Ötlete olyan időtállónak bizonyult, hogy a napjainkban kapható gamma-kamerák továbbra is ugyanazon az elven működnek. Az Anger-kamera sematikus rajza az 1.3 ábrán, a jelfeldolgozás lépései az 1.4 ábrán láthatók. A beérkező gamma-fotonokat irány szerint szelektálja a kollimátor, így csak a megfelelő irányban haladóknak van lehetőségük felvillanást kelteni a szcintillációs (általában NaI(Tl)) kristályban. A felvillanások látható fénye a fotoelektron-sokszorozókba (később PMT) jut, melyek fotokatódja elektromos jellé alakítja azt. Egy gamma-foton általában sok látható fotont kelt a kristályban, így a kimenő fény több PMT-be is eljut. Anger ötlete az volt, hogy a PMT-k kimenő jeleivel súlyozva az egyes PMT-k x y pozícióját, jó közelítéssel megkapható a kölcsönhatás helye, melyet akkor még teljes egészében a beépített elektronika végzett. Mára analóg helyett digitális jelekkel dolgoznak, a számítás matematikája is összetettebb lett, és a feldolgozás egyre nagyobb része szoftveresen történik, de az elv ugyanaz. Az így kapott eseményekhez azonban még energiát is kell rendelni, mely a PMT-k jeleinek összegével arányos. A végső soron elfogadott eseményeket egy energia szerinti diszkriminációval nyerjük, mely energiaablak közepébe esik a teljes gammaenergia, szélessége pedig a Tc-99m 140,5 kev-es csúcsára körülbelül 20%. Erre a lépésre azért van szükség, mert a gamma-fotonok egy része szóródik a betegben, a kollimátorban vagy a detektor egyéb részében, 6

1.2. ábra: Hal Oscar Anger egy találmányával, a pozitron szcintillációs kamerával. [6] 1.3. ábra: Az Anger-kamera keresztmetszete. [3] és ezt követően okoz csak felvillanást a NaI kristályban. Ezek a fotonok tehát nem hordoznak számunkra információt az aktivitás-eloszlásról, csupán a hátteret növelik. Szóródás során azonban csökken az energiájuk, ezt kihasználva nagy részüktől megszabadulhatunk, ha egy energiaablakkal megszűrjük az eseményeket. 1.2.3. Kollimátorok Az alszakaszban leírtak alapjául [5] szolgál. A kollimátorok kritikus szerepet játszanak a gamma-kamerával történő képalkotás során. Általában nagy rendszámú és sűrűségű elemet választanak alapanyagául, hogy abszorpciós hatáskeresztmetszete minél nagyobb legyen. A leggyakoribbak a különböző ólomötvözetek. Wolfram- és arany-ötvözetek is előfordulnak, noha ritkábban, mivel az előbbi nehezen megmunkálható, utóbbi pedig közismerten drága. A kollimátorokat csoportosíthatjuk a lyukak alakja szerint, léteznek kör, négyzet, három- és hatszög alakúak, melyek közül a legutóbbi a legelterjedtebb a jó hatásfok miatt. A lyukak állása szerint is különböző fajtákat fejlesztettek ki, párhuzamos állású, konvergens illetve divergens lyukakkal rendelkező, valamint pinhole (tűlyuk) kollimátorokat (1.5 ábra). Az ábra jól szemlélteti, hogy mikor melyik kollimátort érdemes használni. A vizsgálandó szerv vagy testrész és a detektor látómező méretének aránya megszabja, hogy melyik típus ideális az adott vizsgálathoz, például ha a vizsgálandó rész nagyobb, mint a detektor, akkor egy divergens kollimátorral érdemes mérni. A lyukak, és a közöttük levő válaszfal, valamint a kollimátor vastagságát változtatva különböző tulajdonságú kollimátorok készíthetők. Például a lyukak méretét növelve nagyobb érzékenységű lesz a rendszerünk, azonban a felbontás romlik. Így az egyes paraméterkombinációkkal különböző célra alkalmas kollimátorok gyárthatók: LEHR (alacsony energiás, nagy felbontású), LEAP (alacsony energiás, általános célú), MEAP (közepes energiás, általános célú) és HEAP (magas energiás, általános célú) a leggyakrabban használt típusok. Az 1.6 ábra mutatja a kollimátor-választás jelentőségét, a bal oldalon látható két planáris képet alacsony energiás, míg a jobb oldali két képet közepes energiás kollimátorral vették fel. 7

1.4. ábra: A jelek útja a detektortól a kijelzőig. [3] 1.5. ábra: a) párhuzamos, b) konvergens, c) divergens és d) pinhole kollimátor. [3] 1.6. ábra: Ga-67 izotóppal végezett mérések a) LEAP, b) MEAP kollimátorral. [5] 8

1.3. Egyfoton-emissziós képalkotás az orvosi gyakorlatban Mint azt a bevezetésben már előrebocsátottuk, az egyfoton-emissziós képalkotás során az egyes szervek, szövetek működésébe nyerhetünk betekintést. Ilyen módon tehát még az anatómiás elváltozások előtt felfedezhetők egyes betegségek, az így nyert idő pedig nagyban növelheti a páciensek gyógyulásának valószínűségét. Egyfoton-emissziós képalkotásból két módszert különböztethetünk meg: a planáris és a tomográfiás képalkotást. A planáris esetben néhány (1, 2, 4) felvétel készül a kérdéses területről, és az orvos magukból a vetületekből igyekszik következtetéseket levonni. Tomográfia esetén ennél egy-két nagyságrenddel több (60 120) vetületet vesznek fel forgó kamerarendszerrel, melyekből rekonstrukciós algoritmus segítségével nyernek három-dimenziós képet. Ebből az orvos egy számítógépes szoftver segítségével tetszőleges metszetet kiválaszthat vizsgálatra, illetve egy adott nézőpontból 3D hatású kép is renderelhető. 1.3.1. Planáris képalkotás Az alszakaszban leírtak alapjául [5] szolgál. A planáris képalkotás definíció szerint nem tartozik a SPECT témakörébe, ugyanakkor a projekciók felvétele ugyanolyan elven történik, ezért érdemes röviden áttekinteni néhány, az orvosi diagnosztikában gyakran alkalmazott vizsgálattípust. Maga a technológia ugyan már lekerült a tervezőasztalokról, olcsósága és gyorsasága miatt továbbra is fontos szerepet tölt be a SPECT mellett az orvosi gyakorlatban. Pajzsmirigy vizsgálat A vizsgálatokhoz általában 123 I-mal jelzett sót (NaI) juttatnak kapszula formájában a páciens szervezetébe (a jellemző aktivitás 7,4-14,8 MBq). A radiojód pajzsmirigyben való feldúsuláshoz 24 órát várnak a felvétel készítése előtt. Pinhole apertúrával körülbelül 20-60 perc alatt három képet készítenek különböző irányokból. A vizsgálat negatív, ha a radiojód felvétel homogén az egész pajzsmirigyben. Noha ez a vizsgálat az egyszerűbbek közé tartozik, még ebben az esetben is több részletre is oda kell figyelni. Ilyen például a pajzsmirigy jódfelvétele, melyet nagyban befolyásolhat a páciens étkezése, az elfogyasztott vitaminok, gyógyszerek. A felvétel készítése során figyelni kell az apertúra és a beteg pozíciójára is, hogy a pajzsmirigy a látómezőbe essen minél közelebb a kollimátorhoz, és megfelelő minőségű kép szülessen. Légzés keringés vizsgálat A légzés keringés (LK) vizsgálatok kissé bonyolultabbak, itt ugyanis két egymás követő vizsgálatról van szó, melyekből két képsorozat készül. A képek értékelése során a szakorvos összehasonlítja az összetartozó képpárokat, különbséget keresve minden tüdőlebenyben. A vizsgálat célja a tüdőembólia detektálása. A vizsgálat első részében (légzés) a pácienssel egy 99m Tc tartalmú aeroszolt (DTPA) lélegeztetnek be (37 MBq) több percen keresztül, ezt rögtön követi a felvétel elkészítése (5 perc). Ezután a vérkeringés vizsgálatban 99m Tc-MAA-t (makroaggregát albumin, 80-180 MBq) adnak be intravénásan, és ismét felvételt készítenek a tüdőről (5 perc). A két vizsgálat között nem szükséges várni, mivel a felvett MAA aktivitása jellemzően sokkal nagyobb, mint a tüdőben maradt aeroszolé. A felvételek tipikusan normál kollimátorral készülnek hat irányból, a vizsgálat időtartamának rövidítése érdekében gyakran kétfejes képalkotó rendszerrel. A légzés vizsgálat a páciens tüdejét teljes térfogatában leképezi, míg a keringés vizsgálat csak a vérrel ellátott területeket. Egészséges tüdő esetén a két kép hasonló alakot eredményez, azonban tüdőembólia esetén egyes területek vérellátása megszűnik, így ott különbség lesz a képek között. Mindkét esetet jól szemlélteti az 1.7 ábra. 9

1.7. ábra: LK vizsgálat eredménye a) egészséges és b) embóliás tüdőre. [5] (A felső sorban a légzés, az alsóban a keringés vizsgálatok eredményei láthatóak.) Teljestest csontvizsgálat A teljestest csontvizsgálat során 99m Tc-MDP (metilén-difoszfonát) injekciót adnak a páciensnek (740-1110 MBq). A mérés ezt követően 2-5 órával kezdődik. A farmakon felvételében mutatkozó inhomogenitások abnormális működésre utalnak. Ha egy adott helyen a felvétel nagyobb, mint az átlag, az utalhat ízületi gyulladásra (arthritis), törésre vagy metasztázisra. Ha a felvétel az átlagnál alacsonyabb, abból nekrotikus tumorra, litikus lézióra vagy sugárterápiás szövetpusztulásra lehet következtetni. 1.3.2. Tomográfia Az alszakaszban leírtak alapjául [5] szolgál. Agyi vérkeringés vizsgálat Az agy-spect vizsgálatokat leggyakrabban agyérbetegségre, demenciára vagy agyvérzésre utaló klinikai jelek esetén végeznek el. Az elkészült felvételen a szakorvos a normálishoz képest alacsony illetve magas vérellátottságú területeket keres. Mivel a vizsgálat csak a keringésről szolgáltat információt, ezért az elkészült felvételt csak a vizsgálathoz vezető tünetek kontextusában lehet értelmezni. Az agy leképezéséhez olyan farmakon szükséges, mely képes átjutni az vér-agy gáton, ilyenek a HMPAO és az ECD, mindkettőt a szokásos Tc-izotóppal jelzik. A vizsgálat során 1110 MBq radiofarmakont adnak be intravénásan egy órával a felvétel kezdete előtt. Egy kétfejes kamerarendszerrel a körülbelül 120 projekció felvétele 20 percet vesz igénybe. Szívizom vérkeringés vizsgálat A szívizom vérkeringés vizsgálatok a leggyakrabban alkalmazottak az összes SPECT vizsgálat közül. A vizsgálat két részből áll, melyekben két különböző izotópot használnak, így lehetővé téve a páciens szívének funkcionális vizsgálatát nyugalomban és stressz alatt. A nyugalmi állapot vizsgálatához 148 MBq aktivitású 201 TlCl radiofarmakont adnak be intravénásan. 15 perc várakozás után kezdődik a képek felvétele, melyhez egyéb vizsgálatoktól eltérően egy olyan kétfejes rendszert használnak, ahol a fejek egymással 90 -os szöget zárnak be, és a mérés során a teljes felvétel szögtartománya 180 (60 projekció, összesen 15 perc). Ezután a páciens szívét stressz alá helyezik folyamatos taposómalmon való gyaloglással, vagy megfelelő gyógyszerrel. Ilyen állapotban juttatnak a szervezetébe valamilyen 99m Tc-al jelölt farmakont (925 MBq), mely gyorsan feldúsul a szívizom-sejtekben, és onnan csak lassan távozik. Így a néhány órán belül 10

1.8. ábra: Stressz (fent) és nyugalmi (lent) szívizom vizsgálatok eredményei szívinfarktusos betegnél. [7] készített felvételen a stresszhelyzet alatti állapotot láthatjuk. A felvétel paraméterei az első vizsgálatéhoz hasonlóak, azzal a különbséggel, hogy a nagyobb aktivitás miatt ugyanannyi projekció felvételéhez elég körülbelül 11 perc. A felvételekhez a 180 -os szögtartományt a szív testen belüli aszimmetrikus elhelyezkedése miatt alkalmazzák, ugyanis a régebbi rekonstrukciós algoritmusok nagy részében nem modellezik a gyengülést (és szórást). Így a szívhez közel eső kamerapozíciókat használva jobb felbontású, és kevesebb műterméket tartalmazó képet készíthetünk, mint ha teljes 360 -os SPECT-et készítenénk. Érdemes még megjegyezni, hogy a második felvétel készítése során azért nem okoz problémát a tallium-izotóp sugárzása, mivel ennek gamma-energiája jóval alacsonyabb (68 80 kev), mint a technéciumé (140 kev), tehát nem okoz beütést a teljesenergia-csúcs körül definiált energiaablakba. Ebből következik az is, hogy a vizsgálatok sorrendje meghatározott, mivel az alacsonyabb gammaenergiás izotópnak kell az első vizsgálatban szerepelnie. Ellenkező esetben a második mérésbe a magasabb energiájú gamma-fotonok is járulékot adhatnának a leszóródás révén. Az 1.8 képen jól látható a stresszhelyzetben végzett vizsgálatok során a szívizom keringésének romlása. 1.3.3. Kisállat vizsgálatok Az alszakaszban leírtak alapjául [8] szolgál. A kisállat vizsgálatok fontossága a gyógyszerjelöltek preklinikai tesztelésében megkérdőjelezhetetlen. A rágcsálók az elsődleges eszközei ezeknek a kutatásoknak, mivel sok humán betegséggel náluk is találkozhatunk, másrészt pedig 2002 óta teljes génállományuk ismert. Ennek köszönhetően génmódosítással a vizsgálni kívánt betegséggel rendelkező állatok állíthatók elő, melyekkel in vivo tesztelhető az új szer hatékonysága. A régebbi módszerekkel az állatokat fel kellett dolgozni és a megfelelő területeket mikroszkóp alatt megnézni a gyógyszerjelölt hatásának vizsgálatához. Minderre nincs szükség nagy felbontású emissziós tomográfia használatával. Így a tesztelés gyorsabbá, olcsóbbá válik, és eközben kevesebb állatot kell elpusztítani. Továbbá lehetőség van egy állat állapotának nyomon követésére is. Kisállatok vizsgálatához a SPECT több előnnyel is rendelkezik a PET-hez képest. Egyrészt nem szükséges ciklotron a radioizotópja előállításához, mint például a pozitron-bomló 18 F esetében. Másrészt a PET esetében a minimális elérhető felbontást korlátozza a pozitron-vándorlás jelensége (~ 1 mm), míg SPECT esetében nincs elvi akadálya ennél kisebb felbontás elérésének. Ez az alsó korlát ugyan nem jelent problémát humán vizsgálatoknál, azonban kisállatoknál komoly megkötés. 11

1.9. ábra: Használt jelölések. 1.4. Képrekonstrukciós algoritmusok Tomográfiás képalkotás során a detektort körbeforgatjuk a vizsgált objektum körül, miközben sok vetületi képet veszünk fel. Foglalkozzunk az elrendezés egy metszetével, ahogy az az 1.9 ábrán látszik. Jelöljük g(s, θ)-val a θ szögelfordulásnál, az s. detektorpixelben kapott beütésszámot. Ezekből a vetületi képekből szeretnénk valamilyen matematikai módszerrel visszaállítani az f(x, y) aktivitáskoncentráció-eloszlást a vizsgált térrészben. (Ez arányos a radiofarmakon eloszlásával.) Mivel véges számú pixellel rendelkezünk és véges számú mérést végzünk, továbbá a visszaállított kép is képpontokból (voxelekből) fog állni, ezért g(s, θ) és f(x, y) függvények diszkrét és véges számú pontban vannak megadva. Ezeket az értékeket sorba rendezve vektorként kezelhetjük a két függvényt (g és f). Legyen p(i, j) annak a valószínűsége, hogy az i. voxelből kiinduló foton a j. pixelbe ad beütést. Ezekből az értékekből egy mátrixot p(i, j) = a ij = [A] ij konstruálhatunk, melyet rendszermátrixnak nevezünk. Ezzel a megoldandó egyenlet Af = g alakban írható, melyből f-et szeretnénk meghatározni. [9] A rekonstrukciós algoritmusokat két nagy csoportba sorolhatjuk. Az egyik csoportba az analitikus módszerek tartoznak, melyek egy lépésben állítják vissza a képet, emiatt nagyon gyorsak, ám nem képesek a rendszer pontos modellezésére, csak valamilyen durva (geometriai) közelítést alkalmaznak. A másik csoportot az iteratív módszerek alkotják. Ezeknek több lépésre van szükségük valamilyen kezdeti szürke képből kiindulva a valós eloszlás becslésére. Előnyük, hogy szinte csak a futási idő szab határt a modellezés pontosságának, azaz a fizikai effektusok (abszorpció, szórás) relatíve könnyen beépíthetőek a rekonstrukciós algoritmusba (a rendszermátrixon keresztül). Hátrányuk azonban a jóval hosszabb futási idő, illetve az, hogy nehéz eldönteni, mikor érdemes abbahagyni az iterációt. A következőkben bemutatjuk mindkét csoportot néhány jellemző módszerén keresztül. 1.4.1. Analitikus algoritmusok Az analitikus módszerek a leképzést (mely megadja az adott aktivitás-eloszláshoz tartozó beütésszámokat) a Radon-transzformációval közelítik. Ez a valós leképzésnek egy erősen leegyszerűsített modellje, mely során egy detektorpixelben kapott beütésszámokat arányosnak tekintjük azon egyenesek menti összes aktivitással, mely egyenesek mentén a kollimátor átengedi a fotonokat az adott pixel felé (1.10 ábra). Ezt a leképzést a következő integrállal írhatjuk fel 2D esetben párhuza- 12

1.10. ábra: A Radon-transzformáció. [10] mos kollimátorra a korábbi jelöléseket használva: R(f(x, y)) = g(s, θ) = f(x, y)δ(x cos θ + y sin θ s)dxdy (1.1) Mint láthatjuk, ez a transzformáció egy egyszerű vetítés csupán a megengedett irányokra, nem modellezi az exponenciális gyengülést, szórást, a kollimátor geometriájának tökéletlenségét (véges méretéből adódóan nem csak a kívánt irányokban enged át), a detektorválaszt. Ugyanakkor egy egyszerű és könnyen kezelhető összefüggést kaptunk, melyből jó statisztikájú méréseknél elfogadható eredményt kaphatunk. Egyszerű visszavetítés Az egyszerű visszavetítés nagyon hasonló a Radon-transzformációhoz, ebben az esetben ugyanazt a műveletet végezzük el a voxelekre, mint az előbb a pixelekre. Tehát egy adott voxelhez rendelt aktivitás arányos lesz a voxelből látható pixelek beütésszámainak összegével. Matematikai formában: f(x, y) = π 0 g(s, θ)dθ (1.2) Az 1.11 ábra és az 1.12 ábra szemlélteti a két vetítést. A visszavetítés eredményét az 1.13 ábra mutatja különböző számú projekciók esetén. A projekciók számának növelésével ugyan javítható a kép minősége, a csillag műtermék egyre kevésbé uralja a képet, de még nagyon sok projekció esetén is homályos, elmosódott képet kapunk. Az eredmény hátterében az a tény áll, hogy az egyszerű visszavetítés nem invertálja a Radon-transzformációt, hiszen egy adott egyenesen levő beütésszám az összes egyenesen levő voxelhez hozzáadódik. Emiatt ezt az algoritmust nem használják a gyakorlatban. 13

1.11. ábra: A Radon-transzformáció szemléltetése. [9] 1.12. ábra: Az egyszerű visszavetítés szemléltetése. [9] 1.13. ábra: Az egyszerű visszavetítés eredménye különböző projekció-számok esetén. (A: kiindulási kép, B-G: 1, 3, 4, 16, 32, 64 projekcióval) [9] 14

1.14. ábra: Fourier szeletelési tételének összefoglalása. Szűrt visszavetítés A Radon-transzformáció inverze egy matematikai tétel segítségével viszonylag könnyen előállítható. Fourier szeletelési tétele szerint a következő két transzformáció ekvivalens [11]: 1. egy kétdimenziós függvényt először levetítünk egy egyenesre, majd előállítjuk ennek a vetületnek a Fourier-transzformáltját, 2. egy kétdimenziós függvénynek előállítjuk a 2D Fourier-transzformáltját, majd ezt elmetsszük az origón keresztül az 1. pontban választottal párhuzamos egyenessel. A tételt szemlélteti az 1.14 ábra. Ebből viszonylag egyszerűen származtatható a Radon-transzformáció inverze. Láthatjuk, hogy a Radon-transzformáltból elindulva kerülő úton könnyen visszajuthatunk az eredeti eloszláshoz. Ehhez először Fourier-transzformálni kell a Radon-transzformáltakat, ezzel a 2D Fourier-transzformált egyes metszeteit kapjuk, melyekből interpolációval összeállíthatjuk a teljes 2D Fourier-transzformáltat. Innen már csak egy 2D inverz Fourier-transzformációt kell elvégeznünk, és megkapjuk a Radon-transzformált inverzét. Ezzel a módszerrel megkaphatjuk a keresett inverz függvényt, azonban egy új összefüggés felismerésével gyorsabbá és általánosabbá tehető az algoritmus. Belátható, hogy a Radon-transzformáció inverze úgy is előállítható, hogy a Radon-transzformáltakon egy frekvenciával arányos szűrést hajtunk végre Fourier-térben, majd a megszűrt Radon-transzformáltakat egyszerűen visszavetítjük (1.2) szerint. Ezt az eljárást nevezzük szűrt visszavetítésnek (Filtered Backprojection). A szavakban összefoglalt algoritmust matematikai formában a következő egyenletek írják le [2]: Mérési adatok Fourier-transzformációja: Szűrés: Inverz Fourier-transzformáció: Visszavetítés: G(ρ, θ) = g(s, θ) exp 2πisρ ds, Q(q, θ) = ρ G(ρ, θ), q(s, θ) = Q(q, θ) exp2πisρ dρ, π f(x, y) = 0 q(s, θ) s=x cos θ+y sin θdθ. A fenti egyenletek diszkretizálásával kapjuk a szűrt visszavetítés azonnal implementálható formáját. Az inverziónak ez a fajta megfogalmazása lehetővé teszi különböző egyéb szűrők használa- (1.3) 15

1.15. ábra: Különböző, gyakorlatban használatos szűrők. [9] tát is, melyekkel bizonyos mértékben korrigálható a mérést terhelő zaj 1. Ilyen szűrőket láthatunk az 1.15 ábrán. Érdemes megfigyelni, hogy a lineáris szűrőhöz képest hogyan néz ki a többi elterjedt szűrő. Alacsony frekvenciákon mind együtt indulnak, azonban egy maximum elérése után ismét lecsökken az értékük a magasabb frekvenciák felé haladva. Ez azt bizonyítja, hogy a mérési adatokban megjelenő zaj jellemzően magas frekvenciás komponenseket tartalmaz, ezért próbálják ezekkel a szűrőkkel ezeket az összetevőket elnyomni. A szűrt visszavetítés máig nagyon népszerű gyorsaságának köszönhetően, azonban a párhuzamos vetítésen, azaz az ideális geometrián kívül semmit sem modellez. Ez pedig a SPECT képalkotás során egy komoly hátrány, mivel a CT-hez képest nagy statisztikus bizonytalansággal terheltek és rossz felbontásúak a mérések, ezért viszonylag gyenge minőségű képeket kapunk, ha a rendszer fizikáját figyelmen kívül hagyjuk. 1.4.2. Iterációs algoritmusok Az alszakaszban leírtak alapjául [12] szolgál. A bevezetőben leírtak szerint ebben a szakaszban a képrekonstrukciós problémát az Af = g lineáris egyenletrendszer alakjában fogalmazzuk meg. Itt az f aktivitás és g beütésszám vektorok között a rendszermátrix létesít kapcsolatot. A rendszermátrixot az algoritmusok bemutatásakor ismertnek tételezzük fel, azonban meghatározása is egy komoly feladat a képrekonstrukció során, melytől nagyban függ a kép minősége. A rendszermátrix képes ugyanis arra, hogy a puszta geometrián túl különböző fizikai folyamatokat is modellezzen, vagy ezeket valamilyen módon közelítse. Az iterációs algoritmusok nem a lineáris algebrában megszokott módszerekkel oldják meg a lineáris egyenletrendszert. Ehelyett valamilyen kezdeti konstans képből kiindulva egy rekurziós összefüggés segítségével számítják ki a következő közelítő képet. A rekurzió megfelelő megválasztásával elérhető, hogy az ilyen módon keletkező közelítések egyre közelebb álljanak a keresett aktivitás-eloszláshoz. Sajnos ez nem mindig egy egyszerű feladat, ugyanis a méréseket terhelő zajok miatt sosem fogunk monoton konvergenciát tapasztalni, egy idő után az iteráció folytatásával romlani fog a kapott kép. Ezeknél a módszereknél tehát egy újabb probléma, hogy a rekonstrukciót hány iterációs lépés után hagyjuk félbe. 1 Zaj ebben az esetben nem csak a statisztikai átlagtól való eltérést jelentheti. A Radon-transzformáción alapuló rekonstrukciós algoritmusok számára már a fizikai effektusok által okozott (Radon-transzformációhoz képest vett) eltérések is zajként (szisztematikus hiba) jelennek meg. 16

Érdemes még megnézni, hogy milyen nagyságrendbe esik az egyes vektorok és a mátrix elemszáma. A voxelrács elemszáma jellemzően a 256 3 1,68 10 7 nagyságrendbe esik, egy projekció mérete jellemzően 256 2 6,55 10 5, melyből körülbelül 64-et vesznek fel egy tomográfiás mérés során, ezzel a teljes beütésszám-vektor 4,19 10 6 méretű. Innen már lehet érezni a rendszermátrix elemszámának nagyságrendjét: 4,19 10 6 1,68 10 7 7 10 13. Ez a nagy méret az oka annak, hogy a lineáris egyenletrendszer megoldását nem praktikus a szokásos módon elvégezni a hatalmas műveletigény miatt. Továbbá a bomlási folyamatokat jellemző Poisson-zaj, mely az emisszióstomográfiai képalkotás elkerülhetetlen velejárója, az egyenletrendszer egzakt megoldását erősen eltorzíthatja a valós aktivitás-eloszláshoz képest. Ezért az iterációs algoritmusok közül is általában olyan módszereket érdemes alkalmazni, melyek figyelembe veszik az emissziós mérések sajátos statisztikáját. Az EM módszerek származtatása Az alszakaszban leírtak alapjául [13] szolgál. Az EM ( expectation maximization ) módszerek célja, hogy egy olyan becslést adjanak a keresett f aktivitás-eloszlásra, mely a legnagyobb valószínűséggel hozhatja létre a mért g vektort. Ehhez kihasználják, hogy egy adott pixelben a beütések száma Poisson-eloszlás szerint alakul. A Poisson-eloszlás szerint a j-ik pixelben mért beütésszám eloszlása a következőképp alakul: P(g j ) = exp gj gj g j (g j!), (1.4) ahol g j a pixelben mért beütésszám, g j pedig ennek várható értéke. Ha ezt kifejtjük az Af = g összefüggés 2 szerint, akkor a következő egyenletet kapjuk: P(g j f) = exp i A ijf i ( i A ijf i ) g j. (1.5) g j! Írjuk fel a Bayes-tétel segítségével annak a valószínűségét, hogy a mért beütésszámokat egy kiszemelt aktivitás-eloszlás hozott létre: L( f) = P( f g) = P(g f) P( f). (1.6) P(g) L-t nevezzük likelihood függvénynek, és az első mondatban leírtak szerint az EM módszerek keretein belül azt keressük, hogy milyen f mellett veszi fel L a maximális értékét. P( f)-et nevezzük priornak, melybe a képpel kapcsolatos a priori tudásunkat, elvárásainkat vihetjük be a rekonstrukcióba; P(g) a mérések a priori eloszlása. A maximum-keresési problémát az egyszerűség kedvéért a következő alakban szokták megfogalmazni: ( ) max L( f) f log[l( f)] = 0. (1.7) Mivel az egyes beütésszámok függetlennek tekinthetők egymástól, ezért P(g f) = j P(g j f). Ebbe behelyettesítve a Poisson-eloszlásból adódó 1.5 összefüggést, ezt pedig az 1.6 egyenletbe, 1.7 a következő alakra hozható logaritmálás után (D a detektorpixelek, V a voxelek száma): D V 0 = f A ij fi + j=1 i=1 ( D V ) g j log A ij fi j=1 i=1 D j=1 ( ) ( P(g)) log(g j!) + log P( f) log. 2 Ebben az összefüggésben g eddig felülvonás nélkül szerepelt, azonban itt már meg kell különböztetni mért és várható értékeket. Könnyen belátható, hogy az egyenletrendszer determinisztikus jellege miatt csak a várható értékekre vonatkozhat. (1.8) 17

A deriválások elvégzése után a harmadik és ötödik tag, melyek nem függenek f-tól, eltűnnek. Az általánosság megtartása mellett kereshetjük a megoldást úgy, hogy f k szerint deriválunk, és kihasználhatjuk, hogy az egyes voxelek aktivitásai is függetlenek egymástól, azaz fk fi = δ ki. Így az 1.8 egyenlet a következő alakban írható: 0 = D A kj + j=1 D j=1 g j A kj f k -val való beszorzás és egyszerű átrendezés után adódik: f k = f k D j=1 A kj fk [log(p( f))] V i=1 A ij f i + fk [log(p( f))]. (1.9) D j=1 A kj g j V i=1 A ij f i, (1.10) melyről belátható, hogy a mindig teljesíti a Banach-féle fixpont-tétel feltételeit, és a belőle származtatott rekurziós összefüggés mindig az EM megoldáshoz konvergál. Amennyiben a priort a szokásos P( f) = C exp βu( f) alakban adjuk meg, akkor az iterációs séma alakja: f (n+1) k = f (n) k D j=1 A kj β f k U( f (n) ) D j=1 A kj g j V i=1 A ij f i. (1.11) Ez tehát az EM módszerek alapját képező rekurziós formula, mely segítségével egy adott közelítésből megkaphatjuk az aktivitás-eloszlás egy újabb közelítését. MLEM algoritmus Az alszakaszban leírtak alapjául [9] szolgál. A módszer neve az angol maximum likelihood expectation maximization kifejezésből származik. Ebben az esetben nem használunk priort, egyszerűen a legvalószínűbb megoldást keressük. Így a β-val arányos tag eltűnik a fenti összefüggésből, tehát az algoritmus a következő formulával írható le: (n) f i f (n+1) k = g (n) j = V A ij fi, j = 1..D, (1.12) i=1 f (n) k D j=1 A kj β f k U( f (n) ) D j=1 A kj gj mért g (n), i = 1..V, (1.13) j ahol az n-edik közelítése a keresett f i-edik komponensének, gj mért pedig a mért g vektor j- edik komponense. A ij -vel továbbra is a rendszermátrixot jelöltük. Láthatjuk, hogy egy iterációs lépést két részre bontottunk. Az 1.12 egyenlet írja le a korábban egyszerűen mátrixszorzással felírt előrevetítést, az 1.13 egyenlet pedig a visszavetítést. A kiinduló eloszlásnak általában egy homogén szürke képet használnak: f 0 i = 1. Érdemes megjegyezni, hogy mivel a kiinduló vektor csupa pozitív elemet tartalmaz, és az iterációk során nemnegatív tényezőkkel szorzunk és összeadunk, ezért bármely iterációban a becsült kép nemnegatív elemekből fog állni. A módszer hátránya, hogy viszonylag lassan konvergál (50-100 iteráció szükséges), és a legjobb közelítés elérése után a kép viszonylag gyorsan romlani kezd a zajok felnövekedése miatt. A valódi és a rekonstruált eloszlás eltérésének iteráció-számtól való függésére mutat egy jellemző görbét az 1.16 ábra. 18

1.16. ábra: A rekonstrukció eltérés görbéjének tipikus alakja. [14] MAP-EM algoritmus Az alszakaszban leírtak alapjául [9] szolgál. Az MLEM modell esetén tapasztalt zajosodás csökkentésére MAP-EM (maximum a posteriori) algoritmusokat alkalmaznak. Az ML feltevés, miszerint a valós aktivitás-eloszlás az, mely a legnagyobb valószínűséggel hozhatta létre a mért beütéseket, nem teljesül a zajjal terhelt mérésekre. Ennél jobb feltevés az, ha olyan képet keresünk, mely nem túl zajos és közel van a legvalószínűbb képhez. Az első feltételt építhetjük bele a rekonstrukcióba a már korábban bevezetett prior segítségével. Adjuk meg a priort energia-függvénnyel kifejezve, azaz P( f) = C exp βu( f). Ekkor a rekurziós összefüggés a már látott alakot öltia: f (n+1) k = f (n) k D j=1 A kj β f k U( f (n) ) D j=1 A kj g j V i=1 A ij f i. U Vegyük szemléltetésképpen a kvadratikus priort: f i = j N i w ij (f i f j ), ahol N i az i. voxel szomszédjaiból álló halmaz. Ha a voxel értéke megegyezik az összes szomszédéval, akkor a prior tag nullát ad, tehát az új voxelérték ugyanaz lesz, mintha az ML módszert használtuk volna. Ha a voxel értéke magasabb, mint a szomszédoké, akkor pozitív w ij esetén a prior tag pozitív lesz, így az új érték alacsonyabb lesz, mint az ML esetben. Ellenkező esetben fordított eredményt kapunk, innen látható, hogy a prior tag bevezetésével egy simítást valósítunk meg, az új értékeket mindig a szomszédokhoz közelítjük az ML esethez képest. Fontos megemlíteni, hogy az ML esettel ellentétben, itt negatívvá is válhat egy voxelérték a prior tag negativitása miatt, aminek nincs értelme. Ezt a β paraméter megfelelően kis értékre állításával próbálhatjuk megelőzni. Egy másik probléma, hogy ezzel a priorral az éleket is elmossuk, ami a felbontás csökkenését eredményezi. Emiatt sok más priort is bevezettek. Itt még egyet vizsgálunk meg, mellyel a fenti problémák orvosolhatók. A TV priort sikeresen alkalmazták, mint él-megőrző regularizációt. Az energia-függvény kifejezése két dimenzióban [15]: U(f) = ( x f i ) 2 + ( y f i ) 2 + ɛ 2, (1.14) i 19

1.17. ábra: Rekonstruált képek összehasonlítása (10 5 beütésnyi Poisson-zajjal): a) FBP, b) MLEM, c) MAP, d) TV-MAP. [15] 1.18. ábra: Rekonstruált képek összehasonlítása (10 6 beütésnyi Poisson-zajjal): a) FBP, b) MLEM, c) MAP, d) TV-MAP. [15] ahol x f i és y f i az egyes irányok menti deriváltak valamilyen rendű közelítése az i. voxelnél, ɛ pedig a simítást jellemző paraméter, melyet kicsinek érdemes választani. Az 1.17 és az 1.18 segítségével összehasonlíthatjuk az eddig látott módszerek által szolgáltatott képminőséget két különböző zajszint esetén a Shepp - Logan fantom esetén. Jól látszik, hogy ilyen zajszinteknél az analitikus módszer már jelentősen elmarad a statisztikus módszerektől. Míg kisebb zajszintnél az MLEM tűnik a legjobb felbontást adó módszernek, addig nagyobb zajszint esetén egyértelműen látszik, hogy nem a valódi eloszláshoz konvergál, a MAP (főként a TV) jobb eredményt adnak. OSEM A konvergencia sebességének gyorsításra úgynevezett OSEM (ordered subset expectation maximization) algoritmusokat javasoltak, melyekkel a projekciókat csoportokra (subsetekre) bontják, és az MLEM rekurziós sémát ezekre a csoportokra külön-külön futtatják le, így már egy iteráción belül is frissítik a becsült képet (minden egyes csoport után) [16]. Ilyen módon fel lehet használni az egy iterációs lépésen belül keletkezett információt még ugyanazon az iteráción belül. A projekciókat úgy csoportosítják, hogy egy csoportba egymástól minél távolabbi projekciók kerüljenek, így maximalizálva egy csoport információtartalmát. Például 64 projekciót a következőképp lehetne csoportokra bontani: 1. csoport: 1., 17., 33., 49. projekciók 2. csoport: 2., 18., 34., 50. projekciók. 16. csoport: 16., 32., 48., 64. projekciók. Az 1.19 ábra mutatja a csoportokra bontás hatását a konvergenciára. Láthatjuk, hogy kezdetben sokkal gyorsabban konvergálnak a nagy csoportszámú rekonstrukciók, ugyan egy kicsit tovább tart egy iteráció, de ennek ellenére is nagy a különbség az MLEM-hez ( ) képest. Azonban vegyük észre azt is, hogy a kevesebb csoportot használó rekonstrukciók rendre utolérik, és lehagyják konvergenciában a több csoporttal dolgozókat. Ami azonban ennél is fontosabb, hogy az OSEM algoritmus matematikai szempontból nem egy EM algoritmus, így nem is bizonyított a konvergenciája [12]. Az általános tapasztalat szerint ennek ellenére közel hasonló eredményeket lehet elérni vele, mint a bizonyítottan konvergens MLEM-mel. Az OSEM algoritmusok konvergencia problémájának kiküszöbölésére az irodalomban több sikeres példát is láthatunk. Egy kevéssé elterjedt, de jó tulajdonságokkal rendelkező algoritmus a COSEM (Convergent OSEM), melyet Hsiao és munkatársai fejlesztettek ki [17], [18]. 20

1.19. ábra: χ 2 a gépidő függvényében 50 iterációra. [16] Az egyes görbékhez tartozó csoportszámok: : 1; +: 8; : 16; : 32 21

1.20. ábra: Másodpercenkénti lebegőpontos műveletek GPU és CPU esetén. [19] 1.21. ábra: CPU és GPU architektúrájának sematikus rajza. [19] 1.5. Grafikuskártya-programozás Az alszakaszban leírtak alapjául [19] szolgál. A valós idejű, nagy felbontású, háromdimenziós grafika iránti folyamatosan növekvő piaci igény hatására a grafikus kártyák (röviden GPU-k) mára nagyban párhuzamos, sokszálas, sokmagos processzorokká váltak hatalmas számítási kapacitással, és memória-sávszélességgel. Az 1.20 által szemléltetett eltérés a GPU-k és CPU-k teljesítményében annak köszönhető, hogy a GPU-kat kifejezetten számításigényes, nagyban párhuzamos feladatok elvégzésére tervezik, hiszen erre van szükség a grafikus renderelés során. Ez az architektúra szintjén úgy jelenik meg, hogy sokkal több tranzisztor áll az adatfeldolgozási műveletek rendelkezésére, mint az adatfolyamok kezelésére és gyorsítótárazásra. Ezt a felépítésbeli különbséget szemlélteti az 1.21 ábra. A grafikus kártyák struktúrája tehát képessé teszi őket nagy adathalmazokon, nagy aritmetikai sűrűségű, hasonló műveletek (SIMD: Single Instruction Multiple Data) elvégzésére, így leginkább jól párhuzamosítható problémák megoldásánál lehet kihasználni az architektúra nyújtotta előnyöket. Programozásuk során tehát mindig szem előtt kell tartani az architektúra sajátságait, hogy alkalmazásunk minél hatékonyabban használhassa ki a rendelkezésére álló erőforrásokat. 22

1.5.1. CUDA Az NVIDIA CUDA platformja egyike a ma elérhető általános célú grafikuskártya-programozást (GPGPU: General Purpose GPU) lehetővé tevő platformoknak. Segítségével a fejlesztők magas szintű, C nyelvre épülő fejlesztői környezetet használhatnak. A CUDA programozási modell magját három fő absztrakció alkotja: a szálcsoportok hierarchiája, osztott memóriaterületek és szinkronizáció, melyek a programozó rendelkezésére állnak a C nyelv kiegészítéseként. Ezek lehetővé teszik, hogy a programozó a problémát nagyobb alrészekre bontsa, melyeket egymástól függetlenül meg lehet oldani, illetve az alrészeket kisebb egységekre, melyeket az egy blokkban levő szálak együttműködve tudnak megoldani. Ez a felbontás a kulcsa annak, hogy a program automatikusan skálázódik majd az aktuális hardverre, és a programozónak nem kell tudni az adott rendszer pontos jellemzőit. A CUDA programozásról magyarul [14] ír bővebben, a teljes dokumentáció pedig angol nyelven elérhető az NVIDIA fejlesztői oldalán [19]. 1.5.2. OpenCL Az OpenCL (Open Computing Language) a CUDA mellett a másik jelentős alternatíva a fejlesztők számára. A non-profit Khronos csoport által menedzselt platform célja egy gyártófüggetlen standard létrehozása volt, mely lehetővé teszi a programok hordozhatóságát a különböző gyártók termékei között. Emellett heterogén architektúrák kezelését is támogatja, azaz a host (ahonnan a program indul) mellett több különböző fajtájú architektúra (CPU, GPU, egyéb processzorok) számítási kapacitását is felhasználhatjuk. A platform a CUDA-hoz képest viszont még éretlen, az 1.1 stabil verzió csak 2010. júniusában jelent meg. Emiatt egyes CUDA könyvtáraknak nincs még OpenCL megfelelője, illetve a fordító által generált kód nem annyira optimalizált. További hátránya, hogy a nagyfokú általánossága miatt nehéz, és nem célszerű az adott architektúra specialitásait kihasználó kódot írni, tehát a hordozhatóságért egy későbbi, fejlettebb fordító mellett is teljesítményt kell majd áldoznunk. Még egy érv a CUDA-ban való implementálás mellett, hogy létezik egy Swan nevű fordító [20], mellyel CUDA kódból OpenCL-t generálhatunk. Részletesebb leírás az OpenCL-ről a Khronos honlapján [21] található. 23

1.6. Jelenlegi megoldások a mutli-pinhole SPECT képrekonstrukcióban A multi-pinhole (MP) kollimátorok a pinhole kollimátorok egyszerű továbbgondolásával születtek, ahol a kollimátoron több lyukat is kialakítanak úgy, hogy azok a látómezőt a detektorra átfedés nélkül vagy részben átfedően képezzék le. Az első ilyen rendszert már 1978-ban leírták [22]. Néhány humán (szív-, mell-, agy-) vizsgálattípus mellett ennek a kollimátornak elsősorban a kisállatvizsgálatoknál van komoly szerepe, ahol kis látómezőt igyekeznek nagy felbontással leképezni. MP SPECT esetén ma már szinte kivétel nélkül csak iterációs képrekonstrukcióval találkozunk az irodalomban. Az elsődleges kihívást ezen a területen az előrevetítés elvégzése, illetve a rendszermátrix kiszámítása jelenti. A publikált módszerek nagy részében a rendszermátrix tárolása mellett döntöttek. Ebben az esetben az iteráció során mindössze mátrixműveleteket kell végezni, illetve valamilyen módon tárolni a hatalmas rendszermátrixot. A cikkek egy része említést se tesz a tárolási problémáról, és olyan limitált felbontásokat használ, hogy a mátrix elférjen a memóriában. Ez azonban a gyakorlat számára egyértelműen nem kielégítő, hiszen nem lehet értékelhető diagnózist mondani 32 3 képpontból. Akik érdemben foglalkoztak a problémával, azok egy része valamilyen tömörítési eljárást alkalmazott, például csak a nem-nulla elemeket tárolták valamilyen jól kezelhető adatstruktúrában [23], gyakran valamilyen illesztett függvény paramétereiként [24] [25]. Ezekben az esetekben természetesen csak a pinhole-ok direkt vetületeit rögzítik, a szórt események nagy részétől eltekintenek. A másik hátránya ennek a módszernek, hogy a rendszermátrix kérdéses elemét futásidőben kell majd megkeresni vagy kiszámolni. Előre- és visszavetítésnél a mátrixelemeket különböző sorrendben használjuk, ezért nehéz olyan adatstruktúrát kreálni, amely mindkét esetben gyors elérést tenne lehetővé, ez tehát tovább bonyolítja a problémát. A tömörítési eljárások mellett több megoldás is született, melyek a rendszer szimmetriáját használják ki, így csökkentve a szükséges mátrix méretét [26] [25]. A legnagyobb arányú redukciót a forgásszimmetria kihasználása kínálja. Ez elegánsan megoldható, ha a látómezőt hengerkoordináták-szerinti térfogatelemekre bontjuk fel úgy, hogy egy kör mentén a térfogatelemek száma a vetületek számának többszöröse vagy osztója legyen. Ebből a koordináta-rendszerből aztán megjelenítéskor kockarácsba képezzük vissza az eredményt. Ennek a módszernek a legfőbb hátránya, hogy nem teszi lehetővé a cirkuláris felvétel mellett egyéb felvételi módok használatát (például a szintén elterjedt helikális (spirál menti) felvételt). Magára a rendszermátrix kiszámítására is sokféle lehetőség adódik. Például [27]-ben többsoros képleteket publikáltak egy ideális, detektorra merőleges tengelyű pinhole pontválasz-függvényére, melyek segítségével előállítható a rendszermátrix. MP kollimátorok esetén azonban kénytelenek vagyunk dőlt tengelyű lyukakkal is számolni. Erre sok helyen alkalmazzák a sugárvetítéses módszert [28] [29], mellyel tetszőleges másodrendű felületek által határolt kollimátor-geometria viszonylag egyszerűen és gyorsan számolható. Mindössze annyit kell tenni, hogy sugarakat húzunk a voxelekből a pinhole-okon és azok környezetén át, és számoljuk a kollimátorban és a detektorban megtett úthosszt. Ebből a gyengülési törvénnyel egyszerűen megkaphatjuk a detektálási valószínűséget az adott sugárra. Ezt az elvet mutatja be az 1.22 ábra. A módszer hiányossága, hogy nem tudja a szórás jelenségét modellezni, csak valamilyen közelítő szóráskorrekcióval lehet ezt kompenzálni [30]. A legáltalánosabb módszer a Monte-Carlo (MC) alapú számítás, melyről szintén több publikációt találhatunk [31]. Ezzel már lehetőségünk nyílik kiválasztani a modellezni kívánt fizikai jelenségeket, azonban problémát jelent a hosszú futásidő. Általánosságban pedig elmondható az összes rendszermátrix-tároláson alapuló eljárásról, hogy nem képesek figyelembe venni a látómezőben történő fizikai effektusokat, mint a testben való elnyelődés vagy szóródás, hiszen a cél az, hogy ne kelljen minden vizsgálat előtt újraszámítani a mátrixot. Ezzel azonban elveszítik a multimodalitású SPECT/CT készülékek által szolgáltatott többletinformációt, és lemondanak az ebben rejlő képminőség-javításról. Ezek a problémák motiválták a rendszermátrix explicit kiszámítása nélküli rekonstrukciós algoritmusokat. Ebben az esetben on-the-fly számítják ki az egyes aktív voxelek vetületeit, akár sugárvetítéssel, akár MC-val. Sugárvetítés esetén itt már lehetséges a testen belüli elnyelést mo- 24

1.22. ábra: A sugárvetítéses módszer szemléltetése. [29] dellezni, mint ahogy azt [30] is mutatja. Futásidőben történő MC számítással azonban csak elvétve lehet találkozni a SPECT irodalomban, elsősorban a még mindig túlságosan nagy számításigény miatt. Ugyan Ghekiere et al. [32] párhuzamos kollimátorral felszerelt rendszerrel dolgozott, ennél közelebbi publikációt nem találtam. Ők a GATE MC szimulációs eszközt használták rekonstrukciójuk motorjaként, mellyel csak a testen belüli fizikai folyamatokat modellezték, a kollimátor és a detektor hatását analitikusan vették figyelembe. Ezen kívül szóráscsökkentő módszerekre is szükségük volt (konvolúció-alapú kényszerített detektálás), mellyel minden emisszió és szóródás után a fotont a kollimátorra merőlegesen levetítették. Még így is egy modern processzorral (Intel Core Duo T9500 (2,6 GHz)) felszerelt számítógépen 10 7 fotont 215 s alatt tudtak szimulálni, mellyel egy teljes rekonstrukciós lépés ideje 43 percet vesz igénybe (projekciónként 10 6 fotont szimulálva). 25

2. fejezet Célkitűzés és a kutatási irány kiválasztása 2.1. Motiváció Mint azt az irodalmi összefoglalóból láthattuk, mind a mai napig ritka a Monte-Carlo (MC) módszer alkalmazása a SPECT képalkotás modellezésekor. Ennek ellenére a MC modellezés olyan vitathatatlan előnyös tulajdonságokkal rendelkezik, melyek miatt újra és újra megkísérlik alkalmazni ezen a területen is. A kollimáció miatt erősen lecsökkenő hatékonyság (figure of merit) azonban erős korlátokat szab az alkalmazhatóság terén. A BME Nukleáris Technikai Intézetében a Teratomo projekt keretében fejlesztés alatt álló MC alapú, GPU-n futó PET képrekonstrukciós algoritmus [14] gyorsasága azonban elképzelhetővé tette egy hasonló SPECT algoritmus életképességét. A Mediso Kft.-nek pedig igénye is lenne az általuk készített (multi-pinhole (MP) kollimátoros) NanoSPECT berendezéshez egy gyors MC alapú SPECT előrevetítő algoritmusra. Ez az algoritmus kettős célt szolgálna. Egyrészt egy új, optimalizált kollimátor tervezéséhez elengedhetetlen eszközt jelentene, mellyel vizsgálhatóak különböző geometriájú és anyagú MP kollimátorok leképezési tulajdonságai, beleértve az apertúra éleinél történő gamma-áthatolást és szóródást. Ezek a jelenségek fontos szerepet játszanak a pinhole-ok méretének csökkentésekor, ezért elsődleges szempont az előrevetítés kiválasztásában ezen fizikai jelenségek modellezésének képessége, így esett a választás MC módszerre. Másrészt az algoritmus az így elkészülő SPECT berendezések rekonstrukciós szoftverének alapját is képezhetné. Természetesen egy ilyen alkalmazás során már figyelembe kell venni a rekonstrukcióhoz szükséges időt is, amennyiben ez klinikai alkalmazáshoz túl hosszúnak bizonyul, akkor érdemes a modellezés pontosságának rovására gyorsítani rajta. Azonban ehhez is egy olyan programból érdemes kiindulni, mely képes az események valósághű modellezésére, és az elérhető legjobb kép ismeretében kiválasztani azokat a módszereket, melyekkel rövidíthető a rekonstrukció ideje, ugyanakkor képminőségben minél kisebb romlást eredményeznek. Dolgozatom céljának egy MP SPECT leképezés modellezésére alkalmas, MC alapú, grafikus kártyán futó program megírását és verifikációját választottuk. Ennek alapjául a már említett, intézetben fejlesztett PET kód szolgál. Az így létrejövő program az MCNP-nél jóval gyorsabb alternatívát jelentene a modellezéshez, és egy későbbi, gyors rekonstrukciós kód alapjául szolgálna. 2.2. A modellezendő geometria A rekonstrukcióba beépítendő geometria a Mediso Kft. NanoSPECT készülékének geometriája. A berendezés, négy egyforma fejet tartalmaz, melyek körülveszik a látómezőt (FOV: Field of View), és együtt forognak körbe a tomográfiás felvétel elkészítése során, így negyedére csökkentve a mérési időt egyetlen fejhez képest (2.1 ábra). A kollimátorok középvonalának forgástengelytől mért távolságát az angol RoR (Radius of Rotation) betűszóval jelöljük. 26

2.1. ábra: A látómező és a kollimátorok. 2.2. ábra: Egy fej keresztmetszeti rajza. (A rajzot a Mediso Kft.-től kaptam.) 2.3. ábra: Az APT2 kollimátor műszaki rajza. (A rajzot a Mediso Kft.-től kaptam.) 2.4. ábra: Egy pinhole keresztmetszete. (A rajzot a Mediso Kft.-től kaptam.) Egy fej keresztmetszetét szemlélteti a 2.2 ábra, melyen felismerhetjük a bevezetőben látott Angerkamera egyes egységeit. Mint jól látszik, a kollimátort egy üres, csonka kúp alakú rész követi, majd ezután foglal helyet a nátrium-jodid (NaI) szcintillációs kristály, így többszörös nagyítás érhető el a projekció nagyobb felületre vetítésével. Ennek köszönhetően a NaI kristályra jellemző felbontás tört részét is elérhetjük rekonstruált felbontásban. Fontos még a kollimátor geometriája, melyet a 2.3 ábrán láthatunk. A képalkotáshoz multipinhole (MP) kollimátorokat használnak, melyek néhány, itt speciálisan kilenc darab apró tűlyukból állnak. Körülöttük nagy abszorpciós hatáskeresztmetszetű anyag (volfrám) nyeli el a nemkívánatos irányban repülő fotonokat. Egy tűlyuk geometriája két egymásba fordított kúppal írható le, ahogy azt a 2.4 ábra mutatja. A geometria leírását bonyolítja, hogy az egyes pinhole-ok állása általában nem merőleges a kollimátor lemezre, hanem mindegyik körülbelül a látómező középpontja felé néz, ezáltal kihasználva a teljes rendelkezésre álló detektor-felületet. A kollimátorok elhelyezése a fejeken úgy történik, hogy a forgástengely merőleges az APT2 felirat irányára. Emiatt a forgatás során a pinhole-ok három sávot fednek le, mivel például az 1, 4, 7 számú pinhole-ok egy sávba esnek a forgatás során. A Mediso Kft. többféle kollimátort is gyárt a NanoSPECT-hez, melyek közül kisállat-vizsgálatokhoz a két leggyakrabban használt az APT2 és APT3 kollimátor, ezek főbb tulajdonságait hasonlítja össze a 2.1 táblázat. Az elsőt patkány-, míg a másodikat egérvizsgálatokhoz használják. A két kollimátor közötti különbség az állatok mérete közti különbségből ered. A patkány kollimátornál ezért nagyobbak a pinhole-ok (gyengébb felbontással is megelégszünk), és távolabb is vannak a 27

Kollimátor típus APT2 (patkány) APT3 (egér) pinhole átmérő 2,5 mm 1 mm RoR 45 mm 30 mm FOV (transzax. ax.) 60 mm 24 mm 30 mm 16 mm Pgeom -1 fej 0,14% 0,053% Pgeom-4 fej 0,57% 0,21% Pgeom-64 fej 9,2% 3,4% Pgeom-3 sáv 8,2% 4,9% Mért átlagos érzékenység 600 cps/mbq 720 cps/mbq 2.1. táblázat: Az APT2 és az APT3 kollimátor összehasonlítása. kollimátorok a forgástengelytől, hiszen a henger alakú látómező is nagyobb. A Pgeom kezdetű sorok azt a térszöget adják meg százalékosan (Ω[%] = Ω 4π 100%), mely az összes rendelkezésre álló pinhole látómező középpontjából vett látószögeinek összege. Ez tehát annak a valószínűségnek felel meg, hogy a középpontból véletlenszerűen kiválasztott irányú félegyenes pinhole-t talál rendre 1, 4, illetve 64 fej esetén. Maga a berendezés ugyan csak négy fejjel rendelkezik, de a modellezett leképezésnél nyugodtan szimulálható az összes vetület egyszerre. Ebben az esetben ugyan figyelni kell a rekonstrukció során az egyes projekciókba kapott beütésszámok mért adatsornak megfelelő normálására, ennek implementálása azonban nem okozhat különösebb gondot, ugyanakkor a szimuláció hatásfokát egy nagyságrenddel javíthatjuk. A jelenlegi kollimátorok geometriájánál láttuk, hogy 3-3-3 pinhole mindig körülbelül ugyanabban a sávban forog körbe a cirkuláris felvétel során, ezért a projekciók számának növelésével a geometriai átjutási valószínűség a három sáv eltalálási valószínűségéhez lesz közel, ezt az értéket mutatja a negyedik Pgeom sor. A mért átlagos érzékenységek [8]-ból származnak, mely szerint meglepő módon az egér apertúrával lehet nagyobb számlálási sebességet elérni. 2.3. Alternatív MC stratégiák A 2.1 táblázatból láthatjuk, hogy a négy fejes NanoSPECT analóg MC szimulációjakor a követett fotonok kevesebb, mint 0,1%-a fog beütést adni. Ezt az arányt az összes vetület együttes szimulációjával fel lehet tornázni néhány tized százalékra, azonban ez még mindig kevésnek tűnhet. Röviden áttekintjük hát a lehetséges MC stratégiákat, nincs-e valamilyen egyszerű megoldás a hatásfok növelésére. A 2.5 ábra mutatja az egyes stratégiák során a szimulált fotonok haladási irányát. 2.3.1. Adjungált MC Az adjungált módszer esetén a fotonokat a detektorból indítjuk, és a fotonforrásig igyekszünk eljuttatni őket, miközben energiájuk növekszik a szóródások során. Amennyiben szeretnénk a pinhole-okat minden fotonnal eltalálni, akkor a detektorban való szóródás egzakt modellezéséről le kell mondanunk, ezt valamilyen detektor válaszfüggvénnyel vehetjük figyelembe, mint ahogy az a PET-es algoritmus esetén meg is valósult [33]. Ebben az esetben viszont nem jelent gondot a pinhole-ok és környékük mintavételezése. Viszont a fázistérnek nem csak a pinhole-ok jelentik egyetlen szűk pontját, hiszen a fotonforrásnál is lehetnek problémák. Ami minden esetben igaz, hogy vonalas forrásokkal dolgozunk, tehát a forrás spektruma csupán néhány (egy) energián nem nulla. Emiatt energiában szükséges valamilyen next event becslés alkalmazása. Emellett a forrás térbeli kiterjedése nagyon változó lehet, a kalibrálás során tipikusnak számító pontszerű források alkalmazása például az energia dimenzióban látotthoz hasonló problémát vet fel. 28

2.5. ábra: MC stratégiák szimulációs iránya. 1. adjungált, 2. midway, 3. direkt MC 2.3.2. Midway MC A midway módszer esetén a forrást vagy a detektort körülvevő zárt felületre kell meghatározni a fluxust és adjungáltját. Ehhez a valós és adjungált forrásból is fotonokat indítunk, és a hozzájárulásokat a határoló felületen kapjuk. Ez a határoló felület esetünkben lehetne például a kollimátorok középsíkja. Ezzel a módszerrel sem számíthatunk jelentős javulásra a direkt MC-hoz képest, hiszen egy nagy, szóró közegben elhelyezett forrás esetén hasonlóan alacsony hatásfokkal tudjuk csak eltalálni a pinhole-okat. 2.3.3. Direkt MC Direkt MC lejátszás esetén is többféle szóráscsökkentő módszer közül választhatunk. Például a PET-es algoritmushoz hasonlóan valószínűleg itt is indokolt kisebb mértékű iránytorzítás, mellyel a fotonokat inkább a projekciók során a kollimátorok által lefedett irányokba indítjuk. A tapasztalat szerint ezzel a hatékonyság akár kétszeresére is javítható. Az MCNP-ben DXTRAN módszerként találkozhatunk egy másik fontos szóráscsökkentő lehetőséggel. A módszer lényege, hogy minden egyes foton-emissziónál és szóródásnál a fotont két részre hasítjuk. Az egyiket (DXTRAN foton) determinisztikusan egy előre meghatározott gömb (DXTRAN gömb) felületére transzportáljuk szórás nélkül, természetesen a súlyát megszorozzuk a szórási pontból a gömbfelszínre jutás valószínűségével. A másik (nem-dxtran foton) folytatja tovább útját mindenféle különleges beavatkozás nélkül mindaddig, amíg nem halad át a DXTRAN gömb felszínén. Ekkor a nem-dxtran foton súlya nullázódik, eldobjuk. Ezzel a módszerrel lehetséges a pinhole-ok környezetét jobban mintavételezni, mint analóg esetben. Ehhez minden pinhole köré egy DXTRAN gömböt kell definiálnunk. A módszer hátránya, hogy a voxelekre osztott objektumban nagyon költséges a gyengítés kiszámítása, mivel a Woodcock-algoritmus nem alkalmazható. Mint az az előző bekezdésekből látható, nem találtunk univerzális megoldást a hatékonyság növelésére. Ezért a direkt MC mellett döntöttünk, és egy későbbi fázisra halasztottuk a szóráscsökkentő módszerekkel való próbálkozást. A létrejövő kód hatékonyságától függően lehet, hogy elég lesz a klinikai rekonstrukció fejlesztésekor ezzel foglalkozni, az is előfordulhat, hogy már az apertúra-tervezés is nehezen lesz elképzelhető enélkül. 29

3. fejezet Az implementált algoritmus ismertetése Mivel a direkt MC mellett döntöttünk, az előrevetítés kényes részét a pinhole-ok kiválasztása, és ezeken a fotonok átjuttatása jelenti. Korábbi MP-SPECT képrekonstrukciós próbálkozásaim révén van már egy kódrészletem CPU-ra, mely kiszámítja analitikusan egy adott pinhole környezetében elhaladó foton kollimátorban megtett útját, feltéve, hogy az nem szóródik. Ehhez meg kell nézni a foton egyenesének metszéspontját két síkkal, valamit két kúppal, továbbá minden egyes metszéspontról ellenőrizni, hogy azok valósak-e. A kapott metszéspontok közötti távolságokból már könnyen kiszámítható a keresett úthossz. Míg ez a módszer nagyon hatékonynak bizonyul a sugárvetítéses leképezés során, egy GPU-n futtatott MC kernel számára közel sem ideális. Először is elég nagy a számításigénye, illetve viszonylag sok elágazás van benne, ami szétzilálja a GPU szálait. Másrészt MC alkalmazása esetén nem elég egy fotonra egyszer meghívni, hanem minden egyes szóródás után kénytelenek vagyunk újra kiszámítani a metszéspontokat. Ezek az érvek vezettek ahhoz, hogy más irányba induljunk a kollimátor leírásával. Mint azt már az iteratív algoritmusok tárgyalásánál láttuk, a látómezőt voxelekre osztjuk. A NanoSPECT-et CT-vel kombinálva gyártják, azaz lehetőség van arra, hogy a CT felvétel során elkészülő gyengítési térképet betöltsék a rekonstrukciós algoritmusba. Ezzel tehát minden egyes voxelhez külön sugárgyengítési együtthatót rendelhetünk. Ebben az esetben azonban a látómezőben való szabad úthossz számítására nem előnyös az analitikus módszer, ezért a PET-es programban is a Woodcockmódszer van implementálva [14]. Emiatt természetesnek tűnt a kollimátorban is ugyanezt használni annak ellenére, hogy ott csak a homogén volfrám van jelen, mely geometriája első- és másodrendű felületekkel leírható. Hasonló kódrészletek alkalmazásának előnye a GPU architektúrán, hogy a párhuzamosságot kihasználva összességében gyorsabb kód nyerhető. Egy másik fontos pontja az algoritmusnak a megfelelő pinhole vagy pinhole-ok kiválasztása egy adott foton kollimátorhoz érkezésekor. Természetesen az összes számottevő hozzájárulást adó fotont végig szeretnénk követni. Azonban a volfrám abszorpciós hatáskeresztmetszete 140 kev-en körülbelül 32,1 1 cm, ami alapján egy merőlegesen kollimátorra beeső foton átjutási valószínűsége is alig több, mint 10 14. Tehát a pinhole-októl kicsit távolabb eső fotonokat már teljesen felesleges szimulálni. Ezek mellett szeretnénk azt is elérni, hogy egyszerre lehessen az összes vetületet szimulálni, mivel ez az egyetlen egyszerűen megvalósítható gyorsítási lehetőségünk. Ehhez azonban kezelni kell tudni azokat az eseteket is, amikor a szomszédos projekciókhoz tartozó pinhole-ok átfednek egymással. A 3.1 ábra szemlélteti az algoritmus vázát. A kezdeti inicializáció során a fotonok pontos kiindulási koordinátát (adott voxelen belül) és kezdeti irányvektort kapnak. Eddig ez egyenletes eloszlással történt, de lehetőség van iránytorzítás használatára is. Ezután a fotonok megkezdik útjukat a látómezőben. A szabad úthossz sorsolása a már említett Woodcock-módszerrel történik, melynek lényege, hogy egy majoráns hatáskeresztmetszetet használ a szabad úthossz sorsoláshoz, majd pedig az új voxel anyagának ismeretében bizonyos valószínűséggel kölcsönhatás nélkül továbbengedi a fotont. A szórási kernelhez szükséges hatáskeresztmetszeteket minden anyagra és energiára előre beolvassa a GPU textúra memóriájába a program. Ezek alapján egyszerűen választunk az abszorpció és a Compton-szórás közül. A szórást a Klein-Nishina formula előzetes integrálásával 30

Foton inicializálása Fotontranszport a látómezőben Pinhole-választás Váltás a vetület koord.-rendszerére MC motor Fotontranszport a kollimátorban Vetítés a detektorra Fotontranszport a detektorban Átlagpixel számítás 3.1. ábra: Az algoritmus blokkvázlata. előállított szórási táblával modellezzük, melyben egy adott energiarács minden energiájához egy szögekből álló tömböt találunk. Ezek a szögek az adott energiánál vett integrál egyenlő valószínűségű, diszjunkt és a teljes tartományt lefedő szeleteihez tartozó átlagos szóródási szögek. Így egyszerűen egy egyenletes eloszlású véletlen számmal tudunk szóródási szöget sorsolni. A MC modellezés hatékonyságának növelése érdekében implicit befogást és orosz rulettet alkalmazunk. Ha egy foton energiája kicsúszik a detektálásnál beállított energiaablakból, akkor azt eldobjuk. Amikor a foton kijut a látómezőből, megkapja őt a pinhole választó függvény, melyet később részletesebben tárgyalunk. Ezután a kapott projekció és pinhole környezetében a foton útját az előző bekezdésben leírtak szerint szimuláljuk. Érdemes ebben az esetben újra kitérni a Woodcockmódszer alkalmazására (3.2 ábra). Mivel majoráns hatáskeresztmetszetet kell használnunk, ezért mindig a volfrám hatáskeresztmetszetéből kell szabad úthosszt számolnunk. Minden érkezési pontban meg kell néznünk, hogy épp levegőben van-e a foton, melyet nagyon kevés számítással megtehetünk. Ellenőrizzük, hogy a foton a kollimátort határoló síkok között van-e, majd a foton koordinátáit a dőlt pinhole koordináta-rendszerébe transzformálva csupán egy darab kúpegyenletet kell kiértékelnünk. Ez tehát egy olcsó művelet az analitikus metszéspont-számításhoz képest, azonban egy végig levegőben haladó fotonra is körülbelül 36-szor el kell végezni. A módszer hatékonysága függhet a pinhole kialakításától, ettől függetlenül azonban valószínűleg még ilyen sok rejekció mellett is jóval hatékonyabb ez a módszer GPU-ra. Ha a foton túljutott a kollimátoron, egy egyszerű vetítéssel a detektor felületére kerül. A detektorban is hasonlóan követjük a fotonokat, mint a két másik térrészben, azzal a különbséggel, 31

Szabad úthossz Σ W -ből W-ban? n i Szórási magfv. 3.2. ábra: Woodcock-módszer a kollimátorban. 3.3. ábra: A kollimátor élén szóródó foton útvonala. hogy itt már nincs szükség implicit befogásra és orosz rulettre. A foton által leadott energiát és az átlagos koordinátát gyűjtjük, melyből, ha a leadott összes energia eléri a küszöböt, átlagos pixelt számítunk, az ehhez tartozó változóhoz adjuk hozzá a foton súlyának megfelelő hozzájárulást. 3.1. Pinhole választás Ennek az algoritmusnak minden fotonra csak egyszer kell lefutnia a kollimátorbeli szabad úthossz sorsolással ellentétben. Felmerülhet tehát, hogy itt alkalmazzuk a már említett analitikus algoritmust, és a kapott úthosszból számoljunk átjutási valószínűséget, és egy bizonyos küszöb alatt dobjuk el a fotonokat. Ezzel a módszerrel két probléma is van. Az első, hogy még ebben az esetben is túl drágának bizonyulhat ez a számítás, mivel nem csak egy pinhole-ra kell elvégezni fotononként, hanem az összes szóba jöhetőre. Nyilván nem akarjuk az összes projekció összes pinhole-jára ezt végigcsinálni, tehát valahogyan elő kell szelektálni a pinhole-okat. De még így is viszonylag sok maradhat, és ha már előszelektálunk, akkor akár további számolás nélkül el is indíthatjuk az egyikben (vagy többen) a fotont. A másik probléma pedig az, hogy egy ilyen szűréssel elképzelhető, hogy néhány fontos eseménytől megfosztjuk magunkat. Ugyanis attól, hogy egy fotonnak az adott egyenes mentén kis esélye van átjutni a kollimátoron, még a kollimátor élén szóródva hirtelen jó irányba fordulhat, és beütést adhat. Egy ilyen foton útvonala látható a 3.3 ábrán. Ez az az effektus, mely csökkenő lyukátmérő esetén limitálja a felbontást, tehát semmiképp sem dobhatjuk el ezeket a fotonokat. Emiatt egy egyszerűbb, és lehetőleg minden, pinhole közelébe eső fotont elfogadó módszert 32

3.4. ábra: A pinhole-választás első lépése. választottunk. A cirkuláris felvétel során az egyes pinhole-ok középpontjai különböző sugarú hengerfelületeken mozognak körbe. Esetünkben kilenc darab ilyen felület van. Mindegyik felületen megkeressük a foton pályaegyenesével vett metszéspontot, és ezek után erről a pontról próbáljuk eldönteni, hogy tartozik-e hozzá pinhole vagy sem. Ehhez első lépésként megnézzük, hogy a metszéspont benne van-e a pinhole által súrolt sávban (a forgástengely irányú koordináta szerint), ezt szemlélteti a 3.4 ábra. Ennél a vizsgálatnál nem szabad elfelejtkezni arról, hogy dőlt pinhole-ok is vannak, ahol a pinhole középsíkja nem esik a hengerfelületbe, hanem azzal valamilyen szöget zár be (a 2.4 ábrán ez jól látható, a 3.3 ábra ebből a szempontból félrevezető). Tehát amennyiben a sáv vastagságát a pinhole átmérőjének például kétszeresének választjuk merőleges állású pinhole esetén, akkor dőlt pinhole-nál ezt az értéket még el kell osztanunk a dőlési szög koszinuszával. Ha a foton beleesik ebbe a sávba, akkor még meg kell néznünk, hogy mely vetületekhez tud hozzájárulást adni. Ehhez megnézzük, hogy melyek azok a pinhole-ok, melyek középpontjához a forgástengelyre merőleges irányban elég közel van a metszéspont (például a pinhole átmérőjénél nem távolabb). Ilyenből több is lehet, ha elég sok vetületet veszünk fel. Minden lehetséges projekció pinhole párt egy tömbben elraktározunk, majd az összes pinhole végignézése után választunk közülük. A jelenlegi algoritmus szerint véletlenszerűen kiválasztunk az összes lehetőség közül egyet, és csak ezt valósítjuk meg az adott fotonnal. Amennyiben a látómezőben nincs szóróközeg, tehát eddig a pontig nem fektettünk sok energiát a fotonokba, akkor ez a választás ésszerű. Azonban erősen szóró közeg esetén, ha a fotonok nehezen jutnak el a kollimátorig, akkor érdemes lehet a szórás csökkentése érdekében akár az összes megkapott vetület pinhole páron elindítani őket, természetesen a súlyokat megfelelően csökkentve. 33

4. fejezet Verifikáció és eredmények Az előző fejezetben ismertetett algoritmus implementálása után természetesen felmerül a kérdés, hogy valóban sikerült-e a valóságot megfelelően jól közelítő szimulációs programot (MCMPSS 1 ) készíteni. Az összehasonlításhoz a sok területen referenciaként szolgáló, többszörösen validált MCNP programcsaládot választjuk, mely szintén egy MC alapú szimulációs eszköz. 4.1. Az MCNP modell Az MCNP modellben az MCMPSS-hez hasonlóan csak a kollimátort és a nátrium-jodid kristályt definiáljuk a látómezőn kívül, elhagyjuk az ólom árnyékolást, valamint a kristály mögötti fényvezető üveget és elektronikát. Az elrendezés metszeti képe látható a 4.1 ábrán. A GPU algoritmushoz hasonlóan itt sem kívánjuk követni a pinhole-októl távol eső fotonokat, ezért egyenes állású hengereket definiálunk köréjük, melyekben a fotonok statisztikus súlya egy, máshol a kollimátorban nulla. Az egyes projekciókat egyenként szimuláljuk, külön futtatásokban. Az egyes felvillanásokhoz tartozó átlagos koordinátákat nem tudjuk előre definiált MCNP tally-val kinyerni, ezért a ptrac kiíratást választjuk, mely elsősorban nem a felhasználók számára készült opció, inkább a fejlesztők számára jelent hasznos eszközt a hibakereséshez. Ennek ellenére bizonyos helyzetekben, mint ez is, kénytelenek vagyunk ehhez a rosszul dokumentált módszerhez folyamodni, mellyel [33]-ben részletesen foglalkoztak PET rendszerek MCNP szimulációja során. Az általuk készített forráskódból indultam ki, amit átstrukturáltam és átírtam úgy, hogy SPECT detektálás modellezésére alkalmazható legyen. Ez a kiértékelő program beolvassa a ptrac fájlt, és minden fotonra kiszámítja az energialeadások nagyságából és helyéből az átlagos koordinátát. A detektor belső (intrinsic) felbontásának modellezése végett a kapott koordinátákat 2,2 mm-es félértékszélességű Gauss-eloszlással elkenjük. Az összes leadott energiánál is hasonlóan járunk el, itt a félértékszélesség azonban arányos az energia gyökével, értéke 140 kev-en 9%. Az így kapott eseményeket 126 és 154 kev közötti energia esetén fogadjuk el, és koordinátáikhoz pixelt rendelünk. A verifikációhoz először pontforrást használtam. Egyrészt egy pontforrás vetületi képe olyan egyszerű, hogy akár szabad szemmel is látható, ha valami nagy különbség van a két program között. Másrészt ez az egyetlen forrás az MCNP-ben, melynél lehetőség van pontosan a megfelelő kúpszögekben indítani a fotonokat a pinhole-ok irányába, ezzel jelentős időt takarítva meg. A GPU kódnál ez nem szempont, hiszen az sokkal gyorsabb, azonban MCNP-vel egy pontforrásból 64, egyenként körülbelül 40 ezer beütést tartalmazó vetület előállításához még ilyen optimalizált esetben is 50 percre van szükség egy modern processzoron (Intel Core Duo T4200, 2.0 Ghz). Az összehasonlításokhoz végig az APT2 apertúrát használtam. 1 Programunkra a továbbiakban így hivatkozunk. A betűszó a Monte-Carlo Multi-Pinhole SPECT Simulation rövidítése. 34

4.1. ábra: Az MCNP modell keresztmetszete. 4.2. Verifikáció MCNP pontforrás-szimulációval Az első összehasonlítási lehetőség a két program futásideje. Az MCMPSS esetében 10 9 db, az (1 cm; 0, 5 cm) 2 pontból indított fotonból összesen 2,8 10 6 beütés lett. A szimuláció hatásfoka 3 erősen helyfüggő (az érzékenységhez hasonlóan), a látómező középpontjából [(0 cm; 0 cm)] 0,358%, míg a legszéléről [(3 cm; 1,2 cm)] csak 0,096%, ugyanakkor a futásidő körülbelül ugyanannyi. Iránytorzítás nélkül 10 9 foton szimulációja a jelenlegi paraméterekkel 18 s-ot igényel, ami 55,5 10 6 foton/s-nak felel meg. Visszatérve az (1 cm; 0, 5 cm) pontra, ebben az esetben körülbelül 3400- szor gyorsabb az elkészült kód az MCNP-nél. A vetítések ugyanazon szeletét mutatja a 4.2 és a 4.3 ábra, a két egységnyire normált projekció különbsége látható a 4.4 ábrán. Látható, hogy a két leképezés nagyon jól egyezik. A foltok elhelyezkedése ugyanolyan, és alakjuk is nagyon hasonló. A különbséget ábrázoló képen feltűnő szabályosság nem észlelhető, valószínűleg szinte csak a statisztikus szórás jelenik meg. Ennek az állításnak az alátámasztására egy MATLAB szkriptet készítettünk, mely minden egyes projekciót egységnyi beütésszámra normál, és kivonja a két 3D mátrixot egymásból. Emellett készít egy 3D hiba mátrixot is, melynek egy voxelében a különbség mátrix azonos voxeléhez tartozó abszolút szórás szerepel. Ezt a Poisson-eloszlásra jellemző N-es szórásokból Gauss-féle hibaterjedéssel számítja. Ezután mindkét mátrixot projekciókra bontja, melyeknek kiszámítja a kettes vektornormáját, és elosztja a különbséghez tartozó normákat a statisztikus hibához tartozóakkal. Ezzel egy relatív eltérést kapunk minden projekcióra, mely számot ad az eltérés mértékéről a statisztikus ingadozásból származó eltéréshez képest. Ezt a görbét mutatja a 4.5 ábra. Jól láthatjuk, hogy mindvégig egy egynél kisebb érték körül ingadozik a relatív eltérés, és itt sem látható szisztematikus kiugrás, ami alátámasztja, hogy a két kép nagyon jól egyezik. Összehasonlításképpen elvégeztem egy, az előzőtől független MCNP szimulációt, és megnéztem a két MCNP által generált kép közötti különbséget. Ezt a grafikont láthatjuk a 4.6 ábrán, mely nagyon hasonlít az előző eltérés grafikonra. Észrevehetjük, hogy egy kicsit alacsonyabb átlagos eltérés érték körül ingadozik a görbe, azonban a különbség a szóráshoz képest viszonylag alacsony, majdnem hibahatáron belüli. Ez egy nagyszerű eredmény annak tudatában, hogy az MCNP mennyivel részletesebben modellezi a fizikát, mint azt általunk írt program. Ugyanezeket a vizsgálatokat elvégeztük a látómező egyik szélső pontjára is [(3 cm; 1,2 cm)]. 2 A látómezőbeli koordináták a rendre a középponttól vett transz-axiális, illetve axiális távolságokat jelölik. Emlékezzünk vissza, hogy az APT2 apertúránál a látómező méretei: 60 mm 24 mm. 3 A szimuláció hatásfoka függ a különböző beállításoktól. Az itt szereplő értékekhez egyforma beállítások tartoznak. 35

4.2. ábra: Egy projekció a saját vetítésemből. 4.3. ábra: Ugyanaz a projekció az MCNP vetítésből. 4.4. ábra: Két normált projekció közötti különbség. A 4.7 ábra mutatja erre a vetítésre vonatkozó relatív eltérést, mely hasonlóan az előző összehasonlításhoz végig egy alatt ingadozik. Megfigyelhetünk egy jelentősebb növekedést a projekciók második felében. Ez azzal magyarázható, hogy ezek azok a vetületek, ahol a kollimátorhoz nagyon közel van a pontforrás, ezért sokszor csak néhány szórt foton jut a detektorba, ami értelemszerűen rontja a képek egyezését. Ugyanerre a pontforrásra is készítettem egy független MCNP szimulációt, a két MCNP futás eredménye közti eltérés látható a 4.8 ábrán. A két görbe lefutása hasonló, a projekciók első felében 0, 7 és 0, 8 között ingadoznak az értékek, majd mindkét esetben felugrik 1 köré a második szakaszon. Itt azonban néhány projekcióra az MCNP különbségeknél jóval mélyebb csúcsokat figyelhetünk meg. Ezek olyankor jelentkeznek, amikor a pontforrásból érkező fotonok egy apró foltot rajzolnak ki, melynél valószínűleg a sok szórt foton miatt nagy jelentősége van a koherens szórásnak is. Mivel ezt jelenleg még nem modellezzük, ezért tapasztalható ez a nagyobb eltérés. 4.3. További eredmények Miután sikerült a program megfelelő működését igazolni az MCNP-vel való összehasonlítás során, érdemes megnézni, hogy egy-két kulcsparaméter miként befolyásolja a hatékonyságot. 36

4.5. ábra: A relatív eltérés a projekciószám függvényében a (1 cm; 0, 5 cm) pontra. 4.6. ábra: A relatív eltérés ugyanott két MCNP szimulációra. 4.7. ábra: A relatív eltérés a projekciószám függvényében a látómező legszélén. 4.8. ábra: A relatív eltérés ugyanott két MCNP szimulációra. 37

minimális súly 0,01 0,05 0,1 0,2 sebesség (millió foton/s) 67,8 71,1 76,2 74,1 4.1. táblázat: A szimuláció sebessége a minimális súly függvényében. max. távolság (pinhole-átmérő egységekben) 1 1,5 2 2,5 hatásfok 0,237% 0,168% 0,115% 0,0892% 4.2. táblázat: A szimuláció hatásfoka a maximális távolság függvényében. 4.3.1. Paramétervizsgálat A látómező legszélén elhelyezett pontforrással végeztünk előrevetítéseket úgy, hogy a MC szimulációban annak a minimális súlynak az értékét változtattuk, ami alatt orosz rulettet játszunk a fotonokkal. Minden más paraméter értékét állandónak tartottuk (5 10 9 fotont indítottunk). A 4.1 táblázat foglalja össze a kapott eredményeket. Az eredményekből arra a következtetésre juthatunk, hogy létezik egy optimális minimum súly, melynél a leggyorsabb lesz a szimuláció. Természetesen ez az optimum függhet egyéb paraméterektől is. Ezután egy másik fontos, a pinhole-választást befolyásoló paraméter hatását vizsgáljuk. Ez az a paraméter, ami megmondja, hogy a pinhole középpontjától milyen távol lehet még a metszéspont pinhole-átmérő egységekben. A jelenlegi implementációban egy darab ilyen paraméter van, mely érvényes a forgástengellyel párhuzamos, és arra merőleges távolságra is. Ennek változtatása során csupán néhány százalékos sebesség-változást tapasztalhatunk, azonban a szimuláció hatásfoka nagyban változik. Ennek oka, hogy a maximális elfogadott távolság növelésével egyre több olyan fotont követünk, mely nem ad beütést, hanem elnyelődik a kollimátorban. A kapott hatásfokokat láthatjuk a 4.2 táblázatban. Innen az tűnik ki, hogy többszörös hatásfokbeli javulást is elérhetünk, ha csökkentjük a maximális távolságot. Azonban ez nem ennyire egyszerű, hiszen a nemkívánatos fotonokkal együtt kidobunk értékeseket is. Ezért az adott beállítás mellett ellenőrizni kell az MCNP képtől való eltérést. Ezt jellemzően elég megtenni egy látómező legszélén levő pontforrással, ugyanis ekkor zárják be a legnagyobb szöget a foton pályaegyenesek a pinhole-ok tengelyével, így ekkor lesz a legnagyobb jelentősége a pinhole-ok háromdimenziós kialakításának. Jól láthatjuk például az effektus következményét a 4.9 ábrán, ahol a paramétert 1-re csökkentettük látómező széli pontforrás használata mellett. Ez a görbe már közel sem hasonlít a két MCNP szimuláció közötti eltérésre (4.8 ábra). A tapasztalat szerint az APT2 kollimátornál 2 érték mellett az eredmény még megfelelő, azonban ez alatt a látómező szélső pontjainak képe jelentősebben eltorzul. 4.9. ábra: A relatív eltérés a maximális távolság 1 értéke mellett látómező széli pontforrással. 38

4.10. ábra: Konvergencia-görbék pontforrás rekonstrukcióra. 4.3.2. Pontforrás rekonstrukciója Ebben a részben megnézzük, hogy sikerül-e MCNP által generált vetületek alapján pontforrást rekonstruálnunk. A rekonstrukcióhoz az MLEM algoritmust alkalmazzuk, melynek minden előreés visszavetítésében egy-egy MC szimulációt hajtunk végre. Az MCNP előrevetítés a korábbiakban leírt módon történt, körülbelül 40000 beütést gyűjtöttünk vetületenként az (1 cm; 0, 5 cm) pontforrásból. A rekonstrukcióhoz körülbelül 10 9 fotont használtunk minden előre- és visszavetítésnél, 100 iteráción keresztül, 0,2 mm-es voxel-szélességgel. Két rekonstrukciót is elvégeztünk, egyet a detektor belső felbontásának modellezésével, egyet pedig anélkül. A rekonstruált képek összehasonlításához a cc-normát használjuk, melynek definíciója a következő: ( ) cov(a, B) cc_norm(a, B) = 1 100%, (4.1) cov(a, A) cov(b, B) ahol A és B a két összehasonlítandó vektor, valamint cov(a, B) = N (A i A) (B i B), (4.2) i N i A i N. ahol A = A kapott konvergencia-görbéket a 4.10 grafikonon láthatjuk, melyről elsőre szembetűnik, hogy mekkora jelentősége van a beütések Gauss-elkenésének. A görbék 30 iteráció után szétválnak, és míg az elkenés nélküli esetben 50 iteráció után alig tapasztalunk javulást, a másik görbe deriváltja még a századik iterációnál is jelentős. A nátrium-jodid kristály belső felbontásának modellezése a rekonstrukció során tehát elengedhetetlen. A századik iteráció után kapott képekből kiválasztottam egy-egy, a pontforrás középpontján átmenő egyenest, melyekre Gauss-függvényt illesztettem. A kapott félértékszélességek: 0,606 mm ± 0,020 mm Gauss-elkenéssel, valamint 0,669 mm±0,037 mm anélkül, amiből szintén jól látszik a különbség. A második esetben nem csak szélesebb lett a rekonstruált pont, hanem aszimmetrikusabb is. 4.3.3. Derenzo-fantom rekonstrukciója A korábbiakban vizsgált pontforrás az egyik legegyszerűbb matematikai fantom, és hatékonyan szimulálható MCNP-vel is, ami nagy előny. Azonban természetes igény, hogy valamilyen kiterjedt 39

4.11. ábra: Az MCNP fantom keresztmetszete. 4.12. ábra: A rekonstruált kép keresztmetszete. forrással is verifikáljuk a programunkat, ezáltal több szempontból is vizsgálhatnánk a rekonstrukció által előállított képek minőségét. Ilyen jellemzők például a homogenitás, jel-zaj viszony, kifolyási arány, linearitás, stb. Ezek átfogó vizsgálatához azonban sem a szükséges infrastruktúra, sem elegendő munkaóra nem állt rendelkezésemre. Egyetlen Derenzo-fantom rossz statisztikájú MCNP szimulációjához körülbelül 32 processzornapra volt szükség, ami a diplomaleadás előtti klaszterfoglaltság mellett igencsak hosszú időnek bizonyult. A Derenzo-fantom rúdátmérői 0,7 mm-től 1,2 mm-ig változnak, magasságuk 15 mm, a záró korongok átmérője 22 mm. Kollimátornak az APT2 apertúrát választottam, ami szimulált beütésszám mellett gyenge felbontást eredményezett, azonban a kisebb lyukátmérővel rendelkező APT3 apertúrával 3-4-szer ennyi lett volna a futásidő. Projekciónként körülbelül 1,1 millió beütést gyűjtöttem, továbbra is 64 vetületbe. Az MCNP fantom keresztmetszetét mutatja a 4.11 ábra. A rekonstrukcióhoz 1 10 11 fotont indítottam minden előre- és visszavetítésben 100 iteráción át. A voxel-szélesség 0,25 mm-re volt állítva. A 100. iteráció után kapott eloszlásból renderelt képet mutat a 4.13, ennek egy keresztmetszetét a 4.12 ábra. Ugyan sokkal nagyobb fotonszámmal rekonstruáltam, mint ami a szimulációban volt, ezért kevéssé szemcsés a kép, ugyanakkor jól látható, hogy a szimulációban gyűjtött beütésszám nem elégséges megfelelő minőségű rekonstrukcióhoz. Noha a fantom formája jól kivehető, a felső és alsó körlapok formája jól látszik, a köztük húzódó rudacskák összeolvadnak hat darab, közel homogén tömbbé, melyek csúnyán elvékonyodnak a körlapokkal való illeszkedésnél. A tömbök formája emlékeztet a rudak elhelyezkedésére, illetve a nagyobb rudakból álló csoportokban kivehetőek kissé világosabb foltok, emellett a renderelt képen is láthatunk némi barázdáltságot a tömbök felületén, ennek ellenére közel sem ezt az eredményt vártuk. Valószínűleg legalább 3-4-szer ennyi beütésre lenne szükség ugyanezzel a kollimátorral, hogy a nagyobb rudak jól elkülönüljenek. Sajnos tehát elsősorban az MCNP szimuláció gyenge statisztikája miatt ebből az eredményből komolyabb következtetést nem tudunk levonni. Az érdekesség kedvéért elvégeztem egy hasonló rekonstrukciót a saját előrevetítés által generált adatsoron is. A fantom egy hasonló külső méretekkel rendelkező Derenzo-fantom volt, azonban rúdátmérői 1 mm és 1,5 mm között változtak. Amellett, hogy a vastagabb rudakat jobb eséllyel lehet rekonstruálni, ennek a választásnak egy ennél sokkal prózaibb oka is volt, ez állt csak rendelkezésemre voxellizált formában. A rudak magassága 14 mm, a határoló korongok átmérője 25 mm. Maga a fantom ugyan nem teljesen ugyanaz, mint az előző, azonban eléggé hasonló ahhoz, hogy a két szimuláció sebességét nagyságrendileg összehasonlítsuk. Ugyan ezt megtettük már pontforrás esetén is, azonban itt egyrészt a látómező jóval nagyobb részére átlagolt eredményt kaphatunk, valamint nem tudunk már MCNP-vel hatékonyan iránytorzítást alkalmazni kiterjedt 40

4.13. ábra: MCNP előrevetítésből rekonstruált derenzo-fantom renderelt képe. forrásnál. Hogyha ugyanazt a statisztikát szerettük volna elérni ebben az esetben is, akkor GPU-n az előrevetítés 258 s-ot vett volna igénybe, azaz mintegy 10700-szor volt gyorsabb, mint az MCNP egy processzoron. A hatásfok 0,544%, a számlálási sebesség 286 kcps, a szimuláció sebessége 52,6 millió foton/s volt. Ez a hatalmas különbség jól mutatja a GPU architektúra általános célú használatában rejlő potenciált. Az leképezés során körülbelül 3,3 millió fotont gyűjtöttünk projekciónként (5 10 10 indított foton). A rekonstrukció során 5 10 10 fotont indítottunk előre- és visszavetítésenként, 142 iteráción keresztül. A 4.14 ábra mutatja a rekonstrukció konvergenciáját, a 100. iteráció utáni kép keresztmetszetét pedig a 4.15 ábrán láthatjuk. Az eloszlás renderelt képét a 4.16 ábrán figyelhetjük meg. Akár a keresztmetszeti, akár a háromdimenziós képeket hasonlítjuk össze, feltűnő a kétszeres statisztikabeli eltérés a korábbi rekonstrukció javára. A vetítések során indított fotonok számát felére csökkentve a kép jóval zajosabb, szemcsésebb lett. A konvergencia-görbéről is leolvashatjuk, hogy a 70. iteráció után a felgyülemlő zaj miatt nem javult tovább a kép, sőt, a 140. iteráció táján lassan növekedni is kezd a cc norma. Mindezek ellenére a nagyobb rúdátmérők és a háromszoros mérési statisztika hatása is megfigyelhető, a legnagyobb rudak egyértelműen elkülönülnek egymástól, de még az 1,2 mm-esek is lényegesen jobban kiemelkednek a háttérből, mint a korábbi rekonstrukciónál. A rudak csatlakozásánál fellépő deformációk is kevésbé jelentősek. Összegzésképpen még egyszer kiemelném, hogy mivel a szimulációk más fantomokkal és kissé más paraméterekkel készültek, ezért nem vonunk le komoly következtetéseket. Ugyanakkor hasonlóságuk lehetővé teszi a kvalitatív, vizuális összehasonlítást. Ennek során megfigyelhettük, hogy a képek közötti különbségek jól magyarázhatóak az eltérő adatokkal, egyúttal meglepő, nehezen magyarázható eltéréseket nem vettünk észre, ami bizakodásra ad okot. 41

4.14. ábra: GPU előrevetítés rekonstrukciójának konvergenciája. 4.15. ábra: GPU előrevetítésből rekonstruált kép keresztmetszete. 4.16. ábra: GPU előrevetítésből rekonstruált derenzo-fantom renderelt képe. 42