Odpowiedzi na pytania
Transkrypt
Odpowiedzi na pytania
TOM pytania i odpowiedzi Stanisław Adaszewski Jarek Beksa Maciej Brylski Narcyz Kielar Tomasz Kołcon Marcin Orłowski Aleksandra Rachocka Łukasz Włodarczyk 2, 3, 6, 8, 15 1 14, 16, 17 5, 11, 18 9, 13 4 10 7,12, 19 Widzisz błąd w odpowiedzi – nie ciesz się, tylko zgłoś – gg 409138, [email protected] 1. Dwie ważne daty z historii tomografii komputerowej • • Johan Radon w 1917 roku udowodnił, że obraz dwu- i trzywymiarowego obiektu można odtworzyć w sposób zupełny z nieskończonej ilości rzutów tego przedmiotu. Pierwszy tomograf, tzw. EMI scanner, został zbudowany w 1968 roku przez sir Godfreya Newbolda Hounsfielda 2. Twierdzenie o wstecznej projekcji. Korzystając z tego twierdzenia wyprowadź formułę rekonstrukcji tomograficznej z uŜyciem dwuwymiarowej transformaty Fouriera. 3. Podaj formułę opisującą algorytm filtrowanej projekcji wstecznej. Omów kolejne kroki algorytmu rekonstrukcji opartego na tej formule. 4. Znaczenie modyfikacji filtru |R| za pomocą funkcji okna dla jakości rekonstruowanego obrazu Kształt okna filtru jest istotny nie tylko ze względu na oscylacje (efekt Gibbsa), ale równieŜ ze względu na szum obecny w sygnale. Dla przedstawienia problemu przyjmiemy prosty model szumu: addytywny szum gaussowski. Zakładamy, Ŝe wartość średnia szumu jest równa zero a wariancja .2. Widmo amplitudowe szumu gaussowskiego jest równomierne (szum "biały"). Transformata Fouriera mierzonego sygnału jest sumą transformat sygnału i szumu. Widmo sygnału ma tendencję mieć małe wartości dla duŜych częstotliwości. Oznacza to, Ŝe dane są bardziej wiarygodne dla małych a mniej wiarygodne dla duŜych częstotliwości. Filtr tomograficzny ma duŜe wartości dla duŜych częstotliwości, wobec czego ma właściwości wzmacniania szumu dla tych częstotliwości. Modyfikacja okna filtru pozwala na ograniczenie tego efektu. Dobór filtru rekonstrukcji w algorytmie filtrowanej projekcji wstecznej ma duŜe znaczenie dla jakości rekonstrukcji. Optymalizacja parametrów filtru jest jednak związana z kompromisem pomiędzy obrazem wygładzonym, o małym szumie i słabej rozdzielczości a obrazem o lepszej rozdzielczości lecz zaszumionym, z artefaktami spowodowanymi efektem Gibbsa. UŜycie okna prostokątnego wiąŜe się z wprowadzaniem wysoko częstotliwościowych oscylacji do filtrowanego sygnału - zjawisko znane jako efekt Gibbsa. Oscylacje występują przy nieciągłościach w oryginalnej funkcji (stromych zboczach). Okno prostokątne filtru powoduje zakłócenia w rekonstruowanym obrazie. Z tego powodu uŜywa się innych okien filtru, które zmniejszają oscylacje kosztem wygładzenia obrazu. 5. Wzór opisujący addytywny algebraiczny algorytm rekonstrukcji (additive ART.). Omów własności tego algorytmu. Przedstaw geometryczną interpretację metody addytywnej. f jest N-wymiarowy, liczba projekcji – m, Wzór: – błąd oszacowania w i-tej iteracji – unormowany kierunek modyfikacji – parametr proporcjonalności <0,2>, parametr relaksacji Własności: • • • • • • algorytm jest pamięciowo oszczędny, do obliczenia wektora fi+1 w następnym kroku potrzebujemy tylko wektora z poprzedniego kroku, wektor fi+1 moŜe być zapisany w miejsce fi. relatywnie szybki algorytm, w praktyce tylko dla m-tej projekcji n-ty element wektora f ulega modyfikacji, gdy amn ≠ 0. Dla większości geometrii pomiarowych przewaŜająca liczba elementów macierzy A jest 0. wiersz am opisuje udział pikseli obrazu m-tej linii projekcji macierz A lepiej trzymać w postaci list, poniewaŜ na tylko 2K-1 pikseli przecina się z linią projekcji układ zbiega do rozwiązania o minimalnej wariancji (norma) algorytm moŜe zbiegać do rozwiązania średniokwadratowego Interpretacja geometryczna Macierz A ma wymiar m na N i jest nadokreślona, kaŜde z m równań opisuje prostą w N wymiarowej przestrzeni. Startując od f0 kolejne wektory fi+1 otrzymuje się przez ortogonalne rzutowanie fi na proste wyznaczone przez równania układu. W i-tym kroku N - wymiarowy wektor jest rzutowany na podprzestrzeń PN-1. Dla prostych przecinających się w jednym punkcie mamy 1 rozwiązanie układu, gdy układ jest sprzeczny i λ=1 (parametr relaksacji) algorytm nie osiągnie stabilnego rozwiązania. 6. Wyjaśnij znaczenie skrótu EM w nazwie iteracyjnego algorytmu rekonstrukcji tomograficznej ML-EM bazującego na kryterium największej wiarygodności. Omów własności algorytmu ML-EM. ML-EM = Maximum Likelihood Expectation Maximization. Własności: • • Funkcja wiarygodności ci L(g| fλ) jest wklęsła w całej swojej dziedzinie, jeśli macierz pomiaru A jest macierzą pełnego rzędu. Wtedy istnieje jedno, globalne maksimum wiarygodności. Rozwiązanie startowe musi być dodatnie, to znaczy musi spełniać warunek f λ0(b) > 0 b=1,2,…,B • • W przeciwnym przypadku estymata obrazu będzie cały czas równa zeru. (W obliczeniach przyjmujemy, Ŝe 0/0 = 0). Kolejne estymaty obrazu są nieujemne f λi >= 0 i>=1 Całkowita liczna zliczeń w obrazie jest stałą dla kaŜdej iteracji i związaną z całkowitą liczbą zliczeń w projekcjach poprzez zaleŜność: D ∑g • D k B ( d ) = ∑∑ a (b, d ) f λ (b) i d =1 d =1 b =1 Jeśli pierwsza (*) i druga (**) własność jest prawdziwa, to funkcja wiarygodności dąŜy do globalnego maksimum L ( f λ ) → Lmax i i →∞ śeby rozkminić dobrze te zaleŜności wypadałoby wiedzieć o co chodzi w samej metodzie. MoŜna o niej przeczytać w smolikowych materiałach – Rekonstrukcja_obrazu_z_projekcji_Metody_statystyczne.pdf, strona 11 z 18. 7. Znaczenie metod NK i NW w tomografii komputerowej. Statystyczne metody rekonstrukcji obrazu z projekcji znalazły zastosowanie w tomografii emisyjnej. W tomografii emisyjnej źródłem sygnału jest izotop promieniotwórczy - emiter promieniowania γ - wprowadzony do ciała pacjenta. Intensywność promieniowania - ilość emitowanych kwantów jest zmienną losową o rozkładzie Poissona. Statystyczne metody rekonstrukcji tomograficznej wykorzystują znajomość probabilistycznego opisu procesu pomiarowego. W przypadku badań medycznych największe znaczenie ma zdrowie pacjenta, a w przypadku badań inwazyjnych minimalizacja naraŜenia pacjenta. W tomografii emisyjnej dąŜy się do minimalizacji naraŜenia pacjenta na promieniowanie jonizujące, co oznacza małą liczbę zliczeń w projekcji (tzw. „słabą statystykę”). Przy małej liczbie zliczeń, kiedy wartości mierzone przybliŜają intensywność procesu z duŜym błędem, nie moŜna pominąć stochastycznej natury obserwowanego zjawiska. Metoda największej wiarygodności (metoda NW) (ang. maximum likelihood method – ML method) naleŜy do podstawowych metod estymacji parametrycznej stosowanych w statystyce matematycznej. Do poszukiwania estymatorów parametrów rozkładów losowych stosuje się: ● metodę momentów, ● metodę największej wiarygodności ● metodę najmniejszych kwadratów (metoda NK). Najczęściej stosowaną metodą estymacji jest metoda najmniejszych kwadratów, a to z tego względu, Ŝe za jej pomocą moŜna wyznaczać parametry pomiarów bez znajomości rozkładów, którym podlegają pomiary. Metoda NW wymaga większej ilości informacji o badanym procesie niŜ metoda NK. W tym wypadku zakłada się znajomość zaleŜności funkcyjnej rozkładu prawdopodobieństwa, z tym, Ŝe funkcja rozkładu zaleŜy od nieznanych wartości szukanych parametrów. n L(x1,x2 ,....,x n|m) = ∏ f(xi ,m) i =1 Funkcję L poszukiwanego parametru m nazywamy funkcją wiarygodności dla tego parametru. Metoda NW polega na maksymalizacji prawdopodobieństwa uzyskania serii pomiarów x1, x2, ..., xn to znaczy na przyjęcie za estymatę takiej wartości, dla której funkcja wiarygodności L przyjmuje wartość maksymalną. Sprowadza się to do spełnienia następujących warunków: ∂L =0 ∂m m =m ∂2L ∂m 2 <0 m =m W praktyce rozwaŜa się logarytmiczną funkcję wiarygodności, która w większości przypadków jest wygodniejsza dla wyprowadzeń. MoŜna pokazać, Ŝe wyznaczenie maksimum funkcji jest równowaŜne wyznaczeniu maksimum jej monotonicznej funkcji, nie prowadzi więc to do utraty ogólności. n ln L = ∑ f(xi ,m) i =1 Kryterium największej wiarygodności jest więc równowaŜne warunkowi: ∂ ln L =0 ∂m m =m oczywiście pod warunkiem, Ŝe druga pochodna jest ujemna. 8. Wymień i omów zjawiska wpływające na zakłócenia i zniekształcenia obrazu (artefakty) w tomografii rentgenowskiej. Czynniki powodujące zniekształcenia obrazu moŜemy podzielić na: • • • Geometryczne o Spowodowanie niedoskonałością systemu pomiarowego Wyrównanie wiązki promieniowania X Dokładność mechanizmu rotacji o Spowodowane przez pacjenta Poruszanie się pacjenta RóŜne rodzaje tkanek (patrz niŜej) Algorytmiczne o Spowodowane błędami detekcji Nieliniowa charakterystyka detektora Szum Dryft systemu pomiarowego o Spowodowane właściwościami promieniowania X Energia musi być odpowiednio dobrana, aby uzyskać kontrastowy obraz o Spowodowane promieniowaniem rozproszonym o Spowodowane błędami obliczeniowymi lub wyświetlania Związane z widmem energetycznym o Utwardzanie wiązki na kościach o Właściwości materiału, z którego zbudowany jest przedmiot badania (nie wiadomo jakie dziwa mogą się dziać z promieniowaniem X) Konkretne przykłady: • • • • • • • Ruch pacjenta (naleŜy pacjenta unieruchomić, jeśli trzeba zapewnić kontrolę oddechu, w cięŜkich przypadkach zaaplikować ciepły Pavulonik) Części metalowe w ciele pacjenta (nic się nie da zrobić), części metalowe poza ciałem pacjenta naleŜy usunąć Zbyt duŜa koncentracja kontrastu (naleŜy rozcieńczyć) Niewłaściwe ułoŜenie pacjenta (powinien znajdować się w centrum gantry) RóŜne rodzaje tkanek + utwardzanie wiązki na kościach (naleŜy zmniejszyć grubość slice’a, ew. zastosować filtr, który zapewni jednorodność wiązki docierającej do detektora) Dryft systemu pomiarowego (naleŜy przeprowadzić kalibrację) Nieliniowe artefakty związane z obecnością róŜnych rodzajów tkanek (są na to jakieś algorytmy) O co chodzi z tymi tkankami? OtóŜ problem dotyczy helikalnego skanera CT. Wiadomo, Ŝe w procesie takiego helikalnego skanowania natrafia się na miejsca, gdzie zmienia się rodzaj tkanek wraz z ruchem pacjenta i to znajduje odbicie w projekcjach. Więc jeśli jedna projekcja pojechała nam po Ŝebrze, a kolejna po płucku to w procesie rekonstrukcji obliczona liczba CT (to coś w skali Hounsfielda) będzie średnią z Ŝebra i płuca. Nie trzeba wiele główkować by zdać sobie sprawę, Ŝe nie jest to poŜądane i wprowadzi artefakty do obrazu. Jeśli pasjonujesz się artefaktami w obrazach CT polecam lekturę - Helical CT Artifacts. Powinna leŜeć takŜe w tym katalogu. 9. Budowa wielorzędowego helikalnego tomografu rentgenowskiego. Cztery generacje tomografów Pierwszy nadający się do uŜytku klinicznego tomograf został zainstalowany w 1971 roku (EMI CAT Scanner [ang]), dwa lata później był on juŜ dostępne komercyjnie. Tomograf ten pozwalał jedynie na wykonywanie badań głowy. RównieŜ w 1973 roku pojawiły się pierwsze aparaty przeznaczone do badań całego ciała (aparat ACTA [ang]). Były to tomografy pierwszej generacji, to znaczy wykorzystujące pojedynczy detektor (w rozwiązaniu firmy EMI dwa, do zbierania danych z dwu warstw) poruszany wraz z lampą translacyjnie (dla zebrania pełnej projekcji) i obrotowo (zmiana kąta przed rejestracją kolejnej projekcji). Czas zbierania danych do jednej warstwy wynosił w tomografie EMI ok. 4 1/2 minuty. Tak długi czas powodował występowanie artefaktów związanych z ruchem pacjenta, co było szczególnie zauwaŜalne w tomografie ACTA przeznaczonym do badania całego ciała (unieruchomienie głowy jest łatwiejsze, brak teŜ ruchów oddechowych). Dlatego juŜ w 1974 roku pojawił się tzw. tomograf Delta (firmy Ohio Nuclear), w którym zwiększona była liczba detektorów jednocześnie rejestrujących promieniowanie z wielu wiązek "ołówkowych" lub jednej w kształcie "wachlarza" (tzw. druga generacja). Czas zbierania danych z jednej warstwy został skrócony do 20 s. Z kolei w 1976 roku zaczął pracować pierwszy tomograf nie wykorzystujący ruchu translacyjnego (trzeciej generacji), a tylko obrotowy - było to moŜliwe dzięki dalszemu zwiększeniu liczby detektorów tak, Ŝe wiązka obejmowała cały przekrój pacjenta. Detektory scyntylacyjne zostały w nim zastąpione przez gazowe komory jonizacyjne, a czas potrzebny na zebranie danych z jednej warstwy skrócony do 5 s. Kolejnym krokiem naprzód było pojawienie się aparatów czwartej generacji, w których wirujący łuk detektorów został zastąpiony stacjonarnym pierścieniem detektorów scyntylacyjnych, co uprościło mechanikę urządzenia. Postęp konstrukcyjny jest moŜliwy między innymi dzięki wspomnianemu juŜ zastąpieniu pierwotnie uŜywanych detektorów, jakimi były scyntylatory połączone z fotopowielaczami, przez komory jonizacyjne wypełnione gazem, a następnie bardziej wydajnymi kryształami scyntylacyjnymi, z których światło zbierane jest przez fotodiody. Podstawowym celem opisanych zmian konstrukcyjnych jest skrócenie czasu badania. NaleŜy podkreślić, Ŝe określenia 3. i 4. generacja nie oznaczają automatycznie wyŜszości jednego rozwiązania nad drugim a tylko chronologiczną kolejność ich powstawania. Oczywiście istnieją pewne teoretyczne, wynikające z układu geometrycznego detektorów róŜnice w parametrach i osiągach aparatów obu generacji (róŜnice te dotyczą np. rozdzielczości i szumu w obrazie), w praktyce jednak większą rolę odgrywają róŜnice wynikające z postępu technicznego i polegające np. na zastosowaniu róŜnych detektorów. Współczesne tomografy są przede wszystkim urządzeniami 3. generacji, obecnie - o ile wiem - co najwyŜej jedna firma produkuje tomografy 4. generacji. Czas obrotu lampy wokół pacjenta jest we współczesnych aparatach 3. generacji skrócony nawet do 0,33 sek. Animacje działania tomografu (ruch lampy i detektorów): zabytkowy tomograf 1. generacji tomograf 3. generacji (192 kb, 9 sekund) (94 kb, 4 sekundy) Spiralna tomografia komputerowa Na przełomie lat osiemdziesiątych i dziewięćdziesiątych pojawiły się pierwsze aparaty umoŜliwiające wykonywanie spiralnej tomografii komputerowej. Nazwa pochodzi od spiralnego ruchu lampy względem pacjenta, uzyskiwanego poprzez przesuwanie pacjenta jednoczesne z ruchem obrotowym lampy. W poprzednich rozwiązaniach między zbieraniem danych z poszczególnych warstw konieczne były przerwy na zatrzymanie ruchu obrotowego lampy, przesunięcie pacjenta i ponowne wprawienie w ruch obrotowy lampy rentgenowskiej. Przy tomografii spiralnej przerwy te stają się zbędne, poniewaŜ dane z kolejnych warstw zbierane są w sposób ciągły. UmoŜliwia to znaczne skrócenie czasu badania, na przykład zbadanie całej klatki piersiowej podczas jednego wstrzymania oddechu przez pacjenta, co dodatkowo zmniejsza artefakty związane z ruchami pacjenta. Stosowanie tej metody jest moŜliwe dzięki rosnącej wydajności komputerów (konieczność przeprowadzenia interpolacji dla uzyskania danych dotyczących jednej warstwy, duŜa liczba danych rejestrowana w bardzo krótkim czasie) oraz lamp rentgenowskich (ciągła praca przez kilkadziesiąt sekund). Oprócz tego spiralna tomografia komputerowa wymaga rozwiązania problemu zasilania lampy rentgenowskiej (eliminacja kabli) oraz, w przypadku tomografów trzeciej generacji, połączenia układu detektorów z komputerem. Animacje działania tomografu - obrót lampy i przesuw stołu podczas rejestracji kilku kolejnych warstw: zwykły tomograf 3. generacji (357 kb, 15 sekund) tomograf spiralny (299 kb, 12 sekund) Tomografy wielorzędowe W ostatnich latach zaznacza się tendencja do zwiększania liczby układów detektorów tak, by moŜliwa była jednoczesna rejestracja więcej niŜ jednej warstwy. Pierwszy nowoczesny aparat mający takie moŜliwości pojawił się na rynku w 1992 (Elscint Twin). Jest to tomograf trzeciej generacji umoŜliwiający jednoczesne zbieranie danych z dwu warstw pacjenta (takŜe w trybie spiralnym). W drugiej połowie 1998 pojawiły się tomografy umoŜliwiające jednoczesne zbieranie danych z czterech warstw (za pomocą 8-34 układów detektorów rozmieszczonych wzdłuŜ osi z tomografu). Obecnie (2005 rok) na rynku dostępne są juŜ tomografy umoŜliwiające jednoczesną rejestrację 64 warstw grubości 0,5 mm kaŜda. Jednocześnie czas obrotu lampy wokół pacjenta został w niektórych aparatach skrócony do 0,33 s. Inne rozwiązanie pozwalające na dalsze zwiększanie liczby jednocześnie rejestrowanych warstw to podwójne ognisko lampy rentgenowskiej. Pewną, dość skutecznie przezwycięŜaną przez producentów komplikację przy zwiększaniu liczby układów detektorów stanowi konieczność modyfikacji uŜywanych algorytmów rekonstrukcji wiąŜąca się ze zmianą kształtu wiązki (przestaje ona leŜeć w jednej płaszczyźnie, zaczyna być rozbieŜna). W obecnych tomografach rozbieŜność wiązki jest jednak nadal niewielka (zwiększaniu liczby warstw towarzyszy zmniejszanie ich grubości). Nieco inna sytuacja występuje w przypadku opracowywanego przez firmę Toshiba tomografu 4D-CT [ang] rejestrującego 256 warstw o grubości 0,5 mm kaŜda. Zastosowanie więcej niż jednej lampy rtg W 2005 roku zaprezentowany został 64-rzędowy tomograf [ang], w którym zamontowano dwie lampy rentgenowskie i dwa układy detektorów. Przy jednej lampie minimalny czas zbierania danych wynosił 1/6 sekundy (pół obrotu lampy zajmującego 1/3 s), po dodaniu drugiego układu jest on o połowę krótszy i wynosi 1/12 sekundy. Tak krótki czas rejestracji ma znaczenie przede wszystkim w badaniach kardiologicznych oraz w radiologii urazowej. Potencjalnie interesującą moŜliwością jest wykonywanie badań z jednoczesnym zastosowaniem dwóch wiązek o róŜnej energii, np. 80 kV i 120 kV - analiza rejestrowanych w ten sposób danych mogłaby pozwolić na rozróŜnienie tkanek nierozróŜnialnych w 'zwykłej' tomografii komputerowej. Prosta animacja działania tomografu z dwiema lampami (bez uwzględnienia 'spiralności' i 'wielorzędowości'): tomograf z dwiema lampami rtg (228 kb, 3 sekundy) 10. Wymień i omów rodzaje koincydencji w tomografii PET. W tomografii PET występują 4 rodzaje koincydencji: a. b. c. d. koincydencja prawdziwa (ang. true) koincydencja rozproszona (ang. scattered) koincydencja fałszywa (ang.random) koincydencja wielokrotna (ang. multiple). Rysunek 1 rodzaje koincydencji w tomografii PET Koincydencja prawdziwa występuje wtedy, gdy oba fotony anihilacyjne docierają do detektorów w tym samym czasie, dodatkowo Ŝaden z fotonów nie oddziałuje z innymi cząstkami zanim dotrze do detektora oraz Ŝadne inne zdarzenie nie jest defekowane w tym samym oknie koincydencji. Koincydencja rozproszona jest takim rodzajem koincydencji, w którym co najmniej jeden z dwóch fotonów koincydencyjnych został co najmniej raz rozproszony comptonowsko zanim został dotarł do detektora. W związku z faktem, Ŝe podczas rozpraszania comptonowskiego zmienia się kierunek ruchu cząstki, jest bardzo prawdopodobne, Ŝe miejsce wystąpienia zjawiska koincydencji wewnątrz badanego obiektu zostanie źle określone. K.r. rozproszona powoduje obniŜenie kontrastu i powoduje, Ŝe koncentracja izotopu w określonym regionie zostaje sztucznie zawyŜona. Dodaje takŜe statystyczny szum do sygnału. Ilość zjawisk koincydencji rozproszonej zaleŜy od objętości oraz charakterystyki osłabiania promieniowania obrazowanego obiektu, jak równieŜ od geometrii układu obrazującego. Koincydencja fałszywa ma miejsce, gdy dwa fotony docierające do detektorów w czasie okna koincydencji systemu nie pochodzą z jednego zjawiska anihilacji. Liczba koincydencji fałszywych i ich udział w ogólnej liczbie koincydencji rośnie kwadratowo z aktywnością pierwiastka promieniotwórczego w polu widzenia kamery (ang. FOV – field of view). Podobnie, jak w przypadku koincydencji rozproszonej, liczba wykrytych koincydencji fałszywych zaleŜy od objętości oraz charakterystyki osłabiania promieniowania obrazowanego obiektu, jak równieŜ od geometrii układu obrazującego. Występowanie zjawiska koincydencji fałszywej jest tak samo prawdopodobne w całym FOV, będzie powodowało zwiększenie koncentracji izotopu. K.f. równieŜ powoduje dodanie do sygnały statystycznego szumu. O Koincydencji wielokrotnej mówimy wtedy, gdy więcej niŜ dwa fotony są docierają do róŜnych detektorów w czasie okna koincydencji. W takiej sytuacji nie jest moŜliwe określenie miejsca wystąpienia zjawiska anihilacji, zatem taka koincydencja nie bierze udziału w procesie rekonstrukcji. 11. Metody oceny jakości obrazu w tomografii rentgenowskiej Obrazy uzyskiwane techniką tomografii rentgenowskiej przewyŜszają jakością obrazy uzyskiwane innymi technikami tomograficznymi czy teŜ techniką radiografii. Nie oznacza to jednak, Ŝe naleŜy pomijać problem jakości obrazów CT. Do opisu jakości obrazów tomografii rentgenowskiej uŜywa się przedstawionych poniŜej parametrów. Większość z nich jest uŜywana jako standardowe parametry jakości obrazów, niektóre z nich dotyczą tylko tomografii rentgenowskiej. Kontrast określa zdolność rozróŜniania szczegółów róŜnego rozmiaru od otaczającego je tła, szczególnie w warunkach, gdy róŜnica poziomów szczegółów i tła jest mała. Kontrast jest zdefiniowany wzorem gdzie h jest wartością w jednorodnym obiekcie a b jest wartością jednorodnego tła. Najlepszą metodą prezentacji tego parametru jest wykres kontrastu w funkcji rozmiaru szczegółów. Przestrzenna zdolność rozdzielcza (spatial resolution) określa zdolność rozróŜniania małych obiektów o duŜym kontraście. Parametr ten jest zdeterminowany przez: geometrię pomiaru, rozmiar ogniska lampy rentgenowskiej, przestrzenną rozdzielczość matrycy detektorów promieniowania, liczbę detektorów, dyskretyzację i filtr rekonstrukcyjny. Istnieją dwie podstawowe metody wyraŜenia rozdzielczości przestrzennej. Pierwsza z nich polega na pomiarze szerokości połówkowej odpowiedzi impulsowej tomografu powstałej poprzez pomiar obrazu cienkiego drutu o wysokiej gęstości. Druga metoda polega na pomiarze funkcji przenoszenia modulacji. Do pomiaru uŜywa się fantomów w postaci pasków, otworów lub fantomu w postaci odwróconej gwiazdy. Rozmieszczenie obiektów w fantomie musi spełniać warunek, Ŝe odległość pomiędzy obiektami musi być równa ich rozmiarom. Mierząc kontrast dla danej wielkości obiektu (częstotliwości przestrzennej) wyznacza się wartość funkcji przenoszenia modulacji dla danej częstotliwości przestrzennej. Jednorodność (uniformity) opisuje niezaleŜność jakości obrazu od połoŜenia w tym obrazie. Mierząc obiekt jednorodny oczekujemy, Ŝe system obrazujący uzyska jednorodny obraz obiektu. W tomografii rentgenowskiej najczęściej występuje niejednorodność brzegów względem środka obrazu, która jest spowodowana niedokładną korekcją efektu utwardzania wiązki. Dokładność (acuracy) wyznaczania bezwzględnej wartości współczynnika osłabiania promieniowania przez system obrazujący. Jest to szczególnie istotny parametr, gdyŜ często istnieje potrzeba bezwzględnego pomiaru gęstości (np. pomiar gęstości kości przy podejrzeniu osteoporozy). Zakłócenia obrazu (artefakty) to zakłócenia obrazu w postaci systematycznych wzorów lub innych nie szumowych zniekształceń. Główne zakłócenia są powodowane przez: − ruch pacjenta, − ruch pacjenta spowodowany oddychaniem, − brak kalibracji wydajności detektorów (powoduje występowanie okręgów na obrazie ring artifacts), − brak zgodności środka rekonstrukcji ze środkiem obrotu (blurring), − obecność materiału o bardzo wysokim współczynniku osłabiania promieniowania (promienie wokół obiektu), − błąd odczytu aparatury elektronicznej. Grubość przekroju Parametr określa grubość warstwy, która ma wpływ na powstający obraz. Jest to wielkość większa od grubości przekroju wybieranej podczas ustawiania parametrów ekspozycji. Określa w jakim stopniu warstwy sąsiednie do wybranej wpływają na jakość obrazu – na skutek uśrednienia informacji pogarszają rozdzielczość przestrzenną w rekonstruowanej warstwie. Wydajność dawki Parametr określa efektywność wykorzystania dawki promieniowania, którą został obciąŜony pacjent. Efektywność wykorzystania dawki moŜe być oszacowane na podstawie następującego wzoru (formuła Brooks’a). 12. Omów dobór szerokości „okna” akceptacji koincydencji w tomografii PET. Po zarejestrowaniu fotonu przez detektor, w fotopowielaczu lub fotodiodzie formowany jest krótki impuls elektryczny przekazywany do układu koincydencyjnego. W układzie koincydencyjnym kaŜdy impuls jest wydłuŜany do czasu τ. τ to czas akceptacji koincydencji (okno czasowe układu koincydencji). Impulsy o szerokości τ są przekazywane do jednostki logicznej układu koincydencyjnego, który generuje impuls, jeśli na obu wejściach tego układu jednocześnie jest sygnał. Gdy w jednym kanale w chwili t pojawi się sygnał, koincydencja zostanie zarejestrowana, jeśli w drugim kanale wystąpił sygnał w przedziale czasu (t - τ, t + τ). Wartość τ musi być dobrana tak, aby nie gubić zdarzeń prawdziwych i nie zwiększać frakcji zdarzeń przypadkowych. Jeśli jest zbyt mała w porównaniu do rozdzielczości czasowej systemu (zakładamy, Ŝe czas lotu jest duŜo mniejszy od rozdzielczości czasowej), prawdziwe koincydencje będą gubione. Jeśli jest zbyt duŜy, zwiększona zostanie frakcja zdarzeń przypadkowych. Dla typowego, blokowego detektora BGO τ wynosi około 12 nS – przy czym czas wyświecania dla BGO wynosi około 300 ns. Jeśli układy kształtowania impulsów są wystarczająco szybkie i czas akceptacji koincydencji τ jest wystarczająco mały istotny staje się czas lotu fotonów. Dla skanera o średnicy pierścienia wynoszącym 1m i polu widzenia 60 cm, maksymalna róŜnica czasu pomiędzy rejestracją fotonów anihilacji wynosi około 2.7 ns. Teoretycznie istnieje moŜliwość budowy tomografu PET w oparciu o zasadę pomiaru czasu lotu. Pomiar czasu lotu eliminuje rekonstrukcję obrazu, zwiększa rozdzielczość skanera i stosunek sygnału do szumu. Taka zasada działania tomografu wymaga jednak elektroniki o rozdzielczości czasowej około 1 pikosekundy oraz szybkich detektorów takich jak BaF2, który ma szybką składową wyświecanego światła (stała czasowa 0.8 ns). 13. Budowa detektora w tomografii PET. Tomograf trójwymiarowy zbudowany jest w postaci układu detektorów otaczających badany obiekt (na przykład heksagonalny układ prostokątnych scyntylatorów). Aparat trójwymiarowy jest bardzo kosztowny ze względu na ilość i cenę detektorów, ale za to ma duŜo większą czułość pomiaru wynikającą ze zwiększonego kąta bryłowego obserwacji. Podczas pomiaru rejestrowane są zdarzenia na “liniach odpowiedzi”. W tomografii jednofotonowej najczęściej stosowany jest detektor powierzchniowy w postaci monolitycznego kryształu scyntylatora. Próbuje się równieŜ uŜywać powierzchniowych detektorów pozycyjnych w postaci komór wielodrutowych. W tomografii pozytonowej początkowo uŜywano detektorów powierzchniowych i choć jeszcze dzisiaj spotyka się urządzenia oparte na tym typie detektorów, to są one wypierane przez detektory pozycyjne, wielokryształowe. Głównym powodem tej tendencji jest duŜy czas martwy (mała częstotliwość akwizycji zdarzeń) detektorów powierzchniowych w porównaniu z detektorami w postaci układu małych kryształów (typowe wymiary 3x3x50 mm). W tomografach PET, jako materiał scyntylacyjny, uŜywany był początkowo jodek sodu (NaI(Tl)). Obecnie większość aparatów wyposaŜonych jest w kryształy z materiałów, takich jak BGO czy BaF2. W doborze materiału scyntylacyjnego uŜywanego w detektorach decydują głównie trzy parametry: wydajność detekcji (zaleŜy od liczby atomowej Z), wydajność kwantowa (ilość fotonów światła na jeden foton gamma) oraz szybkość działania (mały czas martwy). Jodek sodu charakteryzuje się wystarczającą wydajnością detekcji dla tomografii jednofotonowej, gdzie energia fotonów gamma jest stosunkowo mała (~140 keV). Przy tej energii konieczna jest duŜa wydajność świetlna scyntylatora, którą w największym stopniu zapewnia jodek sodu. W tomografii pozytonowej, gdzie fotony anihilacji mają energię 511 keV preferowane są materiały o duŜej wydajności detekcji (duŜej liczbie atomowej dla maksymalizacji zjawiska fotoelektrycznego). PoŜądane są równieŜ materiały o małym czasie martwym, gdyŜ częstość zdarzeń moŜe być duŜa, aŜ do miliona zliczeń na sekundę (1 MHz), co jest spowodowane brakiem kolimacji mechanicznej. Obecnie, w większości skanerów stosuje się germanian bizmutu (Bi4Ge3O12, w skrócie BGO) - szybki scyntylator o duŜej liczbie atomowej. Wprowadzane są równieŜ nowe scyntylatory charakteryzujące się duŜą szybkością działania, takie jak fluorek baru (BaF2) i fluorek cezu (CsF). Niestety scyntylatory te charakteryzują się duŜo mniejszą wydajnością kwantową, co oznacza gorszą rozdzielczość energetyczną, potrzebną do dyskryminacji fotonów comptonowskich. Tab. 6.4 Własności scyntylatorów stosowanych w tomografii PET 14. Omów dobór parametrów sekwencji w tomografii NMR w obrazowaniu parametrów PD,T1 i T2 Wzór na intensywność sygnału: Gdzie: PD czyli gęstość protonów, Tr – Czas repetycji, Te – Czas echa Dobierając Tr i Te moŜna uwypuklić w sygnale poszczególne parametry PD, T1 i T2. JeŜeli chcemy by główną role w obrazie odgrywała gęstość protonowa to naleŜy dobrać czasy Tr i Te tak aby Tr było długie (Tr > 1600 ms) a Te krótkie (Te < 35 ms). Wtedy mamy sytuację Ŝe wektor Mz odbuduje się w pełni (jego amplituda jest zaleŜna od PD). JeŜeli chcemy by główną role w obrazie odgrywał czas T1 to naleŜy dobrać czasy Tr i Te tak aby Tr było krótkie (Tr < 500 ms) i Te krótkie (Te < 30 ms). Wtedy wpasujemy się w moment w którym (w związku z róŜną prędkością odbudowy wektora Mz) róŜnica sygnałów będzie zaleŜna od T1. JeŜeli chcemy by główną role w obrazie odgrywał czas T2 to naleŜy dobrać czasy Tr i Te tak aby Tr było długie (Tr > 1500 ms) i Te długie (Te > 70 ms). Jednak Te nie moŜe być zbyt długie gdyŜ amplituda sygnałów spadnie zbytnio i przestanie być detekowalna. 15. Wyjaśnij zasadę powstawania obrazu NMR metoda fourierowska na przykładzie prostego obiektu (dwa punkty). Slice’a wiadomo jak wybieramy – róŜnicując częstotliwość Larmour’a (poprzez slice-select gradient) i zapodając wąskopasmowy impuls RF, czyli zakładamy, Ŝe odebrany sygnał pochodzi juŜ tylko z wybranego slice’a. Ograniczymy się zatem do rozpatrywania kodowania fazy i częstotliwości. Mamy sobie w wybranym slice’ie dwa punkciki – czerwony i niebieski. Raw data odebrane z takiej próbki: Nie wiem u licha czemu tak głupio to przedstawili, ale myślę, Ŝe chodzi ogólnie o sygnał echa, który najpierw narasta a potem maleje. Cały czas z odbieranego sygnału liczymy sobie transformatę Fouriera, czyli otrzymujemy zestaw liczb zespolonych, z których następnie moŜemy sobie obliczyć moduł i argument czyli na nasze tłumacząc – amplitudę i fazę. I wychodzi takie coś: DuŜo tych rysunków, ale IMHO wystarczy to sobie wyobrazić. No i juŜ wiadomo, Ŝe na przecięciu tych dwóch linii mamy nasze źródła sygnału, którym przypisujemy wartość taką jaka była amplituda. Rysunek 3, Tutaj są przedstawione amplitudy dla poszczególnych częstotliwości. A następnie: Rysunek 2, …fazy dla nich 16. Opisz zasadę działania obrazowania fourierowskiego w tomografii NMR na przykładzie sekwencji π/2 Na początku wytwarzamy gradient pola w osi Z (osi w której jest jednorodne pole B). PoniewaŜ częstotliwość Larmorowska zaleŜy od wartości pola magnetycznego to po podaniu gradientu Gz uzyskujemy warstwy o innych częstotliwościach L. Wzbudzając sygnałem RF o odpowiedniej częstotliwości moŜemy wybrać konkretna warstwę (czyli mamy juŜ płaszczyznę o grubości delta Z). Po podaniu impulsu pi/2 wektor magnetyzacji kładzie nam się na płaszczyznę XY i zaczyna wirować z określoną częstotliwością. Następnie w czasie odbioru sygnału FID podajemy w osi Y gradient Gy. W tym momencie pod wpływem gradientu Gy Wektor magnetyzacji Mxy rozdziela się wzdłuŜ osi Y na poszczególne wektory o róŜnej częstotliwości wirowania. Po z czytaniu sygnału FID będziemy mieli informacje o połoŜeniu w osi Y zakodowaną w częstotliwości. Aby wybrać konkretny weksel w osi X przed samym sygnałem FID podajemy krótki gradient w osi X. PoniewaŜ czym większe pole B tym większa częstotliwość wirowania więc przy dostatecznie krótkim impulsie Gx wektory rozfalują się wzdłuŜ osi X i po z czytaniu sygnału FID połoŜenie w osi X będziemy mieli zakodowane w fazie. Tak uzyskane sygnały FID ze wszystkich wokseli z połoŜeniem zakodowanym w częstotliwości i fazie poddajemy algorytmowi dwu wymiarowej transformaty Fouriera uzyskując obraz na ekranie. PoniŜej znajduje się obrazek z sekwencją gradientów i sygnałem FID. 17. Omów metodę pomiaru pojemności „charge-discharge” stosowaną w tomografii pojemnościowej. Sygnał nadawany to fala prostokątna o f =1~3 MHz Jednokrotne przeładowanie pojemności Cx (pojemność między elektrodowa, czyli ta mierzona) napięciem Vc powoduje przepływ ładunku Q0 zgodnie ze wzorem Q0 = Cx * Vc Przy przeładowywaniu z częstotliwością f prąd płynący w obwodach wejściowych obu wzmacniaczy wynosi średnio: I = f * Cx * Vc Ładunek Q0 gromadzi się w kondensatorach C znajdujących się w obwodach wzmacniaczy, zaś rezystancja Rf przekształca prąd I w wolnozmienne napięcie: V1 = Rf * f * Cx * Vc V2 = -Rf * f * Cx * Vc Na wyjściu wzmacniacza trzeciego o wzmocnieniu K pojawia się sygnał będący róŜnicą sygnałów V1 i V2: V3 = 2 * K * Rf * Cx * Vc Napięcie V3 ma częściowo skompensowane napięcia błędów obu gałęzi. Bardzo istotny jest tutaj błąd wstrzykiwania ładunku w przełącznikach analogowych związany z istnieniem istotnej pojemności pasoŜytniczej pomiędzy bramkami a kanałami tranzystorów polowych w układzie przełącznika. Pojemność Cs1 jest pojemnością pasoŜytniczą źródła pobudzającego elektrodę nadawczą, ale jeŜeli źródło ma wystarczającą wydajność prądową to Cs1 jest do pominięcia. Pojemność Cs2 wisi między masą wirtualną a galwaniczną więc róŜnica potencjałów na niej jest znikoma a co za tym idzie i jej rola w układzie. 18. Znaczenie macierzy czułości w elektrycznej tomografii pojemnościowej S nazywane jest macierzą czułości (ang. Sensitivity Matrix). S ma wymiar (M x N) i składa się z M zbiorów (map) po N (typowo 1024) współczynników (1 mapa dla kaŜdej z M par elektrod. Współczynniki te reprezentują względną zmianę pojemności danej pary elektrod w przypadku, gdy następuje jednostkowa zmiana przenikalności kaŜdego z N (np. 1024) pikseli. W sytuacji, gdy zmierzono pojemności międzyelektrodowe C, otrzymanie rozkładuprzenikalności K sprowadza się do obliczenia: K = Q × C gdzie Q jest macierzą o wymiarze (N x M) i powinna być macierzą odwrotną do S. Pojęcie macierzy odwrotnej zdefiniowane jest jednak dla macierzy kwadratowej (gdy M = N). NiemoŜliwość obliczenia macierzy odwrotnej do S i zastosowania jej w rekonstrukcji oznacza matematyczne potwierdzenie, Ŝe nie jest fizycznie moŜliwa dokładna rekonstrukcja obrazu dla liczby pikseli (np. 1024) większej niŜ liczba dostępnych pomiarów (np. 66). PoniewaŜ nie istnieje dokładna macierz odwrotna, musi być zastosowane jej pewnego rodzaju przybliŜenie. W algorytmie LBP stosuje się transpozycję macierzy czułości ST. Ma ona wymagany wymiar (N x M). Nie wiemy dokładnie, jaki jest udział poszczególnych elementów (pikseli) obiektu w pojemnościach, zmierzonych między poszczególnymi parami elektrod. Z macierzy czułości S wynika jednak, Ŝe pewne piksele mają większy, a inne mniejszy udział w poszczególnych zmierzonych pojemnościach. Przydzielamy więc wartości składowe do pikseli proporcjonalnie do iloczynu pojemności międzyelektrodowej i współczynnika czułości piksela dla danej pary elektrod. Proces ten powtarzamy po kolei dla kaŜdej pojemności międzyelektrodowej. Wartości składowe, uzyskane dla kaŜdego piksela, są sumowane dla całego zakresu par elektrod. Przekształcenie proste (macierz czułości) musi być obliczone lub zmierzone dla kaŜdej sondy, zanim zostanie ona zastosowana w systemie tomografii pojemnościowej. Metoda obliczenia współczynników S dla pary elektrod i oraz j moŜe być oparta na równaniu: S = ∫A Ei × Ej × dA gdzie Ei jest natęŜeniem pola elektrycznego wewnątrz sondy dla sytuacji, gdy elektroda i jest pobudzana jako elektroda źródłowa, Ej jest natęŜeniem pola, gdy pobudzana jest elektroda j. Iloczyn kropkowy wektorów natęŜenia pola elektrycznego Ei oraz Ej całkowany jest po powierzchni A piksela. W przypadku sondy z wewnętrznymi elektrodami, mierzone pojemności rosną proporcjonalnie do przenikalności, jeŜeli sonda wypełniana jest jednorodnym dielektrykiem. JednakŜe w przypadku sondy z elektrodami zewnętrznymi, przenikalność ścian sondy wnosi istotny wkład w mierzone pojemności i powoduje, Ŝe zmiany pojemności w funkcji przenikalności obiektu są nieliniowe, a charakterystyka sondy zaleŜy od jej ścian – od ich grubości i materiału, z jakiego są wykonane. Zbiór współczynników czułości dla kaŜdej pary elektrod nazywany jest mapą czułości dla tej pary elektrod. W pewnych przypadkach moŜliwe jest analityczne obliczenie rozkładu pola elektrycznego w sondzie pojemnościowej. MoŜliwe jest wtedy dokładne obliczenie współczynników czułości i pojemności międzyelektrodowych. Dotyczy to głównie sond o symetrii kołowej, z elektrodami wewnętrznymi lub zewnętrznymi. Alternatywą, szczególnie dla przypadków o bardziej złoŜonej geometrii, jest numeryczne obliczenie współczynników czułości. PoniewaŜ sonda pojemnościowa cechuje się zazwyczaj daleko idącą symetrią, wystarczające jest zazwyczaj obliczenie kilku podstawowych map czułości. Komplet map czułości uzyskiwany jest następnie przez symetrie lub rotacje. PoniŜsza ilustracja przedstawia graficznie podstawowe mapy czułości dla sondy 8-elektrodowej. 19. Algorytm Landwebera z modyfikacją macierzy czułości w tomografii elektrycznej Mierzona pojemność zależy od wielkości rozkładu gradientu przenikalności elektrycznej: Cm = 1 Um ∫ ε ( x, y, z)Em( x, y, z)dΓm Γm Dokonujemy aproksymacji liniowej C=f(ε). Rozwiązujemy taki oto układ: S MxN ε N = CM Jest to dyskretny model liniowy. S – macierz czułości, E – przestrzenny rozkład przenikalności , C – mierzona pojemność, C=f(ε) Macierz czułości wyznacza się eksperymentalnie. Typowy czujnik 12 elektrod, co daje M=66 niezależnych pomiarów pojemności. Matryca rekonstruowanego obrazu N= 32*32 = 1024. Wyznaczenie macierzy czułości – problem „w przód” ● współczynniki macierzy potencjału (wyznacza się np. metodą elementów skończonych FEM) ● współczynniki macierzy czułości zależą od rozkładu potencjału ● ale rozkład potencjału zależy od rozkładu przenikalności, który jest niewiadomą. Pomiar macierzy czułości ° metoda zaburzeń - symulacja przenikalności w punkcie, wyznaczenie rozkładów pola, wyznaczenie Cm z prawa Gaussa ° zasada wzajemności Helmholza (impedancja wzajemna) - pojemność międzyelektrodowa pary elektrod jest taka sama niezaleznie od wyboru elektrody wymuszającej ∂Q 1 =− ∂ε n Uab ∫ ∇φnψ n dΩ n , Ωn [niestety nie mam zanotowane w kapowniku, co oznaczają te poszczególne mróweczki w powyższym wzorze, więc trzeba sobie wydedukować] °wyznaczenie rozkładu pola przy pobudzeniu przez każdą elektrodę z pary elektrod Algorytmy interacyjne (w tym Landweber ) minimalizują normę: f (ε ) =|| Sε − C || Algorytm Landwebera ma postać: εˆi +1 = εˆi − λi S T ( Sεˆi − C ) Iteracyjny algorytm z modyfikacją czułości: ● rezultaty rekonstrukcji obrazów przez algorytm z modyfikacją czułości są znacznie lepsze od tych bez modyfikacji ● nawet dwie, trzy modyfikacje macierzy czułości przynoszą znakomitą poprawę jakości rekonstruowanego obrazu ALGORITHM :) ● rozwiązanie początkowe ● jednorodny rozkład przenikalności ● macierz czułości dla równomiernego rozkładu przenikalności Krok algorytmu(*) ● 100 iteracji algorytmu Landwebera ● wyznacz różnicę pomiędzy zmierzonymi, a wyznaczonymi dla bieżącego rozwiązania pojemnościami ● skoryguj współczynnik relaksacji ● wyznacz macierz czułości dla bieżącego rozwiązania ● sprawdź warunek końcowy (liczba iteracji) jeśli osiągnięty – KONIEC, inaczej goto (*)