Odpowiedzi na pytania

Transkrypt

Odpowiedzi na pytania
TOM pytania i odpowiedzi
Stanisław Adaszewski
Jarek Beksa
Maciej Brylski
Narcyz Kielar
Tomasz Kołcon
Marcin Orłowski
Aleksandra Rachocka
Łukasz Włodarczyk
2, 3, 6, 8, 15
1
14, 16, 17
5, 11, 18
9, 13
4
10
7,12, 19
Widzisz błąd w odpowiedzi – nie ciesz się, tylko zgłoś – gg 409138, [email protected]
1. Dwie ważne daty z historii tomografii komputerowej
•
•
Johan Radon w 1917 roku udowodnił, że obraz dwu- i trzywymiarowego obiektu można odtworzyć w sposób zupełny
z nieskończonej ilości rzutów tego przedmiotu.
Pierwszy tomograf, tzw. EMI scanner, został zbudowany w 1968 roku przez sir Godfreya Newbolda Hounsfielda
2. Twierdzenie o wstecznej projekcji. Korzystając z tego twierdzenia wyprowadź formułę rekonstrukcji
tomograficznej z uŜyciem dwuwymiarowej transformaty Fouriera.
3. Podaj formułę opisującą algorytm filtrowanej projekcji wstecznej. Omów kolejne kroki algorytmu
rekonstrukcji opartego na tej formule.
4. Znaczenie modyfikacji filtru |R| za pomocą funkcji okna dla jakości rekonstruowanego obrazu
Kształt okna filtru jest istotny nie tylko ze względu na oscylacje (efekt Gibbsa), ale równieŜ ze względu na szum
obecny w sygnale. Dla przedstawienia problemu przyjmiemy prosty model szumu: addytywny szum gaussowski.
Zakładamy, Ŝe wartość średnia szumu jest równa zero a wariancja .2. Widmo amplitudowe szumu gaussowskiego jest
równomierne (szum "biały"). Transformata Fouriera mierzonego sygnału jest sumą transformat sygnału i szumu.
Widmo sygnału ma tendencję mieć małe wartości dla duŜych częstotliwości. Oznacza to, Ŝe dane są bardziej
wiarygodne dla małych a mniej wiarygodne dla duŜych częstotliwości. Filtr tomograficzny ma duŜe wartości dla
duŜych częstotliwości, wobec czego ma właściwości wzmacniania szumu dla tych częstotliwości. Modyfikacja okna
filtru pozwala na ograniczenie tego efektu. Dobór filtru rekonstrukcji w algorytmie filtrowanej projekcji wstecznej
ma duŜe znaczenie dla jakości rekonstrukcji. Optymalizacja parametrów filtru jest jednak związana z kompromisem
pomiędzy obrazem wygładzonym, o małym szumie i słabej rozdzielczości a obrazem o lepszej rozdzielczości lecz
zaszumionym, z artefaktami spowodowanymi efektem Gibbsa.
UŜycie okna prostokątnego wiąŜe się z wprowadzaniem wysoko częstotliwościowych oscylacji do filtrowanego
sygnału - zjawisko znane jako efekt Gibbsa. Oscylacje występują przy nieciągłościach w oryginalnej funkcji
(stromych zboczach). Okno prostokątne filtru powoduje zakłócenia w rekonstruowanym obrazie. Z tego powodu
uŜywa się innych okien filtru, które zmniejszają oscylacje kosztem wygładzenia obrazu.
5. Wzór opisujący addytywny algebraiczny algorytm rekonstrukcji (additive ART.). Omów własności
tego algorytmu. Przedstaw geometryczną interpretację metody addytywnej.
f jest N-wymiarowy, liczba projekcji – m,
Wzór:
– błąd oszacowania w i-tej iteracji
– unormowany kierunek modyfikacji
– parametr proporcjonalności <0,2>, parametr relaksacji
Własności:
•
•
•
•
•
•
algorytm jest pamięciowo oszczędny, do obliczenia wektora fi+1 w następnym kroku potrzebujemy tylko
wektora z poprzedniego kroku, wektor fi+1 moŜe być zapisany w miejsce fi.
relatywnie szybki algorytm, w praktyce tylko dla m-tej projekcji n-ty element wektora f ulega modyfikacji,
gdy amn ≠ 0. Dla większości geometrii pomiarowych przewaŜająca liczba elementów macierzy A jest 0.
wiersz am opisuje udział pikseli obrazu m-tej linii projekcji
macierz A lepiej trzymać w postaci list, poniewaŜ na tylko 2K-1 pikseli przecina się z linią projekcji
układ zbiega do rozwiązania o minimalnej wariancji (norma)
algorytm moŜe zbiegać do rozwiązania średniokwadratowego
Interpretacja geometryczna
Macierz A ma wymiar m na N i jest nadokreślona, kaŜde z m równań opisuje prostą w N wymiarowej przestrzeni.
Startując od f0 kolejne wektory fi+1 otrzymuje się przez ortogonalne rzutowanie fi na proste wyznaczone przez
równania układu. W i-tym kroku N - wymiarowy wektor jest rzutowany na podprzestrzeń PN-1.
Dla prostych przecinających się w jednym punkcie mamy 1 rozwiązanie układu, gdy układ jest sprzeczny
i λ=1 (parametr relaksacji) algorytm nie osiągnie stabilnego rozwiązania.
6. Wyjaśnij znaczenie skrótu EM w nazwie iteracyjnego algorytmu rekonstrukcji tomograficznej ML-EM
bazującego na kryterium największej wiarygodności. Omów własności algorytmu ML-EM.
ML-EM = Maximum Likelihood Expectation Maximization.
Własności:
•
•
Funkcja wiarygodności ci L(g| fλ) jest wklęsła w całej swojej dziedzinie, jeśli macierz pomiaru A jest
macierzą pełnego rzędu. Wtedy istnieje jedno, globalne maksimum wiarygodności.
Rozwiązanie startowe musi być dodatnie, to znaczy musi spełniać warunek
f λ0(b) > 0 b=1,2,…,B
•
•
W przeciwnym przypadku estymata obrazu będzie cały czas równa zeru. (W obliczeniach przyjmujemy, Ŝe
0/0 = 0).
Kolejne estymaty obrazu są nieujemne f λi >= 0 i>=1
Całkowita liczna zliczeń w obrazie jest stałą dla kaŜdej iteracji i związaną z całkowitą liczbą zliczeń w
projekcjach poprzez zaleŜność:
D
∑g
•
D
k
B
( d ) = ∑∑ a (b, d ) f λ (b)
i
d =1
d =1 b =1
Jeśli pierwsza (*) i druga (**) własność jest prawdziwa, to funkcja wiarygodności dąŜy do globalnego
maksimum
L ( f λ ) → Lmax
i
i →∞
śeby rozkminić dobrze te zaleŜności wypadałoby wiedzieć o co chodzi w samej metodzie. MoŜna o niej
przeczytać w smolikowych materiałach – Rekonstrukcja_obrazu_z_projekcji_Metody_statystyczne.pdf,
strona 11 z 18.
7. Znaczenie metod NK i NW w tomografii komputerowej.
Statystyczne metody rekonstrukcji obrazu z projekcji znalazły zastosowanie w tomografii emisyjnej. W tomografii
emisyjnej źródłem sygnału jest izotop promieniotwórczy - emiter promieniowania γ - wprowadzony do ciała pacjenta.
Intensywność promieniowania - ilość emitowanych kwantów jest zmienną losową o rozkładzie Poissona. Statystyczne
metody rekonstrukcji tomograficznej wykorzystują znajomość probabilistycznego opisu procesu pomiarowego. W
przypadku badań medycznych największe znaczenie ma zdrowie pacjenta, a w przypadku badań inwazyjnych
minimalizacja naraŜenia pacjenta. W tomografii emisyjnej dąŜy się do minimalizacji naraŜenia pacjenta na
promieniowanie jonizujące, co oznacza małą liczbę zliczeń w projekcji (tzw. „słabą statystykę”). Przy małej liczbie
zliczeń, kiedy wartości mierzone przybliŜają intensywność procesu z duŜym błędem, nie moŜna pominąć
stochastycznej natury obserwowanego zjawiska.
Metoda największej wiarygodności (metoda NW) (ang. maximum likelihood method – ML method) naleŜy do
podstawowych metod estymacji parametrycznej stosowanych w statystyce matematycznej. Do poszukiwania
estymatorów parametrów rozkładów losowych stosuje się:
● metodę momentów,
● metodę największej wiarygodności
● metodę najmniejszych kwadratów (metoda NK).
Najczęściej stosowaną metodą estymacji jest metoda najmniejszych kwadratów, a to z tego względu, Ŝe za jej pomocą
moŜna wyznaczać parametry pomiarów bez znajomości rozkładów, którym podlegają pomiary. Metoda NW wymaga
większej ilości informacji o badanym procesie niŜ metoda NK. W tym wypadku zakłada się znajomość zaleŜności
funkcyjnej rozkładu prawdopodobieństwa, z tym, Ŝe funkcja rozkładu zaleŜy od nieznanych wartości szukanych
parametrów.
n
L(x1,x2 ,....,x n|m) = ∏ f(xi ,m)
i =1
Funkcję L poszukiwanego parametru m nazywamy funkcją wiarygodności dla tego parametru.
Metoda NW polega na maksymalizacji prawdopodobieństwa uzyskania serii pomiarów x1, x2, ..., xn to znaczy na
przyjęcie za estymatę takiej wartości, dla której funkcja wiarygodności L przyjmuje wartość maksymalną. Sprowadza
się to do spełnienia następujących warunków:
∂L
=0
∂m m =m
∂2L
∂m
2
<0
m =m
W praktyce rozwaŜa się logarytmiczną funkcję wiarygodności, która w większości przypadków jest wygodniejsza dla
wyprowadzeń. MoŜna pokazać, Ŝe wyznaczenie maksimum funkcji jest równowaŜne wyznaczeniu maksimum jej
monotonicznej funkcji, nie prowadzi więc to do utraty ogólności.
n
ln L = ∑ f(xi ,m)
i =1
Kryterium największej wiarygodności jest więc równowaŜne warunkowi:
∂ ln L
=0
∂m m =m
oczywiście pod warunkiem, Ŝe druga pochodna jest ujemna.
8. Wymień i omów zjawiska wpływające na zakłócenia i zniekształcenia obrazu (artefakty)
w tomografii rentgenowskiej.
Czynniki powodujące zniekształcenia obrazu moŜemy podzielić na:
•
•
•
Geometryczne
o Spowodowanie niedoskonałością systemu pomiarowego
Wyrównanie wiązki promieniowania X
Dokładność mechanizmu rotacji
o Spowodowane przez pacjenta
Poruszanie się pacjenta
RóŜne rodzaje tkanek (patrz niŜej)
Algorytmiczne
o Spowodowane błędami detekcji
Nieliniowa charakterystyka detektora
Szum
Dryft systemu pomiarowego
o Spowodowane właściwościami promieniowania X
Energia musi być odpowiednio dobrana, aby uzyskać kontrastowy obraz
o Spowodowane promieniowaniem rozproszonym
o Spowodowane błędami obliczeniowymi lub wyświetlania
Związane z widmem energetycznym
o Utwardzanie wiązki na kościach
o Właściwości materiału, z którego zbudowany jest przedmiot badania (nie wiadomo jakie dziwa mogą
się dziać z promieniowaniem X)
Konkretne przykłady:
•
•
•
•
•
•
•
Ruch pacjenta (naleŜy pacjenta unieruchomić, jeśli trzeba zapewnić kontrolę oddechu, w cięŜkich
przypadkach zaaplikować ciepły Pavulonik)
Części metalowe w ciele pacjenta (nic się nie da zrobić), części metalowe poza ciałem pacjenta naleŜy usunąć
Zbyt duŜa koncentracja kontrastu (naleŜy rozcieńczyć)
Niewłaściwe ułoŜenie pacjenta (powinien znajdować się w centrum gantry)
RóŜne rodzaje tkanek + utwardzanie wiązki na kościach (naleŜy zmniejszyć grubość slice’a, ew. zastosować
filtr, który zapewni jednorodność wiązki docierającej do detektora)
Dryft systemu pomiarowego (naleŜy przeprowadzić kalibrację)
Nieliniowe artefakty związane z obecnością róŜnych rodzajów tkanek (są na to jakieś algorytmy)
O co chodzi z tymi tkankami? OtóŜ problem dotyczy helikalnego skanera CT. Wiadomo, Ŝe w procesie takiego
helikalnego skanowania natrafia się na miejsca, gdzie zmienia się rodzaj tkanek wraz z ruchem pacjenta i to znajduje
odbicie w projekcjach. Więc jeśli jedna projekcja pojechała nam po Ŝebrze, a kolejna po płucku to w procesie
rekonstrukcji obliczona liczba CT (to coś w skali Hounsfielda) będzie średnią z Ŝebra i płuca. Nie trzeba wiele
główkować by zdać sobie sprawę, Ŝe nie jest to poŜądane i wprowadzi artefakty do obrazu.
Jeśli pasjonujesz się artefaktami w obrazach CT polecam lekturę - Helical CT Artifacts. Powinna leŜeć takŜe w tym
katalogu.
9. Budowa wielorzędowego helikalnego tomografu rentgenowskiego.
Cztery generacje tomografów
Pierwszy nadający się do uŜytku klinicznego tomograf został zainstalowany w 1971 roku (EMI CAT Scanner [ang]),
dwa lata później był on juŜ dostępne komercyjnie. Tomograf ten pozwalał jedynie na wykonywanie badań głowy.
RównieŜ w 1973 roku pojawiły się pierwsze aparaty przeznaczone do badań całego ciała (aparat ACTA [ang]). Były
to tomografy pierwszej generacji, to znaczy wykorzystujące pojedynczy detektor (w rozwiązaniu firmy EMI dwa, do
zbierania danych z dwu warstw) poruszany wraz z lampą translacyjnie (dla zebrania pełnej projekcji) i obrotowo
(zmiana kąta przed rejestracją kolejnej projekcji). Czas zbierania danych do jednej warstwy wynosił w tomografie
EMI ok. 4 1/2 minuty. Tak długi czas powodował występowanie artefaktów związanych z ruchem pacjenta, co było
szczególnie zauwaŜalne w tomografie ACTA przeznaczonym do badania całego ciała (unieruchomienie głowy jest
łatwiejsze, brak teŜ ruchów oddechowych). Dlatego juŜ w 1974 roku pojawił się tzw. tomograf Delta (firmy Ohio
Nuclear), w którym zwiększona była liczba detektorów jednocześnie rejestrujących promieniowanie z wielu wiązek
"ołówkowych" lub jednej w kształcie "wachlarza" (tzw. druga generacja). Czas zbierania danych z jednej warstwy
został skrócony do 20 s. Z kolei w 1976 roku zaczął pracować pierwszy tomograf nie wykorzystujący ruchu
translacyjnego (trzeciej generacji), a tylko obrotowy - było to moŜliwe dzięki dalszemu zwiększeniu liczby
detektorów tak, Ŝe wiązka obejmowała cały przekrój pacjenta. Detektory scyntylacyjne zostały w nim zastąpione
przez gazowe komory jonizacyjne, a czas potrzebny na zebranie danych z jednej warstwy skrócony do 5 s. Kolejnym
krokiem naprzód było pojawienie się aparatów czwartej generacji, w których wirujący łuk detektorów został
zastąpiony stacjonarnym pierścieniem detektorów scyntylacyjnych, co uprościło mechanikę urządzenia.
Postęp konstrukcyjny jest moŜliwy między innymi dzięki wspomnianemu juŜ zastąpieniu pierwotnie uŜywanych
detektorów, jakimi były scyntylatory połączone z fotopowielaczami, przez komory jonizacyjne wypełnione gazem,
a następnie bardziej wydajnymi kryształami scyntylacyjnymi, z których światło zbierane jest przez fotodiody.
Podstawowym celem opisanych zmian konstrukcyjnych jest skrócenie czasu badania.
NaleŜy podkreślić, Ŝe określenia 3. i 4. generacja nie oznaczają automatycznie wyŜszości jednego rozwiązania nad
drugim a tylko chronologiczną kolejność ich powstawania. Oczywiście istnieją pewne teoretyczne, wynikające
z układu geometrycznego detektorów róŜnice w parametrach i osiągach aparatów obu generacji (róŜnice te dotyczą
np. rozdzielczości i szumu w obrazie), w praktyce jednak większą rolę odgrywają róŜnice wynikające z postępu
technicznego i polegające np. na zastosowaniu róŜnych detektorów. Współczesne tomografy są przede wszystkim
urządzeniami 3. generacji, obecnie - o ile wiem - co najwyŜej jedna firma produkuje tomografy 4. generacji. Czas
obrotu lampy wokół pacjenta jest we współczesnych aparatach 3. generacji skrócony nawet do 0,33 sek.
Animacje działania tomografu (ruch lampy i detektorów):
zabytkowy tomograf 1. generacji tomograf 3. generacji
(192 kb, 9 sekund)
(94 kb, 4 sekundy)
Spiralna tomografia komputerowa
Na przełomie lat osiemdziesiątych i dziewięćdziesiątych pojawiły się pierwsze aparaty umoŜliwiające wykonywanie
spiralnej tomografii komputerowej. Nazwa pochodzi od spiralnego ruchu lampy względem pacjenta, uzyskiwanego
poprzez przesuwanie pacjenta jednoczesne z ruchem obrotowym lampy. W poprzednich rozwiązaniach między
zbieraniem danych z poszczególnych warstw konieczne były przerwy na zatrzymanie ruchu obrotowego lampy,
przesunięcie pacjenta i ponowne wprawienie w ruch obrotowy lampy rentgenowskiej. Przy tomografii spiralnej
przerwy te stają się zbędne, poniewaŜ dane z kolejnych warstw zbierane są w sposób ciągły. UmoŜliwia to znaczne
skrócenie czasu badania, na przykład zbadanie całej klatki piersiowej podczas jednego wstrzymania oddechu przez
pacjenta, co dodatkowo zmniejsza artefakty związane z ruchami pacjenta. Stosowanie tej metody jest moŜliwe dzięki
rosnącej wydajności komputerów (konieczność przeprowadzenia interpolacji dla uzyskania danych dotyczących
jednej warstwy, duŜa liczba danych rejestrowana w bardzo krótkim czasie) oraz lamp rentgenowskich (ciągła praca
przez kilkadziesiąt sekund). Oprócz tego spiralna tomografia komputerowa wymaga rozwiązania problemu zasilania
lampy rentgenowskiej (eliminacja kabli) oraz, w przypadku tomografów trzeciej generacji, połączenia układu
detektorów z komputerem.
Animacje działania tomografu - obrót lampy i przesuw stołu
podczas rejestracji kilku kolejnych warstw:
zwykły tomograf 3. generacji
(357 kb, 15 sekund)
tomograf spiralny
(299 kb, 12 sekund)
Tomografy wielorzędowe
W ostatnich latach zaznacza się tendencja do zwiększania liczby układów detektorów tak, by moŜliwa była
jednoczesna rejestracja więcej niŜ jednej warstwy. Pierwszy nowoczesny aparat mający takie moŜliwości
pojawił się na rynku w 1992 (Elscint Twin). Jest to tomograf trzeciej generacji umoŜliwiający jednoczesne
zbieranie danych z dwu warstw pacjenta (takŜe w trybie spiralnym). W drugiej połowie 1998 pojawiły się
tomografy umoŜliwiające jednoczesne zbieranie danych z czterech warstw (za pomocą 8-34 układów
detektorów rozmieszczonych wzdłuŜ osi z tomografu). Obecnie (2005 rok) na rynku dostępne są juŜ
tomografy umoŜliwiające jednoczesną rejestrację 64 warstw grubości 0,5 mm kaŜda. Jednocześnie czas
obrotu lampy wokół pacjenta został w niektórych aparatach skrócony do 0,33 s. Inne rozwiązanie
pozwalające na dalsze zwiększanie liczby jednocześnie rejestrowanych warstw to podwójne ognisko lampy
rentgenowskiej.
Pewną, dość skutecznie przezwycięŜaną przez producentów komplikację przy zwiększaniu liczby układów
detektorów stanowi konieczność modyfikacji uŜywanych algorytmów rekonstrukcji wiąŜąca się ze zmianą
kształtu wiązki (przestaje ona leŜeć w jednej płaszczyźnie, zaczyna być rozbieŜna). W obecnych
tomografach rozbieŜność wiązki jest jednak nadal niewielka (zwiększaniu liczby warstw towarzyszy
zmniejszanie ich grubości). Nieco inna sytuacja występuje w przypadku opracowywanego przez firmę
Toshiba tomografu 4D-CT [ang] rejestrującego 256 warstw o grubości 0,5 mm kaŜda.
Zastosowanie więcej niż jednej lampy rtg
W 2005 roku zaprezentowany został 64-rzędowy tomograf [ang], w którym zamontowano dwie lampy
rentgenowskie i dwa układy detektorów. Przy jednej lampie minimalny czas zbierania danych wynosił
1/6 sekundy (pół obrotu lampy zajmującego 1/3 s), po dodaniu drugiego układu jest on o połowę krótszy
i wynosi 1/12 sekundy. Tak krótki czas rejestracji ma znaczenie przede wszystkim w badaniach
kardiologicznych oraz w radiologii urazowej. Potencjalnie interesującą moŜliwością jest wykonywanie
badań z jednoczesnym zastosowaniem dwóch wiązek o róŜnej energii, np. 80 kV i 120 kV - analiza
rejestrowanych w ten sposób danych mogłaby pozwolić na rozróŜnienie tkanek nierozróŜnialnych
w 'zwykłej' tomografii komputerowej.
Prosta animacja działania tomografu z dwiema lampami
(bez uwzględnienia 'spiralności' i 'wielorzędowości'):
tomograf z dwiema lampami rtg
(228 kb, 3 sekundy)
10. Wymień i omów rodzaje koincydencji w tomografii PET.
W tomografii PET występują 4 rodzaje koincydencji:
a.
b.
c.
d.
koincydencja prawdziwa (ang. true)
koincydencja rozproszona (ang. scattered)
koincydencja fałszywa (ang.random)
koincydencja wielokrotna (ang. multiple).
Rysunek 1 rodzaje koincydencji w tomografii PET
Koincydencja prawdziwa występuje wtedy, gdy oba fotony anihilacyjne docierają do detektorów w tym samym
czasie, dodatkowo Ŝaden z fotonów nie oddziałuje z innymi cząstkami zanim dotrze do detektora oraz Ŝadne inne
zdarzenie nie jest defekowane w tym samym oknie koincydencji.
Koincydencja rozproszona jest takim rodzajem koincydencji, w którym co najmniej jeden z dwóch fotonów
koincydencyjnych został co najmniej raz rozproszony comptonowsko zanim został dotarł do detektora. W związku
z faktem, Ŝe podczas rozpraszania comptonowskiego zmienia się kierunek ruchu cząstki, jest bardzo prawdopodobne,
Ŝe miejsce wystąpienia zjawiska koincydencji wewnątrz badanego obiektu zostanie źle określone. K.r. rozproszona
powoduje obniŜenie kontrastu i powoduje, Ŝe koncentracja izotopu w określonym regionie zostaje sztucznie
zawyŜona. Dodaje takŜe statystyczny szum do sygnału. Ilość zjawisk koincydencji rozproszonej zaleŜy od objętości
oraz charakterystyki osłabiania promieniowania obrazowanego obiektu, jak równieŜ od geometrii układu
obrazującego.
Koincydencja fałszywa ma miejsce, gdy dwa fotony docierające do detektorów w czasie okna koincydencji systemu
nie pochodzą z jednego zjawiska anihilacji. Liczba koincydencji fałszywych i ich udział w ogólnej liczbie
koincydencji rośnie kwadratowo z aktywnością pierwiastka promieniotwórczego w polu widzenia kamery (ang. FOV
– field of view). Podobnie, jak w przypadku koincydencji rozproszonej, liczba wykrytych koincydencji fałszywych
zaleŜy od objętości oraz charakterystyki osłabiania promieniowania obrazowanego obiektu, jak równieŜ od geometrii
układu obrazującego. Występowanie zjawiska koincydencji fałszywej jest tak samo prawdopodobne w całym FOV,
będzie powodowało zwiększenie koncentracji izotopu. K.f. równieŜ powoduje dodanie do sygnały statystycznego
szumu.
O Koincydencji wielokrotnej mówimy wtedy, gdy więcej niŜ dwa fotony są docierają do róŜnych detektorów
w czasie okna koincydencji. W takiej sytuacji nie jest moŜliwe określenie miejsca wystąpienia zjawiska anihilacji,
zatem taka koincydencja nie bierze udziału w procesie rekonstrukcji.
11. Metody oceny jakości obrazu w tomografii rentgenowskiej
Obrazy uzyskiwane techniką tomografii rentgenowskiej przewyŜszają jakością obrazy uzyskiwane innymi technikami
tomograficznymi czy teŜ techniką radiografii. Nie oznacza to jednak, Ŝe naleŜy pomijać problem jakości obrazów CT.
Do opisu jakości obrazów tomografii rentgenowskiej uŜywa się przedstawionych poniŜej parametrów. Większość
z nich jest uŜywana jako standardowe parametry jakości obrazów, niektóre z nich dotyczą tylko tomografii
rentgenowskiej.
Kontrast określa zdolność rozróŜniania szczegółów róŜnego rozmiaru od otaczającego je tła, szczególnie
w warunkach, gdy róŜnica poziomów szczegółów i tła jest mała. Kontrast jest zdefiniowany wzorem
gdzie h jest wartością w jednorodnym obiekcie a b jest wartością jednorodnego tła. Najlepszą metodą prezentacji tego
parametru jest wykres kontrastu w funkcji rozmiaru szczegółów.
Przestrzenna zdolność rozdzielcza (spatial resolution) określa zdolność rozróŜniania małych obiektów o duŜym
kontraście. Parametr ten jest zdeterminowany przez: geometrię pomiaru, rozmiar ogniska lampy rentgenowskiej,
przestrzenną rozdzielczość matrycy detektorów promieniowania, liczbę detektorów, dyskretyzację i filtr
rekonstrukcyjny. Istnieją dwie podstawowe metody wyraŜenia rozdzielczości przestrzennej. Pierwsza z nich polega na
pomiarze szerokości połówkowej odpowiedzi impulsowej tomografu powstałej poprzez pomiar obrazu cienkiego
drutu o wysokiej gęstości. Druga metoda polega na pomiarze funkcji przenoszenia modulacji. Do pomiaru uŜywa się
fantomów w postaci pasków, otworów lub fantomu w postaci odwróconej gwiazdy. Rozmieszczenie obiektów
w fantomie musi spełniać warunek, Ŝe odległość pomiędzy obiektami musi być równa ich rozmiarom. Mierząc
kontrast dla danej wielkości obiektu (częstotliwości przestrzennej) wyznacza się wartość funkcji przenoszenia
modulacji dla danej częstotliwości przestrzennej.
Jednorodność (uniformity) opisuje niezaleŜność jakości obrazu od połoŜenia w tym obrazie. Mierząc obiekt
jednorodny oczekujemy, Ŝe system obrazujący uzyska jednorodny obraz obiektu. W tomografii rentgenowskiej
najczęściej występuje niejednorodność brzegów względem środka obrazu, która jest spowodowana niedokładną
korekcją efektu utwardzania wiązki.
Dokładność (acuracy) wyznaczania bezwzględnej wartości współczynnika osłabiania promieniowania przez system
obrazujący. Jest to szczególnie istotny parametr, gdyŜ często istnieje potrzeba bezwzględnego pomiaru gęstości (np.
pomiar gęstości kości przy podejrzeniu osteoporozy).
Zakłócenia obrazu (artefakty) to zakłócenia obrazu w postaci systematycznych wzorów lub innych nie szumowych
zniekształceń. Główne zakłócenia są powodowane przez:
− ruch pacjenta,
− ruch pacjenta spowodowany oddychaniem,
− brak kalibracji wydajności detektorów (powoduje występowanie okręgów na obrazie ring artifacts),
− brak zgodności środka rekonstrukcji ze środkiem obrotu (blurring),
− obecność materiału o bardzo wysokim współczynniku osłabiania promieniowania (promienie wokół obiektu),
− błąd odczytu aparatury elektronicznej.
Grubość przekroju
Parametr określa grubość warstwy, która ma wpływ na powstający obraz. Jest to wielkość większa od grubości
przekroju wybieranej podczas ustawiania parametrów ekspozycji. Określa w jakim stopniu warstwy sąsiednie do
wybranej wpływają na jakość obrazu – na skutek uśrednienia informacji pogarszają rozdzielczość przestrzenną
w rekonstruowanej warstwie.
Wydajność dawki
Parametr określa efektywność wykorzystania dawki promieniowania, którą został obciąŜony pacjent. Efektywność
wykorzystania dawki moŜe być oszacowane na podstawie następującego wzoru (formuła Brooks’a).
12. Omów dobór szerokości „okna” akceptacji koincydencji w tomografii PET.
Po zarejestrowaniu fotonu przez detektor, w fotopowielaczu lub fotodiodzie formowany jest krótki impuls elektryczny
przekazywany do układu koincydencyjnego. W układzie koincydencyjnym kaŜdy impuls jest wydłuŜany do czasu τ.
τ to czas akceptacji koincydencji (okno czasowe układu koincydencji). Impulsy o szerokości τ są przekazywane do
jednostki logicznej układu koincydencyjnego, który generuje impuls, jeśli na obu wejściach tego układu jednocześnie
jest sygnał. Gdy w jednym kanale w chwili t pojawi się sygnał, koincydencja zostanie zarejestrowana, jeśli w drugim
kanale wystąpił sygnał w przedziale czasu (t - τ, t + τ).
Wartość τ musi być dobrana tak, aby nie gubić zdarzeń prawdziwych i nie zwiększać frakcji zdarzeń przypadkowych.
Jeśli jest zbyt mała w porównaniu do rozdzielczości czasowej systemu (zakładamy, Ŝe czas lotu jest duŜo mniejszy od
rozdzielczości czasowej), prawdziwe koincydencje będą gubione. Jeśli jest zbyt duŜy, zwiększona zostanie frakcja
zdarzeń przypadkowych. Dla typowego, blokowego detektora BGO τ wynosi około 12 nS – przy czym czas
wyświecania dla BGO wynosi około 300 ns. Jeśli układy kształtowania impulsów są wystarczająco szybkie i czas
akceptacji koincydencji τ jest wystarczająco mały istotny staje się czas lotu fotonów. Dla skanera o średnicy
pierścienia wynoszącym 1m i polu widzenia 60 cm, maksymalna róŜnica czasu pomiędzy rejestracją fotonów
anihilacji wynosi około 2.7 ns.
Teoretycznie istnieje moŜliwość budowy tomografu PET w oparciu o zasadę pomiaru czasu lotu. Pomiar czasu lotu
eliminuje rekonstrukcję obrazu, zwiększa rozdzielczość skanera i stosunek sygnału do szumu. Taka zasada działania
tomografu wymaga jednak elektroniki o rozdzielczości czasowej około 1 pikosekundy oraz szybkich detektorów
takich jak BaF2, który ma szybką składową wyświecanego światła (stała czasowa 0.8 ns).
13. Budowa detektora w tomografii PET.
Tomograf trójwymiarowy zbudowany jest w postaci układu detektorów otaczających badany obiekt (na przykład
heksagonalny układ prostokątnych scyntylatorów). Aparat trójwymiarowy jest bardzo kosztowny ze względu na ilość
i cenę detektorów, ale za to ma duŜo większą czułość pomiaru wynikającą ze zwiększonego kąta bryłowego
obserwacji. Podczas pomiaru rejestrowane są zdarzenia na “liniach odpowiedzi”. W tomografii jednofotonowej
najczęściej stosowany jest detektor powierzchniowy w postaci monolitycznego kryształu scyntylatora. Próbuje się
równieŜ uŜywać powierzchniowych detektorów pozycyjnych w postaci komór wielodrutowych. W tomografii
pozytonowej początkowo uŜywano detektorów powierzchniowych i choć jeszcze dzisiaj spotyka się urządzenia oparte
na tym typie detektorów, to są one wypierane przez detektory pozycyjne, wielokryształowe. Głównym powodem tej
tendencji jest duŜy czas martwy (mała częstotliwość akwizycji zdarzeń) detektorów powierzchniowych w porównaniu
z detektorami w postaci układu małych kryształów (typowe wymiary 3x3x50 mm). W tomografach PET, jako materiał
scyntylacyjny, uŜywany był początkowo jodek sodu (NaI(Tl)). Obecnie większość aparatów wyposaŜonych jest
w kryształy z materiałów, takich jak BGO czy BaF2. W doborze materiału scyntylacyjnego uŜywanego w detektorach
decydują głównie trzy parametry: wydajność detekcji (zaleŜy od liczby atomowej Z), wydajność kwantowa (ilość
fotonów światła na jeden foton gamma) oraz szybkość działania (mały czas martwy). Jodek sodu charakteryzuje się
wystarczającą wydajnością detekcji dla tomografii jednofotonowej, gdzie energia fotonów gamma jest stosunkowo
mała (~140 keV). Przy tej energii konieczna jest duŜa wydajność świetlna scyntylatora, którą w największym stopniu
zapewnia jodek sodu. W tomografii pozytonowej, gdzie fotony anihilacji mają energię 511 keV preferowane są
materiały o duŜej wydajności detekcji (duŜej liczbie atomowej dla maksymalizacji zjawiska fotoelektrycznego).
PoŜądane są równieŜ materiały o małym czasie martwym, gdyŜ częstość zdarzeń moŜe być duŜa, aŜ do miliona
zliczeń na sekundę (1 MHz), co jest spowodowane brakiem kolimacji mechanicznej. Obecnie, w większości skanerów
stosuje się germanian bizmutu (Bi4Ge3O12, w skrócie BGO) - szybki scyntylator o duŜej liczbie atomowej.
Wprowadzane są równieŜ nowe scyntylatory charakteryzujące się duŜą szybkością działania, takie jak fluorek baru
(BaF2) i fluorek cezu (CsF). Niestety scyntylatory te charakteryzują się duŜo mniejszą wydajnością kwantową, co
oznacza gorszą rozdzielczość energetyczną, potrzebną do dyskryminacji fotonów comptonowskich.
Tab. 6.4 Własności scyntylatorów stosowanych w tomografii PET
14. Omów dobór parametrów sekwencji w tomografii NMR w obrazowaniu parametrów PD,T1 i T2
Wzór na intensywność sygnału:
Gdzie:
PD czyli gęstość protonów, Tr – Czas repetycji, Te – Czas echa
Dobierając Tr i Te moŜna uwypuklić w sygnale poszczególne parametry PD, T1 i T2.
JeŜeli chcemy by główną role w obrazie odgrywała gęstość protonowa to naleŜy dobrać czasy Tr i Te tak aby Tr było
długie (Tr > 1600 ms) a Te krótkie (Te < 35 ms). Wtedy mamy sytuację Ŝe wektor Mz odbuduje się w pełni
(jego amplituda jest zaleŜna od PD).
JeŜeli chcemy by główną role w obrazie odgrywał czas T1 to naleŜy dobrać czasy Tr i Te tak aby Tr było krótkie
(Tr < 500 ms) i Te krótkie (Te < 30 ms). Wtedy wpasujemy się w moment w którym (w związku z róŜną prędkością
odbudowy wektora Mz) róŜnica sygnałów będzie zaleŜna od T1.
JeŜeli chcemy by główną role w obrazie odgrywał czas T2 to naleŜy dobrać czasy Tr i Te tak aby Tr było długie
(Tr > 1500 ms) i Te długie (Te > 70 ms). Jednak Te nie moŜe być zbyt długie gdyŜ amplituda sygnałów spadnie
zbytnio i przestanie być detekowalna.
15. Wyjaśnij zasadę powstawania obrazu NMR metoda fourierowska na przykładzie prostego obiektu
(dwa punkty).
Slice’a wiadomo jak wybieramy – róŜnicując częstotliwość Larmour’a (poprzez slice-select gradient) i zapodając
wąskopasmowy impuls RF, czyli zakładamy, Ŝe odebrany sygnał pochodzi juŜ tylko z wybranego slice’a.
Ograniczymy się zatem do rozpatrywania kodowania fazy i częstotliwości.
Mamy sobie w wybranym slice’ie dwa punkciki – czerwony i niebieski. Raw data odebrane z takiej próbki:
Nie wiem u licha czemu tak głupio to przedstawili, ale myślę, Ŝe chodzi ogólnie o sygnał echa, który najpierw narasta
a potem maleje.
Cały czas z odbieranego sygnału liczymy sobie transformatę Fouriera, czyli otrzymujemy zestaw liczb zespolonych,
z których następnie moŜemy sobie obliczyć moduł i argument czyli na nasze tłumacząc – amplitudę i fazę. I wychodzi
takie coś:
DuŜo tych rysunków, ale IMHO wystarczy to sobie wyobrazić.
No i juŜ wiadomo, Ŝe na przecięciu tych dwóch linii mamy nasze
źródła sygnału, którym przypisujemy wartość taką jaka była
amplituda.
Rysunek 3, Tutaj są
przedstawione amplitudy dla
poszczególnych
częstotliwości. A następnie:
Rysunek 2, …fazy dla nich
16. Opisz zasadę działania obrazowania fourierowskiego w tomografii NMR na przykładzie sekwencji
π/2
Na początku wytwarzamy gradient pola w osi Z (osi w której jest jednorodne pole B). PoniewaŜ częstotliwość
Larmorowska zaleŜy od wartości pola magnetycznego to po podaniu gradientu Gz uzyskujemy warstwy o innych
częstotliwościach L. Wzbudzając sygnałem RF o odpowiedniej częstotliwości moŜemy wybrać konkretna warstwę
(czyli mamy juŜ płaszczyznę o grubości delta Z). Po podaniu impulsu pi/2 wektor magnetyzacji kładzie nam się na
płaszczyznę XY i zaczyna wirować z określoną częstotliwością. Następnie w czasie odbioru sygnału FID podajemy
w osi Y gradient Gy. W tym momencie pod wpływem gradientu Gy Wektor magnetyzacji Mxy rozdziela się wzdłuŜ
osi Y na poszczególne wektory o róŜnej częstotliwości wirowania. Po z czytaniu sygnału FID będziemy mieli
informacje o połoŜeniu w osi Y zakodowaną w częstotliwości. Aby wybrać konkretny weksel w osi X przed samym
sygnałem FID podajemy krótki gradient w osi X. PoniewaŜ czym większe pole B tym większa częstotliwość
wirowania więc przy dostatecznie krótkim impulsie Gx wektory rozfalują się wzdłuŜ osi X i po z czytaniu sygnału
FID połoŜenie w osi X będziemy mieli zakodowane w fazie. Tak uzyskane sygnały FID ze wszystkich wokseli
z połoŜeniem zakodowanym w częstotliwości i fazie poddajemy algorytmowi dwu wymiarowej transformaty Fouriera
uzyskując obraz na ekranie. PoniŜej znajduje się obrazek z sekwencją gradientów i sygnałem FID.
17. Omów metodę pomiaru pojemności „charge-discharge” stosowaną w tomografii pojemnościowej.
Sygnał nadawany to fala prostokątna o f =1~3 MHz
Jednokrotne przeładowanie pojemności Cx (pojemność między elektrodowa, czyli ta mierzona) napięciem Vc
powoduje przepływ ładunku Q0 zgodnie ze wzorem
Q0 = Cx * Vc
Przy przeładowywaniu z częstotliwością f prąd płynący w obwodach wejściowych obu wzmacniaczy wynosi średnio:
I = f * Cx * Vc
Ładunek Q0 gromadzi się w kondensatorach C znajdujących się w obwodach wzmacniaczy, zaś rezystancja Rf
przekształca prąd I w wolnozmienne napięcie:
V1 = Rf * f * Cx * Vc
V2 = -Rf * f * Cx * Vc
Na wyjściu wzmacniacza trzeciego o wzmocnieniu K pojawia się sygnał będący róŜnicą sygnałów V1 i V2:
V3 = 2 * K * Rf * Cx * Vc
Napięcie V3 ma częściowo skompensowane napięcia błędów obu gałęzi. Bardzo istotny jest tutaj błąd wstrzykiwania
ładunku w przełącznikach analogowych związany z istnieniem istotnej pojemności pasoŜytniczej pomiędzy bramkami
a kanałami tranzystorów polowych w układzie przełącznika.
Pojemność Cs1 jest pojemnością pasoŜytniczą źródła pobudzającego elektrodę nadawczą, ale jeŜeli źródło ma
wystarczającą wydajność prądową to Cs1 jest do pominięcia.
Pojemność Cs2 wisi między masą wirtualną a galwaniczną więc róŜnica potencjałów na niej jest znikoma a co za tym
idzie i jej rola w układzie.
18. Znaczenie macierzy czułości w elektrycznej tomografii pojemnościowej
S nazywane jest macierzą czułości (ang. Sensitivity Matrix). S ma wymiar (M x N) i składa się z M zbiorów (map) po
N (typowo 1024) współczynników (1 mapa dla kaŜdej z M par elektrod. Współczynniki te reprezentują względną
zmianę pojemności danej pary elektrod w przypadku, gdy następuje jednostkowa zmiana przenikalności kaŜdego z N
(np. 1024) pikseli.
W sytuacji, gdy zmierzono pojemności międzyelektrodowe C, otrzymanie rozkładuprzenikalności K sprowadza się do
obliczenia: K = Q × C gdzie Q jest macierzą o wymiarze (N x M) i powinna być macierzą odwrotną do S.
Pojęcie macierzy odwrotnej zdefiniowane jest jednak dla macierzy kwadratowej (gdy M = N). NiemoŜliwość
obliczenia macierzy odwrotnej do S i zastosowania jej w rekonstrukcji oznacza matematyczne potwierdzenie, Ŝe nie
jest fizycznie moŜliwa dokładna rekonstrukcja obrazu dla liczby pikseli (np. 1024) większej niŜ liczba dostępnych
pomiarów (np. 66). PoniewaŜ nie istnieje dokładna macierz odwrotna, musi być zastosowane jej pewnego rodzaju
przybliŜenie. W algorytmie LBP stosuje się transpozycję macierzy czułości ST. Ma ona wymagany wymiar (N x M).
Nie wiemy dokładnie, jaki jest udział poszczególnych elementów (pikseli) obiektu w pojemnościach, zmierzonych
między poszczególnymi parami elektrod. Z macierzy czułości S wynika jednak, Ŝe pewne piksele mają większy,
a inne mniejszy udział w poszczególnych zmierzonych pojemnościach. Przydzielamy więc wartości składowe do
pikseli proporcjonalnie do iloczynu pojemności międzyelektrodowej i współczynnika czułości piksela dla danej pary
elektrod. Proces ten powtarzamy po kolei dla kaŜdej pojemności międzyelektrodowej. Wartości składowe, uzyskane
dla kaŜdego piksela, są sumowane dla całego zakresu par elektrod.
Przekształcenie proste (macierz czułości) musi być obliczone lub zmierzone dla kaŜdej sondy, zanim zostanie ona
zastosowana w systemie tomografii pojemnościowej. Metoda obliczenia współczynników S dla pary elektrod i oraz j
moŜe być oparta na równaniu:
S = ∫A Ei × Ej × dA
gdzie Ei jest natęŜeniem pola elektrycznego wewnątrz sondy dla sytuacji, gdy elektroda i jest pobudzana jako
elektroda źródłowa, Ej jest natęŜeniem pola, gdy pobudzana jest elektroda j. Iloczyn kropkowy wektorów natęŜenia
pola elektrycznego Ei oraz Ej całkowany jest po powierzchni A piksela.
W przypadku sondy z wewnętrznymi elektrodami, mierzone pojemności rosną proporcjonalnie do przenikalności,
jeŜeli sonda wypełniana jest jednorodnym dielektrykiem. JednakŜe w przypadku sondy z elektrodami zewnętrznymi,
przenikalność ścian sondy wnosi istotny wkład w mierzone pojemności i powoduje, Ŝe zmiany pojemności w funkcji
przenikalności obiektu są nieliniowe, a charakterystyka sondy zaleŜy od jej ścian – od ich grubości i materiału,
z jakiego są wykonane. Zbiór współczynników czułości dla kaŜdej pary elektrod nazywany jest mapą czułości dla tej
pary elektrod. W pewnych przypadkach moŜliwe jest analityczne obliczenie rozkładu pola elektrycznego w sondzie
pojemnościowej. MoŜliwe jest wtedy dokładne obliczenie współczynników czułości i pojemności
międzyelektrodowych. Dotyczy to głównie sond o symetrii kołowej, z elektrodami wewnętrznymi lub zewnętrznymi.
Alternatywą, szczególnie dla przypadków o bardziej złoŜonej geometrii, jest numeryczne obliczenie współczynników
czułości. PoniewaŜ sonda pojemnościowa cechuje się zazwyczaj daleko idącą symetrią, wystarczające jest zazwyczaj
obliczenie kilku podstawowych map czułości. Komplet map czułości uzyskiwany jest następnie przez symetrie lub
rotacje. PoniŜsza ilustracja przedstawia graficznie podstawowe mapy czułości dla sondy 8-elektrodowej.
19. Algorytm Landwebera z modyfikacją macierzy czułości w tomografii elektrycznej
Mierzona pojemność zależy od wielkości rozkładu gradientu przenikalności elektrycznej:
Cm =
1
Um
∫ ε ( x, y, z)Em( x, y, z)dΓm
Γm
Dokonujemy aproksymacji liniowej C=f(ε). Rozwiązujemy taki oto układ:
S MxN ε N
= CM
Jest to dyskretny model liniowy. S – macierz czułości, E – przestrzenny rozkład przenikalności , C – mierzona
pojemność, C=f(ε)
Macierz czułości wyznacza się eksperymentalnie. Typowy czujnik 12 elektrod, co daje M=66 niezależnych pomiarów
pojemności. Matryca rekonstruowanego obrazu N= 32*32 = 1024. Wyznaczenie macierzy czułości – problem
„w przód”
● współczynniki macierzy potencjału (wyznacza się np. metodą elementów skończonych FEM)
● współczynniki macierzy czułości zależą od rozkładu potencjału
● ale rozkład potencjału zależy od rozkładu przenikalności, który jest niewiadomą.
Pomiar macierzy czułości
° metoda zaburzeń
- symulacja przenikalności w punkcie, wyznaczenie rozkładów pola, wyznaczenie Cm z prawa Gaussa
° zasada wzajemności Helmholza (impedancja wzajemna)
- pojemność międzyelektrodowa pary elektrod jest taka sama niezaleznie od wyboru elektrody wymuszającej
∂Q
1
=−
∂ε n
Uab
∫ ∇φnψ n dΩ n
,
Ωn
[niestety nie mam zanotowane w kapowniku, co oznaczają te poszczególne mróweczki w powyższym wzorze,
więc trzeba sobie wydedukować]
°wyznaczenie rozkładu pola przy pobudzeniu przez każdą elektrodę z pary elektrod
Algorytmy interacyjne (w tym Landweber ) minimalizują normę:
f (ε
) =|| Sε − C ||
Algorytm Landwebera ma postać:
εˆi +1 = εˆi − λi S T ( Sεˆi − C )
Iteracyjny algorytm z modyfikacją czułości:
● rezultaty rekonstrukcji obrazów przez algorytm z modyfikacją czułości są znacznie lepsze od tych bez modyfikacji
● nawet dwie, trzy modyfikacje macierzy czułości przynoszą znakomitą poprawę jakości rekonstruowanego obrazu
ALGORITHM :)
● rozwiązanie początkowe
● jednorodny rozkład przenikalności
● macierz czułości dla równomiernego rozkładu przenikalności
Krok algorytmu(*)
● 100 iteracji algorytmu Landwebera
● wyznacz różnicę pomiędzy zmierzonymi, a wyznaczonymi dla bieżącego rozwiązania pojemnościami
● skoryguj współczynnik relaksacji
● wyznacz macierz czułości dla bieżącego rozwiązania
● sprawdź warunek końcowy (liczba iteracji)
jeśli osiągnięty – KONIEC, inaczej goto (*)