Artykuł naukowy
Transkrypt
Artykuł naukowy
Mgr inż. Marcin Maciejewski Instytut Elektroniki i Technik Informacyjnych Metody poziomicowe przetwarzania obrazów medycznych w diagnostyce obrazowej. Przegląd metod rozpoznawania obrazów Metody rozpoznawania obrazów są szczególnym przypadkiem metod rozpoznawania wzorca. Koncentrują się one na przetwarzaniu i analizie danych obrazowych zarówno statycznych jak i dynamicznych. W odróżnieniu od metod dopasowania wzorca, pozwalają one określić podobieństwo i przynależność obiektu do danej klasy jako wartość prawdopodobieństwa. Z tego powodu stosowane są wszędzie tam, gdzie obiekty z definicji różnią się między sobą i jest mało prawdopodobne odnalezienie identycznych obiektów. Ma to miejsce na przykład podczas rozpoznawania twarzy. Metody rozpoznawania obrazów opierają się na metrykach obliczanych oddzielnie dla każdego obrazu w celu uzyskania jednoznacznego opisu matematycznego według wcześniej przyjętych zasad. Ze względu na podejście do realizacji praktycznej rozpoznawania obrazów metody możemy podzielić na: – metody fizjologiczne, – metody programowe, zwane inaczej algorytmicznymi. W metodach fizjologicznych dąży się do rozwiązania problemu w oparciu o symulacje procesów umysłowych człowieka. Realizacja polega na stworzeniu odpowiedniego modelu systemu nerwowego. Za pomocą sieci neuronowych można zaimplementować wiele różnych metod, na przykład powszechnie znaną i opisaną w literaturze metodę Principal Component Analysis ( PCA), w literaturze można doszukać się zastosowań przy przetwarzaniu obrazów USG pnia mózgu[2]. W metodach programowych natomiast stosuje się formalne metody opisu i tworzenie odpowiednich algorytmów w celu realizacji zadania. W tej klasie można wyróżnić rozpoznawanie strukturalne oraz teoriodecyzyjne. Ze względu na podejście do problemu nauczania algorytmu możemy metody rozpoznawania obrazów możemy podzielić na dwie kategorie: – z nadzorem, zwane również metodami klasyfikacyjnymi, – bez nadzoru, zwane również metodami grupującymi. W ogólności w metodach z nadzorem lub klasyfikujących wymagana jest ingerencja człowieka w celu nauczenia algorytmu na pewnej grupie przykładów. W tym celu algorytm otrzymuje na wejściu pewien zestaw danych testowych wraz z informacją o poprawnej klasyfikacji. Owe początkowe zbiory danych są następnie używane jako materiał porównawczy. Metody z nadzorem muszą spełnić dwa nierzadko wykluczające się wymagania, jednocześnie zapewniając jak najlepszy wynik dla danych treningowych oraz być w stanie dostosować się do nieprzewidzianych metryk w danych wejściowych. Metody z nadzorem znajdują zastosowanie tam, gdzie z góry zakładamy istnienie określonych kategorii. Przykładem może być sortowanie obrazów rentgenowskich w zależności od obszaru ciała lub układu jaki ukazują[1]. W metodach grupujących natomiast nie istnieje początkowy zbiór danych porównawczych. Są one szczególnie szeroko wykorzystywane tam, gdzie wstępna nauka systemu byłaby zbyt czasochłonna. Rozpoznawanie wzorców za pomocą metod grupujących opiera się na wyszukiwaniu powtarzających się wzorców i metryk w analizowanych zbiorach a następnie grupowaniu danych w zbiory według tych metryk. W chwili obecnej stosuje się również podejście mieszane, to jest częściowo nadzorowane. Wymaga ono udostępnienia algorytmowi zbioru składającego się z niewielkiej ilości danych już sklasyfikowanych oraz danych niesklasyfikowanych. Takie podejście umożliwia znaczne zmniejszenie czasu potrzebnego na naukę oraz zwiększenie trafności klasyfikacji. Pośród metod tworzenia algorytmów rozpoznawania można wyróżnić następujące podejścia: – probabilistyczne, – oraz statystyczne. Dla modeli probabilistycznych zakłada się – znajomość prawdopodobieństwa a priori q(i) zdarzenia, że dany obiekt x pochodzi z klasy o numerze i, – oraz znane są warunkowe gęstości rozkładów cech w poszczególnych klasach. W metodach probabilistycznych w ogólności dąży się do minimalizacji wcześniej wyznaczonego wskaźnika błędu rozpoznawania. Do metod stosujących tą zasadę należą między innymi metoda klasyfikacji Bayesa lub reguła min-max. Metody probabilistyczne są podstawą działania algorytmów ze zbiorem uczącym. Modele statystyczne natomiast zakładają najczęściej normalność rozkładów cech obiektów w klasach[3]. Do metod tego typu można zaliczyć między innymi – algorytm odległości Mahalanobisa – algorytmy wykorzystujące estymatory liniowe funkcji klasyfikacyjnych – algorytmu wykorzystujące estymatory kwadratowe funkcji klasyfikacyjnych Uogólnioną klasyfikację metod rozpoznawania obrazów przedstawia poniższa tabela[4]: Statystyczne Syntaktyczne Sieci neuronowe Podstawy generowania wzoru Modele probabilistyczne Opis formalny Macierz stanów lub wag Podstawy klasyfikacji wzoru Estymacja lub teoria decyzji Parsowanie Własności sieci neuronowych Organizacja cech Wektor wejściowy Relacje strukturalne Wektor wejściowy Mechanizm uczenia – z nadzorem Estymacja gęstości Tworzenie zasad gramatycznych Określanie parametrów sieci neuronowej Mechanizm uczenia – bez nadzoru Grupowanie Grupowanie Grupowanie Ograniczenia Informacje strukturalne Nauka, zasady strukturalne Informacje semantyczne Proces klasyfikacji i dopasowania obrazów znajduje zastosowanie między innymi przy: – wyborze terapii dla wrzodów żołądka[5] – diagnostyce raka [5][9][11][12] – interpretacji wyników badania krwi[6] – diagnozie demencji[6] – diagnozie zapalenia mięśnia sercowego[6] – – – interpretacji elektrokardiogramów[6] dopasowywania makromolekuł i komórek [7][10] monitorowania retinopatii[8] 2. Metody zbiorów poziomicowych Metoda zbiorów poziomicowych jest ogólnie znana i wykorzystywana do opisu złożonych kształtów w przestrzeni kartezjańskiej. Po raz pierwszy została zaproponowane przez Oshera i Stethiana [14][15]. Jej zastosowanie umożliwia wykonywanie szybkich obliczeń poprzez uniknięcie parametryzacji kształtów. Pozwala to na stosowanie jej do segmentacji obrazów przy opisie ewolucji konturu. Zastosowanie metod zbiorów poziomicowych nie jest ograniczone jedynie do przetwarzania obrazów[16]. W ogólności, metoda znajduje zastosowanie w wielu dziedzinach nauki. Zbiór poziomicowy budowany jest na drodze kolejnych iteracji[13]. Przy budowie zbioru dążymy do opisania obszaru Ω z konturem Γ. Szybkość ν poruszania się konturu w kolejnych krokach zależy od pozycji, kształtu, czasu i innych czynników. Obliczeń możemy dokonać w dziedzinie χ po dyskretyzacji. Staramy się zdefiniować funkcję opisującą poruszający się kontur ϕ(χ,t), gdzie χ jest pozycją w przestrzeni kartezjańskiej, a t jest czasem. Ogólny schemat działana algorytmu można przedstawić w formie schematu blokowego (rys. 1). Rys. 1. Ilustracja metody zbiorów poziomicowych[13] Zakończenie następuje w momencie spełnienia pewnej wartości funkcji celu zależnej od algorytmu. Umożliwia to dostosowanie metody do wielu aplikacji i modyfikacje. Prezentowane dwie metody różnią się znacząco wybraną przez twórców funkcją celu. Metoda normalizowana względem odległości korzysta z funkcjonału ze wzoru 1 Ε (ϕ)=μ∗R p ( ϕ)+λ∗L g ( ϕ)+α∗A g ( ϕ) (1) gdzie E(ϕ) jest energią, Rp(ϕ) jest składnikiem normalizacyjnym, Lg(ϕ) przyjmuje wartości minimalne w okolocach konturu obiektu, Ag(ϕ) jest czynnikiem wprowadzonym w celu przyspieszenia początkowych kroków segmentacji. W celu wyznaczenia wartości funkcji celu metoda Chan-Vese korzyszta ze wzoru 2. p E (ϕ)=μ (∫∣(∇ H (ϕ))∣dx ) +γ∗∫ ∇ H (ϕ)dx 2 Ω Ω 2 +λ1∗∫ (∣(I −c 1)∣) ∇ H (ϕ)dx +λ 2∗∫(∣( I−c 2)∣) ∇ (1− H (ϕ))dx Ω (2) Ω gdzie: E(ϕ) jest energią, pierwszy składnik oznacza ważoną długość konturu, drugi oznaza obszar wewnątrz, trzeci i czwarty odpowiednio opisują wariancję pikseli wewnątrz i na zewnątrz konturu. Podczas segmentacji prędkośc i przyspieszenie konturu zmienia się zaleznie od jego pozycji. Wykres tych dwóch wartości prezenruje rysunek 2 Rysunek 2. Prędkośći i przyspieszenie podczas segmentacji. Widoczne 3 obszary 1 do 2 – z dala od konturu, 2 do 3 w okolicy konturu oraz 3 do 4 zbliżanie do warunków końcowych 3. Dane i algorytmy. Jako dane wejściowe wykorzystano obrazy pochodzące z tomografii komputerowej z Drugiego Oddziału Radiologii w Lublinie. Wybrano reprezentatywną grupę 16 obrazów przedstawiających przekroje klatki piersiowej oraz dwa obrazy całego ciała. Obrazy o rozmiarach 600x600 pixeli w formacie JPG były dostarczone w skali szarości. Na obrazach znajdowały się markery i opisy, przez co konieczna byla obróbka wstępna w celu ich usunięcia. indeksy odpowiednio mniejsze. Wykonano segmentacje obdwoma metodami dla obrazów orginalnych i sztucznie zaszumionych. Dla wszystkich przypadków wykonano oszacowanie czasu uzyskania oraz dokładności wyników. Obliczenia wykonywane były w środowisku MATLAB. 4. Wyniki Metoda segmentacji wykorzystująca obliczenia wzgledem odległości pozwoliła na uzyskanie dobrzych wynikłów jedynie dla obrazów o niskiej złożoności. Dla obrazów zaszumionych i skomplikowanych znacznie lepsze rezultaty uzyskano wykorzystujące metodę Chan-Vese. Jednocześnie, ta druga metoda pozwoliła na znacznie szybsze uzyskanie wyników. Rysunek 3 prezentuje przykładową segmentacje obrazu zaszumionego za pomocą obydwu metod. Rysunek 3. Segmentacja obrazu z nałożonym szumem typu “sól/pieprz”. W górnym rzędzie, orginalny obraz. W środkowym rzędzie, wyniki otrzymane metodą normowaną względem odległości. W dolnym rzędzie metoda Chan-Vese dla obrazów wektorowych. Kolumny 1, 2, 3 odpowiadają wartościom SNR kolejno 0.2, 0.5 i 1.0. Jak widać z powyzszego rysunku, metoda Chan-Vese dla obrazów wektorowych pozwala na uzyskanie zadowalającej segmentacji pomimo znacznej wartości stosunku sygnał/szum. 4. Wnioski Metoda regulowana odległością zwróciła zadowalające reuzltaty jedynie dla prostych obrazów bez szumu, jednocześnie wymaga większych nakładów obliczeniowych. Metoda Chan-Vese była w stanie zwrócić wynik szybciej i zajmowała mniej zasobów. Wszystkie maski uzyskane tą metodą były do zaakceptowania, a ilość iteracji nie przekraczała 300. Metoda jest niewrażliwa na szum gaussowski oraz szum typu sól/pieprz. Metoda może być wykorzystywana dla obrazów medycznych. Posiada potencjał jako metoda do wstępnego odszumiania i może być wykorzystywana do wykrywania krawędzi. 5. Dalsze kroki Metody poziomicowe pozwalają na dokonanie pierwszego kroku w ciągu transformacji prowadzących do wspomożenia diagnozy opartej na danych obrazowych. Podział obrazu jedynie na dwa obszary niejednokrotnie może okazać się niewystarczający szczególnie podczas diagnostyki zaawansowanych struktur ciała ludzkiego. Istnieje możliwość wykonania segmentacji zagnieżdżonej, gdzie kolejne kroki segmentacji korzystają z kroków poprzednich jako masek początkowych. Może to prowadzić do otrzymania bardziej szczegółowych podziałów na interesujące obszary[17]. W celu automatyzacji rozpoznawania obszarów uzyskanych w toku segmentacji możliwe jest również wyznaczenie odpowiednich metryk opisujących poszczególne rozkłady wartości pixeli, na przykład jako wartości średnie w obszarze, wariancje, czy odchylenia od średniej[18]. Połączenie segmentacji zagnieżdżonej z odpowiednio zbudowanym algorytmem rozpoznawania obszaru na podstawie tabel metryk obrazów tkanek pozwoli na zbudowanie systemu mogącego wspomóc diagnostykę poprzez rozpoznawanie patologicznych odchyleń od normy. 1. Supervised Machine Learning based Medical Image Annotation and Retrieval Md. Ma hmudur Rahman, Bipin C . Desa i, Prabir Bhattacharya CINDI Group, Concordia University 1455 , De Maisonne uve Blv d. West, Montreal, QC , H3G1M8 , Canada 2. The image recognition of brainsstem ultrasound images with using a neural network based on PCA, Jiří Blahuta, Tomáš Soukup and Petr Čermák, INTERNATIONAL JOURNAL OF APPLIED MATHEMATICS AND INFORMATICS, Issue 2, Volume 5, 2011 3. Fully automatic luminal contour segmentation in intracoronary ultrasound imaging-a statistical approach. Brusseau, E.; de Korte, C.L.; Mastik, F.; Schaar, J.; van der Steen, A.F.W.; CREATIS, CNRS-ENS, Lyon, France, May 2004 4. Pattern recognition for medical imaging, Anke Meyer-Bäse table 7.2 str. 222 5. B. G. Batchelor, Practical approach to pattern classification, London: Plenum, 1974. 6. M. L. Astion and P. Wilding, The application of backpropagation neural networks to problems in pathology and laboratory medicine, Archives of Pathology and Laboratory Medicine, 116: 995-1001, October 1992. 7. R. Marabini and J. M. Carazo, Pattern recognition and classification of images of biological macromolecules using artificial neural networks, Biophysical Journal, 66 (6): 1804-14, June 1994. 8. P. H. Gregson, Z. Shen, R. C. Scott and V. Kozousek, Automated grading of venous bleeding, Computers & Biomedical Research, 28(40: 291-304, August 1995. 9. P. Belhomme, A. Elmoatz, P. Herlin and D. Bloyet, Generalized region growing operator with optimal scanning: application to segmentation of breast cancer images, Journal of Microscopy, 186(Pt 1): 41-50, April 1997. 10. G. Diaz, C. Cappai, M. D. Setzu and A. Diana, Nuclear pattern recognition by twoparameter texture analysis, Computer Methods & Programs in Biomedicine, 49 (1): 1-9, January 1996. 11. PAPNET(r) Testing System Manual Excerpts, Neuromedical Systems Inc, Suffern, New York, U.S.A., July 1997. 12. N. Cascinelli, et al, Results obtained by using a computerized image analysis system designed as an aid to diagnosis of cutaneous melanoma, Melanoma Research, 2(3): 163-70, September 1992. 13. Tomasz Rymarczyk, “Zastosowanie metody zbiorow poziomicowych w tomografii impedancyjnej”, doctor's thesis, Warsaw 2010J. Clerk Maxwell, A Treatise on Electricity and Magnetism, 3rd ed., vol. 2. Oxford: Clarendon, 1892, pp.68–73. 14. Osher S., Fedkiw R.: “Level Set Methods and Dynamic Implicit Surfaces”. Springer, New York 2003.K. Elissa, 15. Sethian J.A.: “Level Set Methods and Fast Marching Methods”. Cambridge University Press 1999. 16. Chunming Li, Chenyang Xu, Changfeng Gui, and Martin D. Fox “Distance Regularized Level Set Evolution and Its Application to Image Segmentation” 17. Pham, Dzung L.; Xu, Chenyang; Prince, Jerry L. (2000). "Current Methods in Medical Image Segmentation". Annual Review of Biomedical Engineering 2: 315–337 18. L.S.S.Reddy, Ramaswamy Reddy, CH.Madhu & C. Nagaraju, “A novel image segmentation technique for detection of breast cancer” International Journal of Information Technology and Knowledge Management July-December 2010, Volume 2, No. 2, pp. 201-204