Wybrane zagadnienia przetwarzania i analizy obrazów

Transkrypt

Wybrane zagadnienia przetwarzania i analizy obrazów
X Lat KIS
WOJCIECH BIENIECKI, SZYMON GRABOWSKI *
WYBRANE ZAGADNIENIA PRZETWARZANIA I ANALIZY OBRAZÓW MIKROSKOPOWYCH W DIAGNOSTYCE MEDYCZNEJ
STRESZCZENIE. Artykuł jest podsumowaniem badań prowadzonych przez nasz zespół w ciągu
ostatnich trzech lat. W tym okresie zajmowaliśmy się zagadnieniem przetwarzania obrazów mikroskopowych, ze szczególnym naciskiem na proces segmentacji obrazu. Przedmiotem naszego zainteresowania są głównie obrazy barwne, dla których dokonaliśmy przeglądu istniejących metod, wprowadzając własne modyfikacje i projektując nowe algorytmy. W artykule prezentujemy zagadnienie usuwania szumu impulsowego w obrazach barwnych, proces segmentacji obrazu monochromatycznego i
barwnego metodami progowania, klasyfikacji pikseli a także proces identyfikacji obrazu w dwóch
aplikacjach medycznych.
1. Wprowadzenie
Systemy wizyjne w diagnostyce medycznej zdobywają coraz większą popularność wraz z
rosnącą mocą obliczeniową komputerów. Poprzez wprowadzenie komputerowej analizy
obrazu do rutynowych i naukowych badań w diagnostyce można uzyskać poprawę jakości
wyników (zwiększenie dokładności pomiarów lub obliczenie dodatkowych parametrów na
obrazie niemożliwych do wyznaczenia przez człowieka), co daje większą pewność diagnozy. Algorytmy analizy ilościowej obrazu wykluczają pomyłki, które może popełnić człowiek na skutek nieuwagi, zmęczenia lub ulegając złudzeniom optycznym.
Typowy system wizyjny dla ilościowej analizy obrazu realizuje następujące operacje:
Akwizycja i archiwizacja obrazu, czyli przechwytywanie obrazu z urządzenia analogowego lub cyfrowego (kamera, aparat fotograficzny) i wprowadzanie go do pamięci masowej komputera.
Przetwarzanie wstępne obrazu. Najczęściej etap ten obejmuje wydzielenie obszaru zainteresowania oraz filtrowanie w celu usunięcia zakłóceń mogących wpłynąć na dalsze etapy
przetwarzania.
Segmentacja obrazu, czyli podział wszystkich jego punktów na rozłączne, spójne komponenty charakteryzujące się jednorodnością, odpowiadające rzeczywistym obiektom widzianym na obrazie.
Identyfikacja obiektów – wśród wysegmentowanych obiektów należy wyróżnić te, które
podlegać będą dalszej analizie i przydzielić je do odpowiedniej klasy.
Analiza obiektów – obejmuje szereg pomiarów opisujących morfologię obiektu: kolor,
kształt, rozmiar. Analiza i identyfikacja mogą być realizowane wspólnie, przez jeden algorytm.
*
Katedra Informatyki Stosowanej Politechnika Łódzka, 90-924 Łódź, al.Politechniki 11,
[email protected]; [email protected]
Rozpatrywane w naszych pracach zagadnienie polega na analizie obrazów mikroskopowych, w których w polu widzenia liczy się i klasyfikuje obiekty oraz określa ich parametry morfologiczne. Liczba publikacji dotyczących analizy komputerowej obrazu mikroskopowego jest znaczna, a samo zagadnienie stało się elementem klasycznym w dziedzinie
przetwarzania obrazów; w terminologii informatycznej określane bywa mianem digital
microscopy i jest przedmiotem specjalistycznych kursów [19]. Opisane w dostępnej nam
literaturze systemy z zakresu digital microscopy możemy podzielić w kilku kategoriach:
1. ze względu na format obrazu:
- obraz barwny;
- obraz monochromatyczny (lub barwny, w którym informacja o kolorze nie
jest istotna);
2. ze względu na statyczność obrazu:
- obraz nieruchomy;
- obraz ruchomy (lub sekwencja obrazów) – badanie ruchliwości komórek;
3. ze względu na zawartość obrazu:
- obraz tkanki: celem analizy jest identyfikacja i badanie morfologii struktury
tkanki;
- obraz jednej komórki: cel analizy – identyfikacja i badanie morfologii komórki w celu wykrycia zmian patologicznych;
- obraz wielu takich samych komórek – liczenie komórek w polu widzenia –
najczęściej analiza komórek krwi
Lektura publikacji dotyczących algorytmów segmentacji i identyfikacji obrazów mikroskopowych pozwala stwierdzić, że najczęściej spotyka się różnorodne kombinacje istniejących, klasycznych algorytmów zastosowanych w pierwotnej formie bądź zmodyfikowanych tak, aby zwiększyć ich skuteczność dla wybranej klasy obrazu. W tym celu wprowadza się zmodyfikowane algorytmy przetwarzania wstępnego, nowe kryteria, miary, współczynniki, również w ograniczonym stopniu same algorytmy.
Dla potrzeb przetwarzania wstępnego używa się zwykle algorytmów:
• wyrównania jasności tła w obrazie;
• detekcji braku ostrości i wyrównania ostrości;
• usunięcia szumów związanych z procesem akwizycji obrazu;
• konwersji obrazu na obraz monochromatyczny lub transformacji składowych barwy.
Dla potrzeb segmentacji stosuje się najczęściej podejścia:
• progowanie obrazu (obraz monochromatyczny);
• klasyfikacja pikseli poprzez metody klasteryzacji, lub poprzez klasyfikatory (najczęściej sztuczne sieci neuronowe);
• analiza tekstury;
• metody wykrywania obszarów, najczęściej metody rozrostu;
• nieco rzadziej – algorytmy wykrywania konturu.
W trakcie naszych prac badawczych zaprojektowaliśmy przy współpracy z Akademiami
Medycznymi w Łodzi oraz we Wrocławiu dwa systemy wizyjne. Oprócz rozwiązań sugerowanych przez autorów innych prac przetestowaliśmy pewne własne rozwiązania. Naszym
wkładem własnym jest: ulepszony filtr medianowy [10, 11], zaprojektowanie algorytmu
klasyfikacji pikseli [14], zmodyfikowany algorytm Bernsena [17], prace nad algorytmem
watershed [15] i wreszcie połączenie tych algorytmów w optymalny sposób.
2. Przetwarzanie wstępne obrazu
Praktycznie każdy system przetwarzania i analizy obrazu wykorzystuje w pierwszych fazach działania niskopoziomowe algorytmy wstępnej obróbki (preprocessingu) mające na
celu głównie usunięcie szumu, wyrównanie histogramu i ewentualnie redukcję liczby kolorów / odcieni szarości. Owocem naszych prac dotyczących tego aspektu przetwarzania obrazów są nowy algorytm filtracji medianowej obrazów barwnych (w odmianie jedno- i
dwuprzebiegowej) oraz modyfikacje algorytmu binaryzacji Bernsena. Omówimy pokrótce
te algorytmy i osiągnięte wyniki.
2.1 Filtry medianowe
Filtr medianowy PNN-VMF [10] zainspirowany został filtrem FMVMF [8], a wprowadzone modyfikacje mają na celu zmniejszenie liczby zamienianych punktów i w efekcie
poprawę jakości filtracji. Filtry medianowe generalnie walczą z szumem impulsowym, którego źródłem mogą być np. niedoskonałości matrycy CCD. Filtr działa w przestrzeni barwnej RGB i używa maski krzyżowej 3x3, co zapewnia wysoką szybkość przetwarzania (na
współczesnych platformach sprzętowych przekraczającą 3 Mpix/sek.).
Zaproponowana przez nas później wersja dwuprzebiegowa PNN-VMF [11] ma, rzecz
jasna, na celu dalsze polepszenie jakości rekonstrukcji zaszumionego obrazu. Pierwszy
przebieg polega na wykonaniu oryginalnej procedury PNN-VMF. Znany jest fakt, że w
pewnych przypadkach pierwszy przebieg filtru medianowego nie usuwa szumu z wszystkich pikseli obrazu, dopiero użycie tego samego filtru po raz drugi lub kolejny przynosi
pożądany skutek. Niemniej jednak ponowne użycie filtru może zniekształcić obraz, czyli
wprowadzić modyfikacje do pikseli, które nie były zakłócone. W przypadku szumu o małym natężeniu można domniemać, że pierwszy przebieg filtru usunie go całkowicie i wówczas drugi przebieg jest zbędny – spowalnia działanie algorytmu i może powodować zniekształcenie obrazu. Z kolei obraz silnie zaszumiony poddany powinien być ponownej filtracji, ze względu na zwiększone prawdopodobieństwo wystąpienia dwóch lub więcej zaszumionych pikseli obok siebie. W proponowanej metodzie decyzja o zastosowaniu drugiego przebiegu podejmowana jest automatycznie na podstawie informacji zebranej podczas pierwszego przebiegu. Ze względu na fakt, że PNN-VMF modyfikuje w większości
przypadków tylko piksele rzeczywiście zaszumione, można sądzić, że liczba pikseli zmodyfikowanych przez ten filtr jest z pewnym przybliżeniem wprost proporcjonalna do zawartości szumu w obrazie, innymi słowy, jest to miara zaszumienia obrazu. Na podstawie powyższych obserwacji wysuwamy przypuszczenie, że również pewna proporcjonalna do
natężenia szumu liczba pikseli nie została w pierwszym przebiegu poprawiona. Można zatem na tej podstawie ustalić czułość filtru dla drugiego przebiegu. W przyjętym rozwiązaniu jedynie dla obrazów bardzo silnie zaszumionych na wejściu, drugi przebieg filtra jest
procedurą identyczną z przebiegiem pierwszym. W większości przypadków, procedura
wybrana dla drugiego przejścia jest „ostrożniejsza”, a pozytywnym ubocznym efektem tego
rozwiązania jest znaczna szybkość działania drugiego przejścia. Algorytm działa w sposób
bardziej „przewidywalny” w stosunku do zwykłego dwukrotnego uruchomienia jednoprzebiegowych filtrów medianowych, ale wadą rozwiązania jest kilka dobranych ad hoc wolnych parametrów (wartości progowych). Ponadto, osiągnięta poprawa jakości w stosunku
do wersji jednoprzebiegowej PNN-VMF przy stosunkowo małej ilości szumu wejściowego
jest często niewielka.
Próbą rozwinięcia algorytmów z prac [10] i [11] była praca magisterska [16]. Jej autor
podjął zagadnienie optymalizacji parametrów stosowanych przy filtracji obrazu, zagadnienie doboru funkcji odległości wektorów w przestrzeni barwnej, a także automatycznego
dostrajania algorytmów poprzez uczenie sieci neuronowych.
2.2 Binaryzacja obrazu
Binaryzacja obrazu (zwykle monochromatycznego) to jego konwersja do postaci czarno-białej (brak pośrednich odcieni). Najprostszą i nadal bardzo popularną metodą binaryzacji jest progowanie, tj. określenie pewnej wartości τ, tzw. progu (ang. threshold) jasności
wyznaczającej granicę pomiędzy obiektami a tłem obrazu. Po operacji progowania wszystkim punktom obrazu o jasności mniejszej niż τ zostanie przypisana wartość 0, zaś punktom
o jasności większej – wartość 1, dlatego progowanie można uznać za metodę częściowej
segmentacji. Uogólnieniem binaryzacji poprzez progowanie jest użycie większej liczby
progów (ang. multithresholding) w celu wyznaczenia większej liczby klas obiektów. Wartości progowe mogą być dobierane ręcznie lub automatycznie, np. na podstawie analizy
histogramu obrazu źródłowego. Dla większości aplikacji skuteczność segmentacji poprzez
progowanie jest wystarczająca, a szybkość przetwarzania nieporównanie większa w porównaniu do innych metod. Istotnym problemem jest jednak automatyczny wybór wartości
progowej. Generalnie, istniejące algorytmy można podzielić na te, które wyznaczają pojedynczą wartość progu dla całego obrazu, oraz te, w których próg jest wyznaczany niezależnie (lokalnie) dla każdego piksela. Nie istnieje oczywiście rozwiązanie uniwersalne dla
wszystkich obrazów, dlatego dla konkretnych zagadnień metodę i jej parametry dobiera się
doświadczalnie. Tym niemniej, nietrudno zauważyć, że metody binaryzacji globalnej nie
mogą być skuteczne np. dla obrazów o znacznie nierównomiernym oświetleniu.
Jedną z najprostszych, choć zarazem efektywnych metod binaryzacji lokalnej jest algorytm Bernsena [1]. Każdy piksel obrazu rozpatrywany jest wraz z ustalonej wielkości
oknem W, np. 15 x 15 pikseli. Jako wartość progową przyjmuje się średnią pomiędzy wartością minimalną Imin i maksymalną Imax w obrębie okna. Jeśli jednak kontrast w obrębie
okna, rozumiany jako różnica maksymalną a minimalną, jest zbyt mały, wówczas wszystkie punkty należące do okna przypisuje się do tej samej klasy określonej przez wybrany
eksperymentalnie próg globalny.
Szybkość działania algorytmu bardzo silnie zależy od wielkości okna W. Pierwszym naszym usprawnieniem [17] była szybka implementacja fazy wyznaczania maksimum i minimum w oknie, możliwa dzięki dużej części wspólnej okien sąsiadujących ze sobą pikseli.
Przy masce o boku 79 dało to przyspieszenie ok. 10-krotne w stosunku do implementacji
naiwnej.
Druga modyfikacja [17] miała na celu usunięcie podstawowej wady algorytmu oryginalnego: potrzeby dobrania wielkości okna do wielkości obiektów, które algorytm wykrywa. Zastosowanie zbyt dużego okna powoduje, że algorytm segmentacji pomija małe
obiekty o niewielkim kontraście leżące w sąsiedztwie obiektów o większym kontraście.
Zjawisko to prezentuje Rys. 1. Załóżmy, że na obrazie istnieją dwa obiekty O1 i O2, jasność
tła wynosi 100, obiektu O1 60, zaś obiektu O2 10. Dla punktu p (i, j ) i skojarzonego z nim
okna W mamy Imax=100, Imin=10, a więc środek przedziału, czyli wartość progu, wynosi 55.
Ponieważ wartość ta jest mniejsza od jasności obiektu O1, więc punkt p (i, j ) zostanie błędnie zaklasyfikowany jako punkt tła. Inne problemy mogą pojawić się przy oknie zbyt małym: nieprawidłowe wykrywanie krawędzi dużych obiektów oraz nieprawidłową identyfikację dużych obszarów obrazu o jednolitym tle. W świetle tych zjawisk, dochodzimy do
wniosku, że wielkość okna przeszukiwania powinna być dobrana eksperymentalnie do
wielkości obiektów widocznych na obrazie, co stanowi kłopot w przypadku, gdy nie znamy
dokładnej skali obrazu lub obiekty, które będą segmentowane charakteryzują się zróżnicowanym kontrastem i wielkością.
P(i,j)
O1
W
O2
Rys. 1 Prezentacja sytuacji, w której algorytm Bernsena działa błędnie. Opis w tekście
W celu dopasowania algorytmu do zróżnicowanej zawartości obrazu (z czym często
mamy do czynienia w obrazach ELISPOT) [18] zaproponowaliśmy algorytm wieloprzebiegowy. W każdym kroku pewne piksele są klasyfikowane na podstawie ich wartości oraz
progu obliczonego na podstawie wartości minimalne i maksymalnej pikseli z pewnego otoczenia W. Pozostałe, niesklasyfikowane piksele przechodzą do następnego etapu. Algorytm
kończy działanie, gdy wszystkie piksele obrazu zostaną sklasyfikowane. W każdym kroku
iteracji podwaja się promień okna W. Przy osiągnięciu ustalonego maksymalnego promienia okna decyzja o przypisaniu piksela do klasy jest już wymuszana. Przetestowaliśmy dwa
warianty tego podejścia, z oknem o wielkości stałej dla wszystkich pikseli w danym kroku
iteracji, oraz wariant wykonujący procedurę iteracyjną dla każdego piksela niezależnie.
Algorytm w wersji pierwszej łatwiej poddaje się optymalizacjom szybkościowym i wskutek tego nasza implementacja jest ok. 3x szybsza od zmodyfikowanego algorytmu Bernsena
w wersji drugiej, osiągając na procesorze Pentium4 2 GHz szybkość przetwarzania blisko
1,5 Mpix/sek. Tym niemniej, obie te wersje są szybsze od oryginalnego algorytmu Bernsena, nawet w implementacji zoptymalizowanej. Co jednak ważniejsze, modyfikacje binaryzacji Bernsena prowadzą do zdecydowanie lepszej jakości wynikowej badanych obrazów
mikroskopowych (p. Rys. 2).
a)
c)
b)
d)
e)
Rys. 2 Binaryzacja obrazu ELISPOT, 800 x 800 pikseli. (a) Obraz oryginalny, (b) Binaryzacja metodą globalną, (c) Binaryzacja alg. Bernsena przy r = 40 (d) i (e) Wariant 1 i 2 algorytmu zmodyfikowanego z promieniem okna w zakresie 5÷40. Najlepszy wynik przyniósł wariant 1 (rys. d).
3. Klasyfikacja pikseli
Jednym z najważniejszych zadań systemu analizy obrazu mikroskopowego jest przypisanie pikseli do poszczególnych klas, często określonych z góry dla danego zadania (klasyfikacja nadzorowana). Samo rozróżnienie: piksel należy do tła / piksel należy do obiektu
nie wystarczy, jeśli interesuje nas np., czy dane jądro komórkowe reaguje na określone
bodźce chemiczne. Proces klasyfikacji pikseli można zatem zaliczyć do metod segmentacji
z tym, że nie zawsze założenie o spójności obiektów jest spełnione. Spośród licznych metod klasyfikacji nadzorowanej wybraliśmy do eksperymentów klasyfikatory minimalnoodległościowe, tj. oparte na regule k najbliższych sąsiadów (k-NN) lub jednej z odmian tej
reguły. Rozwój klasyfikatorów minimalnoodległościowych był przedmiotem pracy doktorskiej drugiego autora [13]. Oryginalna reguła k-NN, znana jest z wysokiej jakości klasyfikacji, ale niestety szybkość jej działania zwłaszcza do przetwarzania obrazu piksel-popikselu jest zwykle niewystarczająca. Dotyczy to także jej najprostszej odmiany, używającej tylko jednego najbliższego sąsiada (1-NN). Standardową techniką przyspieszania klasyfikacji 1-NN jest redukcja zbioru uczącego (odniesienia). Stosujemy tę technikę, a konkretnie algorytm redukcji Skalaka [2] w wersji zmodyfikowanej przez Grabowskiego. Jednakże
specyfika zbioru testowego, który w tym przypadku jest zbiorem pikseli danego obrazu,
pozwala zredukować czas przetwarzania również w inny sposób. W przypadku ogólnym
klasyfikator k-NN (i 1-NN) traktuje zbiór testowy jako zbiór nieuporządkowany, bez zależności geometrycznych (przestrzennych) pomiędzy jego punktami. Na obrazie jednak punk-
ty leżące w sąsiedztwie lub w niewielkiej odległości z wysokim prawdopodobieństwem
powinny należeć do tego samego obiektu, a więc do tej samej klasy. Ta prosta obserwacja
stanowiła inspirację do zaprojektowania algorytmu klasyfikacji uwzględniającego zarówno
podobieństwo w przestrzeni cech jak i zależności geometryczne.
Zaproponowany algorytm używa klasyfikatora 1-NN (czyli metody stosunkowo wolnej,
nawet po redukcji zbioru uczącego, która zresztą została przeprowadzona) tylko dla niektórych pikseli obrazu. Pozostałe piksele przechodzą do drugiego etapu, w którym w pierwszej
kolejności rozpatrywane jest kryterium związane z otoczeniem punktu i na jego podstawie
podejmowana jest decyzja o przynależności piksela do określonej klasy. Dopiero w przypadku, gdy kryterium to nie daje wystarczającej pewności, punkty są przetwarzane przez
klasyfikator 1-NN. Idea klasyfikacji wieloetapowej (tzw. klasyfikatory kaskadowe) jest
powszechnie stosowana w dziedzinie rozpoznawania obrazów dla przypadku ogólnego. W
wypadku zadania klasyfikacji pikseli takie podejście może zasadniczo skrócić czas obliczeń
kosztem niewielkiego, być może niezauważalnego spadku jakości segmentacji, pod warunkiem właściwego doboru schematu klasyfikatora. Z uwagi na brak miejsca nie możemy
dokładnie opisać zbadanych wariantów naszkicowanego podejścia, pokazujemy jednak na
Rys. 3 metody podziału płaszczyzny na punkty klasyfikowane w pierwszym przebiegu przy
pomocy zbioru uczącego oraz te, które mają szansę być sklasyfikowane bardzo szybko,
korzystając z informacji już o wynikach klasyfikacji ich sąsiadów. Eksperymenty pokazały,
że wykorzystanie sąsiedztwa geometrycznego przy klasyfikacji powoduje rozbieżności w
podejmowaniu decyzji dla tylko ok. 1-2% pikseli w stosunku reguły 1-NN (ze zredukowanym w obu przypadkach zbiorem odniesienia) zastosowanej do wszystkich pikseli, natomiast osiągnięte przyspieszenie klasyfikacji jest 2-3-krotne.
a)
b)
c)
d)
Rys. 3 Zbiory klasyfikowane w pierwszym przebiegu: (a) szachownica, (b) punkty kratowe,
(c) punkty kratowe zmodyfikowane. Część (d) pokazuje, że “krzyże” pokrywają całą powierzchnię
siatki prostokątnej.
4. Aplikacje
Poniżej przedstawiamy dwa przykłady zastosowania algorytmów przetwarzania obrazów, w tym opracowanych przez nas, w diagnostyce medycznej. Charakterystyka zagadnienia i wymagań zostały zestawione w tabeli 1.
Tabela 1
Zaprojektowane systemy wizyjne
Nazwa systemu PATO
SPOTVIEW
Zagadnienie
diagnostyczne
analiza obrazów mikroskopowych
wycinków histologicznych i rozmazów cytologicznych tkanki nowotworowej w barwieniu imunohistochemicznym [3, 4, 7, 9]
analiza obrazów powstałych w immunoenzymatycznej reakcji aktywności wydzielniczej limfocytów metodą ELISPOT [5, 6]
Obraz statyczny barwny, obiektami
zainteresowania są jądra komórkowe
zabarwione na kolor brunatny lub
bladobłękitny. Występują też inne
obiekty – zanieczyszczenia. Należy
określić liczbę jąder komórkowych
każdego z typu.
Obraz statyczny monochromatyczny
lub barwny, obiektami zainteresowania są koliste ciemne plamki (mogą
być barwne) o zróżnicowanej wielkości i stopniu nasycenia. Należy określić rozkład wielkości plamek w polu
widzenia.
Przykładowy
obraz
Charakterystyka obrazu
Usuwanie szumu impulsowego filZastosowane
algorytmy prze- trem medianowym
twarzania
Filtr de-interlace
wstępnego
Domknięcie morfologiczne
Operacja wyrównania jasności tła
Filtr medianowy i dolnoprzepustowy
Zastosowane
algorytmy
segmentacji
Klasyfikacja pikseli
Progowanie adaptacyjne
metoda działów wodnych
metoda działów wodnych
Algorytmy
identyfikacji
Drzewo decyzyjne wykorzystujące
współczynniki kształtu, pole powierzchni i parametry kolorymetryczne.
Progowanie wykorzystujące współczynnik okrągłości i zmodyfikowany
algorytm obliczania pola powierzchni.
Algorytmy omawiane w artykule zostały zaimplementowane w systemach realizujących proces analizy ilościowej obrazu. Poprawność ich działania została przetestowana na
obrazach rzeczywistych. W przypadku systemu PATO [12] zweryfikowano działanie algorytmów poprzez porównanie wyników analizy przeprowadzonej na 144 obrazach ręcznie
przez osobę pracującą w laboratorium oraz przez nasz system. Przyjmując, że wyniki uzyskane przez człowieka są wzorcowe uzyskano rozbieżność rzędu 10 – 15 %. Może się wydawać, że nie jest to wynik dobry, lecz należy wspomnieć, że w rutynowych badaniach
patomorfologicznych wynik podaje się w czterostopniowej skali, gdyż nie ma czasu na
ręczne analizowanie takiej liczby obrazów i precyzyjne określanie procentowego udziału
jąder komórkowych każdego rodzaju.
Program SPOTVIEW [18] poddano testom porównawczym z programem Immunospot® , produktem firmy Cellular Technology Ltd. Uznanego w świecie producenta oprogramowania diagnostycznego. Testy statystyczne wykonane na 10 obrazach wykazały niewielką niezgodność wyników obliczonych przez oba systemy. Okazało się, że zaprojektowane przez nas oprogramowanie jest w stanie przy dostępnej rozdzielczości wychwycić
obiekty małe na tyle, że program komercyjny nie był w stanie ich zidentyfikować. Po celowym odrzuceniu tych najmniejszych plamek wyniki działania obu systemów okazały się
zgodne.
5. Podsumowanie
Zaprezentowana praca miała charakter przeglądowy. Jej celem było streszczenie wyników prac naukowych dotyczących przetwarzania i analizy obrazu w medycynie prowadzonych w Katedrze Informatyki Stosowanej. W pracy pokazano, że dla potrzeb przetwarzania obrazów algorytmy proste, często uznawane za niezbyt przydatne mogą okazać się
wystarczające pod warunkiem wprowadzenia odpowiednich modyfikacji. I właśnie przejrzystość i prostota algorytmów czyni je podatnymi na wprowadzanie własnych zmian często przynoszących niespodziewanie dobre efekty. Zaprojektowane systemy wizyjne realizują swoją funkcję poprawnie, chociaż wciąż podlegają testom i usprawnieniom. Jeden z autorów tej publikacji Wojciech Bieniecki kończy obecnie pracę doktorską „Nowoczesne
algorytmy przetwarzania i analizy obrazów w wizyjnych systemach komputerowych
wspomagających diagnostykę patmorfologiczną”.
Literatura
[1] J. Bernsen: Dynamic thresholding of grey-level images, in Proceedings of 8th International Conference on Pattern Recognition, Paris, 1986, pp. 1251–1255.
[2] D. B. Skalak: Prototype and feature selection by sampling and random mutation hill
climbing algorithms, in Proceedings of the 11th Int. Conf. on Machine Learning, New
Brunswick, NJ, USA, pp. 293–301, 1994.
[3] W. Polkowski i in.: Analytical and Quantitative Cytology and Histology 19: 246
(1997).
[4] S. K. Starker i in.: Analytical and Quantitative Cytology and Histology 19: 87 (1997).
[5] M. Tary-Lehmann, et al.: Enzyme-linked immunosorbent assay spot detection of interferon-gamma and interleukin 5-producing cells as a predictive marker for renal allograft failure Transplantation, vol. 66, pp. 219-224, 1998.
[6] J. M. Versteegen et al.: Enumeration of IFN-gamma-producing human lymphocytes by
spot-ELISA. A method to detect lymphokine-producing lymphocytes at the single-cell
level. J. Immunol. Methods. vol. 111, pp. 25-29, 1998.
[7] M. Zabel (red): Immunocytochemia. Wydawnictwo Naukowe PWN, Warszawa 1999.
[8] B. Smołka at al.: New technique of impulse noise suppression in color images, II Konferencja „Komputerowe Systemy Rozpoznawania” KOSYR2001, Miłków k/Karpacza,
2001, str. 225–232.
[9] K. Zielinski, M. Strzelecki: Komputerowa analiza obrazu biomedycznego. PWN, Wwa, Łódź, 2002.
[10] Grabowski Sz., Bieniecki W.: Usuwanie szumu impulsowego w obrazach kolorowych
przy użyciu zmodyfikowanego filtru medianowego, X Konferencja „Sieci i Systemy Informatyczne”, Łódź, 2002, str. 515–523.
[11] Sz. Grabowski, W. Bieniecki: A two-pass median-like filter for impulse noise removal
in multi-channel images, III Konferencja “Komputerowe Systemy Rozpoznawania”
KOSYR2003, Miłków k/Karpacza, 2003, str. 195–200.
[12] W. Bieniecki, Sz. Grabowski, J. Sekulska: A system for pathomorphological microscopic image analysis, KOSYR 2003, str. 21-28
[13] Sz. Grabowski: Konstrukcja klasyfikatorów minimalnoodległościowych o strukturze
sieciowej, praca doktorska Politechnika Łódzka, Łódź 2003.
[14] W. Bieniecki, Sz. Grabowski: Nearest Neighbor classifiers for color image segmentation, Proceedings of International Conference TCSET’2004, Lviv-Slavsko, Ukraine
2004, pp. 209-212.
[15] W. Bieniecki: Oversegmentation avoidance in watershed-based algorithms for color
images, Proceedings of International Conference TCSET’2004, Lviv-Slavsko, Ukraine,
pp. 169-172.
[16] S. Stoliński: Filtry medianowe dla usuwania szumu z obrazów barwnych, praca magisterska, Wydział Elektrotechniki i Elektroniki Politechniki Łódzkiej, 2004.
[17] W. Bieniecki, Sz. Grabowski: Multi-pass approach to adaptive thresholding based
image segmentation, 8th International IEEE Conference CADSM 2005, Lviv-Polyana,
Ukraine 2005, pp. 418-423.
[18] W. Bieniecki, Sz. Grabowski, D. Sankowski, K. Kościelska-Kasprzak, B. Bernat., M.
Klinger: An Efficient Processing and Analysis Algorithm for Images Obtained from
Immunoenzymatic Visualization of Secretory Activity, Proceedings of the 8th. International IEEE Conference CADSM 2005, Lviv-Polyana, Ukraine 2005, pp. 458-460.
[19] European Molecular Biology Organization http://www.emboj.org
Recenzent:
prof. dr hab. Andrzej Abecadłowicz

Podobne dokumenty