Wybrane zagadnienia przetwarzania i analizy obrazów
Transkrypt
Wybrane zagadnienia przetwarzania i analizy obrazów
X Lat KIS WOJCIECH BIENIECKI, SZYMON GRABOWSKI * WYBRANE ZAGADNIENIA PRZETWARZANIA I ANALIZY OBRAZÓW MIKROSKOPOWYCH W DIAGNOSTYCE MEDYCZNEJ STRESZCZENIE. Artykuł jest podsumowaniem badań prowadzonych przez nasz zespół w ciągu ostatnich trzech lat. W tym okresie zajmowaliśmy się zagadnieniem przetwarzania obrazów mikroskopowych, ze szczególnym naciskiem na proces segmentacji obrazu. Przedmiotem naszego zainteresowania są głównie obrazy barwne, dla których dokonaliśmy przeglądu istniejących metod, wprowadzając własne modyfikacje i projektując nowe algorytmy. W artykule prezentujemy zagadnienie usuwania szumu impulsowego w obrazach barwnych, proces segmentacji obrazu monochromatycznego i barwnego metodami progowania, klasyfikacji pikseli a także proces identyfikacji obrazu w dwóch aplikacjach medycznych. 1. Wprowadzenie Systemy wizyjne w diagnostyce medycznej zdobywają coraz większą popularność wraz z rosnącą mocą obliczeniową komputerów. Poprzez wprowadzenie komputerowej analizy obrazu do rutynowych i naukowych badań w diagnostyce można uzyskać poprawę jakości wyników (zwiększenie dokładności pomiarów lub obliczenie dodatkowych parametrów na obrazie niemożliwych do wyznaczenia przez człowieka), co daje większą pewność diagnozy. Algorytmy analizy ilościowej obrazu wykluczają pomyłki, które może popełnić człowiek na skutek nieuwagi, zmęczenia lub ulegając złudzeniom optycznym. Typowy system wizyjny dla ilościowej analizy obrazu realizuje następujące operacje: Akwizycja i archiwizacja obrazu, czyli przechwytywanie obrazu z urządzenia analogowego lub cyfrowego (kamera, aparat fotograficzny) i wprowadzanie go do pamięci masowej komputera. Przetwarzanie wstępne obrazu. Najczęściej etap ten obejmuje wydzielenie obszaru zainteresowania oraz filtrowanie w celu usunięcia zakłóceń mogących wpłynąć na dalsze etapy przetwarzania. Segmentacja obrazu, czyli podział wszystkich jego punktów na rozłączne, spójne komponenty charakteryzujące się jednorodnością, odpowiadające rzeczywistym obiektom widzianym na obrazie. Identyfikacja obiektów – wśród wysegmentowanych obiektów należy wyróżnić te, które podlegać będą dalszej analizie i przydzielić je do odpowiedniej klasy. Analiza obiektów – obejmuje szereg pomiarów opisujących morfologię obiektu: kolor, kształt, rozmiar. Analiza i identyfikacja mogą być realizowane wspólnie, przez jeden algorytm. * Katedra Informatyki Stosowanej Politechnika Łódzka, 90-924 Łódź, al.Politechniki 11, [email protected]; [email protected] Rozpatrywane w naszych pracach zagadnienie polega na analizie obrazów mikroskopowych, w których w polu widzenia liczy się i klasyfikuje obiekty oraz określa ich parametry morfologiczne. Liczba publikacji dotyczących analizy komputerowej obrazu mikroskopowego jest znaczna, a samo zagadnienie stało się elementem klasycznym w dziedzinie przetwarzania obrazów; w terminologii informatycznej określane bywa mianem digital microscopy i jest przedmiotem specjalistycznych kursów [19]. Opisane w dostępnej nam literaturze systemy z zakresu digital microscopy możemy podzielić w kilku kategoriach: 1. ze względu na format obrazu: - obraz barwny; - obraz monochromatyczny (lub barwny, w którym informacja o kolorze nie jest istotna); 2. ze względu na statyczność obrazu: - obraz nieruchomy; - obraz ruchomy (lub sekwencja obrazów) – badanie ruchliwości komórek; 3. ze względu na zawartość obrazu: - obraz tkanki: celem analizy jest identyfikacja i badanie morfologii struktury tkanki; - obraz jednej komórki: cel analizy – identyfikacja i badanie morfologii komórki w celu wykrycia zmian patologicznych; - obraz wielu takich samych komórek – liczenie komórek w polu widzenia – najczęściej analiza komórek krwi Lektura publikacji dotyczących algorytmów segmentacji i identyfikacji obrazów mikroskopowych pozwala stwierdzić, że najczęściej spotyka się różnorodne kombinacje istniejących, klasycznych algorytmów zastosowanych w pierwotnej formie bądź zmodyfikowanych tak, aby zwiększyć ich skuteczność dla wybranej klasy obrazu. W tym celu wprowadza się zmodyfikowane algorytmy przetwarzania wstępnego, nowe kryteria, miary, współczynniki, również w ograniczonym stopniu same algorytmy. Dla potrzeb przetwarzania wstępnego używa się zwykle algorytmów: • wyrównania jasności tła w obrazie; • detekcji braku ostrości i wyrównania ostrości; • usunięcia szumów związanych z procesem akwizycji obrazu; • konwersji obrazu na obraz monochromatyczny lub transformacji składowych barwy. Dla potrzeb segmentacji stosuje się najczęściej podejścia: • progowanie obrazu (obraz monochromatyczny); • klasyfikacja pikseli poprzez metody klasteryzacji, lub poprzez klasyfikatory (najczęściej sztuczne sieci neuronowe); • analiza tekstury; • metody wykrywania obszarów, najczęściej metody rozrostu; • nieco rzadziej – algorytmy wykrywania konturu. W trakcie naszych prac badawczych zaprojektowaliśmy przy współpracy z Akademiami Medycznymi w Łodzi oraz we Wrocławiu dwa systemy wizyjne. Oprócz rozwiązań sugerowanych przez autorów innych prac przetestowaliśmy pewne własne rozwiązania. Naszym wkładem własnym jest: ulepszony filtr medianowy [10, 11], zaprojektowanie algorytmu klasyfikacji pikseli [14], zmodyfikowany algorytm Bernsena [17], prace nad algorytmem watershed [15] i wreszcie połączenie tych algorytmów w optymalny sposób. 2. Przetwarzanie wstępne obrazu Praktycznie każdy system przetwarzania i analizy obrazu wykorzystuje w pierwszych fazach działania niskopoziomowe algorytmy wstępnej obróbki (preprocessingu) mające na celu głównie usunięcie szumu, wyrównanie histogramu i ewentualnie redukcję liczby kolorów / odcieni szarości. Owocem naszych prac dotyczących tego aspektu przetwarzania obrazów są nowy algorytm filtracji medianowej obrazów barwnych (w odmianie jedno- i dwuprzebiegowej) oraz modyfikacje algorytmu binaryzacji Bernsena. Omówimy pokrótce te algorytmy i osiągnięte wyniki. 2.1 Filtry medianowe Filtr medianowy PNN-VMF [10] zainspirowany został filtrem FMVMF [8], a wprowadzone modyfikacje mają na celu zmniejszenie liczby zamienianych punktów i w efekcie poprawę jakości filtracji. Filtry medianowe generalnie walczą z szumem impulsowym, którego źródłem mogą być np. niedoskonałości matrycy CCD. Filtr działa w przestrzeni barwnej RGB i używa maski krzyżowej 3x3, co zapewnia wysoką szybkość przetwarzania (na współczesnych platformach sprzętowych przekraczającą 3 Mpix/sek.). Zaproponowana przez nas później wersja dwuprzebiegowa PNN-VMF [11] ma, rzecz jasna, na celu dalsze polepszenie jakości rekonstrukcji zaszumionego obrazu. Pierwszy przebieg polega na wykonaniu oryginalnej procedury PNN-VMF. Znany jest fakt, że w pewnych przypadkach pierwszy przebieg filtru medianowego nie usuwa szumu z wszystkich pikseli obrazu, dopiero użycie tego samego filtru po raz drugi lub kolejny przynosi pożądany skutek. Niemniej jednak ponowne użycie filtru może zniekształcić obraz, czyli wprowadzić modyfikacje do pikseli, które nie były zakłócone. W przypadku szumu o małym natężeniu można domniemać, że pierwszy przebieg filtru usunie go całkowicie i wówczas drugi przebieg jest zbędny – spowalnia działanie algorytmu i może powodować zniekształcenie obrazu. Z kolei obraz silnie zaszumiony poddany powinien być ponownej filtracji, ze względu na zwiększone prawdopodobieństwo wystąpienia dwóch lub więcej zaszumionych pikseli obok siebie. W proponowanej metodzie decyzja o zastosowaniu drugiego przebiegu podejmowana jest automatycznie na podstawie informacji zebranej podczas pierwszego przebiegu. Ze względu na fakt, że PNN-VMF modyfikuje w większości przypadków tylko piksele rzeczywiście zaszumione, można sądzić, że liczba pikseli zmodyfikowanych przez ten filtr jest z pewnym przybliżeniem wprost proporcjonalna do zawartości szumu w obrazie, innymi słowy, jest to miara zaszumienia obrazu. Na podstawie powyższych obserwacji wysuwamy przypuszczenie, że również pewna proporcjonalna do natężenia szumu liczba pikseli nie została w pierwszym przebiegu poprawiona. Można zatem na tej podstawie ustalić czułość filtru dla drugiego przebiegu. W przyjętym rozwiązaniu jedynie dla obrazów bardzo silnie zaszumionych na wejściu, drugi przebieg filtra jest procedurą identyczną z przebiegiem pierwszym. W większości przypadków, procedura wybrana dla drugiego przejścia jest „ostrożniejsza”, a pozytywnym ubocznym efektem tego rozwiązania jest znaczna szybkość działania drugiego przejścia. Algorytm działa w sposób bardziej „przewidywalny” w stosunku do zwykłego dwukrotnego uruchomienia jednoprzebiegowych filtrów medianowych, ale wadą rozwiązania jest kilka dobranych ad hoc wolnych parametrów (wartości progowych). Ponadto, osiągnięta poprawa jakości w stosunku do wersji jednoprzebiegowej PNN-VMF przy stosunkowo małej ilości szumu wejściowego jest często niewielka. Próbą rozwinięcia algorytmów z prac [10] i [11] była praca magisterska [16]. Jej autor podjął zagadnienie optymalizacji parametrów stosowanych przy filtracji obrazu, zagadnienie doboru funkcji odległości wektorów w przestrzeni barwnej, a także automatycznego dostrajania algorytmów poprzez uczenie sieci neuronowych. 2.2 Binaryzacja obrazu Binaryzacja obrazu (zwykle monochromatycznego) to jego konwersja do postaci czarno-białej (brak pośrednich odcieni). Najprostszą i nadal bardzo popularną metodą binaryzacji jest progowanie, tj. określenie pewnej wartości τ, tzw. progu (ang. threshold) jasności wyznaczającej granicę pomiędzy obiektami a tłem obrazu. Po operacji progowania wszystkim punktom obrazu o jasności mniejszej niż τ zostanie przypisana wartość 0, zaś punktom o jasności większej – wartość 1, dlatego progowanie można uznać za metodę częściowej segmentacji. Uogólnieniem binaryzacji poprzez progowanie jest użycie większej liczby progów (ang. multithresholding) w celu wyznaczenia większej liczby klas obiektów. Wartości progowe mogą być dobierane ręcznie lub automatycznie, np. na podstawie analizy histogramu obrazu źródłowego. Dla większości aplikacji skuteczność segmentacji poprzez progowanie jest wystarczająca, a szybkość przetwarzania nieporównanie większa w porównaniu do innych metod. Istotnym problemem jest jednak automatyczny wybór wartości progowej. Generalnie, istniejące algorytmy można podzielić na te, które wyznaczają pojedynczą wartość progu dla całego obrazu, oraz te, w których próg jest wyznaczany niezależnie (lokalnie) dla każdego piksela. Nie istnieje oczywiście rozwiązanie uniwersalne dla wszystkich obrazów, dlatego dla konkretnych zagadnień metodę i jej parametry dobiera się doświadczalnie. Tym niemniej, nietrudno zauważyć, że metody binaryzacji globalnej nie mogą być skuteczne np. dla obrazów o znacznie nierównomiernym oświetleniu. Jedną z najprostszych, choć zarazem efektywnych metod binaryzacji lokalnej jest algorytm Bernsena [1]. Każdy piksel obrazu rozpatrywany jest wraz z ustalonej wielkości oknem W, np. 15 x 15 pikseli. Jako wartość progową przyjmuje się średnią pomiędzy wartością minimalną Imin i maksymalną Imax w obrębie okna. Jeśli jednak kontrast w obrębie okna, rozumiany jako różnica maksymalną a minimalną, jest zbyt mały, wówczas wszystkie punkty należące do okna przypisuje się do tej samej klasy określonej przez wybrany eksperymentalnie próg globalny. Szybkość działania algorytmu bardzo silnie zależy od wielkości okna W. Pierwszym naszym usprawnieniem [17] była szybka implementacja fazy wyznaczania maksimum i minimum w oknie, możliwa dzięki dużej części wspólnej okien sąsiadujących ze sobą pikseli. Przy masce o boku 79 dało to przyspieszenie ok. 10-krotne w stosunku do implementacji naiwnej. Druga modyfikacja [17] miała na celu usunięcie podstawowej wady algorytmu oryginalnego: potrzeby dobrania wielkości okna do wielkości obiektów, które algorytm wykrywa. Zastosowanie zbyt dużego okna powoduje, że algorytm segmentacji pomija małe obiekty o niewielkim kontraście leżące w sąsiedztwie obiektów o większym kontraście. Zjawisko to prezentuje Rys. 1. Załóżmy, że na obrazie istnieją dwa obiekty O1 i O2, jasność tła wynosi 100, obiektu O1 60, zaś obiektu O2 10. Dla punktu p (i, j ) i skojarzonego z nim okna W mamy Imax=100, Imin=10, a więc środek przedziału, czyli wartość progu, wynosi 55. Ponieważ wartość ta jest mniejsza od jasności obiektu O1, więc punkt p (i, j ) zostanie błędnie zaklasyfikowany jako punkt tła. Inne problemy mogą pojawić się przy oknie zbyt małym: nieprawidłowe wykrywanie krawędzi dużych obiektów oraz nieprawidłową identyfikację dużych obszarów obrazu o jednolitym tle. W świetle tych zjawisk, dochodzimy do wniosku, że wielkość okna przeszukiwania powinna być dobrana eksperymentalnie do wielkości obiektów widocznych na obrazie, co stanowi kłopot w przypadku, gdy nie znamy dokładnej skali obrazu lub obiekty, które będą segmentowane charakteryzują się zróżnicowanym kontrastem i wielkością. P(i,j) O1 W O2 Rys. 1 Prezentacja sytuacji, w której algorytm Bernsena działa błędnie. Opis w tekście W celu dopasowania algorytmu do zróżnicowanej zawartości obrazu (z czym często mamy do czynienia w obrazach ELISPOT) [18] zaproponowaliśmy algorytm wieloprzebiegowy. W każdym kroku pewne piksele są klasyfikowane na podstawie ich wartości oraz progu obliczonego na podstawie wartości minimalne i maksymalnej pikseli z pewnego otoczenia W. Pozostałe, niesklasyfikowane piksele przechodzą do następnego etapu. Algorytm kończy działanie, gdy wszystkie piksele obrazu zostaną sklasyfikowane. W każdym kroku iteracji podwaja się promień okna W. Przy osiągnięciu ustalonego maksymalnego promienia okna decyzja o przypisaniu piksela do klasy jest już wymuszana. Przetestowaliśmy dwa warianty tego podejścia, z oknem o wielkości stałej dla wszystkich pikseli w danym kroku iteracji, oraz wariant wykonujący procedurę iteracyjną dla każdego piksela niezależnie. Algorytm w wersji pierwszej łatwiej poddaje się optymalizacjom szybkościowym i wskutek tego nasza implementacja jest ok. 3x szybsza od zmodyfikowanego algorytmu Bernsena w wersji drugiej, osiągając na procesorze Pentium4 2 GHz szybkość przetwarzania blisko 1,5 Mpix/sek. Tym niemniej, obie te wersje są szybsze od oryginalnego algorytmu Bernsena, nawet w implementacji zoptymalizowanej. Co jednak ważniejsze, modyfikacje binaryzacji Bernsena prowadzą do zdecydowanie lepszej jakości wynikowej badanych obrazów mikroskopowych (p. Rys. 2). a) c) b) d) e) Rys. 2 Binaryzacja obrazu ELISPOT, 800 x 800 pikseli. (a) Obraz oryginalny, (b) Binaryzacja metodą globalną, (c) Binaryzacja alg. Bernsena przy r = 40 (d) i (e) Wariant 1 i 2 algorytmu zmodyfikowanego z promieniem okna w zakresie 5÷40. Najlepszy wynik przyniósł wariant 1 (rys. d). 3. Klasyfikacja pikseli Jednym z najważniejszych zadań systemu analizy obrazu mikroskopowego jest przypisanie pikseli do poszczególnych klas, często określonych z góry dla danego zadania (klasyfikacja nadzorowana). Samo rozróżnienie: piksel należy do tła / piksel należy do obiektu nie wystarczy, jeśli interesuje nas np., czy dane jądro komórkowe reaguje na określone bodźce chemiczne. Proces klasyfikacji pikseli można zatem zaliczyć do metod segmentacji z tym, że nie zawsze założenie o spójności obiektów jest spełnione. Spośród licznych metod klasyfikacji nadzorowanej wybraliśmy do eksperymentów klasyfikatory minimalnoodległościowe, tj. oparte na regule k najbliższych sąsiadów (k-NN) lub jednej z odmian tej reguły. Rozwój klasyfikatorów minimalnoodległościowych był przedmiotem pracy doktorskiej drugiego autora [13]. Oryginalna reguła k-NN, znana jest z wysokiej jakości klasyfikacji, ale niestety szybkość jej działania zwłaszcza do przetwarzania obrazu piksel-popikselu jest zwykle niewystarczająca. Dotyczy to także jej najprostszej odmiany, używającej tylko jednego najbliższego sąsiada (1-NN). Standardową techniką przyspieszania klasyfikacji 1-NN jest redukcja zbioru uczącego (odniesienia). Stosujemy tę technikę, a konkretnie algorytm redukcji Skalaka [2] w wersji zmodyfikowanej przez Grabowskiego. Jednakże specyfika zbioru testowego, który w tym przypadku jest zbiorem pikseli danego obrazu, pozwala zredukować czas przetwarzania również w inny sposób. W przypadku ogólnym klasyfikator k-NN (i 1-NN) traktuje zbiór testowy jako zbiór nieuporządkowany, bez zależności geometrycznych (przestrzennych) pomiędzy jego punktami. Na obrazie jednak punk- ty leżące w sąsiedztwie lub w niewielkiej odległości z wysokim prawdopodobieństwem powinny należeć do tego samego obiektu, a więc do tej samej klasy. Ta prosta obserwacja stanowiła inspirację do zaprojektowania algorytmu klasyfikacji uwzględniającego zarówno podobieństwo w przestrzeni cech jak i zależności geometryczne. Zaproponowany algorytm używa klasyfikatora 1-NN (czyli metody stosunkowo wolnej, nawet po redukcji zbioru uczącego, która zresztą została przeprowadzona) tylko dla niektórych pikseli obrazu. Pozostałe piksele przechodzą do drugiego etapu, w którym w pierwszej kolejności rozpatrywane jest kryterium związane z otoczeniem punktu i na jego podstawie podejmowana jest decyzja o przynależności piksela do określonej klasy. Dopiero w przypadku, gdy kryterium to nie daje wystarczającej pewności, punkty są przetwarzane przez klasyfikator 1-NN. Idea klasyfikacji wieloetapowej (tzw. klasyfikatory kaskadowe) jest powszechnie stosowana w dziedzinie rozpoznawania obrazów dla przypadku ogólnego. W wypadku zadania klasyfikacji pikseli takie podejście może zasadniczo skrócić czas obliczeń kosztem niewielkiego, być może niezauważalnego spadku jakości segmentacji, pod warunkiem właściwego doboru schematu klasyfikatora. Z uwagi na brak miejsca nie możemy dokładnie opisać zbadanych wariantów naszkicowanego podejścia, pokazujemy jednak na Rys. 3 metody podziału płaszczyzny na punkty klasyfikowane w pierwszym przebiegu przy pomocy zbioru uczącego oraz te, które mają szansę być sklasyfikowane bardzo szybko, korzystając z informacji już o wynikach klasyfikacji ich sąsiadów. Eksperymenty pokazały, że wykorzystanie sąsiedztwa geometrycznego przy klasyfikacji powoduje rozbieżności w podejmowaniu decyzji dla tylko ok. 1-2% pikseli w stosunku reguły 1-NN (ze zredukowanym w obu przypadkach zbiorem odniesienia) zastosowanej do wszystkich pikseli, natomiast osiągnięte przyspieszenie klasyfikacji jest 2-3-krotne. a) b) c) d) Rys. 3 Zbiory klasyfikowane w pierwszym przebiegu: (a) szachownica, (b) punkty kratowe, (c) punkty kratowe zmodyfikowane. Część (d) pokazuje, że “krzyże” pokrywają całą powierzchnię siatki prostokątnej. 4. Aplikacje Poniżej przedstawiamy dwa przykłady zastosowania algorytmów przetwarzania obrazów, w tym opracowanych przez nas, w diagnostyce medycznej. Charakterystyka zagadnienia i wymagań zostały zestawione w tabeli 1. Tabela 1 Zaprojektowane systemy wizyjne Nazwa systemu PATO SPOTVIEW Zagadnienie diagnostyczne analiza obrazów mikroskopowych wycinków histologicznych i rozmazów cytologicznych tkanki nowotworowej w barwieniu imunohistochemicznym [3, 4, 7, 9] analiza obrazów powstałych w immunoenzymatycznej reakcji aktywności wydzielniczej limfocytów metodą ELISPOT [5, 6] Obraz statyczny barwny, obiektami zainteresowania są jądra komórkowe zabarwione na kolor brunatny lub bladobłękitny. Występują też inne obiekty – zanieczyszczenia. Należy określić liczbę jąder komórkowych każdego z typu. Obraz statyczny monochromatyczny lub barwny, obiektami zainteresowania są koliste ciemne plamki (mogą być barwne) o zróżnicowanej wielkości i stopniu nasycenia. Należy określić rozkład wielkości plamek w polu widzenia. Przykładowy obraz Charakterystyka obrazu Usuwanie szumu impulsowego filZastosowane algorytmy prze- trem medianowym twarzania Filtr de-interlace wstępnego Domknięcie morfologiczne Operacja wyrównania jasności tła Filtr medianowy i dolnoprzepustowy Zastosowane algorytmy segmentacji Klasyfikacja pikseli Progowanie adaptacyjne metoda działów wodnych metoda działów wodnych Algorytmy identyfikacji Drzewo decyzyjne wykorzystujące współczynniki kształtu, pole powierzchni i parametry kolorymetryczne. Progowanie wykorzystujące współczynnik okrągłości i zmodyfikowany algorytm obliczania pola powierzchni. Algorytmy omawiane w artykule zostały zaimplementowane w systemach realizujących proces analizy ilościowej obrazu. Poprawność ich działania została przetestowana na obrazach rzeczywistych. W przypadku systemu PATO [12] zweryfikowano działanie algorytmów poprzez porównanie wyników analizy przeprowadzonej na 144 obrazach ręcznie przez osobę pracującą w laboratorium oraz przez nasz system. Przyjmując, że wyniki uzyskane przez człowieka są wzorcowe uzyskano rozbieżność rzędu 10 – 15 %. Może się wydawać, że nie jest to wynik dobry, lecz należy wspomnieć, że w rutynowych badaniach patomorfologicznych wynik podaje się w czterostopniowej skali, gdyż nie ma czasu na ręczne analizowanie takiej liczby obrazów i precyzyjne określanie procentowego udziału jąder komórkowych każdego rodzaju. Program SPOTVIEW [18] poddano testom porównawczym z programem Immunospot® , produktem firmy Cellular Technology Ltd. Uznanego w świecie producenta oprogramowania diagnostycznego. Testy statystyczne wykonane na 10 obrazach wykazały niewielką niezgodność wyników obliczonych przez oba systemy. Okazało się, że zaprojektowane przez nas oprogramowanie jest w stanie przy dostępnej rozdzielczości wychwycić obiekty małe na tyle, że program komercyjny nie był w stanie ich zidentyfikować. Po celowym odrzuceniu tych najmniejszych plamek wyniki działania obu systemów okazały się zgodne. 5. Podsumowanie Zaprezentowana praca miała charakter przeglądowy. Jej celem było streszczenie wyników prac naukowych dotyczących przetwarzania i analizy obrazu w medycynie prowadzonych w Katedrze Informatyki Stosowanej. W pracy pokazano, że dla potrzeb przetwarzania obrazów algorytmy proste, często uznawane za niezbyt przydatne mogą okazać się wystarczające pod warunkiem wprowadzenia odpowiednich modyfikacji. I właśnie przejrzystość i prostota algorytmów czyni je podatnymi na wprowadzanie własnych zmian często przynoszących niespodziewanie dobre efekty. Zaprojektowane systemy wizyjne realizują swoją funkcję poprawnie, chociaż wciąż podlegają testom i usprawnieniom. Jeden z autorów tej publikacji Wojciech Bieniecki kończy obecnie pracę doktorską „Nowoczesne algorytmy przetwarzania i analizy obrazów w wizyjnych systemach komputerowych wspomagających diagnostykę patmorfologiczną”. Literatura [1] J. Bernsen: Dynamic thresholding of grey-level images, in Proceedings of 8th International Conference on Pattern Recognition, Paris, 1986, pp. 1251–1255. [2] D. B. Skalak: Prototype and feature selection by sampling and random mutation hill climbing algorithms, in Proceedings of the 11th Int. Conf. on Machine Learning, New Brunswick, NJ, USA, pp. 293–301, 1994. [3] W. Polkowski i in.: Analytical and Quantitative Cytology and Histology 19: 246 (1997). [4] S. K. Starker i in.: Analytical and Quantitative Cytology and Histology 19: 87 (1997). [5] M. Tary-Lehmann, et al.: Enzyme-linked immunosorbent assay spot detection of interferon-gamma and interleukin 5-producing cells as a predictive marker for renal allograft failure Transplantation, vol. 66, pp. 219-224, 1998. [6] J. M. Versteegen et al.: Enumeration of IFN-gamma-producing human lymphocytes by spot-ELISA. A method to detect lymphokine-producing lymphocytes at the single-cell level. J. Immunol. Methods. vol. 111, pp. 25-29, 1998. [7] M. Zabel (red): Immunocytochemia. Wydawnictwo Naukowe PWN, Warszawa 1999. [8] B. Smołka at al.: New technique of impulse noise suppression in color images, II Konferencja „Komputerowe Systemy Rozpoznawania” KOSYR2001, Miłków k/Karpacza, 2001, str. 225–232. [9] K. Zielinski, M. Strzelecki: Komputerowa analiza obrazu biomedycznego. PWN, Wwa, Łódź, 2002. [10] Grabowski Sz., Bieniecki W.: Usuwanie szumu impulsowego w obrazach kolorowych przy użyciu zmodyfikowanego filtru medianowego, X Konferencja „Sieci i Systemy Informatyczne”, Łódź, 2002, str. 515–523. [11] Sz. Grabowski, W. Bieniecki: A two-pass median-like filter for impulse noise removal in multi-channel images, III Konferencja “Komputerowe Systemy Rozpoznawania” KOSYR2003, Miłków k/Karpacza, 2003, str. 195–200. [12] W. Bieniecki, Sz. Grabowski, J. Sekulska: A system for pathomorphological microscopic image analysis, KOSYR 2003, str. 21-28 [13] Sz. Grabowski: Konstrukcja klasyfikatorów minimalnoodległościowych o strukturze sieciowej, praca doktorska Politechnika Łódzka, Łódź 2003. [14] W. Bieniecki, Sz. Grabowski: Nearest Neighbor classifiers for color image segmentation, Proceedings of International Conference TCSET’2004, Lviv-Slavsko, Ukraine 2004, pp. 209-212. [15] W. Bieniecki: Oversegmentation avoidance in watershed-based algorithms for color images, Proceedings of International Conference TCSET’2004, Lviv-Slavsko, Ukraine, pp. 169-172. [16] S. Stoliński: Filtry medianowe dla usuwania szumu z obrazów barwnych, praca magisterska, Wydział Elektrotechniki i Elektroniki Politechniki Łódzkiej, 2004. [17] W. Bieniecki, Sz. Grabowski: Multi-pass approach to adaptive thresholding based image segmentation, 8th International IEEE Conference CADSM 2005, Lviv-Polyana, Ukraine 2005, pp. 418-423. [18] W. Bieniecki, Sz. Grabowski, D. Sankowski, K. Kościelska-Kasprzak, B. Bernat., M. Klinger: An Efficient Processing and Analysis Algorithm for Images Obtained from Immunoenzymatic Visualization of Secretory Activity, Proceedings of the 8th. International IEEE Conference CADSM 2005, Lviv-Polyana, Ukraine 2005, pp. 458-460. [19] European Molecular Biology Organization http://www.emboj.org Recenzent: prof. dr hab. Andrzej Abecadłowicz