Podejście klasyczne
Transkrypt
Podejście klasyczne
2015-06-04 Metody rozpoznawania obrazów Istnieje teoria, że podczas ludzkiej percepcji wzrokowej poszczególne cechy obrazu pobudzają oddzielne ośrodki w mózgu Podejście klasyczne: metody minimalno-odległościowe metody wzorców metody aproksymacyjne metody probabilistyczne Podejście nieklasyczne: metody strukturalne Robot ogląda rozpoznawany obiekt Rozpoznawanie musi być niezależne od pozycji rozpoznawanego obiektu Rozpoznawanie silnie zależy od tego, jakich cech użyto do scharakteryzowania obiektu Kolor nakazuje zaliczyć obiekt do tej klasy Kształt nakazuje zaliczyć obiekt do tej klasy Zmniejszenie liczby klas znacząco polepsza warunki działania klasyfikatora: 1 2015-06-04 oczy blisko - daleko Zbiorowość rozpoznawanych obiektów Obiekt oczy blisko - daleko Przestrzeń cech i sposób jej tworzenia Punkt w przestrzeni cech reprezentuje obiekt twarz wąska - szeroka twarz wąska - szeroka Obrazy reprezentowane przez punkty w przestrzeni cech Przykładowa struktura przestrzeni cech dla rozpoznawania: przypadek cech ilościowych Przykładowa struktura przestrzeni cech dla rozpoznawania: przypadek cech jakościowych binarnych Przykładowa struktura przestrzeni cech dla rozpoznawania: przypadek cech jakościowych wielowartościowych 2 2015-06-04 Przykłady skupisk wzorców w przestrzeni cech oraz sposób klasyfikacji nowego elementu Wyniki identyfikacji podatności i łącznego oporu układu oddechowego w grupie osób zdrowych i ze stwierdzonym schorzeniem układu oddechowego W dobrze zdefiniowanej przestrzeni cech obiekty się grupują Niektóre ze składowych wektora cech mogą być czasem nieznane Bywa to jednak ryzykowne! Zazwyczaj takie brakujące dane uzupełnia się wstawiając wartości średnie Zależnie od sposobu rozmieszczenia w przestrzeni cech punktów reprezentujących obiekty należące do różnych klas rozpoznawanie może być łatwiejsze lub trudniejsze Przykład zadania, w którym pewne klasy rozpoznaje się łatwo, a inne trudno (Zbiór Iris w rzucie dwuwymiarowym cechy 3 i 4) 3 2015-06-04 Problem reprezentatywności zbioru uczącego Dwie klasy w przestrzeni cech. A) liniowo separowane, B) klasy nieseparowalne liniowo Inny przykład zbioru uczącego i pełnej populacji Czasem jednoznaczne rozpoznanie części obiektów jest wręcz niemożliwe Zwykle taki obszar „wymieszanych” obiektów rozpoznawanych klas jest raczej niewielki Komórki barwione metodą Papanicolaou Do skutecznego rozpoznawania dobrze jest używać przestrzeni o dużej liczbie wymiarów 4 2015-06-04 Reguła podejmowania decyzji w przypadku algorytmu NN zakłada, że nieznany obiekt zostanie zaklasyfikowany do tej klasy, do której należy obiekt ciągu uczącego, położony najbliżej niego w przestrzeni cech Decyzję o przynależności nowego Przy dobrze dobranym zbiorze cech (nieznanego) obiektu jednej ztworzą wcześniej poszczególne klasy do obiektów w znanych klas...zbiory. przestrzeni cech (zapamiętanych) wyraźnie wyróżnialne ... po wyznaczeniu jego cech ... można podjąć na podstawie tożsamości najbliższego znanego obiektu ? Typowanie najbliższych sąsiadów dla punktu podlegającego rozpoznawaniu Prosta metoda rozpoznawania na podstawie „najbliższego sąsiada” może się okazać zawodna. Uzupełnianie danych generowanych w trakcie uczenia O rozpoznaniu nie decyduje jeden sąsiad (nawet najbliższy), ale pewna zbiorowość 5 2015-06-04 Stabilniejsze rozpoznawanie zapewniają metody odwołujące się do wielu sąsiadów. Reguła -NN z sumą rang ( = 6). Przykład użycia reguły -NN dla =3 Poszerzenie liczby najbliższych sąsiadów może prowadzić do zmiany decyzji! Obiekt x zostanie przypisany do klasy „czerwonej” Wybór wartości musi być wynikiem kompromisu Przykłady konkretnych wyników rozpoznawania w zależności od parametru (na osi poziomej) w zadaniu rozpoznawania fonemów – dla różnych metryk. 6 2015-06-04 Ten sam problem (optymalnej liczby sąsiadów) dla zadań, w których mierzona jest dokładność rozpoznawania, a nie błąd (jak poprzednio) Punkty wzajemnie najbliższe Wyznaczenie punktów wzajemnie najbliższych pozwala wyodrębnić obszary, w których wiarygodność decyzji jest mała Niech y będzie najbliższym sąsiadem punktu x z dowolnej klasy innej niż klasa punktu x. Miara pozycyjna punktu x jest równa liczbie punktów należących do tej samej klasy, co punkt x, których odległość od punktu y jest mniejsza niż odległość pomiędzy x a y. Zależność wiarygodności decyzji od stopnia separowalności klas Miara pozycyjna punktu x będzie w tym przypadku wynosiła 4, ponieważ cztery obiekty z klasy „czerwonej” znajdują się bliżej punktu y niż punkt x. Odległość punktów w przestrzeni można bardzo różnie definiować Problem miary odległości 7 2015-06-04 Miary odległości jako czynnik determinujący sposób działania minimalnoodległościowych metod rozpoznawania obrazów Inną popularną miarą odległości jest miara Mahalanobisa: Modelowa miara odległości to metryka Minkowskiego Gdy Σ jest macierzą kowariancji zbiorowości wektorów X i Y , to miara ta wyznacza odległości we współrzędnych uzyskanych metodą składowych głównych. Nie jest to jednak jedyna możliwa interpretacja tej metryki. W charakterze miary można użyć bardziej ogólnej formy kwadratowej z dowolną dodatnio określoną macierzą Q ustaloną na podstawie kryteriów merytorycznych specjalnie dla danego problemu: Miara euklidesowa i metryka „miejska” (znana również jako „Manhattan” są oczywiście specjalnymi przypadkami miary Minkowskiego odpowiednio dla α = 2 i α = 1. Odległość Mahalanobisa punktu zielonego i punktu czerwonego od grupy punktów niebieskich będzie taka sama, podczas gdy odległość Euklidesa tych punktów od średniego położenia grupy (czarny punkt), bez uwzględnienia jej kształtu, będzie znacząco inna. W niektórych zastosowaniach najkorzystniejsza jest miara Czebyszewa: W innych przypadkach użyteczna okazuje się funkcja Canberra: czy też odległość χ2: gdzie sumi jest sumą wszystkich wartości cechy i ze zbioru trenującego, a sizex i sizey są sumami wszystkich wartości wektorów x i y. Należy zapewnić aby wartości sumi, sizex i sizey były różne od zera. Różnego rodzaju czynniki korelacyjne są również pożądane jako „półfabrykat” do stworzenia przydatnej miary odległości (która jest jednak wtedy odwrotnie proporcjonalna do korelacji). Najpopularniejsza jest „klasyczna” korelacja Pearsona: W przypadku cech rozpoznawanych obiektów o charakterze danych jakościowych (nominalnych) popularność zyskała miara VDM (ang. Value Difference Metrice) Odległość VDM pomiędzy dwoma N wymiarowymi wektorami x, y ze składowymi (cechami) o wartościach dyskretnych, opisywanych nazwami symbolicznymi, przyjmującymi wartości ze zbioru C dyskretnych identyfikatorów (nie koniecznie uszeregowanych według jakiegoś porządku) wyraża się wzorem: Z kolei funkcję korelacyjną rangową Kendalla definiuje poniższe wyrażenie: We wzorze tym Ni (xj) oznacza liczbę wystąpień i-tej dyskretnej wartości cechy j-tej w wektorze X, a N(xj) oznacza liczbę wystąpień j-tej cechy w wektorze X. Analogiczne oznaczenia dotyczą także wektora Y. 8 2015-06-04 Miary odległości wektorów binarnych Rozważane są odległości wektorów binarnych n - elementowych: X , Y 0,1 n Typowym narzędziem wykorzystywanym do mierzenia odległości takich wektorów jest metryka Hamminga n d H X i Yi Uogólniona metryka Hamminga Jeśli wektory cech opisujących obiekty mają postać atrybutów (nie koniecznie numerycznych): to uogólniona metryka Hamminga zlicza liczbę przypadków, kiedy te same atrybuty w jednym obiekcie są inne niż w drugim obiekcie i 1 Uogólniona metryka Hamminga może być także zastosowana do wektorów, w których atrybuty mają wartości numeryczne Metryka Hamminga nie zawsze wystarcza, dlatego rozważane są także inne miary odległości Przy wyznaczaniu potrzebnych miar odległości przydatne będą pomocnicze wartości: n n 1, X i Yi 1 b , 1, X i 1, Yi 0 i i a i , i i 1 0, otherwise. i 1 0, otherwise. n n 1, X i 0, Yi 1 d , 1, X i Yi 0 c i , i i i i 1 0 , otherwise . 0, otherwise. i 1 Łatwo zauważyć, że a, b, c i d są w istocie zliczeniami liczby zgodnych i niezgodnych bitów w obu łańcuchach. Na podstawie wartości a, b, c i d można wyznaczyć miary odległości: Sokal and Michener: f ad ad abcd n Russel and Rao: f a a abcd n Jaccard and Needham: f a abc Kulzinski: f a b c 1 Rogers and Tanimoto: f ad a d 2(b c) Yule: f ad bc ad bc 9 2015-06-04 Jeśli znamy definicję odległości punktu x od punktu y oznaczoną jako d(x,y) i jeśli A i B są zwartymi zbiorami punktów, to odległość punktu x od zbioru B dana jest wzorem: W przypadku, kiedy zarówno rozpoznawany obiekt, jak i wzorzec, z którym się go porównuje, nie są pojedynczymi punktami w przestrzeni cech, możliwe jest zastosowanie (do oceny odległości zbioru od zbioru) - metryki Hausdorffa. d ( x, B) min d ( x, y) yB Rozważmy dwa oznaczenia pomocnicze d ( A, B) max d ( x, B) oraz xA h( A, B) max{d ( A, B), d ( B, A)} Przykłady binarnych wektorów używanych do testowania metryk Formowanie binarnych wzorców klas, pozwalających na rozpoznanie obrazów liter (także zdeformowanych) za pomocą metod minimalnoodległościowych C D E F G I L yB Metryka Hausdorffa określona jest następującym wzorem: Interpretacja geometryczna odległości Hausdorffa A d ( B, A) max d ( y, A) P Obraz uzyskanej jakości rozpoznawania R 10 2015-06-04 Prawidłową decyzję przy rozpoznawaniu można często oprzeć na ocenie odległości od pojedynczego wzorca klasy, a nie od wszystkich obiektów uczących. Niekiedy można wymagać, żeby dla prawidłowego rozpoznawania następowało pokrycie punktów badanego obrazu oraz punktów uczących (wzorca) Decyzja jest tu oczywista! W innych przypadkach przydatne jest stworzenie wzorca wokół punktów uczących otoczeń kulistych, których suma może być użyta w charakterze wzorca Przykład rozpoznawania metodą wzorców i otoczeń kulistych 11