Dodatek A2. Klasyfikator K – najbli szych sąsiadów. ∫

Transkrypt

Dodatek A2. Klasyfikator K – najbli szych sąsiadów. ∫
Dodatek A2. Klasyfikator K – najbliższych sąsiadów.
Rozważmy pewien region R w przestrzeni cech, prawdopodobieństwo, że wektor cech
a należy do tego wynosi:
P = ∫ p(a)da ≈ p(a)V
(3.1)
R
gdzie: V – objętość regionu R
Przy założeniu, że mamy m próbek wektora cech i k z nich należy do regionu R,
prawdopodobieństwo P może być estymowane przez k/m, stąd:
pˆ (a ) =
k /m
V
(3.2)
Jedyną rzeczą o jakiej musimy tu zadecydować jest wielkość objętości V. Oczywistym jest, że
wielkość ta nie może być zbyt duża, gdyż doprowadzi to do „rozmycia” klasyfikacji, nie
może być również zbyt mała, gdyż to z kolei, spowoduje wzrost wariacji estymacji.
M
Przyjmijmy, że zbiór treningowy składa się ze wszystkich N = ∑ N i próbek wektorów cech,
i =1
gdzie Ni jest liczbą próbek należących do klasy C(i). Klasyfikacji sygnału a polega na
wyznaczeniu objętości Vm wokół a , zawierającej km próbek treningowych. Zbiór wybranych
km próbek, można podzielić na M podzbiorów, każdy o liczebności ki, zawierających próbki
należące do poszczególnych klas C(i). Estymator warunkowego prawdopodobieństwa można
zapisać w następujący sposób:
pˆ (a | C (i ) ) =
ki / N i
V
natomiast estymator prawdopodobieństwa P(C(i)) jest równy:
(3.3)
N
Pˆ (C ( i ) ) = i
N
(3.4)
Postępując według reguły Bayesa (dodatek A1) i wykorzystując równanie 3.4, regułę
decyzyjną możemy przedstawić w następujący sposób: wektor a jest przypisywany do klasy
C(i) jeśli:
Nj
Ni
pˆ (a | C ( j ) ) dla wszystkich j
pˆ (a | C ( i ) ) >
N
N
(3.5)
k i > k j dla wszystkich j
(3.6)
k i = max{k1 , k 2 ,..., k M } => a ∈ C (i )
(3.7)
co można zapisać:
lub
Reguła ta nie wymaga znajomości własności statystycznych cech i jest relatywnie łatwa w
użyciu. Rys A3.1 przedstawia zasadę działania klasyfikatora k-NN w przestrzeni
dwuwymiarowej. Klasyfikowany sygnał jest reprezentowany przez wektor a, i w zależności
od wielkości otoczenia jest klasyfikowany do klasy C(1) lub C(2).
Rys. A3.1 Zasada działania klasyfikatora k-NN
Błąd klasyfikacji przy użyciu metody k-NN (k-Nearest Neighbor) εNN, jest związany z
błędem klasyfikatora Bayesa εB przez nierówność:
ε NN ≤ 2ε B (1 − ε B )
Jeśli założymy εB<<1 to możemy określić górną granicę błędu klasyfikatora k-NN, która jest
w przybliżeniu dwa razy większa niż w przypadku klasyfikatora Bayesa.