Schemat wyjściowej warstwy sieci o algorytmie uczenia o

Transkrypt

Schemat wyjściowej warstwy sieci o algorytmie uczenia o
Schemat wyj ciowej warstwy sieci o
algorytmie uczenia o konkurencji ostrej
neuron zwyci ski i*
[wektor cech wej ciowych xj ]
Algorytm uczenia Kohonena
Kwantowanie wektorowe
Modyfikacja wag poł cze sieci:
wi*j = wi*j + η(t) (xjµ - wi*j),
gdzie: η(t) – współczynnik uczenia, t – numer iteracji, xjµ – warto j-tej cechy
µ-tego wzorca wej ciowego, wij – warto wagowa poł czenia wej ciowego
w zła j z i-tym neuronem wyj ciowym.
Warto
wyj ciowa:
Dla miary Euklidesowej:
Dla innych miar:
hiµ =
j
wij xjµ = wi ⋅ xµ
|wi* - xµ |
wi ⋅ xµ
d (xµ,wi*) = min d(x, wi), 0 i
n
Algorytm uczenia LVQ Kohonena
Learning quantization vector – adaptacyjne kwantowania wektorowe
Podstawowe zało enia:
Algorytmy WTA i WTM dziel obszar wej ciowy na okre lone strefy wpływów
poszczególnych neuronów. Wagi neuronu zwyci aj cego wyznaczaj punkt
centralny dla grupy wektorów wej ciowych, który oznaczamy jako wc.(wektor
Voronoia).
Zbiór wszystkich wektorów centralnych nosi nazw ksi ki kodowej.
VQ - w ka dym obszarze wej ciowym Rn wyró nia si tzw. ,,wektory koduj ce”
(codebook vectors), gdzie przy zastosowaniu reguły najbli szego s siada mo na
okre li klas dla nowego wzorca x.
Ka demu wzorcowi wej ciowemu przypisujemy klas C co stanowi algorytm
uczenia LVQ.
Kolejne wektory wej ciowe porównuje si z wektorami centralnymi. Je eli klasy
wektora centralnego i wej ciowego s zgodne to nast puje zmiana warto ci
wektora centralnego tak aby zbli y si do wektora wej ciowego, w przeciwnym
przypadku wektor centralny jest odsuwany od wej ciowego.
Algorytm uczenia LVQ Kohonena
Learning quantization vector – adaptacyjne kwantowania wektorowe
Podstawowy algorytm LVQ1:
1. Wprowadzenie kolejnego wektora wej ciowego xi, i=1..p
c = arg min ( x − w k
k
)
2. Porównanie klasy C x przypisanej wektorowi xi i klasy C w c
i
przypisanej do wc:
• Je li C x i = C w c , to
•
Je li C x ≠ C w , to
i
c
w c (t + 1) = w c (t ) + α t [x i − w c (t ) ]
w c (t + 1) = w c (t ) − α t [x i − w c (t ) ]
3. Pozostałe wektory nie ulegaj zmianie.
Algorytm uczenia LVQ Kohonena
Learning quantization vector – adaptacyjne kwantowania wektorowe
Algorytm LVQ2.1:
Wyznaczenie okna do którego wpada wektor wej ciowy wg zale no ci:
1− e
di d j
, e = 0.2 .. 0.3
min
,
>s, s =
1+ e
d j di
Adaptacja wag:
w i (t + 1) = w i (t ) − α t [x k − w i (t ) ]
[
w j (t + 1) = w j (t ) + α t x k − w j (t )
Gdzie:
i - wektor o innej klasie ni x,
j – wektor o tej samej klasie co x.
]
Algorytm uczenia LVQ Kohonena
Learning quantization vector – adaptacyjne kwantowania wektorowe
Algorytm LVQ3:
Wyznaczenie okna do którego wpada wektor wej ciowy wg zale no ci:
1− e
di d j
min
,
, e = 0.2 .. 0.3
>s, s =
1+ e
d j di
Adaptacja wag:
w i (t + 1) = w i (t ) − α t [x k − w i (t ) ]
[
w j (t + 1) = w j (t ) + α t x k − w j (t )
Gdzie:
]
i - wektor o innej klasie ni x,
j – wektor o tej samej klasie co x.
Natomiast, je eli xk, wi oraz wj nale
do tej samej klasy:
w h (t + 1) = w h (t ) + εα t [x k − w h (t ) ], h ∈ {i, j}

Podobne dokumenty