Sieć Kohonena cz.1

Transkrypt

Sieć Kohonena cz.1
Literatura
1.
2.
3.
4.
5.
Tadeusiewicz R.: Sieci neuronowe. Akademicka Oficyna Wydawnicza,
Warszawa 1993
Osowski S.: Sieci neuronowe w uj ciu algorytmicznym. WNT,
Warszawa 1996
Hertz J., Krogh A., Palmer R. G.: Wst p do teorii oblicze
neuronowych. WNT, Warszawa 1993
Masters T.: Sieci neuronowe w praktyce. Programowanie w C++.
WNT, Warszawa 1996
Piłot T.,Gwiazda A.: Zastosowania sztucznej inteligencji w in ynierii
produkcji. Pod Red. R. Knosali, WNT 2002
Sieci neuronowe
Sie Kohonena
Copyright by dr in . Tomasz Piłot
Schemat wyj ciowej warstwy sieci o
algorytmie uczenia o konkurencji ostrej
neuron zwyci ski i*
[wektor cech wej ciowych xj ]
Algorytm uczenia Kohonena
Metoda uczenia konkurencyjnego
Modyfikacja wag poł cze sieci:
wi*j = wi*j + η(t) (xjµ - wi*j),
gdzie: η(t) – współczynnik uczenia, t – numer iteracji, xjµ – warto j-tej cechy
µ-tego wzorca wej ciowego, wij – warto wagowa poł czenia wej ciowego
w zła j z i-tym neuronem wyj ciowym.
Warto
wyj ciowa:
Dla miary Euklidesowej:
Dla innych miar:
hiµ =
j
wij xjµ = wi ⋅ xµ
|wi* - xµ |
wi ⋅ xµ
d (xµ,wi*) = min d(x, wi), 0 i
n
Algorytm uczenia Kohonena
Metoda uczenia konkurencyjnego
W przypadku odległo ci stosuje si ró ne miary:
• miara Euklidesa:
N
d ( x, w i ) =
j =1
(x
j − w ij )
2
• iloczyn skalarny:
d ( x, w i ) =
N
j =1
(x
j − w ij )
2
• miara według normy L1 (Manhattan):
d ( x, w i ) =
N
j =1
• miara według normy L :
(x
j
− w ij
)
2
d ( x, w i ) = max (x j − w ij )
j
Algorytm uczenia Kohonena
Normalizacja wektora wej ciowego i wagowego
Sposoby normalizacji mo na przedstawi nast puj co:
• redefinicja składowych wektora wej ciowego:
xj
xj ←
N
x 2j
j=1
• zwi kszenie wymiaru przestrzeni wej ciowej o jeden,
tzn. z RN → RN+1, gdzie:
N +1
j=1
x 2j = 1
Algorytm uczenia Kohonena
Metoda uczenia konkurencyjnego z funkcj s siedztwa
Modyfikacja wag poł cze sieci:
( )
w ij (t ) = w ij (t − 1) + η (t ) Λ i , i * (x j − w ij (t − 1))
Okre lenie w zła o maksymalnej warto ci wyj ciowej, gdy |wi| = 1 :
|wi* - xµ |
wi ⋅ xµ
Obliczenie warto ci funkcji w otoczeniu w zła „zwyci skiego”:
( )
( )
d 2 i, i *
Λ i, i = exp −
2λ (t ) 2
*
Obliczenie nowych warto ci funkcji promienia s siedztwa λ(t) i
współczynnika uczenia η(t).
Algorytm uczenia Kohonena
Funkcje s siedztwa – funkcje promienia s siedztwa
Jako funkcje promienia s siedztwa (t) stosuje si zwykle nast puj ce:
• funkcj liniow 1(t):
(t) =
1
gdzie:
0
t
1−
+1
T1
T1 okre la maksymalny okres,
t okre la numer iteracji,
pocz tkowa promienia s siedztwa.
0 warto
• funckj wykładnicz :
t
(t) =
2
0
min
Tmax
0
•gdzie: Tmax - parametr okre laj cy maksymaln warto iteracji,
przej ciowa promienia s siedztwa, przy którym funkcja
min - warto
ta przechodzi przez punkt o współrz dnych ( Tmax, min ).
Algorytm uczenia Kohonena
Funkcja celu Rittera i Schultena
1
E {w ij } =
2
M i Λ (i, k )(x j − w ij )
µ
ijk
2
1
=
2
Funkcje współczynnika uczenia:
• funkcja liniowa
t
η (t ) = η 0 1 −
T1
• funkcja pot gowa
η (t ) = η 0αt −α
• funkcja wykładnicza
2
(t) =
0
η min
η0
t
Tmax
µ
( )
Λ i , i * x µ − w i*
Algorytm „gazu neuronowego” cz.I
1. Sortowanie w złów wyj ciowych ze wzgl du na odległo wzorca wej ciowego,
w mierze Euklidesa, od macierzy wag, zwi zanej z danym w złem:
d 0 < d1 < ... < d n −1
gdzie:
n – liczba neuronów wyj ciowych,
m=0,1,...,n-1 – okre la pozycj w zła i-tego w wektorze odległo ci,
dm – oznacza odległo na m-tej pozycji i-tego w zła wyj ciowego w
uporz dkowanym wektorze odległo ci, która wyra a si zale no ci :
dm = x − wi
gdzie:
x - macierz wzorca wej ciowego,
wi - macierz wag poł cze i-tego w zła wyj ciowego
i macierzy wej ciowej x.
Algorytm „gazu neuronowego” cz.II
2. Okre lenie warto ci funkcji s siedztwa na w złach uporz dkowanych wg
odległo ci dm:
( )
Λ i, i = e
*
λ (t )
d 2m
gdzie (t) jest funkcj promienia s siedztwa.
Funkcje celu stowarzyszona z funkcj s siedztwa charakteryzuje si , przy
warto ciach λ→0, przej ciem w algorytm uczenia konkurencji ostrej. Posta funkcji
przybiera kształt paraboli. W przypadku jednak, gdy λ → ∞, wtedy przy wolnej
zmianie λ dostajemy funkcj wielomodaln , o wielu minimach lokalnych. W tym
momencie funkcja ta zapewnia doj cie procesu uczenia do globalnego minimum.
Wskutek tego algorytm ten jest okre lany jako najbardziej skuteczny w ród takich
algorytmów jak mapa Kohonena czy k-u rednie .