Sztuczne sieci neuronowe

Transkrypt

Sztuczne sieci neuronowe
Plan wykładu
Sieci samoorganizujace si na zasadzie współzawodnictwa:
• uczenie nienadzorowane
• uczenie konkurencyjne
Sztuczne sieci neuronowe
– reguła WTA
– reguła WTM
Wykład 10: Sieci samoorganizuj ce si na
zasadzie współzawodnictwa
• kwantowanie wektorowe
• mapa cech Kohonena
Małgorzata Kr towska
Katedra Oprogramowania
e-mail: [email protected]
Sztuczne sieci neuronowe
Uczenie nienadzorowane
(bez nauczyciela)
Uczenie nienadzorowane - przykłady
W tej klasie metod uczenia sztucznych sieci neuronowych (zwanej
uczeniem bez nadzoru lub bez nauczyciela) sie bez informacji
zwrotnej koryguj cej jej działanie z zewn trz (tj. oceny działania
sieci) sama wypracowuje funkcje przetwarzania danych, np.
uporz dkowywania, wykrywania regularno ci w danych, ich
klasyfikacji, kodowania itd.
Metody uczenia nienadzorowanego s wa nym narz dziem
przetwarzania danych w sytuacjach gdy nie mo na zorganizowa
nadzorowanego procesu uczenia.
Sztuczne sieci neuronowe
2
3
Przykładowe zadania, które mog by realizowane przez sieci
samoorganizuj ce si :
• wykrywanie podobie stwa - ocena stopnia podobie stwa
pomi dzy wzorcami (wg wybranego kryterium),
• analiza składowych głównych - jest to metoda redukcji
wymiarowo ci danych, w której wektory wzorców
wej ciowych s rzutowane na najistotniejsze kierunki ich
zmian w przestrzeni o zredukowanej liczbie wymiarów,
• klasyfikacja - detekcja danych, których cechy grupuj si
(s podobne) wg wybranego kryterium,
Sztuczne sieci neuronowe
4
Uczenie nienadzorowane - przykłady
Uczenie konkurencyjne
Przykładowe zadania, które mog by realizowane przez sieci
samoorganizuj ce si :
Jednym z podstawowych sposobów uczenia nienadzorowanego jest tzw.
uczenie konkurencyjne (ang. competitive learning). W tej metodzie
uczenia sieci, poszczególne neurony “konkuru ” ze so o prawo do
reprezentacji danych we ciowych.
• okre lanie prototypu - wskazanie typowego reprezentanta
grupy, tzw. prototypu,
• kodowanie - wyznaczanie zbioru prototypów o liczno ci
znacznie mniejszej ni cały zbiór danych wej ciowych
najlepiej je reprezentuj cych (uzyskuje si efekt kompresji
stratnej danych),
• tworzenie map cech - porz dkowanie danych według
wybranego kryterium podobie stwa.
5
Sztuczne sieci neuronowe
Cechy charakterystyczne:
• zwykle sieci jednowarstwowe
• ka dy neuron jest poł czony
ze wszystkim składowymi
wektora wej ciowego x
• neurony liniowe
6
Sztuczne sieci neuronowe
Uczenie konkurencyjne
Uczenie konkurencyjne
W konkurencyjnej metodzie uczenia sieci, tylko jeden element wyj ciowy
mo e znajdowa si w stanie aktywnym. Nazywany jest on zwyci zc ,
a schemat takiej reguły aktywacji neuronów okre lany jest mianem
“zwyci zca bierze wszystko” (ang. Winner Takes All - WTA).
• Ka da komórka w takiej warstwie jest poł czona ze wszystkimi elementami xk
wzorca wej ciowego za pomoc poł cze wagowych wjk (j=1, 2, ..., M; k=1, 2,
..., N). W wyniku zastosowania takiej struktury poł cze j-ty neuron warstwy
wyj ciowej sieci otrzymuje sygnał pobudzenia:
yj =
N
k =1
w jk x k = wTj x,
j = 1, 2,
,M
• Komórka zwyci ska warstwy wyj ciowej sieci, oznaczona indeksem j*, jest to
neuron otrzymuj cy najsilniejszy sygnał pobudzenia yj.. Zatem dla komórki
zwyci skiej spełniona jest nierówno :
wTj* x > wTj x,
Sztuczne sieci neuronowe
7
Sztuczne sieci neuronowe
j = 1,
M
8
Uczenie konkurencyjne
Z równania:
wTj* x > wTj x,
j = 1,
Uczenie konkurencyjne
Inne miary odległo ci miedzy wektorami:
M
wynika, e wektor wag wj* ł cz cy zwyci ski neuron z elementami wektora
wej ciowego jest wektorem najbardziej "podobnym", w sensie iloczynu
skalarnego wektorów, do wzorca x aktualnie podanego na wej cie sieci. Je eli
przyj , e wektory wj oraz x znormalizowano do jednostkowej długo ci to
szukan komórk zwyci zcy jest neuron, dla którego ró nica:
d ( x, w j ) = w j − x =
osi ga warto
minimaln
N
k =1
2
( xk − wjk ) ,
d ( x, w j* ) = min d ( x, w j ),
j = 1,
• miara Euklidesowa:
• iloczyn skalarny:
,M
Dla znormalizowanych wektorów wj i x o warto ci ich iloczynu skalarnego
decyduje jedynie zgodno ich kierunków a nie dodatkowo ich długo .
Sztuczne sieci neuronowe
• miara według normy L∞:
9
N
k =1
( xk − wjk ) 2
d ( x, w j ) = x w j cos( x, w j )
,M
• miara według normy L1
(Manhattan):
j = 1,
d ( x, w j ) = w j − x =
N
d ( x, w j ) =
k =1
x k − w jk
d ( x, w j ) = max xk − w jk
k
10
Sztuczne sieci neuronowe
Strefy wpływów
Strefy wpływów - ilustracja
• Na koniec procesu uczenia cała przestrze cech jest podzielona na
rozdzielne strefy wpływów poszczególnych neuronów. Jednocze nie
mo na zaobserwowa pogrupowanie danych. Cały zbiór danych został
podzielony na skupiska reprezentowane przez poszczególne neurony.
• Zastosowanie ró nych miar odległo ci pomi dzy wektorami kształtuje
podział stref wpływów inaczej.
• W szczególno ci zastosowanie iloczynu skalarnego bez normalizacji
wektorów mo e prowadzi do niespójnego podziału przestrzeni cech, w
którym wyst puje kilka neuronów w jednym obszarze, a w innym nie
ma adnego.
Rozkład obszarów atrakcji przy ró nych miarach odległo ci mi dzy wektorami
nieznormalizowanymi: a) miara euklidesowa; b) iloczyn skalarny; c) norma L1;
Sztuczne sieci neuronowe
11
.
d) norma L∞
Sztuczne sieci neuronowe
12
Normalizacja wektorów
Uczenie konkurencyjne - adaptacja wag
• Wykazano, e proces samoorganizacji prowadzi zawsze do spójnego podziału
przestrzeni cech, gdy cho jeden z wektorów x lub w podlega normalizacji.
• Je eli wektory x s znormalizowane to wektory wag staj si równie
automatycznie znormalizowane.
• Badania eksperymentalne potwierdziły potrzeb normalizacji wektorów dla
małych wymiarów n=2,3 Dla n>200 normalizacja nie odgrywa wi kszej roli.
• Metody normalizacji:
xi
xi =
– redefinicja składowych wektora x
W ka dej iteracji uczenia, prezentowane s kolejne wzorce
wej ciowe, a wyłoniony neuron zwyci ski tak adaptuje swoje
wagi aby dodatkowo poprawi "dopasowanie” (korelacj ), w
sensie iloczynu skalarnego, do aktualnie podanego na wej cie
sieci wzorca.
stosuj c tzw. standardow
Dopasowanie to mo na osi gn
konkurencyjn reguł uczenia:
N
j =1
x 2j
∆w j*k = η ( xk − w j*k )
– zwi kszenie wymiaru przestrzeni o jeden (do N+1), przy takim wyborze (N+1)szej składowej, aby
N
i =1
xi2 = 1
(Zachodzi tu z reguły konieczno wcze niejszego przeskalowania składowych
wektora x w przestrzeni RN. umo liwiaj cego spełnienie tej równo ci)
Sztuczne sieci neuronowe
Uczenie dotyczy tylko neuronu zwyci skiego, st d okre lenie
"zwyci zca bierze wszystko" (ang. winner-takes-all).
13
14
Sztuczne sieci neuronowe
Interpretacja geometryczna
Uczenie konkurencyjne
Reguła uczenia konkurencyjnego powoduje stopniow zmian
kierunku wektora wag poszczególnych jednostek wyj ciowych
sieci w stron statystycznie najcz ciej wyst puj cych wej .
Reg
uczenia konkurencyjnego m na zapis
w postaci
uwzg dnia cej kolejne iteracje uczenia k, k+1, k+2, ....
w j ( k + 1) =
w j ( k ) + η j ( k )[ x − w j ( k )]
j = j*
w j (k )
j ≠ j*
W standardowej regule uczenia konkurencyjnego nie uwzg dnia
s efektu „hamowania obocznego” neuronów siadu cych z
neuronem zwyc skim.
Sztuczne sieci neuronowe
15
Sztuczne sieci neuronowe
16
Zwyci zca bierze wi kszo
- WTM
Przykład adaptacji wag (WTM)
• Algorytmy WTA, w których tylko jeden neuron mo e podlega adaptacji w
ka dej iteracji, s algorytmami słabo zbie nymi, szczególnie przy du ej liczbie
neuronów
• W praktyce zostały one zast pione algorytmami WTM (ang. Winner Takes
Most), w których oprócz zwyci zcy uaktualniaj swoje wagi równie neurony
z jego s siedztwa:
wi = wi + ηi G (i, x)[ x − wi ]
dla wszystkich neuronów i nale cych do s siedztwa Sj* zwyci zcy.
Definiuj c G(i,x) w postaci:
G(i , x) =
1 i = j*
0 i ≠ j*
otrzymujemy algorytm WTA.
Sztuczne sieci neuronowe
Ilustracja procesu adaptacji wag
17
18
Sztuczne sieci neuronowe
Kwantowanie wektorowe danych
Obszary Voronoia
Jednym z najwa niejszych zastosowa uczenia konkurencyjnego
jest tzw. kwantowanie wektorowe danych. Idea takiej
reprezentacji danych pozwala uzyska efekt ich kodowania z
kompresj .
Zadanie kwantowania wektorowego realizuje si przez podział
danych na wybran liczb M klas. W ka dej z klas definiuje si
tzw. wektor prototypowy klasy, który staje si reprezentantem
(kwantuje do swojej warto ci) wszystkie dane z klasy.
Przynale no do danej klasy znajduje si przez znalezienie
najbli szego prototypu (np. według metryki euklidesowej).
Przestrze danych podzielona jest, w efekcie stosowania takiej
reguły, tzw. mozaik Voronoia wyznaczaj c obszary klas.
Sztuczne sieci neuronowe
19
Obszary Voronoia. Kropki reprezentuj prototypy klas.
Sztuczne sieci neuronowe
20
Kwantowanie wektorowe
Kwantowanie wektorowe
Kwantowanie wektorowe danych mo na uzyska za pomoc reguły
uczenia konkurencyjnego w nast puj cy sposób:
• okre l zało on liczb M klas i utwórz sie jednowarstwow o
takiej samej liczbie M jednostek wyj ciowych,
• zastosuj reguł konkurencyjn „zwyci zca bierze wszystko” do
uczenia sieci (stosuj reguł uczenia dla ka dej nowej danej
wej ciowej).
Po nauczeniu sieci, wagi poszczególnych jednostek reprezentuj
prototypy klas, a o przynale no ci danej wej ciowej do klasy
informuje zwyci skie wyj cie sieci.
21
Sztuczne sieci neuronowe
Ilustracja kwantowania wektorowego uzyskanego za pomoc sieci uczonej
reguł konkurencyjn
22
Sztuczne sieci neuronowe
Mapa cech Kohonena
Mapa cech Kohonena
Kohonen zaproponował reguł uczenia konkurencyjnego, w której
w odró nieniu od reguły standardowej, modyfikacji wag
dokonuje si nie tylko dla neuronu zwyci skiego, lecz równie
dla pewnej liczby neuronów z jego otoczenia.
Cel:
Idea:
Neurony poło one blisko siebie maj pełni podobn funkcj
Modyfikacja reguły WTA tworz ca obszary wra liwe na podobne
wzorce
Reguła ta wymaga wprowadzenia tzw. topologicznego
uporz dkowania neuronów w warstwie wyj ciowej (zwanej te
map cech), dla której mo na wprowadzi poj cie otoczenia
neuronu zwyci skiego np. przez zaliczenie do tego otoczenia
neuronów, których indeksy porz dkuj ce nie ró ni si o wi ksz
ni zało ona warto , która wyznacza to otoczenie.
Sztuczne sieci neuronowe
23
Sztuczne sieci neuronowe
24
Mapa cech Kohonena
Konkurencyjne uczenie nienadzorowane
Algorytm
zal n
uczenia
c :
w j ( k + 1) =
konkurencyjnego
Kohonena
w j ( k ) + η( k )[ x − w j ( k )]
w j (k )
jest
dany
j ∈ Ω(k )
j ∉ Ω(k )
w której wielk ci η(k) oraz Ω(k), reprezentu ce odpowiednio
wsp czynnik uczenia i otoczenie neuronu zwyc zcy,
dodatnimi, male cymi funkcjami czasu (tj. numeru iteracji uczenia
k).
25
Sztuczne sieci neuronowe
Sztuczne sieci neuronowe
26
Dobór parametrów
Algorytm uczenia sieci Kohonena
• współczynnik uczenia - dobór eksperymentalny z przedziału (0.1; 1)
• otoczenie neuronu zwyci zcy - pocz tkowo powinno obejmowa wi ksz ni
połowa z ogólnej liczby neuronów i nale y je zmniejsza w czasie uczenia tak
by w ko cowej fazie uczenia, zawierało ono tylko neuron zwyci ski
(neurony uło one w siatk hexagonaln i prostok tn )
1. Przypisz wagom sieci o M neuronach warstwy wyj ciowej i N
wej ciach niewielkie liczby losowe. Ustal liczb neuronów
nale cych do pocz tkowego otoczenia neuronu (> M/2)
2. Doł cz nowy wektor ucz cy x=[x1 , ...., xk , ..., xN ] do wej cia.
3. Wyznacz odpowied ka dego neuronu warstwy wyj ciowej
4. Znajd neuron zwyci ski j* (najwi ksza warto odpowiedzi).
5. Wyznacz nowe warto ci wag dla neuronu zwyci zcy j* i jego
s siedztwa (tj. jego otoczenia) stosuj c reguł Kohonena.
6. Zmie odpowiednio warto ci współczynnika uczenia i otoczenia
7. Powtórz 2-6 dla nast pnych wzorców wej ciowych a do chwili
ustalenia si odpowiedzi sieci.
Sztuczne sieci neuronowe
27
Sztuczne sieci neuronowe
28
Przykłady zastosowa
Odwzorowanie powierzchni dwuwymiarowej na liniow siatk 50 jednostek
wyj ciowych; Odwzorowanie powierzchni kwadratowej na siatk zawieraj c
10x10 jednostek wyj ciowych
Sztuczne sieci neuronowe
29