Sztuczne sieci neuronowe

Transkrypt

Sztuczne sieci neuronowe
Plan wykładu
• Odwzorowanie Sammona
Sztuczne sieci neuronowe
• Sieci samoorganizuj ce si typu Hebba
– reguła Hebba
– reguła Oji
– przykłady zastosowa
Wykład 12: Sieci samoorganizuj ce si
typu Hebba
Małgorzata Kr towska
Katedra Oprogramowania
e-mail: [email protected]
2
Sztuczne sieci neuronowe
Odwzorowanie Sammona
Odwzorowanie Sammona
Odwzorowanie Sammona pozwala na graficzne przedstawienie danych
wielowymiarowych w przestrzeni o mniejszej liczbie wymiarów.
Zadanie odwzorowania nieliniowego Sammona polega na takim doborze
wektorów y, aby minimalizowa funkcj bł du E zdefiniowan w
postaci:
Zało enia:
– danych jest n wektorów N-wymiarowych xi (i=1,2,...,n) i odpowiednio do
nich definiuje si n wektorów w przestrzeni M-wymiarowej (M=2,3),
oznaczonych przez yi.
– odległo ci pomi dzy poszczególnymi wektorami w przestrzeni N*
wymiarowej oznaczono przez d ij = d ( xi , x j )
odległo ci w przestrzeni M-wymiarowej przez d ij = d ( yi , y j )
– do okre lenia odległo ci mi dzy wektorami mo na zastosowa dowoln
metryk , w szczególno ci euklidesow .
1
E=
c
n
i< j
[d
*
ij
− d ij
]
2
d ij*
przy czym:
c=
n
i< j
dij*
d ij =
M
k =1
[y
ik
− y jk
]
2
gdzie yij oznacza j-t składow wektora yi.
Sztuczne sieci neuronowe
3
Sztuczne sieci neuronowe
4
Odwzorowanie Sammona
Odwzorowanie Sammona
W minimalizacji funkcji bł du Sammon zastosował metod optymalizacji
Newtona, uproszczon do postaci:
y pq (k + 1) = y pq (k ) − η∆ pq (k )
Odpowiednie składowe gradientu s równe:
2
∂E
=−
c
∂y pq
*
n
d pj − d pj
j =1 , j ≠ p
d pj d *pj
[y
pq
− y jq
]
w której
∆ pq ( k ) =
∂E
∂y pq
∂2 E
∂y 2pq
2
∂ 2E
=−
2
c
∂y pq
( y pq − y jq ) 2
d pj* − d pj
1
*
(
)
1
d
d
−
−
+
pj
pj
*
d pj
d pj
j =1 , j ≠ p d pj d pj
n
reprezentuje iloraz odpowiedniej składowej gradientu i diagonalnego
składnika hesjanu, okre lone w k-tej iteracji.
Współczynnik uczenia jest stał z przedziału [0.3; 0.4].
5
Sztuczne sieci neuronowe
6
Sztuczne sieci neuronowe
Reguła Hebba (1949)
Reguła Hebba
Je li aktywny neuron A jest cyklicznie pobudzany
przez neuron B, to staje si on jeszcze bardziej czuły
na pobudzenie tego neuronu.
Konsekwenc
reg a:
stwierdzenia Hebba jest nas pu ca, dwu-c
wAB ( k + 1) = wAB (k ) + η y A (k ) y B ( k )
gdzie:
• wAB - waga poł czenia synaptycznego pomi dzy neuronem A i B
ciowa
1 . J eli neurony A i B p czone synap
pobudzane jednocz
(t.j. synchronicznie) to p czenie synaptyczne je c ce jest
wzmacniane.
Zmiana wag poł czenia pomi dzy neuronem A i B według reguły Hebba
przebiega w nast puj cy sposób:
• yA - stan aktywacji neuronu A
nie
• yB - stan aktywacji neuronu B
∀ η - współczynnik uczenia (dodatni)
2. J eli neurony A i B p czone synap
pobudzane
niejednocz nie (t.j. asynchronicznie) to p czenie synaptyczne je
c ce podlega o abieniu.
Sztuczne sieci neuronowe
yB
yA
A
7
Sztuczne sieci neuronowe
wAB
B
8
Prosta reguła Hebba
Interpretacja geometryczna reguły Hebba
• Dzi anie reg y Hebba dla sieci s ada cej s z
jednego elementu liniowego, na którego we cie
d czono wzorce we ciowe Xi , których roz ad
statystyczny opisuje st
prawdopodobi stwa P
(Xi ).
• Celem uczenia jest wyznaczenie miary podobi
pom dzy dowolnym pojedynczym wzorcem
we ciowym Xi a roz adem st
prawdopodobi stwa P(Xi )
y
∆w = ηYX
w1
stwa
x1
w2
x2 .....
wN
xN
∆wi = ηYX i
• Reguła Hebba
wzmacnia wyj cie Y po ka dym kolejnym wej ciu, a
wi c cz ste wzorce wej ciowe b d miały decyduj cy
wpływ na wyj cie i b d wywoływa najwi ksze
Sztuczne
neuronowe
wyjsiecicie.
Wektor wag neuronu stopniowo
przemieszcza si w kierunku
rodka masy próbek ucz cych
9
10
Sztuczne sieci neuronowe
Wady reguły Hebba
Modyfikacje reguły Hebba
Mo na zapobiec rozbie no ci prostej reguły Hebba ograniczaj c wzrost
wektora wag w.
– normalizacja wszystkich wag po ka dej aktualizacji
Wagi rosn bez ogranicze i proces uczenia nigdy si nie ko czy - proces
uczenia jest rozbie ny
– Oja [1982] wykazał, e modyfikuj c odpowiednio reguł Hebba mo na
nada wektorom wag stał długo ||w||=1 bez potrzeby normalizacji.
Ponadto w zbli a si do wektora własnego macierzy E{XiXjT} o
najwi kszej warto ci własnej.
(dowód: Korbicz J., Obuchowicz A., Uci ski D.: Sztuczne sieci neuronowe. Podstawy i
zastosowania, 1994)
Sztuczne sieci neuronowe
11
Sztuczne sieci neuronowe
12
Reguła Oji
Interpretacja geometryczna reguły Oji
Reguła Oji polega na dodaniu do reguły Hebba wyrazu zanikania wagi
proporcjonalnego do Y2:
∆wi = ηy ( xi − ywi )
y
∆wi = ηy ( xi − ywi )
w1
wstecznie
propagowane
wyj cie
w2
x1
x2 .....
wN
xN
13
Sztuczne sieci neuronowe
Własno ci reguły Oji
Własno ci reguły Oji
Kierunek wyuczonego wektora wag
∆w = 0
14
Sztuczne sieci neuronowe
Wektor wag neuronu uczonego przy u yciu reguły Oji jest wektorem
własnym macierzy C.
< > - oznacza warto oczekiwan liczon
wzgl dem rozkładu próbek x
∆w = η y ( x − yx) = η yx − y 2 w = 0
(
)
∆w = η ( wT x) x − y 2 w = η xxT w − y 2 w = 0
xx
T
=C
η (Cw− < y > w) = 0
2
Sztuczne sieci neuronowe
Cw = λw
macierz C w zale no ci od normalizacji danych
jest nazywana macierz iloczynów skalarnych,
macierz kowariancji lub macierz korelacji danych
z własno ci wart. własnych
Cw = λw
15
Sztuczne sieci neuronowe
16
Własno ci reguły Oji
Własno ci reguły Oji - podsumowanie
Cw = λw
λ = y 2 = ( wT x)( wT x) = wT xxT w = wT Cw
λ = wT λw
wektora wag ||w|| = ,
kierunku maksymalnego
2) kierunek wektora wag l y wz
wektora asnego macierzy korelacji zbioru wzorców
we ciowych
2
w =1
3) wektor wag l y wz
wart
oczekiwa
Długo wektora wag uczonego
przy u yciu reguły Oja jest
ograniczona
Sztuczne sieci neuronowe
ug
17
Metoda składowych głównych (PCA)
kierunku, który maksymalizuje
<Y >, t.j. warianc odpowiedzi sieci.
2
Sztuczne sieci neuronowe
18
Dobór liczby składowych głównych
• Celem jest znalezienie M wektorów ortogonalnych w przestrzeni
danych, które wpływaj w jak najwi kszym stopniu na wariancj
danych.
• Rzut danych z przestrzeni N-wymiarowej na M-wymiarow
podprzestrze rozpi t przez te wektory umo liwia otrzymanie
redukcji wymiarowo ci.
• Kierunek k-tej składowej głównej pokrywa si z kierunkiem wektora własnego
odpowiadaj cego k-tej co do wielko ci warto ci własnej macierzy kowariancji.
• Warto ci własne reprezentuj wariancje składowych głównych
• Je eli suma dwóch lub trzech pierwszych składowych głównych jest du a (np.
stanowi 90% lub wi cej całkowitej ich sumy) to wynika st d, e wariancje
wej ciowych zmiennych s odtwarzane w znacznym stopniu przez składowe
główne.
• Przyjmuje si , e pierwsza składowa główna le y wzdłu kierunku
maksymalnej wariancji. Druga składowa główna jest ograniczona do
podprzestrzeni prostopadłej do składowej pierwszej i le y wzdłu
kierunku maksymalnej wariancji tej podprzestrzeni.
Sztuczne sieci neuronowe
19
Sztuczne sieci neuronowe
20
Metoda składowych głównych (PCA)
Jednowarstwowe sieci jednokierunkowe
• Sanger i Oja (1989) okre lili jednowarstwow sie jednokierunkow ,
która wyznacza składowe główne
• Reguła Oji umo liwia znalezienie jednostkowego wektora wag, który
maksymalizuje warto redniokwadratow sygnału wyj ciowego <y2>.
Dla danych o redniej zerowej jest to pierwsza składowa główna.
• Architektura sieci:
– sieci s liniowe, o sygnale na wyj ciu i-tym yi danym wzorem:
yi = wiTx
– reguła uczenia według Sangera ma posta :
• Zadanie: opracowa sie M-wyj ciow , która b dzie wydzielała M
pierwszych składowych głównych.
∆wi = ηyi x −
21
Sztuczne sieci neuronowe
i
k =1
y k wk
wektory wag przyjmuj dokładnie kierunki M pierwszych składowych
głównych; wi ->±ci, przy czym ci jest znormalizowanym wektorem
własnym macierzy korelacji C, który nale y do i-tej najwi kszej warto ci
własnej λi.
22
Sztuczne sieci neuronowe
Jednowarstwowe sieci jednokierunkowe
Zastosowanie sieci Hebba
• Analiza składowych głównych PCA
• Analiza składowych niezale nych INCA (ang. Independent Component
Analysis) - rozwini cie metody PCA. Pozwala na wyznaczenie
ukrytych czynników zawartych w zbiorze zmiennych losowych,
pomiarów lub sygnałów.
x-w1y1
x-w1y1-w2y2
•
w1, w2, ..., wM - wektory własne
Sztuczne sieci neuronowe
23
lepa separacja sygnałów BSS (ang. Blind Source Separation) separacja nieznanych sygnałów z sygnału b d cego mieszanin tych
sygnałów.
Sztuczne sieci neuronowe
24