Sieci rekurencyjne

Transkrypt

Sieci rekurencyjne
Sieci
rekurencyjne
Jacek Bartman
Sieci rekurencyjne
Charakteryzuj si :
istnieniem sprz e zwrotnych mi dzy
wej ciem, a wyj ciem,
dwukierunkowym
przep ywem
informacji,
wyst powaniem w ich pracy przebiegi
dynamiczne
Do najcz ciej spotykanych
rekurencyjnych nale
sieci
sieci Hopfielda,
maszyna Boltzmana,
sieci BAM (Bidirectionxl Associxtive Memory),
sieci ART (Adaptive Resonance Theory).
Jacek Bartman
Sieci rekurencyjne
jednowarstwowa
W uk adach biologicznych neurony maj silne
sprz enia zwrotne.
Zamkni cie p tli sprz enia zwrotnego powoduje,
e sie0 staje si dynamiczna – sygna y na jej
wyj ciu zale od:
aktualnego stanu wej 0
stanu sieci (który zale y od wej 0 wcze niejszych)
lub innymi s owy
wielowarstwowa
stanu pocz tkowego
podanych pó3niej pobudze
Jacek Bartman
Sieci rekurencyjne znajduj zastosowanie do rozwi zywania
problemów optymalizacyjnych oraz jako pami ci skojarzeniowe
(asocjacyjne).
Pami skojarzeniowa (asocjacyjna) jest jednym z podstawowych
atrybutów ludzkiego mózgu. Ma dwie istotne cechy:
informacje zarejestrowane w pami ci asocjacyjnej mog by dost pne poprzez
podanie na wej$ciu systemu informacji skojarzonej,
$lad pami ciowy, zwany engramem, nie ma w pami ci asocjacyjnej $ci$lej
lokalizacji - ka'da zarejestrowana informacja zlokalizowana jest w istocie w ca(ej
pami ci, na zasadzie kolektywnego dzia(ania wszystkich jej elementów.
Jacek Bartman
Pami
asocjacyjna pe(ni funkcj
wzajemne skojarzenia wektorów.
uk(adu
reprezentuj cego
W przypadku, gdy skojarzone wektory dotycz tych samych
sk(adników tego samego wektora, mówimy o pami ci
autoasocjacyjnej (sie Hopfielda).
Gdy skojarzone s dwa ró'ne wektory mo'na mówi o pami ci typu
heteroasocjacyjnego (sie Hamminga, sie BAM).
Podstawowym zadaniem pami ci asocjacyjnej jest zapami tanie
zbioru próbek wej$ciowych (ucz cych) w taki sposób, aby przy
prezentacji nowej próbki uk(ad móg( wygenerowa odpowied.,
która dotyczy b dzie jednej z zapami tanych wcze$niej próbek,
po(o'onej najbli'ej próbki testuj cej.
Jacek Bartman
Najbardziej znanymi sieciami rekurencyjnymi s :
sie Hopfielda,
sie BAM (Bidirectional Associxtive Memory)
rzadziej spotyka si :
sie
sie
sie
sie
Hamminga
RTRN (Real Time Recurrent Network),
Elmana (o uproszczonej strukturze rekurencji),
RCC (Recurrent Cascade Correlation)
Jacek Bartman
Sie Hopfielda
Za(o'enia:
wszystkie neurony s ze sob po( czone
(fully connected network) wagami
synaps wji.
macierz wag po( cze7 jest symetryczna,
Wij = Wji. - symetria jest wygodna
z teoretycznego p. widzenia, pozwala
wprowadzi f. energii; jest nierealistyczna
z biologicznego p. widzenia.
wyj$cie neuronu nie jest kierowane na
jego wej$cie Wii =0
Brak podzia(u na warstwy.
Jacek Bartman
Algorytm dzia ania sieci Hopfielda
Wybieramy losowo neuron.
Obliczamy wa'on sum po( cze7 do aktywnych s siadów.
u (k ) =
N
w ji x i (k )
bj
i =1
Je'eli suma jest dodatnia to neuron si aktywuje, w przeciwnym przypadku
dezaktywuje.
1
gdy u j (k ) > 0
y j (k + 1) = y j (k ) gdy u j (k ) = 0
0
gdy u j (k ) > 0
1
lub
y j (k + 1) = y j (k ) gdy u j (k ) = 0
gdy u j (k ) < 0
1
gdy u j (k ) < 0
Losujemy kolejny neuron i post pujemy wed(ug algorytmu, a' do
uzyskania stanu stabilnego.
Proces nazywa si równoleg( relaksacj .
Jacek Bartman
Funkcja energii
Podczas pracy w danej chwili aktualizuje si wyj$cie tylko jednego neuronu
Aktualizacja zawsze prowadzi do obni'enia funkcji energii (f. Lapunowa):
E (x ) =
1
2
N
N
N
w ij y i y j +
i =1 j = 1
bi y i
i =1
w danej chwili zmienia si stan tylko jednego neuronu (np.: p-tego):
E (y ) =
1
2
N
w pj y p y j + bp y p
j =1
Zmiana warto$ci funkcji energii wynosi
E (k ) = E (y (k + 1)) E (y (k )) =
y p (k ) u p (k )
je$li up 0 to yp nie mo'e zmale , wi c energia zmaleje;
je$li up < 0 to yp < 0, energia równie' zmaleje.
Osi gni cie minimum funkcji energii oznacza, 'e sie znalaz(a si w stanie
Jacek Bartman
stabilnym (nie musi to by minimum globalne)
Atraktory
Stany stabilne, odpowiadaj ce minimum funkcji energii, nazywa si
atraktorami.
Atraktory mo'na porówna do najni'szych punktów w dolinie, a dolin
nazwa niecka przyci gania atraktora (atraktory punktowe - tylko dla
symetrycznych po( cze7).
O liczbie i rodzaju atraktorów oraz charakterze funkcji energii
decyduje dobór wag po( cze7 mi dzy neuronami
Stany stabilne: minima lokalne E(W) odpowiadaj ce pami tanym
wzorcom
Jacek Bartman
Sieci ART
(Adaptive Resonance Theory)
Jedn z w a ciwo ci mózgu jest umiej tno 0 zapami tywania nowych
obrazów bez zaniku zdolno ci rozpoznawania obrazów poznanych
wcze niej.
Wi kszo 0 przedstawionych metod uczenia sieci neuronowych mia a t
wad , e wprowadzenie do nauczonej ju sieci nowych obrazów
wymaga powtórzenia procesu uczenia si przy pomocy wzorów
poprzednich i nowych. Ograniczanie si jedynie do nowych wzorów
powoduje zapomnienie wzorów poprzednich
Problem ten rozwi zany zosta w sieciach ART.
Autorami prac dotycz cych Adaptacyjnej Teorii Rezonansu, które s
podstaw dzia ania sieci rezonansowych ART s Carpenter i Grossberg.
Jacek Bartman
Rodzaje sieci ART
ART1 - operuj na obrazach binarnych
ART2 - na obrazach ci g ych
ART3 - zapewnia wi ksz stabilno 0 w porównaniu z sieci ART 2
Jacek Bartman
Budowa sieci rezonansowych
Sieci rezonansowe ART sk adaj si z:
dwóch warstw: dolnej (wej$ciowo-porównuj cej)
i górnej wyj$ciowo-rozpoznawczej)
warstwa górna
wagi góra dó(
wagi dó(-góra
warstwa dolna
uk(adu orientacji,
uk(adu kontrolnego
Obie warstwy s po czone dwoma uk adami po cze jednokierunkowych:
od warstwy dolnej do górnej o wagach o wagach wij (na rysunku na czarno)
od warstwy górnej do dolnej o wagach vji (na rysunku na czerwono)
Jacek Bartman
Dzia anie sieci rezonansowej
W pierwszej, wej ciowej warstwie (dolnej) , przechowywany jest obraz
wej ciowy.
Druga warstwa, wyj ciowa (górna) odpowiada za wskazanie klasy, do której
klasyfikuje si kszta t wej ciowy.
W warstwie tej tylko jeden z neuronów ma stan jedynki. Natomiast wszystkie pozosta e s
wyzerowane.
Je eli zwrócony sygna dok adnie odpowiada wzorcowi to klasyfikacja jest
zako czona
Je li natomiast sygna odpowiedzi w znacz cy sposób ró ni si od sygna u
wej ciowego wówczas dokonuj si odpowiednie modyfikacje wag
po cze , a proces ten powtarza si a do osi gni cia maksymalnego
podobie stwa.
Poszczególne warstwy komunikuj si w gór i w dó , czyli rezonuj ,
dopasowuj c wagi, a proces ten powtarza si , a do osi gni cia
maksymalnego podobie stwa.
Jacek Bartman
Uczenie sieci ART
Sie0 ART jest sieci ucz c si w czasie rzeczywistym.
Uczenie to polega g ównie na rozpoznawaniu kszta tów, które znacznie
ró ni si od przechowywanych wzorców oraz ich zapami tywaniu jako
nowych wzorców.
Przy niewielkich ró nicach stwierdzonych przy porównywaniu wej 0 z
zapami tanymi wzorcami dokonuje si "douczenie" polegaj ce na
poprawieniu wzorców zgodnie z obserwowanymi odchyleniami.
Nad uaktywnieniem lub wygaszeniem odpowiednich decyzji w sieci
czuwaj uk ady orientuj cy i uk ad kontrolny.
Jacek Bartman
Wady sieci rezonansowej dwuwarstwowej
niebezpiecze stwo powstania przypadkowego procesu dynamicznego
wzajemnych pobudze warstw przy zerowym obrazie wej ciowym. Taki
proces mo e da0 bardzo niepo dane rezultaty.
trudno 0 w ustaleniu poprawnych progów aktywacji dla neuronów
warstwy dolnej:
powinny by0 niskie, aby obraz wej ciowy móg wygenerowa0 odpowiednie wyj cie,
powinny by0 na tyle wysokie aby w przypadku poprawnego rozpoznania wzorca,
obraz z warstwy górnej nie zaburza wektora wej ciowego warstwy dolnej - co
b dzie doprowadzi o do utraty rezonansu.
Jacek Bartman
Uk(ad kontrolny
Uk ad kontrolny sk ada si z dwóch poduk adów, które maja za zadanie
eliminacj podanych wad:
poduk ad G2 pe ni rol elementu progowego uaktywniaj cego si w chwili pojawienia si
sygna u wej ciowego dzi ki czemu umo liwia zablokowanie reakcji warstwy dolnej na
bod3ce pochodz ce z warstwy górnej, je eli brak jest sygna ów wej ciowych.
poduk ad G1 odbiera pobudzaj ce impulsy wej ciowe oraz hamuj ce z warstwy górnej
i podaje dodatkowy sygna dla neuronów warstwy dolnej (przesuwa próg tych
neuronów).
g
Jacek Bartman
Realizacja uk(adu kontrolnego
Wej cia sieci
Wyj cia warstwy
górnej
Uk ad kontrolny mo na zamodelowa0 przy pomocy trzech nieliniowych neuronów
k
1 dla
j =1
k
g1 =
0 dla
j =1
g =
y gj > 0
y gj
0
1 dla g 2
g1 > 0
0 dla g2
g1
0
n
1 dla
g2 =
i =1
n
0 dla
i =1
xi > 0
xi
Jacek Bartman
0
Uk(ad orientacji
Zwany równie detektorem nowych danych
Uk ad orientacji jest pobudzany przez sygna wej ciowy i hamowany
przez sygna wyj ciowy z warstwy pierwszej
Jacek Bartman
Pojawienie si obrazu na wej ciu sieci powoduje wybór neuronu
zwyci skiego w warstwie górnej i przekazanie odpowiedzi do warstwy
dolnej.
Obraz wej ciowy wraz z odpowiedzi warstwy górnej podane na warstw
doln generuj w niej nowy obraz.
Je eli obraz wej ciowy zostaje rozpoznany powstaje rezonans a sygna y
podane na uk ad orientacyjny wzajemnie si znosz
Je eli obraz nale y do klasy niezidentyfikowanej, uk ad orientacji
uaktywnia si i eliminuje z rywalizacji zwyci zc z warstwy górnej.
Umo liwia to rywalizacj i je eli nowy zwyci zca jest „nieobsadzony” to
zostaje zaakceptowany jako reprezentant nowej klasy
Jacek Bartman
Wyj cie neuronu warstwy dolnej
=
0 dla x j + v ji y ig + g
r=
0 dla
i =1
n
i =1
xi
xi
k
j =1
k
j =1
ygj > 0
ygj 0
Wej cia sieci
Wyj cia warstwy
dolnej
y dj
1 dla x j + v ji y ig + g >
1 dla
n
Jacek Bartman
Pe(ny schemat sieci ART
Struktura sieci ART.-1
Jacek Bartman
Uczenie sieci ART.
Wariant I
dla po cze „dó -góra”
w ij (k ) +
1,
w ij (k + 1) = w ij (k ),
w ij (k )
1
1
i
=
2
gdy
gdy
2,
gdy
(y (k ) = 1) (y (k ) = 1)
(y (k ) = 0 )
(y (k ) = 0 ) (y (k ) = 1)
1
j
2
i
2
i
1
j
2
i
mog by0 sta e ale lepsze wyniki uzyskuje si gdy:
(1
w ij (k )) w ij (k )
n
y id
1
i =1
2
n
= w ij (k )
y id
i =1
dla po cze „góra-dó ”
1,
v ji (k + 1) = v ji (k ),
0,
gdy
gdy
gdy
(y (k ) = 1) (y (k ) = 1)
(y (k ) = 0 )
(y (k ) = 0 ) (y (k ) = 1)
1
j
2
i
2
i
1
j
2
i
Jacek Bartman
Wariant II
dla po cze „dó -góra”
n
1+
w ij (k + 1) = w ij (k ),
0,
i =1
, gdy
(y
gdy
(y
gdy
(y
v ji (k + 1) = v ji (k ),
0,
(k ) = 1)
(y
2
i
(k ) = 1)
(y
2
i
(k ) = 1)
y ig
dla po cze „góra-dó ”
1,
1
j
gdy
gdy
gdy
2
i
1
j
(k ) = 0 )
(k ) = 0 )
(y (k ) = 1) (y (k ) = 1)
(y (k ) = 0 )
(y (k ) = 0 ) (y (k ) = 1)
1
j
2
i
2
i
1
j
2
i
Jacek Bartman
Uczenie inicjuje si wagami:
wji – losuje si z rozk adem równomiernym z przedzia u [0, 1/n]
vji=1
Jacek Bartman
Fazy dzia(ania sieci ART
Faza 1 - Inicjalizacja
Polega na wst pnym ustawieniu wag po cze oraz progu zadzia ania uk adu
orientuj cego. Wagi pocz tkowe vij po cze "z góry na dó " ustawiamy,
przypisuj c im warto ci równe jeden vij=1 gdzie i = 1,...,k; j = 1,...,n. Wagi
pocz tkowe wij "z do u do góry" ustawia si jednakowo w nast puj cy sposób
wii=1/n, gdzie n to liczba neuronów dolnej warstwy. Czu o 0 uk adu
orientuj cego p jest liczba z przedzia u (0,1).
Jacek Bartman
Zasada dzia(ania sieci ART. – krok po kroku.
wprowadzi obraz na wej$cie pierwszej warstwy sieci – na wyj$ciu
otrzymamy jego kopi ,
w warstwie górnej (konkurencyjnej) pobudzeniu ulega tylko jeden
neuron,
obraz powsta(y w warstwie górnej jest nast pnie wstecz przekazywany
do warstwy dolnej,
obraz z warstwy górnej wraz z obrazem wej$ciowym powoduj ponowna
aktywacj warstwy dolnej,
je'eli nowa aktywacja warstwy dolnej harmonizuje z zewn trznym
obrazem wej$ciowym to mówimy o rezonansie adaptacyjnym.
oznacza to, 'e obraz wej$ciowy zosta( rozpoznany i zakwalifikowany do
klasy reprezentowanej przez wzbudzony element warstwy górnej.
Jacek Bartman

Podobne dokumenty