(Bez tytu\263u slajdu)

Transkrypt

(Bez tytu\263u slajdu)
Plan wykładu
• Sieci rekurencyjne
Sztuczne sieci neuronowe
• Sie Hopfielda
–
–
–
–
Wykład 8: Sieci rekurencyjne:
sie Hopfielda
Małgorzata Kr towska
tryb odtwarzania
funkcja energii
dynamika zmian stanu
wykorzystanie sieci Hopfielda
• pami asocjacyjna
• optymalizacja
Katedra Oprogramowania
e-mail: [email protected]
2
Sztuczne sieci neuronowe
Sieci rekurencyjne
Sieci rekurencyjne
• Sieci jednokierunkowe
• Najprostsze modele sieci z rekurencj :
– wyj cia sieci mogły by poł czone tylko z wej ciowymi neuronów
warstwy nast pnej
– implikowało to jednokierunkowy przepływ informacji: sygnały były
przesyłane od warstwy wej ciowej do wyj ciowej
–
–
–
• Sieci rekurencyjne
– dopuszcza si istnienie sprz e zwrotnych tzn. gdy wyj cia neuronów
mog by poł czone z wej ciami neuronów tej samej warstwy lub warstw
po rednich
– informacja oscyluje mi dzy warstwami lub w obr bie warstw a do
spełnienia pewnego kryterium zbie no ci i dopiero wtedy jest
przekazywana na wyj cie sieci
Sztuczne sieci neuronowe
3
sieci Hopfielda,
sieci uczone reguł Hebba,
sie Hamminga.
• Modele bardziej zło one:
–
–
–
RTRN - Real Time Recurrent Network, przetwarzaj ca sygnały
w czasie rzeczywistym;
sie Elmana i inne o uproszczonej strukturze rekurencji
RCC - Recurrent Cascade Correlation
Sztuczne sieci neuronowe
4
Sieci Hopfielda - historia
Sieci Hopfielda
• 1969 r. - ukazanie si ksi ki Minsky’ego i Paperta,b d cej krytyk
perceptronu => kryzys w rozwoju sztucznych sieci neuronowych,
ograniczenie funduszy i rezygnacja wielu naukowców z tej dziedziny
bada
John Hopfield (1982, 1984), model pami ci autoasocjacyjnej.
Zało enia:
– Wszystkie neurony s ze sob poł czone z wagami synaps Wij.
• 1978 r. - powstanie Centrum Przetwarzania Informacji Biomedycznej w
M.I.T. (ang. Massachusetts Institute of Technology) i zaproszenie do
udziału Johna Hopfielda z Działu Biofizyki Laboratoriów Bella
Rodzaje sieci Hopfielda:
• 1982 r. - publikacja rezultatów bada - sieci neuronowe mog
zapami tywa i odtwarza wzorce (równie wtedy, gdy wej cia s
niekompletne) - zaproponowana sie jest rezultatem bada nad
procesami równowagi szkieł spinowych
– sie dyskretna - przewa nie dyskretne funkcje aktywacji , zmiana stanu w
chwilach dyskretnych
– sie ci gła - zastosowanie ci głych funkcji aktywacji, odpowiedzi
neuronów zmieniaj si w sposób ci gły
5
Sztuczne sieci neuronowe
– Macierz wag poł cze jest symetryczna, Wii=0, Wij = Wji - symetria jest
wygodna z teoretycznego p. widzenia, pozwala wprowadzi funkcj
energii; jest nierealistyczna z biologicznego punktu widzenia.
Dyskretna sie Hopfielda
Działanie sieci Hopfielda
Wła ciwo ci:
• Tryb uczenia
– wej cia to wyj cia innych
neuronów
– brak własnego sprz enia
zwrotnego
– symetryczne wagi (Wij=Wji)
– na podstawie zadanych wzorców ucz cych x dobierane s wagi wij.
• Tryb odtwarzania
– warto ci wag s zamro one
– zakłada si okre lony stan pocz tkowy neuronów (y(0)=x)
– nast puje proces przej ciowy, przebiegaj cy według zale no ci:
– funkcja aktywacji:
yi = sgn
N
Wij x j
yi ( k ) = sgn
j= 0
N
wij y j ( k − 1)
j =1, i ≠ j
– brak wyra nie oddzielonych
warstw, mo na j rozwa a w
dowolnej topologii (cz sto jako
sie jednowarstwowa)
Sztuczne sieci neuronowe
6
Sztuczne sieci neuronowe
który ko czy si w okre lonym minimum lokalnym, w którym y(k)=y(k-1).
7
Sztuczne sieci neuronowe
8
Sie Hopfielda -tryb odtwarzania
Sie Hopfielda - funkcja energii
• Proces odtwarzania rozpoczyna si w chwili pocz tkowej k=0, od
doprowadzenia do elementów sygnałów wej ciowych xi i=1,2,..., N,
które okre laj stan pocz tkowy sieci yi(0)=xi, i=1,2,.., N.
• Sygnały wej ciowe zostaj odł czone, natomiast w sieci rozpoczyna si
iteracyjny proces aktualizacji stanu.
• Dla sieci o symetrycznych wagach taka dynamika prowadzi do
minimalizacji funkcji typu energii (w teorii układów dynamicznych funkcji Lapunova, w fizyce statystycznej funkcji Hamiltona, w teorii
optymalizacji funkcji celu lub kosztu, w obliczeniach ewolucyjnych
funkcji przystosowania ...)
• Funkcj energii wybiera si najcz ciej w postaci:
• Sie pracuje asynchronicznie, w danej chwili mo e by aktualizowane
wyj cie tylko jednego elementu
Sztuczne sieci neuronowe
1
2
N
N
i =1 j =1
wij yi y j +
N
i =1
θ i yi
• Zmiana stanu jakiegokolwiek neuronu pocz tkuje zmian stanu
energetycznego całej sieci w kierunku minimum tej energii a do jego
osi gni cia
• Po pewnej sko czonej liczbie iteracji sie osi ga stan stabilny, w
którym zachodzi: yi(k+1)=yi(k), i=1,2,.., N
• Proces odtwarzania ko czy si , a stan sieci przekazywany jest na jej
wyj cie
E ( y) = −
9
10
Sztuczne sieci neuronowe
Stany stabilne - atraktory
Sieci Hopfielda w praktyce
• Pami
asocjacyjna
– Zadaniem pami ci asocjacyjnej jest zapami tanie zbioru wzorców
wej ciowych (ucz cych) w taki sposób, aby w trybie odtwarzania przy
prezentacji nowego wzorca układ mógł generowa odpowied , która
b dzie odpowiada jednemu z zapami tanych wzorców, poło onemu
najbli ej próbki testuj cej.
• Optymalizacja
– rozwi zywanie problemów optymalizacyjnych. Przykład: problem
komiwoja era.
Ukształtowanie obszarów atrakcji sieci rekurencyjnej o powi zaniach
symetrycznych: a) wykres linii ekwipotencjalnych; b) odwzorowanie
kierunku zmian potencjału w trakcie procesu uczenia (Osowski)
Sztuczne sieci neuronowe
11
Sztuczne sieci neuronowe
12
Pami
asocjacyjna
Tryb uczenia
• Najcz ciej u ywana miara odległo ci pomi dzy zbiorami: miara
Hamminga.
• Dla wielko ci binarnych 0, 1 odległo
x jest zdefiniowana w postaci:
dH =
– dH=0, gdy y=x
n
i =1
• Zakładamy, e mamy jeden wzorzec x który chcemy zapami ta
chcemy aby, dla ka dego i:
Hamminga dwóch wektorów y i
wij x j = xi
sgn
j
[xi (1 − yi ) + (1 − xi ) yi ]
Warunek ten b dzie automatycznie spełniony, gdy (reguła Hebba):
wij =
– dH - równa jest liczbie bitów, o które ró ni si oba wektory
gdzie N - liczba neuronów.
Wówczas
• Uczenie sieci: taki dobór warto ci wag wij, aby na etapie odtwarzania
sie była zdolna odnale zbiór danych, najbli szy w sensie miary
Hamminga, wektorowi testowemu (kształtowanie obszarów atrakcji)
1
N
13
Sztuczne sieci neuronowe
Tryb uczenia
1
N
k =1
j =1
1
N
N
xi x 2j =
j =1
1
N
N
xi = xi
j =1
14
Sztuczne sieci neuronowe
pami ci asocjacyjnej
• Stabilno działania sieci wymaga, aby odpowied i-tego neuronu na lty wzorzec ucz cy x(l) była równa i-tej składowej xi(l):
– wówczas wagi wij s dobierane według uogólnionej reguły Hebba:
wij =
xi x j x j =
Stabilno
• Zakładamy, e mamy wiele wzorców ucz cych x(k), k=1,2,.., p
p
N
1
xi x j
N
yi( l ) = sgn
N
wij x (j l ) = sgn
j =0
xi( k ) x (j k )
1
N
N
p
xi( k ) x (j k ) x (j l ) = xi(l )
j = 0 k =1
je eli sum wa on sygnałów wej ciowych i-tego neuronu oznaczymy
przez hi(l) otrzymamy:
Wagi przyjmuj wówczas warto ci u rednione wielu próbek ucz cych.
hi( l) = xi( l) +
1
N
N
j =0 k ≠ l
xi(k ) x (jk ) x (jl )
mo na tu wyró ni czynnik po dany i tzw. składnik przesłuchu.
hi( l ) = xi(l ) + C
Sztuczne sieci neuronowe
15
Sztuczne sieci neuronowe
16
Stabilno
pami ci asocjacyjnej
yi(l ) = sgn(hi( l ) ) = sgn( xi( l ) + C )
hi( l ) = xi(l ) + C
hi( l ) :
Pojemno
≥0
<0
• Maksymalna liczba wzorców zapami tanych i odtwarzanych z
akceptowanym bł dem
• Analizuje si tutaj wielko :
y i(l ) = 1
yi( l ) = −1
Ci( l ) = − xi( l )
Kiedy dany wzorzec x jest stabilny?
(l)
i
– gdy składnik przesłuchu jest na tyle mały, e nie mo e zmieni znaku xi(l),
czyli |xi(l)| > |C| lub
– xi(l) * C >0
Wniosek: pami asocjacyjna ma wła ciwo ci korekcyjne. Przy prezentacji próbki
ró ni cej si bitami na pewnych pozycjach wektora, sie neuronowa mo e
dokona korekcji tych bitów i zako czy proces klasyfikacji we wła ciwym
atraktorze.
17
Sztuczne sieci neuronowe
N
j =0 k ≠ l
xi(k ) x (jk ) x (jl )
– gdy Ci(l) <0 to składnik przesłuchu ma taki sam znak jak po dana warto
xi(l).
• Przyjmuj c, za prawdopodobie stwo bł du e = P(Ci(l) >1) widzimy, e
warto e ro nie, gdy ro nie p oraz zale y od wymiaru wymiaru
wektora N.
Wykazano, e maksymalna pojemno
pami ci asocjacyjnej (reguła Hebba)
przy emax= 0.0036 okre la zale no :
pmax= 0.138N
Warto ta pozwala na ustanie
lawinowego powielania bł dów.
Odpowiada ona stanowi pocz tkowemu
sieci, w którym 0.36% ogólnej liczby
neuronów znajduje si w niewła ciwym
stanie.
Wniosek: Liczba wzorców
zapami tanych przez sie b dzie równa
około 10% liczby jej elementów.
19
18
Sztuczne sieci neuronowe
pami ci asocjacyjnej
Rozkład warto ci Ci(l) mo na przybli y rozkładem normalnym (N p du e)
o warto ci oczekiwanej 0 i wariancji p/N.
Sztuczne sieci neuronowe
1
N
– gdy Ci(l) jest dodatnie i Ci(l) >1 wówczas i-ty bit (lub neuron) wzorca (l) jest
niestabilny
Wówczas: yi(l) = xi(l) , yi(k+1)=yi(k)
Pojemno
pami ci asocjacyjnej
Problem komiwoja era
• Problem komiwoja era - polega na ustaleniu optymalnej trasy objazdu
n miast przez w drownego sprzedawc , który musi by we wszystkich
miastach przynajmniej raz i chce wyda jak najmniej na podró e.
Jako dane podane s odległo ci dij pomi dzy wszystkimi miastami, a
koszt podró y sprzedawcy jest równy długo ci sumarycznej przebytej
przez niego drogi
Uwagi:
– problem np-zupełny, czyli czas jego rozwi zywania ro nie wykładniczo
przy wzro cie liczby rozwa anych miast n.
– wyniki przy wykorzystaniu sieci Hopfielda [Tank, 1985]: dla 10 miast w
16 przypadkach na 20 sie znalazła optymaln tras .
Sztuczne sieci neuronowe
20
Problem komiwoja era
Problem komiwoja era
• Indeksowanie neuronów: dwa wska niki :
• Struktura sieci:
– reprezentacja miasta: wiersz
zawieraj cy n neuronów - dokładnie
1 neuron powinien przyjmowa
warto 1 (pozostałe 0)
– pozycja (od 1 do n) na której
wyst puje neuron „1” odpowiada
kolejno ci, odpowiada kolejno ci w
jakiej to miasto ma by odwiedzane
przez sprzedawc
– ł czna liczba neuronów n2.
– 1- numer miasta, 2 - kolejno
E1 = A / 2
x
i
Problem komiwoja era
• Dobór A,B,C, D oznaczaj wzgl dne wagi poszczególnych warunków,
w oryginalnej publikacji A=B=D=500, C=200.
• Dobór wag:
wxi , zj = − As xz (1 − sij ) − Bsij (1 − s xz ) − C − Dd xz ( s j ,i +1 + s j ,i −1 )
gdzie sij=1 gdy i=j i 0 w pozostałych przypadkach.
• Warto ci progów: Cn.
• Wymagane skalowanie odległo ci do przedziału [0,1], przyj to
nieliniow funkcj ci gł opisuj c neuron.
Sztuczne sieci neuronowe
23
z≠ x
x
y xi y xj
E1=0 ,gdy w ka dym wierszu jest najwy ej jedna
jedynka
y xi y zi
E2=0, gdy w ka dej kolumnie b dzie najwy ej jedna
jedynka
2
E3 = C / 2
y xi − n
x
x
21
i≠ j
i
E2 = B / 2
E4 = D / 2
Sztuczne sieci neuronowe
odwiedzin
• Funkcja energii:
Sztuczne sieci neuronowe
E3 = 0, gdy w macierzy b dzie dokładnie n jedynek
i
z≠x
i
d xz y xi ( y z ,i +1 + y z ,i −1 )
E4 - oznacza długo
drogi (yn+j=yj)
wybranej
22