(Bez tytu\263u slajdu)
Transkrypt
(Bez tytu\263u slajdu)
Plan wykładu • Sieci rekurencyjne Sztuczne sieci neuronowe • Sie Hopfielda – – – – Wykład 8: Sieci rekurencyjne: sie Hopfielda Małgorzata Kr towska tryb odtwarzania funkcja energii dynamika zmian stanu wykorzystanie sieci Hopfielda • pami asocjacyjna • optymalizacja Katedra Oprogramowania e-mail: [email protected] 2 Sztuczne sieci neuronowe Sieci rekurencyjne Sieci rekurencyjne • Sieci jednokierunkowe • Najprostsze modele sieci z rekurencj : – wyj cia sieci mogły by poł czone tylko z wej ciowymi neuronów warstwy nast pnej – implikowało to jednokierunkowy przepływ informacji: sygnały były przesyłane od warstwy wej ciowej do wyj ciowej – – – • Sieci rekurencyjne – dopuszcza si istnienie sprz e zwrotnych tzn. gdy wyj cia neuronów mog by poł czone z wej ciami neuronów tej samej warstwy lub warstw po rednich – informacja oscyluje mi dzy warstwami lub w obr bie warstw a do spełnienia pewnego kryterium zbie no ci i dopiero wtedy jest przekazywana na wyj cie sieci Sztuczne sieci neuronowe 3 sieci Hopfielda, sieci uczone reguł Hebba, sie Hamminga. • Modele bardziej zło one: – – – RTRN - Real Time Recurrent Network, przetwarzaj ca sygnały w czasie rzeczywistym; sie Elmana i inne o uproszczonej strukturze rekurencji RCC - Recurrent Cascade Correlation Sztuczne sieci neuronowe 4 Sieci Hopfielda - historia Sieci Hopfielda • 1969 r. - ukazanie si ksi ki Minsky’ego i Paperta,b d cej krytyk perceptronu => kryzys w rozwoju sztucznych sieci neuronowych, ograniczenie funduszy i rezygnacja wielu naukowców z tej dziedziny bada John Hopfield (1982, 1984), model pami ci autoasocjacyjnej. Zało enia: – Wszystkie neurony s ze sob poł czone z wagami synaps Wij. • 1978 r. - powstanie Centrum Przetwarzania Informacji Biomedycznej w M.I.T. (ang. Massachusetts Institute of Technology) i zaproszenie do udziału Johna Hopfielda z Działu Biofizyki Laboratoriów Bella Rodzaje sieci Hopfielda: • 1982 r. - publikacja rezultatów bada - sieci neuronowe mog zapami tywa i odtwarza wzorce (równie wtedy, gdy wej cia s niekompletne) - zaproponowana sie jest rezultatem bada nad procesami równowagi szkieł spinowych – sie dyskretna - przewa nie dyskretne funkcje aktywacji , zmiana stanu w chwilach dyskretnych – sie ci gła - zastosowanie ci głych funkcji aktywacji, odpowiedzi neuronów zmieniaj si w sposób ci gły 5 Sztuczne sieci neuronowe – Macierz wag poł cze jest symetryczna, Wii=0, Wij = Wji - symetria jest wygodna z teoretycznego p. widzenia, pozwala wprowadzi funkcj energii; jest nierealistyczna z biologicznego punktu widzenia. Dyskretna sie Hopfielda Działanie sieci Hopfielda Wła ciwo ci: • Tryb uczenia – wej cia to wyj cia innych neuronów – brak własnego sprz enia zwrotnego – symetryczne wagi (Wij=Wji) – na podstawie zadanych wzorców ucz cych x dobierane s wagi wij. • Tryb odtwarzania – warto ci wag s zamro one – zakłada si okre lony stan pocz tkowy neuronów (y(0)=x) – nast puje proces przej ciowy, przebiegaj cy według zale no ci: – funkcja aktywacji: yi = sgn N Wij x j yi ( k ) = sgn j= 0 N wij y j ( k − 1) j =1, i ≠ j – brak wyra nie oddzielonych warstw, mo na j rozwa a w dowolnej topologii (cz sto jako sie jednowarstwowa) Sztuczne sieci neuronowe 6 Sztuczne sieci neuronowe który ko czy si w okre lonym minimum lokalnym, w którym y(k)=y(k-1). 7 Sztuczne sieci neuronowe 8 Sie Hopfielda -tryb odtwarzania Sie Hopfielda - funkcja energii • Proces odtwarzania rozpoczyna si w chwili pocz tkowej k=0, od doprowadzenia do elementów sygnałów wej ciowych xi i=1,2,..., N, które okre laj stan pocz tkowy sieci yi(0)=xi, i=1,2,.., N. • Sygnały wej ciowe zostaj odł czone, natomiast w sieci rozpoczyna si iteracyjny proces aktualizacji stanu. • Dla sieci o symetrycznych wagach taka dynamika prowadzi do minimalizacji funkcji typu energii (w teorii układów dynamicznych funkcji Lapunova, w fizyce statystycznej funkcji Hamiltona, w teorii optymalizacji funkcji celu lub kosztu, w obliczeniach ewolucyjnych funkcji przystosowania ...) • Funkcj energii wybiera si najcz ciej w postaci: • Sie pracuje asynchronicznie, w danej chwili mo e by aktualizowane wyj cie tylko jednego elementu Sztuczne sieci neuronowe 1 2 N N i =1 j =1 wij yi y j + N i =1 θ i yi • Zmiana stanu jakiegokolwiek neuronu pocz tkuje zmian stanu energetycznego całej sieci w kierunku minimum tej energii a do jego osi gni cia • Po pewnej sko czonej liczbie iteracji sie osi ga stan stabilny, w którym zachodzi: yi(k+1)=yi(k), i=1,2,.., N • Proces odtwarzania ko czy si , a stan sieci przekazywany jest na jej wyj cie E ( y) = − 9 10 Sztuczne sieci neuronowe Stany stabilne - atraktory Sieci Hopfielda w praktyce • Pami asocjacyjna – Zadaniem pami ci asocjacyjnej jest zapami tanie zbioru wzorców wej ciowych (ucz cych) w taki sposób, aby w trybie odtwarzania przy prezentacji nowego wzorca układ mógł generowa odpowied , która b dzie odpowiada jednemu z zapami tanych wzorców, poło onemu najbli ej próbki testuj cej. • Optymalizacja – rozwi zywanie problemów optymalizacyjnych. Przykład: problem komiwoja era. Ukształtowanie obszarów atrakcji sieci rekurencyjnej o powi zaniach symetrycznych: a) wykres linii ekwipotencjalnych; b) odwzorowanie kierunku zmian potencjału w trakcie procesu uczenia (Osowski) Sztuczne sieci neuronowe 11 Sztuczne sieci neuronowe 12 Pami asocjacyjna Tryb uczenia • Najcz ciej u ywana miara odległo ci pomi dzy zbiorami: miara Hamminga. • Dla wielko ci binarnych 0, 1 odległo x jest zdefiniowana w postaci: dH = – dH=0, gdy y=x n i =1 • Zakładamy, e mamy jeden wzorzec x który chcemy zapami ta chcemy aby, dla ka dego i: Hamminga dwóch wektorów y i wij x j = xi sgn j [xi (1 − yi ) + (1 − xi ) yi ] Warunek ten b dzie automatycznie spełniony, gdy (reguła Hebba): wij = – dH - równa jest liczbie bitów, o które ró ni si oba wektory gdzie N - liczba neuronów. Wówczas • Uczenie sieci: taki dobór warto ci wag wij, aby na etapie odtwarzania sie była zdolna odnale zbiór danych, najbli szy w sensie miary Hamminga, wektorowi testowemu (kształtowanie obszarów atrakcji) 1 N 13 Sztuczne sieci neuronowe Tryb uczenia 1 N k =1 j =1 1 N N xi x 2j = j =1 1 N N xi = xi j =1 14 Sztuczne sieci neuronowe pami ci asocjacyjnej • Stabilno działania sieci wymaga, aby odpowied i-tego neuronu na lty wzorzec ucz cy x(l) była równa i-tej składowej xi(l): – wówczas wagi wij s dobierane według uogólnionej reguły Hebba: wij = xi x j x j = Stabilno • Zakładamy, e mamy wiele wzorców ucz cych x(k), k=1,2,.., p p N 1 xi x j N yi( l ) = sgn N wij x (j l ) = sgn j =0 xi( k ) x (j k ) 1 N N p xi( k ) x (j k ) x (j l ) = xi(l ) j = 0 k =1 je eli sum wa on sygnałów wej ciowych i-tego neuronu oznaczymy przez hi(l) otrzymamy: Wagi przyjmuj wówczas warto ci u rednione wielu próbek ucz cych. hi( l) = xi( l) + 1 N N j =0 k ≠ l xi(k ) x (jk ) x (jl ) mo na tu wyró ni czynnik po dany i tzw. składnik przesłuchu. hi( l ) = xi(l ) + C Sztuczne sieci neuronowe 15 Sztuczne sieci neuronowe 16 Stabilno pami ci asocjacyjnej yi(l ) = sgn(hi( l ) ) = sgn( xi( l ) + C ) hi( l ) = xi(l ) + C hi( l ) : Pojemno ≥0 <0 • Maksymalna liczba wzorców zapami tanych i odtwarzanych z akceptowanym bł dem • Analizuje si tutaj wielko : y i(l ) = 1 yi( l ) = −1 Ci( l ) = − xi( l ) Kiedy dany wzorzec x jest stabilny? (l) i – gdy składnik przesłuchu jest na tyle mały, e nie mo e zmieni znaku xi(l), czyli |xi(l)| > |C| lub – xi(l) * C >0 Wniosek: pami asocjacyjna ma wła ciwo ci korekcyjne. Przy prezentacji próbki ró ni cej si bitami na pewnych pozycjach wektora, sie neuronowa mo e dokona korekcji tych bitów i zako czy proces klasyfikacji we wła ciwym atraktorze. 17 Sztuczne sieci neuronowe N j =0 k ≠ l xi(k ) x (jk ) x (jl ) – gdy Ci(l) <0 to składnik przesłuchu ma taki sam znak jak po dana warto xi(l). • Przyjmuj c, za prawdopodobie stwo bł du e = P(Ci(l) >1) widzimy, e warto e ro nie, gdy ro nie p oraz zale y od wymiaru wymiaru wektora N. Wykazano, e maksymalna pojemno pami ci asocjacyjnej (reguła Hebba) przy emax= 0.0036 okre la zale no : pmax= 0.138N Warto ta pozwala na ustanie lawinowego powielania bł dów. Odpowiada ona stanowi pocz tkowemu sieci, w którym 0.36% ogólnej liczby neuronów znajduje si w niewła ciwym stanie. Wniosek: Liczba wzorców zapami tanych przez sie b dzie równa około 10% liczby jej elementów. 19 18 Sztuczne sieci neuronowe pami ci asocjacyjnej Rozkład warto ci Ci(l) mo na przybli y rozkładem normalnym (N p du e) o warto ci oczekiwanej 0 i wariancji p/N. Sztuczne sieci neuronowe 1 N – gdy Ci(l) jest dodatnie i Ci(l) >1 wówczas i-ty bit (lub neuron) wzorca (l) jest niestabilny Wówczas: yi(l) = xi(l) , yi(k+1)=yi(k) Pojemno pami ci asocjacyjnej Problem komiwoja era • Problem komiwoja era - polega na ustaleniu optymalnej trasy objazdu n miast przez w drownego sprzedawc , który musi by we wszystkich miastach przynajmniej raz i chce wyda jak najmniej na podró e. Jako dane podane s odległo ci dij pomi dzy wszystkimi miastami, a koszt podró y sprzedawcy jest równy długo ci sumarycznej przebytej przez niego drogi Uwagi: – problem np-zupełny, czyli czas jego rozwi zywania ro nie wykładniczo przy wzro cie liczby rozwa anych miast n. – wyniki przy wykorzystaniu sieci Hopfielda [Tank, 1985]: dla 10 miast w 16 przypadkach na 20 sie znalazła optymaln tras . Sztuczne sieci neuronowe 20 Problem komiwoja era Problem komiwoja era • Indeksowanie neuronów: dwa wska niki : • Struktura sieci: – reprezentacja miasta: wiersz zawieraj cy n neuronów - dokładnie 1 neuron powinien przyjmowa warto 1 (pozostałe 0) – pozycja (od 1 do n) na której wyst puje neuron „1” odpowiada kolejno ci, odpowiada kolejno ci w jakiej to miasto ma by odwiedzane przez sprzedawc – ł czna liczba neuronów n2. – 1- numer miasta, 2 - kolejno E1 = A / 2 x i Problem komiwoja era • Dobór A,B,C, D oznaczaj wzgl dne wagi poszczególnych warunków, w oryginalnej publikacji A=B=D=500, C=200. • Dobór wag: wxi , zj = − As xz (1 − sij ) − Bsij (1 − s xz ) − C − Dd xz ( s j ,i +1 + s j ,i −1 ) gdzie sij=1 gdy i=j i 0 w pozostałych przypadkach. • Warto ci progów: Cn. • Wymagane skalowanie odległo ci do przedziału [0,1], przyj to nieliniow funkcj ci gł opisuj c neuron. Sztuczne sieci neuronowe 23 z≠ x x y xi y xj E1=0 ,gdy w ka dym wierszu jest najwy ej jedna jedynka y xi y zi E2=0, gdy w ka dej kolumnie b dzie najwy ej jedna jedynka 2 E3 = C / 2 y xi − n x x 21 i≠ j i E2 = B / 2 E4 = D / 2 Sztuczne sieci neuronowe odwiedzin • Funkcja energii: Sztuczne sieci neuronowe E3 = 0, gdy w macierzy b dzie dokładnie n jedynek i z≠x i d xz y xi ( y z ,i +1 + y z ,i −1 ) E4 - oznacza długo drogi (yn+j=yj) wybranej 22