Sztuczna Inteligencja w identyfikacji i sterowaniu
Transkrypt
Sztuczna Inteligencja w identyfikacji i sterowaniu
PWSZ Głogów Sztuczna Inteligencja w identyfikacji i sterowaniu Laboratorium Dyskretne sieci Hopfielda Wiadomości wstępne • Architektura sieci S wij y1 y2 i S z-1 ... z-1 ... S ... j z-1 yN • Algorytm uczenia 1 dla zbioru uczącego o rozmiarze M i elementach {x(1) , x(2) , . . . , x(M ) } ∈ RN , korektę parametrów sieci przeprowadza się wg wzoru: (P (m) (m) M − 1)(2xj − 1) dla i 6= i m=1 (2xi wij = 0 dla i = j • Stabilność sieci Hopfielda zawsze osiągają stan stabilny po pewnej określonej liczbie iteracji (proces odtwarzania wzorca), w którym: xi (k + 1) = xi (k), ∀i Stany stabilne, odpowiadające minimum funkcji energii nazywa się atraktorami. Każdemu z nich można przyporządkować zbiór warunków początkowych x(0), które inicjują ewolucję sieci kończącą się w tym atraktorze. Zbiór ten nazywamy niecką przyciągania danego atraktora. • Pojemność pamięci asocjacyjnej Istotnym parametrem pamięci asocjacyjnej jest jej pojemność. Przez pojemność rozumie się maksymalną liczbę wzorców zapamiętanych i odtwarzanych z akceptowalnym błędem εmax . Maksymalna pojemność pamięci asocjacyjnej dla dużej liczby elementów przetwarzających N i błędzie εmax = 1% wynosi: pmax = 0.138N • Pamięć autoasocjacyjna Sieć Hopfielda często stosowana jest jako pamięć autoskojarzeniowa inaczej nazywana pamięcią autoasocjacyjną. Załóżmy, że dany jest zbiór M różnych wzorców {x(1) , x(2) , . . . , x(M ) } ∈ RN . Pamięcią autoskojarzeniową związaną z tym zbiorem nazywamy układ realizujący odwzorowanie F : RN → RN takie, że F (x(m) ) = x(m) , m = 1, . . . , M oraz F (x) = x(l) , jeżeli x(l) jest najbardziej podobny do x spośród wszystkich wzorców. Stopień podobieństwa dwóch wektorów a i b można wyznaczyć stosując odległość Hamminga. Zadania 1. Jak definiuje się odległość Hamminga? Wyznaczyć odległości pomiędzy wektorami a i b zdefiniowanymi poniżej: • a = [0 1 1 1 0 0 1 0], b = [1 0 0 0 1 1 0 1] • a = [0 1 1 1 0 0 1 0], b = [0 1 1 1 0 0 1 0] • a = [0 1 1 1 0 0 1 0], b = [1 0 1 0 0 1 1 0] 2. Wyznaczyć stan stabilny następującej sieci Hopfielda. Czy dla danego stanu początkowego mogą istnieć dwa różne stany stabilne? 1 2 -1 3 2 -2 -2 1 -1 3. Zapoznać się z następującymi funkcjami przybornika NNET dotyczącymi dyskretnej sieci Hopfielda: • simuhop - symulacja sieci Hopfielda • solvehop - projektowanie sieci Hopfielda 4. Zastosować sieć Hopfielda złożoną z pięciu neuronów do zapamiętania trzech wzorców: Ψ1 = [+1, +1, +1, +1, +1]T , Ψ2 = [+1, −1, −1, +1, −1]T , Ψ3 = [−1, +1, −1, +1, +1]T . (a) Wyznaczyć macierz połączeń synaptycznych. (b) Za pomocą asynchronicznego odtwarzania stanu sieci pokazać, że wszystkie trzy wzorce zostały poprawnie zapamiętane. (c) Przebadać jak zostaną odtworzone zapamiętane wzorce przy pomocy synchronicznego odtwarzania stanu sieci. (d) Przebadać zachowanie się sieci w przypadku prezentacji wzorca Ψ1 w którym wartość drugiego elementu został zmieniona na −1. (e) Pokazać, że wzorce Ψ01 = [−1, −1, −1, −1, −1]T , Ψ02 = [−1, +1, +1, −1, +1]T , Ψ03 = [+1, −1, +1, −1, −1]T są także zapamiętane przez sieć neuronową. 2 (f) Przypuśćmy, że pierwszy element wzorca Ψ3 jest brakujący (równy 0). Określić odpowiedź sieci na taki wzorzec. Porównać odpowiedź sieci z wzorcem oryginalnym. 5. W oparciu o dyskretną sieć Hopfielda zaprojektować system rozpoznawania znaków alfanumerycznych. Przetestować nauczoną sieć, wykorzystując wzorce oryginalne i zaszumione. 3