Alternatywne modele neuronów i wªa±ciwo±ci ich sieci
Transkrypt
Alternatywne modele neuronów i wªa±ciwo±ci ich sieci
Uniwersytet Marii Curie-Skªodowskiej w Lublinie Wydziaª Matematyki, Fizyki i Informatyki Beata Joanna Grzyb Alternatywne modele neuronów i wªa±ciwo±ci ich sieci (Alternative neuron models and properties of their networks) Praca magisterska wykonana w Zakªadzie Ukªadów Zªo»onych i Neurodynamiki pod kierunkiem naukowym Prof. dr hab. Wiesªawa A. Kami«skiego Lublin 2007 Spis tre±ci Spis rysunków 4 Spis tablic 6 Wst¦p 7 1 Neuron biologiczny i jego wªa±ciwo±ci 10 1.1 Rodzaje neuronów . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.2 Ogólna budowa neuronu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.3 Potencjaª spoczynkowy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.4 Potencjaª czynno±ciowy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.5 Budowa i rodzaje synaps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.6 Szybkie przeka¹nictwo synaptyczne . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.7 Neuronalna reprezentacja informacji 16 1.8 Najwa»niejsze cechy i charakterystyki neuronu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Modele neuronów biologicznych 17 21 2.1 Klasykacja modeli neuronów . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.2 Model Integrate-and-re . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2.3 Model Resonate-and-Fire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.4 Model Hodgkina-Huxleya . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.5 Model FitzHugh-Nagumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 2.6 Model Morrisa-Lecara . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 2.7 Model Hindmarsha-Rose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 2.8 Model Izhikevicha . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 2.9 Model FC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 2.10 Porównanie wªa±ciwo±ci modeli neuronów 2 . . . . . . . . . . . . . . . . . . . . . . . 42 3 Sieci neuronów biologicznych 44 3.1 Sieci neuronów impulsowych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 3.2 Koncepcja oblicze« pªynowych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 3.3 Budowa maszyny pªynowej . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 3.4 Biologiczne przesªanki maszyny pªynowej 3.5 Wªa±ciwo±ci maszyny pªynowej 3.6 . . . . . . . . . . . . . . . . . . . . . . . 52 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 Maszyna pªynowa a maszyna echowa . . . . . . . . . . . . . . . . . . . . . . . . . . 54 4 Wªa±ciwo±ci maszyny pªynowej dla ró»nych modeli neuronów 4.1 Model maszyny pªynowej 4.2 Metody bada« 4.3 56 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 Wyniki bada« . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 4.3.1 Aktywno±¢ neuronów w czasie symulacji . . . . . . . . . . . . . . . . . . . . 60 4.3.2 Odlegªo±¢ euklidesowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 4.3.3 Indywidualna i globalna entropia informacyjna 65 . . . . . . . . . . . . . . . . 5 Rozpoznawanie ekspresji twarzy przy u»yciu maszyny pªynowej 67 5.1 Systemy rozpoznawania ekspresji twarzy . . . . . . . . . . . . . . . . . . . . . . . . 67 5.2 Zbiór danych i ich reprezentacja . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 5.3 Architektura systemu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 5.4 Wyniki bada« . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 Podsumowanie 79 Bibliograa 81 3 Spis rysunków 1.1 Zró»nicowana struktura przestrzenna komórek nerwowych . . . . . . . . . . . . . . 10 1.2 Uproszczony wygl¡d neuronu i jego cz¦±ci skªadowe . . . . . . . . . . . . . . . . . . 11 1.3 Powstawanie potencjaªu spoczynkowego 12 1.4 Rejestracja potencjaªu czynno±ciowego w komórce . . . . . . . . . . . . . . . . . . 14 1.5 Schematyczny przekrój synapsy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.6 Podsumowanie najwa»niejszych wªa±ciwo±ci biologicznych neuronów . . . . . . . . 19 2.1 Schematyczny wykres modelu . . . . . . . . . . . . . . . . . . . . 23 2.2 Przykªadowe odpowiedzi modeli resonate-and-re 2.3 Porównanie odpowiedzi modelu integrate-and-re 2.4 Pomocniczy schemat dla modelu Hodgkina-Huxleya. 2.5 Wykresy funkcji dla 2.6 Przebieg m(t) 2.7 Przebieg n(t) + h(t). 2.8 Schemat modelu Morrisa-Lecara 2.9 Przykªadowe odpowiedzi modelu Morrisa-Lecara oraz . . . . . . . . . . . . . . . . . . . . . . . . integrate-and-re . . . . . . . . . . . . . . . . . . . oraz resonate-and-re 25 . . . . . . 26 . . . . . . . . . . . . . . . . . 27 m∞ (V ), n∞ (V ), h∞ (V ), τm (V ), τn (V ), τh (V ) . . . . . . . . . . 29 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 m∞ (V (t)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.10 Ró»ne wzorce odpowiedzi modeli Hindmarsha-Rose. . . . . . . . . . . . . . . . . . 2.11 Porównanie odpowiedzi neuronów kory ruchowej szczura i modelu Izhikevicha. 32 33 35 . . 37 2.12 Graczna interpretacja parametrów modelu Izhikevicha. . . . . . . . . . . . . . . . 38 2.13 Budowa modelu FC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 2.14 Przekrój synapsy w modelu FC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 2.15 Schemat dziaªania modelu FC. 41 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.16 Porównanie wªa±ciwo±ci modeli neuronów . . . . . . . . . . . . . . . . . . . . . . . 43 3.1 Wielowarstwowy perceptron. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 3.2 Rekurencyjna sie¢ neuronowa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 3.3 Impulsowa sie¢ neuronowa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 3.4 Schemat dla reguªy Hebba. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 3.5 Sprz¦towa implementacja maszyny pªynowej. 4 . . . . . . . . . . . . . . . . . . . . . 49 3.6 Typowe wzory fal dla problemu XOR . . . . . . . . . . . . . . . . . . . . . . . . . . 50 3.7 Architektura maszyny pªynowej oraz jej neuronowa implementacja. . . . . . . . . . 51 3.8 Wªa±ciwo±¢ separowalno±ci losowo wygenerowanej maszyny LSM. . . . . . . . . . . 53 4.1 Model maszyny pªynowej. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 4.2 Ci¡gi impulsów podawane na siatkówk¦. Wzorzec W1. . . . . . . . . . . . . . . . . 58 4.3 Ci¡gi impulsów podawane na siatkówk¦. Wzorzec W2. . . . . . . . . . . . . . . . . 58 4.4 Odpowiedzi maszyny pªynowej zªo»onej z ró»nych modeli neuronów. 60 4.5 Odlegªo±ci euklidesowe stanów maszyny pªynowej zªo»enej z ró»nych modeli neuronów. 62 4.6 Odlegªo±¢ euklidesowa stanów maszyny pªynowej dla ró»nych modeli neuronów. . . 64 4.7 Entropia lokalna dla maszyny pªynowej zªo»enej z ró»nych modeli neuronów. . . . 65 4.8 Entropia globalna dla maszyny pªynowej zªo»enej z ró»nych modeli neuronów. . . . 66 5.1 Przykªadowe zdj¦cia z bazy expresji twarzy JAFFE. . . . . . . . . . . . . . . . . . 70 5.2 Reprezentacja gaborowska twarzy. . . . . . . . . . . . . . . . . . . . . . . . . . . 70 5.3 Binarna reprezentacja cz¦±ci obrazu. . . . . . . . . . . . . . . . . . . . . . . . . . . 71 5.4 Archiktektura maszyny pªynowej z zaznaczonymi poª¡czeniami wchodz¡cymi oraz . . . . . . . . wychodz¡cymi dla wybranego neuronu z warstwy ±rodkowej. . . . . . . . . . . . . . 5 71 Spis tablic 2.1 Oryginalne warto±ci równa« Hodgkina-Huxleya. . . . . . . . . . . . . . . . . . . . . 28 5.1 Porównanie algorytmów rozpoznawania ekspresji twarzy. . . . . . . . . . . . . . . . 69 5.2 Przykªady poprawnego rozpoznania emocji przez sie¢. . . . . . . . . . . . . . . . . 74 5.3 Przykªady bª¦dnego rozpoznania emocji przez sie¢. . . . . . . . . . . . . . . . . . . 74 5.4 Porównanie wyników rozpoznania ekspresji obu reprezentacji twarzy. . . . . . . . . 75 5.5 Porównanie wyników rozpoznania ekspresji w poszczególnych grupach testowych dla ró»nych modeli neuronów. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 5.6 Porównanie wyników rozpoznania ekspresji twarzy dla ró»nych modeli neuronów. . 77 5.7 Wyniki rozpoznania ekspresji przez badan¡ grup¦ osób. 78 6 . . . . . . . . . . . . . . . Wst¦p Pierwotn¡ inspiracj¦ sztucznej sieci neuronowej stanowiªa budowa naturalnych ukªadów nerwowych, a w szczególno±ci mózgu. Badania nad modelowaniem sztucznych sieci neuronowych zostaªy 1 zapocz¡tkowane wraz z wydaniem w 1943 roku historycznej pracy McCullocha i Pittsa , w której przedstawiono matematyczny opis komórki nerwowej oraz powi¡zano go z problemem przetwarzania danych. Perceptron byª pierwszym praktycznie zastosowanym modelem sieci neuronowej. Zbudowany zostaª w 1957 roku przez Rosenblatta i Wightmana jako system do rozpoznawania znaków alfanumerycznych z uczeniem jako metod¡ programowania. Dziaªanie perceptronu nie byªo zadowalaj¡ce z punktu widzenia zasadniczego celu bada«. Chocia» ukªad uczyª si¦ rozpoznawania, to nie ra- dziª sobie z bardziej zªo»onymi znakami wykazuj¡c wra»liwo±¢ na zmian¦ skali rozpoznawanych obiektów, ich poªo»enia w polu widzenia oraz zmiany ksztaªtu. W trakcie bada« zauwa»ono wa»n¡ zalet¡ perceptronu, a mianowicie jego zdolno±¢ do zachowywania poprawnego dziaªania nawet po uszkodzeniu pewnej cz¦±ci jego elementów. Pierwszym komercyjnym neurokomputerem byªa stworzona w 1960 roku przez Widrowa i Hoa sie¢ Madaline 2 skªadaj¡ca si¦ z adaptacyjnych neuronów liniowych, zwanych równie» adalinami . Sie¢ ta posiadaªa zdolno±¢ do adaptacyjnego przetwarzania sygnaªów i wykorzystywana byªa w radarach, sonarach oraz w telekomunikacji. Rok 1969 byª rokiem upadku idei sztucznych sieci neuronowych. Ukazaªa si¦ wówczas ksi¡»ka 3 Minsky'ego oraz Paperta , w której skrytykowano ide¦ perceptronu pokazuj¡c na wielu przykªadach jego ograniczenia. Spowodowaªo to w rezultacie przerwanie bada« w tym kierunku w wielu o±rodkach i wieloletni zastój w badaniach nad sieciami neuronowymi. Nie oznacza to jednak, »e w latach 70tych nie byªo »adnych osi¡gnie¢ w dziedzinie sieci neuronowych, z których warto wymieni¢: stworzenie przez Werbosa nowego schematu uczenia sieci, badania nad pami¦ci¡ asocjacyjn¡ prowadzone przez Kohonena i Andersona, opracowanie przez Kohonena ucz¡cej si¦ bez nauczyciela sieci neuronowej oraz wprowadzenie teorii adaptacyjnych sieci rezonansowych przez Grossberga i Carpentera. 1 ang. 2 ang. 3 ang. A logical calculus of the ideas immanent in nervous activity ADAptive LInear NEuron An introduction on computational geometry 7 Kolejne o»ywienie spowodowaªo opublikowanie w 1986 roku dwutomowej monograi opracowanej przez McClellanda i Rumelharta na temat równolegªego przetwarzania rozproszonego. Publikacja ta otworzyªa now¡ er¦ dla kiedy± niedocenionych mo»liwo±ci sieci warstwowych. Od poªowy lat 80tych ubiegªego wieku zacz¡ª si¦ prawdziwy wy±cig, którego uczestnikami obok laboratoriów badawczych s¡ tak»e rmy produkuj¡ce ukªady elektroniczne. Przez caªe lata za podstawow¡ jednostk¦ obliczeniow¡ w mózgu uwa»ano komórke nerwow¡. Ostatnie badania wykazaªy jednak, »e w ukªadach biologicznych pojedynczy neuron nie jest w stanie przetwarza¢ wszystkich docieraj¡cych do niego informacji. Rol¦ podstawowej jednostki obliczeniowej speªniaj¡ ukªady neuronów tworz¡ce mikroobwody. Do badania mikroobwodów stosuje si¦ obecnie gªównie symulacje komputerowe, których analiz¦ uwa»a si¦ za równowa»n¡ obserwacjom biologicznym. 4 wych . Nowatorskim podej±ciem do symulacji mikroobwodów jest teoria maszyn pªyno- Wedªug niej fragmenty mózgu traktuje si¦ jako ukªady posiadaj¡ce okre±lone zdolno±ci obliczeniowe. Model maszyny pªynowej nie wymaga szczegóªowej analizy zachowania poszczególnych neuronów czy te» poª¡cze« pomi¦dzy nimi. Podej±cie to jest poprawne biologicznie i umo»liwia na znaczne skrócenie czasu symulacji. Do tej pory w badaniach wªa±ciwo±ci maszyn pªynowych u»ywane byªy najprostsze impulsowe modele neuronów typu integrate-and-re oraz te najbardziej zªo»one modele Hodgkina-Huxleya. Celem niniejszej pracy jest zastosowanie alternatywnych modeli neuronów do maszyny pªynowej i zbadanie podstawowych jej wªa±ciwo±ci w zale»no±ci od u»ytych modeli neuronów oraz stworzenie w oparciu o teori¦ maszyn pªynowych systemu rozpoznaj¡cego ekspresje twarzy. Praca skªada si¦ z pi¦ciu rozdziaªów. Celem rozdziaªu 1 jest wprowadzenie do podstawowych zaªo»e« neurobiologii. Omówiona zostaªa budowa i funkcje poszczególnych cz¦±ci typowej komórki nerwowej oraz sposób dziaªania i rola synaps w przekazywaniu informacji. Opisane zostaªo zja- wisko okre±lane jako potencjaª czynno±ciowy oraz wytªumaczone towarzysz¡ce mu poj¦cia takie jak: bezwzgl¦dny i wzgl¦dny okres refrakcji oraz próg pobudzenia. W podsumowaniu rozdziaªu zamieszczono najwa»niejsze cechy i charakterystyki neuronu z punktu widzenia modelowania. Rozdziaª 2 zawiera przegl¡d najwa»niejszch modeli neuronów. Omówione zostaªy biologiczne modele neuronów takie jak: integrate-and-re, resonate-and-re, Nagumo, Hindmarsha-Rose, Izhikevicha oraz Hodgkina-Huxleya, FitzHugh- FC. W rozdziale uj¦to tak»e taberyczne porównanie najistotniejszych wªa±ciwo±ci zaprezentowanych modeli. W rozdziale 3 omówiona zostaªa ogólna koncepcja impulsowych sieci neuronowych oraz ich wady i zalety na tle konwencjonalnych sztucznych sieci neuronowych. Ponadto przedstawiona zostaªa ogólna teoria maszyny pªynowej oraz jej biologiczne przesªanki. Przedmiotem zainteresowania rozdziaªu 4 jest zastosowanie alternatywnych modeli neuronów do maszyny pªynowej oraz zbadanie jej podstawowych wªa±ciwo±ci w zale»no±ci od u»ytych modeli 4 ang. Liquid State Machine (LSM) 8 neuronów. Zbudowana w celu zbadania wªa±ciwo±ci maszyny pªynowej architektura opiera si¦ na uproszczonym modelu ukªadu wzrokowego. Zamieszczone w rozdziale graczne przebiegi stanów aktywno±ci neuronów maszyny pªynowej pozwoliªy na zobrazowanie ró»nic w dynamice poszczególnych modeli neuronów. Do scharakteryzowania przepªywu informacji w maszynie pªynowej posªu»ono si¦ miar¡ entropii indywidualnej i globalnej. Natomiast do okre±lenia i porównania zdolno±ci asocjacyjnych maszyn pªynowych wykorzystano analiz¦ odlegªo±ci euklidesowej. Caªkowicie nowe podej±cie do zagadnienia rozpoznawania ekspresji twarzy oparte na modelu maszyny pªynowej zostaªo przedstawione w rozdziale 5. Skonfrontowane zostaªy dwa sposoby przetwarzania informacji z obrazu twarzy oraz ich wpªyw na wynik rozpoznania poszczególnych emocji. Ponadto porównane zostaªy wyniki prawidªowego rozpoznania ekspresji dla ró»nych modeli neuronów u»ytych w warstwie pªynowej opracowanego systemu. Niniejsza praca zostaªa oparta gªównie na materiaªach i opracowaniach dost¦pnych w sieci Internet. Wszystkie symulacje omawiane w pracy przeprowadzone zostaªy przy u»yciu symulatora ukªadów neuronowych CSim w ±rodowisku programistycznym Matlab. Do bada« systemu rozpo- znaj¡cego emocje wykorzystano baz¦ zdj¦¢ ekspresji twarzy JAFFE. W pracy gªówn¡ metod¡ badawcz¡ jest metoda opisowa. Charakteryzuje ona dane zjawisko w sposób ilo±ciowy i jako±ciowy, czyli opis sªowny przeplata si¦ z informacjami liczbowymi dotycz¡cymi badanego zjawiska. Du»y nacisk poªo»ono na aktualno±¢ informacji i danych, tak aby w jak najwi¦kszym stopniu odzwierciedlaªy one procesy zachodz¡ce w badaniach nad sztucznymi sieciami neuronowymi na wiecie. Autorka chciaªaby serdecznie podzi¦kowa¢ Panu Profesorowi Wiesªawowi A. Kami«skiemu i Panu Doktorowi Grzegorzowi M. Wójcikowi za po±wi¦cenie swojego czasu, okazan¡ »yczliwo±¢ oraz liczne wnikliwe uwagi i pomocne sugestie przekazane w trakcie przygotowywania niniejszej pracy. Oddzielne, serdeczne podzi¦kowania skªada Panu Doktorowi Jackowi Biaªow¡sowi za wiele cennych wskazówek oraz owocn¡ wspóªprac¦ przy tworzeniu modelu neuronu 9 FC. Rozdziaª 1 Neuron biologiczny i jego wªa±ciwo±ci Pierwowzorem sztucznych sieci neuronowych jest ludzki mózg, uznawany wspóªcze±nie za najbardziej zªo»ony obiekt we wszech±wiecie. Komórki, stanowi¡ce podstawow¡ jednostk¦ strukturaln¡ i czynno±ciow¡ mózgu nazywane s¡ komórkami nerwowymi, w skrócie neuronami. 1.1 Rodzaje neuronów Neurony ró»ni¡ si¦ znacznie ksztaªtami i rozmiarami, liczb¡ tworzonych synaps, czy te» rodzajem wydzielanych zwi¡zków chemicznych [1]. Dlatego te» nie mo»emy mówi¢ o czym± takim jak typowy neuron. Rysunek 1.1 przedstawia neurony zró»nicowane pod wzgl¦dem struktury przestrzennej. Rysunek 1.1: Zró»nicowana struktura przestrzenna komórek nerwowych. ródªo: http://www.mind.ilstu.edu/curriculum/neuronsintro/neuronsintro.php 10 Neurony mo»emy klasykowa¢ na podstawie cech strukturalnych, tj. np.: rozmiaru i liczby posiadanych neurytów, czyli elementów odpowiedzialnych za przekazywanie informacji z ciaªa komórki do kolejnych neuronów lub innych komórek. Komórki z jednym, dwoma lub wi¦cej neurytami nazywane s¡ odpowiednio jedno-, dwu- i wielobiegunowymi. Dendryt, czyli element neuronu b¦d¡cy zazwyczaj rozgaª¦zion¡ struktur¡ przenosz¡c¡ sygnaªy otrzymywane z innych neuronów lub komórek do ciaªa neuronu, równie» mo»e stanowi¢ podstaw¦ klasykacji neuronów. Bior¡c pod uwag¦ ksztaªt drzewka dendrytycznego mo»emy wyró»ni¢, np.: komórki piramidalne, komórki gwie¹dziste czy te» komórki Purkinjego [1]. Dªugo±¢ aksonów równie» mo»e stanowi¢ podstaw¦ ich klasykacji. Neurony wyposa»one w dªugi akson nale»¡ do grupy Golgi I (np. komórki piramidalne, komórki Purkinjego), za± neurony gwia¹dziste, gdzie akson ma dªugo±¢ nie wi¦ksz¡ ni» dendryty, tworz¡ grup¦ Golgi II [2]. Analiza poª¡cze« jakie tworz¡ neurony, pozwala na ich klasykacj¦ ze wzgl¦du na peªnione funkcje. Mo»emy tu wyªoni¢ neurony aferentne (czuciowe lub zmysªowe) przewodz¡ce impulsy od receptorów czuciowych, neurony eferentne (ruchowe lub motoneuronowe) przewodz¡ce impulsy do efektorów (mi¦±nie, gruczoªy) oraz neurony po±rednicz¡ce (kojarzeniowe, asocjacyjne) transmituj¡ce impulsy od neuronów czuciowych do ruchowych [1]. 1.2 Ogólna budowa neuronu Uproszczony wygl¡d komórki nerwowej zostaª przedstawiony na rysunku 1.2. Neuron skªada si¦ z bªony komórkowej otaczaj¡cej cytoplazm¦, centralny jego element stanowi perikarion czyli ciaªo komórki. Z tej cz¦±ci neuronu wyrastaj¡ neuryty, dªugie cylindryczne wypustki dwojakiego ro- dzaju, dendryty i aksony. Dendryty s¡ silnie rozgaª¦zionymi przedªu»eniami ciaªa komórki, na nie przypada na ogóª najwi¦ksza cze±¢ (ponad 90%) obszaru zajmowanego przez neuron [2]. Rysunek 1.2: Uproszczony wygl¡d neuronu i jego cz¦±ci skªadowe.ródªo: http://pl.wikipedia.org/wiki/Neuron 11 Czynno±ciowo dendryty i ciaªo komórki tworz¡ jedn¡ caªo±¢ odbieraj¡c¡ sygnaªy docieraj¡ce tu z receptorów lub innych neuronów. Komórki nerwowe zwykle maj¡ tylko jeden akson, który przewa»nie wychodzi z ciaªa komórki. Poprzez akson i jego liczne odgaª¦zienia sygnaª jest wysyªany z neuronu do s¡siednich neuronów lub do narz¡dów wykonawczych. Akson odpowiada zatem za cz¦±¢ nadawcz¡ neuronu. Oprócz bªony pokrywaj¡cej caªy neuron, akson mo»e mie¢ dodatkowo jedn¡ lub dwie osªonki. Bli»sza aksonu, osªonka mielinowa, przypomina ponacinan¡ izolacj¦ na kablu elektrycznym. Zbudowana jest z wysokooporowej elektrycznie substancji tªuszczowo-biaªkowej zwanej mielin¡, a jej segmenty poprzedzielane s¡ fragmentami nieosªoni¦tymi, zwanymi przew¦»eniami Ranviera. wzdªu» aksonu. Osªonka ta ma podstawowe znaczenie dla pr¦dko±ci przewodzenia impulsów Druga osªonka, zwana osªonk¡ Schwanna wyst¦puje na niektórych, przewa»nie najcie«szych wªóknach, w grubszych natomiast pokrywa osªonk¦ mielinow¡ na zewn¡trz [2]. 1.3 Potencjaª spoczynkowy Mi¦dzy obu stronami bªony plazmatycznej istnieje okre±lona ró»nica potencjaªu elektrycznego. Komórki nerwowe, które w wyniku odpowiednio silnego pobudzenia s¡ w stanie wytworzy¢ potencjaª czynno±ciowy nazwane s¡ pobudliwymi. Potencjaª spoczynkowy natomiast deniowany jest jako ró»nica mi¦dzy obu stronami nie pobudzonej komórki pobudliwej. Wszystkie napi¦cia na bªonie komórkowej wyra»ane s¡ jako stosunek potencjaªu wn¦trza komórki do potencjaªu po stronie zewn¦trznej. Warto±ci potencjaªu spoczynkowego w komórkach nerwowych wahaj¡ si¦ mi¦dzy −65 mV a −90 mV [1]. Powstawanie potencjaªu spoczynkowego zostaªo zilustrowane na rysunku 1.3. Rysunek 1.3: Powstawanie potencjaªu spoczynkowego. ródªo: http://www.ucl.ac.uk/ sjjgsca/NerveRestingPot.html Jak mo»na zauwa»y¢ na rysunku 1.3 istnieje du»a ró»nica st¦»e« jonów potasu oraz jonów sodu mi¦dzy wn¦trzem a ±rodowiskiem zewn¦trznym komórki. 12 Bªon¦ komórkow¡ cechuje odmienna przepuszczalno±¢ dla ró»nych jonów. Przepuszczalno±¢ dla jonów sodu, gdy neuron znajduje si¦ w stanie niepobudzonym jest niewielka. Inaczej jest w przypadku jonów potasu. I to przede wszystkim dzi¦ki tendencji jonów potasu do przepªywania zgodnie z gradientem st¦»e«, czyli z wewn¡trz na zewn¡trz komórki, powstaje potencjaª spoczynkowy. Wypªywanie jonów potasowych na zewn¡trz powoduje powstanie niewielkiego nadmiaru ªadunków ujemnych po wewn¦trznej stronie bªony, a tym samym wytwarza ró»nic¦ potencjaªów po obu stronach bªony. Powstaªa ró»nica potencjaªów oznacza istnienie siªy elektrostatycznej, której zadaniem jest przeciwdziaªanie dalszemu wypªywowi jonów potasu. Siªa elektrochemiczna jest ró»nic¡ pomi¦dzy potencjaªem spoczynko- wym a potencjaªem równowagi dla danego jonu. Potencjaª równowagi, zwany równie» potencjaªem Nernsta, deniujemy jako stan, w którym wypªywanie jonów z komórki jest równowa»one ich napªywaniem do wn¦trza, przepªyw jonów netto wi¦c jest równy zero [1]. Potencjaª równowagi Ek mo»na obliczy¢, stosuj¡c równanie Nernsta [2]: Ek = RT [C]z ∗ ln( ), ZF [C]w (1.1) gdzie T oznacza temperatur¦, R staª¡ gazow¡, a F staª¡ Faradaya. Natomiast [C]z oraz [C]w przedstawia st¦»enie danego jonu odpowiednio w pªynie tkankowym i neuroplazmie. W przypadku systemu, w którym wyst¦puje tylko jeden typ jonu warto±¢ potencjaªu równo- 1 wagi jest taka sama jak warto±¢ tzw. potencjaªu odwrócenia . Chocia» te dwa terminy odnosz¡ si¦ do ró»nych aspektów tego samego zjawiska, to ró»nica mi¦dzy nimi jest bardzo subtelna. Na przykªad, dla jonów sodu w stanie równowagi ró»nica w koncentracji jonów powoduje powstanie potencjaªu Nernsta EN a o warto±ci okoªo +50 mV . Zatem w stanie równowagi wn¦trze komórki ma potencjaª dodatni w stosunku do otoczenia. Je»eli ró»nica napi¦cia ∆u jest mniejsza ni» warto±¢ potencjaªu Nernsta, to wi¦cej jonów Na+ wpªynie do komórki zmniejszaj¡c ró»nic¦ w koncentracji. Natomiast je±li napi¦cie jest wi¦ksze ni» potencjaª równowagi, to wówczas jony wypªywaj¡ na zewn¡trz z komórki. Zatem kierunek pr¡du jest odwrócony gdy napi¦cie EN a . St¡d EN a ∆u przekracza warto±¢ nazywa si¦ te» potencjaªem odwrócenia [3]. Warto±¢ potencjaªu odwrócenia mo»e zosta¢ okre±lona empirycznie na podstawie przeprowadzonego do±wiadczenia, np. metody voltage clamping. przy pomocy Potencjaª, przy którym nie obserwuje si¦ przepªywu pr¡du jest poten- cjaªem odwrócenia. Natomiast potencjaª równowagi to czysto teoretyczna warto±¢ i chocia» mo»na wyznaczy¢ jej warto±¢ stosuj¡c równanie Nernsta, to nie mo»na jej wyznaczy¢ empirycznie. 1.4 Potencjaª czynno±ciowy Zasadnicz¡ rol¡ neuronu jest odbieranie impulsów przez jego dendryty i ciaªo komórki oraz nast¦pnie przekazywanie ich do zako«cze« aksonu. W tym procesie gªówny udziaª przypada bªonie neuronu. Gdy na bªon¦ pobudliwej komórki zadziaªa bodziec o intensywno±ci wystarczaj¡cej do 1 ang. reversal potential 13 zdepolaryzowania neuronu powy»ej okre±lonej warto±ci progowej, w skrócie nazwanej bod¹cem progowym, jej przewodno±¢ nagle wzrasta. wet 500-krotnie. W przeci¡gu 0,5 ms Przepuszczalno±¢ bªony dla jonów sodu wzrasta na- jony sodu wpªywaj¡ lawinowo do wn¦trza powoduj¡c nie tylko depolaryzacje, ale nawet miejscowe odwrócenie polaryzacji bªony (tzw. nadstrzaª). Równie» i kanaªy potasowe zostaj¡ otwarte, powoduj¡c wypªywanie jonów potasu z komórki. Otwarcie kanaªów sodowych i potasowych jest asynchroniczne, co przeciwdziaªa jednoczesnej zmianie st¦»e« po obu stronach bªony. Po upªywie okoªo 0,5 ms kanaªy sodowe zamykaj¡ si¦, natomiast jony potasu masowo wychodz¡ z komórki na zewn¡trz, powoduj¡c jej repolaryzacj¦. Po nast¦pnych dwóch niewielkich wahaniach potencjaªu, tzw. ujemnym i dodatnim potencjaªem nast¦pczym mechanizmy bªonowe wracaj¡ do stanu równowagi, i s¡ gotowe do reakcji na nast¦pny bodziec [2]. Opisane zjawisko, okre±lane jako potencjaª czynno±ciowy lub impuls nerwowy, zostaªo zobrazowane na rysunku 1.4. Rysunek 1.4: Rejestracja potencjaªu czynno±ciowego w komórce.ródªo: http://gargoyle.arcadia.edu W czasie trwania potencjaªu czynno±ciowego komórka staje si¦ niepobudliwa, za± w czasie wyst¦powania hiperpolaryzuj¡cego potencjaªu nast¦pczego jej pobudliwo±¢ jest zmniejszona. Zjawiska te okre±lane s¡ odpowiednio jako refrakcja bezwzgl¦dna i wzgl¦dna[1]. Pojawienie si¦ potencjaªu czynno±ciowego jest mo»liwe tylko wtedy, gdy bodziec speªnia nast¦puj¡ce warunki: • posiada siª¦ konieczn¡ do pobudzenia danego wªókna; • musi dziaªa¢ przez minimalny czas, zwany czasem u»ytecznym; • musi narasta¢ dostatecznie szybko do warto±ci progowej. Bod¹ce, które nie speªniaj¡ powy»szych warunków, tzw. bod¹ce podprogowe, mog¡ si¦ sumowa¢ [2]. 14 1.5 Budowa i rodzaje synaps cisªe poª¡czenia mi¦dzyneuronalne lub poª¡czenia mi¦dzy neuronami i efektorami nazywane s¡ poª¡czeniami synaptycznymi, lub krótko synapsami. W ukªadzie nerwowym wspóªistniej¡ dwa typy synaps: elektryczne i chemiczne. Przewa»aj¡ca cz¦±¢ synaps ma charakter chemiczny. Synapsa chemiczna skªada si¦ z nast¦puj¡cych elementów [4]: • bªony presynaptycznej pokrywaj¡cej zako«czenie aksonu; • szczeliny synaptycznej o szeroko±ci okoªo 20 • bªony postsynaptycznej. nm; Synapsy mog¡ by¢ tworzone w ka»dym miejscu na komórce odbieraj¡cej sygnaª. Lokalizacja na neuronie postsynaptycznym stanowi kryterium klasykacji synaps. Mo»emy wyró»ni¢ tu synapsy akso-dendrytyczne, synapsy akso-aksonalne oraz charakteryzuj¡ce si¦ wyj¡tkowo silnym przeka¹nictwem synapsy akso-somatyczne [1]. Rysunek 1.5: Schematyczny przekrój synapsy. ródªo: http://www.txtwriter.com/backgrounders/Drugaddiction/drugs1.html Schematyczny przekrój synapsy zostaª przedstawiony na rysunku 1.5. Cecha charakterystyczn¡ struktury presynaptycznej jest obecno±¢ po wewn¦trznej stronie bªony licznych drobnych p¦cherzyków zawieraj¡cych we wn¦trzu przeka¹nik. Przekazywanie informacji przez synaps¦ odbywa si¦ nast¦puj¡co. Impuls, który dotarª do zako«czenia aksonu powoduje wydzielenie z bªony presynaptycznej porcji neuroprzeka¹nika. Substancja ta dyfunduje przez szczelin¦ synaptyczn¡ do bªony postsynaptycznej. Od strony dendrytu znajduj¡ si¦ czuªe na obecno±¢ neuroprzeka¹ników kanaªy jonowe. Otwarcie ich powoduje silne wnikanie jonów sodu do dendrytu i zapocz¡tkowa- nie poruszania si¦ potencjaªu czynno±ciowego w dendrycie neuronu postsynaptycznego. Potencjaª w pojedynczej synapsie rzadko ma warto±¢ progow¡, dlatego te» z reguªy maªe potencjaªy synaptyczne musz¡ si¦ sumowa¢ a» do osi¡gni¦cia warto±ci progowej. Mówimy wówczas o zjawisku 15 sumowania czasowego w pojedynczej synapsie oraz o zjawisku sumowania przestrzennego mi¦dzy wieloma synapsami rozproszonymi po caªej przestrzeni odbiorczej neuronu [2]. 1.6 Szybkie przeka¹nictwo synaptyczne Neuroprzeka¹niki wydzielane do szczeliny synaptycznej w trakcie przekazywania pobudzenia przez synaps¦ mog¡ by¢ dwojakiego rodzaju. W zale»no±ci od wpªywu na polaryzacj¦ bªony, wyró»- niamy neuroprzeka¹niki pobudzaj¡ce, które obni»aj¡ próg pobudzenia lub te» hamuj¡ce, które go podwy»szaj¡. Pobudzaj¡ce potencjaªy postsynaptyczne 2 przybli»aj¡ potencjaª bªony do progu ge- neracji potencjaªów czynno±ciowych. Pobudzaj¡ce potencjaªy synaptyczne cechuje kilka istotnych wªa±ciwo±ci [1]: • rejestrowane z ciaªa neuronu jako przej±ciowa depolaryzacja bªony powstaj¡ w wyniku aktywacji kilku synaps; • pomi¦dzy pobudzeniem wªókien aferentnych, tj. wªókien przenosz¡cych sygnaªy sensoryczne (czuciowe) ze skóry, mi¦±ni szkieletowych, stawów, oczu, uszu, itp. do o±rodkowego ukªadu nerwowego, a powstaniem EPSP wyst¦puje krótkie opó¹nienie zwane opó¹nieniem synaptycznym wynosz¡ce okoªo 0,5 1 • ms; EPSP s¡ niewielkie, od dziesi¡tych cz¦±ci mV do okoªo 8 mV , ich amplituda jest uzale»niona od liczby pobudzonych wªókien aferentnych; • EPSP powstaj¡ w wyniku dziaªania kwasu glutaminowego zanikaj¡c wykªadniczo w czasie 10 20 ms. 3 Pod wpªywem receptoru GABA powstaj¡ hamuj¡ce potencjaªy postsynaptyczne , które oddalaj¡ potencjaª bªony komórkowej od progu generacji potencjaªów czynno±ciowych. IPSP maj¡ podobne wªa±ciwo±ci jak EPSP, z wyj¡tkiem tego, »e maj¡ charakter hamuj¡cy [1]. 1.7 Neuronalna reprezentacja informacji Komórki nerwowe koduj¡ informacj¦ na dwa sposoby. Po pierwsze, cz¦sto±¢ przesyªania poten- cjaªów czynno±ciowych przekazuje informacj¦ o czasie trwania bod¹ca oraz o jego intensywno±ci i zmianie tej intensywno±ci w czasie. Na przykªad, cz¦sto±¢ potencjaªów czynno±ciowych w neuronie ruchowym niesie informacj¦ o czasie i sile skurczu wªókien mi¦±niowych. Po drugie, ogóª poª¡cze« wej±ciowych i wyj±ciowych neuronu aferentnego (tzw. adres neuronu) koduje informacj¦ o przestrzennej lokalizacji bod¹ca oraz o jego naturze jako±ciowej, czyli modalno±ci. W ukªadach 2 ang. 3 ang. excitatory postsynaptic potential, EPSP inhibitory postsynaptic potential, IPSP 16 ruchowych i czuciowych dokªadne zakodowanie okre±lonej wªa±ciwo±ci zazwyczaj jest uzale»nione od aktywno±ci du»ego zespoªu komórek (tzw. kodowanie populacyjne). Precyzja kodowania czuciowego i ruchowego jest uwarunkowana wierno±ci¡ przenoszenia informacji przez potencjaªy czynno±ciowe. Wierno±¢ przenoszenia umo»liwiaj¡ nast¦puj¡ce czynniki [1]: 1. Binarny charakter potencjaªów czynno±ciowych. W danej chwili akson albo przewodzi potencjaª czynno±ciowy, albo nie. Takie dwójkowe kodowanie jest mniej podatne na bª¦dy, które mog¡ powsta¢ w efekcie znieksztaªcenia sygnaªu przez szumy. 2. Modulacja cz¦sto±ci generowania potencjaªów czynno±ciowych. Przypadkowy brak albo dodanie pojedynczego potencjaªu czynno±ciowego nie wpªywa w istotny sposób na ±redni¡ cz¦sto±¢ serii potencjaªów, je±li nie jest ona zbyt krótka. 3. Redundancja informacji. Sygnaª ruchowy wytwarzany jest przez du»e populacje neuronów dziaªaj¡ce w skoordynowany sposób. Bª¦dna aktywno±¢ kilku komórek kompensowana zostaje przez prawidªow¡ aktywno±¢ wi¦kszo±ci z nich. 1.8 Najwa»niejsze cechy i charakterystyki neuronu Celem tego podrozdziaªu jest zilustrowanie bogactwa i zªo»ono±ci reakcji neuronów w odpowiedzi na pojedyncze impulsy elektryczne. Izhikevich wyodr¦bniª 20 najbardziej znacz¡cych cech biologicznych neuronów [5], a mianowicie: 4 A. Wzmacniaj¡ce pulsowanie . Neuron generuje ci¡g impulsów tak dªugo a» podawane s¡ na wej±cie impulsy elektryczne (rys. 1.6.A) 5 B. Fazowe pulsowanie . Neuron wystrzela tylko pojedynczy impuls w reakcji na impulsy wej±ciowe. Takie zachowanie neuronów jest po»yteczne przy wykrywaniu pocz¡tku stymulacji (rys. 1.6.B) 6 C. Wzmacniaj¡ce wybuchanie . Neuron wysyªa seri¦ impulsów podczas stymulacji. Takim zachowaniem cechuj¡ si¦ neurony kory mózgowej u kota. Cz¦stotliwo±¢ wystrzaªów neuronu mo»e wynosi¢ okoªo 50 Hz, dlatego te» uwa»a si¦ »e te neurony przyczyniaj¡ si¦ do oscylacji fal gamma w mózgu (rys. 1.6.C) 7 D. Fazowe wybuchanie . Podobne do neuronów charakteryzuj¡cych si¦ fazowym pulsowaniem. Przy wykryciu pocz¡tku stymulacji wypuszczana jest seria impulsów (rys. 1.6.D) 8 E. Model mieszany . Najpierw pojawia si¦ seria impulsów tak jak w poprzednim przypadku, 4 ang. 5 ang. 6 ang. 7 ang. 8 ang. Tonic Spiking Phasic Spiking Tonic Bursting Phasic Bursting Mixed Model 17 a nast¦pnie neuron przeª¡cza si¦ w fazowe pulsowanie. Takie zachowanie jest widoczne w pobudzaj¡cych neuronach w korze mózgowej ssaków (rys. 1.6.E) 9 F. Adaptacja cz¦stotliwo±ci impulsów . Jeden z najbardziej powszechnych typów neuronów pobudzaj¡cych w korze mózgowej ssaków. Generuje wzmacniaj¡ce pulsowanie z malej¡c¡ cz¦stotliwo±ci¡ impulsów (rys. 1.6.F) G. Pobudliwo±¢ pierwszo-klasowa 10 . W tej klasie neuronów cz¦stotliwo±¢ wzmacniaj¡cego pul- sowania zale»y od siªy pobudzenia i warto±¢ jej mo»e waha¢ si¦ w granicach od 2 Hz do 200 Hz, lub wi¦cej. Reaguj¡ bardzo nisk¡ cz¦stotliwo±ci¡ wystrzaªów nawet na bardzo sªabe pobudzenie. Neurony tej grupy mog¡ zakodowa¢ siª¦ pobudzenia na cz¦stotliwo±¢ generowania impulsów (rys. 1.6.G) H. Pobudliwo±¢ drugo-klasowa 11 . Neurony tej klasy zachowuj¡ si¦ podobnie do neuronów grupy I, ale nie reaguj¡ na sªabe pobudzenia, charakteryzuj¡ si¦ relatywnie wy»sz¡ cz¦stotliwo±ci¡ generowania impulsów (od 40 Hz) (rys. 1.6.H) I. Utajenie impulsu 12 . Neuron generuje impuls z opó¹nieniem, którego warto±¢ zale»y od siªy stymulacji. Neurony w korze mózgowej ssaków mog¡ mie¢ opó¹nienie dziesi¡tek milisekund (rys. 1.6.I) J. Podprogowe oscylacje 13 . Ta klasa neuronów posiada zdolno±¢ do oscylacji (rys. 1.6.J) K. Wyró»niona cz¦stotliwo±¢ i rezonans 14 . Dzi¦ki zjawisku rezonansu, neuron posiadaj¡cy po- tencjaª oscylacyjny mo»e odpowiada¢ selektywnie na pobudzenie z podobn¡ cz¦stotliwo±ci¡ do podprogowych oscylacji. Te neurony zostaªy nazwane rezonatorami (rys. 1.6.K) 15 . L. Integracja i wykrywanie zgodno±ci Neurony nie posiadaj¡ce zdolno±ci do oscylacji za- chowuj¡ si¦ jak integratory. Im wy»sza cz¦stotliwo±¢ tym wi¦ksze prawdopodobie«stwo, »e neuron wygeneruje impuls (rys. 1.6.L) M. Odbity impuls 16 . Neurony odbijaj¡ impuls, który do nich dociera i jest on uwalniany z ha- muj¡cego wej±cia (rys. 1.6.M) 9 ang. 10 ang. 11 ang. 12 ang. 13 ang. 14 ang. 15 ang. 16 ang. Spike Frequency Adaptation Class 1 Excitability Class 2 Excitability Spike Latency Subthreshold Oscillations Frequency Preference and Resonance Integration and Coincidence Detection Rebound Spike 18 Rysunek 1.6: Podsumowanie najwa»niejszych wªa±ciwo±ci biologicznych neuronów. ródªo: [5] 19 17 . Podobnie do powy»szych z t¡ ró»nic¡, »e odbijana jest seria impulsów, a nie N. Odbita seria pojedynczy impuls. Uwa»a si¦, »e tej klasy neurony przyczyniaj¡ si¦ do oscylacji fal w korze mózgowej w fazie snu (rys. 1.6.N) 18 . Grupa neuronów biologicznych posiadaj¡cych zmienn¡ warto±¢ progu po- O. Zmienny próg budzenia, która zale»y od ich wcze±niejszej aktywacji (rys. 1.6.O) 19 . Neuron prezentuje dwa stabilne tryby dziaªania: spoczynek i wzmacnia- P. Dwumodalno±¢ j¡ce wzbudzanie. Tryby s¡ przeª¡czane przez pobudzaj¡ce lub hamuj¡ce impulsy (rys. 1.6.P) Q. Depolaryzacja po impulsie 20 . Po wystrzale impulsu potencjaª membrany mo»e okazywa¢ 21 lub te» przedªu»on¡ depolaryzacj¦22 . W obu przypadkach, przedªu»on¡ hiperpolaryzacj¦ taki neuron ma skrócony czas refrakcji i staje si¦ niezwykle podatny na impulsy (rys. 1.6.Q) R. Przystosowanie 23 . Neuron traci swoj¡ wra»liwo±¢ na siln¡, lecz wolno narastaj¡c¡ stymulacj¦ i nie wytwarza impulsu. Chocia» mo»e wystrzeli¢ impuls w odpowiedzi na sªabsze, ale szybciej wzmacniaj¡ce si¦ pobudzenie (rys. 1.6.R) S. Pobudzane hamowaniem pulsowanie 24 . Neuron pozostaje cichy tak dªugo, a» nie ma »adnego impulsu wej±ciowego, generuje impuls na wyj±ciu w momencie hiperpolaryzacji lub wstrzykni¦tego z zewn¡trz pr¡du (rys. 1.6.S) T. Pobudzane hamowaniem wybuchanie 25 . Podobnie do poprzedniej klasy neuronów, z tym »e neurony generuj¡ seri¦ impulsów w odpowiedzi na ci¡gª¡ hiperpolaryzacj¦ (rys. 1.6.T) 17 ang. 18 ang. 19 ang. 20 ang. 21 ang. 22 ang. 23 ang. 24 ang. 25 ang. Rebound Burst Threshold Variability Bistability of Resting and Spiking States Depolarizing After-Potentials prolonged after-hyperpolarization AHP prolonged depolarized after-potential Accommodation Inhibition-Induced Spiking Inhibition-Induced Bursting 20 Rozdziaª 2 Modele neuronów biologicznych Mechanizm funkcjonowania neuronu mo»e by¢ odzwierciedlony na wielu poziomach abstrakcji. Niniejszy rozdziaª stanowi¢ b¦dzie przegl¡d modeli neuronów. Zaprezentowane zostan¡ modele bardzo szczegóªowo odwzorowuj¡ce wªa±ciwo±ci i funkcje ich biologicznych protoplastów, a tak»e takie, które odwzorowuj¡ tylko ich najbardziej podstawowe funkcje. Przy omówieniu wi¦kszo±ci modeli podany zostanie koszt oblicze« numerycznych. model zapisany jako system dynamiczny ẋ = f (x), Eulera pierwszego rz¦du o staªym kroku τ, W celu wyznaczenia tego kosztu, ka»dy zostaª zaimplementowany przy u»yciu metody danej wzorem x(t + τ ) = x(t) + τ f (x(t)). 2.1 Klasykacja modeli neuronów Modele neuronów mog¡ by¢ klasykowane na wiele ró»nych kategorii w zale»no±ci od zastosowanego kryterium. J. Malmivuo wyodr¦bniª cztery przykªadowe kryteria oraz odpowiadaj¡ce im klasykacje modeli neuronów[6]: 1. Opis struktury modelu mo»e by¢ wyra»ony przez: • równania matematyczne (np. równania Hodgkina-Huxleya); • opart¡ na prawach zyki abstrakcyjn¡ konstrukcj¦ (np. model Ecclesa); • konstrukcj¦ analogiczn¡, ale ró»ni¡c¡ si¦ od oryginalnego zjawiska (np. elektroniczny model neuronu). 2. Modele mog¡ opisywa¢ zjawisko w ró»nych koncepcyjnych wymiarach. Aspekty modeli mog¡ obejmowa¢: • struktur¦ (przewa»nie pokazywane na mechanicznym modelu); • funkcj¦ (przewa»nie przedstawiane za pomoc¡ elektronicznego, matematycznego lub komputerowego modelu); 21 • ewolucj¦; • pozycj¦ w hierarchii. 3. Klasykacja wedªug zjologicznego poziomu zjawiska: • poziom wewn¡trz neuronowy (potencjaª spoczynkowy w bªonie, mechanizm generowania impulsów, propagacja impulsu wzdªu» aksonu); • funkcje pobudzenia i odpowiedzi pojedynczego neuronu; • transmisja synaptyczna; • interakcje pomi¦dzy neuronami i grupami neuronów, sieci neuronowe; • psychozjologiczny poziom. 4. Klasykacja wedªug parametrów modelu: • parametry bezczynno±ci (spoczynkowe); • parametry pobudzenia; • parametry regeneracji; • parametry adaptacji. 2.2 Model Integrate-and-re Model leaky integrate-and-re jest prawdopodobnie najbardziej znanym i najszerzej stosowanym modelem neuronu impulsowego. Wynika to gªównie z cech takich jak: przejrzysto±¢ reguª kodowania, mo»liwo±¢ matematycznego analizowania dynamiki sieci oraz wysoka efektywno±¢ symulacji du»ych sieci zªo»onych z tych neuronów. Szczegóªowy opis modelu zostaª przedstawiony przez Gerstnera [3]. Jak widzimy na rysunku 2.1 podstawowy ukªad modelu satora C poª¡czonego równolegle z opornikiem dzieli si¦ na dwie cz¦±ci, tj. przez liniowy opornik R. I(t) = IR +IC . C = q/u, gdzie q IC RC skªada si¦ z konden- zasilany jest pr¡dem Pierwsza cz¦±¢ to rezystancyjny pr¡d IR I(t), który przepªywaj¡cy IR = u/R, gdzie u jest napi¦ciem na zasila kondensator. Z denicji pojemno±ci kondensatora jest ªadunkiem a mo»emy wyznaczy¢ pr¡d kondensatora I(t) = Caªy ukªad Jego warto±¢ z prawa Ohma, wynosi oporniku. Druga cz¦±¢ pr¡du, tj. pr¡d mamy, »e R. integrate-and-re u napi¦ciem na ko«cach kondensatora. IC = Cdu/dt. u(t) du +C . R dt St¡d te», Zatem otrzymujemy [3]: (2.1) 22 integrate-and-re. Rysunek 2.1: Schematyczny wykres modelu ródªo: http://diwww.ep.ch/ gerstner/SPNM/node26.html. Po pomno»eniu równania (2.1) przez τm R i wprowadzeniu staªej τm = RC , dostajemy: du = −u(t) + RI(t), dt (2.2) gdzie potencjaª bªony komórkowej oznaczony zostaª jako W modelach u, a staªa czasowa bªony jako τm . integrate-and-re forma potencjaªu czynno±ciowego nie jest jasno opisana. s¡ zdarzeniami charakteryzowanymi przez czas wystrzaªu t (f ) [3]: t(f ) : u(t(f ) ) = ν. Innymi sªowy, warto±¢ napi¦cia ti (f ) , t(f ) (2.3) u(t) jest porównywana z warto±ci¡ progu ν . to wówczas na wyj±ciu generowany jest impuls δ(t − ti (f ) ). warto±¢ potencjaªu bªony przyjmuje warto±¢ pocz¡tkow¡ lim t→t(f ) ,t>t(f ) Je»eli t > t(f ) Impulsy u(t) = uR . Je»eli u(t) = ν w czasie Niezwªocznie po czasie wystrzaªu ur < ν (2.4) wówczas dynamika jest ponownie liczona ze wzoru (2.2) a» do nast¦pnego zrównania potencjaªu bªony z warto±ci¡ progow¡. W ogólnej postaci nieliniowego modelu τm integrate-and-re du = F (u) + G(u)I. dt równanie (2.2) zamienia si¦ na [3]: (2.5) Podobnie jak w przypadku liniowego modelu w momencie przekroczenia progu pobudzenia na wyj±ciu generowany jest impuls, a warto±¢ potencjaªu bªony ustawiana zostaje na warto±¢ pocz¡tkow¡. Porównanie równa« (2.2) i (2.5) pokazuje, »e G(u) mo»e by¢ interpretowane jako zale»ny −F (u) napi¦ciowo opór na wej±ciu ukªadu, a (u−urest ) odpowiada napi¦ciowo zale»nej staªej rozpadu [3, 5]. 23 Opisane powy»ej modele neuronu stymulowane byªy zewn¦trznym pr¡dem rzeczywistych warunkach, model integrate-and-re I(t). W bardziej stanowi cz¦±¢ wi¦kszej sieci i pr¡d wej±ciowy jest generowany poprzez aktywno±¢ neuronów presynaptycznych. Je±li presynaptyczny neuron (f ) wystrzeli impuls w czasie tj czasowym δ(t − tj (f ) ) , to neuron postsynaptyczny [3]. Ogólnie model n X y˙i = ai + bi yi + integrate-and-re i j odbiera impuls zgodnie z przebiegiem mo»na opisa¢ nast¦puj¡co [5]: sij δ(t − tj ∗ ), (2.6) j=1 gdzie sij jest miar¡ efektywno±ci poª¡czenia mi¦dzy j-tym a i-tym neuronem. Jak mo»emy zauwa»y¢ w lewej cz¦±ci rysunku 2.1 presynaptyczny impuls jest ltrowany w synapsie i tworzy wej±ciowy impuls α(t − tj (f ) ). Caªkowita warto±¢ wej±ciowego pr¡du do neuronu i jest wa»on¡ sum¡ wszystkich impulsów, czyli: Ii (t) = X wij X j gdzie wij α(t − tj (f ) ), (2.7) f jest miar¡ efektywno±ci poª¡czenia mi¦dzy j-tym a i-tym neuronem. Chocia» równanie (2.6) do±¢ dobrze modeluje poª¡czenie synaptyczne, w rzeczywisto±ci proces ten jest znacznie bardziej zªo»ony. warto±ci potencjaªu bªony ui . Amplituda postsynaptycznego impulsu zale»y od aktualnej Ka»dy presynaptyczny potencjaª czynno±ciowy powoduje zmian¦ w warto±ci potencjaªu postsynaptycznego zgodnie ze wzorem czasowym warto±¢ postsynaptycznego pr¡du generowanego przez impuls w czasie g(t − tj (f ) ). tj (f ) Wówczas jest nast¦puj¡ca [3]: α(t − tj (f ) ) = −g(t − tj (f ) )[ui (t) − Esyn ], gdzie parametr Esyn (2.8) oznacza warto±¢ potencjaªu odwrócenia 1 w synapsie. Warto±¢ tego poten- Esyn jest znacznie wi¦ksza od potencjaªu cjaªu zale»y od typu synapsy. Dla synaps pobudzaj¡cych spoczynkowego, natomiast dla synaps hamuj¡cych jest zbli»ony do warto±ci potencjaªu spoczynkowego [3]. Model integrate-and-re przyjmiemy krok τ równy 1 2 nale»y do grupy modeli zwanej pobudliwo±¢ pierwszoklasowa . Gdy ms, to model integrate-and-re staje si¦ modelem najprostszym do za- implementowania. Obliczenie warto±ci potencjaªu bªony w ka»dym kroku wymaga zaledwie 5 operacji zmiennoprzecinkowych (dodawania, mno»enia itp.). re Poniewa» jednak model integrate-and- posiada tylko jedn¡ zmienn¡, nie mo»e prezentowa¢ zachowa«, takich jak: fazowe pulsowanie, wszelkiego rodzaju wybuchanie, odbijaj¡ce odpowiedzi, zmienna warto±¢ progu, dwumodalno±¢ czy samoistna dynamika chaotyczna. Z powodu staªej warto±ci progu impulsy nie mog¡ by¢ utajnione. Inaczej zachowuje si¦ nieliniowy model integrate-and-re. Symulowanie 1 ms pracy tego modelu neuronu wymaga wykonania 7 operacji zmiennoprzecinkowych. utajnienia impulsu, zmiennego progu oraz dwumodalno±ci [5]. 1 ang. 2 ang. reversal potential Class 1 excitable 24 Model ten posiada wªa±ciwo±¢ 2.3 Model Resonate-and-Fire Model resonate-and-re, podobny pod wieloma wzgl¦dami do modelu integrate-and-re, jest naj- prostszym mo»liwym modelem posiadaj¡cym wªa±ciwo±¢ tªumienia drga« potencjaªu bªony. Symulacja 1 ms pracy neuronu zajmuje tylko 10 operacji zmiennoprzecinkowych [5]. Model ten powstaª poprzez zlinearyzowanie nieliniowych równa« modelu neuronu prezentuj¡cego tªumienie drga« potencjaªu bªony. Powstaªy ukªad równa« liniowych: ẋ = bx − ωy ẏ = ωx + by mo»e zosta¢ zapisany w równowa»nej zespolonej formie: ż = (b + iω)z, (2.9) w której oscyluj¡c¡ aktywno±¢ neuronu reprezentuje zmienna zespolona rzeczywista x, (b + iω) ∈ C przypomina zmienn¡ pr¡dow¡, natomiast cz¦±¢ urojona jest parametrem, gdzie spoczynkowego, za± ω>0 b < 0 y Cz¦±¢ zmienn¡ napi¦ciow¡. to szybko±¢ przyci¡gania do warto±ci potencjaªu cz¦sto±ci¡ drga« [7]. Rysunek 2.2: Przykªadowe odpowiedzi modeli resonate-and-re. Mówimy, »e neuron generuje potencjaª czynno±ciowy, gdy zmienna to±¢ progu pobudzenia z = x + iy ∈ C. y = athresh . ródªo: [7]. y = Imz przekroczy war- Na rysunku 2.2 na pªaszczy¹nie zespolonej warto±¢ progu 25 y = 1 zostaªa oznaczona poziom¡ przerywan¡ lini¡, która przechodzi przez punkt neuron wystrzeliª impuls szar na pªaszczy¹nie. z i ∈ C. musi zosta¢ wypchni¦te poza biaªy, otoczony pogrubion¡ krzyw¡, ob- i ∈ C. Krzywa ta jest cz¦±ci¡ rozwi¡zania, które przechodzi przez punkt Ka»de rozwi¡zanie startuj¡ce z tego biaªego obszaru b¦dzie zbie»ne do stanu spoczynku przekraczania progu. By z=0 bez Natomiast ka»de rozwi¡zanie startuj¡ce spoza obszaru biaªego przekroczy warto±¢ progu przed osi¡gni¦ciem stanu spoczynku [7]. Model resonate-and-re mo»e by¢ opisany w formie: z˙i = (bi + iωi )zi + n X cij δ(t − tj ∗ ), (2.10) j=1 gdzie z∈C opisuje stan i-tego neuronu, wag¡ poª¡czenia synaptycznego, δ (b + iω) ∈ C delt¡ Diraca, tj ∗ jest jego wewn¦trznym parametrem, cij ∈ C czasem, w którym j-ty neuron wygenerowaª ostatni impuls czynno±ciowy [7]. Jak widzimy ka»dy wygenerowany przez neuron impuls powoduje zmian¦ aktywno±ci neuronów poª¡czonych z nim o zespolon¡ staª¡ warto±¢ cjaªu czynno±ciowego warto±¢ jest to warto±¢ i ∈ C. zi cij . Po wystrzale poten- przyjmuje warto±¢ pocz¡tkow¡. W przedstawionym przykªadzie Chocia» równania 2.6 i 2.10 wygl¡daj¡ podobnie, maj¡ caªkowicie odmienna dynamik¦, co zostaªo przedstawione na rysunku 2.3. Rysunek 2.3: Porównanie odpowiedzi modelu integrate-and-re 26 oraz resonate-and-re. ródªo: [7]. 2.4 Model Hodgkina-Huxleya Model odwzorowuj¡cy rzeczywiste zachowanie neuronu biologicznego zostaª opisany w 1952 r. przez Hodgkina i Huxleya [8], którzy za to wybitne osi¡gni¦cie zostali nagrodzeni nagrod¡ Nobla w dziedzinie medycyny. Pomocniczy schemat modelu Hodgkina-Huxleya zostaª przedstawiony na rysunku 2.4. Rysunek 2.4: Pomocniczy schemat dla modelu Hodgkina-Huxleya. ródªo: http://diwww.ep.ch/ gerstner/SPNM/node14.html Cz¦±ciowo przepuszczalna bªona komórkowa oddziela wn¦trze komórki od pªynu zewn¡trzkomórkowego dziaªaj¡c jak kondensator. Oprócz kondensatora na schemacie znajduj¡ si¦ równie» trzy oporniki, po jednym dla ka»dego kanaªu jonowego rozwa»anego w modelu. Kanaªy potasu I(t), mo»e on dodat- i sodu s¡ napi¦ciowo zale»ne. Je»eli do komórki zostanie wstrzykni¦ty pr¡d kowo zasili¢ kondensator lub te» wypªyn¡¢ przez kanaªy w bªonie komórki. Z powodu aktywnego transportu jonów przez bªon¦ komórkow¡, koncentracja jonów wewn¡trz komórki ró»ni si¦ od koncentracji jonów w pªynie zewn¡trzkomórkowym. Potencjaª Nernsta wygenerowany przez t¦ ró»nic¦ w koncentracji jest reprezentowany przez ¹ródªa pr¡du. Poniewa» caªkowita warto±¢ pr¡du musi by¢ równa sumie pr¡dów poszczególnych gaª¦zi, otrzymujemy [3]: I(t) = IC (t) + X Ik (t), (2.11) k gdzie suma przebiega po wszystkich kanaªach jonowych. Standardowo w modelu Hodgkina-Huxleya s¡ tylko trzy typy kanaªów: kanaª sodowy z indeksem okre±lony kanaª upªywowy z oporem jest ªadunkiem, za± IC = C du dt . C u R. N a, kanaª potasowy z indeksem Z denicji pojemno±ci kondensatora K C = q/u, i nie- gdzie q napi¦ciem na ko«cach kondensatora, mo»emy wyznaczy¢ zasilaj¡cy pr¡d Zatem z 2.11 mamy X du =− Ik (t) + I(t). dt (2.12) k Jak ju» wspomniano, model Hodgkina-Huxleya opisuje trzy typy kanaªów. Wszystkie kanaªy mog¡ by¢ charakteryzowane przez ich opór, b¡d¹ przez ich przewodno±¢. Kanaª upªywowy okre±lany jest przez napi¦ciowo niezale»n¡ przewodno±¢ 27 gL = 1/R. Przewodno±¢ pozostaªych kanaªów jonowych zale»y zarówno od napi¦cia, jak i czasu. Je»eli wszystkie kanaªy s¡ otwarte, to przewodz¡ one pr¡d z maksymaln¡ przewodno±ci¡, odpowiednio kanaªów jest zablokowana. m, n , zmienne n dziaªanie oraz h. na bramki K lub gK . Przewa»nie jednak cz¦±¢ Prawdopodobie«stwo tego, »e kanaª jest otwarty opisuj¡ dodatkowe Poª¡czenie dziaªania zmiennych + gN a . mih wpªywa na kanaªy N a+ , natomiast Wykorzystuj¡c te zmienne mo»emy wyznaczy¢ warto±¢ sumaryczn¡ pr¡du w poszczególnych gaª¦ziach [3]: X Ik = gN a m3 h(u − EN a ) + gK n4 (u − EK ) + gL (u − EL ). (2.13) k Parametry EN a , EK oraz EL oznaczaj¡ potencjaªy odwrócenia, a warto±ci potencjaªów oraz prze- wodno±ci s¡ wielko±ciami wyznaczonymi do±wiadczalnie. Tablica 2.1: Oryginalne warto±ci równa« Hodgkina-Huxleya. ródªo: [3]. x Ex gx Na 115mV 120mS/cm2 x αx (u/mV ) βx (u/mV ) n (0.1 − 0.01u)/[exp(1 − 0.1u) − 1] 0.125exp(−u/80) 2 m (2.5 − 0.1u)/[exp(2.5 − 0.1u) − 1] 4exp(−u/18) h 0.07exp(−u/20) 1/[exp(3 − 0.1u) + 1] K −12mV 36mS/cm L 10.6mV 0.3mS/cm2 W tabeli 2.1 zostaªy przestawione oryginalne warto±ci wyznaczone do±wiadczalnie przez Hodgkina i Huxleya. wynosi zero. o −65 mV . a potasu C Zmienne Wielko±ci te opieraj¡ si¦ na skali, w której warto±¢ potencjaªu spoczynkowego W celu otrzymania warto±ci akceptowanych obecnie nale»aªoby przesun¡¢ skal¦ Na przykªad, prawidªowe warto±ci potencjaªu odwrócenia sodu to EK = −77 mV . Wstawiaj¡c (2.13) do (2.12) dostajemy: du = −[gN a m3 h(u − EN a ) + gK n4 (u − EK ) + gL (u − EL )] + I(t) dt m, n , oraz h EN a = 50 mV , (2.14) mo»na wyznaczy¢ z nast¦puj¡cych równa«: dm = αm (u)(1 − m) − βm (u)m, dt dn = αn (u)(1 − n) − βn (u)n, dt dh = αh (u)(1 − h) − βh (u)h, dt gdzie funkcje αiβ s¡ empirycznie wyznaczonymi funkcjami napi¦cia, dobranymi przez Hodgkina i Huxleya tak, aby pasowaªy do danych aksonu kaªamarnicy [3]. Równania Hodgkina-Huxleya w nowej konwencji zapisu przyjmuj¡ nast¦puj¡c¡ posta¢ [9]: dV = [I − gN a m3 h(V − VN a ) − gK n4 (V − VK ) + gL (V − VL )]/C, dt dm = αm (V )(1 − m) − βm (V )m, dt 28 (2.15) dn = αn (V )(1 − n) − βn (V )n, dt dh = αh (V )(1 − h) − βh (V )h, dt gdzie: αn (V ) = 0.01(V +55) 1−exp[−(V +55)/10] , αm (V ) = 0.1(V +40) 1−exp[−(V +40)/10] , αh (V ) = 0.07exp[−(V + 65)/20], βn (V ) = 0.125exp[−(V + 65)/80], βm (V ) = 4exp[−(V + 65)/18], βh (V ) = V oznacza potencjaª bªony komórkowej, peraturze 6, 30 C wynosz¡: I 1 1+exp[−(V +35)/10] , pr¡d wstrzykni¦ty do neuronu. Warto±ci staªych w tem- gN a = 120 mmho/cm2 , gK = 36 mmho/cm2 , gL = 0, 3 mmho/cm2 , VN a = 50 mV , VK = −77 mV , VL = −54, 4 mV , C = 1 µF/cm2 . Model Hodgkina-Huxleya jest niezwykle kosztowny w implementacji. Potrzebuje 120 operacji zmiennoprzecinkowych do symulacji 0,1 ms, zatem a» 1200 opearacji/1 ms. Z tego powodu nadaje si¦ gªównie do symulowania niewielkiej ilo±ci neuronów lub w przypadku kiedy czas symulacji nie odgrywa znacz¡cej roli [5]. 2.5 Model FitzHugh-Nagumo Omówiony powy»ej model Hodgkina-Huxleya najwierniej odtwarza biologiczne wªa±ciwo±ci neuronu, jednak»e posiada te» ogromn¡ wad¦, du»¡ zªo»ono±¢ obliczeniow¡. FitzHugh pokazaª, »e równania tego modelu mog¡ by¢ zredukowane do dwuwymiarowego ukªadu równa«, których dynamika jest bardzo bliska dynamice peªnego czterowymiarowego modelu [10]. Rysunek 2.5: Wykresy funkcji dla m∞ (V ), n∞ (V ), h∞ (V ), τm (V ), τn (V ), τh (V ). 29 ródªo: [9]. Przyjmuj¡c m(0) = 0, V jako staª¡ warto±¢, mo»emy rozwi¡za¢ równania 2.15. Na przykªad, zakªadaj¡c otrzymujemy: m(t) = m∞ (V )(1 − e−t/τm (V ) ), m∞ (V ) ≡ gdzie αm αm +βm , τm (V (2.16) 1 αm +βm Dla zmiennych )≡ Rysunek 2.5 przedstawia wykresy funkcji Jak widzimy staªa czasowa ±ci V. τm to±ci V dn/dt, m∞ (V ), n∞ (V ), h∞ (V ), τm (V ), τn (V ), τh (V ). jest znacznie mniejsza ni» staªe Zatem mo»emy wnioskowa¢, »e zmienna To sugeruje, »e mo»emy zamieni¢ do wyliczenia oraz dh/dt m∞ , n i h otrzymujemy podobne rozwi¡zania. m τn i τh dla wszystkich warto- ewoluuje znacznie szybciej od zmiennych n i h. m(t) w modelu Hodgkina-Huxleya na m∞ (V (t)), czyli u»y¢ war- a nast¦pnie u»y¢ tej warto±ci jako m po prawej stronie równa« dV /dt, [9]. Poprawno±¢ tego przybli»enia zostaªa ukazana na rysunku 2.6. FitzHugh zaobserwowaª, »e je»eli równania Hodgkina-Huxleya generuj¡ okresowe potencjaªy czynno±ciowe, zachodzi nast¦puj¡ce przybli»enie: n(t) + h(t) ≈ 0.8 [9]. Po uproszczeniach dostajemy nast¦puj¡cy dwuwymiarowy ukªad równa«: dV = [I − gN a [m∞ (V )]3 (0.8 − n)(V − VN a ) − gK n4 (V − VK ) + gL (V − VL )]/C, dt dn = αn (V )(1 − n) − βn (V )n. dt (2.17) Jako±ciowy model, który odwzorowuje zachowanie modelu Hodgkina-Huxleya dany jest nastepuj¡cymi równaniami FitzHugh-Nagumo [9]: dv = F (v) − w + I, dt dw = v − γw, dt gdzie: F (v) = v(1 − v)(v + a), 1 (2.18) oraz a, γ s¡ staªymi. Równania FitzHugh-Nagumo w po- równaniu z równaniami (2.17) operuj¡ na znacznie prostszych funkcjach. Przy symulacji trwaj¡cej 0,25 ms potrzeba 18 operacji zmiennoprzecinkowych, co daje 72 operacje w ci¡gu 1 ms symula- cji. Poniewa» model jest dwuwymiarowym systemem bez resetu, nie mo»e prezentowa¢ samoistnej dynamiki chaotycznej lub wybuchania [5]. 30 Rysunek 2.6: Niebieska linia odpowiada m(t) liczonej z peªnego modelu HH, czerwona Rysunek 2.7: Przebieg n(t) + h(t). 31 ródªo: [9]. m∞ (V (t)). ródªo: [9]. 2.6 Model Morrisa-Lecara Morris i Lecar zaproponowali prosty dwuwymiarowy model opisuj¡cy dziaªanie komórki mi¦±niowej w¡sonoga. Schematyczny obraz modelu Morrisa-Lecara (ML) przedstawiony zostaª na rysunku 2.8. Podobnie jak w przypadku modelu Hodgkina-Huxleya, model Morrisa-Lecara charakteryzuj¡ dwie Rysunek 2.8: Schemat modelu Morrisa-Lecara. ródªo: [11]. szybkie przewodno±ci wych. (gCa , gK ), które przyczyniaj¡ si¦ do powstawania potencjaªów czynno±cio- Jednak»e w modelu ML do wn¦trza skierowany jest pr¡d wapniowy, a nie sodowy jak w przypadku modelu Hodgkina-Huxleya. Dodatkowo, by model ML mógª generowa¢ seri¦ impulsów 3 w odpowiedzi na pobudzenie, zostaª wyposa»ony w wewn¦trzny zbiornik z wapniem oraz wapniowo zale»n¡ przewodno±¢ potasu. Model Morrisa-Lecara deniuj¡ przedstawione poni»ej równania [11]: Cm dVm = Istim − gCa m∞ (Vm − ECa ) − gK n(Vm − EK ) − gL (Vm − EL )− dt [Ca] (Vm − EK ), − gK(Ca) [Ca] + K d[n] n∞ − n , = dt τn d[Ca] = k1 ICa − k2 [Ca]. dt (2.19) Równania 2.19 dla potencjaªu bªony Vm niuj¡cych model Hodgkina-Huxleya. potasowego [Ca] IK(Ca) . Aktywacj¦ gK(Ca) oraz dla aktywacji potasu n s¡ podobne do tych de- Nowo±ci¡ jest dodanie wapniowo aktywizowanego pr¡du determinuje funkcja koncentracji wapnia opisuje równanie, w którym pr¡d wapniowy (k1 ICa ) w wewn¦trznym zbiorniku wapniowym, natomiast pr¡d 3 tj. bursting 32 [Ca] [Ca]+K , gdzie przyczynia si¦ do zwi¦kszenia wapna (−k2 ICa ) do jego zmniejszenia [11]. Rysunek 2.9: Przykªadowe odpowiedzi modelu Morrisa-Lecara. ródªo: [11]. Gdy wewn¦trzny zbiornik z wapniem oraz wapniowo aktywizowana przewodno±¢ nie zostanie wª¡czona do równa«, model Morrisa-Lecara b¦dzie zachowywa¢ si¦ podobnie do modelu HodgkinaHuxleya, generuj¡c pojedyncze impulsy w odpowiedzi na pobudzenie. modelu Morrisa-Lecara uwzgl¦dnione zostaªy tylko dwie zmienne, tj. Poniewa» w zubo»onym potencjaª bªony (V) oraz aktywno±¢ potasu, model ten jest znacznie prostszy od modelu Hodgkina-Huxleya. Równania opisuj¡ce model dane s¡ nast¦puj¡co [5]: dV = I − gL (V − VL ) − gCa m∞ (V − VCa ) − gK n(V − VK ), dt dn = λ(V )(n∞ (V ) − n), dt C (2.20) gdzie: m∞ (V ) = 1 (V − V1 ) ]}, {1 + tanh[ 2 V2 (V − V3 ) 1 {1 + tanh[ ]}, 2 V4 (V − V3 ) ]. λ(V ) = λcosh[ (2V4 ) n∞ (V ) = Parametry modelu u»ywane w symulacjach: C = 20 µF/cm2 , gL = 2 mmho/cm2 , VL = −50 mV , gCa = 4 mmho/cm2 , VCa = 100 mV , gK = 8 mmho/cm2 , VK = −70 mV , V1 = 0 mV , V2 = 15 mV , V3 = 10 mV , V4 = 10 mV , λ = 0, 1 s−1 , I(µA/cm2 ). Model prezentuje ró»ne typy pulsowania. Jednak»e zachowanie typu fazowe wychuchanie 4 zachodzi tylko wtedy, kiedy dodane zostanie dodatkowe równanie opisuj¡ce dezaktywacj¦ pr¡du wapniowego. Przy warto±ci kroku do symulacji 1 4 tonic ms τ = 0, 1 ms potrzeba okoªo 600 operacji zmiennoprzecinkowych pracy neuronu [5]. bursting 33 2.7 Model Hindmarsha-Rose Hindmarsh i Rose zaproponowali kilka modeli neuronów, z których najwi¦ksz¡ popularno±¢ zyskaª model charakteryzuj¡cy si¦ wybuchowym generowaniem impulsów. Podstaw¦ tego modelu stanowi zmodykowany model FitzHugh-Nagumo. Model ten mo»e generowa¢ oscylacje z dªugimi przerwami mi¦dzy impulsami. Stanowi najprostsz¡ matematyczn¡ reprezentacj¦ fenomenu uwalniania wybuchowych oscylacji jakie wyst¦puj¡ w biologicznych komórkach neuronowych [12, 13]. Symulacja 1 ms pracy neuronu wymaga 120 operacji zmiennoprzecinkowych [5]. Pocz¡tkowo model Hindmarsha-Rose (HR) posiadaª dwie zmienne, jedn¡ dla potencjaªu bªony oraz drug¡ odpowiedzialn¡ za przystosowanie w kanaªach jonowych. Ogólne równania dla modelu HR s¡ nast¦puj¡ce [12]: dV = α(βr − f (V ) + I), dt dW = γ(g(V ) − δr) dt gdzie I (2.21) oznacza dostarczony pr¡d, natomiast g(V ) α, β, γ oraz δ s¡ staªymi propagacji, f (V ) jest funkcj¡ sze±cienn¡, funkcj¡ nieliniow¡. Wstawiaj¡c za zmienne zmiennymi, gdzie: x V i W w równaniu 2.21 zmienne oznacza potencjaª bªony, y xiy dochodzimy do modelu z trzema wewn¦trzny pr¡d, a z powolny pr¡d adaptacyjny. Równania przyjmuj¡ nast¦puj¡c¡ posta¢ [14]: dx = y − f (x) − z + I, dt dy = g(x) − y, dt dz = (h(x) − z), dt gdzie I (2.22) reprezentuje zaaplikowany pr¡d, f (x) i g(x) s¡ funkcjami dobranymi eksperymentalnie: f (x) = ax3 − bx2 , g(x) = c − dx2 , (2.23) jest skal¡ czasow¡ powolnego pr¡du adaptacyjnego, za± h(x) jest skal¡ wpªywu powolnej dynamiki, która determinuje sposób w jaki neuron odpowie na pobudzenie czy b¦dzie to pojedynczy impuls czy te» seria impulsów w tzw. trybie wybuchowym. Na rysunku 2.10 A pokazano ró»ne wzorce odpowiedzi neuronu. Jak wida¢, dla ró»nych warto±ci doprowadzanego pr¡du I, model Hindmarsha-Rose wytwarza krótkie, dªugie lub nieregularne (chaotyczne) serie impulsów. Rysunek 2.10 B przedstawia przykªad serii impulsów generowanych przez dwa powi¡zane ze sob¡ hamuj¡ce neurony. 34 Rysunek 2.10: Ró»ne wzorce odpowiedzi modeli Hindmarsha-Rose. ródªo: [12]. Pierwszy trójwymiarowy model zostaª zaproponowany przez Hindmarsha i Rose w 1984 r. Równania opisuj¡ce model w zasadzie s¡ takie same jak równania (2.23), z tym »e h(x) zostaªa zdeniowane jako funkcja liniowa postaci [14, 13]: h(x) = s(x − x∗ ), gdzie (x∗ , y ∗ ) s¡ wspóªrz¦dnymi punktu równowagi poªo»onego najbardziej na lewo w modelu 2.22 bez adaptacji (I = 0). Model Hindmarsha-Rose'84 deniowany jest równaniami [14]: dx = y − ax3 + bx2 − z + I, dt dy = c − dx2 − y, dt dz = (s(x − x∗ ) − z). dt (2.24) Parametry u»ywane do symulacji s¡ nast¦puj¡ce: x∗ = √ −1− 5 , 2 I = 3, 25. 35 a = 1, b = 3, c = 1, d = 5, = 0, 005, s = 4, Drugi trójwymiarowy model Hindmarsha-Rose zostaª zaproponowany w 1985 r. I tutaj równie» jedyn¡ ró»nic¡ w stosunku do modelu 2.22 jest funkcja h(x) = K gdzie K oraz µ poprzez zmian¦ h(x) postaci [14]: µ(x+1+k) − 1 , µ(1+2k)−1 (2.25) s¡ staªymi. Funkcja ta zostaªa dobrana tak, aby jej spadek mógª by¢ zmieniany µ bez przenoszenia punktu równowagi oraz by: h(−1 − k) = 0. Model Hindmarsha-Rose'85 opisuj¡ nast¦puj¡ce równania [14]: dx = y − ax3 + bx2 − z + I, dt dy = c − dx2 − y, dt (2.26) µ(x+1+k) − 1 dz = (K (1+2k)−1 − z). dt µ Parametry modelu u»ywane w symulacjach: K = 2, k = √ −1+ 5 , 2 a = 1, b = 3, c = 1, d = 1, 077, = 0, 005, µ = 4, 3, I = 4, 5. 2.8 Model Izhikevicha Izhikevich zaproponowaª model neuronu, ª¡cz¡cy w sobie biologiczne prawdopodobie«stwo do modelu Hodgkina-Huxleya z numeryczn¡ efektywno±ci¡ modelu integrate-and-re [15]. W zale»no±ci od czterech parametrów model generuje impulsowe lub wybuchowe zachowanie wyst¦puj¡ce w neuronach kory. Na rysunku 2.11 przedstawiono porównanie zachowania komórki neuronowej w korze ruchowej szczura oraz zachowanie modelu Izhikevicha. Model Izhikevicha deniuj¡ nast¦puj¡ce równania [15]: dv = 0.04v 2 + 5v + 140 − u + I, dt du = a(bv − u) dt (2.27) wraz z pomocniczymi wzorami resetowania modelu po wygenerowaniu impulsu: je±li v ≥ 30mV, wtedy W powy»szych równaniach v ← c, u ← u + d, a, b, c oraz d (2.28) s¡ parametrami, zmienna tycznego lub wstrzykni¦tego bezpo±rednio do modelu. bªony neuronu, a zmienna I to wielko±¢ pr¡du synap- Natomiast zmienna v oznacza potencjaª u reprezentuje powrót bªony do stanu równowagi, co wynika z aktywacji pr¡du potasowego oraz inaktywacji pr¡du sodowego. W momencie, gdy potencjaª czynno±ciowy osi¡gnie szczyt (+30 mV ), warto±ci zmiennych resetowane s¡ zgodnie z równaniami (2.28). Na- le»y z naciskiem podkre±li¢, »e warto±¢ +30 mV nie powinna by¢ kojarzona z warto±ci¡ progow¡ neuronu [15]. 36 Rysunek 2.11: Porównanie odpowiedzi neuronów kory ruchowej szczura i modelu Izhikevicha. ródªo: [15]. Cz¦±¢ 0.04v 2 + 5v + 140 równania (2.27) zostaªa otrzymania przez dopasowywanie dynamiki pocz¡tkowania impulsów w komórce nerwowej kory tak, aby potencjaª bªony wyra»aª si¦ w a czas w ms. Potencjaª spoczynkowy modelu znajduje si¦ pomi¦dzy warto±ciami -70 a -60 w zale»no±ci od warto±ci parametru b. mV , mV , Tak jak wi¦kszo±¢ rzeczywistych modeli, model ten nie posiada staªego progu. W zale»no±ci od historii potencjaªów bªony przed impulsem, próg potencjaªu mo»e przyjmowa¢ zarówno warto±ci okoªo -55 mV lub -40 mV [15]. Na rysunku 2.12 gracznie zaznaczono parametry modelu Izhikevicha. Parametr a oznacza czas jaki potrzebny jest by neuron powróciª do stanu spoczynku. Mniejsze warto±ci powoduj¡ wolniejsze dochodzenie modelu do warto±ci spoczynkowej. Najcz¦±ciej b opisuje wra»liwo±¢ zmiennej mocniej wi¡»e zmienne v i u u to -65 mV . v. Wi¦ksza warto±¢ powoduj¡c pojawianie si¦ podprogowych oscylacji oraz generowanie Typowa warto±¢ tego parametru to 0,2. stanowi warto±¢, na któr¡ ustawiany zostaje potencjaª bªony c przyjmuje warto±¢ 0,02. Parametr na podprogowe wahania potencjaªu bªony impulsów przy obni»onej warto±ci progu. warto±¢ dla a Ostatni parametr d v 37 c po wypuszczeniu impulsu. Typowa modeluje zmian¦ zmiennej potencjaªu czynno±ciowego. Przewa»nie przyjmuje warto±¢ 2. Parametr u po wygenerowaniu Rysunek 2.12: Graczna interpretacja parametrów modelu Izhikevicha. ródªo: [15]. Model Izhikevicha mo»e odwzorowywa¢, przy odpowiednim doborze parametrów a, b, c, d, wszystkie znane typy neuronów kory. Potrzeba tylko 13 operacji zmiennoprzecinkowych do symulacji 1 ms. Przy ustawieniach danych nast¦puj¡co: (a, b, c, d) = (0.2, 2, −56, −16) i I = −99 model wykazuje zachowanie chaotyczne [5]. 2.9 Model FC 5 Model FC , którego jestem wspóªautork¡, jest kompromisem pomi¦dzy biologiczn¡ poprawno±ci¡ a obliczeniow¡ efektywno±ci¡, stworzonym z my±l¡ o symulowaniu przebiegu impulsów »ywej komórki nerwowej. FC obejmuje zjawiska takie jak: osªabianie wra»liwo±ci na zewn¦trzne pobudzanie, opó¹nianie i osªabianie potencjaªów postsynaptycznych, modykacj¦ wewn¦trznych wag wynikaj¡c¡ z propagacji potencjaªów postsynaptycznych wzdªu» dendrytu, modykacj¦ wªa±ciwo- 6 ±ci pami¦ci dla ka»dego wej±cia zgodnie ze wzorem dªugotrwaªego wzmocnienia synaptycznego , generowanie impulsu kiedy suma potencjaªów wszystkich wej±¢ przekroczy próg oraz refrakcj¦ [16]. Przy modelowaniu neuronów, ich podobie«stwo do biologicznych odpowiedników oraz efektywno±¢ obliczeniowa s¡ przeciwstawnymi celami. Dlatego te», tylko najistotniejsze cechy biologicznych neuronów powinny zosta¢ wzi¦te pod uwag¦, tak aby nie zwi¦ksza¢ zªo»ono±ci obliczeniowej modelu ponad konieczno±¢ [17]. St¡d te» przyj¦li±my, »e dla pojedynczego neuronu przynajmniej nast¦puj¡ce zjawiska neurozjologiczne powinny zosta¢ uwzgl¦dnione: 1. Ka»dy sygnaª wej±ciowy powoduje zmian¦ pobudzaj¡cego nego potencjaªu. Istniej¡ typowe wzory ich wzmacniania lub osªabiania. ceptowane s¡ neurozjologiczne dane, takie jak: 5 ang. 6 ang. 7 ang. 8 ang. 7 lub hamuj¡cego8 postsynaptycz- Firing Cell long term potentiation (LTP) excitatory postsynaptic potential, EPSP inhibitory postsynaptic potential, IPSP 38 Powszechnie ak- przebiegi czasowe, amplitudy potencjaªu czynno±ciowego, oraz próg pobudzenia powoduj¡cy potencjaª czynno±ciowy oraz odblokowywanie kanaªów NMDA [18, 19, 20]. 2. Je»eli skumulowany lokalny potencjaª postsynaptyczny przekroczy warto±¢ lokalnego progu (okoªo -70mV), receptor NMDA powoduje otwarcie zablokowanych kanaªów wapniowych i tym samym zachodzi fenomen dªugotrwaªego wzmocnienia synaptycznego (LTP) i aktywacji dªugotrwaªej pami¦ci zwi¡zanej z danym wej±ciem [20, 21]. 3. Zmiana wag w wyniku propagacji potencjaªu postsynaptycznego wzdªu» dendrytu oraz nieliniowa kumulacja potencjaªu dla funkcji progowej [22]. Model FC mo»e wyst¦powa¢ w trzech wersjach: jako neuron pobudzaj¡cy, hamuj¡cy lub receptor. Na rysunku 2.13 zostaªa przedstawiona ogólna budowa modelu. Jak mo»na zauwa»y¢, model skªada si¦ z dendrytu, ciaªa komórki oraz aksonu. Dendryt zªo»ony jest z ci¡gu kompartmentów, z których ka»dy posiada wej±cie synaptyczne, pobudzaj¡ce lub hamuj¡ce, stanowi¡ce substytut wielu synaps biologicznych. Rysunek 2.13: Budowa modelu FC. ródªo: Opracowanie Jacek Biaªow¡s. Model FC wyposa»ony jest w trzy rejestry, po jednym dla wej±¢ pobudzaj¡cych (E ), wej±¢ hamuj¡cych (I ) oraz stanu pami¦ci (M ). Rejestry skªadaj¡ si¦ z tabel danych odpowiednio powi¡zanych z wej±ciami neuronu. Pierwsza warto±¢ w ka»dej tabeli zarezerwowana jest na aktualn¡ warto±¢ aktywacji odpowiedniego wej±cia. Po wykryciu potencjaªu czynno±ciowego w synapsie, warto±ci odpowiedniej tabeli w rejestrze s¡ zmieniane zgodnie z staªymi czasowymi dla EPSP i IPSP. Uaktualnienie rejestrów dla i-tego kompartmentu zachodzi wedªug wzoru: Ei,k (t + 1) = Ei,k (t) + A(i)M (i)PE (k), Ii,k (t + 1) = Ii,k (t) + PI (k), (2.29) Mi,k (t + 1) = Mi,k (t) + PM (k), gdy Si (t) ≥ CaM T. W powy»szych zale»no±ciach PE (k), PM (k) (PI (k)) k-tej komórki w przedziale. Si (t) funkcj¦ pami¦ci, natomiast CaM T oznaczaj¡ staª¡ wielko±¢ EPSP (IPSP) dla stanowi sumaryczny potencjaª, A(i) próg otwarcia kanaªu wapniowego. 39 funkcj¦ adaptacji, M (i) Rysunek 2.14: Przekrój synapsy w modelu FC. ródªo: Opracowanie Jacek Biaªow¡s. Na rysunku 2.14 przedstawiony zostaª przekrój synapsy w modelu Firing Cell. Uruchomienie 9 wymaga zbiegni¦cia si¦ w czasie sygnaªu pobudzaj¡- zjawiska dªugotrwaªej pami¦ci synaptycznej cego i otwarcia kanaªu wapniowego. W dendrycie uwzgl¦dniono funkcj¦ adaptacji A(i), która dla i-tego przedziaªu przyjmuje posta¢: A(i) = gdzie Rep (ReP − Rsp) − (ReP − Si (t)) , (ReP − Rsp) oraz Rsp s¡ parametrami, za± Si (t+1) = ReP + NE X Si (t) (2.30) sumarycznym potencjaªem: (Em,0 (t)−ReP )Inf (m, i)+ gdzie N , N I, N E oraz 1−LSW (N −1) 4 N (a LSW (Im,0 (t)−ReP )Inf (m+N E, i) (2.31) m=1 m=1 1− Inf (a, b) = 1 − 0, NI X (b − a), − b), gdy b ≥ a, gdy (a − b) N 4, (2.32) poza. to parametry, za± Ei,0 oraz Ii,0 cjaªów pobudzaj¡cych i hamuj¡cych dla i-tego przedziaªu. warto±ci aktualne w rejestrze poten- M (i) oznacza funkcj¦ pami¦ci w i-tym przedziale, liczon¡ ze wzoru: M (i) = 1 + ln (Ci (t) + 1) , 6clog (2.33) Ci (t + 1) = Ci (t) + exp(10(Mi,0 (t) − ReP )) − 1, z dodatkowym warunkiem: je±li Ci (t + 1) > F Q wtedy (2.34) Ci (t + 1) ← Ci (t + 1) − F Q. C(i) tutaj ªadunek pami¦ci wapniowej dla i-tego przedziaªu, clong , F Q, ReP oznacza s¡ parametrami, a Mi,0 aktualn¡ warto±ci¡ pami¦ci wapniowej w rejestrze. 10 , Ogólny schemat dziaªania modelu zostaª zaprezentowany na rysunku 2.15. W ka»dym kroku je»eli neuron nie znajduje si¦ w stanie refrakcji, sprawdzane s¡ warto±ci w synapsach i dalej we- 9 ang. long term potentiation 10 1 krok = 0,5 msec 40 Rysunek 2.15: Schemat dziaªania modelu FC. ródªo: Opracowanie Jacek Biaªow¡s. dªug wzorów 2.29 odpowiednio uaktualniane warto±ci w rejestrach. Nast¦pnie zostaj¡ wyznaczone warto±ci wa»onej sumy wszystkich potencjaªów synaptycznych ze wzoru: P SP (t + 1) = ReP + NE X W (i)(Em,0 (t) − ReP ) + parametry, a W (i) Em,0 Im,0 (2.35) P SP < KEP wtedy P SP ← KEP . ReP , KEP oznaczaj¡ aktualne warto±ci w rejestrze potencjaªów pobudzaj¡cych i hamuj¡cych, waga dla i-tego kompartmentu: W (i) = gdzie i je±li (Im,0 (t) − ReP ) m=1 m=1 z dodatkowym warunkiem: NI X 1 − LSW (i − N E) + 1, NE − 1 LSW , N E s¡ parametrami. przekracza warto±¢ progu (-50 (2.36) Je»eli warto±¢ skumulowanego potencjaªu postsynaptycznego mV ), to neuron generuje impuls na wyj±ciu aksonu, za± warto±ci wszystkich rejestrów ustawiane s¡ na warto±¢ pocz¡tkow¡, a neuron wchodzi w stan refrakcji na 1,5 msec. W przeciwnym razie warto±ci w rejestrach s¡ przesuwane, co odzwierciedla upªyw czasu. 41 Warto±ci w rejestrach zmieniaj¡ si¦ zgodnie z nast¦puj¡cymi formuªami: Ei,k (t + 1) = Ei,k+1 , gdy ReP , poza; Mi,k (t + 1) = ReP , thresh (2.37) Mi,k+1 , gdy ReP , poza; Ii,k+1 , Ii,k (t + 1) = Ii,k+1 , I (t), i,k gdzie P SP < thresh, P SP < thresh, (2.38) gdy (P SP ≥ ReP ) gdy (P SP < ReP ) i (Di (t) 0) i (Li (t) = sleepC), lub (P SP < ReP ) i (Di (t) > 0), (2.39) poza, s¡ parametrami, P SP suma wszystkich potencjaªów w neuronie, Di i Li funk- cjami opó¹niania i osªabiania wpªywu potencjaªów hamuj¡cych. 6, Di (t + 1) = Di (t) − 1, D (t), i Li (t) + 1, Li (t + 1) = 0, L (t), i gdzie P SP gdy InInh(i) = 1, gdy (P SP < ReP ) i (Di (t) > 0), (2.40) poza; gdy Di (t) 0 i P SP < ReP, gdy Li (t) = sleepC, (2.41) poza, jest potencjaªem sumarycznym w neuronie, ReP oraz sleepC s¡ parametrami, a InInh(i) hamuj¡cym impulsem wej±ciowym w i-tej synapsie. 2.10 Porównanie wªa±ciwo±ci modeli neuronów Omówione powy»ej modele w wi¦kszo±ci nale»¡ do najpowszechniej u»ywanych modeli neuronów impulsowych oraz wybuchowych 11 . Porównanie tych modeli zostaªo przedstawione na rysunku 2.16. Przy porównaniu wzi¦to pod uwag¦ najwa»niejsze cechy i charakterystyki neuronu opisane w rozdziale 1 (patrz 1.8). Uwzgl¦dniono równie» cechy takie jak: znaczenie biozyczne, mierzalno±¢ parametrów modelu, zdolno±¢ do prezentowania przez model samoistnych zachowa« chaotycznych. Jak mo»emy zauwa»y¢ na rysunku 2.16 model Hodgkina-Huxleya prezentuje wszystkie z rozwa»anych cech i wªa±ciwo±ci modeli neuronów, jednak»e jest modelem najbardziej kosztownym obliczeniowo. Z kolei najmniej kosztownym modelem jest integrate-and-re, który prezentuje zale- dwie najbardziej fundamentalne wªa±ciwo±ci impulsowych neuronów kory. Jedyn¡ du»¡ zalet¡ tego 11 ang. bursting 42 Rysunek 2.16: Porównanie wªa±ciwo±ci modeli neuronów. ródªo: [5]. modelu jest jego liniowo±¢, przez co nadaje si¦ on do wszelkich analiz matematycznych. tic integrate-and-re Quadra- jest praktycznie tak efektywny jak jego liniowy odpowiednik, przewa»aj¡c prezentacj¡ wielu wa»nych wªa±ciwo±ci biologicznych neuronów, takich jak: ukryte impulsy oraz bistabilno±¢. Z powodu jednowymiarowo±ci niestety nie przedstawia wybuchania czy te» adaptacji cz¦stotliwo±ci impulsów. Model Izhikevicha prezentuje wszystkie porównywane cechy z wyj¡tkiem znaczenia biozycznego i plasuje si¦ na najwy»szym miejscu w±ród modeli, je»eli pod uwag¦ we¹miemy stosunek biologicznego podobie«stwa do kosztów implementacji. 43 Rozdziaª 3 Sieci neuronów biologicznych Modele neuronów impulsowych z wi¦ksz¡ ni» tradycyjne modele dokªadno±ci¡ próbuj¡ uchwyci¢ bogat¡ dynamik¦ rzeczywistych struktur neuronowych. Przykªadowo, tak jak w przypadku prawdziwych neuronów, komunikacja mi¦dzy nimi zachodzi za pomoc¡ impulsów. W rozdziale tym zostanie przedstawiona ogólna koncepcja impulsowych sieci neuronowych oraz ich wady i zalety na tle konwencjonalnych sztucznych sieci neuronowych. Zaprezentowana zostanie równie» ogólna teoria oblicze« pªynowych oraz maszyn pªynowych zbudowanych z neuronów impulsowych. 3.1 Sieci neuronów impulsowych Oryginaln¡ inspiracj¡ sztucznej sieci neuronowej byªa budowa naturalnych ukªadów nerwowych, a w szczególno±ci mózgu. Tradycyjnie wierzono, »e neurony komunikuj¡ si¦ ze sob¡ u»ywaj¡c 1 w tym celu ±redniej warto±ci szybko±ci wysyªania impulsów . Innymi sªowy, twierdzono »e neuron odbiera informacj¦ od innego neuronu poprzez zliczanie ilo±ci impulsów otrzymanych od tego neuronu w trakcie relatywnie dªugiego okresu czasu oraz okre±lenie ±redniego odst¦pu czasu pomi¦dzy impulsami. Ten typ kodowania informacji znany jest jako kodowanie szybko±ciowe 2 . Wi¦kszo±¢ sztucznych sieci neuronowych u»ywa tego typu kodowania w formie rzeczywistych warto±ci reprezentuj¡cych poziom aktywacji [23]. Ostatnie odkrycia w neurozjologii zach¦ciªy poszukiwania alternatywnych schematów kodowania w sztucznych sieciach neuronowych. W mózgu naczelnych odkryto neurony, które wybiórczo odpowiadaªy na zªo»one wizualne pobudzenie ju» w czasie 100-150 ms po prezentacji pobudzenia. Informacja ta przetwarzana byªa ±rednio przez 10 warstw pomi¦dzy pocz¡tkowym a ko«cowym etapem rozpoznania bod¹ca. Maj¡c te dane ªatwo mo»na wyznaczy¢, »e na ka»dy etap przetwarzania przypadaªo zaledwie 10 1 ang. 2 ang. ms, co w istocie wyklucza kodowanie szybko±ciowe jako metody przekazy- mean ring rate rate coding 44 wania informacji, a dowodzi istnienia w mózgu innego sposóbu kodowania informacji. Najbardziej 3 obiecuj¡c¡ alternatyw¡ wydaje si¦ tu kodowanie czasowe , które umo»liwia transmisj¦ ogromnej ilo±ci danych przy pomocy zaledwie kilku impulsów, to znaczy jednego czy te» »adnego dla ka»dego neuronu wª¡czonego w przetwarzanie tego specycznego zadania [23]. Wolfgang Maass w [24] wyró»niª trzy generacje sieci neuronowych. Pierwsz¡ generacj¦ stanowi¡ sieci, które jako podstawowych jednostek strukturalnych u»ywaj¡ modelu neuronu McCullochaPittsa. W tej klasie mo»emy wyró»ni¢ sieci neuronowe, takie jak: wielowarstwowe perceptrony, sieci Hopelda oraz maszyny Boltzmanna. Przykªadowa sie¢ wielowarstwowa, zªo»ona z perceptronów zostaªa przedstawiona na rysunku 3.1. Charakterystyczn¡ cech¡ modeli modeli pierwszej generacji jest to, »e mog¡ one dawa¢ tylko cyfrowe wyj±cie. Stanowi¡ uniwersalne narz¦dzie do oblicze« z cyfrowym wej±ciem i wyj±ciem, a ka»da funkcja logiczna mo»e by¢ obliczona przy pomocy wielowarstwowego perceptronu z jedn¡ warstw¡ ukryt¡. Rysunek 3.1: Wielowarstwowy perceptron. ródªo: http://wiki.isir.is/wiki/. Druga generacja sieci neuronowych opiera si¦ na neuronach z funkcj¡ aktywacji z ci¡gªym zbiorem mo»liwych warto±ci odpowiedzi na wa»on¡ sum¦ wej±cia. Typowe przykªady to sieci sigmoidalne ze sprz¦»eniami zwrotnymi (patrz rysunek 3.2) lub bez sprz¦»e« zwrotnych. Zostaªo dowiedzione, »e sieci neuronowe drugiej generacji potra¡ oblicza¢ pewne funkcje logiczne z mniejsz¡ ilo±ci¡ bramek ni» sieci neuronowe pierwszej generacji. Dodatkowo, sieci drugiej generacji potra¡ wyznacza¢ funkcj¦ z analogowym wej±ciem i wyj±ciem. W istocie sieci te z jedn¡ tylko warstw¡ ukryt¡, z do±¢ dobr¡ dokªadno±ci¡ aproksymuj¡ ka»d¡ ci¡gª¡ funkcj¦. Kolejn¡ wa»n¡ cech¡ charakterystyczn¡ tej generacji sieci neuronowych jest to, »e umo»liwiaj¡ one u»ycie gra- 4 dientowych metod uczenia, takich jak metoda uczenia ze wsteczn¡ propagacj¡ bª¦du . Sieci tej generacji maj¡ równie» interpretacje biologiczn¡, bowiem wyj±cie sigmoidalnego neuronu mo»e by¢ traktowane jako cz¦sto±¢ emitowania impulsów biologicznego neuronu. Poniewa» biologiczne neurony, zwªaszcza w wy»szych obszarach kory, znane s¡ z wypuszczania impulsów w ró»nych ±rednich 3 ang. 4 ang. temporal coding backpropagation method 45 Rysunek 3.2: Rekurencyjna sie¢ neuronowa. ródªo: http://www.science.uva.nl. cz¦stotliwo±ciach, pomi¦dzy ich minimaln¡ i maksymaln¡ cz¦stotliwo±ci¡, sieci drugiej generacji, z uwagi na ich interpretacje s¡ bardziej biologicznie realistyczne ni» sieci pierwszej generacji. Trzecia generacja modeli sieci neuronowych u»ywa neuronów impulsowych jako podstawowych jednostek strukturalnych. Typowa impulsowa sie¢ neuronowa wraz z przedstawionym wej±ciem i wyj±ciem sieci zostaªa przedstawiona na rysunku 3.3. Modele nale»¡ce do trzeciej generacji tak»e nie dostarczaj¡ kompletnego opisu wyj¡tkowo zªo»onych funkcji biologicznego neuronu i podobnie jak poprzednie generacje s¡ uproszczonymi modelami obejmuj¡cymi zaledwie kilka aspektów biologicznego neuronu. Jednak»e w porównaniu do poprzednich dwóch generacji s¡ znacznie bardziej realistyczne. W szczególno±ci du»o lepiej opisuj¡ rzeczywiste wyj±cie biologicznego neuronu. Podczas gdy czasowo±¢ kroków obliczeniowych jest zazwyczaj bagatelizowana w modelach poprzednich generacji, czasowo±¢ pojedynczych kroków obliczeniowych odgrywa znacz¡c¡ rol¦ w obliczeniach w sieci neuronów impulsowych. W istocie, odpowied¹ neuronu impulsowego ze zbioru Fv ⊆ R + (gdzie R+ = {x ∈ R : x ≥ 0}) punktów w czasie kiedy v v skªada si¦ wypuszcza impuls. Sieci tej generacji, tak jak sieci drugiej generacji, aproksymuj¡ ci¡gªe funkcje caªkiem dobrze, lecz przy u»yciu czasowo zakodowanego wej±cia i wyj±cia. Warto tu doda¢, »e istniej¡ funkcje, do aproksymacji których w sieciach impulsowych wymagana jest mniejsza ilo±¢ neuronów ni» w przypadku sieci drugiej generacji. Formalnie impulsowa sie¢ neuronow¡ wych wraz z funkcj¡ progow¡ synaps wraz z wag¡ (gdzie 5 skªada si¦ ze sko«czonego zbioru Θv : R+ → R+ dla ka»dego neuronu neuronów impulso- oraz zbioru E ⊆V ×V + wu,v ≥ 0 oraz funkcj¡ odpowiedzi εu,v : R → R dla ka»dej synapsy hu, vi ∈ E R+ = {x ∈ R : x ≥ 0}). Dla wybranego podzbioru 6 zakªada si¦, »e ci¡g czasowy odpowiedzi neuronu Fu Vinput ⊆ V dla neuronu Natomiast na wyj±cie sieci skªadaj¡ si¦ ci¡gi czasowe odpowiedzi wyznaczonego zbioru neuronów wyj±ciowych 5 ang. 6 ang. v ∈V, V Voutput ⊆ V . Spiking Neuron Network (SNN) spiketrain 46 neuronów wej±ciowych u ∈ Vinput Fv jest dany z zewn¡trz. dla neuronów v nale»¡cych do Rysunek 3.3: Impulsowa sie¢ neuronowa. ródªo: http://www.science.uva.nl/. Wi¦kszo±¢ bada« nad algorytmami uczenia dla impulsowych sieci neuronowych skupia si¦ na metodach nienadzorowanych. Celem tych algorytmów jest umo»liwienie sieci samoorganizacji i ostatecznego rozró»nienia pomi¦dzy wej±ciowymi wzorami bez jawnej identykacji tych wzorów. Samoorganizuj¡ce si¦ mapy tradycyjnie stosowane byªy w sieciach neuronowych drugiej generacji. Ruf i Schmitt zaproponowali podobny mechanizm do nienadzorowanego uczenia w impulsowych sieciach neuronowych. Model ten jest kolejnym krokiem w kierunku biologicznej rzeczywisto±ci ªacz¡c w sobie impulsowe modele neuronów z biologicznie poprawn¡ samoorganizacj¡. W±ród tradycyjnych nadzorowanych metod uczenia sieci neuronowych z jedn¡ warstw¡ mo»emy wymieni¢ uczenie wedªug Hebba, uczenie perceptronowe czy te» reguª¦ delta. Uczenie wedªug reguªy Hebba polega na zwi¦kszaniu wagi pomi¦dzy neuronami w momencie, gdy oba neurony s¡ jednocze±nie aktywne. Ta metoda nauki nale»y do jedej z najprostszych metod i oryginalnie opiera si¦ na zaªo»eniach biologicznych, gdzie ten typ wzmacniania wagi poª¡cze« uwa»a si¦ za dominuj¡cy. W rozszerzonej wersji reguªy Hebba tak»e wzmacniane s¡ poª¡czenia pomi¦dzy neuronami, gdy te jednocze±nie s¡ w stanie nieaktywnym. Ze wzgl¦du na swoje biologiczne korzenie metoda Hebba staªa si¦ naturalnym kandydatem do zaadoptowania w impulsowych sieciach neuronowych. Taka adaptacja reguªy Hebba zaproponowana zostaªa przez Ruf i Schmitta, i tu zmiana wagi pomi¦dzy presynaptycznym neuronem u a postsynaptycznym neuronem v, dana jest wzorem: ∆wu,v = η(tv − t0 ), gdzie tv (3.1) jest czasem wypuszczenia impulsu przez neuron postsynaptyczny, a t0 impulsu neuronu presynaptycznego (tu jest czasiem pierwszego impulsu neuronu szybko±ci uczenia. Je±li drugi impuls neuronu czyli (tv −t0 > 0) wówczas waga wu,v wu,v u czasem drugiego u), η wska¹nikiem zostanie wypuszczony przed impulsem neuronu v, pomi¦dzy nimi zostaje wzmocniona, natomiast w przeciwnym przypadku, waga zostaje osªabiona. 47 Rysunek 3.4: Schemat dla reguªy Hebba. ródªo: [23]. Na podstawie powy»ej zaprezentowanych informacji o impulsowych sieciach neuronowych mo»emy pokrótce przedstawi¢ nast¦puj¡ce ich zalety: 1. Pr¦dko±¢. Sieci zbudowane z impulsowych neuronów s¡ w stanie przesyªa¢ i odbiera¢ znacz¡c¡ ilo±¢ danych przy wykorzystaniu relatywnie niewielkiej ilo±ci impulsów. To daje mo»liwo±¢ stworzenia bardzo szybkiej i efektywnej implementacji. 2. Dziaªanie w czasie rzeczywistym. Impulsowe sieci zaprojektowane zostaªy do u»ycia czaso- wych informacji, dlatego te» mog¡ by¢ z ªatwo±ci¡ przystosowane do rzeczywistego dynamicznego ±rodowiska. 3. Zªo»ono±¢. Impulsowe sieci mog¡ oblicza¢ ka»d¡ funkcj¦, któr¡ potra tak»e liczy¢ sie¢ drugiej generacji, przy czym z reguªy wykorzystuj¡ do tego mniej neuronów. 4. Biologiczna wierno±¢. Poniewa» impulsowe sieci stosuj¡ si¦ bli»ej do tego co wªa±nie zostaªo odkryte o biologicznych sieciach neuronowych, bez trudu mog¡ czerpa¢ korzy±ci z szybko rosn¡cej wiedzy w dziedzinie neurozjologii.[23] Mimo szeregu zalet impulsowe sieci neuronowe nie s¡ pozbawione wad, z których najistotniejsz¡ stanowi du»a moc obliczeniowa potrzebna do ich symulacji. By nieco zmniejszy¢ te wymagania w sieciach tego typu przewa»nie stosuje si¦ mniej zªo»one neurony impulsowe, takie jak na przykªad model integrate-and-re. 48 3.2 Koncepcja oblicze« pªynowych Obliczenia pªynowe stanowi¡ stosunkowo now¡ technik¦ dostarczaj¡c¡ teoretycznych podwalin dla sieci neuronowych, które s¡ w stanie przetwarza¢ sygnaªy z czasow¡ zale»no±ci¡. Ogólnie sys- tem skªada si¦ z dwóch komponentów: pªynu oraz warstwy odczytuj¡cej. Pªyn odgrywa tu rol¦ zanikaj¡cej pami¦ci, natomiast warstwa odczytuj¡ca gªównej jednostki rozpoznaj¡cej wzorce. Powy»sza koncepcja brzmi bardzo abstrakcyjnie i najlepiej mo»na j¡ zilustrowa¢ przy pomocy nast¦puj¡cej metafory o kubku z kaw¡. Idealnie gªadk¡ powierzchni¦ kawy okre±li¢ mo»emy jako stan podstawowy. Stan ten mo»e zosta¢ zaburzony, gdy do kawy wrzucimy kostk¦ cukru b¡d¹ te» zamieszamy kaw¦ ªy»eczk¡, co b¦dzie równoznaczne z czasowym strumieniem wej±ciowym. W odpowiedzi na zaburzenie, na powierzchni kawy powstaj¡ wypryski i formuj¡ si¦ ró»ne fale. Jak widzimy w rzeczywisto±ci kawa zachowuje informacj¦ o ostatnich zdarzeniach i gdyby±my potrali czyta¢ z jej powierzchni, to mogliby±my wydoby¢ informacje o ostatnich wydarzeniach z ni¡ zwi¡zanych. Po upªywie pewnego czasu od chwili zaburzenia powierzchnia kawy wraca do stanu pocz¡tkowego i jest gotowa na przyj¦cie nowych wzorów [25]. Fernando i Sojakka w [26] wzi¦li koncepcj¦ oblicze« pªynowych na powa»nie pokazuj¡c jak prawdziwa woda mo»e zosta¢ u»yta do rozwi¡zania problemu XOR oraz do rozpoznawania wypowiadanych cyfr zero i jeden. Przeprowadzenie tej symulacji byªo obliczeniowo efektywne, gdy» woda transformuje nisko wymiarowy sygnaª wej±ciowy od silników stymuluj¡cych jej powierzchni¦ na wy»ej wymiarow¡ przestrze« fal. Na rysunku 3.5 przedstawiono architektur¦ maszyny pªynowej u»ytej do tych eksperymentów. Rysunek 3.5: Sprz¦towa implementacja maszyny pªynowej. ródªo: [26]. Do skonstruowania pªynowego mózgu wykorzystano szklany pojemnik z wod¡ umieszczony na projektorze. Do ka»dej ±ciany pojemnika zostaªy przyczepione silniczki podª¡czone do komputera. Powstaªe, po zaburzeniu stanu wody dziaªaniem silniczków, wzory rzutowane byªy na antyodblaskowy karton i nagrywane przy u»yciu standardowej internetowej kamery. Nagrane wzory fal po 49 przej±ciu przez ltr Sobela stanowiªy wej±cie do sieci neuronowej zªo»onej z 50 perceptronów, do których uczenia u»ywana byªa reguªa p-delta. W celu odtworzenia problemu XOR przy pomocy pªynu dwa silniczki zostaªy ustawione po przeciwnych stronach naczynia. Pojedyncze silniki pracuj¡ce ze staª¡ cz¦stotliwo±ci¡ po lewej lub prawej stronie zbiornika odpowiadaªy przypadkom [1 0] oraz [0 1]. Natomiast w przypadku [1 1] oba silniki byªy aktywne w tym samym czasie. Rysunek 3.6 pokazuje fale, które reprezentuj¡ wej±cia w zadaniu XOR. Zbie»no±¢ do optymalnego rozwi¡zania otrzymano po 200 epokach. Po procesie uczenia 85% obrazów byªa poprawnie klasykowana. Rysunek 3.6: Typowe wzory fal dla problemu XOR. Z lewej góry: [0 1](prawy silnik wªaczony), z prawej góry: [1 0] (lewy silnik wª¡czony), z lewego doªu: [1 1] (oba silniki wª¡czone), z prawego doªu: [0 0] (nieruchoma woda). Po prawej strony obrazy po przej±ciu przez ltr Sobela. ródªo: [26]. 3.3 Budowa maszyny pªynowej 7 zaproponowana zostaªa przez Maassa i Markrama jako Architektura maszyny pªynowej (LSM) propozycja uniwersalnej maszyny do oblicze« w czasie rzeczywistym. Ogólna architektura maszyny LSM zostaªa przedstawiona na rysunku 3.7. Maszyna LSM skªada si¦ z trzech cz¦±ci: moduªu wprowadzaj¡cego, kolumny cieczowej oraz warstwy odczytuj¡cej. Moduª wprowadzaj¡cy stanowi warstwa neuronów wej±ciowych, na które podawany jest sygnaª zewn¦trzny. Sygnaª dalej przekazywany zostaje do wybranych neuronów kolumny cieczowej, w której dokonywane s¡ obliczenia neuronowe. Przetworzony przez kolumn¦ ±rodkow¡ sygnaª nast¦pnie kierowany jest do neuronów moduªu odczytuj¡cego, gdzie nast¦puje analiza i interpretacja oblicze« wykonanych w poprzedniej warstwie. U»ywaj¡c zapisu matematycznego stan maszyny pªynowej jest bie»¡cym wynikiem dziaªania pewnego operatora lub ltra LM , który odwzorowuje funkcj¦ wej±cia xM (t) = (LM u)(t). 7 ang. u(·) na funkcj¦ stanu xM (t): (3.2) liquid state machine 50 Rysunek 3.7: Architektura maszyny pªynowej oraz jej neuronowa implementacja. ródªo: http://www.lsm.tugraz.at/learning/framework.html Nast¦pnie stan maszyny pªynowej fM xM (t) trasformowany zostaje przy pomocy odczytuj¡cej warstwy na wyj±cie systemu: y(t) = f M (xM (t)). (3.3) W przeciwie«stwie do ltru pªynowego nów, struktura mapy odczytuj¡ca f M LM skªadaj¡cego si¦ z losowo poª¡czonych ze sob¡ neuro- dostosowywana jest do konkretnego zadania jakie zostaªo postawione maszynie pªynowej. Poniewa» warstwa odczytuj¡ca nie zostaªa wyposa»ona w pami¦¢, wszystkie niezb¦dne informacje o sygnaªe wej±ciowym docelowego wyj±cia maszyny M x (t) y(t) w czasie t u(s), gdzie s≤t niezb¦dne do wytworzenia musz¡ zosta¢ zachowane w stanie kolumny cieczowej [27]. Dokªadna struktura warstwy odczytuj¡cej nie jest jasno sprecyzowana. W rzeczywisto±ci mo»e ni¡ by¢ ka»da metoda analizy statystycznej czy te» rozpoznawania wzorców. Mo»liwe funkcje odczytuj¡ce obejmuj¡: liniowy rzut, dyskryminacje Fishera, perceptron, wielowarstwowy perceptron 8 uczony metod¡ wstecznej propagacji bª¦du, a nawet metod¦ wektorów wspieraj¡cych . Warto tu zaznaczy¢, »e kolumna pªynowa nie podlega uczeniu. Tylko i wyª¡cznie warstwa odczytuj¡ca jest trenowana, tak aby maszyna LSM optymalnie realizowaªa postawione jej zadanie [28]. Podziaª pomi¦dzy warstw¡ pªynu a warstw¡ odczytuj¡c¡ sprawia, »e koncepcja maszyny pªy- 9 nowej ma znaczn¡ przewag¦ nad zwykªymi rekurencyjnymi sieciami neuronowymi . Po pierwsze, proces uczenia warstwy odczytuj¡cej zazwyczaj trwa du»o krócej, ni» proces uczenia caªej sieci rekurencyjnej. 8 ang. 9 ang. Co wi¦cej, do tej samej kolumny pªynowej mo»e by¢ podª¡czonych jednocze±nie Support Vector Machines (SVN) Recurrent Neural Networks (RNN) 51 kilka map odczytuj¡cych, a ka»da z tych map mo»e by¢ przeznaczona do realizowania zupeªnie ró»nych zada«. To oznacza, »e obliczenia w warstwie pªynowej mog¡ by¢ przeprowadzone tylko raz, co daje maszynie LSM wrodzone zdolno±ci oblicze« równolegªych nie wymagaj¡c przy tym wiele dodatkowej mocy obliczeniowej [28]. 3.4 Biologiczne przesªanki maszyny pªynowej Kora nowa, wspieraj¡c pojawianie si¦ wysoce zªo»onych funkcji poznawczych, umo»liwia ssakom adaptacj¦ do szybko zmieniaj¡cego si¦ ±rodowiska. Wy»sze funkcje poznawcze zale»¡ w du»ej mierze od zdolno±ci systemu do przewidywania przyszªych zdarze« w celu wygenerowania wªa±ciwych odpowiedzi w zmiennym ±rodowisku. Równolegle, w czasie rzeczywistym kora nowa transformuje bod¹ce sensoryczne na wielowymiarow¡ odpowied¹ wykorzystuj¡c w tym procesie równie» informacje przetworzone i zapami¦tane w przeszªo±ci. Sygnaª odbierany poprzez narz¡dy sensoryczne zostaje dokªadnie odwzorowany nie tylko w korze nowej, lecz tak»e w rejonie podkory oraz narz¡dów ruchowych. W obr¦bie kory informacja ta jest powielana w celu utrzymania spójnego i peªnego obrazu. Topograczne mapy kory nowej dokªadnie precyzuj¡ podstawow¡ funkcj¦ ka»dego regionu kory oraz pokazuj¡, »e wszystkie funkcje kory s¡ wewn¦trznie poª¡czone. To wªa±nie sposób, w jaki te funkcje s¡ powi¡zane formuje architektur¦ poznawcz¡, która pozwala korze na tworzenie zintegrowanych wielowymiarowych modeli sensoryczno-ruchowych do symulacji i przewidywania przyszªych zdarze«. W obr¦bie warstw kory nowej neurony w zawiªy sposób odwzorowuj¡ si¦ wzajemnie. Tu anatomiczne i zjologiczne wªa±ciwo±ci, jak równie» prawdopodobie«stwo poª¡czenia pomi¦dzy neuronami s¡ unikalne dla ka»dego poª¡czenia synaptycznego. Przewaga obliczeniowa tego specycznie uªo»onego rekurencyjnego ukªadu jest ogromna w porównaniu do zwykªej losowej rekurencyjnej sieci. Wielu wczesnych anatomów zaproponowaªo, »e neurony kory nowej mog¡ by¢ zgrupowane w kolumny o ±rednicy rozpi¦to±ci podstawowego aksonu i dendrytu neuronu piramidalnego (okoªo 500 µm). Rzeczywi±cie ponad 80% synaps neuronów po±rednicz¡cych kory nowej przeznaczona jest do ª¡czenia neuronów neuronów w obr¦bie 500 µm. Eksperymenty w pó¹nych latach 50-tych i wcze- snych 60-tych pokazuj¡, »e pªat kory mo»e równie» by¢ postrzegany funkcjonalnie jako kompozycja maªych powtarzaj¡cych si¦ kolumn zªo»onych z kilku tysi¦cy komórek o ±rednicy okoªo 500 µm. Takie funkcjonalne moduªy zostaªy obecnie zaobserwowane w wielu obszarach kory u przedstawicieli ró»nych gatunków. Jednak»e niedawne odkrycia ujawniªy, »e istnieje wiele le»¡cych na sobie funkcjonalnych kolumn, co sugerowaªoby, »e idea kolumny korowej jako zbioru anatomicznych jednostek nie jest poprawna. Funkcjonalne moduªy pokrywaj¡ si¦ w taki sposób, »e grupa neuronów wspóªpracuj¡cych ze sob¡ w trakcie jednej operacji nie koniecznie wspóªpracuje w trakcie innej [27]. 52 Odkrycia mikroobwodów neuronowych w ró»nych cz¦±ciach mózgu czªowieka, czy mózgu przedstawicieli innych gatunków sugeruj¡, i» takie heterogeniczne kolumny neuronów s¡ nieukierunkowane zadaniowo i przez to mog¡ posiada¢ potencjalnie uniwersalne zdolno±ci obliczeniowe. Maszyna pªynowa mo»e przypomina¢ uproszczony model kory mózgowej, w której pojedyncze neurony uªo»one s¡ w kolumny. Kolumny te, podobne do siebie anatomicznie i zjologicznie, mog¡ przetwarza¢ wiele zªo»onych zada« równolegle. 3.5 Wªa±ciwo±ci maszyny pªynowej Najistotniejsz¡ wªa±ciwo±ci¡ maszyny pªynowej jest jej zdolno±¢ do generowania ró»nych reakcji w odpowiedzi na ró»ne dane wej±ciowe. maszyny nazwana zostaªa Wielko±¢ odlegªo±ci pomi¦dzy ró»nymi odpowiedziami wªasno±ci¡ separowalno±ci pªynu (SP) 10 . Wska¹nik ten odzwierciedla Rysunek 3.8: Wªa±ciwo±¢ separowalno±ci losowo wygenerowanej maszyny LSM. ródªo: http://www.lsm.tugraz.at/learning/framework.html. zdolno±ci pªynu do tworzenia ró»nych trajektorii stanów wewn¦trznych systemu wywoªanych przez dwa ró»ne strumienie wej±ciowe. Zdolno±¢ jednostek odczytuj¡cych do rozró»niania tych trajektorii, uogólniania i powi¡zania ich z po»¡danym wyj±ciem systemu nazwana zostaªa aproksymacji zdolno±ci¡ 11 (AP) . Wªasno±¢ ta zale»y w du»ej mierze od zdolno±ci adaptacyjnej wybranych jednostek w warstwie odczytuj¡cej, podczas gdy SP opiera si¦ bezpo±rednio na zªo»ono±ci pªynu. Identykacja ró»nicy pomi¦dzy dwoma ró»nymi stanami pªynu, czy te» ró»nica w odpowiedziach na dwa strumienie danych jest w istocie zadaniem trudnym. Nie istniej¡ »adne ostateczne miary odlegªo±ci pomi¦dzy stanami pªynu, czy te» dla czasowych strumieni wej±ciowych. Poniewa» stany pªynu s¡ z natury wysoce dynamiczne i nieliniowe, ªatwo zauwa»y¢, »e proste odwzorowanie jeden 10 ang. 11 ang. separation property of the liquid approximation property 53 na jeden pomi¦dzy dwoma stanami nie jest mo»liwe. Nawet maªa ró»nica w wej±ciowych strumieniach mo»e powodowa¢ widocz¡ ró»nic¦ w odpowiedziach pªynu. Jednak»e proste porównywanie mo»e dostarczy¢ nam wskazówek na temat odlegªo±ci pomi¦dzy trajektoriami pªynów dla dwóch strumieni wej±ciowych. W tym celu mo»emy posªu»y¢ si¦ ±redni¡ norm¡ euklidesow¡ prostych odlegªo±ci pomi¦dzy stanami dwóch sieci dla wszystkich nagranych kroków czasowych. Formalnie mo»emy to zapisa¢ jako t kXuM (t) − XvM (t)k, dla strumieni wej±ciowych u oraz gdzie XuM (t) i XvM (t) oznaczaj¡ stany pªynu w czasie v. Maass zauwa»yª, »e u»ycie bardziej realistycznych dynamicznych synaps zamiast staªych poª¡cze« synaptycznych znacznie poprawia zachowanie maszyn LSM zbudowanych z impulsowych sieci neuronowych. Synapsy dynamiczne umo»liwiaj¡ zmniejszenie i przyzwyczajenie do sygnaªu wej±ciowego, a tym samym zwi¦kszaj¡ nieliniowo±¢ interakcji w sieci. Odkrycie, »e bardziej dy- namiczne poª¡czenia zwi¦kszaj¡ moc obliczeniow¡ modelu nie s¡ zaskakuj¡ce, je±li u±wiadomimy sobie, »e u»ycie u»ycie tych neuronów i synaps znacz¡co wzmacnia czasow¡ dynamik¦ o±rodka powoduj¡c, »e wej±ciowe trajektorie s¡ bardziej unikalne, a tym samym ªatwiejsze do rozró»nienia. W odniesieniu do wªasno±ci separacji warto zaznaczy¢, »e istnieje silna korelacja pomi¦dzy siª¡ obliczeniow¡ caªego systemu a nieliniowo±ci¡ sieci pªynowej [29]. 3.6 Maszyna pªynowa a maszyna echowa Jaeger niezale»nie od bada« Maassa opracowaª bardzo podobn¡ do maszyny pªynowej koncepcj¦ 12 . Obie struktury umo»liwiaj¡ uniwersalne obliczenia w czasie rzeczywi- maszyny echowej (ESM) stym bez staªych stanów czy atraktorów u»ywaj¡c do tego celu rekurencyjnych sieci neuronowych. Cho¢ maszyna ESM wydaje si¦ by¢ prawie identyczna z maszyn¡ LSM, istniej¡ mi¦dzy nimi pewne ró»nice [30]: • LSM u»ywane s¡ gªównie do modelowania dynamiki i przedstawiania zjawisk wyst¦puj¡cych w biologicznych sieciach neuronowych, podczas gdy ESN wykorzystywane s¡ do bardziej in»ynieryjnych zastosowa«. • Kolumna pªynowa w LSM typowo bazuje na impulsowych modelach neuronów, podczas gdy baseny • 13 ESN przewa»nie zbudowane s¡ z prostych sigmoidalnych neuronów. Architektura LSM dopuscza u»ycie ró»norodnych mechanizmów warstwy odczytuj¡cej, wª¡czaj¡c w to uczone wielowarstwowe sieci neuronowe, natomiast ESN ogranicza si¦ tylko do u»ycia pojedynczej warstwy jednostek odczytuj¡cych stan basenu. 12 ang. 13 ang. Echo State Machine reservoirs 54 Jaeger zauwa»yª, »e zastosowanie rekurencyjnej sieci zªo»onej z neuronów typu re integrate-and- zamiast standardowej sigmoidalnej rekurencyjnej sieci znacznie poprawia zachowanie maszyny echowej. Gªówn¡ ró»nic¡ mi¦dzy tymi dwoma rodzajami sieci jest zdolno±¢ tej pierwszej do reagowania w sposób bardziej nieliniowy na czasowe wej±cie, co mocno odbija si¦ na wzro±cie nieliniowej dynamiki maszyn ESM [31]. 55 Rozdziaª 4 Wªa±ciwo±ci maszyny pªynowej dla ró»nych modeli neuronów Do tej pory w badaniach wªa±ciwo±ci maszyny pªynowej u»ywane byªy najprostsze impulsowe modele neuronów typu integrate-and-re oraz te najbardziej zªo»one modele Hodgkina-Huxleya. Wybór tych modeli ma swoje uzasadnienie w ch¦ci obni»enia potrzebnych zasobów obliczeniowych lub te» w zwi¦kszeniu biologicznej poprawno±ci symulowanych ukªadów. Maj¡c do dyspozycji wiele ró»nych modeli neuronów, warto byªoby sprawdzi¢ jak zachowuj¡ si¦ one w maszynie pªynowej. Dlatego te», przedmiotem zainteresowania niniejszego rozdziaªu jest zastosowanie alternatywnych modeli neuronów do maszyny pªynowej oraz zbadanie podstawowych jej wªa±ciwo±ci w zale»no±ci od u»ytych modeli neuronów. 4.1 Model maszyny pªynowej Zaproponowana do badania wªa±ciwo±ci maszyny pªynowej architektura opiera si¦ na uproszczonym modelu ukªadu wzrokowego opisanym w [32]. Model ten zostaª przedstawiony na rysunku 4.1. Architektura maszyny pªynowej skªada si¦ z dwóch gªównych moduªów, tj. moduªu wej±ciowego (siatkówki) oraz pojedynczej kolumny pªynowej (hiperkolumny kory). Moduª wej±ciowy stanowi¡ cztery neurony pobudzaj¡ce uªo»one na siatce o wymiarach 1×2×2. Ka»dy neuron siatkówki poª¡- czony jest z ka»dym neuronem warstwy LGN. Warstwa LGN skªada si¦ z 64 neuronów rozªo»onych na siatce o wymiarach 1×8×8. Ka»da z pozostaªych warstw maszyny pªynowej, tj. L4, L3, L3, L2, L5 oraz L6 rozªo»ona jest na siatce 3 × 8 × 8. Warstwy zestawiane s¡ tak, by poª¡czenie zachodziªo tylko pomi¦dzy neuronami z tylnej ±cianki warstwy poprzedzaj¡cej i neuronami z przedniej ±cianki warstwy nast¦puj¡cej. Dodatkowo, kolumna L6 zostaªa bezpo±rednio poª¡czona z kolumn¡ LGN. Poª¡czenia mi¦dzy neuronami wewn¡trz warstw generowane s¡ losowo z prawdopodobie«stwem 56 Rysunek 4.1: Model maszyny pªynowej. ródªo: Opracowanie wªasne. poª¡czenia pomi¦dzy par¡ neuronów ustalanej nast¦puj¡c¡ zale»no±ci¡ [33]: P (D) = C ∗ e gdzie D(A, B) −D(A,B) λ , (4.1) oznacza euklidesow¡ odlegªo±¢ mi¦dzy neuronami A i B, za± parametr λ okre±la g¦- sto±¢ poª¡cze«. W zale»no±ci od tego, czy poª¡czenie tworzone jest pomi¦dzy neuronami pobudzaj¡cymi (Ex) a hamuj¡cymi (Inh) wspóªczynnik C przyjmuje nast¦puj¡ce warto±ci: CEx−Inh = 0, 2, CInh−Inh = 0, 1 oraz CInh−Ex = 0, 4. CEx−Ex = 0, 3, Udziaª poª¡cze« pobudzaj¡cych w kolumnie cieczowej wynosi 80%. 4.2 Metody bada« Wszystkie symulacje omawiane w niniejszym rozdziale przeprowadzone zostaªy przy u»yciu symulatora ukªadów neuronowych CSim 1 w otoczeniu programistycznym Matlab. W dalszych rozwa»a- niach nazwy neuronów i typów synaps bed¡ u»yte bezpo±rednio ze ±rodowiska CSim. Do badania wªa±ciwo±ci maszyny pªynowej wybrano nast¦puj¡ce modele neuronów: integrate- and-re, resonate-and-re, FitzHugh-Nagumo, Morrisa-Lecara, Hindmarsha-Rose oraz Izhikevicha. Poniewa» symulator CSim spo±ród tych modeli pozwalaª na u»ycie tylko modelu integrate-and-re oraz Izhikevicha, na potrzeby tej pracy jego mo»liwo±ci zostaªy rozszerzone o pozostaªe modele. Moduª wej±ciowy maszyny pªynowej zªo»ony byª z neuronów typu Input Spiking Neuron, na które podawane byªy dwa wzorce, wzorzec W1 oraz W2. Wzorzec stanowiªy 4 losowo wygenerowane ci¡gi impulsów, ka»dy podawany na osobny neuron w cz¦±ci siatkówkowej. Przebieg impulsów w obu wzorcach zobrazowano na rysunkach 4.2 i 4.3. 1 Symulator CSim oraz szczegóªowa dokumentacja do niego dost¦pny jest na stronie http://www.lsm.tugraz.at. 57 Rysunek 4.2: Ci¡gi impulsów podawane na siatkówk¦. Wzorzec W1. ródªo: Opracowanie wªasne. Rysunek 4.3: Ci¡gi impulsów podawane na siatkówk¦. Wzorzec W2. ródªo: Opracowanie wªasne. W celu zbadania aktywno±ci sieci powstaªej w wyniku wprowadzenia do niej dwóch ró»nych wzorców zostaªa wykorzystana analiza odlegªo±ci euklidesowej umo»liwiaj¡ca okre±lenie zdolno±ci asocjacyjnych nieuczonej sieci. Odlegªo±¢ euklidesowa ronów, których stan w danym kroku czasowym tych neuronów w przypadku pokazania wzorca t EW 1W 2 (t) deniowana jest jako liczba neu- po wprowadzeniu wzorca W 2, W1 ró»ni si¦ od stanu co zapisujemy jako [34]: v u n uX EW 1W 2 (t) = t (y W 1 (t) − y W 2 (t))2 , i (4.2) i i=1 gdzie n oznacza liczb¦ obserwowanych neuronów, w czasie t yiW 1 (t) po wrowadzeniu do sieci wzorca odpowiednio i yiW 2 (t) W1 oznaczaj¡ stan i-tego neuronu oraz W 2. W pracy obserwowano tylko stany neuronów z tylnej ±cianki ostatniej warstwy hiperkolumny. Czas symulacji T wynosiª 1000 ms i podzielony zostaª na przedziaªy ti = 10 ms, w których liczona byªa odleglo±¢ euklidesowa. 58 Stan maszyny pªynowej okre±laª binarny wektor o dªugo±ci 64, w którym skªadowa '0' oznaczaªa nieaktywny neuron, za± '1' neuron aktywny. Do scharakteryzowania przepªywu informacji w maszynie pªynowej wykorzystano miar¦ entropii opieraj¡c¡ si¦ na klasycznej denicji entropii informacyjnej Shannona. W przeprowadzonych badaniach symulowano j¡cej odczytano N 1000 ms pracy ukªadu biologicznego. W tym czasie na warstwie odczytu- stanów aktywnych, przy czym liczba stanów ró»niªa si¦ w zale»no±ci od u»ytego w warstwie pªynowej modelu neuronu oraz pokazywanych siatkówce wzorców. Prawdopodobie«stwo wyst¡pienia pi = ni aktywnych neuronów w czasie ti = 10 ms mo»na zdeniowa¢ nast¦puj¡co [35]: ni . N (4.3) Prawdopodobie«stwo to interpretujemy jako szans¦ na przekazanie caªej informacji w czasie ti . Suma prawdopodobie«stw jest zdarzeniem pewnym. 100 X pi = i=1 n1 + n2 + · · · + n100 = 1. N Wykorzystuj¡c denicj¦ prawdopodobie«stwa (4.4) pi mo»na wprowadzi¢ entropi¦ indywidualn¡ Soi = −pi · ln(pi ) (4.5) oraz entropi¦ globaln¡ Si = X Soi = − i X pi · ln(pi ). (4.6) i W badaniach rozpatrywano dwie warto±ci parametru λ okre±laj¡cego g¦sto±¢ synaps w po- szczególnych warstwach hiperkolumny cieczowej. Poª¡czenia mi¦dzy warstwami realizowane byªy za pomoc¡ Static Spiking Synapse, natomiast poª¡czenia mi¦dzy neuronami wewn¡trz warstw od- bywaªy si¦ za pomoc¡ Dynamic Spiking Synapse. Wagi poª¡cze« mi¦dzy neuronami zale»aªy od zastosowanego modelu neuronu w maszynie pªynowej i zostaªy dobrane eksperymentalnie, tak by jak najlepiej zobrazowana zostaªa dynamika modelu. Waga poª¡cze« synaptycznych neuronów Wscale dla integrate-and-re wynosiªa 5, dla resonate-and-re, FitzHugh-Nagumo oraz Hindmarsha- Rose 1, dla Morrisa-Lecara 3, a dla Izhikevicha 10. 4.3 Wyniki bada« W celu uzyskania wi¦kszej poprawno±ci wyników symulacje byªy powtarzane 5-krotnie dla ka»dego podawanego na wej±cie maszyny wzorca. Do dalszych rozwa»a« wykorzystywane byªy u±rednione wyniki z symulacji. 59 4.3.1 Aktywno±¢ neuronów w czasie symulacji Na rysunku 4.4 przedstawione zostaªy przebiegi stanów aktywno±ci obserwowanych neuronów maszyny pªynowej w odpowiedzi na wprowadzone wzorce W1 oraz W2. Porównanie wykresów przebiegu stanów aktywno±ci dla ró»nych modeli neuronów umo»liwia ªatwe uchwycenie ró»nic w ich dynamice. (a) Integrate-and-re (b) Resonate-and-re (c) FitzHugh-Nagumo (d) Morrisa-Lecara (e) Hindmarsha-Rose'84 (f ) Hindmarsha-Rose'85 (g) Izhikevicha Rysunek 4.4: Odpowiedzi maszyny pªynowej zªo»onej z ró»nych modeli neuronów. ródªo: Opracowanie wªasne. 60 Na rysunku 4.4(a) przedstawione zostaªy przebiegi stanów aktywno±ci obserwowanych neuronów maszyny pªynowej zªo»onej z neuronów typu W1 oraz W 2. integrate-and-re w odpowiedzi na podane wzorce Jak wida¢ ró»nica pomi¦dzy obydwoma przebiegami jest znaczna. Dla wzorca W2 po krótkim przejawie aktywno±ci na pocz¡tku symulacji wyst¦puje dªuga przerwa w aktywno±ci neuronów. Ró»nice w odpowiedziach maszyny pªynowej zªo»onej z neuronów resonate-and-re wadzane wzorce, nie s¡ ju» tak dobrze widoczne, jak w przypadku neuronów na wpro- integrate-and-re. Dodatkowo, jak mo»na zaobserwowa¢ na rysunku 4.4(b), odpowiedzi neuronów pokrywaj¡ do±¢ równomiernie prawie caª¡ przestrze« wykresu tworz¡c przy tym charakterystyczny powtarzaj¡cy si¦ wzór. W przypadku maszyny pªynowej skªadaj¡cej si¦ z neuronów FitzHugh-Nagumo, ró»nice pomi¦dzy stanami sieci dla ró»nych wzorców nie s¡ wyra¹ne. Na rysunku 4.4(c) mo»na zauwa»yc, »e przez pierwsze 350 ms wyst¦puje okres ciszy, po którym do ko«ca symulacji obserwowane neurony pozostaj¡ bardzo aktywne. Ró»nice pomi¦dzy stanami obserwowanych neuronów Morrisa-Lecara, które wida¢ na rysunku 4.4(d) s¡ dobrze widoczne. Neurony charakteryzuj¡ si¦ du»¡ aktywno±ci¡ podczas caªego czasu trwania symulacji. Podobnie jak w przypadku modelu FitzHugh-Nagumo, tu te» wyst¦puje pocz¡tkowy okres braku aktywno±ci neuronów, po którym nast¦puje wzmo»ona ich praca. Porównuj¡c rysunki 4.4(e) i 4.4(f ), ªatwo zauwa»y¢, »e stany neuronów Hindmarsha-Rose'84 ukªadaj¡ si¦ warstwowo, czyli po stanach aktywno±ci nast¦puje okres ich nieaktywno±ci, co natomiast nie wyst¦puje w przypadku neuronów Hindmarsha-Rose'85. Ró»nica ta mo»e by¢ nast¦pstwem du»o wi¦kszej aktywno±ci neuronów wersji drugiej omawianego modelu. Ró»nice w odpowiedziach maszyny neuronowej na podawany wzorzec w przypadku modelu Izhikevicha nie s¡ wyra¹ne. Stany ukªadaj¡ si¦ warstwowo, po krótkich okresach wzmo»nonej aktywno±ci neuronów nast¦puje do±¢ dªuga przerwa w ich pracy. 4.3.2 Odlegªo±¢ euklidesowa Na rysunku 4.5(a) przedstawiono wykres odlegªo±ci euklidesowej stanów maszyny pªynowej skªadaj¡cej si¦ z neuronów integrate-and-re. jest znacznie mniejsza ni» w przypadku Odlegªo±¢ euklidesowa mierzona dla parametru λ=9 λ = 3, co oznacza sªabsze zdolno±ci separacji wzorców, gdy neurony s¡ ze sob¡ g¦sto poª¡czone. W przypadku modelu resonate-and-re (patrz 4.5(b)) dla obu warto±ci parametru euklidesowe s¡ porównywalne i oscyluj¡ wokóª warto±ci 5. λ odlegªo±ci Takie zachowanie mo»e sugerowa¢, »e zwi¦kszenie g¦sto±ci poª¡cze« synaptycznych w kolumnach pªynowych zªo»onych z neuronów resonate-and-re nie wpªywa na zmian¦ zdolno±ci separacyjnych maszyny LSM. 61 (a) Integrate-and-re (b) Resonate-and-re (c) FitzHugh-Nagumo (d) Morris-Lecar (e) Hindmarsh-Rose'84 (f ) Hindmarsh-Rose'85 (g) Izhikevich Rysunek 4.5: Odlegªo±ci euklidesowe stanów maszyny pªynowej zªo»onej z ró»nych modeli neuronów. ródªo: Opracowanie wªasne. 62 Warto±ci odlegªo±ci euklidesowych maszyny pªynowej zªo»onej z neuronów FitzHugh-Nagumo ró»ni¡ si¦ diametralnie dla obu warto±ci rasta pocz¡wszy od λ. W przypadku λ=9 warto±¢ odlegªo±ci gwaªtownie na- 250 ms symulacji przez okoªo 100 ms, a» do osi¡gni¦cia warto±ci maksymalnej, po czym równie gwaªtownie spada do zera. Sugeruje to, »e po tym czasie neurony synchronizuj¡ si¦, a ró»nica pomi¦dzy wprowadzonymi wzorcami nie jest widoczna. Inaczej jest w przypadku warto±ci λ = 3. Odlegªo±¢ euklidesowa gwaªtownie wzrasta w okoªo 300 ms symulacji i szybko osi¡ga swoje maksimum. Nast¦pnie jej warto±¢ obni»a si¦, ale pozostaje dodatnia do ko«ca symulacji. Jak wida¢ na rysunku 4.5(d) warto±¢ odlegªo±ci euklidesowej dla przypadku λ=3 utrzymuje si¦ w okolicach 6, co ±wiadczy¢ mo»e o dobrej, w porównaniu do pozostaªych modeli, zdolno±ci separacji modelu Morrisa-Lecara. Dla warto±ci λ=9 warto±¢ odlegªo±ci jest wysoka na pocz¡tku symulacji, po czym powoli, ale systematycznie zmniejsza si¦ do 1. Wykresy odlegªo±ci euklidesowej odpowiedzi maszyn pªynowych zbudowanych z neuronów typu Hindmarsha-Rose'84 oraz z neuronów Hindmarsha-Rose'85 na podane wzorce stawione zostaªy na rysunkach 4.5(e) oraz 4.5(f ). W1 oraz W2 przed- atwo wida¢, »e w przypadku, gdy parametr g¦sto±ci poª¡cze« synaptycznych przyj¡ª warto±¢ 9, wykresy te nie ró»ni¡ si¦ znacznie. Inaczej jest w przypadku, gdy warto±¢ g¦sto±ci wynosiªa 3. Odlegªo±¢ euklidesowa dla maszyny pªynowej zªo»onej z neuronów Hindmarsha-Rose'84 waha si¦ w granicach od 3 do 6 w trakcie prawie caªego przebiegu symulacji. Natomiast warto±¢ ta dla maszyny zªo»onej z neuronów Hindmarsha-Rose'85 jest generalnie wy»sza i oscyluje mi¦dzy 5 a 6. Na tej podstawie mo»na sugerowa¢, »e maszyna pªynowa zªo»ona z neuronów drugiej wersji modelu Hindmarsha-Rose ma lepsze wªa±ciwo±ci separowalno±ci. Przedstawione na rysunku 4.5(g) odlegªo±ci euklidesowe stanów maszyny pªynowej zªo»onej z neuronów Izhikevicha s¡ niewielkie. Warto±¢ ta przewa»ne jest ni»sza od 2 dla parametru oraz 3 dla parametru λ = 3. λ=9 wiadczy to o maªych zdolno±ciach separacyjnych maszyny LSM zbudowanej z omawianego modelu neuronu. Na rysunku 4.6 przedstawiono zbiorcze uj¦cie wszystkich przebiegów stanów maszyn pªynowych omówionych w tym podrozdziale. Dla parametru λ=3 wida¢, »e w trakcie prawie caªej symulacji odlegªo±ci euklidesowe s¡ najwi¦ksze dla modelu Morrisa-Lecara, za± najmniejsze dla modelu Izhikevicha. Niewiele mniejszymi odlegªo±ciami od modelu Morrisa-Lecara charakteryzuje si¦ model resonate-and-re, λ = 9 a tak»e po okresie rozgrzewania model Hindmarsha-Rose'85. Dla parametru najwi¦ksz¡ warto±ci¡ odlegªo±ci cechuje si¦ model Hindmarsha-Rose'84 i jest to jedyny przypadek, w którym warto±¢ ta ulega poprawie po zwi¦kszeniu g¦sto±ci poª¡cze« synaptycznych w kolumnach pªynowych. Izhikevicha oraz Najni»sze warto±ci odlegªo±ci w tej konguracji przypadaj¡ modelowi integrate-and-re. Wªasno±¢ separowalno±ci jest najwa»niejsz¡ wªasno±ci¡ maszyn pªynowych. Odlegªo±¢ euklidesowa deniowana jako liczba neuronów, których stan po wprowadzeniu wzorca 63 W1 ró»ni si¦ od stanu neuronów w przypadku pokazania wzorca W 2, pozwala na okre±lenie zdolno±ci separowal- no±ci maszyny pªynowej. Reasumuj¡c powy»sze rozwa»ania na temat odlegªo±ci euklidesowych dla ró»nych modeli neuronów, mo»na stwierdzi¢, »e najlepsze wªasno±ci separowalno±ci posiada model Morrisa-Lecara przy warto±ci g¦sto±ci poª¡cze« równej 3 oraz model Hindmarsha-Rose'84 przy warto±ci g¦sto±ci poª¡cze« równej 9. Do±¢ stabilna i porównywalna dla obu konguracji odlegªo±¢ euklidesowa modelu resonate-and-re, równie» ±wiadczy o dobrych wªasno±ciach separowalno±ci tego modelu. Najsªabsze wªasno±ci separowalno±ci posiadaj¡ modele integrate-and-re oraz Izhi- kevicha. Rysunek 4.6: Odlegªo±¢ euklidesowa stanów maszyny pªynowej dla ró»nych modeli neuronów. ródªo: Opracowanie wªasne. 64 4.3.3 Indywidualna i globalna entropia informacyjna Zmiany indywidualnej entropii informacyjnej dla ró»nych modeli neuronów u»ytych w warstwie pªynowej przedstawia rysunek 4.7. Dla wzorca W1 i W2 charakter zmian entropii indywidualnej ró»ni si¦ nieznacznie w przypadku modeli resonate-and-re, FitzHugh-Nagumo oraz Hindmarsha- Rose'85. Najwi¦ksze ró»nice w zmianach entropii indywidualnej dla ka»dego z wzorców wej±ciowych widoczne s¡ dla modeli Hindmarsha-Rose'84 i Izhikevicha. Warto zwróci¢ uwag¦ na ksztaªt wykresu entropii indywidualnej wyznaczonej dla neuronów 2.2 odpowiedzi pojedynczego neuronu resonate-and-re. resonate-and-re. Przypomina on wykres Pocz¡tkowa wysoka warto±¢ entropii in- dywidualnej 0,12 zostaje wytªumiona do warto±ci okoªo 0,05, która utrzymuje si¦ ju» prawie do ko«ca symulacji. (a) Integrate-and-re (d) Morris-Lecar (b) Resonate-and-re (e) Hindmarsh-Rose'84 (c) FitzHugh-Nagumo (f ) Hindmarsh-Rose'85 (g) Izhikevich Rysunek 4.7: Entropia lokalna maszyny pªynowej zªo»onej z ró»nych modeli neuronów. ródªo: Opracowanie wªasne. 65 Rysunek 4.8 obrazuje otrzymane w badaniach zmiany globalnej entropii informacyjnej. Nietrudno zauwa»y¢, »e globalna entropia akumuluje si¦ w czasie. Najwi¦ksze warto±ci osi¡gane s¡ dla modeli resonate-and-re (ponad 4,5) oraz Morrisa-Lecara i FitzHugh-Nagumo (okoªo 4,5), najni»sze za± dla modelu Izhikevicha (okoªo 3). (a) Integrate-and-re (d) Morris-Lecar (b) Resonate-and-re (e) Hindmarsh-Rose'84 (c) FitzHugh-Nagumo (f ) Hindmarsh-Rose'85 (g) Izhikevich Rysunek 4.8: Entropia globalna maszyny pªynowej zªo»onej z ró»nych modeli neuronów. ródªo: Opracowanie wªasne. 66 Rozdziaª 5 Rozpoznawanie ekspresji twarzy przy u»yciu maszyny pªynowej Zadanie rozpoznawania emocji na podstawie obrazu twarzy podejmowane jest przez wielu badaczy. Do tej pory jako podstawy systemu klasykuj¡cego ekspresje bardzo cz¦sto wykorzystywano sieci neuronowe nale»¡ce do drugiej generacji. W rozdziale tym zostanie zaprezentowane caªkowicie nowe podej±cie do zagadnienia rozpoznawania emocji oparte na modelu maszyny pªynowej. Skonfrontowane zostan¡ dwa sposoby przetwarzania informacji z obrazu twarzy oraz ich wpªyw na wynik rozpoznania poszczególnych ekspresji. Porównane zostan¡ równie» wªa±ciwo±ci aproksymacyjne maszyn pªynowych w zale»no±ci od u»ytych modeli neuronów. 5.1 Systemy rozpoznawania ekspresji twarzy Emocje odgrywaj¡ coraz wi¦ksz¡ rol¦ przy projektowaniu systemów komputerowych, a zwªaszcza przy tworzeniu interfejsów pomi¦dzy komputerem a u»ytkownikiem. Poci¡ga to za sob¡ konieczno±¢ automatycznego rozpoznania ludzkich zachowa« oraz umiej¦tno±ci ich klasykacji i opisu. Ró»ne stany emocjonalne czªowiek wyra»a poprzez mimik¦, gesty, postaw¦ ciaªa, d¹wi¦ki. Zatem, aby caªo±ciowo obj¡¢ problem automatycznego rozpoznawania emocji nale»aªoby podda¢ jednoczesnej analizie wszystkie sposoby wyra»ania stanów uczu¢. Ze wzgl¦du na zªo»ono±¢ tego problemu, dotychczasowe prace badaczy ograniczaj¡ si¦ do jednego czy te» dwóch sposobów wyra»ania stanów emocjonalnych. Pocz¡wszy od wczesnych lat 70-tych ubiegªego wieku, Paul Ekman wraz z kolegami przeprowadziª obszerne badania nad ekspresj¡ twarzy. Potwierdziªy one tez¦ o uniwersalno±ci ekspresji takich jak: rado±¢, smutek, zªo±¢, strach, zaskoczenie oraz wstr¦t. Ekman i Friesen zaproponowali 67 1 system kodowania ekspresji twarzy FACS , w którym ruchy twarzy opisane byªy zbiorem jednostek akcji, a ka»dej jednostce odpowiadaª mi¦sie« twarzy [37]. Poszczególne ekspresje twarzy opisane zostaªy jako kombinacja pojedynczych jednostek akcji. Ten system kodowania ekspresji twarzy wykonywany byª r¦cznie starannie przestrzegaj¡c zapisanych reguª. Klasykacji podlegaªy statyczne obrazy przedstawiaj¡ce emocje przewa»nie w jej szczytowym momencie. Prace Ekmana zainspirowaªy wielu badaczy do poszukiwa« automatycznych metod analizy ekspresji twarzy. Ogólnie systemy automatycznego rozpoznawania ekspresji twarzy skªadaj¡ si¦ z nast¦puj¡cych faz: wykrycia i lokalizacji twarzy, ekstrakcji cech twarzy oraz klasykacji ekspresji twarzy. Ka»da z faz stanowi odr¦bny problem badawczy. Najskuteczniejsze systemy detekcji twarzy oparte s¡ na sieciach neuronowych. W momencie wykrycia twarzy na obrazie, koresponduj¡cy obszar zostaje wyodr¦bniony i znormalizowany tak, by na przykªad odlegªo±ci pomi¦dzy oczami byªy zbli»one dla wszystkich obrazów. Kolejna faza, ekstrakcja cech twarzy skupia si¦ na próbie znalezienia najodpowiedniejszej reprezentacji obrazu twarzy dla problemu jej rozpoznania. Wyró»ni¢ mo»na tu dwa gªówne podej±cia, oparte na holistycznym dopasowaniu wzorców lub oparte na geometrycznych cechach twarzy [36]. W systemach holistycznych wzór mo»e by¢ obrazem cyfrowym lub te» wektorem cech uzyskanym po przetworzeniu caªego obrazu twarzy. Do redukcji wielowymiarowej reprezentacji wektorowej wykorzystuje si¦ analiz¦ gªównych skªadowych 2 oraz wielowarstwowe sieci neuronowe. W systemach wykorzystuj¡cych geometryczne wªasno±ci twarzy, wektor cech stanowi¡ odlegªo±ci pomi¦dzy charakterystycznymi punktami twarzy oraz relatywne rozmiary gªównych skªadowych twarzy. Punkty charakterystyczne mog¡ równie» tworzy¢ geometryczny graf repezentuj¡cy twarz [37]. Systemy te przewa»nie s¡ obliczeniowo bardziej wymagaj¡ce od systemów opartych na wzorcach, jednak»e s¡ bardziej odporne na ró»nice w skali, rozmiarach, orientacji gªowy oraz lokalizacji twarzy na obrazie. Zadanie klasykacji ekspresji twarzy mo»e by¢ rozwi¡zywane ró»nie w zale»no±ci od tego czy do systemu wprowadzana jest sekwencja obrazów czy te» obraz statyczny. W pierwszym przypadku, analiza ekspresji mo»liwa jest za pomoc¡ ±ledzenia zmian poªo»enia charakterystycznych punktów twarzy. Mo»na równie» analizowa¢ ruch kraw¦dzi wyodr¦bionych w obszarze wokoª ust, nosa, oczy oraz brwi. 3 Bardzo cz¦sto wykorzystywane s¡ tak»e metody przepªywu optycznego , do których w celu zredukowania wielowymiarowo±ci stosuje si¦ analiz¦ gªównych skªadowych. Do klasykacji 4 w po- ekspresji z obrazów statycznych bardzo cz¦sto wykorzystuje si¦ metod¦ wªa±ciwych twarzy ª¡czeniu z analiz¡ gªównych skªadowych [37]. Do analizy emocji twarzy stosowane s¡ równie» sieci Bayesa [37], klasykatory oparte na ukrytych modelach Markowa neuronowe [36, 37]. 1 ang. Facial Action Coding System 2 ang. principal component analysis 3 ang. optical ow 4 ang. eigenfaces 5 Hidden Markov Model (HMM) (PCA) 68 5 [37] oraz wielowarstwowe sieci Tablica 5.1: Porównanie algorytmów rozpoznawania ekspresji twarzy. ródªo: [37]. Autor Sposób przetwarzania Klasykator obrazu Liczba Liczba Skute- ekspresji podmiotów -czno±¢ Mase przepªyw optyczny sieci neuronowe 4 1 86% Black i Yacoob model parametryczny oparty na reguªach 6 40 92% Yacoob i Davis przepªyw optyczny oparty na reguªach 6 32 95% Rosenblum i inni przepªyw optyczny sieci neuronowe 2 32 88% Essa i Pentland przepªyw optyczny opaty na odlegªo±ci 5 8 98% Otsuka i Ohya przepªyw optyczny HMM 6 4 93% Lanitis i inni model wygl¡du oparty na odlegªo±ci 7 - 74% Chen model wygl¡du Winnow 6 5 86% Cohen i inni model wygl¡du sieci Bayesa 7 5+53 83% W tabeli 5.1 przedstawiono porównanie algorytmów rozpoznawania ekspresji twarzy. Jak wida¢ ogólna skuteczno±¢ prawidªowej klasykacji ekspresji twarzy jest do±¢ wysoka. Najwy»sza w±ród algorytmów rozpoznaj¡cych 6 emocji wynosi 95%, natomiast w±ród algorytmów rozpoznaj¡cych 5 ekspresji a» 98% [37]. Poprawno±¢ systemów, w których rol¦ klasykatora peªni¡ sieci neuronowe jest ju» nieco ni»sza i wynosi 86% [37]. Warto zauwa»y¢, »e zadanie rozpoznania ekspresji z obrazu statycznego jest du»o trudniejsze. Dla tych algorytmów skuteczno±¢ rozpoznania generalnie jest ni»sza, jak na przykªad przy algorytmie Lanitisa, gdzie wynosi ona 74% [37]. 5.2 Zbiór danych i ich reprezentacja Baza zdj¦¢ JAFFE 6 u»yta w eksperymentach skªada si¦ z 213 zdj¦¢ przedstawiaj¡cych 6 pod- stawowych ekspresji twarzy, takich jak: rado±¢, smutek, zaskoczenie, zªo±¢, odraza, strach, oraz 1 neutralnej, pozowanych przez 10 japo«skich kobiet. Oryginalne zdj¦cia zostaªy przeskalowane i wykadrowane, tak aby oczy na poszczególnych obrazach znajdowaªy si¦ na zbli»onych pozycjach. Przykªadowe zdj¦cia pokazuje rysunek 5.1. W badaniach sprawdzono dwie ró»ne reprezentacje obrazów. Pierwsza wykorzystuje cechy wyekstrahowane przy pomocy dwuwymiarowej transformacji Gabora. Dwuwymiarowa funkcja Gabora jest fal¡ pªask¡ z wektorem falowym przez obwiedni¦ Gaussa o relatywnej szeroko±ci Ψ(k, x) = gdzie x σ, k ograniczonym przedstawion¡ wzorem [36]: k2 k 2 x2 σ2 exp(− )[exp(ik · x) − exp(− )], σ2 2σ 2 2 (5.1) oznacza wspóªrz¦dne punktu ltra. W pracy wykorzystano zbiór j¡der Gabora z wekto- rem falowym o warto±ci k = π 4 i 6 ró»nymi orientacjami (od 00 do 1800 , w odst¦pach 6 Dost¦p do bazy zdj¦¢ JAFFE jest bezpªatny pod warunkiem u»ycia jej w niekomercyjnych badaniach. 300 ) Informacje na temat mo»liwo±ci uzyskania dost¦pu do bazy znajduj¡ si¦ na stronie http://www.kasrl.org/jae.html. 69 oraz Rysunek 5.1: Przykªadowe zdj¦cia z bazy expresji twarzy JAFFE. ródªo: [36]. (a) Geometria twarzy. ródªo: (b) Filtry [36]. Gabora. ródªo: Opracowanie wªasne. Rysunek 5.2: Reprezentacja gaborowska twarzy. przyj¦to warto±¢ σ równ¡ π. Ka»dy obraz podlegaª konwolucji z j¡drami Gabora w 34 staªych punktach reprezentujacych geometri¦ twarzy. Rozmieszczenie tych punktów mo»na zobaczy¢ na rysunku 5.2(a). Dla potrzeb bada« punkty te zostaªy wybrane manualnie. Jednak»e nale»y w tym miejscu wspomnie¢, »e istniej¡ automatyczne metody budowania podobnej reprezentacji. Twarz reprezentowana jest przez wektor skªadaj¡cy si¦ z 204 moduªów liczb zespolonych. Na rysunku 5.2(b) pokazane s¡ 3 przykªadowe ltry Gabora oraz wynik konwolucji obrazu z cz¦±ci¡ rzeczywist¡ ltru oraz z moduªem ltru. Reprezentacja ta b¦dzie dalej nazywana w skrócie reprezentacj¡ gaborowsk¡. W drugim sposobie reprezentacji twarzy tylko jej cz¦±¢ o wymiarach 10x45 pikseli zostaªa wzi¦ta pod uwag¦. Przykªadowe obrazy zostaªy przedstawione na rysunku 5.3. W górnej cz¦±ci mo»na zauwa»y¢ wyodr¦bion¡ cz¦±¢ twarzy w skali szaro±ci, natomiast pod spodem jej binarny odpowiednik. Reprezentacj¦ twarzy stanowi w tym przypadku wektor 450 liczb binarnych. Reprezentacja ta w dalszych rozwa»aniach b¦dzie okre±lana w skrócie jako reprezentacja binarna. 70 Rysunek 5.3: Binarna reprezentacja cz¦±ci obrazu. ródªo: Opracowanie wªasne. 5.3 Architektura systemu Proponowany system maj¡cy na celu rozpoznawanie emocji opiera si¦ na modelu maszyny pªynowej i skªada si¦ z dwóch cz¦±ci: (a) cz¦±ci pªynowej oraz (b) dwuwarstwowego perceptronu. Na rysunku 5.4 przedstawiona zostaªa cz¦±¢ pªynowa systemu. Dla wi¦kszej przejrzysto±ci rysunku pokazane zostaªy tylko pol¡czenia wchodz¡ce oraz wychodz¡ce dla wybranego neuronu z warstwy ±rodkowej. Rysunek 5.4: Archiktektura maszyny pªynowej z zaznaczonymi poª¡czeniami wchodz¡cymi oraz wychodz¡cymi dla wybranego neuronu z warstwy ±rodkowej. ródªo: Opracowanie wªasne. 71 Do symulacji maszyny pªynowej wykorzystano symulator ukªadów neuronowych CSim. Poni»ej przedstawiono opis struktury maszyny pªynowej dla reprezentacji gaborowskiej twarzy. w opisie nazwy neuronów i typów synaps pochodz¡ bezpo±rednio ze ±rodowiska Cz¦±¢ pªynowa systemu skªada si¦ z trzech warstw. z 204 pobudzaj¡cych neuronów typu 1 × 17 × 12. U»yte CSim. Pierwsza, warstwa wej±ciowa skªada si¦ Input Analog Neuron rozªo»onych na siatce o wymiarach Neurony tej warstwy nie s¡ mi¦dzy sob¡ poª¡czone, natomiast ª¡cz¡ si¦ z neuronami z warstwy ±rodkowej za pomoc¡ Static Analog Synapses. Warstwa pªynowa, w zale»no±ci od badanego modelu neuronu, mo»e skªada¢ si¦ z neuronów typu integrate-and-re, resonate-and-re, Morrisa-Lecara, Hindmarsha-Rose, FitzHugh-Nagumo oraz Izhikevitcha. Neurony uªo»one s¡ na sze±cianie o wymiarach 3 × 17 × 12. Poª¡czenia mi¦dzy nimi generowane s¡ losowo, a prawdopodobie«stwo poª¡czenia pomi¦dzy par¡ neuronów ustalane jest w zale»no±ci od parametru wane s¡ λ, którego warto±¢ w symulacjach wynosiªa 2.5. Dynamic Spiking Synapses. jako neurony hamuj¡ce. Do poª¡cze« stoso- Dodatkowo 20% neuronów w sposób losowy zostaªa wybrana Neurony tej warstwy poª¡czone s¡ za pomoc¡ Static Spiking Synapse z neuronami warstwy wyj±ciowej. Przy wyborze parametrów sugerowano si¦ do±wiadczeniami opisanymi w [38]. Warstwa wyj±ciowa skªada si¦ z neuronów tego samego typu co neurony w warstwie ±rodkowej. Neurony w niej uªo»one s¡ na siatce o wymiarach 1 × 17 × 12. Sygnal zbierany z warstwy wyj±ciowej przekazywany jest do drugiej cz¦±ci systemu klasykuj¡cego expresje twarzy, czyli do dwuwarstwowego perceptronu. Struktura cz¦±ci pªynowej dla reprezentacji binarnej twarzy ró»ni si¦ tylko nieznacznie od omówionej powy»ej typem u»ytych neuronów i synaps w warstwie wej±ciowej oraz liczb¡ neuronów u»ytych w poszczególnych warstwach. Spiking Neuron, Warstw¦ wej±ciow¡ stanowi tu 450 neuronów typu które ª¡cz¡ si¦ z warstw¡ ±rodkow¡ za pomoc¡ Static Spiking Synapses. Input Za± neurony w poszczególnych warstwach uªo»one s¡ na sze±cianach o wymiarach równych odpowiednio 1 × 45 × 10, 3 × 45 × 10, 1 × 45 × 10. Jak wspomniano powy»ej sygnaª z warstwy wyj±ciowej podawany zostaje na dwuwarstwowy perceptron. W tej cz¦±ci systemu nast¦puje analiza i interpretacja oblicze« wykonanych w cz¦±ci cieczowej. Do symulacji sieci perceptronowej wykorzystano funkcjonalno±¢ ±rodowiska Matlab. Neural Network Toolbox rozszerzaj¡ce Do nauki dwuwarstwowego perceptronu wykorzystany zostaª 7 algorytm Rprop . Liczba jednostek w warstwie wej±ciowej zale»na jest od liczby neuronów u»ytych w warstwie wyj±ciowej cz¦±ci cieczowej systemu i wynosi 204 dla reprezentacji gaborowskiej oraz 450 dla reprezentacji binarnej. Jedyna warstwa ukryta sieci skªada si¦ z 38 neuronów. W badaniach sprawdzono konguracje sieci zawieraj¡cych od 20 do 80 jednostek ukrytych, jednak»e najlepsz¡ 7 ang. Resilient propagation 72 jej skuteczno±¢ osi¡gni¦to przy 38 jednostkach. Kolejna, wyj±ciowa warstwa posiada 7 neuronów odpowiadaj¡cych poszczególnym expresjom twarzy. Jako funkcji aktywacji jednostek wyj±ciowych u»yto funkcji softmax : exp(ak ) , yk = P c exp(ak0 ) (5.2) k0 =1 ak = P wkj zj , za± zj jest wyj±ciem jednostki j jednostek warstwy ukrytej jest tanh: gdzie g(aj ) = tanh(aj ) ≡ gdzie aj = P wji xi , a xi j w warstwie ukrytej. Funkcj¡ aktywacji eaj − e−aj , eaj + e−aj (5.3) jest warto±ci¡ jednostki i w warstwie wej±ciowej. i 5.4 Wyniki bada« Nadrz¦dnym celem bada« byªo sprawdzenie wªa±ciwo±ci aproksymacyjnych maszyn pªynowych zªo»onych z ró»nych typów neuronów. Gªówny nacisk zostaª poªo»ony na zbadanie skuteczno±ci rozpoznania ekspresji przez system w przypadku wprowadzenia nowych, nie u»ytych w trakcie procesu uczenia reprezentacji twarzy. Rozmiar bazy zdj¦¢ byª ograniczony, dlatego te» w badaniach 8 u»yto techniki walidacji krzy»owej . Badanie przebiegaªo nast¦puj¡co: • ka»dy wektor reprezentuj¡cy twarz przetworzony zostaª przez cz¦±¢ pªynow¡ systemu; • zbiór wyników zostaª losowo podzielony na • dwuwarstwowy perceptron uczony byª przy pomocy danych z S odr¦bnych segmentów (w badaniach S−1 S = 10); segmentów, a nast¦pnie testowany przy u»yciu pozostaªego segmentu; • powy»szy proces uczenia sieci perceptronowej powtórzony zostaª dla S mo»liwych wyborów segmentu testuj¡cego skuteczno±¢ sieci; • ostateczny wynik zostaª u±redniony po wszystkich S uczonych sieciach perceptronowych. Wynik ko«cowy procesu uczenia sieci perceptronowej w du»ej mierze zdeterminowany jest przez pocz¡tkowy wybór wag poª¡cze« mi¦dzy neuronami. Dlatego te», w badaniach ka»da sie¢ byªa uczona 100 krotnie i tylko najlepiej nauczona byªa brana pod uwag¦ w dalszych rozwa»aniach. Badanie systemu rozpoznawania emocji przy zastosowaniu opisanego powy»ej systemu przeprowadzone zostaªo w dwóch wariantach w zale»no±ci od u»ytej reprezentacji twarzy. W trakcie bada« ustalono, »e wyniki systemu przy u»yciu modelu integrate-and-re w warstwie pªynowej dla obu reprezentacji s¡ zbli»one. Dlatego te», tylko dla reprezentacji binarnej twarzy przeprowadzono symulacje wykorzystuj¡c w warstwie pªynowej, oprócz modelu integrate-and-re, modele resonate-and-re, Morrisa-Lecara, FitzHugh-Nagumo, Hindmarsha-Rose oraz Izhikevicha. 8 ang. cross-validation technique 73 Tablica 5.2: Przykªady poprawnego rozpoznania emocji przez sie¢. ródªo: Opracowanie wªasne. Ekspresja: zaskoczenie Ekspresja: rado±¢ Ekspresja: niesmak Ekspresja: strach Odpowied¹ sieci: Odpowied¹ sieci: Odpowied¹ sieci: Odpowied¹ sieci: rado±¢ 0.012782 rado±¢ 0.860270 rado±¢ 0.294676 rado±¢ smutek 0.000008 smutek 0.103198 smutek 0.002134 smutek 0.000000 zªo±¢ 0.000001 zªo±¢ 0.000143 zªo±¢ 0.000000 zªo±¢ 0.000006 strach 0.001677 strach 0.000006 strach 0.001609 strach 0.999990 zaskoczenie 0.955093 zaskoczenie 0.020961 zaskoczenie 0.001065 zaskoczenie 0.000000 odraza 0.002122 odraza 0.013642 odraza 0.700517 odraza 0.000004 neutralna 0.028317 neutralna 0.001780 neutralna 0.000000 neutralna 0.000000 0.000000 Tablica 5.3: Przykªady bª¦dnego rozpoznania emocji przez sie¢. ródªo: Opracowanie wªasne. Ekspresja: zªo±¢ Ekspresja: strach Ekspresja: smutek Ekspresja: rado±¢ Odpowied¹ sieci: Odpowied¹ sieci: Odpowied¹ sieci: Odpowied¹ sieci: rado±¢ 0.000000 rado±¢ 0.067334 rado±¢ 0.000075 rado±¢ smutek 0.999997 smutek 0.000081 smutek 0.000000 smutek 0.000000 zªo±¢ 0.000000 zªo±¢ 0.000003 zªo±¢ 0.000033 zªo±¢ 0.001881 strach 0.000003 strach 0.029768 strach 0.000000 strach 0.000009 zaskoczenie 0.000000 zaskoczenie 0.000000 zaskoczenie 0.000544 zaskoczenie 0.000002 odraza 0.000000 odraza 0.000519 odraza 0.739753 odraza 0.984225 neutralna 0.000000 neutralna 0.902294 neutralna 0.259595 neutralna 0.008353 0.005530 W tabeli 5.2 przedstawiono wybrane wyniki poprawnego rozpoznania ekspresji twarzy przez system w przypadku reprezentacji gaborowskiej. wybrane w sposób jednoznaczny. Jak wida¢, prawidªowe odpowiedzi zostaªy Mo»na przypuszcza¢, »e w tych przypadkach du»y wpªyw na wynik klasykacji maj¡ bardzo ªadnie i dobitnie wyeksponowane na twarzych modelek ekspresje. W tabeli 5.3 przedstawiono wybrane wyniki bª¦dnego rozpoznania ekspresji twarzy przez system w przypadku reprezentacji gaborowskiej. Tu, sie¢ jednoznacznie wskazaªa inn¡ ekspresje jako rozpoznan¡. Nale»y zwróci¢ uwag¦, »e w tych przypadkach ekspresje nie s¡ ju» tak wyra¹ne jak w poprzednich przykªadach, co mo»e mie¢ bezpo±rednie przeªo»enie na wynik dziaªania sieci. Na przykªad, zdj¦cie pierwsze sklasykowane w bazie JAFFE jako zªo±¢, bardziej obrazuje odraz¦, cho¢ mo»e te» by¢ uznane jako ogromny smutek przechodz¡cy w rozpacz, tak jak odczytaªa to sie¢ neuronowa. Z kolei zdj¦cie drugie, opisane w bazie jako strach, mo»e równie» oznacza¢ lekkie zaskoczenie b¡d¹ twarz neutraln¡. 74 Skuteczno±¢ poprawnego odczytywania ekspresji w systemie sprawdzono dla dwóch reprezentacji twarzy, reprezentacji gaborowskiej oraz reprezentacji binarnej. W tabeli 5.4 przedstawiono wyniki przeprowadzonych bada« dla obu reprezentacji przy u»yciu w warstwie cieczowej neuronów typu integrate-and-re. Jak mo»na zauwa»y¢, ró»nice pomi¦dzy skuteczno±ci¡ klasykacji ekspresji pomi¦dzy obiema reprezentacjami twarzy s¡ maªe, z niewielk¡ przewag¡ na korzy±¢ reprezentacji gaborowskiej. W trakcie bada« wykorzystano technik¦ walidacji krzy»owej i w tym celu wyodr¦bniono w sposób losowy 21 grup zawieraj¡cych po 10 przetworzonych przez kolumn¦ cieczow¡ danych. Poprawno±¢ rozpoznanych ekspresji w poszczególnych grupach ró»ni si¦ znacznie i jej najmniejsza warto±¢ wynosi 30%, za± najwi¦ksza 90%. rednia skuteczno±¢ w przypadku reprezentacji gaborowskiej wynosi 58%, natomiast w przypadku reprezentacji binarnej 56%. Tablica 5.4: Porównanie wyników rozpoznania ekspresji obu reprezentacji twarzy. ródªo: Opracowanie wªasne. Skuteczno±¢ klasykacji ekspresji [w %] Reprezentacja gaborowska Reprezentacja binarna Grupa 1 50 60 Grupa 2 60 70 Grupa 3 70 50 Grupa 4 70 30 Grupa 5 50 60 Grupa 6 30 50 Grupa 7 50 50 Grupa 8 60 70 Grupa 9 60 40 Grupa 10 50 60 Grupa 11 80 50 Grupa 12 50 80 Grupa 13 50 70 Grupa 14 90 40 Grupa 15 70 50 Grupa 16 50 50 Grupa 17 40 60 Grupa 18 50 50 Grupa 19 70 60 Grupa 20 60 70 Grupa 21 50 50 rednia 58 56 75 Ró»nica w skuteczno±ci obu sprawdzanych wariantów jest niewielka. Do dalszych bada« u»yto wi¦c tylko reprezentacji binarnej, gªównie z uwagi na jej prostot¦ oraz relatywnie niski koszt implementacyjny. Przy u»yciu tej reprezentacji sprawdzono aproksymacyjne wªa±ciwo±ci maszyny pªynowej dla ró»nych modeli neuronów. Wyniki tych bada« przedstawiono w tabeli 5.5. Jak wida¢ Tablica 5.5: Porównanie wyników rozpoznania ekspresji w poszczególnych grupach testowych dla ró»nych modeli neuronów. ródªo: Opracowanie wªasne. Skuteczno±¢ klasykacji ekspresji [w %] Integrate- Resonate- Morris- FitzHugh- Hindmarsh- and-re and-re Lecar Nagumo Rose Grupa 1 60 60 60 60 Grupa 2 70 70 70 Grupa 3 50 50 Grupa 4 30 Grupa 5 Izhikevich rednia 60 50 58 30 60 50 58 60 60 70 30 53 70 80 60 30 50 53 60 70 60 60 60 40 58 Grupa 6 50 60 50 50 50 40 50 Grupa 7 50 50 50 70 50 30 50 Grupa 8 70 50 70 60 50 60 60 Grupa 9 40 30 60 70 30 50 47 Grupa 10 60 50 50 60 70 30 53 Grupa 11 50 50 60 40 60 40 50 Grupa 12 80 50 50 40 60 40 53 Grupa 13 70 60 60 50 40 50 55 Grupa 14 40 60 40 60 70 50 53 Grupa 15 50 40 50 50 60 60 52 Grupa 16 50 60 80 60 50 50 58 Grupa 17 60 30 40 60 60 30 47 Grupa 18 50 40 40 60 30 40 43 Grupa 19 60 60 60 50 50 40 53 Grupa 20 70 70 50 40 40 40 52 Grupa 21 50 60 70 50 40 50 53 rednia 56 54 58 54 52 44 najwi¦ksz¡ ±redni¡ skuteczno±ci¡ rozpoznawania emocji charakteryzuje si¦ model Morrisa-Lecara. rednia skuteczno±¢ tego modelu osi¡gn¦ªa w badaniach tak¡ sam¡ wielko±¢ jak skuteczno±¢ rozpoznawania modelu przy reprezentacji gaborowskiej, czyli 58%. Natomiast najni»sz¡ ±redni¡ skuteczno±ci¡ wynosz¡c¡ 44% wykazuje si¦ model Izhikevicha. Ogólnie poprawno±¢ rozpoznania emocji waha si¦ w granicach od 30 do 80%. Warto zauwa»y¢, »e skuteczno±¢ rozpoznania ekspresji w poszczególnych grupach mo»e ró»ni¢ si¦ w zale»no±ci od modelu neuronu. Na przykªad, w grupie 2 76 poprawno±¢ rozpoznania emocji wynosi tylko 30% dla modelu FitzHugh-Nagumo, ale a» 70% dla modeli typu integrate-and-re, resonate-and-re oraz Morrisa-Lecara. Podobni¡ sytuacj¦ mo»na zaobserwowa¢ w grupie 4, gdzie skuteczno±¢ rozpoznania wynosi 30% dla modeli Hindmarsha-Rose i integrate-and-re, a a» 80% dla modelu Morrisa-Lecara. Skuteczno±¢ rozpoznania emocji ró»ni si¦ równie» mi¦dzy grupami, najsªabsza wynosi 43% dla grupy 18, natomiast najlepsza 60% dla grupy 8. Co mo»e sugerowa¢ nierównomierny rozkªad trudno±ci rozpoznania ekspresji w grupach. Tablica 5.6: Porównanie wyników rozpoznania ekspresji twarzy dla ró»nych modeli neuronów. ródªo: Opracowanie wªasne. Skuteczno±¢ klasykacji ekspresji [w %] Integrate- Resonate- Morris- FitzHugh- Hindmarsh- and-re and-re Lecar Nagumo Rose Rado±¢ 48 58 65 45 48 58 Smutek 58 42 58 52 42 42 Zªo±¢ 53 67 53 57 63 67 Strach 52 52 68 61 48 52 Zaskoczenie 69 66 55 59 66 66 Odraza 62 48 48 41 34 48 Neutralne 48 48 55 65 62 48 Izhikevich W tabeli 5.6 przedstawiono skuteczno±¢ rozpoznania ekspresji twarzy wyznaczon¡ dla ró»nych modeli neuronów w rozbiciu na poszczególne ekspresje. Analizuj¡c dane w tabeli mo»na zauwa»y¢ pewn¡ tendencj¦ do dominacji jednego typu neuronu w rozpoznawaniu konkretnej emocji. Bio- r¡c pod uwag¦ model neuronu Morrisa-Lecara ªatwo dostrzec, »e w porównaniu z pozostaªymi charakteryzuje si¦ wysok¡ skuteczno±ci¡ klasykacji ekspresji rado±ci (65%) oraz strachu (67%). Natomiast model integrate-and-re najlepiej radzi sobie z rozpoznaniem ekspresji odrazy (62%) i tu jego przewaga nad pozostaªymi modelami jest du»a. Model ten równie» najlepiej radzi sobie z rozpoznaniem zaskoczenia (69%), cho¢ w tym przypadku dominacja nie jest wyra¹na. W poprawnej klasykacji ekspresji neutralnej najlepiej wypada model FitzHugh-Nagumo (66%). rednia skuteczno±¢ rozpoznania 7 ekspresji twarzy przez system oparty na maszynie pªynowej wynosi 58% dla reprezentacji gaborowskiej oraz 56% dla reprezentacji binarnej. Co niestety nie jest wynikiem zadowalaj¡cym w porównaniu do osi¡gni¦¢ podobnych systemów. Wyniki osi¡gane przez algorytmy rozpoznaj¡ce 7 ekspresji przedstawione w tabeli 5.1 s¡ du»o lepsze i wynosz¡ 83% dla algorytmu Cohena oraz 74% dla algorytmu Lanitisa. Systemy rozpoznaj¡ce mniejsz¡ liczb¦ ekspresji mog¡ osi¡ga¢ poprawno±¢ rozpoznania równ¡ a» 98%. Jednak»e ze wzgl¦du na ograniczenia w liczbie rozpoznawanych ekspresji nie powinny by¢ porównywane z omawianym pªynowym systemem. 77 Wyniki omawianego systemu powinny zosta¢ skonfrontowane równie» z wynikami przeprowadzonych bada« na podmiotach ludzkich przy wykorzystaniu tej samej bazy zdj¦¢ JAFFE. Jak podano w [36], 60 osób zostaªo poproszone o sklasykowanie ka»dego obrazu twarzy z bazy. W najgorszym przypadku, okoªo 20% badanych osób nie zgodziªo si¦ z opisan¡ na zdj¦ciu ekspresj¡ twarzy. Przyczyn braku zgody pomi¦dzy opini¡ badanych osób a opisan¡ ekspresj¡ twarzy mogªo by¢ kilka. W niektórych przypadkach modelki mogªy ukazywa¢ ekspresje niedokªadnie czy nawet niewªa±ciwie. Osoby badane mogªy zamiennie wskazywa¢ pewne ekspresje, na przykªad strach mógª by¢ zamieniony z zaskoczeniem, a zªo±¢ z odraz¡. W niektórych przypadkach istniaªa równie» mo»liwo±¢ nadania obrazowi nieodpowiedniej etykiety z ekspresj¡ w trakcie procesu przygotowywania bazy. Tablica 5.7: Wyniki rozpoznania ekspresji przez badan¡ grup¦ osób. ródªo: Opracowanie wªasne. E1 E2 E3 E4 E5 E6 E7 E8 E9 E10 rednia [w %] Osoba 1 1 0 1 0 0 0 0 0 1 1 40 Osoba 2 1 0 1 1 0 1 1 1 1 1 80 Osoba 3 0 1 1 1 0 1 0 1 1 1 70 Osoba 4 1 0 0 1 1 1 0 1 1 1 70 Osoba 5 1 1 1 0 0 0 0 0 1 1 50 Osoba 6 0 0 0 0 0 1 0 1 1 0 30 Osoba 7 0 0 1 0 0 0 1 1 1 1 50 Osoba 8 0 1 1 1 0 0 0 1 1 0 50 Osoba 9 1 0 0 1 1 1 0 1 1 0 60 Osoba 10 1 1 1 0 0 0 0 1 1 0 50 Osoba 11 1 1 0 0 0 1 0 1 1 1 60 rednia [w %] 64 45 64 45 18 54 18 82 100 64 55 Tabela 5.7 przedstawia wyniki przeprowadzonych bada« na grupie 11 polskich m¦»czyzn. W tym przypadku ka»da z osób otrzymaªa do sklasykowania tylko 10 losowo wybranych z bazy JAFFE zdj¦¢ twarzy. rednio tylko w 55% badane osoby zgadzaªy si¦ z okre±lon¡ dla obrazów ekspresj¡. Dla obrazu o numerze 5 i 7 ±rednia skuteczno±¢ rozpoznania wynosiªa zaledwie 18%. Tylko w przypadku obrazu 9 wszystkie osoby zgodziªy si¦ z nadan¡ ekspresj¡. Ze wzgl¦du na ograniczon¡ liczb¦ sprawdzanych zdj¦¢ oraz maª¡ liczb¦ badanych osób trudno te wyniki odnie±¢ do tych otrzymanych przez japo«skich badaczy. Du»y procent niezgodno±ci w rezultatach mo»e jednak sugerowa¢, »e wyniki przeprowadzone w podobnych warunkach w Polsce mogªyby si¦ ró»ni¢. 78 Podsumowanie W pracy przedstawiono wyniki bada« wªa±ciwo±ci sieci neuronów biologicznych z wykorzystaniem wybranych metod takich jak analiza odlegªo±ci euklidesowej czy entropia informacyjna. Do badania wªa±ciwo±ci sieci wykorzystano uproszczony model ukªadu wzrokowego. Stosuj¡c podej±cie Maassa rozszerzono ide¦ maszyny pªynowej przez oparcie architektury ukªadu na nast¦puj¡cych modelach neuronów: integrate-and-re, resonate-and-re, FitzHugh-Nagumo, Morrisa-Lecara, Hindmarsha- Rose oraz Izhikevicha. W trakcie bada« poczyniono nast¦puj¡ce obserwacje: 1. Na podstawie przebiegów stanów aktywno±ci obserwowanych neuronów uzyskanych w odpowiedzi na ró»ne wzorce podawane siatkówce mo»na domniemywa¢ o jako±ci wªasno±ci separowalno±ci maszyny pªynowej. Maªo wyra¹ne zmiany w odpowiedziach maszyny pªynowej na podawane wzorce, takie jak w przypadku modelu Izhikevicha, mog¡ ±wiadczy¢ o sªabej wªasno±ci separowalno±ci. 2. Wspóªczynnik g¦sto±ci poª¡cze« synaptycznych szyny pªynowej. Zmiana wspóªczynnika λ ma wpªyw na zdolno±ci separowalno±ci ma- λ z warto±ci 3 na 9 spowodowaªa pogroszenie wªa±ci- wo±ci separowalno±ci w przypadku wszystkich modeli, oprócz modelu Hindmarsha-Rose'84. Przy g¦sto±ci poª¡cze« synaptycznych równej 3 najlepsz¡ wªa±ciwo±ci¡ separowalno±ci charakteryzowaª si¦ model Morrisa-Lecara, najgorsz¡ natomiast model Izhikevicha. Przy warto±ci λ równej 9 najlepsz¡ wªa±ciwo±¢ separowalno±ci posiadaª model Hindmarsha-Rose'84. 3. Ksztaªt wykresu entropii indywidualnej wyznaczonej dla neuronów dobny do wykresu odpowiedzi pojedynczego neuronu resonate-and-re jest po- resonate-and-re. W ramach pracy stworzono równie» system do rozpoznawania ekspresji twarzy oparty na modelu maszyny pªynowej. Badanie systemu przeprowadzono w dwóch wariantach w zale»no±ci od przyj¦tej reprezentacji twarzy. rednia skuteczno±¢ rozpoznania 7 ekspresji twarzy przez system wyniosªa 58% dla reprezentacji gaborowskiej oraz 56% dla reprezentacji binarnej. Wyniki systemu przy u»yciu modelu integrate-and-re w warstwie pªynowej byªy dla obu reprezentacji zbli»one, dlatego te» tylko dla reprezentacji binarnej twarzy przeprowadzono symulacje wykorzystuj¡c w warstwie pªynowej modele resonate-and-re, Morrisa-Lecara, FitzHugh-Nagumo, Hindmarsha-Rose 79 oraz Izhikevicha. Ogólna poprawno±¢ rozpoznania emocji dla wszystkich modeli neuronów wahaªa si¦ w granicach od 30% do 80%. W trakcie bada« zauwa»ono, »e skuteczno±¢ rozpoznania eks- presji ró»niªa si¦ w zale»no±ci od u»ytego modelu neuronu. Ponadto dostrze»ono pewn¡ tendencj¦ do dominacji jednego typu neuronu w rozpoznawaniu konkretnej emocji. Najlepszym modelem w klasykacji ekspresji rado±ci (65%) oraz strachu (67%) okazaª si¦ model Morrisa-Lecara. Na- tomiast z rozpoznawaniem ekspresji odrazy (63%) oraz zaskoczenia (69%) najlepiej radziª sobie model integrate-and-re. Otrzymane wyniki bada« nad systemem rozpoznawania ekspresji mog¡ sugerowa¢, »e partie mózgu zªo»one z ró»nych typów neuronów obieraj¡ odmienne strategie przy rozpoznawaniu emocji. Oczywi±cie nie nale»y traktowa¢ tych wyników jako dowódu, ale z pewno±ci¡ stanowi¡ one ciekawy warty dalszych bada« wgl¡d w teorie funkcjonowania mózgu. 80 Bibliograa [1] Longsta A., Krótkie wykªady. Neurobiologia, Warszawa 2005. [2] Krause M., Czªowiek i jego ukªad nerwowy, l¡sk 2002. [3] Gerstner W., Kistler W.M., Spiking Neuron Models, Single Neurons, Populations, Plasticity, Cambridge 2002. [4] Kosi«ski R.A., Sztuczne sieci neuronowe. Dynamika nieliniowa i chaos, Warszawa 2004. [5] Izhikevich E.M., Which Model to Use for Cortical Spiking Neurons, IEEE Transactions on Neural Networks, Vol. 15, 2004, s. 1063-1070. [6] Malmivuo J., Plonsey R., Bioelectromagnetism. Principles and Applications of Bioelectric and Biomagnetic Fields, Oxford 1995. [7] Izhikevich E.M., Resonate-and-re neurons, Neural Networks, Vol. 14, 2001, s. 883-804. [8] Hodgkin A.L., Huxley A.F., A quantitative description of membrane current and its application to conduction and excitation in nerve, Journal of Physiology, Vol. 117, 1952, s. 500-544. [9] Moehlis J.M., FitzHugh± Simplication of the Hodgkin/Huxley Equations, http://www.me.ucsb.edu/ moehlis/APC591/tutorials/tutorial2/tutorial2.html. [10] FitzHugh R.A., Impulses and physiological states in theoretical models of nerve membrane, Biophysical Journal, Vol. 1, 1961, s. 445-466. [11] Av-Ron E., Byrne J.H., Baxter D.A., Teaching Basic Principles of Neuroscience with Computer Simulations, The Journal of Undergraduate Neuroscience Education, 2006, Vol. 4, s. 40-52. [12] Korn H., Faure P., Is there chaos in the brain? II. Experimental evidence and related models, Comptes Rendus Biologies, Vol. 326, 2003, s. 787-840. [13] Hindmarsh J., Cornelius P., The development of the Hindmarsh-Rose model for bursting, http://www.ccs.neu.edu/home/kunkle/docs/pnn.pdf 81 [14] Ginoux J.M., Rossetto B., Slow Manifold of a neuronal bursting model [w:] Understanding Complex Systems, Heidelberg, 2006. [15] Izhikevich E.M., Simple Model of Spiking Neurons, IEEE Transactions on Neural Networks, Vol. 14, 2003, s. 1569-1572. [16] Grzyb B., Biaªow¡s J., Modeling of LTP-related phenomena using an articial ring cell, ICONIP, 2006, s. 90-96. [17] Bialowas J., Grzyb B., Poszumski P., Firing Cell: An Articial neuron with a simulation of Long-Term-Potentiation-Related Memory, The Eleventh International Symposium of Articial Life and Robotics, 2006, s. 731-734. [18] Atwood H.L., MacKay W.A., [19] Schmidt R.F., Essentials of Neurophysiology, Toronto 1989. Fundamentals of Neurophysiology, New York 1976, s. 64-92. [20] Muller D., Joly M., Lynch G., Contributions of quisqualate and NMDA receptors to the induction and expression of LTP, Science, Vol. 242, 1988, s. 1694-1697. [21] Bliss T.V.P, Collingridge G.L., Asynaptic model of memory: long-term potentiation in the hippocampus, Nature, Vol. 361, 1993, s. 31-39. [22] Bekkers J.M, Stevens Ch.F., Two dierent ways evolution makes neurons larger, Progress in Brain Research, Vol. 83, 1990, s. 37-45. [23] Kunkle D.R., Merrigan Ch., Pulsed Neural Networks and their Application, http://www.ccs.neu.edu/home/kunkle/docs/pnn.pdf, 2002. [24] Maass W., Networks of Spiking Neurons: The Third Generation of Neural Network Models, Neural Networks, Vol. 10, 1997, s. 1659-1671. [25] Natschlager T., Maass W., Markram H., The Liquid Computer: A Novel Strategy for RealTime Computing on Time Series, Special Issue on Foundations of Information Processing of TELEMATIK, Vol. 8, 2002, s. 39-43. [26] Fernando Ch., Sojakka S., Pattern Recognition in a Bucket, Proceedings 7th European Conference on Articial Life, 2003, s. 588-597. [27] Maass W., Natschlager T., Markram H., Real-Time Computing Without Stable States: A New Framework for Neural Computation Based on Perturbations, Neural Computation, Vol. 14, 2002, s. 2531-2560. 82 [28] Verstraeten D., Schrauwen B., Stroobandt D., Van Campenhout J., Isolated word recognition with the Liquid State Machine: a case study, Information Processing Letters, Vol. 95, 2005, s. 521-528. [29] Maass W., Natschlager T., Markram H., Computational Models for Generic Cortical Microcircuits [w:] Computational Neuroscience: A Comprehensive Approach, CRC-Press 2002. (do pobrania ze strony http://www.lsm.tugraz.at/references.html) [30] Jaeger H., A tutorial on training recurrent neural networks, covering BPPT, RTRL, EKF and the echo state network approach, GMD Report 159, Fraunhofer Institute AIS, http://www.faculty.iu-bremen.de/hjaeger/pubs/ESNTutorial.pdf, 2002. [31] Jaeger man H., Short National Term Research Memory in Center for Echo State Information Networks, GMD Technology, Report 152, Ger- http://www.faculty.iu- bremen.de/hjaeger/pubs/STMEchoStatesTechRep.pdf, 2002. [32] Wójcik G.M., Kami«ski W.A., Liquid State Machine and its separation ability as function of electrical parameters of cell (w druku). [33] Muszy«ski S., Kami«ski W.A., Studies on the association properties of the LSM network of the Hodgkin-Huxley neurons, Bio-Algorithms and Med-Systems, Vol. 1, s. 27-30. [34] Maass W., Natschlager T., Markram H., A Model for Real-Time Computation in Generic Neural Microcircuits, Advances in Neural Information Processing Systems, vol. 15, 2003, s. 229236. [35] Kami«ski W.A., Wójcik G.M., Liquid state machine built of Hodgkin-Huxley neurons-pattern recognition and informational entropy, Annales UMCS Informatica AI, Vol. 1, 2003, s. 107-113. [36] Zhang Z., Lyons M., Schuster M., Akamatsu S., Comparison Between Geometry-Based and Gabor-Wavelets-Based Facial Expression Recognition Using Multi-Layer Perceptron, Third IEEE International Conference on Automatic Face and Gesture Recognition, 1998, s. 454459. [37] Sebe N., Cohen I., Huang T.S., Handbook of Pattern Recognition and Computer Vision, World Scientic 2005. [38] Burgsteiner H., Kroll M., Leopold A., Steinbauer G., Movement Prediction from real-world Images using a Liquid State Machine, Applied Intelligence, Vol. 26, 2007, s. 99-109. 83