1. Historia sztucznych sieci neuronowych 2. Mózg a komputer

Transkrypt

1. Historia sztucznych sieci neuronowych 2. Mózg a komputer
Daniel Kierepka
Kompresja obrazów za pomoc sztucznych sieci neuronowych
We współczesnym wiecie do du ym problemem jest przesyłanie
danych o znacznej wielko ci w sieciach telekomunikacyjnych. W tej pracy
zostanie pokazana jedna z metod rozwi zania tego problemu z wykorzystaniem
sztucznych sieci neuronowych.
1. Historia sztucznych sieci neuronowych
Rozwój sztucznych sieci neuronowych został zapocz tkowany w latach
czterdziestych prób opisania w matematyczny sposób komórki nerwowej.
Zauwa ono wtedy cenne własno ci zarówno pojedynczego neuronu jak równie
zbudowanych poprzez ich ró norodne poł czenia- sztucznych sieci
neuronowych (SSN). Pierwsz z nich jest równoległe przetwarzanie informacji
w tym nieliniowych. Stwierdzono tak e, e ogromnym atutem sztucznych sieci
do uczenia, zast puj ca tradycyjne
neuronowych jest ich zdolno
programowanie.
2. Mózg a komputer
Interesuj cym zagadnieniem, z naukowego punktu widzenia, jest
porównanie własno ci systemów komputerowych z własno ciami mózgu. Jak
wiadomo, mózg zbudowany jest z komórek nerwowych, które pełni rol
mikroprocesorów. Przesyłaj one mi dzy sob sygnały, które przy pewnym
uproszczeniu mo emy potraktowa jako impulsy elektryczne. Komórka
nerwowa (Rys.1.) zbudowana jest z dendrytów, które s wej ciami do komórki
nerwowej i aksonu który jest przedłu eniem komórki nerwowej i jednocze nie
poł czeniem z innymi komórkami (wyj cie) w miejscu zwanym synaps .
Poprzez poł czenia synaptyczne transmitowane s sygnały do innych komórek
nerwowych.
Rys.1. Komórka nerwowa
Z cybernetycznego punktu widzenia neuron biologiczny mo na traktowa
jako specyficzny przetwornik sygnałów. Jest to układ o wielu wej ciach
(synapsy) i jednym wyj ciu (akson).
Podobnie jak w przypadku neuronowych sieci biologicznych,
podstawowymi elementami z których buduje si sztuczne sieci neuronowe s
sztuczne neurony. Z technicznego punktu widzenia sztuczny neuron jest
elementem, którego własno ci odpowiadaj wybranym własno ciom neuronu
biologicznego. Sztuczny neuron (Rys.2.) z zało enia nie jest wi c wiern kopi
neuronu biologicznego, lecz mniej lub bardziej uproszczonym jego modelem,
który powinien spełnia okre lone funkcje w sztucznej sieci neuronowej.
Rys.2. Sztuczny neuron
3. Sztuczny neuron
Ogólnie sztuczny neuron mo na rozpatrywa jako specyficzny przetwornik sygnałów (Rys.3.) działaj cy według nast puj cej zasady. Na wej cie
przetwornika podawane s sygnały wej ciowe, które nast pnie s mno one
przez odpowiednie współczynniki wag. "Wa one" sygnały wej ciowe s
nast pnie sumowane i korygowane o stał warto progow b. Na tej podstawie
wyznacza si pobudzenie neuronu. Pobudzone sygnały przechodz z kolei przez
nieliniow funkcje aktywacji daj c na wyj ciu sieci odpowiedni sygnał
wyj ciowy.
Rys.3. Model sztucznego neuronu
4. Uczenie sztucznych sieci neuronowych
Jak ju wspomniano na pocz tku, sztuczne sieci neuronowe posiadaj
zdolno do uczenia si . Mo na tu wyró ni dwa sposoby uczenia sztucznych
sieci neuronowych: z nauczycielem (uczenie nadzorowane) i bez nauczyciela
(uczenie nienadzorowane).
W trybie uczenia z nauczycielem (Rys.4.) przyjmuje si , e znany jest
po dany sygnał wyj ciowy neuronu, a dobór wag musi by przeprowadzany w
taki sposób, aby aktualny sygnał wyj ciowy neuronu był najbli szy warto ci
zadanej. Istotnym elementem jest tu znajomo po danej warto ci sygnału
wyj ciowego neuronu.
Rys.4. Uczenie neuronu w trybie nadzorowanym
Je li nie mo na tego zapewni , to dla okre lonej klasy problemów,
pozostaje wybór strategii uczenia bez nauczyciela. Dobór wag odbywa si
wtedy na innej zasadzie wykorzystuj c konkurencj neuronów mi dzy sob .1
5. Sieci autoasocjacyjne
Sie autoasocjacyjna jest sieci , która jest uczona w taki sposób, aby
dokonywała maksymalnie wiernej reprodukcji warto ci sygnałów wej ciowych
na swoich wyj ciach. Na pozór takie działanie nie ma sensu, skoro mamy pewne
dane na wej ciu, to po co budowa sie i uczy j eby odtworzyła na swoim
wyj ciu, mo liwie wiernie, te same dane? Jednak je li skonstruujemy sie w taki
sposób, e w warstwie wewn trznej podamy mniejsz liczb neuronów ni w
warstwach wej ciowej i wyj ciowej to zadanie to b dzie miało cechy kompresji
sygnału2. Wtedy przez t warstw o zmniejszonym wymiarze musz zosta
przesłane sygnały z wej cia na wyj cie. Dlatego te w celu realizacji stawianego
jej zadania reprodukcji informacji wej ciowej na wyj ciu sie musi si najpierw
nauczy innej reprezentacji obszernych danych wej ciowych przy pomocy
mniejszej liczby sygnałów produkowanej przez neurony warstwy ukrytej.
Nast pnie musi opanowa umiej tno rekonstrukcji na wyj ciu pełnych danych
wej ciowych na podstawie „skompresowanej” informacji.
6. Program bada
Prowadz c badania, skonstruowano sztuczn sie neuronow , której
zadaniem była kompresja obrazu podawanego na wej ciu sieci. Jako obrazy
przeznaczone do kompresji przyj to znaki, litery alfabetu rysowane na matrycy
wielko ci 10x10. Model badawczy (Rys.5.) stanowiły sieci MLP (Multilayer
Perceptron).
W trakcie prowadzonych bada zauwa ono, e sie najlepiej radzi sobie z
tym problemem, je li umieszczono w niej jeszcze dwie dodatkowe, symetryczne
warstwy ukryte. Nasze obserwacje w pełni pokrywaj si w tym wzgl dzie
z opisami znajduj cymi si w studiowanej literaturze dot. zastosowa
sztucznych sieci neuronowych [5].
W zwi zku z tym do ostatecznych bada przyj to modele sieci
neuronowych o trzech warstwach ukrytych i nast puj cych wymiarach:
1
Wi cej informacji o uczeniu sieci w trybie bez nauczyciela mo na znale w: Jacek urada, Introduction to
Artificial Neural Systems, West Publishing Company, USA 1992, str. 246-253.
2
Inny przykład wykorzystania sieci autoasocjacyjnych do preprocessingu danych wej ciowych do modeli
neuronowych, został szczegółowo opisany w: Andrzej Burda, Budowa optymalnego modelu prognostycznego z
wykorzystaniem preprocessingu w sztucznych sieciach neuronowych, Zamojskie Studia i Materiały, Rok
wyd.IV, zeszyt 2, Wyd. WSZiA w Zamo ciu, Zamo 2002
MLP 100:65:20:65:100 (liczby neuronów w kolejnych warstwach sieci)
MLP 100:50:10:50:100
MLP 100:40:5:40:100
W przypadku sieci pierwszej stopie kompresji wyniósł: 5, drugiej: 10,
a trzeciej: 20.
Rys.5. Model badawczy
Konkluduj c- sie po rozdzieleniu na dwie cz ci posłu yła jako nadajnik
i odbiornik (Rys.6.) przekazywanego sygnału. Zadaniem sieci była najpierw
kompresja obrazu, przesłanie danych przez medium transmisyjne, a nast pnie
dekompresja do rzeczywistego obrazu podawanego na wej ciu.
Rys.6. Schemat zastosowania modelu
Badano działanie sieci przy ró nych stopniach kompresji. Przy 5- krotnej
kompresji sie znakomicie radziła sobie z postawionym jej zadaniem. Natomiast
przy wi kszych stopniach kompresji zacz ły pojawia si zniekształcenia, które
utrudniały interpretacj obrazów na wyj ciu sieci Dotyczyły one liter, których
wzorce s do siebie bardzo podobne (Rys.7.).
Rys.7. Typowe zniekształcenie obrazów
Wnioski
Zastosowanie autoasocjacyjnych sztucznych sieci neuronowych jako
narz dzi do kompresji sygnałów, stanowi ciekawe do wiadczenie badawcze i
daje dobre wyniki praktyczne. Sieci przedstawione w badaniach przy wi kszych
stopniach kompresji nieco zniekształcały wzorce wej ciowe. Zauwa ono jednak,
e zniekształcenia te nie dotycz translacji pionowej ani poziomej. Nie dotycz
te obrotów wokół własnej osi. Mo na wi c w łatwy sposób wyeliminowali my
te zakłócenia wprowadzaj c na wyj ciu dodatkow sie , która poprawnie
sklasyfikuje te wzorce mimo ich zniekształce .
Zaproponowany model SSN, nawet przy 20-krotnej kompresji sygnału,
dobrze radzi sobie z postawionym problemem i z powodzeniem mo e by
stosowany to tego typu zada .
Literatura:
1. Andrzej Burda, Budowa optymalnego modelu prognostycznego
z wykorzystaniem
preprocessingu
w
sztucznych
sieciach
2.
3.
4.
5.
neuronowych, Zamojskie Studia i Materiały, Rok wyd. IV, zeszyt 2,
Wyd. WSZiA w Zamo ciu, Zamo 2002
Stanisław Osowski, Sieci neuronowe, Oficyna Wydawnicza
Politechniki Warszawskiej, Warszawa 1994
Ryszard Tadeusiewicz, Mariusz Flasi ski, Rozpoznawanie obrazów,
Pa stwowe Wydawnictwo Naukowe, Warszawa 1991
Jacek urada, Introduction to Artificial Neural Systems, West
Publishing Company, USA 1992
Podr cznik programu Statistica Neural Networks PL, Wprowadzenie
do sieci neuronowych, StatSoft, Kraków 2001

Podobne dokumenty