Microsoft PowerPoint - SNiAE-3-Sieci

Transkrypt

Microsoft PowerPoint - SNiAE-3-Sieci
Samoorganizacja
Sieci neuronowe
i algorytmy ewolucyjne
Uczenie bez nadzoru: wykrywanie cech w sygnale, modelowanie
danych, analiza skupień, modele rozkładu prawd. stanów środowiska ...
Powstawanie wewnętrznych reprezentacji w mózgu: skomplikowane.
Proste bodźce wyzwalające u zwierząt, uboga reprezentacja.
Analiza danych zmysłowych i instrukcje motoryczne - neurony o
podobnych funkcjach są obok siebie => mapy topograficzne.
III. Sieci – uczenie bez nadzoru
•
•
•
•
•
Jerzy KORCZAK
email :[email protected]
http://www.korczak-leliwa.pl
http://citi-lab.pl http://kti.ue.wroc.pl
Mapy somatosensoryczne układu czuciowego,
mapy motoryczne kory i móżdżku,
mapy tonotopiczne układu słuchowego,
mapy orientacji dwuocznej układu wzrokowego,
mapy wielomodalne układu orientacji (wzgórki czworacze górne)
W materiale wykorzystano w części slajdy z wykładu Prof. W. Ducha, UMK
1
Samoorganizacja
Mapy czuciowe i motoryczne
Uczenie bez nadzoru: wykrywanie cech w sygnale, modelowanie
danych, analiza skupień, modele rozkładu prawd. stanów środowiska ...
Powstawanie wewnętrznych reprezentacji w mózgu: skomplikowane.
Proste bodźce wyzwalające u zwierząt, uboga reprezentacja.
Analiza danych zmysłowych i instrukcje motoryczne - neurony o
podobnych funkcjach są obok siebie => mapy topograficzne.
•
•
•
•
•
Mapy somatosensoryczne układu czuciowego,
mapy motoryczne kory i móżdżku,
mapy tonotopiczne układu słuchowego,
mapy orientacji dwuocznej układu wzrokowego,
mapy wielomodalne układu orientacji (wzgórki czworacze górne)
Mapy senso-motoryczne
Metody uczenia sieci « bez nadzoru »
• Uczenie konkurencyjne
Reguła : «winner-take-all»
• Mapy samo-organizujace się Kohonena
– Sieć o stałych wymiarach (2D)
• Projekcja danych w sieć 2D
• Gaz neuronowy
– Dynamika topologii sieci (GNG)
• Wstawienie neuronow w miejscu gdzie błąd sieci jest
największy
J.Korczak, ULP
6
1
WTA
Sieć 2D, dane 3D
Uczenie konkurencyjne - WTA, Winner Takes All.
Nazywane też Hard Competitive Learning.
Jeden zwycięzca, dane pojedynczo (on-line) lub wszystkie (batch).
Mogą powstawać bezużyteczne neurony - konieczna incjalizacja zgodna z
rozkładem danych.
Algorytm LBG typu WTA:
1. przypadkowa inicjalizacja;
2. Powtarzaj aż ustaną zmiany:
3.
pokaż wszystkie dane i znajdź zbiory Voronoia;
4.
przesuń wagi neuronu do centrum obszaru
' = wagi sieci
o'
'
y
neurony wejściowe
z
wagi przypisane
połączeniom
Wc =
1
Rc
∑V
2-D siatka
neuronów
V ∈Rc
Uczenie sieci 2D
Modele samoorganizacji
SOM lub SOFM (Self-Organized Feature Mapping) samorganizująca się mapa cech.
o
x
o
o
'
'o
x
Wariant LBG-U: przesuń mało użyteczne (zerowy zbiór
Voronoia) neurony w lokalne minima błędu.
x=dane
o=pozycje wag
neuronów
przestrzeń cech
o' ' '
' '
' oo ' ' '
'
'' ' ' ' ' ' ' oo
'o o
' '
o=dane
o
o x
o
o
x
o
xo
o
N-wymiarowa
przestrzeń danych
Jak mapy topograficzne mogą się utworzyć spontanicznie?
Połączenia lokalne: neuron silnie pobudzany przez pobliskie, słabo przez
odległe, hamowany przez neurony pośrednie.
o
o
Historia:
von der Malsburg i Willshaw (1976), uczenie konkurencyjne, mechanizm
Hebbowski, wzbudzenie typu „Meksykańskiego kapelusza”, model
układu wzrokowego.
Amari (1980) - model ciągłej tkanki neuronowej.
Kohonen (1981) - uproszczenie, bez hamowania; dwie fazy - konkurencja
i kooperacja.
wagi wskazują
na punkty w N-D
siatka neuronów
w 2-D
Sieć odwzorowaniem danych
Uczenie SOM
Neurony reagują na sygnały X podobne do W.
Podobny = iloczyn skalarny największy lub odległość min.
Znajdź najsilniej reagujący neuron c.
X − Wj =
∑( X
2
i
− Wij ) ; c = arg min X − W j
j
i
Przesuń wagi neuronu c i neuronów w sąsiedztwie O(c):
(
2
h( r, rc , t ) = h0 (t )exp − r − rc / σ c 2 (t )
)
w stronę wektora X:
Wi ( t + 1) = Wi ( t ) + h ( ri , rc , t )  X ( t ) − Wi ( t ) dla i ∈ O ( c )
J.Korczak, UE
11
2
SOM: «mexican hat»
Reguła modyfikacji wag wokół Best Matching Unit
The weigths are updated according to «mexican hat».
Interaction
excitatory action
+
inhibitory action
_
_
Hints : - define a large neighborhood range in the beginning
- adaptation rate is a linear decreasing function
J.Korczak, ULP
13
J.Korczak, ULP
14
15
J.Korczak, UE
16
Redukcja promienia „kapelusza” w czasie uczenia
J.Korczak, ULP
Modyfikacje SOM
Kohonen’s Self-organizing Map: Algorithm
1.
SOM działa jak metoda klasteryzacji k-średnich jeśli funkcja
sąsiedztwa staje się deltą, czyli σ = 0.
 r −r
i
j
h ri − rj , t = exp  −
 2σ (t )2

2
(
)

 ; σ (t ) = σ 0 e −2σ 0t / tmax


Próba wprowadzenia funkcji błędu (Luttrell; Heskes i Kappen).
Błąd lokalny neuronu i jest sumą po wszystkich neuronach:
ε i ( X; W , t ) =
1
∑ h ri − rj , t X ( t ) − Wj ( t )
2 j
(
)
2.
3.
4.
5.
6.
2
7.
Neuron-zwycięzca ma najmniejszy błąd lokalny:
c = arg min ∑ h ri − rj , t X ( t ) − W j ( t )
i
j
(
)
Initialisation aléatoire des poids des connexions de N entrées vers
les M sorties.
Initialisation de R (le rayon de voisinage).
Présenter au réseau une nouvelle entrée.
Calculer la distance entre le neurone j de sortie et le neurone i
d’entrée pour tout j :
dj = Σ (xi(t) – wij(t))2
avec xi(t) l’entrée du neurone, et wij(t) le poids de la connexion
Sélection le neurone j* de sortie de distance minimale.
Mettre à jour les poids des connexions du neurone j* avec ses
voisins situés dans un rayon R : wij(t+1)=wij(t)) +η(t)(xi(t)– wij(t))
limt->oo η(t) =0
Si η(t)>0, alors diminuer le rayon R et retourner en 3.
Sinon l’apprentissage est terminé.
2
J.Korczak, ULP
18
3
Własności SOM
Stała uczenia
Trudno coś udowodnić o zbieżności lub punktach stacjonarnych dla
algorytmu SOM w więcej niż jednym wymiarze.
Wyniki analityczne tylko w 1D dla ciągłego czasu, proces Markova:
wartości wag wzdłuż prostej porządkują się.
Powolna zbieżność: 104-106 iteracji.
Duża stała uczenia
prowadzi do eksploracji
znacznej części
przestrzeni.
Sąsiednie neurony kodują sąsiednie obszary, ale niekoniecznie odwrotnie
Skręcone konfiguracje przy zbyt szybkiej redukcji sąsiedztwa.
Złożoność O(KNn) dla K neuronów i n danych N-wymiarowych: konieczne
porównanie wszystkich odległości; niezbyt duże mapy.
Na komputerach wieloprocesorowych szukanie min z K będzie powolne.
Jakość klasyfikacji: zwykle niska. Kohonen: SOM głównie do wizualizacji ...
ale
Wizualizacja: też kiepska, brak oceny wprowadzanych zniekształceń.
W SOM nie istnieje funkcja energii, nie ma gradientu!
Mapy ekwiprobabilistyczne
Dla 1 wymiaru można pokazać, że uporządkowanie jest
prawidłowe, ale p(Wi) ≈ p(X)2/3 w granicy ciągłego rozkładu.
Stosowanie lokalnych funkcji błędu prowadzi do p(Wi) ≈ p(X)1/3
SOM przecenia rejony mało prawdopodobnych danych i
niedocenia rejony o dużym prawdopodobieństwie.
Powstają neurony bezużyteczne; jak wykorzystać całą sieć?
Symulacje z
równomiernym
rozkładem wektorów;
końcowy podział jest
równomierny.
Maksymalizacja entropii
Kwantyzator maksymalizujący entropię (MEQ):
w każdym przedziale takie samo prawdopodobieństwo.
P ( Hi ) =
∫ p( X )dX = 1/ k ;
Conscience Learning (DeSieno 1988; Hecht-Nielsen 1988).
fi - częstość wygrywania neuronu i, C - stała.
2

c = arg min  Cfi + ∑ h ri − rj , t X ( t ) − W j ( t ) 
i
j


(
)
Zasada jednakowego zniekształcenia: każdy neuron powinien mieć podobny
wkład do końcowego błędu kwantyzacji (klasyfikacji).
k
P ( R ) = ∑ P ( Hi ) = 1
Hi
i =1
Można to osiągnąć maksymalizując entropię:
k
I = −∑ P ( H i ) log 2 P ( H i ) ≤ log 2 k
i =1
Jak znaleźć optymalne przedziały by osiągnąć
ekwiprobabilistyczny podział?
Neural Gas et Growing Neural Gas
[Fritzke, 1994] [Martinetz, Schulten, 1991]
BAR
NG
Reguła Adaptacji Granic, Boundry Adaptation Rule.
Jeśli P(Hi) jest za duże (zbyt często pojawiają się wektory z tego
przedziału) to wielkość przedziału należy zmniejszyć.
H i = [Wi −1 ,Wi ]
NG algorithm sorts for each input signal the neurons of the network
according to the distance of their reference vectors.
Based on this ‘rank order a certain number of units is adapted.
Both the number of adapted neurons and the adaptation strength are
decreased according to a fixed schedule.
Neurons are not interconnected.
Przedział w 1D określony jest przez wagi.
Jeśli dane są z przedziału Hi to Wi przesuwamy w lewo (zmniejszamy
przedział Hi), jeśli z Hi+1 to w prawo (zmniejszamy przedział Hi+1).
GNG
Self-organization: starting with very few neurons new neurons are
inserted succesively.
Each new neuron is inserted near the neuron which has accumulated
most errors.
Neurons are connected dynamically: age of connections is used to
delete a connection.
∆Wi = η ( ℑ ( H i +1 ) − ℑ ( H i ) ) ,1 ≤ i ≤ k ;
ℑ ( H ) - f. charakterystyczna zbioru H
Zmiany ustają gdy mamy ekwiprobabilistyczny podział:
∆Wi = η ℑ ( H i +1 ) − ℑ ( H i ) = η ( P ( H i +1 ) − P ( H i ) ) → 0
J.Korczak, UE
24
4
Konstruktywny SOM
Kohonen’s Self-organizing Map
Growing Cell Structures (Fritzke 1993).
Początkowa topologia: k-wymiarowy sympleks (k=1, 2, 3).
Dodaje się nowe neurony i usuwa stare.
Algorytm SOM, ale bez zmniejszania sąsiedztwa i adaptacji
dokonuje się tylko dla zwycięzcy i bezpośrednich sąsiadów.
1.
2.
3.
4.
5.
6.
Znajdź neuron-zwycięzcę c.
Popraw jego wagi: ∆Wc=ηs(X-Ws).
Popraw wagi sąsiadów ∆Ws=ηs(X-Ws).
Zwiększ licznik częstości ∆τc=1, zmniejsz wszystkie ∆τc=−α τc.
Policz zrenormalizowane częstości fi = τi/Σjτj
Po ustalonej liczbie epok L znajdź neuron o największej częstości i
wstaw pomiędzy ten neuron i najdalszego sąsiada nowy neuron tworząc
lokalny sympleks; nowy wektor weź z interpolacji.
Map of 10*10 neurons
J.Korczak, ULP
25
Growing Neural Gas: Algorithm
1. Initialize the set to contain two units A ={c1, c2}, t=0. Initialize the connection
set.
2. Generate at random an input signal ξ.
3. Determine the winner s1 and the second-nearest unit s2 ,the closest to ξ.
4. If a connection between s1 and s2 does not exist already, create it . Set the age
of the connection to 0
C = C U {(s1,s2 )}.age(s1,s2) = 0
5. Add the squared distance between the input signal and the winner to a local
error variable: ∆Es1 = II ξ − wsiII2.
6. Adapt the reference vectors of the winner and its direct topological neighbors
by fractions :
∆wsi = εb*(ξ
ξ -wsi) , ∆wi = εn*(ξ
ξ -wn)
7. Increment the age of all edges emanating from si
8. Remove edges with an age larger than amax If this results in units having no
more emanating edges, remove those units as well.
9. If the number of input signals generated so far is an integer multiple of a
parameter l, add a new unit r to the network and interpolate its reference vector
from q and f, decrease the error variables of q and f by a fraction
10. If a stopping criterion (e.g., net size or some performance measure) is not yet
fulfilled continue with step 2.
J.Korczak, UE
Rozwój GNG
27
J.Korczak, UE
28
GNG - 2 obszary
Sytuacja w 3-wym. przestrzeni
danych - 2 oddzielone
skupienia.
Sieć GCS rosnąca w dwóch
wymiarach - odpowiednia
topologia.
5
Gas neuronowy
Wizualizacja w SOM i MDS
Wariant uczenia konkurencyjnego (Schulten i Martinez 1991)
• MDS - skalowanie wielowymiarowe
Informacja o skupieniach w danych zawarta jest w relacjach
topograficznych maksimów gęstości rozkładow.
Wizualizacja w niskowymiarowych przestrzeniach wymaga oceny
stopnia zniekształcenia - miary liczbowej.
MDS, MultiDimensional Scaling (Thorton 1954, Kruskal 1964,
Sammon 1964, Duch 1995) - proste miary zgodności topograficznej
(MZT).
Przestrzeń danych RN, wektory X mapowane na przestrzeń docelową,
zwykle Y ∈R2.
Odległości Rij = D(Xi, Xj) pomiędzy Xi i Xj w RN;
odległości rij = d(Yi,Yj) w R2.
Znajdź mapę X →Y=M(X) minimalizującą globalną MZT, czyli różnicę
pomiędzy Rij i rij.
Algorytm NG typu SOM:
1. przypadkowa inicjalizacja N wektorów; t=0;
2. Wybierz przypadkowy wektor V
3. Zrób ranking wag najbliższych V; k=1..N
Wi − V ≤ W j − V ; i < j
Zastosuj regułę adaptacji:
∆Wi = ε (t )hλ ( i )(V − Wi )
zmniejszając eksponencjalnie obszar λ i stałą uczenia ε(t).
GND
Growing Neural Gas : przyklad
GNG 100 neuronow max.
J.Korczak, ULP
33
J.Korczak, ULP
34
Voronoi i Delaunay
GND: Pokrycie przestrzeni danych
Punkty Granice decyzji
danych Voronoia
SOM
J.Korczak, ULP
Triangulacja
Delaunaya
Obszary Voronoia - neuron zwycięża konkurencję.
Zbiór Voronoia - zbiór wektorów wewnątrz obszaru Voronoia.
Łącząc neurony, których obszary Voronoia mają wspólną krawędź
otrzymujemy traingulację Delaunaya.
Growing Neural Gas
35
6
GND : Growing Neural Gas
Mapy ekonomiczne
Dane: Bank Światowy 1992, 39 wskaźników jakości życia.
SOM i mapa świata; analiza giełdy i analiza stopów.
J.Korczak, ULP
37
Applications :
Classification of Remote Sensing Images
Olej z Włoch
572 próbek olejków z
oliwek pobrano z 9
prowincji Włoch.
•
Sieć SOM 20 x 20,
uczona % 8 tłuszczów
zawartych w olejkach.
Mapa 8D => 2D.
Dokładność klasyfikacji
na testowanych
próbkach rzędu 9597%.
Satellite SPOT
– resolution de 20m * 20m en mode MultiSpectral
• B1 : 0.50 à 0.59 ηm
• B2 : 0.61 à 0.68 ηm
• B3 : 0,79 à 0.89 ηm
– triplet de valeurs
entre 0 et 255
– dimensions :
3000x3000 pixels
- resolution de 1,3m*1,3m
J.Korczak, UE
Résultats : Robertsau 1996
40
Knowledge discovery from functional MRI
Rayon d’agrégation 2, rayon d’étude de voisinage 1, 20 classes
Images 3D, taken in time,
measuring the haemdynamic
response related to neural activity
in the brain
[http://alsace.u-strasbg.fr/ipb/
Goal: Discovery of the patterns of
brain activation which they are
generating in one or more regions
of interest
Classification étape 9
J.Korczak, UE
Segmentation étape 9
41
J.Korczak, UE
42
7
Classification of voxels of fMRI
fMRI brain scanner
J.Korczak, UE
43
J.Korczak, UE
44
Bibliografia
Kilka zrodel WWW
Bishop C.M., Neural Networks for Pattern Recognition, Oxford Univ., 1995.
Gupta J., Smith K., Neural Network in Business: Techniques and
Applications, Idea GR. Pub., 2002.
Haykin S., Neural Networks: A Comprehensive Foundation, Prentice, 1999.
Rojas R., Neural Networks: A Systematic Introduction, Springer, 1996.
LSIIT (CNRS)
http://lsiit.u-strasbg.fr/afd
All seven parts of the FAQ can be downloaded from either of the following
URLS:
ftp://ftp.sas.com/pub/neural/FAQ.html.zip
ftp://ftp.sas.com/pub/neural/FAQ.txt.zip
Usenet newsgroup comp.ai.neural-nets.
Part 1: Introduction
Online books : http://www.shef.ac.uk/psychology/gurney/notes/index.html
Usenet newsgroup : comp.ai.neural-nets
FAQ : ftp://ftp.sas.com/pub/neural/FAQ.html
Neuroprose : ftp://archive.cis.ohio-state.edu/pub/neuroprose
http://lsiit.u-strasbg.fr/afd
http://www.dontveter.com/bpr/bpr.html
J.Korczak, ULP
Part
Part
Part
Part
Part
Part
45
2:
3:
4:
5:
6:
7:
J.Korczak, ULP
Learning
Generalization
Books, data, etc.
Free software
Commercial software
Hardware and miscellaneous
46
8

Podobne dokumenty