Systemy neuronowo-rozmyte - Grzegorz Dudek Ph.D.

Transkrypt

Systemy neuronowo-rozmyte - Grzegorz Dudek Ph.D.
SZTUCZNA INTELIGENCJA
WYKŁAD 11. SYSTEMY NEURONOWO-ROZMYTE
Dr hab. inż. Grzegorz Dudek
Wydział Elektryczny
Politechnika Częstochowska
Częstochowa 2014
SIECI NEURONOWO-ROZMYTE
• Sieci neuronowo-rozmyte pozwalają na automatyczne tworzenie reguł na podstawie
przykładów zgromadzonych w zbiorze uczącym, zastępując w ten sposób eksperta.
• Podobnie jak w sieciach neuronowych parametry systemu neuronowo-rozmytego
dobierane są w procesie uczenia.
• Sieć neuronowo-rozmyta łączy w sobie czytelność reguł rozmytych i adaptacyjność
samouczących się sieci neuronowych.
2
SYSTEM NEURONOWO-ROZMYTY TYPU MAMDANIEGO
System RSW opisany na poprzednim wykładzie można przedstawić w postaci struktury
sieciowej.
Przyjmijmy, że wyostrzanie realizujemy metodą wysokości:
N
y=
∑h y
k
k =1
k max
h1
N
∑h
k =1
1max
k
2max
gdzie:
h2
hk = t (µ Ak ( x1 ), µ Ak ( x2 ),...,µ Ak ( xn ))
1
2
Nmax
n
yk max = sup µB k ( y)
hN
3
SYSTEM NEURONOWO-ROZMYTY TYPU TSK
W modelu Takagi-Sugeno-Kanga (TSK) baza reguł ma charakter rozmyty tylko w części
przestankowej, natomiast w części konkluzyjnej występują zależności funkcyjne.
Pojedyncza reguła ma postać:
Rk: JEŻELI x1 jest A1k I … I xn jest Ank TO y = f(x1, x2, … , xn)
Warstwa: 1
Schemat sieci:
2
3
2
A1
5
x1 x2 x n
1
A1
x1
4
N
y1
N
y2
N
yN
N
A1
1
A2
x2
2
A2
Σ
y
N
A2
1
An
xn
2
An
N
An
4
SYSTEM NEURONOWO-ROZMYTY TYPU TSK
Sposób przetwarzania danych przez kolejne warstwy sieci (model ANFIS – Adaptive-NetworkBased Fuzzy Inference System):
Warstwa 1. Elementy tej warstwy realizują funkcje przynależności składowych wektora
wejściowego xi do zbiorów Aik , i = 1, 2, …, n (numer składowej), k = 1, 2, …, N (numer reguły).
Np. gaussowskie funkcje przynależności:
  x − ck
µ Ak ( xi ) = exp−  i k i
i
  σ i



2



gdzie cik i σ ik to parametry przesłanki (środek i szerokość funkcji Gaussa)
Warstwa 2. Wyznaczenie stopnia odpalenia k-tej reguły hk (zwanego wcześniej poziomem
odcięcia). Elementy tej warstwy realizują t-normę, np. w postaci iloczynowej:
n
hk = µ Ak ( x1 ) ⋅ µ Ak ⋅ ... ⋅ µ Ak = ∏ µ Ak ( xi ) .
1
2
n
i =1
i
5
SYSTEM NEURONOWO-ROZMYTY TYPU TSK
Warstwa 3. Normalizacja – elementy tej warstwy wyznaczają względny stopień odpalenia k-tej
reguły (w stosunku do sumy stopni odpaleń wszystkich reguł):
hk =
hk
N
∑h
j =1
j
Stąd h1 + h2 +…+ hN = 1
Warstwa 4. Wyznaczenie konkluzji reguł – elementy tej warstwy realizują funkcję liniową
składowych wektora wejściowego xi przemnożoną przez względny stopień odpalenia reguły:
 n

y k = h k (a1k x1 + a2k x2 + ... + ank xn + a0k ) = h k  ∑ aik xi + a0k 
 i =1

gdzie aik to parametry konkluzji.
Jest to system Sugeno pierwszego rzędu. Gdy zamiast funkcji liniowej zastosujemy stałą
otrzymamy system Sugeno zerowego rzędu.
6
SYSTEM NEURONOWO-ROZMYTY TYPU TSK
Warstwa 5. Wyznaczenie odpowiedzi system – suma konkluzji reguł:
n

k
h
aik xi + a0k 

∑
∑
N
N
n



y = ∑ y m = ∑ h k  ∑ aik xi + a0k  = k =1  i =N1
k =1
k =1
 i =1

∑ hk
N
k =1
Wyjście jest sumą kombinacji liniowych składowych wektora wejściowego ważonych stopniami
odpalenia reguł. Stopień odpalenia reguły informuje na ile dana reguła jest kompetentna do
formowania wyjścia.
W wyniku otrzymujemy gładką interpolację liniowych modeli lokalnych (konkluzje reguł),
obowiązujących w obszarach zdefiniowanych przez funkcje przynależności występujące w
przesłankach. Jeśli funkcje przynależności są nieliniowe, model jest nieliniowy.
7
APROKSYMACJA FUNKCJI ZA POMOCĄ ANFIS
(a)
(c)
1
2
0.8
0
µi
0.6
yzki
-2
0.4
0.2
0
-1
(b)
-4
-0.5
0
x
0.5
1
1
0.8
ki
iα
ykh
,y
z
,
y
0
x
0.5
1
-1
-1
-0.5
0
x
0.5
1
0.5
0
-0.5
0.2
0
-1
-0.5
1
(d)
0.6
hαk i
0.4
-1
-0.5
0
x
0.5
1
(a) funkcje przynależności, (b) unormowane stopnie odpalenia reguł, (c) funkcje liniowe konkluzji, (d)
konstrukcja aproksymanty (linia przerywana) poprzez zsumowanie wejść neuronu wyjściowego
8
SYSTEM NEURONOWO
WNIOSKOWANIE
-ROZMYTY
W SYSTEMIE
TYPU TAKAGI
MAMDANIEGO
-SUGENO
9
WNIOSKOWANIE W SYSTEMIE TSK
10
WNIOSKOWANIE
WNIOSKOWANIE
W SYSTEMIE
W SYSTEMIE
SUGENO
TSK
x =[1, 0.5, 0.5, 16, 3]
x = [4, 1, 2, 25, 4]
yk
11
UCZENIE SIECI NEURONOWO-ROZMYTEJ TSK
Parametry modelu estymuje się metodą wstecznej propagacji błędu lub metodami hybrydowymi
(kombinacja metody najmniejszych kwadratów do estymacji parametrów konkluzji aik i
wstecznej propagacji błędu do estymacji parametrów przesłanek cik i σ ik ).
Dąży się do minimum błędu kwadratowego:
E=
1
( y − h(x))2 → min
2
dla każdego przykładu uczącego.
Tak jak w sieciach neuronowych metoda wstecznej propagacji błędu oparta jest na optymalizacji
gradientowej. Gradient ∇E zawiera trzy rodzaje składników:
∂E ∂E
∂E
, k i
.
k
∂ai ∂ci
∂σ ik
W kolejnych iteracjach algorytmu stosując metodę największego spadku modyfikuje się
parametry: aik ← aik − ηa
∂E
∂E
, cik ← cik − η c k
k
∂ai
∂ci
i σ ik ← σ ik − ησ
∂E
∂σ ik
12
UCZENIE SIECI NEURONOWO-ROZMYTEJ TSK –
METODA HYBRYDOWA
Wyjście ANFIS jest liniowo zależne od parametrów konkluzji aik i nieliniowo zależne od
parametrów przesłanek cik i σ ik . Proces uczenia w każdej iteracji rozbija się na dwa etapy.
Etap 1. Wyznacza się parametry konkluzji. Wyjście systemu można zapisać:
N
 n

y = ∑ h k  ∑ aik xi + a0k  =
k =1
 i =1

1
1
1
1
= h (x) x1a1 + h (x) x2 a2 + ... + h 2 (x) x1a12 + h 2 (x) x2 a22 + ... + h N (x) xn anN + h N (x)a0N =
= F11 (x)a11 + F21 (x)a12 + ... + F12 (x)a12 + F22 (x)a22 + ... + FnN (x)anN + F0N (x)a0N
W zapisie macierzowym: y = FA , stąd:
A = (FT F) −1 FT y
gdzie A to wektor współczynników, F to macierz wartości funkcji x dla wszystkich przykładów
uczących, a y to wektor pożądanych odpowiedzi dla wszystkich przykładów uczących.
Etap 2. Wyznacza się parametry przesłanek metodą wstecznej propagacji błędu.
13
ALGORYTM HYBRYDOWY UCZENIA MODELU TSK
1. Przy ustalonych parametrach przesłanek prezentuje się na wejście wszystkie przykłady
uczące wyznaczając macierz F.
2. Metodą najmniejszych kwadratów oblicza się macierz parametrów konkluzji A.
3. Przy ustalonych parametrach przesłanek i konkluzji oblicza się odpowiedź sieci dla
wszystkich przykładów uczących.
4. Wyznacza się średni błąd kwadratowy pomiędzy odpowiedziami sieci a odpowiedziami
pożądanymi.
5. Metodą wstecznej propagacji błędu wyznacza się nowe wartości parametrów przesłanek.
6. Powrót do kroku 1 lub stop, jeśli spełniony jest warunek zatrzymania.
14
ALGORYTM HYBRYDOWY UCZENIA MODELU TSK
Początkowe wartości parametrów przesłanek wyznacza się:
• dzieląc zakresy poszczególnych składowych wektora wejściowego xi równomiernie
(wykres po lewej)
• stosując metody grupowania danych do ustalenia środków funkcji przynależności (wykres
po prawej)
1
0
10
0.5
1
0.5
0
10
10
10
8
9
8
8
8
9
6
7
6
6
6
7
x2
5
x2
5
4
4
4
4
2
3
2
2
2
3
1
0
0
1
5
10
15
0
0
0
1
1
0.5
0.5
0
0
0
5
10
x1
15
0
5
0
5
10
15
10
15
x1
15