SSN cd.

Transkrypt

SSN cd.
www.kwmimkm.polsl.pl
www.kwmimkm.polsl.pl
METODY
HEURYSTYCZNE
SSN
cd.
wykład 5
1
KLASY ZASTOSOWAŃ:
PREDYKCJA
ze znajomoś
znajomości:
2
www.kwmimkm.polsl.pl
www.kwmimkm.polsl.pl
KLASYFIKACJA I ROZPOZNAWANIE WZORCÓ
WZORCÓW
Zaszeregowanie danych wejś
wejściowych
do jednej z klas:
{ f ( x n − k ), f ( x n − k +1 ),..., f ( x n )}
przewidzieć
przewidzieć : f ( x n +1 )
bez jawnego definiowania zwią
związku mię
między danymi
wejś
wejściowymi a wyjś
wyjściowymi
3
np.
np. sieć
sieć pozwala na podstawie danych bilansowych stwierdzić
stwierdzić, czy
dane przedsię
przedsiębiorstwo należ
należy do zwyż
zwyżkują
kujących
gospodarczo, czy przeż
przeżywa stagnację
stagnację czy też
też grozi mu regres.
regres.
www.kwmimkm.polsl.pl
APROKSYMACJA (interpolacja, ekstrapolacja)
ze znajomoś
znajomości:
{xi , f ( x i )}
odtworzyć
odtworzyć:
f ( x)
4
www.kwmimkm.polsl.pl
STEROWANIE
ASOCJACJA
Podanie danego wzorca na
wejś
wejście powinno powodować
powodować
pojawienie się
się odpowiadają
dpowiadającego
mu wzorca na wyjś
wyjściu.
KOJARZENIE DANYCH
automatyzacja procesó
procesów wnioskowania i wykrywanie
istotnych powią
powiązań
zań mię
między danymi.
5
6
www.kwmimkm.polsl.pl
FILTRACJA SYGNAŁ
SYGNAŁÓW
www.kwmimkm.polsl.pl
Dobó
Dobór optymalnej struktury SSN:
SSN:
3 gł
główne grupy algorytmó
algorytmów pomocnych w utworzeniu
sieci optymalnej :
• metody wzrostu;
wzrostu;
•
•
metody redukcji,
redukcji,
metody optymalizacji dyskretnej.
dyskretnej.
Metody wzrostu:
- na począ
początku procesu optymalizacji struktura sieci powinna
OPTYMALIZACJA
statyczna i dynamiczna, optymalizacja kombinatokombinato-ryczna
i zagadnienia bardzo trudne obliczeniowo.
7
www.kwmimkm.polsl.pl
być
być moż
możliwie mał
mała;
- w kolejnych iteracjach są
są dodawane kolejne neurony ukryte
(co powinno powodować
powodować zwię
zwiększenie sprawnoś
sprawności dział
działania
sieci);
- neurony są
są dodawane aż
aż do osią
osiągnię
gnięcia punktu
8
optymalnego.
optymalnego.
www.kwmimkm.polsl.pl
Metody optymalizacji dyskretnej
• opierają
opierają się
się na zał
założeniu, że proces nauki sieci
i wyboru architektury zachodzą
zachodzą równocześ
wnocześnie;
nie;
• czynnikiem ocenianym jest okreś
określona funkcja,
reprezentują
reprezentująca jakość
jakość danej sieci;
• w kolejnych krokach sieci dobierane są
yć
są tak, by dąż
dąży
do maksymalizacji funkcji jakoś
jakości;
• moż
możliwe jest wykorzystanie AE jako metody
optymalizacji.
Metody redukcji
• na począ
początku procesu optymalizacji struktura sieci powinna
być
być moż
możliwie zł
złożona;
ona;
• w kolejnych iteracjach są
są usuwane kolejne neurony lub
połą
czenia mię
połączenia
między nimi (co powinno powodować
powodować
zwię
zwiększenie sprawnoś
sprawności dział
działania sieci);
• postę
postępowanie jest powtarzane aż do osią
osiągnię
gnięcia punktu
optymalnego.
9
www.kwmimkm.polsl.pl
Żadna z tych metod nie jest idealna.
idealna. Czę
Często wybó
wybór
któ
którejś
rejś z nich zależ
zależy od rodzaju rozwią
rozwiązywanego
problemu.
problemu.
10
www.kwmimkm.polsl.pl
Np.(L. Rutkowski, Metody i techniki sztucznej inteligencji, PWN, W-wa 2006):
• Zwykle:
Zwykle: uczenie z począ
początkowo małą
małą liczbą
liczbą neuronó
neuronów
i stopniowe zwię
zwiększanie ich liczby.
liczby.
x ∈ [0, 2π ]
y = sin( x ),
Cią
Ciąg uczą
uczący:
• Zbyt mał
mało neuronó
neuronów w warstwie ukrytej – sieć
sieć
nie potrafi poprawnie odwzorować
odwzorować funkcji.
1
Wejście x
Oczekiwane
wyjście d=f(x)
• Zbyt wiele elementó
elementów warstwy ukrytej:
0
2
3
4
π
π
π
6
3
4
3
2
2
2
0 0.5
5
6
π
2π
0
0
7
7π
6
8
4π
3
-0.5 −
9
5π
4
3
2
−
2
2
10
5π
6
11
2π
3
1
2
3
2
12
3π
4
13
5π
3
14
11π
6
15
7π
4
2
3 1
2
− −
−
2
2
2
2
• wydł
wydłużenie procesu uczenia;
• uczenie się
się „na pamięć
pamięć”” (szczegó
(szczególnie, gdy liczba
pró
próbek w cią
ciągu uczą
uczącym jest niewielka) - sieć
sieć
poprawnie rozpoznaje tylko sygnał
sygnały zgodne z tymi
w cią
ciągu uczą
uczącym (brak
(brak generalizacji
przy dobrej interpolacji).
interpolacji).
11
1 –2 – 1
1 –3 – 1
1–15–
15–1
12
Dobó
Dobór pró
próbek (cią
(ciąg uczą
uczący) wpł
wpływa na jakość
jakość
nauczania:
nauczania:
www.kwmimkm.polsl.pl
odpowiedź na ciąg uczący
JAK DŁ
DŁUGO UCZYĆ
UCZYĆ SIEĆ
SIEĆ?
www.kwmimkm.polsl.pl
Liczba prezentacji cią
ciągu uczą
uczącego konieczna
do nauczenia sieci:
• prognozowanie finansowe: 109
• synteza mowy: 1010
• rozpoznawanie mowy lub pisma odrę
odręcznego: 1012
odpowiedź na ciąg testowy
• rozpoznawanie znakó
znaków Kenji:
Kenji: 1013
Ghaboussi, CISM 2007
13
www.kwmimkm.polsl.pl
• Uważ
Uważa się
się, iż
iż czas uczenia sieci roś
rośnie wykł
wykładadniczo wraz ze wzrostem liczby elementó
elementów sieci.
14
www.kwmimkm.polsl.pl
Zbyt dł
długie uczenie również
wnież moż
może skutkować
skutkować utratą
utratą
zdolnoś
zdolności uogó
uogólniania:
• Korzystne jest pokazywanie elementó
elementów cią
ciągu
uczą
uczącego w ró
różnej kolejnoś
kolejności.
ci.
Malenie błę
du jest ró
błędu
różne dla ró
różnie wylosowanych
wag począ
początkowych (dla
(dla tej samej sieci):
sieci):
Ghaboussi, CISM 2007
15
UCZENIE WARSTW UKRYTYCH
www.kwmimkm.polsl.pl
16
www.kwmimkm.polsl.pl
n
δ m( j ) = ∑ wm( k )( j )δ k( j )
k =1
Bezpoś
dów nie jest moż
Bezpośrednie wyznaczenie błę
błęd
możliwe
(sygnał
(sygnałów WY z warstwy ukrytej nie ma z czym poró
porównać
wnać).
m – numer neuronu w warstwie ukrytej
n – liczba neuronó
neuronów w warstwie nastę
następnej k;
j – numer kroku uczenia;
Metoda wstecznej propagacji błę
dów
błęd
δ m( j–) błąd
łąd popeł
popełniany przez neuron m;
δ k( j )– błąd
łąd popeł
popełniany przez neuron w warstwie k
(backpropagation):
• Zmiana wagi – jak przy sieci jednowarstwowej;
• Obliczanie δ – sumowanie błę
dów z nastę
błęd
następnej warstwy
k1
k2
k3
kn
w
Błędy
łędy w warstwach ukrytych są
są wyznaczane
w sposó
sposób przybliż
przybliżony.
m
17
δ k( j ) − znane
n
( k n )( j )
m
δ m( j ) − nieznane
dów
• obliczanie błę
błęd
w warstwie WY;
dów
• obliczanie błę
błęd
w warstwie poprzedniej;
• itd. aż
aż do
warstwy pierwszej.
18
www.kwmimkm.polsl.pl
UCZENIE SIECI NEURONOWYCH
www.kwmimkm.polsl.pl
Uczenie bez nauczyciela (unsupervised
unsupervised learning)
• Donald Hebb (fizjolog i psycholog) – w umyś
umyśle zazachodzą
czeń
ń mię
chodzą procesy wzmacniania połą
połącze
między neuroneuronami,
nami, jeś
jeśli został
zostały one pobudzone jednocześ
jednocześnie.
• Zamiast programowania!
programowania!
• Wymuszanie okreś
określonego reagowania sieci na zadane
sygnał
dobór wag).
wag).
sygnały wejś
wejściowe (poprzez odpowiedni dobó
• Pożą
dana odpowiedź
Pożądana
odpowiedź nie jest znana.
Ta sama sieć
sieć moż
może sł
służyć do rozwią
rozwiązywania
skrajnie ró
różnych zadań
zadań.
• Sieć
Sieć uczy się
się poprzez analizę
analizę reakcji na pobudzenia;
samoorganizacja struktury – wszelkie regularnoś
regularności,
ci,
linie podział
podziału i inne charakterystyki danych wejś
wejściowych
sieć
sieć musi wykryć
wykryć sama.
Warianty uczenia:
uczenia:
• uczenie bez nauczyciela (nienadzorowane);
nienadzorowane);
• Zdolnoś
Zdolności do wykrywania skupisk obrazó
obrazów wejś
wejściowych
są wykorzystywane do ich klasyfikacji,
klasyfikacji, gdy klasy nie są
są
z gó
góry ustalone.
• uczenie z nauczycielem (nadzorowane);
• uczenie z krytykiem.
krytykiem.
19
www.kwmimkm.polsl.pl
20
Uczenie bez nauczyciela (unsupervised
unsupervised learning)
Uczenie bez nauczyciela - wady
• Sieci pokazuje się
się kolejne przykł
przykłady bez okreś
określenia,
enia, co
trzeba z nimi zrobić
zrobić.
• Zwykle powolniejsze.
• Różne pobudzenie ró
różnych neuneuronó
czenia mię
ronów - połą
połączenia
między
źródłami silnych sygnał
sygnałów
a neuronami, któ
które na nie
reagują
reagują są wzmacniane.
wzmacniane.
www.kwmimkm.polsl.pl
• Nie wiadomo, któ
który neuron bę
będzie rozpoznawał
rozpoznawał jaki
sygnał
sygnał.
• Część sygnał
sygnałów moż
może być
być rozpoznawana przez wię
więcej
niż
niż jeden neuron.
• W sieci stopniowo powstają
powstają wzorce poszczegó
poszczególnych typó
typów
sygnał
sygnałów rozpoznawane przez pewną
pewną część
część neuronó
neuronów.
• Uczenie spontaniczne,
spontaniczne, odkrywanie ciekawych struktur
w przestrzeni danych, korelacja zachowań
zachowań systemu
ze zmianą
zmianą tych struktur – dominuje w okresie
niemowlę
niemowlęcym.
cym.
• Część sygnał
sygnałów moż
może nie być
być rozpoznawana przez żaden neuron
(sieć
(sieć musi być
być wię
większa niż
niż przy nauczycielu zwykle
przynajmniej 3 razy).
razy).
21
www.kwmimkm.polsl.pl
22
www.kwmimkm.polsl.pl
Uczenie z nauczycielem (supervised learning)
Uczenie z krytykiem (reinforcement learning):
• Podawanie sieci zestawó
zestawów sygnał
sygnałów WE wraz
z prawidł
prawidłowym sygnał
sygnałem WY.
• Odmiana uczenia nadzorowanego.
• Nauczyciel
Nauczyciel nie dysponuje peł
pełną wiedzą
wiedzą na temat
wszystkich prawidł
prawidłowych odpowiedzi.
• Naś
Naśladowanie nauczyciela,
nauczyciela, jakim jest cią
ciąg uczą
uczący
(podejś
(podejście „szkolne”
szkolne”).
• Zestawy sygnał
sygnałów (zwykle) powtarza się
się wielokrotnie,
zaś
zaś sieć
sieć modyfikuje wagi na wejś
wejściach tak, by zminizminimalizować
malizować błąd
łąd.
• Zamiast informacji o pożą
danym WY, sieć
pożądanym
sieć dysponuje
jedynie oceną
oceną efektu swego dział
działania w ramach dwó
dwóch
prostych kategorii.
• Zmiana wagi na i-tym wejś
wejściu neuronu po pokazaniu
j-ego obiektu uczą
uczącego jest proporcjonalna do
popeł
du δ ( j ).
popełnianego na tym etapie błę
błędu
• Ocena Ö wzmocnienie (pozytywne lub negatywne) Ö
odpowiednie zmiany wag.
23
24
www.kwmimkm.polsl.pl
Uczenie z krytykiem (reinforcement learning):
• Optymalizacja zyskó
zysków na dłuższą
szą metę
metę.
www.kwmimkm.polsl.pl
SAMOUCZENIE SIECI
• Cał
Cała wiedza, jaką
jaką sieć
sieć moż
może zdobyć
zdobyć jest zawarta
• Np.: gry z przeciwnikiem, krytyką
krytyką jest przegrana lub
wygrana na koń
końcu partii.
w obiektach pokazywanych (muszą
(muszą zawierać
zawierać klasy
podobień
podobieństwa).
stwa).
• Uczenie z krytykiem lub z „wzmocnieniem”
danych
wzmocnieniem” pożą
pożądanych
zachowań
zachowań po dł
dłuższym okresie.
• Nie mogą
mogą to być
być obiekty cał
całkiem przypadkowe, ale
• Uczenie dojrzał
dojrzałe (nabieranie „mądroś
drości”
ci”).
bia wrodzone
• Proces samouczenia utrwala i pogłę
pogłębia
tworzyć
tworzyć skupiska wokó
wokół pewnych oś
ośrodkó
rodków.
zdolnoś
zdolności neuronó
neuronów.
• Bardziej uniwersalne w zastosowaniu podejś
podejście do
problemu.
• Praktyczna realizacja jest bardziej skomplikowana.
25
www.kwmimkm.polsl.pl
SAMOUCZENIE SIECI:
Cią
Ciąg uczą
uczący:
U = {X , X ,...X
(1)
(2)
(N )
}
( m )( j +1)
= wi
( m )( j )
+ η xi
(m)
ym
( j)
n
X(j) – n-wymiarowy wektor danych wejś
wejściowych
w j-ym kroku uczenia
•
N – liczba posiadanych pokazó
pokazów.
ym ( j ) = ∑ wi ( m )( j ) xi( j )
i =1
• Wielkość
Wielkość zmiany wagi – liczona na podstawie iloczynu
sygnał
sygnału na odpowiednim wejś
wejściu przez sygnał
sygnał
wyjś
wyjściowy neuronu.
Reguł
Reguła uczenia dla m-tego neuronu w j-ym kroku:
• Uczenie to zwie się
się też
też korelacyjnym – zmierza do tata-
wi ( m )( j +1) = wi ( m )( j ) + η xi ( m ) ym ( j )
n
ym ( j ) = ∑ wi ( m )( j ) xi( j )
i =1
27
KONKURENCJA
www.kwmimkm.polsl.pl
wi
•
gdzie:
26
www.kwmimkm.polsl.pl
Efekty:
28
www.kwmimkm.polsl.pl
• Neuron, któ
który raz wygrał
wygrał przy pokazaniu danego
W SIECIACH SAMOUCZĄ
SAMOUCZĄCYCH
wzorca – dalej bę
będzie wygrywał
wygrywał.
• Samouczenie jest skuteczniejsze i efektywniejsze (każ
(każdy
WTA (Winner Takes All)
All) - zwycię
zwycięzca bierze wszystko:
neuron rozpoznaje jeden obiekt, pozostał
pozostałe neurony pozostają
pozostają
niezagospodarowane).
• Najlepszy neuron – niezerowa wartość
wartość sygnał
sygnału WY
(zwykle 1);
• Wysoce prawdopodobne jest, iż
iż:
• Pozostał
Pozostałe wyjś
wyjścia są
są zerowane;
zerowane;
• Tylko najlepszy neuron jest uczony.
) Zasada WTA daje jednoznaczną
jednoznaczną odpowiedź
odpowiedź sieci (co
niekoniecznie musi być
być zaletą
zaletą).
) Wszystkie sygnał
sygnały mniejsze niż
niż ustalony pró
próg – brak
rozpoznania.
rozpoznania.
kiego dopasowania wag, by uzyskać
uzyskać najlepszą
najlepszą korekorelację
lację mię
między sygnał
sygnałami WE a zapamię
zapamiętanym (w formie
wag) wzorcem sygnał
sygnału, na któ
który dany neuron ma
reagować
reagować.
29
- nie bę
będzie grup neuronó
neuronów rozpoznają
rozpoznających ten sam wzorzec;
- nie bę
będzie klas nierozpoznanych przez żaden neuron.
• Niezagospodarowane neurony są
są gotowe rozpoznawać
rozpoznawać
nowe wzorce.
wzorce.
• Po wykorzystaniu wszystkich neuronó
neuronów i pojawieniu się
się
nowego wzorca – przecią
przeciąganie któ
któregoś
regoś
z neuronó
neuronów w jego stronę
stronę:
30
www.kwmimkm.polsl.pl
SIECI SAMOORGANIZUJĄ
SAMOORGANIZUJĄCE SIĘ
SIĘ
www.kwmimkm.polsl.pl
Analiza skupień
skupień – w analizy ekonomicznej (np
(np..
podobień
).
podobieństwo przedsię
przedsiębiorstw – rentowność
rentowność).
(Teuvo Kohonen)
Kohonen)
• Tworzą
Tworzą odwzorowania sygnał
sygnałów WE w sygnał
sygnały WY,
Kolektywność
Kolektywność – to co rozpoznaje neuron zależ
zależy
w duż
dużej mierze od tego, co rozpoznają
rozpoznają inne neurony.
speł
spełniają
niające pewne ogó
ogólne kryteria (nie zdeterminowazdeterminowane przez twó
twórcę
rcę ani uż
użytkownika sieci) –
samoorganizacja sieci.
sieci.
Sąsiedztwo – znaczenie ma wzajemne poł
położenie
neuronó
neuronów w warstwach.
• Inny (wy
ższy)
(wyż
szy) sposó
sposób samouczenia,
samouczenia, wprowadzają
wprowadzający
efekty koherencji i kolektywnoś
kolektywności.
Zwykle są
sąsiedztwo 22-wymiarowe – neurony w wę
węzłach
regularnej siatki (każ
każdy neuron ma min. 4 są
sąsiadó
siadów).
ść) - sieć
Koherencja (słown.
own. spó
spójność
jność,, spoistość
spoistość,, łączno
łączność
sieć
grupuje dane wejś
wejściowe wg wzajemnego podobień
podobieństwa – wykrywa automatycznie obiekty podobne do
siebie nawzajem i inne od innych grup obiektó
obiektów.
31
Przykł
Przykładowe są
sąsiedztwa:
www.kwmimkm.polsl.pl
32
Rozszerzone sąsiedztwo:
www.kwmimkm.polsl.pl
Rozbudowane sąsiedztwo:
Jednowymiarowe sąsiedztwo:
33
www.kwmimkm.polsl.pl
Gdy w procesie uczenia któ
a:
któryś
ryś neuron zwycięż
zwycięża:
uczy się
się też
też (w mniejszym stopniu)
stopniu) jego są
sąsiadó
siadów
(niezależ
niezależnie od ich wag począ
początkowych!).
tkowych!).
35
34
Neurony są
sąsiadują
siadujące rozpoznają
rozpoznają sygnał
sygnały
z są
sąsiadują
siadujących podobszaró
podobszarów:
www.kwmimkm.polsl.pl
Skutek:
Sygnał
Sygnały ró
równomiernie rozmieszczone w pewnym obszaobszarze ⇒ neurony zostają
zostają tak nauczone, by każ
każdy
podobszar sygnał
sygnałów był
był rozpoznawany
36
przez inny neuron.
• Po wytrenowaniu każ
każdej praktycznej sytuacji
www.kwmimkm.polsl.pl
odpowiada neuron, któ
który ją
ją reprezentuje.
www.kwmimkm.polsl.pl
SIECI REKURENCYJNE
Zawierają
enia zwrotne:
Zawierają sprzęż
sprzężenia
• Sąsiedztwo powoduje wykrywanie sytuacji
podobnych do prezentowanych.
• W sieci powstaje wewnę
wewnętrzny obraz świata
zewnę
zewnętrznego.
trznego.
• Sygnał
ce
Sygnały blisko siebie bę
będą wykrywane przez leżą
leżące
blisko siebie neurony.
Przykł
Przykładowe zastosowania:
• robot dostosowują
dostosowujący zachowanie do zmiennego
środowiska;
• systemy bankowe – stworzenie modelu
wiarygodnego kredytobiorcy.
Po jednorazowym podaniu sygnał
sygnału WE – długotrwał
ugotrwały
proces zmiany sygnał
sygnału WY, w efekcie stan ró
równowagi.
wnowagi.
37
www.kwmimkm.polsl.pl
• Waga sprzęż
enia dodatnia – sygnał
sprzężenia
sygnał zmienia się
się
jednokierunkowo (aperiodycznie);
• Waga sprzęż
enia ujemna – sygnał
sprzężenia
sygnał zmienia się
się
oscylacyjnie;
oscylacyjnie;
• Przy neuronach nieliniowych moż
możliwe chaotyczne
błądzenie
łądzenie sygnał
sygnałów;
Zachowania:
• stabilne (zbieganie się
się sygnał
sygnałów do okreś
określonej wartoś
wartości);
• niestabilne (warto
ści sygnał
(wartoś
sygnału coraz wię
większe).
ksze).
Zastosowania:
• zadania optymalizacji (stany ró
równowagi odpowiadają
odpowiadają
rozwią
rozwiązaniom zadań
zadań);
• pamię
pamięci skojarzeniowe (drobny fragment informacji
pozwala odtworzyć
odtworzyć całą
całą informację
informację).
38
www.kwmimkm.polsl.pl
SIECI HOPFIELDA
• Każ
Każdy neuron jest zwią
związany z każ
każdym innym na zasadzie
obustronnego sprzęż
enia zwrotnego.
sprzężenia
eń zwrotnych obejmują
• Zabroniono sprzęż
sprzęże
obejmujących pojedynczy
neuron.
• Symetria wspó
współczynnikó
czynników wagowych:
wxy=wyx
X
Y
wxy
wyx
39
Skutek: zachodzą
zachodzące procesy są
są zawsze stabilne.
www.kwmimkm.polsl.pl
40
www.kwmimkm.polsl.pl
1965 – Lotfi A. Zadeh:
Zadeh: „Fuzzy sets”
sets”
ZBIORY ROZMYTE
I
WNIOSKOWANIE
PRZYBLIŻONE
“In almost every case you can build the same product
without fuzzy logic, but fuzzy is faster and cheaper.”
Prof. Lotfi Zadeh, UC Berkeley, Inventor of Fuzzy Logic
41
42
www.kwmimkm.polsl.pl
Metoda reprezentacji wiedzy
wyraż
wyrażonej w ję
języku naturalnym:
www.kwmimkm.polsl.pl
Zamiast dwó
dwóch wartoś
wartości logicznych (prawda i fał
fałsz)
nieskoń
nieskończenie wiele wartoś
wartości [0,1].
Np.: „młody czł
człowiek”
owiek”:
29oC”
• „Temperatura wynosi
– informacja liczbowa naturalna dla systemó
systemów komputerowych.
1
• „Jest dość
dość ciepł
ciepło” – informacja opisowa - naturalna dla
czł
człowieka.
0
μ
A=„młody”
1
A=„młody”
0.8
30
x [lata]
klasycznie
0
30
x [lata]
sposób rozmyty
Klasyczna teoria zbioró
zbiorów: dowolny element należ
należy
lub nie należ
należy do danego zbioru.
Umoż
Umożliwiają
liwiają formalne okreś
określenie pojęć
pojęć nieprecyzyjnych
i wieloznacznych:
Teoria zbioró
ciowo
zbiorów rozmytych:
rozmytych: element moż
może częś
częściowo
należ
należeć do pewnego zbioru.
43
- „wysoki hał
hałas”
as”,
- „mał
małe zarobki”
zarobki”,
- „niskie zuż
zużycie paliwa”
paliwa”.
www.kwmimkm.polsl.pl
Obszar rozważ
zbiór
rozważań X (the universe of discourse) - zbió
nierozmyty (np.
np. pł
płaca w UK i w Polsce).
44
www.kwmimkm.polsl.pl
• μA(x) = 1 – pełna przynależność elementu x do ZR A;
• μA(x) = 0 – brak przynależności x do ZR A;
• 0 < μA(x) < 1 – częściowa przynależność x do ZR A.
Zbió
Zbiór rozmyty w pewnej przestrzeni (niepustej) X zbió
zbiór par:
A = {( x, μ A ( x )); x ∈ X} ∧
Stopień przynależności to nie jest prawdopodobieństwo:
młody w 80% to nie 4 młodych na 5…
x
μA(x) – funkcja przynależ
przynależnoś
ności zbioru rozmytego A.
Symboliczny zapis ZR o skończonej liczbie elementów:
Funkcja przynależ
przynależnoś
ności – przypisuje każ
każdemu eleelementowi x∈X stopień
stopień jego przynależ
przynależnoś
ności do zbioru
rozmytego A
A=
www.kwmimkm.polsl.pl
• Obszar rozważań:
+
x1
μA ( x) =
• Zbiór rozmyty A (według osoby nr 1):
0.1 0.3 0.4 0.6 0.8 1 0.9 0.8 0.75 0.7
A=
+
+
+
+
+
+
+
+
+
20 21 22 23 24 25 26 27
28
29
∫
x
x
xn
μ A ( xi )
i =1
xi
A=
∫
2
⎣⎡1 + ( x - 7) ⎦⎤
x
46
www.kwmimkm.polsl.pl
1
-1
0
-1
7
15 x
μ (x )
1
⎧
|x-7|
jeżeli 4 ≤ x ≤ 10
⎪ 1−
μ A ( x )= ⎨
3
⎪ 0
w
przeciwnym razie
⎩
0
0
47
n
=∑
μ (x )
lub
Jeśli X - przestrzeń o nieskończonej liczbie elementów, to
zapis symboliczny:
μA ( x)
μ A ( xn )
przyporządkowanie
1
1 + ( x − 7) 2
x
A=
x2
+ ... +
Np. „Zbiór liczb bliskich liczbie 7”:
X = [15, 21, ..., 35]
• Według osoby nr 2:
0.2 0.4 0.6 0.8 1 0.8 0.6 0.4 0.2
A=
+
+
+
+
+
+
+
+
18 19 20 21 22 23 24 25 26
μ A ( x2 )
suma mnogościowa
45
Np. „Ciepła woda na basenie”:
μ A ( x1 )
7
x 14
48

Podobne dokumenty