SSN cd.
Transkrypt
SSN cd.
www.kwmimkm.polsl.pl www.kwmimkm.polsl.pl METODY HEURYSTYCZNE SSN cd. wykład 5 1 KLASY ZASTOSOWAŃ: PREDYKCJA ze znajomoś znajomości: 2 www.kwmimkm.polsl.pl www.kwmimkm.polsl.pl KLASYFIKACJA I ROZPOZNAWANIE WZORCÓ WZORCÓW Zaszeregowanie danych wejś wejściowych do jednej z klas: { f ( x n − k ), f ( x n − k +1 ),..., f ( x n )} przewidzieć przewidzieć : f ( x n +1 ) bez jawnego definiowania zwią związku mię między danymi wejś wejściowymi a wyjś wyjściowymi 3 np. np. sieć sieć pozwala na podstawie danych bilansowych stwierdzić stwierdzić, czy dane przedsię przedsiębiorstwo należ należy do zwyż zwyżkują kujących gospodarczo, czy przeż przeżywa stagnację stagnację czy też też grozi mu regres. regres. www.kwmimkm.polsl.pl APROKSYMACJA (interpolacja, ekstrapolacja) ze znajomoś znajomości: {xi , f ( x i )} odtworzyć odtworzyć: f ( x) 4 www.kwmimkm.polsl.pl STEROWANIE ASOCJACJA Podanie danego wzorca na wejś wejście powinno powodować powodować pojawienie się się odpowiadają dpowiadającego mu wzorca na wyjś wyjściu. KOJARZENIE DANYCH automatyzacja procesó procesów wnioskowania i wykrywanie istotnych powią powiązań zań mię między danymi. 5 6 www.kwmimkm.polsl.pl FILTRACJA SYGNAŁ SYGNAŁÓW www.kwmimkm.polsl.pl Dobó Dobór optymalnej struktury SSN: SSN: 3 gł główne grupy algorytmó algorytmów pomocnych w utworzeniu sieci optymalnej : • metody wzrostu; wzrostu; • • metody redukcji, redukcji, metody optymalizacji dyskretnej. dyskretnej. Metody wzrostu: - na począ początku procesu optymalizacji struktura sieci powinna OPTYMALIZACJA statyczna i dynamiczna, optymalizacja kombinatokombinato-ryczna i zagadnienia bardzo trudne obliczeniowo. 7 www.kwmimkm.polsl.pl być być moż możliwie mał mała; - w kolejnych iteracjach są są dodawane kolejne neurony ukryte (co powinno powodować powodować zwię zwiększenie sprawnoś sprawności dział działania sieci); - neurony są są dodawane aż aż do osią osiągnię gnięcia punktu 8 optymalnego. optymalnego. www.kwmimkm.polsl.pl Metody optymalizacji dyskretnej • opierają opierają się się na zał założeniu, że proces nauki sieci i wyboru architektury zachodzą zachodzą równocześ wnocześnie; nie; • czynnikiem ocenianym jest okreś określona funkcja, reprezentują reprezentująca jakość jakość danej sieci; • w kolejnych krokach sieci dobierane są yć są tak, by dąż dąży do maksymalizacji funkcji jakoś jakości; • moż możliwe jest wykorzystanie AE jako metody optymalizacji. Metody redukcji • na począ początku procesu optymalizacji struktura sieci powinna być być moż możliwie zł złożona; ona; • w kolejnych iteracjach są są usuwane kolejne neurony lub połą czenia mię połączenia między nimi (co powinno powodować powodować zwię zwiększenie sprawnoś sprawności dział działania sieci); • postę postępowanie jest powtarzane aż do osią osiągnię gnięcia punktu optymalnego. 9 www.kwmimkm.polsl.pl Żadna z tych metod nie jest idealna. idealna. Czę Często wybó wybór któ którejś rejś z nich zależ zależy od rodzaju rozwią rozwiązywanego problemu. problemu. 10 www.kwmimkm.polsl.pl Np.(L. Rutkowski, Metody i techniki sztucznej inteligencji, PWN, W-wa 2006): • Zwykle: Zwykle: uczenie z począ początkowo małą małą liczbą liczbą neuronó neuronów i stopniowe zwię zwiększanie ich liczby. liczby. x ∈ [0, 2π ] y = sin( x ), Cią Ciąg uczą uczący: • Zbyt mał mało neuronó neuronów w warstwie ukrytej – sieć sieć nie potrafi poprawnie odwzorować odwzorować funkcji. 1 Wejście x Oczekiwane wyjście d=f(x) • Zbyt wiele elementó elementów warstwy ukrytej: 0 2 3 4 π π π 6 3 4 3 2 2 2 0 0.5 5 6 π 2π 0 0 7 7π 6 8 4π 3 -0.5 − 9 5π 4 3 2 − 2 2 10 5π 6 11 2π 3 1 2 3 2 12 3π 4 13 5π 3 14 11π 6 15 7π 4 2 3 1 2 − − − 2 2 2 2 • wydł wydłużenie procesu uczenia; • uczenie się się „na pamięć pamięć”” (szczegó (szczególnie, gdy liczba pró próbek w cią ciągu uczą uczącym jest niewielka) - sieć sieć poprawnie rozpoznaje tylko sygnał sygnały zgodne z tymi w cią ciągu uczą uczącym (brak (brak generalizacji przy dobrej interpolacji). interpolacji). 11 1 –2 – 1 1 –3 – 1 1–15– 15–1 12 Dobó Dobór pró próbek (cią (ciąg uczą uczący) wpł wpływa na jakość jakość nauczania: nauczania: www.kwmimkm.polsl.pl odpowiedź na ciąg uczący JAK DŁ DŁUGO UCZYĆ UCZYĆ SIEĆ SIEĆ? www.kwmimkm.polsl.pl Liczba prezentacji cią ciągu uczą uczącego konieczna do nauczenia sieci: • prognozowanie finansowe: 109 • synteza mowy: 1010 • rozpoznawanie mowy lub pisma odrę odręcznego: 1012 odpowiedź na ciąg testowy • rozpoznawanie znakó znaków Kenji: Kenji: 1013 Ghaboussi, CISM 2007 13 www.kwmimkm.polsl.pl • Uważ Uważa się się, iż iż czas uczenia sieci roś rośnie wykł wykładadniczo wraz ze wzrostem liczby elementó elementów sieci. 14 www.kwmimkm.polsl.pl Zbyt dł długie uczenie również wnież moż może skutkować skutkować utratą utratą zdolnoś zdolności uogó uogólniania: • Korzystne jest pokazywanie elementó elementów cią ciągu uczą uczącego w ró różnej kolejnoś kolejności. ci. Malenie błę du jest ró błędu różne dla ró różnie wylosowanych wag począ początkowych (dla (dla tej samej sieci): sieci): Ghaboussi, CISM 2007 15 UCZENIE WARSTW UKRYTYCH www.kwmimkm.polsl.pl 16 www.kwmimkm.polsl.pl n δ m( j ) = ∑ wm( k )( j )δ k( j ) k =1 Bezpoś dów nie jest moż Bezpośrednie wyznaczenie błę błęd możliwe (sygnał (sygnałów WY z warstwy ukrytej nie ma z czym poró porównać wnać). m – numer neuronu w warstwie ukrytej n – liczba neuronó neuronów w warstwie nastę następnej k; j – numer kroku uczenia; Metoda wstecznej propagacji błę dów błęd δ m( j–) błąd łąd popeł popełniany przez neuron m; δ k( j )– błąd łąd popeł popełniany przez neuron w warstwie k (backpropagation): • Zmiana wagi – jak przy sieci jednowarstwowej; • Obliczanie δ – sumowanie błę dów z nastę błęd następnej warstwy k1 k2 k3 kn w Błędy łędy w warstwach ukrytych są są wyznaczane w sposó sposób przybliż przybliżony. m 17 δ k( j ) − znane n ( k n )( j ) m δ m( j ) − nieznane dów • obliczanie błę błęd w warstwie WY; dów • obliczanie błę błęd w warstwie poprzedniej; • itd. aż aż do warstwy pierwszej. 18 www.kwmimkm.polsl.pl UCZENIE SIECI NEURONOWYCH www.kwmimkm.polsl.pl Uczenie bez nauczyciela (unsupervised unsupervised learning) • Donald Hebb (fizjolog i psycholog) – w umyś umyśle zazachodzą czeń ń mię chodzą procesy wzmacniania połą połącze między neuroneuronami, nami, jeś jeśli został zostały one pobudzone jednocześ jednocześnie. • Zamiast programowania! programowania! • Wymuszanie okreś określonego reagowania sieci na zadane sygnał dobór wag). wag). sygnały wejś wejściowe (poprzez odpowiedni dobó • Pożą dana odpowiedź Pożądana odpowiedź nie jest znana. Ta sama sieć sieć moż może sł służyć do rozwią rozwiązywania skrajnie ró różnych zadań zadań. • Sieć Sieć uczy się się poprzez analizę analizę reakcji na pobudzenia; samoorganizacja struktury – wszelkie regularnoś regularności, ci, linie podział podziału i inne charakterystyki danych wejś wejściowych sieć sieć musi wykryć wykryć sama. Warianty uczenia: uczenia: • uczenie bez nauczyciela (nienadzorowane); nienadzorowane); • Zdolnoś Zdolności do wykrywania skupisk obrazó obrazów wejś wejściowych są wykorzystywane do ich klasyfikacji, klasyfikacji, gdy klasy nie są są z gó góry ustalone. • uczenie z nauczycielem (nadzorowane); • uczenie z krytykiem. krytykiem. 19 www.kwmimkm.polsl.pl 20 Uczenie bez nauczyciela (unsupervised unsupervised learning) Uczenie bez nauczyciela - wady • Sieci pokazuje się się kolejne przykł przykłady bez okreś określenia, enia, co trzeba z nimi zrobić zrobić. • Zwykle powolniejsze. • Różne pobudzenie ró różnych neuneuronó czenia mię ronów - połą połączenia między źródłami silnych sygnał sygnałów a neuronami, któ które na nie reagują reagują są wzmacniane. wzmacniane. www.kwmimkm.polsl.pl • Nie wiadomo, któ który neuron bę będzie rozpoznawał rozpoznawał jaki sygnał sygnał. • Część sygnał sygnałów moż może być być rozpoznawana przez wię więcej niż niż jeden neuron. • W sieci stopniowo powstają powstają wzorce poszczegó poszczególnych typó typów sygnał sygnałów rozpoznawane przez pewną pewną część część neuronó neuronów. • Uczenie spontaniczne, spontaniczne, odkrywanie ciekawych struktur w przestrzeni danych, korelacja zachowań zachowań systemu ze zmianą zmianą tych struktur – dominuje w okresie niemowlę niemowlęcym. cym. • Część sygnał sygnałów moż może nie być być rozpoznawana przez żaden neuron (sieć (sieć musi być być wię większa niż niż przy nauczycielu zwykle przynajmniej 3 razy). razy). 21 www.kwmimkm.polsl.pl 22 www.kwmimkm.polsl.pl Uczenie z nauczycielem (supervised learning) Uczenie z krytykiem (reinforcement learning): • Podawanie sieci zestawó zestawów sygnał sygnałów WE wraz z prawidł prawidłowym sygnał sygnałem WY. • Odmiana uczenia nadzorowanego. • Nauczyciel Nauczyciel nie dysponuje peł pełną wiedzą wiedzą na temat wszystkich prawidł prawidłowych odpowiedzi. • Naś Naśladowanie nauczyciela, nauczyciela, jakim jest cią ciąg uczą uczący (podejś (podejście „szkolne” szkolne”). • Zestawy sygnał sygnałów (zwykle) powtarza się się wielokrotnie, zaś zaś sieć sieć modyfikuje wagi na wejś wejściach tak, by zminizminimalizować malizować błąd łąd. • Zamiast informacji o pożą danym WY, sieć pożądanym sieć dysponuje jedynie oceną oceną efektu swego dział działania w ramach dwó dwóch prostych kategorii. • Zmiana wagi na i-tym wejś wejściu neuronu po pokazaniu j-ego obiektu uczą uczącego jest proporcjonalna do popeł du δ ( j ). popełnianego na tym etapie błę błędu • Ocena Ö wzmocnienie (pozytywne lub negatywne) Ö odpowiednie zmiany wag. 23 24 www.kwmimkm.polsl.pl Uczenie z krytykiem (reinforcement learning): • Optymalizacja zyskó zysków na dłuższą szą metę metę. www.kwmimkm.polsl.pl SAMOUCZENIE SIECI • Cał Cała wiedza, jaką jaką sieć sieć moż może zdobyć zdobyć jest zawarta • Np.: gry z przeciwnikiem, krytyką krytyką jest przegrana lub wygrana na koń końcu partii. w obiektach pokazywanych (muszą (muszą zawierać zawierać klasy podobień podobieństwa). stwa). • Uczenie z krytykiem lub z „wzmocnieniem” danych wzmocnieniem” pożą pożądanych zachowań zachowań po dł dłuższym okresie. • Nie mogą mogą to być być obiekty cał całkiem przypadkowe, ale • Uczenie dojrzał dojrzałe (nabieranie „mądroś drości” ci”). bia wrodzone • Proces samouczenia utrwala i pogłę pogłębia tworzyć tworzyć skupiska wokó wokół pewnych oś ośrodkó rodków. zdolnoś zdolności neuronó neuronów. • Bardziej uniwersalne w zastosowaniu podejś podejście do problemu. • Praktyczna realizacja jest bardziej skomplikowana. 25 www.kwmimkm.polsl.pl SAMOUCZENIE SIECI: Cią Ciąg uczą uczący: U = {X , X ,...X (1) (2) (N ) } ( m )( j +1) = wi ( m )( j ) + η xi (m) ym ( j) n X(j) – n-wymiarowy wektor danych wejś wejściowych w j-ym kroku uczenia • N – liczba posiadanych pokazó pokazów. ym ( j ) = ∑ wi ( m )( j ) xi( j ) i =1 • Wielkość Wielkość zmiany wagi – liczona na podstawie iloczynu sygnał sygnału na odpowiednim wejś wejściu przez sygnał sygnał wyjś wyjściowy neuronu. Reguł Reguła uczenia dla m-tego neuronu w j-ym kroku: • Uczenie to zwie się się też też korelacyjnym – zmierza do tata- wi ( m )( j +1) = wi ( m )( j ) + η xi ( m ) ym ( j ) n ym ( j ) = ∑ wi ( m )( j ) xi( j ) i =1 27 KONKURENCJA www.kwmimkm.polsl.pl wi • gdzie: 26 www.kwmimkm.polsl.pl Efekty: 28 www.kwmimkm.polsl.pl • Neuron, któ który raz wygrał wygrał przy pokazaniu danego W SIECIACH SAMOUCZĄ SAMOUCZĄCYCH wzorca – dalej bę będzie wygrywał wygrywał. • Samouczenie jest skuteczniejsze i efektywniejsze (każ (każdy WTA (Winner Takes All) All) - zwycię zwycięzca bierze wszystko: neuron rozpoznaje jeden obiekt, pozostał pozostałe neurony pozostają pozostają niezagospodarowane). • Najlepszy neuron – niezerowa wartość wartość sygnał sygnału WY (zwykle 1); • Wysoce prawdopodobne jest, iż iż: • Pozostał Pozostałe wyjś wyjścia są są zerowane; zerowane; • Tylko najlepszy neuron jest uczony. ) Zasada WTA daje jednoznaczną jednoznaczną odpowiedź odpowiedź sieci (co niekoniecznie musi być być zaletą zaletą). ) Wszystkie sygnał sygnały mniejsze niż niż ustalony pró próg – brak rozpoznania. rozpoznania. kiego dopasowania wag, by uzyskać uzyskać najlepszą najlepszą korekorelację lację mię między sygnał sygnałami WE a zapamię zapamiętanym (w formie wag) wzorcem sygnał sygnału, na któ który dany neuron ma reagować reagować. 29 - nie bę będzie grup neuronó neuronów rozpoznają rozpoznających ten sam wzorzec; - nie bę będzie klas nierozpoznanych przez żaden neuron. • Niezagospodarowane neurony są są gotowe rozpoznawać rozpoznawać nowe wzorce. wzorce. • Po wykorzystaniu wszystkich neuronó neuronów i pojawieniu się się nowego wzorca – przecią przeciąganie któ któregoś regoś z neuronó neuronów w jego stronę stronę: 30 www.kwmimkm.polsl.pl SIECI SAMOORGANIZUJĄ SAMOORGANIZUJĄCE SIĘ SIĘ www.kwmimkm.polsl.pl Analiza skupień skupień – w analizy ekonomicznej (np (np.. podobień ). podobieństwo przedsię przedsiębiorstw – rentowność rentowność). (Teuvo Kohonen) Kohonen) • Tworzą Tworzą odwzorowania sygnał sygnałów WE w sygnał sygnały WY, Kolektywność Kolektywność – to co rozpoznaje neuron zależ zależy w duż dużej mierze od tego, co rozpoznają rozpoznają inne neurony. speł spełniają niające pewne ogó ogólne kryteria (nie zdeterminowazdeterminowane przez twó twórcę rcę ani uż użytkownika sieci) – samoorganizacja sieci. sieci. Sąsiedztwo – znaczenie ma wzajemne poł położenie neuronó neuronów w warstwach. • Inny (wy ższy) (wyż szy) sposó sposób samouczenia, samouczenia, wprowadzają wprowadzający efekty koherencji i kolektywnoś kolektywności. Zwykle są sąsiedztwo 22-wymiarowe – neurony w wę węzłach regularnej siatki (każ każdy neuron ma min. 4 są sąsiadó siadów). ść) - sieć Koherencja (słown. own. spó spójność jność,, spoistość spoistość,, łączno łączność sieć grupuje dane wejś wejściowe wg wzajemnego podobień podobieństwa – wykrywa automatycznie obiekty podobne do siebie nawzajem i inne od innych grup obiektó obiektów. 31 Przykł Przykładowe są sąsiedztwa: www.kwmimkm.polsl.pl 32 Rozszerzone sąsiedztwo: www.kwmimkm.polsl.pl Rozbudowane sąsiedztwo: Jednowymiarowe sąsiedztwo: 33 www.kwmimkm.polsl.pl Gdy w procesie uczenia któ a: któryś ryś neuron zwycięż zwycięża: uczy się się też też (w mniejszym stopniu) stopniu) jego są sąsiadó siadów (niezależ niezależnie od ich wag począ początkowych!). tkowych!). 35 34 Neurony są sąsiadują siadujące rozpoznają rozpoznają sygnał sygnały z są sąsiadują siadujących podobszaró podobszarów: www.kwmimkm.polsl.pl Skutek: Sygnał Sygnały ró równomiernie rozmieszczone w pewnym obszaobszarze ⇒ neurony zostają zostają tak nauczone, by każ każdy podobszar sygnał sygnałów był był rozpoznawany 36 przez inny neuron. • Po wytrenowaniu każ każdej praktycznej sytuacji www.kwmimkm.polsl.pl odpowiada neuron, któ który ją ją reprezentuje. www.kwmimkm.polsl.pl SIECI REKURENCYJNE Zawierają enia zwrotne: Zawierają sprzęż sprzężenia • Sąsiedztwo powoduje wykrywanie sytuacji podobnych do prezentowanych. • W sieci powstaje wewnę wewnętrzny obraz świata zewnę zewnętrznego. trznego. • Sygnał ce Sygnały blisko siebie bę będą wykrywane przez leżą leżące blisko siebie neurony. Przykł Przykładowe zastosowania: • robot dostosowują dostosowujący zachowanie do zmiennego środowiska; • systemy bankowe – stworzenie modelu wiarygodnego kredytobiorcy. Po jednorazowym podaniu sygnał sygnału WE – długotrwał ugotrwały proces zmiany sygnał sygnału WY, w efekcie stan ró równowagi. wnowagi. 37 www.kwmimkm.polsl.pl • Waga sprzęż enia dodatnia – sygnał sprzężenia sygnał zmienia się się jednokierunkowo (aperiodycznie); • Waga sprzęż enia ujemna – sygnał sprzężenia sygnał zmienia się się oscylacyjnie; oscylacyjnie; • Przy neuronach nieliniowych moż możliwe chaotyczne błądzenie łądzenie sygnał sygnałów; Zachowania: • stabilne (zbieganie się się sygnał sygnałów do okreś określonej wartoś wartości); • niestabilne (warto ści sygnał (wartoś sygnału coraz wię większe). ksze). Zastosowania: • zadania optymalizacji (stany ró równowagi odpowiadają odpowiadają rozwią rozwiązaniom zadań zadań); • pamię pamięci skojarzeniowe (drobny fragment informacji pozwala odtworzyć odtworzyć całą całą informację informację). 38 www.kwmimkm.polsl.pl SIECI HOPFIELDA • Każ Każdy neuron jest zwią związany z każ każdym innym na zasadzie obustronnego sprzęż enia zwrotnego. sprzężenia eń zwrotnych obejmują • Zabroniono sprzęż sprzęże obejmujących pojedynczy neuron. • Symetria wspó współczynnikó czynników wagowych: wxy=wyx X Y wxy wyx 39 Skutek: zachodzą zachodzące procesy są są zawsze stabilne. www.kwmimkm.polsl.pl 40 www.kwmimkm.polsl.pl 1965 – Lotfi A. Zadeh: Zadeh: „Fuzzy sets” sets” ZBIORY ROZMYTE I WNIOSKOWANIE PRZYBLIŻONE “In almost every case you can build the same product without fuzzy logic, but fuzzy is faster and cheaper.” Prof. Lotfi Zadeh, UC Berkeley, Inventor of Fuzzy Logic 41 42 www.kwmimkm.polsl.pl Metoda reprezentacji wiedzy wyraż wyrażonej w ję języku naturalnym: www.kwmimkm.polsl.pl Zamiast dwó dwóch wartoś wartości logicznych (prawda i fał fałsz) nieskoń nieskończenie wiele wartoś wartości [0,1]. Np.: „młody czł człowiek” owiek”: 29oC” • „Temperatura wynosi – informacja liczbowa naturalna dla systemó systemów komputerowych. 1 • „Jest dość dość ciepł ciepło” – informacja opisowa - naturalna dla czł człowieka. 0 μ A=„młody” 1 A=„młody” 0.8 30 x [lata] klasycznie 0 30 x [lata] sposób rozmyty Klasyczna teoria zbioró zbiorów: dowolny element należ należy lub nie należ należy do danego zbioru. Umoż Umożliwiają liwiają formalne okreś określenie pojęć pojęć nieprecyzyjnych i wieloznacznych: Teoria zbioró ciowo zbiorów rozmytych: rozmytych: element moż może częś częściowo należ należeć do pewnego zbioru. 43 - „wysoki hał hałas” as”, - „mał małe zarobki” zarobki”, - „niskie zuż zużycie paliwa” paliwa”. www.kwmimkm.polsl.pl Obszar rozważ zbiór rozważań X (the universe of discourse) - zbió nierozmyty (np. np. pł płaca w UK i w Polsce). 44 www.kwmimkm.polsl.pl • μA(x) = 1 – pełna przynależność elementu x do ZR A; • μA(x) = 0 – brak przynależności x do ZR A; • 0 < μA(x) < 1 – częściowa przynależność x do ZR A. Zbió Zbiór rozmyty w pewnej przestrzeni (niepustej) X zbió zbiór par: A = {( x, μ A ( x )); x ∈ X} ∧ Stopień przynależności to nie jest prawdopodobieństwo: młody w 80% to nie 4 młodych na 5… x μA(x) – funkcja przynależ przynależnoś ności zbioru rozmytego A. Symboliczny zapis ZR o skończonej liczbie elementów: Funkcja przynależ przynależnoś ności – przypisuje każ każdemu eleelementowi x∈X stopień stopień jego przynależ przynależnoś ności do zbioru rozmytego A A= www.kwmimkm.polsl.pl • Obszar rozważań: + x1 μA ( x) = • Zbiór rozmyty A (według osoby nr 1): 0.1 0.3 0.4 0.6 0.8 1 0.9 0.8 0.75 0.7 A= + + + + + + + + + 20 21 22 23 24 25 26 27 28 29 ∫ x x xn μ A ( xi ) i =1 xi A= ∫ 2 ⎣⎡1 + ( x - 7) ⎦⎤ x 46 www.kwmimkm.polsl.pl 1 -1 0 -1 7 15 x μ (x ) 1 ⎧ |x-7| jeżeli 4 ≤ x ≤ 10 ⎪ 1− μ A ( x )= ⎨ 3 ⎪ 0 w przeciwnym razie ⎩ 0 0 47 n =∑ μ (x ) lub Jeśli X - przestrzeń o nieskończonej liczbie elementów, to zapis symboliczny: μA ( x) μ A ( xn ) przyporządkowanie 1 1 + ( x − 7) 2 x A= x2 + ... + Np. „Zbiór liczb bliskich liczbie 7”: X = [15, 21, ..., 35] • Według osoby nr 2: 0.2 0.4 0.6 0.8 1 0.8 0.6 0.4 0.2 A= + + + + + + + + 18 19 20 21 22 23 24 25 26 μ A ( x2 ) suma mnogościowa 45 Np. „Ciepła woda na basenie”: μ A ( x1 ) 7 x 14 48