Spis treści
Transkrypt
Spis treści
Spis treści Przedmowa 7 1. Wstęp 1.1. Podstawy biologiczne działania neuronu . . . . . . . . . . . . . . . . . . . 1.2. Pierwsze modele sieci neuronowej . . . . . . . . . . . . . . . . . . . . . . . 1.3. Przegląd zastosowań sieci neuronowych . . . . . . . . . . . . . . . . . . . . 9 9 12 14 2. Modele neuronów i metody ich uczenia 2.1. Perceptron . . . . . . . . . . . . . . . . 2.2. Neuron sigmoidalny . . . . . . . . . . . 2.3. Neuron radialny . . . . . . . . . . . . . . 2.4. Neuron typu adaline . . . . . . . . . . . 2.5. Instar i outstar Grossberga . . . . . . . 2.6. Neurony typu WTA . . . . . . . . . . . 2.7. Model neuronu Hebba . . . . . . . . . . 2.8. Model stochastyczny neuronu . . . . . . 2.9. Zadania i problemy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 18 19 24 25 27 30 34 37 39 3. Sieci jednokierunkowe wielowarstwowe typu sigmoidalnego 3.1. Sieć jednowarstwowa . . . . . . . . . . . . . . . . . . . . . . . 3.2. Sieć wielowarstwowa perceptronowa . . . . . . . . . . . . . . 3.2.1. Struktura sieci perceptronowej . . . . . . . . . . . . . 3.2.2. Algorytm propagacji wstecznej . . . . . . . . . . . . . 3.3. Grafy przepływowe w zastosowaniu do generacji gradientu . . 3.4. Algorytmy gradientowe uczenia sieci . . . . . . . . . . . . . . 3.4.1. Zależności podstawowe . . . . . . . . . . . . . . . . . . 3.4.2. Algorytm największego spadku . . . . . . . . . . . . . 3.4.3. Algorytm zmiennej metryki . . . . . . . . . . . . . . . 3.4.4. Algorytm Levenberga-Marquardta . . . . . . . . . . . 3.4.5. Algorytm gradientów sprzężonych . . . . . . . . . . . 3.5. Dobór współczynnika uczenia . . . . . . . . . . . . . . . . . . 3.6. Metody heurystyczne uczenia sieci . . . . . . . . . . . . . . . 3.6.1. Algorytm Quickprop . . . . . . . . . . . . . . . . . . . 3.6.2. Algorytm RPROP . . . . . . . . . . . . . . . . . . . . 3.7. Program komputerowy MLP do uczenia sieci perceptronowej 3.8. Porównanie efektywności algorytmów uczących . . . . . . . . 3.9. Elementy optymalizacji globalnej . . . . . . . . . . . . . . . . 3.9.1. Algorytm symulowanego wyżarzania . . . . . . . . . . 3.9.2. Elementy algorytmów genetycznych . . . . . . . . . . 3.10. Metody inicjalizacji wag . . . . . . . . . . . . . . . . . . . . . 3.11. Zadania i problemy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 41 44 44 45 49 54 54 56 57 59 61 62 65 65 67 67 69 74 76 80 85 87 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Spis treści 4. Problemy praktycznego wykorzystania sieci neuronowych 4.1. Zdolności generalizacyjne sieci neuronowych . . . . . . . . . . . . . . 4.1.1. Zależności podstawowe . . . . . . . . . . . . . . . . . . . . . 4.1.2. Miara VCdim . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.3. Zależności między błędem generalizacji i miarą VCdim . . . . 4.1.4. Przegląd metod zwiększania zdolności generalizacyjnych sieci ronowej . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2. Wstępny dobór architektury sieci . . . . . . . . . . . . . . . . . . . . 4.3. Dobór optymalnej architektury sieci pod względem generalizacji . . . 4.3.1. Metody wrażliwościowe redukcji sieci . . . . . . . . . . . . . . 4.3.2. Metody redukcji sieci z zastosowaniem funkcji kary . . . . . . 4.4. Wtrącanie szumu do próbek uczących . . . . . . . . . . . . . . . . . 4.5. Zwiększanie zdolności generalizacyjnych przez użycie wielu sieci . . . 4.6. Przykłady zastosowań sieci perceptronowej . . . . . . . . . . . . . . 4.6.1. Rozpoznawanie i klasyfikacja wzorców binarnych . . . . . . . 4.6.2. Rozpoznawanie wzorców na podstawie obrysu zewnętrznego . 4.6.3. Sieć neuronowa do kompresji danych . . . . . . . . . . . . . . 4.6.4. Identyfikacja obiektów dynamicznych . . . . . . . . . . . . . . 4.6.5. Predykcja obciążeń systemu elektroenergetycznego . . . . . . 4.7. Zadania i problemy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . neu. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 89 89 90 91 93 98 101 102 107 109 111 113 114 122 128 132 135 139 5. Sieci neuronowe radialne 5.1. Podstawy matematyczne . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2. Sieć neuronowa radialna . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3. Metody uczenia sieci neuronowych radialnych . . . . . . . . . . . . . . . . 5.3.1. Proces samoorganizacji w zastosowaniu do adaptacji parametrów funkcji radialnych . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.2. Algorytm probabilistyczny doboru parametrów funkcji radialnych . 5.3.3. Algorytm hybrydowy uczenia sieci radialnych . . . . . . . . . . . . 5.3.4. Algorytmy uczące oparte na propagacji wstecznej . . . . . . . . . . 5.4. Metody doboru liczby funkcji bazowych . . . . . . . . . . . . . . . . . . . 5.4.1. Metody heurystyczne . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.2. Metoda ortogonalizacji Grama-Schmidta . . . . . . . . . . . . . . . 5.5. Program komputerowy uczenia sieci radialnych . . . . . . . . . . . . . . . 5.6. Przykład zastosowania sieci radialnej w aproksymacji . . . . . . . . . . . . 5.7. Porównanie sieci radialnych z sieciami sigmoidalnymi . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.8. Zadania i problemy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 142 144 149 6. Sieci SVM 6.1. Sieć liniowa SVM w zadaniu klasyfikacji . . . . . . . . . . . . . . . . . . . 6.1.1. Sieć nieliniowa SVM w zadaniu klasyfikacji . . . . . . . . . . . . . 6.2. Interpretacja mnożników Lagrange’a w rozwiązaniu sieci . . . . . . . . . . 6.3. Problem klasyfikacji przy wielu klasach . . . . . . . . . . . . . . . . . . . . 6.4. Sieci SVM do zadań regresji . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5. Przegląd algorytmów rozwiązania zadania dualnego . . . . . . . . . . . . . 6.6. Program komputerowy uczenia sieci SVM . . . . . . . . . . . . . . . . . . 6.7. Przykłady zastosowania sieci SVM . . . . . . . . . . . . . . . . . . . . . . 6.7.1. Problem klasyfikacyjny dwu spiral . . . . . . . . . . . . . . . . . . 6.7.2. Rozpoznawanie tekstur . . . . . . . . . . . . . . . . . . . . . . . . 6.7.3. Wykrywanie uszkodzeń elementów w obwodzie filtru elektrycznego 6.8. Porównanie sieci SVM z innymi rozwiązaniami neuronowymi . . . . . . . 6.9. Zadania i problemy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173 174 180 188 189 191 194 198 200 200 202 203 206 210 151 154 156 158 160 161 162 166 168 171 172 7. Specjalizowane struktury sieci neuronowych 212 7.1. Sieć kaskadowej korelacji Fahlmana . . . . . . . . . . . . . . . . . . . . . . 212 7.2. Sieć Volterry . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216 Spis treści 5 7.2.1. Struktura i zależności uczące sieci . . . . . . . . . . . . . . . . . . 219 7.2.2. Przykłady zastosowań sieci Volterry . . . . . . . . . . . . . . . . . 222 7.3. Zadania i problemy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228 8. 9. Sieci rekurencyjne jako pamięci asocjacyjne 8.1. Wprowadzenie . . . . . . . . . . . . . . . . . . . . . 8.2. Sieć autoasocjacyjna Hopfielda . . . . . . . . . . . . 8.2.1. Zależności podstawowe . . . . . . . . . . . . 8.2.2. Tryb uczenia sieci Hopfielda . . . . . . . . . 8.2.3. Tryb odtworzeniowy sieci Hopfielda . . . . . 8.2.4. Program Hop win . . . . . . . . . . . . . . . 8.3. Sieć Hamminga . . . . . . . . . . . . . . . . . . . . 8.3.1. Struktura sieci i algorytm doboru wag . . . 8.3.2. Działanie sieci Hamminga . . . . . . . . . . 8.3.3. Program Shamming uczenia sieci . . . . . . 8.4. Sieć typu BAM . . . . . . . . . . . . . . . . . . . . 8.4.1. Opis działania sieci . . . . . . . . . . . . . . 8.4.2. Zmodyfikowany algorytm uczący sieci BAM 8.4.3. Zmodyfikowana struktura sieci BAM . . . . 8.5. Zadania i problemy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Sieci rekurencyjne tworzone na bazie perceptronu 9.1. Wprowadzenie . . . . . . . . . . . . . . . . . . . . . . 9.2. Sieć perceptronowa ze sprzężeniem zwrotnym . . . . . 9.2.1. Struktura sieci RMLP . . . . . . . . . . . . . 9.2.2. Algorytm uczenia sieci RMLP . . . . . . . . . 9.2.3. Dobór współczynnika uczenia . . . . . . . . . 9.2.4. Współczynnik wzmocnienia sygnału . . . . . . 9.2.5. Wyniki symulacji komputerowych . . . . . . . 9.3. Sieć rekurencyjna Elmana . . . . . . . . . . . . . . . 9.3.1. Struktura sieci . . . . . . . . . . . . . . . . . . 9.3.2. Algorytm uczenia sieci Elmana . . . . . . . . . 9.3.3. Uczenie z wykorzystaniem momentu . . . . . . 9.3.4. Przykładowe wyniki symulacji komputerowych 9.4. Sieć RTRN . . . . . . . . . . . . . . . . . . . . . . . . 9.4.1. Struktura sieci i algorytm uczący . . . . . . . 9.4.2. Wyniki eksperymentów numerycznych . . . . 9.5. Zadania i problemy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229 229 231 231 234 235 236 239 239 241 242 245 245 248 249 255 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . sieci Elmana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257 257 257 257 259 261 261 262 267 267 268 271 272 275 275 277 281 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10. Sieci samoorganizujące się na zasadzie współzawodnictwa 10.1. Zależności podstawowe sieci samoorganizujących się przez współzawodnictwo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.1.1. Miary odległości między wektorami . . . . . . . . . . . . . . . . . 10.1.2. Normalizacja wektorów . . . . . . . . . . . . . . . . . . . . . . . . 10.1.3. Problem neuronów martwych . . . . . . . . . . . . . . . . . . . . 10.2. Algorytmy uczące sieci samoorganizujących . . . . . . . . . . . . . . . . . 10.2.1. Algorytm Kohonena . . . . . . . . . . . . . . . . . . . . . . . . . . 10.2.2. Algorytm gazu neuronowego . . . . . . . . . . . . . . . . . . . . . 10.2.3. Program Kohon . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.2.4. Porównanie algorytmów samoorganizacji . . . . . . . . . . . . . . 10.3. Sieć odwzorowań jedno- i dwuwymiarowych . . . . . . . . . . . . . . . . 10.4. Odwzorowanie Sammona . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.5. Zastosowania sieci samoorganizujących . . . . . . . . . . . . . . . . . . . 10.5.1. Kompresja danych . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.5.2. Wykrywanie uszkodzeń w urządzeniach . . . . . . . . . . . . . . . 10.5.3. Krótkoterminowe prognozowanie obciążeń systemu elektroenergetycznego . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282 283 284 285 286 287 289 289 291 293 295 299 300 300 303 306 6 Spis treści 10.6. Sieć hybrydowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310 10.7. Zadania i problemy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314 11. Sieci samoorganizujące typu korelacyjnego 11.1. Funkcja energetyczna sieci korelacyjnych . . . . . . . . . 11.2. Sieci neuronowe PCA . . . . . . . . . . . . . . . . . . . . 11.2.1. Wprowadzenie matematyczne . . . . . . . . . . . . 11.2.2. Relacja między przekształceniami PCA i SVD . . 11.2.3. Estymacja pierwszego składnika głównego . . . . . 11.2.4. Algorytmy estymacji wielu składników głównych . 11.3. Sieci neuronowe do ślepej separacji sygnałów . . . . . . . 11.3.1. Zależności wstępne . . . . . . . . . . . . . . . . . . 11.3.2. Niezależność statystyczna sygnałów . . . . . . . . 11.3.3. Struktura rekurencyjna sieci separującej . . . . . . 11.3.4. Algorytm Heraulta-Juttena dla sieci rekurencyjnej 11.3.5. Algorytm Cichockiego uczenia sieci rekurencyjnej 11.3.6. Program ślepej separacji BS . . . . . . . . . . . . 11.3.7. Sieć jednokierunkowa do separacji sygnałów . . . . 11.3.8. Toolbox ICALAB . . . . . . . . . . . . . . . . . . 11.4. Zadania i problemy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315 315 317 317 320 321 323 325 325 326 327 328 330 330 334 339 340 12. Podstawy matematyczne systemów rozmytych 12.1. Operacje na zbiorach rozmytych . . . . . . . . . . . . . . . . . . . . . . 12.2. Miary rozmytości zbiorów rozmytych . . . . . . . . . . . . . . . . . . . . 12.3. Rozmytość a prawdopodobieństwo . . . . . . . . . . . . . . . . . . . . . 12.4. Reguły rozmyte wnioskowania . . . . . . . . . . . . . . . . . . . . . . . 12.5. Systemy wnioskowania rozmytego Mamdaniego-Zadeha . . . . . . . . . 12.5.1. Fuzyfikator . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.5.2. Defuzyfikator . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.5.3. Model Mamdaniego-Zadeha jako układ uniwersalnego aproksymatora . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.6. Model wnioskowania Takagi-Sugeno-Kanga . . . . . . . . . . . . . . . . 12.7. Zadania i problemy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342 344 346 347 349 350 353 356 13. Sieci 13.1. 13.2. 13.3. 362 362 366 367 368 371 373 378 381 385 386 388 391 393 396 396 397 399 402 406 neuronowe rozmyte Struktura sieci rozmytej TSK . . . . . . . . . . . . . . . . . . . . . . . Struktura sieci Wanga-Mendela . . . . . . . . . . . . . . . . . . . . . . Algorytmy samoorganizacji w zastosowaniu do uczenia sieci rozmytej 13.3.1. Algorytm grupowania górskiego . . . . . . . . . . . . . . . . . 13.3.2. Algorytm C-means . . . . . . . . . . . . . . . . . . . . . . . . . 13.3.3. Algorytm Gustafsona-Kessela samoorganizacji rozmytej . . . . 13.4. Generacja reguł wnioskowania sieci rozmytej . . . . . . . . . . . . . . 13.5. Algorytm hybrydowy uczenia sieci rozmytej TSK . . . . . . . . . . . . 13.6. Modyfikacje sieci TSK . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.6.1. Algorytm wyznaczania liczby reguł wnioskowania . . . . . . . 13.6.2. Przykład numeryczny . . . . . . . . . . . . . . . . . . . . . . . 13.6.3. Uproszczona sieć TSK . . . . . . . . . . . . . . . . . . . . . . 13.7. Sieć hybrydowa rozmyta . . . . . . . . . . . . . . . . . . . . . . . . . . 13.8. Przykłady zastosowań sieci rozmytych . . . . . . . . . . . . . . . . . . 13.8.1. Estymacja stężenia składników mieszaniny gazowej . . . . . . . 13.8.2. Rozpoznawanie składników mieszanin gazowych . . . . . . . . 13.8.3. Rozpoznawanie gatunków piwa na podstawie zapachu . . . . . 13.9. Adaptacyjny algorytm samoorganizacji dla sieci rozmytej . . . . . . . 13.10. Zadania i problemy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357 358 361 Bibliografia 407 Skorowidz 419