Algorytmy genetyczne jako metoda wyszukiwania wzorców
Transkrypt
Algorytmy genetyczne jako metoda wyszukiwania wzorców
Algorytmy genetyczne jako metoda wyszukiwania wzorców Seminarium Metod Inteligencji Obliczeniowej Warszawa 26 X 2005 mgr inż. Marcin Borkowski Krótko i na temat: ● Cel pracy ● Opis modyfikacji AG ● Zastosowania testowe i planowane ● Wyniki testów ● Uwagi i komentarze Cel pracy: ● Pełniejsze wykorzystanie możliwosci Algorytmu Genetycznego [AG] – Szybsze działanie – Wyszukiwanie wielu rozwiązań naraz – Interakcja rozwiązań ● ● – Wykluczanie sprzeczności Rozłączne pokrycie przestrzeni rozwiązań Unika się kłopotliwego integrowania wyników pochodzących z wielokrotnego użycia klasycznego AG Cel prac: ● ● ● Znalezienie praktycznych zastosowań zmodyfikowanego AG [MAG] Publikacje – ISDA2005 – CORES2005 Doktorat :-) AG vs MAG ● ● Jako odnośnik użyty zostanie prosty AG z klasycznymi operatorami i kodowaniem Następne slajdy prezentują nie tylko różnice w budowie obu algorytmów ale również różnice w efektach działania AG vs MAG ● Stała populacja ● Stała populacja ● Kodowanie binarne ● Kodowanie binarne ● Nabór ruletkowy ● Nabór: Osobniki w populacji są sortowane względem ich przystosowania. Osobniki najsłabsze są następnie zastępowane przez wyniki operatorów genetycznych. Pozwala to najlepszym osobnikom unikać “śmierci” tak długo aż zostaną wyparte przez osobniki jeszcze lepsze. Wyniki operatorów są umieszczane w tymczasowej kopii populacji co daje równe szanse także osobnikom spisanym na straty AG vs MAG ● Klasyczna mutacja zależna od pm. ● Mutacja sterowana dwoma parametrami: Każdy osobnik podlega mutacji z zadanym prawdopodobieństwem mutacji struktury pms. Każdy bit osobnika wylosowanego do mutacji podlega mutacji (inversja) z prawdopodobieństwem pm. Pm maleje w kolejnych generacjach aż do granicy jednej mutacji na osobnika Wynik mutacji wypiera z populacji osobnika najsłabszego z jeszcze niepodmienionych AG vs MAG ● Krzyżowanie jedno punktowe ● Krzyżowanie jednopunktowe: Wyniki krzyżowania, podobnie jak mutacji, zastępują najsłabsze osobniki w kopii populacji ● Nabór powoduje namnażanie się osobników lepszych co zwiększa ich szanse na przetrwanie ● Nabór nie namnaża super osobników, dłuższe przetrwanie w populacji gwarantuje ich pozycja w rankingu AG vs MAG ● ● Klonowanie jest powszechne i pożądane - zwieksza zbieżność Rozwiązaniem jest jedno z optimów w przeszukiwanej przestrzeni ● ● Nie ma klonowania, unika się wielu osobników tej samej postaci Rozwiązań jest kilka, są to najlepsze optima w przeszukiwanej przestrzeni. Ilość tych optimów zależy od rozmiaru populacji AG vs MAG ● Funkcja oceny uwzględnia wiedzę tylko o jednym osobniku ● Funkcja oceny: Ocena rozbita jest na dwa etapy, poza zwyczajową ewaluacją osobnika następuje redukcja oceny na skutek działania czynnika ścisku. Ścisk wyznaczany jest dopiero gdy znane są wszystkie funkcje oceny Dla problemów reprezentowanych seriami wylicza się serię ocen cząstkowych. Do oceny końcowej brana jest wartość uśredniona AG vs MAG ● Brak czynnika ścisku ● Ścisk: W zamyśle ma działać jako narzędzie limitujące ilość podobnych do siebie osobników zamieszkujących tą samą niszę poprzez redukowanie ich wartości dopasowania. Nie wszystkie osobniki w niszy będą tak samo zredukowane redukcja jest proporcjonalna do dotychczasowej wartości dopasowania. Poza numeryczną wartością dopasowania pod uwagę brane są także inne czynniki np:. skuteczność rozwiązania, długość itp Osobniki są podobne wtedy, gdy dla tych samych zadanych problemów dają podobne wyniki ( podobna fizyczna budowa nie wystarcza) AG vs MAG ● ● Rozłączne pokrycie przestrzeni rozwiązań – brak Rozwiązania niesprzeczne – zawsze :-) ● ● Ściśk zapewnia rozłączne pokrycie, osobniki należące do więcej niż jednej niszy “cierpią” na większy ścisk. Sprzeczności występują tylko w problemach prezentowanych seriamii AG vs MAG ● ● ● Działa teza o cegiełkach Populacja ma zbiegać do optimum Za różnorodność populacji odpowiada mutacja ● ● ● Działa teza o cegiełkach, wymaga modyfikacji “dowodu” Populacja ma nieustannie poszukiwać lepszego zestawu optimów Za różnorodność populacji odpowiada mutacja i ścisk AG vs MGA ● ● Algorytm wychodzi od losowej populacji Po osiągnięciu zbieżności dalsze działanie nie ma sensu ● ● Algorytm wychodzi od losowej populacji Po osiągnięciu pierwszych wyników zawsze można oczekiwać lepszych lub zmienić probem i pozwolić populacji przemigrować do nowych nisz AG vs MAG ● W jednym przebiegu można rozwiązać jeden problem naraz ● W jednym przebiegu można szukać rozwiązania (rozwiązań) wspólnego dla serii problemów Aplikacje MAG ● ● Testowane: – Predykcja szeregów czasowych – Uzupełnianie braków w szeregach czasowych – Drugie zastosowanie obejmuje pierwsze Planowane – Wyszukiwanie powtarzalnych sekwencji (okresowość) – Wyszukiwanie zbioru reguł opisujących sieć neuronową – Heurystyki do gier oparte na regułach Data Fitting ● Postać zadania: – Szereg czasowy pozbawiony części danych – Szereg taki jest traktowany jako zbiór zadań, dla których poszukiwane są wspólne rozwiązania – tutaj wzorce. – Wzorce nie mogą być sprzeczne – Wzorce mają odwzorowywać możliwie największą część szeregu – Wzorce będą użyte do odtworzenia braków w szeregu Data Fitting ● Postać rozwiązania: – Wzorzec ma postać: (v1,0)(v2,o2)....(vn,on) – Odstęp pomiędzy węzłami jest limitowany – Dane wejściowe i wartości vi są skalowane do przedziału <-1,1> – Uzupełnianie wzorca nie jest częścią MGA, ale oba procesy można przeplatać dość swobodnie Data Fitting – Każdy wzorzec/osobnik sprawdza się tylko w pewnych określonych warunkach, stopień zgodności jest reprezentowany współczynnikiem zaufania – Do zadania można włączyć liniowe skalowanie wzorców co rozszerza ich użyteczność – Do rozwiązania są brane tylko wzorce o dużym współczynniku zaufania i wysokiej wartości dopasowania – Możliwe jest kilka alternatywnych rozwiązań lub też kompletny brak rozwiązania Data Fitting – Oceny dopasowania (fitness) ● ● ● ● ● Do wyszukania wzorców wykorzystuje się dane uczące (znaną część szeregu). Jedna znana dana jest z szeregu usuwana, a następnie uzupełniana przez wzorce Jeśli predykcja jest zgodna z przewidywaniem - ocena cząstkowa jest wysoka, jeśli nie i jednocześnie współczynnik zaufania jest wysoki – ocena cząstkowa jest niska Proces ten jest powtarzany dla wszystkich znanych danych w szeregu Finalna ocena jest średnią z najlepszych ocen cząstkowych Data Fitting Parametry procesu MAG ● ● ● ● ● ● ● ● ● ilość bitów wartości w węźle 12 maksymalny dystans między węzłami 4 ilość węzłów we wzorcu <3,4> prawdopodobieństwo krzyżowania 45% prawdopodobieństwo mutacji struktury 50% rozmiar populacji 70 Początkowe generacje MAG <300,3000> Wtórne kroki MAG <100,300> Oczekiwany minimalny poziom zaufania <75,95> Data Fitting Wyniki: Odtwarzanie prostego szeregu (52% braków - kwadraty) Najlepsze wzorce bez skalowania: – (1.00,0)(0.00,1)(-1.00,2)(1.00,4) – (-1.00,0)(0.00,1)(1.00,2)(-1.00,4) Najlepsze wzorce ze skalowaniem: ● ● ● – (0.768,0)(0.768,4)(0.768,8) 1 0 0 -1 5 10 15 20 25 30 35 40 45 50 Data Fitting Wyniki: ● ● Sinus – 26 % braków Najlepsze wzorce ze skalowaniem: (-0.75,0)(-0.55,1)(-0.35,2) ( 0.86,0)( 0.72,1)( 0.59,2) ( 0.89,0)(-0.07,1)(-0.99,2) (-1.00,0)( 0.03,1)( 0.99,2) 0 ,8 -0 ,2 0 -1 ,2 10 20 30 40 50 60 To już wszystko! Dziękuję za uwagę, proszę o pytania i komentarze. Marcin Borkowski [email protected]