pobierz
Transkrypt
pobierz
GRZEGORZ PAWEŁ KORBAŚ Katedra Automatyzacji i Diagnostyki Układów Elektromechanicznych ZASTOSOWANIE HYBRYDOWEJ METODY MINIMALIZACJI DO WYZNACZANIA PARAMETRÓW MODELI MATEMATYCZNYCH UKŁADÓW ELEKTROMECHANICZNYCH streszczenie: W artykule przedstawiono badania dotyczące estymacji parametrów modelu matematycznych silnika indukcyjnego głębokożłobkowego oraz modelu szeregowego obwodu RLC przy użyciu hybrydowej metody minimalizacji wielu zmiennych. Użyta metoda hybrydowa jest połączeniem algorytmów genetycznych z metodą Hooka-Jeevesa. Dokonano analizy celowości takiego połączenia oraz w sposób statystyczny zbadano wzrost efektywności w odniesieniu do klasycznego algorytmu genetycznego. 1. WSTĘP W przypadku diagnostyki, projektowania, symulacji bądź sterowania układów elektromechanicznych niejednokrotnie istnieje potrzeba wyznaczania wartości parametrów modeli matematycznych. Proces estymacji parametrów jest w zasadzie tożsamy z poszukiwaniem takiego punktu x min ( x1 min , x 2 min ,..., x N min ) (1) w N-wymiarowej przestrzeni parametrów, dla którego pewna funkcja wielu zmiennych o wartościach rzeczywistych (funkcja celu) f (x) , gdzie x ( x1 , x 2 ,..., x N ) (2) posiada wartość minimalną. Postać funkcji celu może być różna – niejednokrotnie wyznaczanie jej wartości jest kosztowne obliczeniowo. W takich przypadkach celowe jest korzystanie z metod, które pozwalają otrzymać zestawy parametrów bliskie optymalnym przy jak najmniejszej liczbie wywołań funkcji celu. Minimalizacja funkcji wielu zmiennych może być dokonywana przy użyciu wielu metod, których efektywność i możliwości są bardzo zróżnicowane. Klasyczne metody gradientowe (i bezgradientowe) są zazwyczaj relatywnie szybkie, ale ich efektywność jest silnie uzależniona od rodzaju funkcji celu, punktu startowego oraz wymiaru przeszukiwanej przestrzeni parametrów. Jest również ich sporą wadą zdążanie do minimum lokalnego i w ogólnym przypadku brak możliwości jego opuszczenia. Pewnym wyjątkiem jest tu zmodyfikowana me- 1 toda Hooka-Jeevesa. Problem ten nie dotyczy metod genetycznych, które są metodami optymalizacji globalnej. Niestety zbieżność tych metod jest znacznie mniejsza i bardzo związana z przypadkiem (opiera się na prawdopodobieństwie). Niejednokrotnie w skład populacji algorytmu genetycznego wchodzi punkt, z którego metoda gradientowa lub bezgradientowa w kilku krokach osiągnęłaby minimum, tymczasem algorytm genetyczny nie jest do tego zdolny w krótkim czasie. Korzystne wydaje się zatem połączenie obydwu rodzajów metod i stworzenie metody hybrydowej, która potrafiłaby szukać minimum globalnego, lecz robiłaby to szybciej niż klasyczne metody genetyczne. Rozwiązania takie były już stosowane w różnych formach. Na przykład w [13] zastosowano dwuetapową procedurę identyfikacji modelu matematycznego silnika indukcyjnego przy zastosowaniu algorytmu genetycznego i algorytmu Neldera-Meada. Zaproponowana w tym artykule metoda może być alternatywą dla innych, gdyż okazała się bardzo efektywna w rozważanych przypadkach. Dokonano samodzielnej implementacji metody hybrydowej w środowisku obiektowym Delphi i zbadano w sposób statystyczny efektywność tej metody w odniesieniu do badanych wcześniej klasycznych algorytmów genetycznych. Badania przeprowadzono wstępnie na szeregu funkcji testowych oraz wielu modelach matematycznych układów elektromechanicznych. W ramach artykułu przedstawiono reprezentatywne przykłady: estymację statyczną (równoległą) parametrów modelu silnika indukcyjnego na podstawie danych pomiarowych oraz estymację dynamiczną (równoległą) parametrów modelu układu RLC. 2. ZASTOSOWANE ALGORYTMY 2.1. Algorytmy genetyczne (GA) Podstawowe informacje dotyczące algorytmów genetycznych można znaleźć w [1,5,12]. Sposób działania algorytmów genetycznych opiera się na procesach rządzących ewolucją. Jeśli dostępna jest pewna populacja osobników (zbiór możliwych rozwiązań), to w kolejnej iteracji z istniejącej populacji losowo tworzy się nową w ten sposób, że osobniki najlepsze mają większą szansę pojawienia się w niej (tzw. proces selekcji). W przypadku minimalizacji funkcji, osobnikami najlepszymi są te, dla których wartość funkcji celu jest najmniejsza. Nowa populacja może różnić się rozmiarem od starej i może zawierać kilka kopii tego samego osobnika. W tak utworzonej nowej populacji można użyć operatorów genetycznych. Klasycznie używa się mutacji równomiernej i krzyżowania prostego. Ogólnie schemat algorytmu genetycznego można przedstawić w postaci następującego pseudokodu (na bazie [12]): 1. t0 2 2. 3. 4. 5. 6. 7. 8. ustal populację P(t) oceń P(t) jeśli warunek końca jest spełniony to zakończ tt+1 wybierz P(t) z P(t-1) zmień P(t) za pomocą operatorów oceń P(t) i skok do punktu 4. Parametr t oznacza numer kolejnej iteracji. Warunek końca może mieć różną formę. Często koniec następuje, gdy w trakcie pewnej (wcześniej ustalonej) liczby iteracji nie zostanie znaleziony osobnik lepszy niż już znany. W ramach oceny populacji liczona jest wartość funkcji celu dla każdego osobnika i na podstawie uzyskanych wyników wyznaczane jest prawdopodobieństwo wejścia osobnika do kolejnej populacji. Tworzenie nowej populacji (selekcja) może mieć różną formę. Klasycznie szansa wejścia osobnika do nowej populacji jest wprost proporcjonalna do jego przystosowania i nie zakłada zachowywania najlepszego osobnika. Oznacza to, że choć średnio biorąc następuje poprawa to w kolejnej populacji najlepszy osobnik może okazać się gorszy niż w populacji wcześniejszej. Często jednak odchodzi się od formy klasycznej zachowując w różny sposób osobnika najlepszego. Użycie na powstałej populacji operatorów genetycznych uzależnione jest od prawdopodobieństwa użycia tych operatorów, które może być stałe lub też zmieniać się w kolejnych iteracjach. W poniższym opisie używane jest nazewnictwo przyjęte dla algorytmów genetycznych. Osobnik oznacza w tym przypadku wektor liczb rzeczywistych, natomiast gen oznacza liczbę rzeczywistą – jedną ze składowych tego wektora. Populację stanowi zatem zbiór wektorów – potencjalnych rozwiązań zagadnienia minimalizacji (estymacji). Przykładowo populację P o liczności POP składającą się z osobników O1, O2, ... OPOP, z których każdy ma K genów G1, G2, ..., GK można zapisać w postaci P=[O1, O2, ..., OPOP], gdzie Oi=[Gi1, Gi2, ..., GiK]. Standardowo używanymi operatorami są różne odmiany mutacji i krzyżowania. Mutacja jest nieodzowna, by wprowadzić do populacji osobniki o zupełnie nowych cechach. To właśnie dzięki mutacji algorytm genetyczny ma zdolność poszukiwania minimum globalnego. Operator krzyżowania jest odpowiedzialny za wymianę informacji pomiędzy osobnikami. Istnieje wiele odmian operatorów genetycznych. Jednym z dwu klasycznych operatorów genetycznych jest mutacja równomierna. Jeśli osobnik jest wybrany do mutacji, to spośród jego genów wybiera się jeden, który mutuje. Mutacja oznacza tu losowanie nowej wartości z dziedziny tego właśnie genu. Zbliżonym operatorem jest mutacja niejednorodna. Różni się ona tym, że nowa losowana wartość genu wraz z kolejnymi iteracjami ma coraz większe szanse być zbliżona do wartości genu przed zmutowaniem. Takie podejście umożliwia dokład- 3 niejsze dostrojenie lokalne w końcowej fazie minimalizacji. Odmienną propozycją mutacji jest mutacja brzegowa, w wyniku której gen może uzyskać jedynie graniczne wartości swej dziedziny. Operator ten może być użyteczny w sytuacjach, gdy poszukiwane minimum znajduje się na granicy obszaru dozwolonego, jednak jego użycie może spowodować szybką degenerację populacji do osobników o tych samych wartościach genów. Drugim klasycznym operatorem jest krzyżowanie proste. Dla dwóch wybranych osobników (rodziców) losowany jest indeks L genu, który stanowi tzw. linię rozcięcia. Tworzonych jest dwóch potomków w ten sposób, że pierwszy potomek ma L pierwszych genów od pierwszego rodzica, a resztę od drugiego, natomiast drugi potomek ma L pierwszych genów od drugiego rodzica, a resztę od pierwszego. Krzyżowanie takie nazywane jest jednopunktowym, gdyż istnieje tylko jedna linia rozcięcia. Stosuje się również krzyżowanie o większej liczbie linii rozcięcia. Kolejnym operatorem jest krzyżowanie arytmetyczne, które z rodziców O1 i O2 tworzy potomków O1’ i O2’ zgodnie z zależnościami O1’=aO2+(1-a)O1 i O2’=aO1+(1-a)O2, gdzie a jest liczbą losową (lub z góry ustaloną) z przedziału od 0 do 1. Następny operator, krzyżowanie heurystyczne, jest przykładem operatora tworzącego osobnika „w obiecującym kierunku”. Dla dwu rodziców O1 i O2 gdzie O2 jest nie gorszy niż O1 tworzony jest tylko jeden potomek O’ zgodnie z zależnością O’=r(O2-O1)+O2, gdzie r jest liczbą losową z przedziału od 0 do 1. Operator ten może utworzyć osobnika z niedozwolonymi wartościami genów, wówczas można losować inną wartość liczby r lub uznać, że potomek nie został utworzony. Jest to przykład operatora, który próbuje ukierunkować poszukiwanie minimum, nie do końca zdając się na przypadek. Efektywność wymienionych operatorów oraz analiza prawdopodobieństw ich użycia była rozważana w [7]. W ramach tej pracy stosowano operator mutacji równomiernej, krzyżowania prostego i arytmetycznego, natomiast sam algorytm genetyczny został zmodyfikowany w sposób opisany w [7] (zachowanie najlepszego osobnika, tablica liczonych wcześniej wartości). Używano zasadniczo populacji niezbyt licznych (rzędu 20 osobników). 2.2. Zmodyfikowany algorytm Hooka-Jeevesa (HJmod) Istnieje wiele gradientowych i bezgradientowych metod minimalizacji. Sposób ich działania jest w zasadzie jednakowy. Minimalizacja rozpoczyna się z punktu startowego, który jest podawany lub losowany. W kolejnych iteracjach obliczana jest wartość funkcji celu dla jednego lub więcej punktów w przeszukiwanej przestrzeni. Uzyskane wartości pozwalają na określenie punktu startowego kolejnej iteracji a także na stwierdzenie, czy zostało już odnalezione minimum. Różnica pomiędzy metodami gradientowymi i bezgradientowymi polega na tym, iż metody gradientowe korzystają z informacji o gradiencie funkcji 4 w analizowanym punkcie. W przypadku, gdy taka informacja nie jest podawana wprost, uzyskuje się ją w sposób przybliżony na bazie obliczeń wartości funkcji celu dla niezbyt odległych punktów. Z jednej strony posiadanie informacji o gradiencie funkcji celu umożliwia na lepsze oszacowanie położenia minimum, z drugiej strony uzyskanie tej informacji wymaga zwykle o wiele większego nakładu obliczeniowego. Wiele podstawowych metod minimalizacji można odszukać w [2,4]. Jedną z bardziej znanych metod bezgradientowych jest metoda Hooka-Jeevesa. Dla jednej osi kartezjańskiego układu współrzędnych w kierunku dodatnim dokonywany jest krok o długości t od aktualnego punktu x. Jeśli w nowym punkcie wartość funkcji celu jest mniejsza, to analizuje się kolejną oś startując z nowego punktu, jeśli natomiast nie, to dokonywany jest krok o długości t w przeciwnym kierunku od pierwotnego punktu x. Jeśli i w tym punkcie nie znaleziono wartości niższej, to kolejna oś jest analizowana z tego samego punktu startowego. Na jedną iterację składa się wykonanie kolejnej analizy dla wszystkich osi kartezjańskiego układu współrzędnych. Jeśli w ramach iteracji nie znaleziono lepszego punktu, to długość kroku mnożona jest o pewien czynnik zmniejszający. Warunki zakończenia działania metody mogą być różne – na przykład, gdy krok t osiągnie odpowiednio małą wartość. Zasadniczo dla większości metod koniec następuje, gdy w jednej lub kilku kolejnych iteracjach przemieszczenie w przeszukiwanej przestrzeni jest mniejsze od pewnej założonej dokładności. Metoda Hooka-Jeevesa jest wbrew swej prostocie dosyć efektywna, jednak w celu przyspieszenia zbieżności wprowadza się różne jej modyfikacje. Różne modyfikacje metody Hooka-Jeevesa były już niejednokrotnie z powodzeniem wykorzystywane do estymacji parametrów, np. [3,9]. W ramach tej pracy posługiwano się zmodyfikowaną metodą Hooka-Jeevesa zaproponowaną w [9], w której wprowadzono niezależne kroki dla każdej osi układu współrzędnych. Ponadto poza współczynnikiem zmniejszającym wprowadzono współczynnik zwiększający używany, gdy dla danej osi znaleziono lepszy punkt. Dla każdej osi zapamiętywany był także kierunek (dodatni lub ujemny), dla którego ostatnio uzyskano poprawę i pierwszy krok wykonywany był w tym kierunku. Badania przeprowadzone w ramach [8] wskazują, że niektóre metody gradientowe lub bezgradientowe są statystycznie szybsze niż zmodyfikowana metoda Hooka-Jeevesa. Przykładem mogą być metody Zangwilla, Powella lub Gaussa-Seidela. Metoda HJmod ma jednak pewną liczbę szczególnie korzystnych cech: pozostaje relatywnie efektywna przy rosnącej ilości zmiennych, potrafi niekiedy opuszczać minima lokalne, działa na funkcjach celu o różnorodnych formach (metody gradientowe preferują formy zbliżone do kwadratowej). Wstępne próby tworzenia algorytmu hybrydowego po- 5 twierdziły, że HJmod jest najlepiej nadającą się do tego metodą spośród analizowanych gradientowych i bezgradientowych. 2.3. Algorytm hybrydowy (GA-HJmod) W ramach [14] dokonano porównania efektywności klasycznego algorytmu genetycznego i metody Hooka-Jeevesa oraz zaproponowano ich połączenie. Takie próby były już podejmowane w różnych formach. W ramach tej pracy zaproponowano podejście przemiennego wywoływania GA i HJmod, które w podstawowej formie można zapisać w postaci pseudokodu. 1. popHJ1, popGA1, ustal populację GA 2. Wywołaj GA nGA razy. 3. Jeśli w ramach punktu 2 uzyskano poprawę to popGA1, w przeciwnym wypadku popGA0 4. Jeśli jest to pierwsza iteracja lub popGA=1 to niech najlepszy osobnik GA będzie punktem startowym dla HJmod 5. Jeśli popGA=0 i popHJ=0 to skok do 8 6. Wywołaj nHJ iteracji HJmod (lub zgodnie z innym warunkiem) 7. Jeśli w ramach punktu 6 uzyskano poprawę to popHJ1 oraz wprowadź punkt końcowy z HJmod do populacji GA, w przeciwnym wypadku popHJ0 8. Jeśli nie jest spełniony warunek zakończenia to skok do 2 Warunek zakończenia z punktu 8 może być różny: np. przekroczona z góry zadana ilość iteracji lub wywołań funkcji celu. Różną formę może też mieć punkt 6. Można wywoływać HJmod aż do uzyskania zadanej dokładności lub określoną ilość razy. W ramach tej pracy próbowano różnych podejść. Przedstawione rezultaty dotyczą następującego sposobu: wywołuje się HJmod 10 razy jednak, gdy w kolejnych trzech iteracjach nie następuje poprawa, to opuszcza się punkt 6. W odniesieniu do punktu 2 – zdecydowano się wywoływać GA jedno- lub dwukrotnie. Można zauważyć, że w przedstawionym algorytmie GA jest wywoływany w każdej iteracji, natomiast wywołanie HJmod jest blokowane, gdy wydaje się być niecelowe. Innymi słowy po osiągnięciu minimum lokalnego HJmod oczekuje na kolejny, lepszy punkt od GA i stara się szybko osiągnąć nowe minimum. Efektywność algorytmu można dodatkowo podnieść poprzez szczegółową redukcję niepotrzebnych wywołań funkcji celu. W szczególności celowe jest tablicowanie wartości funkcji celu dla wcześniej rozważanych punktów. W przypadku przeszukiwania obszarów ograniczonych warto zadbać o to, by poza 6 obszarem dozwolonym wartość funkcji celu nie była liczona. Przykładowo jeśli HJmod usiłuje opuścić obszar dozwolony w pewnym kierunku, można to wykryć i wymusić powrót na granicę obszaru dozwolonego. Wstępne badania wskazują, że jest to rozwiązanie bardziej efektywne od nakładania kary na funkcję celu. Opisany algorytm hybrydowy został zaimplementowany w postaci klasy w obiektowym środowisku Delphi firmy Borland. Wykorzystano tu wskazówki zawarte w [6,10]. Podejście obiektowe umożliwiło zwiększenie elastyczności i przejrzystości programu. 3. BADANIA NA FUNKCJACH TESTOWYCH Wstępne badania porównawcze efektywności metody hybrydowej w odniesieniu do klasycznych algorytmów genetycznych dokonywane były dla różnych funkcji testowych. Funkcje te charakteryzowały się przede wszystkim wieloma minimami lokalnymi i jednym (znanym) minimum globalnym oraz możliwością zmiany ilości zmiennych w dowolnym zakresie. Przykładowe wyniki prezentowane są dla funkcji celu postaci y x i 2 cos( xi ) 2 N (3) i 1 Najciekawsze wydaje się porównanie efektywności metody hybrydowej i klasycznego GA dla różnej ilości zmiennych. Badano ilość wywołań funkcji celu koniecznych do odszukania minimum globalnego z zadaną dokładnością. Dokonano kilku tysięcy prób na podstawie których obliczono wartość średnią i odchylenie standardowe. Otrzymane wyniki zestawiono na wykresie 1. Jak łatwo zauważyć metoda hybrydowa była średnio 10 razy szybsza, a odchylenie standardowe jest na przyzwoitym poziomie. Metoda GA-HJmod podobnie jak klasyczny GA, opiera się znacząco na prawdopodobieństwie, więc jest możliwość, że poszukiwanie optimum globalnego będzie trwało długo. Analizowano jednak maksymalną liczbę wywołań funkcji celu we wszystkich próbach i dla metody hybrydowej okazywała się ona zawsze co najmniej dwukrotnie mniejsza niż dla metody klasycznej GA. Na tym etapie badano również inne (poza HJmod) algorytmy gradientowe i bezgradientowe. Okazało się, że utworzone na ich bazie hybrydy wraz ze wzrostem liczby zmiennych mają coraz gorsze właściwości. W zasadzie powyżej 10 zmiennych klasyczny GA był efektywniejszy niż algorytm hybrydowy inny od GA-HJmod. 7 Pozostałe wnioski otrzymane dzięki funkcjom testowym pokrywają się z danymi przedstawianymi w dalszej części artykułu – dla estymacji parametrów modeli układów elektromechanicznych. Wykres 1. Porównanie efektywności GA oraz GA-HJmod dla różnej ilości zmiennych. Liniami ciągłymi oznaczono średnią ilość wywołań funkcji celu potrzebną do odszukania minimum globalnego z zadaną dokładnością, liniami przerywanymi – odchylenie standardowe. 4. ESTYMACJA PARAMETRÓW SILNIKA INDUKCYJNEGO 4.1. Uproszczony model i dane pomiarowe Tabela 1. Statyczne charakterystyki silnika SZJre-134t 1 s M/MN 1.3 I/IN 5.43 0.9 1.31 5.32 0.8 1.34 5.27 0.7 1.35 5.22 0.6 1.37 5.1 0.5 1.39 4.98 0.4 1.4 4.8 0.3 1.43 4.64 0.2 1.45 4.4 0.15 1.48 4.25 0.1 s M/MN 1.73 I/IN 3.95 0.09 1.8 3.85 0.08 1.97 3.75 0.07 2.09 3.63 0.06 2.2 3.48 0.05 2.34 3.25 0.04 2.37 2.95 0.03 2.26 2.55 0.02 1.96 2.05 0.01 1.34 1.35 W ramach pracy wykorzystany został model silnika indukcyjnego o dwóch klatkach zastępczych zaczerpnięty z [11], skąd pobrano również przykładowe charakterystyki pomiarowe. Są to charakterystyki statyczne I=f(s) oraz M=f(s), 8 gdzie I – natężenie prądu stojana, M – moment elektromagnetyczny, s – poślizg. Dane pomiarowe zostały przedstawione w tabeli 1 (IN i MN oznaczają tu wartości znamionowe). Charakterystyki te dotyczą silnika SZJre-134t o mocy znamionowej 1000kW, napięciu znamionowym 6000V (uzwojenia stojana połączone w gwiazdę) i prędkości obrotowej 1490 obr/min. W pełnej postaci model prezentowany jest przez układ równań różniczkowych. W przypadku stanu ustalonego, przy pewnych założeniach, model ten redukuje się do zwyczajnego układu równań, z którego łatwo wyprowadzić wzory na natężenie prądu stojana i moment elektromagnetyczny. M ( s) 3U s2 I (s ) U s pRr 0 s( A 2 B 2 ) (4) C2 D2 A2 B2 (5) przy czym R1 R2 ( R1 R2 ) ( R1 X 22 R2 X 12 ) s 2 Rr ( R1 R2 ) 2 ( X 1 X 2 ) 2 s 2 X 1 X 2 ( X 1 X 2 ) 2 s 2 R12 X 2 R22 X 1 Xr ( R1 R2 ) 2 ( X 1 X 2 ) 2 s 2 X C 1 r Xm R D r sX m X E 1 s Xm R A Rs C r E s B X s X r E Rs D gdzie: Us – wartość skuteczna fazowego napięcia zasilania, p – liczba par biegunów, 0 – pulsacja napięcia zasilania, R1, R2, Rs – rezystancje klatek wirnika i uzwojenia stojana, X1, X2 – reaktancje synchroniczne klatek wirnika, Xm – reaktancja magnesowania, Xs – reaktancja stojana. 9 W rozważanym przypadku nieznanymi parametrami były wielkości R1, R2, X1, X2 oraz Xs, natomiast pozostałe wartości były znane dzięki dostępnej informacji albo pomiarom. 4.2. Wyniki estymacji Dokonano estymacji szeregowej parametrów R1, R2, X1, X2 oraz Xs modelu matematycznego silnika opisanego równaniami (4) i (5). Minimalizowana funkcja celu miała postać sumy kwadratów odchyleń wartości pomiarowych od wartości obliczanych z równań (4), (5) dla danego punktu z przeszukiwanej przestrzeni parametrów. f (x) I p ( s ) I ( s, x) M p ( s) M ( s, x) 2 s 2 s (6) gdzie x – wektor parametrów; s – poślizg; Ip, Mp – unormowane pomiarowe wartości natężenia prądu stojana i momentu elektromagnetycznego; I, M – unormowane wartości natężenia prądu stojana i momentu elektromagnetycznego otrzymane z użytego modelu silnika. Wykres 2. Porównanie efektywności GA oraz GA-HJmod w estymacji parametrów modelu silnika. 10 Wykres 3. Zgodność charakterystyki pomiarowej z charakterystykami z wyestymowanych parametrów po 1000 wywołań f. celu – natężenie prądu stojana. Wykres 4. Zgodność charakterystyki pomiarowej z charakterystykami z wyestymowanych parametrów po 1000 wywołań f. celu – moment elektromagnetyczny. 11 Estymacja parametrów była dokonywana kilka tysięcy razy w celu uzyskania danych o charakterze statystycznym. Na wykresie 2 przedstawiono porównanie efektywności GA oraz GA-HJmod. Widać wyraźnie, że algorytm hybrydowy cechuje się statystycznie znacznie większą szybkością zbieżności. Dzięki użyciu GA-HJmod można było w przypadku tego modelu silnika uzyskać kilkukrotny wzrost szybkości estymacji parametrów. Na wykresach 3 i 4 przedstawiono reprezentacyjne zgodności charakterystyk pomiarowych z uzyskanymi na bazie wyestymowanych parametrów po 1000 wywołań funkcji celu. 5. ESTYMACJA PARAMETRÓW OBWODU RLC 5.1. Model matematyczny Rozważano szeregowy obwód RLC przedstawiony schematycznie na rysunku 1 (zapożyczone z [6]). Rysunek 1. Szeregowy obwód RLC. Model matematyczny obwodu może być zapisany w postaci równania R i ( t ) d L L dt uC (t ) 1 C 1 1 L i L ( t ) e(t ) L u (t ) 0 C 0 (7) e(t ) sin(t ) gdzie: iL – natężenie prądu w obwodzie, uC – napięcie na kondensatorze, R – oporność, L – indukcyjność, C – pojemność, rad/s – pulsacja napięcia, – faza źródła w chwili t=0. W ramach pracy ustalono wartości wszystkich parametrów generując charakterystyki symulacyjne iL(t) i uC(t). 5.2. Wyniki estymacji 12 Bazując na charakterystykach symulacyjnych dokonywano estymacji szeregowej dynamicznej dla trzech (R, L, C) oraz czterech (R, L, C, ) niewiadomych. Funkcja celu miała postać analogiczną do (6) - dokonywana była estymacja szeregowa na podstawie zależności prądu w czasie oraz napięcia na kondensatorze w czasie. W przypadku estymacji dynamicznej wyznaczanie wartości funkcji celu wiąże się z rozwiązywaniem układu równań różniczkowych i jest czasochłonne. Czas pojedynczego procesu estymacyjnego dla trzech parametrów na komputerze z procesorem 2GHz sięgał przy klasycznym GA od kilkudziesięciu minut do ponad godziny. Przy użyciu algorytmu hybrydowego wynosił około minuty. Jest to więc przykład, w którym warto zwracać uwagę na jak najmniejszą liczbę wywołań funkcji celu. Do rozwiązywania układu równań różniczkowych stosowano w ramach tej pracy metodę RungegoKutty rzędu czwartego. Dane symulacyjne (i związane z nimi procesy estymacji) były uzyskiwane dla różnych ustalonych wartości parametrów R, L, C i Poniższe wykresy dotyczą danych symulacyjnych dla parametrów o wartościach R=1, L=0,1mH, C=50mF, =rad. Estymacja parametrów była dokonywana kilkaset razy w celu uzyskania danych o charakterze statystycznym. Na wykresach 5 i 6 przedstawiono porównanie efektywności GA oraz GA-HJmod dla przypadku estymacji 3 lub 4 parametrów. Wykres 5. Porównanie efektywności GA oraz GA-HJmod w estymacji parametrów modelu obwodu RLC – przypadek 3 parametrów. 13 Wykres 6. Porównanie efektywności GA oraz GA-HJmod w estymacji parametrów modelu obwodu RLC – przypadek 4 parametrów. Wykres 7. Zgodność charakterystyki pomiarowej z charakterystykami z wyestymowanych parametrów po 1000 wywołań f. celu – natężenie prądu. Dane symulacyjne dla parametrów o wartościach R=1, L=0,1mH, C=50mF oraz wymuszenia e(t)=10sin (100 t+) V. 14 Wykres 8. Zgodność charakterystyki pomiarowej z charakterystykami z wyestymowanych parametrów po 1000 wywołań f. celu – napięcie na kondensatorze. Dane symulacyjne dla parametrów o wartościach R=1, L=0,1mH, C=50mF oraz wymuszenia e(t) =10sin(100 t+) V. W przypadku tego modelu przewaga algorytmu hybrydowego jest bardzo duża. Oszczędność liczby wywołań funkcji celu (a więc jednocześnie zysk czasu) dochodzi do kilkudziesięciu razy. Na wykresach 7 i 8 przedstawiono reprezentacyjne zgodności charakterystyk pomiarowych z uzyskanymi na bazie wyestymowanych parametrów po 1000 wywołań funkcji celu (przypadek 4 parametrów). Zgodność charakterystyk otrzymanych na bazie GA-HJmod jest wyraźnie lepsza. 6. PODSUMOWANIE W artykule zaprezentowano statystyczne badania porównawcze efektywności klasycznego algorytmu genetycznego oraz hybrydowej metody GA-HJmod. Zaprezentowano też przykłady zastosowań tego algorytmu do estymacji parametrów modeli matematycznych układów elektromechanicznych. Algorytm hybrydowy okazał się wyraźnie lepszy od klasycznego GA dla wszystkich rozważanych funkcji testowych i modeli matematycznych. Wzrost efektywności jest rzędu od kilku do kilkudziesięciu razy. Ważną zaletą GA- 15 HJmod jest zachowywanie efektywności przy zwiększającym się wymiarze przeszukiwanej przestrzeni parametrów. Przeprowadzone badania sugerują, że stosowanie algorytmu hybrydowego GAHJ jest celowe wszędzie tam, gdzie warto zastosować klasyczny GA. Dotyczy to w szczególności funkcji celu charakteryzujących się wieloma minimami lokalnymi, albo takich, których forma jest słabo znana. W przypadku estymacji parametrów modelu matematycznego silnika indukcyjnego oraz modelu matematycznego szeregowego obwodu RLC zastosowany algorytm GA-HJmod okazał się bardzo przydatnym narzędziem dając w relatywnie krótkim czasie dobre zestawy parametrów. Wydaje się celowe prowadzenie dalszych badań nad udoskonaleniem algorytmu GA-HJmod szczególnie w zakresie doboru parametrów dla obydwu metod składowych rozważanej hybrydy. Dodatkowe badania wskazują na przykład, że po ustaleniu nowego punktu startowego HJmod nie warto narzucać małego kroku startowego. Szczegółowa analiza możliwych udoskonaleń może z pewnością doprowadzić do kolejnego wzrostu jego efektywności, jednak w formie zaproponowanej w ramach tego artykułu przewaga GA-HJmod nad klasycznym GA jest bardzo duża. 7. LITERATURA [1] ARABAS J.: Wykłady z algorytmów ewolucyjnych, WNT, Warszawa 2001 [2] BAZARAA M.S., SHETTY C.M.: Nonlinear programming - theory and algorithms, John Willey and Sons, New York, 1979 [3] BENIAK R.: The estimation of the brushless DC motor parameters by use of modified Jeeves & Hook method, 15th Interational Conference on Electrical Machines, ICEM 2002 [4] FINDEISEN W., SZYMANOWSKI J., WIERZBICKI A.: Teoria i metody obliczeniowe optymalizacji, PWN, Warszawa 1980 [5] GOLDBERG D.E.: Algorytmy genetyczne i ich zastosowania, wyd. 3, WNT, Warszawa 2003 [6] KAMIŃSKI M.: Programowanie obiektowe w badaniach własności dynamicznych wybranej klasy układów elektromechanicznych – rozprawa doktorska, Politechnika Opolska, Opole 2002 [7] KORBAŚ G.P.: Zastosowanie algorytmów genetycznych do estymacji parametrów modelu matematycznego silnika indukcyjnego, Ogólnopolskie Warsztaty Doktoranckie, Istebna 2003 [8] KORBAŚ G.P.: Badanie efektywności wyznaczania parametrów modeli matematycznych za pomocą gradientowych i bezgradientowych metod minimalizacji, Ogólnopolskie Warsztaty Doktoranckie, Istebna 2003 16 [9] KORBAŚ G.P., MACEK-KAMIŃSKA K.: Badanie przydatności wybranych gradientowych i bezgradientowych metod minimalizacji do wyznaczania parametrów modelu matematycznego silnika indukcyjnego, XXXIX Seminarium Maszyn Elektrycznych, Gdańsk-Jurata 2003 [10] MACEK-KAMIŃSKA K., WACH P., KAMIŃSKI M.: Object oriented programming in estimation of the parameters of the non-linear dynamic system, 15th Interational Conference on Electrical Machines, ICEM 2002 [11] MACEK-KAMIŃSKA K.: Estymacja parametrów modeli matematycznych silników indukcyjnych dwuklatkowych i głębokożłobkowych, WSI, Opole 1992 [12] MICHALEWICZ Z.: Algorytmy genetyczne + struktury danych = programy ewolucyjne, WNT, Warszawa 1996 [13] RUTCZYŃSKA-WDOWIAK K., STEFAŃSKI T.: Identyfikacja modelu matematycznego silnika indukcyjnego z zastosowaniem dwuetapowej procedury minimalizacji wskaźnika jakości, SENE 2001, tom II, str. 519-524 [14] WETTER M., WRIGHT J.: Comparison of a generalized pattern search and a genetic algorithm optimization method, Eighth International IBPSA Conference, Eindhoven, Netherlands 2003 Estimation of parameters of the induction motor model and RLC circuit model using hybrid minimization method. summary: The paper presents the analysis of usefulness of the hybrid algorithm in the estimation of parameters of the induction motor model and RLC circuit model. The genetic algorithm and Hooke-Jeeves algorithm were used in the hybrid method. Statistical comparison of the effectiveness of the genetic algorithm and the hybrid method is presented. 17