pobierz
Transkrypt
pobierz
BADANIE EFEKTYWNOŚCI WYZNACZANIA PARAMETRÓW MODELI MATEMATYCZNYCH ZA POMOCĄ GRADIENTOWYCH I BEZGRADIENTOWYCH METOD MINIMALIZACJI ANALYSIS OF EFFECTIVENESS OF GRADIENT AND GRADIENTLESS MINIMIZATION METHODS IN CALCULATION OF PARAMETERS OF MATHEMATICAL MODELS Grzegorz Paweł Korbaś Politechnika Opolska Streszczenie W artykule przedstawiono badania dotyczące efektywności wybranych gradientowych i bezgradientowych metod minimalizacji w zastosowaniu do wyznaczania parametrów modeli matematycznych. Na początku zaprezentowano wybrane metody omawiając ich podstawowe idee oraz występujące pomiędzy nimi różnice. Następnie dla wybranych metod opracowano najbardziej obiecujące zestawy parametrów. W dalszej części pracy omówiono wybrane funkcje testowe oraz przedstawiono wyniki badań mających na celu porównanie efektywności wyznaczania minimum przez poszczególne metody minimalizacji wielu zmiennych. Na końcu przedstawiono wyniki zastosowania wybranych metod do wyznaczania parametrów modeli matematycznych na przykładzie modeli obwodów elektrycznych. 1. WSTĘP Analizując różne obiekty fizyczne próbuje się je często ująć w postać modeli matematycznych, których parametry szacuje się (estymuje) na podstawie odpowiednio przeprowadzonych pomiarów. Możliwość odpowiednio szybkiego i dokładnego wyznaczenia parametrów jest niejednokrotnie nieodzowna w przypadku diagnostyki, projektowania, symulacji bądź sterowania. Proces estymacji parametrów jest w zasadzie tożsamy z poszukiwaniem takiego punktu x min ( x1 min , x 2 min ,..., x N min ) (1) w N-wymiarowej przestrzeni parametrów, dla którego pewna funkcja wielu zmiennych o wartościach rzeczywistych (funkcja celu) f (x) , gdzie x ( x1 , x 2 ,..., x N ) (2) posiada wartość minimalną. Postać funkcji celu może być różna – zazwyczaj jest ona miarą odchylenia wartości pomiarowych od wartości otrzymanych (dla danego zestawu parametrów) z modelu matematycznego. Minimalizacja funkcji wielu zmiennych może być dokonywana przy użyciu wielu metod, których efektywność jest bardzo zróżnicowana. Przy porównywaniu metod dwie cechy wydają się mieć szczególne znaczenie. Pierwszą jest niewątpliwie zdolność do jak najdokładniejszego zbliżenia się do poszukiwanego minimum. Drugą jest szybkość osiągania kolejnych przybliżeń minimum w zależności od ilości wywołań funkcji celu. Tak rozumiana szybkość jest szczególnie istotna dla przypadków, gdy nakład czasowy na obliczenie wartości funkcji celu jest duży. Podstawowym celem tej pracy jest porównanie efektywności gradientowych i bezgradientowych metod minimalizacji funkcji wielu zmiennych. Podobne badania dla małej ilości metod były już dokonywane (np. dla dwóch metod [4]). Otrzymane wyniki mogą pomóc przy doborze odpowiednich metod dla konkretnych sytuacji estymacji parametrycznej, a także mogą wskazać na kierunki poszukiwania nowych, lepszych metod opartych na już istniejących. 2. WYBRANE METODY MINIMALIZACJI Istnieje wiele gradientowych i bezgradientowych metod minimalizacji. Sposób ich działania jest w zasadzie jednakowy. Minimalizacja rozpoczyna się z punktu startowego, który jest podawany lub losowany. W kolejnych iteracjach obliczana jest wartość funkcji celu dla jednego lub więcej punktów w przeszukiwanej przestrzeni. Uzyskane wartości pozwalają na określenie punktu startowego kolejnej iteracji a także na stwierdzenie, czy zostało już odnalezione minimum. Różnica pomiędzy metodami gradientowymi i bezgradientowymi polega na tym, iż metody gradientowe korzystają z informacji o gradiencie funkcji w analizowanym punkcie. W przypadku, gdy taka informacja nie jest podawana wprost, uzyskuje się ją w sposób przybliżony na bazie obliczeń wartości funkcji celu dla niezbyt odległych punktów. Z jednej strony posiadanie informacji o gradiencie funkcji celu umożliwia na lepsze oszacowanie położenia minimum, z drugiej strony uzyskanie tej informacji wymaga zwykle o wiele większego nakładu obliczeniowego. Wiele podstawowych metod minimalizacji można odszukać w [2,5]. Jedną z bardziej znanych metod bezgradientowych jest metoda Hooka-Jeevesa. Dla jednej osi kartezjańskiego układu współrzędnych w kierunku dodatnim dokonywany jest krok o długości t od aktualnego punktu x. Jeśli w nowym punkcie wartość funkcji celu jest mniejsza, to analizuje się kolejną oś startując z nowego punktu, jeśli natomiast nie, to dokonywany jest krok o długości t w przeciwnym kierunku od pierwotnego punktu x. Jeśli i w tym punkcie nie znaleziono wartości niższej, to kolejna oś jest analizowana z tego samego punktu startowego. Na jedną iterację składa się wykonanie kolejnej analizy dla wszystkich osi kartezjańskiego układu współrzędnych. Jeśli w ramach iteracji nie znaleziono lepszego punktu, to długość kroku mnożona jest o pewien czynnik zmniejszający. Warunki zakończenia działania metody mogą być różne – na przykład, gdy krok t osiągnie odpowiednio małą wartość. Zasadniczo dla większości metod koniec następuje, gdy w jednej lub kilku kolejnych iteracjach przemieszczenie w przeszukiwanej przestrzeni jest mniejsze od pewnej założonej dokładności. Metoda Hooka-Jeevesa jest wbrew swej prostocie dosyć efektywna, jednak w celu przyspieszenia zbieżności wprowadza się różne jej modyfikacje. W ramach tej pracy posługiwano się zmodyfikowaną metodą Hooka-Jeevesa, w której wprowadzono niezależne kroki dla każdej osi układu współrzędnych. Ponadto poza współczynnikiem zmniejszającym wprowadzono współczynnik zwiększający używany, gdy dla danej osi znaleziono lepszy punkt. Dla każdej osi zapamiętywany jest także kierunek (dodatni lub ujemny), dla którego ostatnio uzyskano poprawę i pierwszy krok wykonywany jest w tym kierunku. Różne modyfikacje metody Hooka-Jeevesa były już niejednokrotnie z powodzeniem wykorzystywane do estymacji parametrów, np. [3,4]. Podobna do wcześniej opisanej jest metoda bezgradientowa Rosenbrocka. Różnica polega głównie na tym, że układ współrzędnych nie jest na stałe zorientowany w przeszukiwanej przestrzeni, lecz gdy w kolejnej iteracji pewien kierunek zostanie uznany za korzystny, dokonywany jest odpowiedni obrót układu współrzędnych. Szeroką grupę metod minimalizacji stanowią metody kierunków poprawy. Do podstawowych metod należy prosta w implementacji i skuteczna bezgradientowa metoda Gaussa-Seidela. W każdej iteracji, kolejno wzdłuż każdej osi kartezjańskiego układu dokonywana współrzędnych jest minimalizacja kierunkowa, której punkt końcowy jest wykorzystywany dla kolejnej osi. Do minimalizacji kierunkowej można używać różnych procedur – ich efektywność w znaczącym stopniu będzie wpływać na efektywność całej metody. Kierunki minimalizacji są w przypadku metody Gaussa-Seidela zawsze takie same, ale w wielu innych metodach (największego spadku, zmodyfikowana metoda Newtona) mogą się zmieniać w zależności od punktu startowego kolejnej iteracji. Rozwinięciem metod kierunków poprawy są metody kierunków (bezgradientowe) lub gradientów sprzężonych. Kierunki dla kolejnych minimalizacji są tu wyznaczane na podstawie punktów startowych i końcowych iteracji oraz na podstawie wartości w tych punktach. W przypadku metod gradientów sprzężonych także na podstawie gradientów w tych punktach. Przykładem metody kierunków sprzężonych jest metoda Zangwilla. Idea metod zmiennej metryki polega na obserwacji, że gdybyśmy dysponowali odwróconą macierzą drugich pochodnych wówczas określenie pozycji minimum lub przynajmniej kierunku poszukiwania minimum mogłoby być bardziej precyzyjne. Ponieważ koszt obliczeniowy potrzebny do przybliżonego obliczenia tej macierzy we wszystkich analizowanych punktach przestrzeni jest zbyt duży, odwrócona macierz drugich pochodnych jest estymowana z coraz większą dokładnością w kolejnych iteracjach metod zmiennej metryki. Każda iteracja składa się zatem z wyznaczenia kierunku dla minimalizacji kierunkowej wstępnego tej oraz kroku minimalizacji na podstawie posiadanej estymaty odwróconej macierzy drugich pochodnych (pierwotnie macierz jednostkowa) i gradientu w punkcie. Po dokonaniu minimalizacji kierunkowej wyznaczana jest nowa estymata macierzy w oparciu o formułę charakterystyczną dla danej metody. Najbardziej popularną metodą zmiennej metryki jest metoda Davidona-Fletchera-Powella. Z niektórych publikacji wynika, że metoda ta jest jedną z najbardziej efektywnych. Spośród metod bezgradientowych do badań wybrano następujące: Hooka-Jeevesa (HJ) również w wersji zmodyfikowanej (HJmod), Rosenbrocka (ROS), Simplex Neldera Meada (SIM), metodę kierunków poprawy Gaussa-Seidela (GS) oraz metody kierunków sprzężonych Zangwilla (ZANG) i Powella (POW1, POW2 – dwie odmiany). Spośród metod gradientowych wybrano metody kierunków poprawy Newtona (NEW) i największego spadku (NS), metody gradientu sprzężonego Fletchera-Reevsa (FR) i PolakaRibiery (PR) oraz metody zmiennej metryki Davidona-Fletchera-Powella (DFP), Pearsona (PEAR1, PEAR2 – dwie odmiany), Mc Cormika (MCC) i Wolfa-Broydena-Davidona (WBD). Implementacje niektórych gradientowych i bezgradientowych metod minimalizacji są powszechnie w różnorodnych dostępne środowiskach, takich jak Matlab, Mathematica, Root. Możliwa zatem estymacja jest parametryczna bezpośrednio przy wykorzystaniu tych środowisk (np. [6]). Wymienione metody zostały jednak zaimplementowane od podstaw w środowisku Delphi z uwzględnieniem niektórych wskazówek dotyczących programowania obiektowego zawartych w [7]. Specyfikacje poszczególnych metod otrzymano głównie z [2, 5]. Dostępne środowiska oraz biblioteka numeryczna z [1], gdzie dostępna jest propozycja implementacji kilku metod, zostały wykorzystane do sprawdzenia poprawności implementacji własnej. 3. DOBÓR PARAMETRÓW Efektywność niektórych metod jest silnie uzależniona od doboru wartości parametrów specyficznych dla każdej metody. Poza tym większość metod korzysta z procedur minimalizacji kierunkowej, które mogą być różne i również posiadają swoje parametry. Konieczne było więc przeprowadzenie wstępnych badań, które pozwoliłyby wskazać najlepsze zestawy parametrów dla poszczególnych metod, najodpowiedniejsze procedury minimalizacji kierunkowej i najlepsze parametry dla tych procedur. Badania takie przeprowadzono dla kilku testowych funkcji celu np. funkcji Rosenbrocka, Wooda, Powella [8]. Po przeanalizowaniu kilkunastu tysięcy zestawów parametrów dla poszczególnych metod okazało się, że nie można wskazać jednoznacznie wartości optymalnych ponieważ są one bardzo uzależnione od rodzaju funkcji celu. Postanowiono więc do dalszych badań zakwalifikować kilka (średnio najlepszych) parametrów wartości oraz proponowane w [5]. Dla metody HJ poszukiwano współczynnika zmniejszającego krok i bezwzględnie najlepszy okazał się proponowany w [5] o wartości 0.5. Dla metody HJmod poszukiwano współczynnika zmniejszającego i zwiększającego – do dalszych badań wybrano (0.005; 15), (0.03; 1.1), (0.01; 1.1), (0.01; 19.5), (0.2; 5). Dla metody ROS poszukiwano współczynnika zmniejszającego i zwiększającego – do dalszych badań wybrano (0.5; 3) [5], (0.25; 4.5), (0.2; 8.5), (0.15; 11.5). Dla metody SIM poszukiwano współczynników odbicia, kontrakcji i ekspansji – do dalszych badań wybrano (1; 0.5; 2) [5], (1.5; 0.005; 2), (0.95; 0.005; 1.5), (1.1; 0.005; 1.5). Badano następujące procedury minimalizacji kierunkowej: aproksymacji kwadratowej (AK), ekspansji lub kontrakcji geometrycznej z testem jednoskośnym (EKG), logarytmicznego złotego podziału odcinka ze wstępną ekspansją lub kontrakcją geometryczną (LZP), aproksymacji parabolicznej jednoskośnym i z testem aproksymacji parabolicznej z testem dwuskośnym. Najlepsze i w miarę równoważne okazały się trzy pierwsze procedury. Zauważono, że maksymalna ilość iteracji dla jednokrotnej minimalizacji kierunkowej powinna być niewielka (rzędu 10). Dla procedur LZP i EKG poszukiwano współczynników kontrakcji i ekspansji. Za najlepszą wartość współczynnika ekspansji uznano 1.5, natomiast obiecujące wartości współczynnika kontrakcji znajdują się w przedziale 0.3-0.5. Dla procedury AK poszukiwano współczynnika ekspansji i uznano, że obiecujące są wartości od 7 do 10. Ostatecznie do dalszych badań przeznaczono 17 wcześniej wymienionych metod minimalizacji z różnymi zestawami parametrów i procedur minimalizacji kierunkowej co w konsekwencji dało 53 metody minimalizacji. 4. PORÓWNANIE EFEKTYWNOŚCI METOD DLA WYBRANYCH FUNKCJI TESTOWYCH Efektywność różnych metod minimalizacji silnie zależy od rodzaju funkcji celu i może bardziej lub mniej zmieniać się w przypadku zmiany ilości poszukiwanych zmiennych. Postanowiono więc przeprowadzić badania statystyczne dla kilku rodzajów, w miarę zróżnicowanych funkcji testowych, dla różnej ilości zmiennych N (w zakresie od 2 do 15). Do szacowania efektywności metod wybrano następujące klasy funkcji celu: N y a1 ( x1 1) 2 ai ( xi x i21 ) 2 (3) i 2 N N y ai x b xi2 i 1 2 i i 1 (4) N y ai xi bi (5) i 1 y a i x i bi cos( xi ) N (6) i 1 gdzie xi są zmiennymi natomiast ai , bi oznaczają parametry. Dla wszystkich tych funkcji stosunkowo łatwo ocenić minimum globalne. Funkcja (4) dla b=0 jest prostą formą kwadratową, dla innych wartości tego parametru zmienne są skorelowane. Do testów użyto następujących wartości parametrów (b=0; ai=1), (b=0; ai=i), (b=1; ai=1), (b=1; ai=i). Funkcja (3) opisuje dosyć skomplikowaną formę obejmującą kilka znanych funkcji testowych np.: dolinę Rosenbrocka. Do testów użyto wartości ai=1; ai=i. Funkcja (5) może dla pewnych wartości bi sprawiać problemy niektórym metodom minimalizacji ze względu na wypukłość ujemną. Do badań przyjęto (ai=1; bi=1), (ai=i; bi=0.5). Zachowanie się funkcji (6) silnie zależy od doboru parametrów. Do badań przyjęto (ai=1; bi=1); (ai=2i; bi=i). Osobne badania dla funkcji (6) zrealizowano dla (ai=i; bi=2i) gdy posiada ona wiele „płytkich” minimum lokalnych. Efektywność minimalizacji oceniano analizując szybkość i dokładność zbliżania się do znanego minimum globalnego w zależności od ilości wywołań funkcji celu. Dla każdej metody, dla każdej ilości N szukanych zmiennych, dla każdej testowych z funkcji dokonano minimalizacji rozpoczynając z minimum 300 losowych punktów startowych. Średnio najlepiej wypadły metoda ZANG (szczególnie z procedurą AK) oraz metoda HJ. Nieco gorzej wypadły wszystkie odmiany HJmod oraz ROS (szczególnie z parametrami (0.5; 3)), POW2 (szczególnie z procedurą LZP) i GS (szczególnie z procedurą AK). Następnie można wymienić metody POW1 (AK), NEW (AK), DFP (AK), WBD (AK). Stanowczo najgorzej wypadła metoda SIM. Należy jednak pamiętać, że wyniki te mają charakter statystyczny i było bardzo duże zróżnicowanie efektywności poszczególnych metod dla poszczególnych funkcji testowych. Dla funkcji (3) najlepiej wypadły NEW (AK), ZANG (AK), FR (AK), POLRIB(AK), DFP (AK) natomiast metody HJ i GS wypadły stosunkowo słabo. Dla funkcji (4) przy b=0 niemal wszystkie metody radziły sobie doskonale, natomiast dla innych parametrów wyniki były zbliżone do wyników ogólnych. Dla funkcji (5) z parametrami (ai=1; bi=1) efektywność większości metod była wysoka natomiast dla parametrów (ai=i; bi=0.5) dobrze radziły sobie jedynie HJ, HJmod, GS, ZANG (LZP), NEW, GS, ROS, POW2. Te same metody były efektywne dla funkcji (6) dla parametrów (ai=1; bi=1); (ai=2i; bi=i). W przypadku funkcji (6) dla parametrów (ai=i; bi=2i) badaniu podlegała właściwie skuteczność dotarcia do minimum globalnego otoczonego płytkimi minimami lokalnymi. W tym przypadku doskonale poradziła sobie jedynie metoda HJmod dla dużych wartości współczynnika zwiększającego. Umiejętność radzenia sobie z minimami lokalnymi przez zmodyfikowaną metodę HJ jest znana [3] i zasługuje na uwagę. Poza średnią oceną globalną dokonano również analizy efektywności poszczególnych metod dla małej (od 2 do 5), średniej (od 6 do 11) i dużej (od 12 do 15) ilości zmiennych. Ponieważ nie sposób przedstawić tu wszystkich wyników zaprezentowano przykładowe dane dla 3 i 8 zmiennych dla funkcji testowej (3) dla parametrów ai=i oraz dla 13 zmiennych dla funkcji testowej (5) dla parametrów (ai=i; bi=0.5). W tabelach wyszczególniono liczbę minimalizacji, w których metoda zbliżyła się do minimum globalnego bliżej niż 10-5 (przy wartości startowej rzędu 1-10) na 100 prób oraz średnią liczbę wywołań funkcji celu, aby taka dokładność została osiągnięta. Tab.1. Przykładowe wyniki dla funkcji testowej (3) dla N=3. Średnia Liczba „udanych” liczba Nazwa metody minimalizacji na wywołań 100 prób funkcji celu DFP (AK) 100 722 NEW (AK) 100 724 NEW (LZP) 100 2060 FR (AK) 100 763 PEAR1 (AK) 100 1040 ZANG (AK) 100 1060 HJ 100 3210 POLRIB (AK) 99 619 Tab.2. Przykładowe wyniki dla funkcji testowej (3) dla N=8. Liczba Średnia „udanych” liczba Nazwa metody minimalizacji na wywołań 100 prób funkcji celu DFP (AK) 99 17900 NEW (AK) 98 2440 NEW (LZP) 99 6710 FR (AK) 91 11900 PEAR1 (AK) 92 9270 ZANG (AK) 92 12000 HJ 70 14200 POLRIB (AK) 92 10000 Tab.3. Przykładowe wyniki dla funkcji testowej (5) dla N=13. Średnia Liczba „udanych” Nazwa liczba minimalizacji na metody wywołań 100 prób funkcji celu DFP (AK) 0 NEW (AK) 100 564 NEW (LZP) 100 658 FR (AK) 0 PEAR1 (AK) 0 ZANG (AK) 1 496 HJ 100 1490 POLRIB(AK) 0 Statystycznie dla małej ilości zmiennych najlepsze okazały się kolejno HJ, GS, ZANG (AK), POW2 (AK), HJmod, ROS, PEAR1 (AK), DFP (AK), NEW. Pozostałe metody radziły sobie nieco gorzej, ale w zasadzie różnice jakościowe nie były bardzo duże. Dla średniej oraz dużej ilości zmiennych część metod wyraźnie traci na efektywności. Średnio najlepsze okazały się HJ, GS, HJmod, POW2, gorzej wypadły ROS, NEW, ZANG (AK). Pozostałe metody wraz ze wzrostem ilości zmiennych okazują się wyraźnie gorsze. 5. ESTYMACJA PARAMETRÓW efektywności. Statystycznie bowiem metoda HJmod ma nad swym pierwowzorem znaczącą przewagę. Rys.1.Przykładowe dane estymacji przeprowadzonej startowych. statystyczne dla ze stu punktów Na rysunku 2 przedstawiono zależność wartości funkcji celu od liczby wywołań funkcji celu dla pojedynczego procesu estymacyjnego. UKŁADÓW ELEKTRYCZNYCH W ramach pracy dokonano szeregu estymacji parametrów różnych układów modeli elektrycznych. Badania te miały głównie charakter statystyczny i potwierdziły w dużej mierze wnioski dotyczące efektywności poszczególnych metod dla małej ilości zmiennych. Przedstawione przykłady dotyczą wyznaczania parametrów szeregowego układu RLC na podstawie symulacyjnych zależności przesunięcia od fazowego częstotliwości. Wyznaczane były oporność, pojemność i indukcyjność układu. Podobne badania na podstawie danych pomiarowych, dla biblioteki minimalizacyjnej TMinuit były już wykonywane w ramach pracy [6]. Przez wzgląd na prezentowanych materiałów jasność przedstawiono tu jedynie wybrane metody: HJ, ROS, HJmod, ZANG(AK), GS, DFP(AK). Na rysunku 1 przedstawiono zależność średniej względnej wartości funkcji celu od liczby wywołań funkcji celu. Dane te dotyczą estymacji dokonanej ze stu losowych punktów startowych. Spośród wybranych metod jedynie HJ w wersji standardowej jest znacznie wolniejsza, pozostałe metody radzą sobie znakomicie. Warto przy tej okazji zwrócić uwagę na celowość modyfikacji standardowych metod w celu polepszenia Rys.2. Przykład pojedynczej estymacji. W tym przypadku trudno jednak porównywać efektywność ponieważ wystąpił metod wspomniany już problem wpadania poszczególnych metod do minimum lokalnych. Wystarczy porównać odszukane ostateczne rozmiązania (R[k]; L[H]; C[F]), które są następujące: (1.13; 0.61; 1.32) dla HJ, (1.18; 0.62; 1.32) dla HJmod, (1.88; 0.99; 0.89) dla ROS, (1.82; 0.97; 0.86) dla GS, (2.08; 1.08; 0.77) dla ZANG i (2.13; 1.15; 0.69) dla DFP. Tymczasem zestaw, który posłużył do symulacji układu był następujący R=1.5k, L=0.8H, C=1F. Widać zatem, że właściwie żadna metoda nie była w stanie odszukać znanego rozwiązania. Rysunek 2 sugeruje jednak, że poszczególne minima lokalne mają głębokość zbliżoną do globalnego (wartość funkcji celu jest niewielka). Oznacza to, że różne zestawy parametrów nadają się do reprezentacji badanego układu elektrycznego, w zbliżonym stopniu oddając niektóre jego własności. Na rysunku 3 zaprezentowano dane symulacyjne układu oraz charakterystyki wygenerowane z zestawów parametrów otrzymanych w procesie estymacji przez poszczególne metody. Widać wyraźnie, iż wszystkie charakterystyki mają bardzo zbliżony przebieg. calculation of parameters of mathematical models. The chosen methods have been implemented in Borland’s Delphi. The best parameters for the methods were found and some testing functions were chosen. Statistical studies of minimization methods for the functions and for mathematical models of electrical circuits were done. LITERATURA Rys.3. Zgodność danych symulacyjnych z charakterystykami otrzymanymi z estymowanych parametrów. 6. PODSUMOWANIE W artykule zaprezentowano badania statystyczne efektywności wybranych gradientowych i bezgradientowych metod minimalizacji funkcji wielu Analizowano zmiennych. zdolność odszukiwania minimum funkcji celu oraz szybkość zbliżania się do tegoż minimum. Otrzymane wyniki mogą być pomocne przy wykorzystaniu tych metod do estymacji parametrów modeli matematycznych układów elektromechanicznych. Na bazie otrzymanych wyników możliwe są też próby modyfikacji wybranych metod oraz tworzenie na ich bazie systemów optymalizacji globalnej. Istotnym problemem zdaje się być niezdolność większości metod do ominięcia choćby „płytkiego” minimum lokalnego. Jedynie modyfikacja metody Hooka-Jeevesa przy dużym współczynniku ekspansji była w stanie ominąć tego typu pułapkę. Warto też zwrócić uwagę, że choć metoda Davidona-Fletchera-Powella wypadła w testach nieźle to generalnie metody zmiennej metryki w badanych sytuacjach nie były konkurencyjne w stosunku do pozostałych. W zasadzie jednak nie można wskazać jednoznacznie metody najlepszej wśród badanych, gdyż istnieje silna zależność efektywności od analizowanej funkcji celu oraz od ilości zmiennych. Abstract The paper presents the analysis of effectiveness of gradient and gradientless minimization methods in 1. B. Baron, A. Marcol, S. Pawlikowski: Metody numeryczne w Delphi 4, Helion, Gliwice 1999 2. M.S. Bazaraa, C.M. Shetty: Nonlinear programming - theory and algorithms, John Willey and Sons, 1979 3. R. Beniak: The estimation of the brushless DC motor parameters by use of modified Jeeves & Hook method, 15th Interational Conference on Electrical Machines, ICEM 2002 4. R. Beniak: Comparison of gradient and gradientless methods of the dynamic estimation of static Sherbius drive parameters, Zeszyty naukowe Politechniki Łódzkiej, z.91, 1998 5. W. Findeisen, J. Szymanowski, A. Wierzbicki: Teoria i metody obliczeniowe optymalizacji, PWN, Warszawa 1980 6. G.P. Korbaś: Minimalizacja funkcji wielu zmiennych w języku C++ przy użyciu biblioteki obiektowej TMINUIT – praca dyplomowa, Politechnika Opolska, Opole 2001 7. K. Macek-Kamińska, P. Wach, M. Kamiński: Object oriented programming in estimation of the parameters of the non-linear dynamic system, 15th Interational Conference on Electrical Machines, ICEM 2002 8. MINUIT – Reference manual, CERN, Geneva 1992 Adres służbowy autora: mgr inż. Grzegorz Paweł Korbaś Politechnika Opolska Wydział Elektrotechniki i Automatyki Katedra Automatyzacji i Diagnostyki Układów Elektromechanicznych ul. Luboszycka 7, 45-036 Opole tel. (077) 45-38-447 fax. (077) 45-38-447 w. 139 e-mail: [email protected]