pobierz

Transkrypt

pobierz
BADANIE EFEKTYWNOŚCI WYZNACZANIA PARAMETRÓW MODELI MATEMATYCZNYCH ZA POMOCĄ GRADIENTOWYCH I
BEZGRADIENTOWYCH METOD MINIMALIZACJI
ANALYSIS OF EFFECTIVENESS OF GRADIENT AND GRADIENTLESS MINIMIZATION METHODS IN CALCULATION OF
PARAMETERS OF MATHEMATICAL MODELS
Grzegorz Paweł Korbaś
Politechnika Opolska
Streszczenie W artykule przedstawiono badania
dotyczące efektywności wybranych gradientowych
i bezgradientowych metod minimalizacji w
zastosowaniu do wyznaczania parametrów modeli
matematycznych. Na początku zaprezentowano
wybrane metody omawiając ich podstawowe idee
oraz występujące pomiędzy nimi różnice.
Następnie dla wybranych metod opracowano
najbardziej obiecujące zestawy parametrów. W
dalszej części pracy omówiono wybrane funkcje
testowe oraz przedstawiono wyniki badań
mających na celu porównanie efektywności
wyznaczania minimum przez poszczególne metody
minimalizacji wielu zmiennych. Na końcu
przedstawiono wyniki zastosowania wybranych
metod do wyznaczania parametrów modeli
matematycznych na przykładzie modeli obwodów
elektrycznych.
1.
WSTĘP
Analizując różne obiekty fizyczne próbuje się je
często ująć w postać modeli matematycznych,
których parametry szacuje się (estymuje) na
podstawie
odpowiednio
przeprowadzonych
pomiarów. Możliwość odpowiednio szybkiego i
dokładnego
wyznaczenia
parametrów
jest
niejednokrotnie
nieodzowna
w
przypadku
diagnostyki, projektowania, symulacji bądź
sterowania. Proces estymacji parametrów jest w
zasadzie tożsamy z poszukiwaniem takiego punktu
x min  ( x1 min , x 2 min ,..., x N min )
(1)
w N-wymiarowej przestrzeni parametrów, dla
którego pewna funkcja wielu zmiennych o
wartościach rzeczywistych (funkcja celu)
f (x) , gdzie x  ( x1 , x 2 ,..., x N )
(2)
posiada wartość minimalną. Postać funkcji celu
może być różna – zazwyczaj jest ona miarą
odchylenia wartości pomiarowych od wartości
otrzymanych (dla danego zestawu parametrów) z
modelu matematycznego.
Minimalizacja funkcji wielu zmiennych może być
dokonywana przy użyciu wielu metod, których
efektywność jest bardzo zróżnicowana. Przy
porównywaniu metod dwie cechy wydają się mieć
szczególne znaczenie. Pierwszą jest niewątpliwie
zdolność do jak najdokładniejszego zbliżenia się
do poszukiwanego minimum. Drugą jest szybkość
osiągania kolejnych przybliżeń minimum w
zależności od ilości wywołań funkcji celu. Tak
rozumiana szybkość jest szczególnie istotna dla
przypadków, gdy nakład czasowy na obliczenie
wartości funkcji celu jest duży.
Podstawowym celem tej pracy jest porównanie
efektywności gradientowych i bezgradientowych
metod minimalizacji funkcji wielu zmiennych.
Podobne badania dla małej ilości metod były już
dokonywane (np. dla dwóch metod [4]).
Otrzymane wyniki mogą pomóc przy doborze
odpowiednich metod dla konkretnych sytuacji
estymacji parametrycznej, a także mogą wskazać
na kierunki poszukiwania nowych, lepszych metod
opartych na już istniejących.
2.
WYBRANE METODY MINIMALIZACJI
Istnieje wiele gradientowych i bezgradientowych
metod minimalizacji. Sposób ich działania jest w
zasadzie jednakowy. Minimalizacja rozpoczyna się
z punktu startowego, który jest podawany lub
losowany. W kolejnych iteracjach obliczana jest
wartość funkcji celu dla jednego lub więcej
punktów w przeszukiwanej przestrzeni. Uzyskane
wartości pozwalają na określenie punktu
startowego kolejnej iteracji a także na
stwierdzenie, czy zostało już odnalezione
minimum.
Różnica
pomiędzy
metodami
gradientowymi i bezgradientowymi polega na tym,
iż metody gradientowe korzystają z informacji o
gradiencie funkcji w analizowanym punkcie. W
przypadku, gdy taka informacja nie jest podawana
wprost, uzyskuje się ją w sposób przybliżony na
bazie obliczeń wartości funkcji celu dla niezbyt
odległych punktów. Z jednej strony posiadanie
informacji o gradiencie funkcji celu umożliwia na
lepsze oszacowanie położenia minimum, z drugiej
strony uzyskanie tej informacji wymaga zwykle o
wiele większego nakładu obliczeniowego. Wiele
podstawowych metod minimalizacji można
odszukać w [2,5].
Jedną z bardziej znanych metod bezgradientowych
jest metoda Hooka-Jeevesa. Dla jednej osi
kartezjańskiego układu współrzędnych w kierunku
dodatnim dokonywany jest krok o długości t od
aktualnego punktu x. Jeśli w nowym punkcie
wartość funkcji celu jest mniejsza, to analizuje się
kolejną oś startując z nowego punktu, jeśli
natomiast nie, to dokonywany jest krok o długości
t w przeciwnym kierunku od pierwotnego punktu
x. Jeśli i w tym punkcie nie znaleziono wartości
niższej, to kolejna oś jest analizowana z tego
samego punktu startowego. Na jedną iterację
składa się wykonanie kolejnej analizy dla
wszystkich
osi
kartezjańskiego
układu
współrzędnych. Jeśli w ramach iteracji nie
znaleziono lepszego punktu, to długość kroku
mnożona jest o pewien czynnik zmniejszający.
Warunki zakończenia działania metody mogą być
różne – na przykład, gdy krok t osiągnie
odpowiednio małą wartość. Zasadniczo dla
większości metod koniec następuje, gdy w jednej
lub kilku kolejnych iteracjach przemieszczenie w
przeszukiwanej przestrzeni jest mniejsze od
pewnej założonej dokładności.
Metoda Hooka-Jeevesa jest wbrew swej prostocie
dosyć efektywna, jednak w celu przyspieszenia
zbieżności wprowadza się różne jej modyfikacje.
W ramach tej pracy posługiwano się
zmodyfikowaną metodą Hooka-Jeevesa, w której
wprowadzono niezależne kroki dla każdej osi
układu
współrzędnych.
Ponadto
poza
współczynnikiem zmniejszającym wprowadzono
współczynnik zwiększający używany, gdy dla
danej osi znaleziono lepszy punkt. Dla każdej osi
zapamiętywany jest także kierunek (dodatni lub
ujemny), dla którego ostatnio uzyskano poprawę i
pierwszy krok wykonywany jest w tym kierunku.
Różne modyfikacje metody Hooka-Jeevesa były
już
niejednokrotnie
z
powodzeniem
wykorzystywane do estymacji parametrów, np.
[3,4].
Podobna do wcześniej opisanej jest metoda
bezgradientowa Rosenbrocka. Różnica polega
głównie na tym, że układ współrzędnych nie jest
na stałe zorientowany w przeszukiwanej
przestrzeni, lecz gdy w kolejnej iteracji pewien
kierunek zostanie uznany za korzystny,
dokonywany jest odpowiedni obrót układu
współrzędnych.
Szeroką grupę metod minimalizacji stanowią
metody kierunków poprawy. Do podstawowych
metod należy prosta w implementacji i skuteczna
bezgradientowa metoda Gaussa-Seidela. W każdej
iteracji, kolejno wzdłuż każdej osi kartezjańskiego
układu
dokonywana
współrzędnych
jest
minimalizacja kierunkowa, której punkt końcowy
jest wykorzystywany dla kolejnej osi. Do
minimalizacji kierunkowej można używać różnych
procedur – ich efektywność w znaczącym stopniu
będzie wpływać na efektywność całej metody.
Kierunki minimalizacji są w przypadku metody
Gaussa-Seidela zawsze takie same, ale w wielu
innych
metodach
(największego
spadku,
zmodyfikowana metoda Newtona) mogą się
zmieniać w zależności od punktu startowego
kolejnej iteracji.
Rozwinięciem metod kierunków poprawy są
metody
kierunków
(bezgradientowe)
lub
gradientów sprzężonych. Kierunki dla kolejnych
minimalizacji są tu wyznaczane na podstawie
punktów startowych i końcowych iteracji oraz na
podstawie wartości w tych punktach. W przypadku
metod gradientów sprzężonych także na podstawie
gradientów w tych punktach. Przykładem metody
kierunków sprzężonych jest metoda Zangwilla.
Idea metod zmiennej metryki polega na
obserwacji, że gdybyśmy dysponowali odwróconą
macierzą drugich pochodnych wówczas określenie
pozycji minimum lub przynajmniej kierunku
poszukiwania minimum mogłoby być bardziej
precyzyjne.
Ponieważ
koszt
obliczeniowy
potrzebny do przybliżonego obliczenia tej
macierzy we wszystkich analizowanych punktach
przestrzeni jest zbyt duży, odwrócona macierz
drugich pochodnych jest estymowana z coraz
większą dokładnością w kolejnych iteracjach
metod zmiennej metryki. Każda iteracja składa się
zatem z wyznaczenia kierunku dla minimalizacji
kierunkowej
wstępnego
tej
oraz
kroku
minimalizacji na podstawie posiadanej estymaty
odwróconej macierzy drugich pochodnych
(pierwotnie macierz jednostkowa) i gradientu w
punkcie. Po dokonaniu minimalizacji kierunkowej
wyznaczana jest nowa estymata macierzy w
oparciu o formułę charakterystyczną dla danej
metody. Najbardziej popularną metodą zmiennej
metryki jest metoda Davidona-Fletchera-Powella.
Z niektórych publikacji wynika, że metoda ta jest
jedną z najbardziej efektywnych.
Spośród metod bezgradientowych do badań
wybrano następujące: Hooka-Jeevesa (HJ) również
w wersji zmodyfikowanej (HJmod), Rosenbrocka
(ROS), Simplex Neldera Meada (SIM), metodę
kierunków poprawy Gaussa-Seidela (GS) oraz
metody kierunków sprzężonych Zangwilla
(ZANG) i Powella (POW1, POW2 – dwie
odmiany). Spośród metod gradientowych wybrano
metody kierunków poprawy Newtona (NEW) i
największego spadku (NS), metody gradientu
sprzężonego Fletchera-Reevsa (FR) i PolakaRibiery (PR) oraz metody zmiennej metryki
Davidona-Fletchera-Powella (DFP), Pearsona
(PEAR1, PEAR2 – dwie odmiany), Mc Cormika
(MCC) i Wolfa-Broydena-Davidona (WBD).
Implementacje niektórych gradientowych i
bezgradientowych metod minimalizacji są
powszechnie
w
różnorodnych
dostępne
środowiskach, takich jak Matlab, Mathematica,
Root.
Możliwa
zatem
estymacja
jest
parametryczna bezpośrednio przy wykorzystaniu
tych środowisk (np. [6]). Wymienione metody
zostały jednak zaimplementowane od podstaw w
środowisku Delphi z uwzględnieniem niektórych
wskazówek
dotyczących
programowania
obiektowego zawartych w [7]. Specyfikacje
poszczególnych metod otrzymano głównie z [2, 5].
Dostępne środowiska oraz biblioteka numeryczna
z [1], gdzie dostępna jest propozycja
implementacji kilku metod, zostały wykorzystane
do sprawdzenia poprawności implementacji
własnej.
3.
DOBÓR PARAMETRÓW
Efektywność niektórych metod jest silnie
uzależniona od doboru wartości parametrów
specyficznych dla każdej metody. Poza tym
większość
metod
korzysta
z
procedur
minimalizacji kierunkowej, które mogą być różne i
również posiadają swoje parametry. Konieczne
było więc przeprowadzenie wstępnych badań,
które pozwoliłyby wskazać najlepsze zestawy
parametrów
dla
poszczególnych
metod,
najodpowiedniejsze
procedury
minimalizacji
kierunkowej i najlepsze parametry dla tych
procedur. Badania takie przeprowadzono dla kilku
testowych funkcji celu np. funkcji Rosenbrocka,
Wooda, Powella [8].
Po przeanalizowaniu kilkunastu tysięcy zestawów
parametrów dla poszczególnych metod okazało
się, że nie można wskazać jednoznacznie wartości
optymalnych ponieważ są one bardzo uzależnione
od rodzaju funkcji celu. Postanowiono więc do
dalszych badań zakwalifikować kilka (średnio
najlepszych)
parametrów
wartości
oraz
proponowane w [5].
Dla metody HJ poszukiwano współczynnika
zmniejszającego krok i bezwzględnie najlepszy
okazał się proponowany w [5] o wartości 0.5.
Dla metody HJmod poszukiwano współczynnika
zmniejszającego i zwiększającego – do dalszych
badań wybrano (0.005; 15), (0.03; 1.1), (0.01; 1.1),
(0.01; 19.5), (0.2; 5).
Dla metody ROS poszukiwano współczynnika
zmniejszającego i zwiększającego – do dalszych
badań wybrano (0.5; 3) [5], (0.25; 4.5), (0.2; 8.5),
(0.15; 11.5).
Dla metody SIM poszukiwano współczynników
odbicia, kontrakcji i ekspansji – do dalszych badań
wybrano (1; 0.5; 2) [5], (1.5; 0.005; 2), (0.95;
0.005; 1.5), (1.1; 0.005; 1.5).
Badano następujące procedury minimalizacji
kierunkowej: aproksymacji kwadratowej (AK),
ekspansji lub kontrakcji geometrycznej z testem
jednoskośnym (EKG), logarytmicznego złotego
podziału odcinka ze wstępną ekspansją lub
kontrakcją geometryczną (LZP), aproksymacji
parabolicznej
jednoskośnym
i
z
testem
aproksymacji parabolicznej z testem dwuskośnym.
Najlepsze i w miarę równoważne okazały się trzy
pierwsze procedury. Zauważono, że maksymalna
ilość iteracji dla jednokrotnej minimalizacji
kierunkowej powinna być niewielka (rzędu 10).
Dla procedur LZP i EKG poszukiwano
współczynników kontrakcji i ekspansji. Za
najlepszą wartość współczynnika ekspansji uznano
1.5, natomiast obiecujące wartości współczynnika
kontrakcji znajdują się w przedziale 0.3-0.5.
Dla procedury AK poszukiwano współczynnika
ekspansji i uznano, że obiecujące są wartości od 7
do 10.
Ostatecznie do dalszych badań przeznaczono 17
wcześniej wymienionych metod minimalizacji z
różnymi zestawami parametrów i procedur
minimalizacji kierunkowej co w konsekwencji
dało 53 metody minimalizacji.
4.
PORÓWNANIE
EFEKTYWNOŚCI
METOD
DLA
WYBRANYCH FUNKCJI TESTOWYCH
Efektywność różnych metod minimalizacji silnie
zależy od rodzaju funkcji celu i może bardziej lub
mniej zmieniać się w przypadku zmiany ilości
poszukiwanych zmiennych. Postanowiono więc
przeprowadzić badania statystyczne dla kilku
rodzajów, w miarę zróżnicowanych funkcji
testowych, dla różnej ilości zmiennych N (w
zakresie od 2 do 15). Do szacowania efektywności
metod wybrano następujące klasy funkcji celu:
N
y  a1 ( x1  1) 2   ai ( xi  x i21 ) 2
(3)
i 2
N
N
y   ai x  b xi2
i 1
2
i
i 1
(4)
N
y   ai xi
bi
(5)
i 1
y   a i x i  bi cos( xi )
N
(6)
i 1
gdzie xi są zmiennymi natomiast ai , bi oznaczają
parametry. Dla wszystkich tych funkcji
stosunkowo łatwo ocenić minimum globalne.
Funkcja (4) dla b=0 jest prostą formą kwadratową,
dla innych wartości tego parametru zmienne są
skorelowane. Do testów użyto następujących
wartości parametrów (b=0; ai=1), (b=0; ai=i),
(b=1; ai=1), (b=1; ai=i). Funkcja (3) opisuje dosyć
skomplikowaną formę obejmującą kilka znanych
funkcji testowych np.: dolinę Rosenbrocka. Do
testów użyto wartości ai=1; ai=i. Funkcja (5) może
dla pewnych wartości bi sprawiać problemy
niektórym metodom minimalizacji ze względu na
wypukłość ujemną. Do badań przyjęto (ai=1; bi=1),
(ai=i; bi=0.5). Zachowanie się funkcji (6) silnie
zależy od doboru parametrów. Do badań przyjęto
(ai=1; bi=1); (ai=2i; bi=i). Osobne badania dla
funkcji (6) zrealizowano dla (ai=i; bi=2i) gdy
posiada ona wiele „płytkich” minimum lokalnych.
Efektywność
minimalizacji
oceniano
analizując szybkość i dokładność zbliżania się do
znanego minimum globalnego w zależności od
ilości wywołań funkcji celu. Dla każdej metody,
dla każdej ilości N szukanych zmiennych, dla
każdej
testowych
z
funkcji
dokonano
minimalizacji rozpoczynając z minimum 300
losowych punktów startowych. Średnio najlepiej
wypadły metoda ZANG (szczególnie z procedurą
AK) oraz metoda HJ. Nieco gorzej wypadły
wszystkie odmiany HJmod oraz ROS (szczególnie
z parametrami (0.5; 3)), POW2 (szczególnie z
procedurą LZP) i GS (szczególnie z procedurą
AK). Następnie można wymienić metody POW1
(AK), NEW (AK), DFP (AK), WBD (AK).
Stanowczo najgorzej wypadła metoda SIM.
Należy jednak pamiętać, że wyniki te mają
charakter statystyczny i było bardzo duże
zróżnicowanie
efektywności
poszczególnych
metod dla poszczególnych funkcji testowych. Dla
funkcji (3) najlepiej wypadły NEW (AK), ZANG
(AK), FR (AK), POLRIB(AK), DFP (AK)
natomiast metody HJ i GS wypadły stosunkowo
słabo. Dla funkcji (4) przy b=0 niemal wszystkie
metody radziły sobie doskonale, natomiast dla
innych parametrów wyniki były zbliżone do
wyników ogólnych. Dla funkcji (5) z parametrami
(ai=1; bi=1) efektywność większości metod była
wysoka natomiast dla parametrów (ai=i; bi=0.5)
dobrze radziły sobie jedynie HJ, HJmod, GS,
ZANG (LZP), NEW, GS, ROS, POW2. Te same
metody były efektywne dla funkcji (6) dla
parametrów (ai=1; bi=1); (ai=2i; bi=i). W
przypadku funkcji (6) dla parametrów (ai=i; bi=2i)
badaniu podlegała właściwie skuteczność dotarcia
do minimum globalnego otoczonego płytkimi
minimami lokalnymi. W tym przypadku doskonale
poradziła sobie jedynie metoda HJmod dla dużych
wartości
współczynnika
zwiększającego.
Umiejętność radzenia sobie z minimami lokalnymi
przez zmodyfikowaną metodę HJ jest znana [3] i
zasługuje na uwagę.
Poza średnią oceną globalną dokonano
również analizy efektywności poszczególnych
metod dla małej (od 2 do 5), średniej (od 6 do 11) i
dużej (od 12 do 15) ilości zmiennych. Ponieważ
nie sposób przedstawić tu wszystkich wyników
zaprezentowano przykładowe dane dla 3 i 8
zmiennych dla funkcji testowej (3) dla parametrów
ai=i oraz dla 13 zmiennych dla funkcji testowej (5)
dla parametrów (ai=i; bi=0.5). W tabelach
wyszczególniono liczbę minimalizacji, w których
metoda zbliżyła się do minimum globalnego bliżej
niż 10-5 (przy wartości startowej rzędu 1-10) na
100 prób oraz średnią liczbę wywołań funkcji celu,
aby taka dokładność została osiągnięta.
Tab.1.
Przykładowe wyniki dla funkcji testowej (3) dla
N=3.
Średnia
Liczba „udanych”
liczba
Nazwa metody minimalizacji na
wywołań
100 prób
funkcji celu
DFP (AK)
100
722
NEW (AK)
100
724
NEW (LZP)
100
2060
FR (AK)
100
763
PEAR1 (AK)
100
1040
ZANG (AK)
100
1060
HJ
100
3210
POLRIB (AK)
99
619
Tab.2.
Przykładowe wyniki dla funkcji testowej (3) dla
N=8.
Liczba
Średnia
„udanych”
liczba
Nazwa metody
minimalizacji na
wywołań
100 prób
funkcji celu
DFP (AK)
99
17900
NEW (AK)
98
2440
NEW (LZP)
99
6710
FR (AK)
91
11900
PEAR1 (AK)
92
9270
ZANG (AK)
92
12000
HJ
70
14200
POLRIB (AK)
92
10000
Tab.3.
Przykładowe wyniki dla funkcji testowej (5) dla
N=13.
Średnia
Liczba „udanych”
Nazwa
liczba
minimalizacji na
metody
wywołań
100 prób
funkcji celu
DFP (AK)
0
NEW (AK)
100
564
NEW (LZP)
100
658
FR (AK)
0
PEAR1 (AK)
0
ZANG (AK)
1
496
HJ
100
1490
POLRIB(AK)
0
Statystycznie dla małej ilości zmiennych najlepsze
okazały się kolejno HJ, GS, ZANG (AK), POW2
(AK), HJmod, ROS, PEAR1 (AK), DFP (AK),
NEW. Pozostałe metody radziły sobie nieco
gorzej, ale w zasadzie różnice jakościowe nie były
bardzo duże. Dla średniej oraz dużej ilości
zmiennych część metod wyraźnie traci na
efektywności. Średnio najlepsze okazały się HJ,
GS, HJmod, POW2, gorzej wypadły ROS, NEW,
ZANG (AK). Pozostałe metody wraz ze wzrostem
ilości zmiennych okazują się wyraźnie gorsze.
5.
ESTYMACJA
PARAMETRÓW
efektywności. Statystycznie bowiem metoda
HJmod ma nad swym pierwowzorem znaczącą
przewagę.
Rys.1.Przykładowe
dane
estymacji przeprowadzonej
startowych.
statystyczne
dla
ze stu punktów
Na rysunku 2 przedstawiono zależność wartości
funkcji celu od liczby wywołań funkcji celu dla
pojedynczego procesu estymacyjnego.
UKŁADÓW
ELEKTRYCZNYCH
W ramach pracy dokonano szeregu estymacji
parametrów
różnych
układów
modeli
elektrycznych. Badania te miały głównie charakter
statystyczny i potwierdziły w dużej mierze wnioski
dotyczące efektywności poszczególnych metod dla
małej ilości zmiennych. Przedstawione przykłady
dotyczą wyznaczania parametrów szeregowego
układu RLC na podstawie symulacyjnych
zależności
przesunięcia
od
fazowego
częstotliwości. Wyznaczane były oporność,
pojemność i indukcyjność układu. Podobne
badania na podstawie danych pomiarowych, dla
biblioteki minimalizacyjnej TMinuit były już
wykonywane w ramach pracy [6]. Przez wzgląd
na
prezentowanych
materiałów
jasność
przedstawiono tu jedynie wybrane metody: HJ,
ROS, HJmod, ZANG(AK), GS, DFP(AK).
Na rysunku 1 przedstawiono zależność średniej
względnej wartości funkcji celu od liczby
wywołań funkcji celu. Dane te dotyczą estymacji
dokonanej ze stu losowych punktów startowych.
Spośród wybranych metod jedynie HJ w wersji
standardowej jest znacznie wolniejsza, pozostałe
metody radzą sobie znakomicie. Warto przy tej
okazji zwrócić uwagę na celowość modyfikacji
standardowych metod w celu polepszenia
Rys.2. Przykład pojedynczej estymacji.
W tym przypadku trudno jednak porównywać
efektywność
ponieważ
wystąpił
metod
wspomniany
już
problem
wpadania
poszczególnych metod do minimum lokalnych.
Wystarczy porównać odszukane ostateczne
rozmiązania (R[k]; L[H]; C[F]), które są
następujące: (1.13; 0.61; 1.32) dla HJ, (1.18; 0.62;
1.32) dla HJmod, (1.88; 0.99; 0.89) dla ROS,
(1.82; 0.97; 0.86) dla GS, (2.08; 1.08; 0.77) dla
ZANG i (2.13; 1.15; 0.69) dla DFP. Tymczasem
zestaw, który posłużył do symulacji układu był
następujący R=1.5k, L=0.8H, C=1F. Widać
zatem, że właściwie żadna metoda nie była w
stanie odszukać znanego rozwiązania. Rysunek 2
sugeruje jednak, że poszczególne minima lokalne
mają głębokość zbliżoną do globalnego (wartość
funkcji celu jest niewielka). Oznacza to, że różne
zestawy parametrów nadają się do reprezentacji
badanego układu elektrycznego, w zbliżonym
stopniu oddając niektóre jego własności. Na
rysunku 3 zaprezentowano dane symulacyjne
układu oraz charakterystyki wygenerowane z
zestawów parametrów otrzymanych w procesie
estymacji przez poszczególne metody. Widać
wyraźnie, iż wszystkie charakterystyki mają
bardzo zbliżony przebieg.
calculation of parameters of mathematical models.
The chosen methods have been implemented in
Borland’s Delphi. The best parameters for the
methods were found and some testing functions
were chosen. Statistical studies of minimization
methods for the functions and for mathematical
models of electrical circuits were done.
LITERATURA
Rys.3. Zgodność danych symulacyjnych z
charakterystykami otrzymanymi z estymowanych
parametrów.
6.
PODSUMOWANIE
W artykule zaprezentowano badania statystyczne
efektywności
wybranych
gradientowych
i
bezgradientowych metod minimalizacji funkcji
wielu
Analizowano
zmiennych.
zdolność
odszukiwania minimum funkcji celu oraz szybkość
zbliżania się do tegoż minimum. Otrzymane
wyniki mogą być pomocne przy wykorzystaniu
tych metod do estymacji parametrów modeli
matematycznych układów elektromechanicznych.
Na bazie otrzymanych wyników możliwe są też
próby modyfikacji wybranych metod oraz
tworzenie na ich bazie systemów optymalizacji
globalnej.
Istotnym problemem zdaje się być niezdolność
większości metod do ominięcia choćby
„płytkiego”
minimum
lokalnego.
Jedynie
modyfikacja metody Hooka-Jeevesa przy dużym
współczynniku ekspansji była w stanie ominąć
tego typu pułapkę. Warto też zwrócić uwagę, że
choć metoda Davidona-Fletchera-Powella wypadła
w testach nieźle to generalnie metody zmiennej
metryki w badanych sytuacjach nie były
konkurencyjne w stosunku do pozostałych. W
zasadzie jednak nie można wskazać jednoznacznie
metody najlepszej wśród badanych, gdyż istnieje
silna zależność efektywności od analizowanej
funkcji celu oraz od ilości zmiennych.
Abstract
The paper presents the analysis of effectiveness of
gradient and gradientless minimization methods in
1. B. Baron, A. Marcol, S. Pawlikowski: Metody
numeryczne w Delphi 4, Helion, Gliwice 1999
2. M.S. Bazaraa, C.M. Shetty: Nonlinear programming - theory and algorithms, John Willey and Sons, 1979
3. R. Beniak: The estimation of the brushless DC
motor parameters by use of modified Jeeves &
Hook method, 15th Interational Conference on
Electrical Machines, ICEM 2002
4. R. Beniak: Comparison of gradient and gradientless methods of the dynamic estimation of
static Sherbius drive parameters, Zeszyty
naukowe Politechniki Łódzkiej, z.91, 1998
5. W. Findeisen, J. Szymanowski, A. Wierzbicki:
Teoria i metody obliczeniowe optymalizacji,
PWN, Warszawa 1980
6. G.P. Korbaś: Minimalizacja funkcji wielu
zmiennych w języku C++ przy użyciu
biblioteki obiektowej TMINUIT – praca
dyplomowa, Politechnika Opolska, Opole
2001
7. K. Macek-Kamińska, P. Wach, M. Kamiński:
Object oriented programming in estimation of
the parameters of the non-linear dynamic system, 15th Interational Conference on Electrical
Machines, ICEM 2002
8. MINUIT – Reference manual, CERN, Geneva
1992
Adres służbowy autora:
mgr inż. Grzegorz Paweł Korbaś
Politechnika Opolska
Wydział Elektrotechniki i Automatyki
Katedra Automatyzacji i Diagnostyki
Układów Elektromechanicznych
ul. Luboszycka 7, 45-036 Opole
tel. (077) 45-38-447
fax. (077) 45-38-447 w. 139
e-mail: [email protected]