x odtwarzać x

Transkrypt

x odtwarzać x
R. Z. Morawski: Metody odtwarzania sygnałów pomiarowych
6.4. Metody iteracyjne
Istotą iteracyjnych metod odtwarzania jest ograniczenie zbioru dopuszczalnych rozwiązań do
elementów ciągu:
x = H l [ x i , x i −1 , ... , x i − l ; y ]
i = l , l + 1 ...
(6-56)
x 0 , x 1 , ... x l ∈ dom (G )
zbieżnego do x ∞ = x dla nie zaburzonych danych y. Wynikiem odtwarzania jest więc pewien
element tego ciągu x k często wybrany tak, aby zminimalizować założony wskaźnik jakości
odtwarzania. Każdy z operatorów H l jest ciągłą superpozycją operatora G , której postać
definiuje metodę iteracyjną. Dąży się do tego, aby operatory te zapewniały możliwie szybką
xi
zbieżność iteracji oraz aby ich numeryczna realizacja była możliwie prosta. Oznaczając przez ~
przybliżenia rozwiązania odpowiadające zaburzonym danym, mechanizm regularyzacji właściwy
metodom iteracyjnym przeanalizujemy przy użyciu następującego oszacowania:
i
~
xi − x = ~
x i − xl + xl − x ≤ ~
x − xl + xl − x
(6-57)
w którym pierwszy składnik prawej strony wyraża błąd spowodowany zaburzeniem danych, drugi błąd metody iteracyjnej. Jeżeli metoda iteracyjna (6-56) jest zbieżna do x dla dokładnych danych, to
drugi składnik maleje do zera przy i → ∞ ; pierwszy natomiast na ogół rośnie, ponieważ
przenoszenie błędów przez operator H i o...oH 0 coraz bardziej przypomina przenoszenie błędów z
danych na wyniki w rozwiązywanym zadaniu odwrotnym. Z tego względu po wykonaniu pewnej
x i , co oznacza, że
liczby iteracji nie obserwujemy dalszej poprawy dokładności przybliżeń ~
kontynuowanie obliczeń nie jest już celowe. Dobór optymalnej liczby iteracji jest jednym z
podstawowych problemów implementacji iteracyjnych metod odtwarzania. Odwrotność tej liczby
α = 1 / i pełni bowiem rolę parametru regularyzacji, który powinien być dobierany do poziomu
zaburzeń w taki sposób, aby α → 0, gdy η → 0 .
Dla uproszczenia rozważań w niniejszym podrozdziale założymy odwracalność operatora G , a w
wielu miejscach jego symetrię lub dodatniość. Jeżeli bowiem operator G nie spełnia tych
wymagań, to spełnia je operator:
(6-58)
G α = G ∗ oG + α L ∗ o L
wynikający z regularyzacji zadania metodą Tichonova (por. § 6.2.2.) i metoda iteracyjna może być
zastosowana do rozwiązywania równania:
(6-59)
G α [ x] = G ∗ [ ~
y]
Ten sposób postępowania łączy dwa efektywne mechanizmy regularyzacji i dlatego jest najczęściej
stosowany w praktyce [JANSSON ’97 - § 3.IV.D.3, KAWATA & NALCIOGLU ’85, BIEMOND
& LAGENDIJK ’86, KONDO & ATSUTA ’86, MORGERA & KRISHNA ’86], choć teoretycznie
możliwe jest ogólniejsze ujęcie iteracyjnych metod rozwiązywania układu liniowych równań
algebraicznych, nie wymagające zawężania klasy operatorów G [MAESS ’79, VOEVODIN &
KUZNECOV ’84 - § 40].
Przegląd metod iteracyjnych ograniczymy do dyskretnych modeli danych, ponieważ w
zastosowaniach tych metod ze względu na wymaganie konsekwencji metody odtwarzania (por.
§ 4.3.) dyskretyzacja powinna poprzedzać sformułowanie algorytmu iteracyjnego.
6.4.1. Metody stacjonarne
Metodę iteracyjną nazywamy stacjonarną, jeżeli dla i ≥ 1 operator H i nie zależy od numeru
iteracji i. W dziedzinie odtwarzania sygnałów pomiarowych najszersze zastosowanie znalazła
stacjonarna wersja uogólnionej jednokrokowej ( l = 0) metody Richardsona:
x i +1 = x i + H( y − Gx i )
(6-60)
Rozdział 6. Jednolite ujęcie metod odtwarzania sygnałów pomiarowych
Strona 6-18
R. Z. Morawski: Metody odtwarzania sygnałów pomiarowych
a zwłaszcza metoda prostych iteracji, dla której H = β I . Szczególnym przypadkiem tej ostatniej
( β = 1)
jest metoda van Citterta, od której w 1931 r. zaczęło się stosowanie metod iteracyjnych do
odtwarzania sygnałów spektrometrycznych [JANSSON ’97 - § 3.II.]. Gruntowną analizę metody
prostych iteracji znaleźć można m.in. w [IVANOV et al. ’78 - § 3.8., KRYLOV et al. ’83 - § 9.2.,
MARČUK ’83 - § 4.6., FENYŐ & STOLLE ’83 - § 10.7.]. Wynika z niej, w szczególności, że
jeżeli G jest macierzą symetryczną i dodatnio określoną o wartościach własnych λ n ∈[λ MIN , λ MAX ] ,
to składniki prawej strony wzoru (6-57) można oszacować następująco:
η 2 β 1 − qi
i
i
~
x −x ≤
(6-61)
(1 − q )
(
xi − x
2
≤ x0 − x
gdzie q = I − β G
2
)
2
qi
(6-62)
{
= sup 1 − βλ
n
}
n ∈ N . Wzór (6-62) pozwala zauważyć, że warunkiem
wystarczającym (w istocie także koniecznym) zbieżności metody prostych iteracji jest utrzymanie
q<1. Wynika stąd ograniczenie na β :
0 < β < 2 / λ MAX
(6-63)
Najszybszą zbieżność zapewnia przyjęcie:
(6-64)
βOPT = arg β inf I − βG β ∈ (0,2 / λ MAX
{
}
Wielkość ta może być wyrażona przez skrajne wartości własne macierzy G [MARČUK ’83 § 4.2.1., VOEVODIN & KUZNECOV ’84 - § 34.53.]:
2
βOPT =
(6-65)
( λ MIN + λ MAX )
Jak widać ze wzoru (6-61), wpływ zaburzeń danych na wynik odtwarzania rośnie z liczbą iteracji.
W [MARČUK ’83 - § 4.6.] proponuje się w związku z tym przerywanie iteracji, gdy prawe strony
(6-61) i (6-62) osiągają porównywalne wartości. W [VAJNIKKO ’80] natomiast sugeruje się wybór
mniejszej z dwóch liczb:
~i ≤ c η
entier c / η i inf arg ~
y − Gx
(6-66)
(
1
)
i
{
2
}
gdzie c1 , c2 - stałe dobierane empirycznie. W [KONDO & ATSUTA ’86], metodę prostych iteracji
zastosowano do równania normalnego; jako kryterium zakończenia obliczeń przyjęto osiąganie
minimum przez wskaźnik:
(6-67)
gdzie γ ∈[0,1] - parametr dobieramy empirycznie, L - macierz "gładkości" rozwiązania. Często, ze
względu na brak kryteriów formalnych, przerywanie obliczeń odbywa się na podstawie kryteriów
subiektywnych (takich jak jakość odtwarzanego obrazu oceniana przez obserwatora) lub
empirycznych, tzn. wynikających z doświadczeń zebranych podczas badań symulacyjnych - por.
np. [BIEMOND & LAGENDIJK ’86.]
Wyniki powyższej analizy metody prostych iteracji można uogólniać na całą klasę metod
zdefiniowanych wzorem (6-60). W tym celu wystarczy zauważyć, że użycie wzoru (6-60) jest
równoważne zastosowaniu metody van Citterta do równania HGx=Hy, przy czym wymaganie
symetrii i dodatniości G zastąpić należy analogicznym wymaganiem w stosunku do macierzy HG
[VOEVODIN & KUZNECOV ’84 - § 34, str. 57-62]. W praktyce odtwarzania sygnałów
pomiarowych, obok metody Richardsona, wykorzystywane są przypadki szczególne (6-60),
należące do klasy metod relaksacyjnych, stanowiących uogólnienie metody Jacobiego (typu "pointsimultaneous") [JANSSON ’97 - § 3.III.C.1., MORGERA & KRISHNA ’86]:
x i +1 = x i + BD −1[ y − (L + U )x i ]
(6-68)
lub metody Gaussa-Seidela (typu "point-successive") [JANSSON ’97 - § 3.III.C.2., LEAHY &
GOUTIS ’86 - § VI.A]:
Rozdział 6. Jednolite ujęcie metod odtwarzania sygnałów pomiarowych
Strona 6-19
R. Z. Morawski: Metody odtwarzania sygnałów pomiarowych
x i +1 = x i + BD −1 ( y − Lx i +1 − Ux i )
(6-69)
gdzie L+D+U=G, przy czym L jest ściśle dolną macierzą trójkątną; U - ściśle górną macierzą
trójkątną; D - macierzą diagonalną, zawierającą elementy głównej przekątnej G, o których zakłada
się, że są niezerowe (ewentualnie, po odpowiedniej zmianie uporządkowania równań i
niewiadomych); B - nieosobliwą macierzą współczynników relaksacji, najczęściej B = β I .
Praktyczna różnica między metodami typu (6-68) i (6-69) polega na tym, że te ostatnie wymagają
mniejszej pamięci komputera, ale też są i mniej dokładne, jeżeli nie zapewni się optymalnego
porządku równań i niewiadomych [ibid.].
W przypadku, gdy dane modelowane są równaniem typu splotu, wygodna jest realizacja
numeryczna metody prostych iteracji w dziedzinie transformat [SANZ & HUANG ’83,
JANSSON ’97 - § 3.IV.D.2.]:
X i +1 = X i + β ( Y − GX i ) ,
X0 =Y
(6-70)
zwłaszcza w zastosowaniu do równania normalnego G 2 X = G * Y , dla którego łatwiej
kontrolować warunek zbieżności przy użyciu rzeczywistego parametru β [ibid.. - § 3.IV.D.3.].
Ciekawym uogólnieniem (6-70) jest metoda dekompozycji jądra przedstawiona w sposób
systematyczny w [PROST & GOUTTE ’82]. Polega ona na dość dowolnym wyodrębnieniu z
transmitancji G składowej odwracalnej Gα ; wówczas G = Gα + (G − Gα ) , a w konsekwencji
Gα X + ( G − Gα ) X = Y ⇒ X = Gα−1[Y − ( G − Gα ) X ] = X + Gα−1 (Y − GX )
Stąd pomysł algorytmu iteracyjnego
x i +1 = x i + Gα−1 (Y − GX i )
(6-71)
który jest zbieżny pod warunkiem, że 1 − G Gα < 1 w całym zakresie zmienności argumentu
transformat; warunek ten jest podstawowym kryterium wyboru Gα. Wśród wariantów przebadanych
w [ibid.] najlepsze rezultaty uzyskano dla Gα = G + α , gdzie α>0 - liczba dobierana tak, aby
spełniony był warunek zbieżności, przybierający w tym wypadku postać G + α > α . Dziesięć lat
wcześniej, w [SILVERMAN & PEARSON ’73], zaproponowano wyodrębnienie Gα.w dziedzinie
oryginału według heurystycznej zasady
gα (t ) = [1(t − Tα ) − 1(t )] g (t )
(lub jej dyskretnych analogów); parametr Tα wyznaczano przy tym z warunku zbieżności (6-71).
Pokazano efektywność tego podejścia na imponującej liczbie 200 przykładów!
Przechodząc do ogólnej oceny metod klasy (6-60) stwierdzić należy, że ich główną zaletą jest
prostota implementacji, której zawdzięczają swoją popularność. Podstawowe ograniczenia tych
metod - to stosunkowo powolna, bo liniowa, zbieżność oraz słaby mechanizm regularyzacji.
Zauważmy, że suma prawych stron oszacowań (6-61) i (6-62) jest funkcją liczby iteracji malejącą
do η 2 λ MIN ; tj. do wartości majoryzującej błąd odtwarzania bez regularyzacji. W [SINGH et
al. ’86] pokazano, że dla metod typu (6-60) zachodzi nierówność:
⎧⎪ x i
⎫⎪ y
2
2
(6-72)
inf ⎨ i
⎬≤
i
~
⎪⎩ x − x 2 ⎪⎭ η 2
x i odpowiadających wszystkim możliwym zaburzeniom
przy czym inf dotyczy zbioru rozwiązań ~
danych o normie nie przekraczającej η 2 . Nierówność ta oznacza, że przy użyciu metod typu (660) nie można zagwarantować poprawy stosunku sygnału do szumu. Dwa zasadnicze kierunki
przezwyciężania ograniczeń metod stacjonarnych - to przejście do metod niestacjonarnych, którym
poświęcony jest następny paragraf, oraz wprowadzenie dodatkowych ograniczeń zbioru
dopuszczalnych rozwiązań, o czym mowa w § 6.4.3.
Rozdział 6. Jednolite ujęcie metod odtwarzania sygnałów pomiarowych
Strona 6-20
R. Z. Morawski: Metody odtwarzania sygnałów pomiarowych
6.4.2. Metody niestacjonarne
Niestacjonarność metod iteracyjnych polega na tym, że ich parametry zmieniają się z liczbą iteracji
według zadanego a priori programu lub adaptacyjnie, z uwzględnieniem danych pomiarowych oraz
informacji o przebiegu procesu iteracyjnego. Klasyczną ilustracją możliwości przyspieszenia
zbieżności metody prostych iteracji jest metoda Czebyszewa [MARČUK ’83 - § 4.2.4]., której
konsekwentne rozwinięcie prowadzi do szczególnego przypadku uogólnionej dwukrokowej metody
Richardsona [VOEVODIN & KUZNECOV ’84 - § 38.10.]:
(6-73)
x i +1 = x i + βi H y − Gx i + γ i ( x i − xi −1 )
(
gdzie:
)
βi = 4Ti −1 (λ ) / Ti (λ ) / (λ MAX − λMIN )
dla i = 0,1,...;
γ i = Ti −1 (λ ) / Ti (λ )
dla i = 1,2,...; γ 0 = 0 ;
λ = (λMAX + λMIN ) / ( λMAX − λMIN ) ;
Ti (λ ) - wielomian Czebyszewa;
HG - macierz symetryczna i dodatnio określona.
Istotnym ograniczeniem zakresu zastosowań powyższej metody jest wymaganie dość dokładnej
znajomości przedziału [λMIN , λMAX ] , w którym mieści się widmo macierzy HG. W [SINGH
et al. ’86] zaproponowano metodę zbieżną kwadratowo, która jest mniej wrażliwa na niedokładność
oszacowania λMIN i λMAX
H0 = I − G
x0 = y
xi +1 = ( I + H i ) xi
H i +1 = H i2
dla i = 0,1, ...
Warunek zbieżności tej metody ma postać H 0
2
(6-74)
< 1 ; oszacowanie wartości własnych macierzy G
jest więc konieczne do prawidłowego przeskalowania rozwiązywanego układu liniowych równań
algebraicznych. W [ibid.]. stwierdzono, że metoda ta wymaga średnio pięciokrotnie mniejszej
liczby iteracji niż metoda van Citterta, zapewniając porównywalną dokładność i rozdzielczość w
zadaniach typu spektrometrycznego.
Podstawowym sposobem tworzenia niestacjonarnych metod iteracyjnych jest numeryczna
realizacja wariacyjnych metod odtwarzania sygnałów pomiarowych (por. § 6.2.). Istotną zaletą tego
rozwiązania jest połączenie dwóch mechanizmów regularyzacji, umożliwiająca uzyskanie lepszych
wyników odtwarzania niż przy użyciu metod opisanych w § 6.4.2. Drugim istotnym argumentem
przemawiającym za zastosowaniem tego rozwiązania jest dostępność gotowych algorytmów
optymalizacji, zarówno w postaci opracowań teoretycznych, np. [LUENBERGER ’74, CEA ’76,
FINDEISEN et al. ’80]; jak gotowych programów, np. [DAMERT et al. ’76, KRĘGLEWSKI
et al. ’84, SCALES ’85]. Każda metoda iteracyjnej minimalizacji kryterium jakości odtwarzania
J [ x ] może być zapisana wzorem:
x i +1 = x i + βi di
(6-75)
gdzie di - wektor zwany kierunkiem poprawy. W metodach bezgradientowych poprawka β i d i
wyznaczana jest na podstawie wartości kryterium J w pewnym otoczeniu punktu xi ; natomiast w
metodach gradientowych do tego celu wykorzystywane są także wartości gradientu ∇J[x] . W
dziedzinie odtwarzania sygnałów pomiarowych najszersze zastosowanie znalazły dwie metody
gradientowe: metoda najszybszego spadku oraz metoda gradientów sprzężonych. Wynika to stąd,
że prowadzą one do jawnych i stosunkowo prostych wyrażeń określających di i βi w przypadku
kwadratowych wskaźników jakości odtwarzania J [x] = x T Qx +... z dodatnio określoną macierzą Q,
w szczególności - tych używanych najczęściej:
J 2 [ x] = y − Gx
2
2
Rozdział 6. Jednolite ujęcie metod odtwarzania sygnałów pomiarowych
(6-76)
Strona 6-21
R. Z. Morawski: Metody odtwarzania sygnałów pomiarowych
oraz:
J 20 [ x] = x T Gx − 2 y T x
(6-77)
[ ]
Metoda najszybszego spadku polega na wyborze di = −∇J x i , podczas gdy w metodzie
{
[ ]} w sensie
gradientów sprzężonych kolejne wektory di tworzy się ortogonalizując ciąg − ∇J x i
iloczynu skalarnego diT Qd j [LUENBERGER ’74 - § 10.8.]. Współczynniki βi wyznacza się w
[
obydwu metodach minimalizując J xi + β di
]
względem β . Minimalizacja J2 jest równoważna
rozwiązaniu równania normalnego G T Gx = G T y , podczas gdy minimalizacja J 20 jest równoważna
rozwiązaniu równania wyjściowego Gx=y. Algorytm odtwarzania oparty na minimalizacji J 20 jest
w związku z tym nieco prostszy niż algorytm oparty na minimalizacji J 2 ; nie oznacza to jednak, że
zapewnia on krótszy czas osiągania założonej dokładności odtwarzania. W szczególności,
minimalizacja J 20 metodą najszybszego spadku prowadzi do metody minimalnych residuów, której
znaną wadą jest spadek szybkości zbieżności w miarę zbliżania się do rozwiązania [MARČUK ’83
- § 4.3.2.]. W konsekwencji ta ostatnia ustępuje znacznie metodzie opartej na minimalizacji J 2 , co
ilustrują przykłady zawarte w [MORAWSKI & PODGÓRSKI ’79]. W ogólności, znaną słabością
metody najszybszego spadku jest jej powolna zbieżność w przypadku zadań źle uwarunkowanych
numerycznie [CEA ’76 - § 3.3., SCALES ’85 - § 3.2.]. Pod tym względem znacznie ustępuje ona
metodzie gradientów sprzężonych. W [MARUCCI et al. ’82] zastosowano tę ostatnią do
odtwarzania sygnału typu spektrometrycznego i stwierdzono, że nakład obliczeniowy niezbędny do
uzyskania założonej dokładności jest 10 razy mniejszy niż w przypadku metody najszybszego
spadku. W [KAWATA & NALCIOGLU ’85] metodę gradientów sprzężonych zastosowano do
rozwiązania wstępnie zregularyzowanego zadania odtwarzania obrazu tomograficznego:
stwierdzono, że jest ona szybciej zbieżna niż metoda Gaussa-Seidela, metoda Jacobiego i metoda
najszybszego spadku. Podobne wnioski sformułowano w [KAWATA et al. ’86]. Także w [PROST
& GOUTTE ’84], w wyniku przeprowadzonych badań uznano wyższość metody gradientów
sprzężonych nad metodą najszybszego spadku. W [ASHBY ’87] opisano efektywność metody
gradientów sprzężonych w przypadku, gdy G jest macierzą rzadką o znacznych rozmiarach.
Metodę tę wybrano w [GUTENBAUM et al. ’76] do rozwiązania równania normalnego w związku
z odtwarzaniem termokinetyki; w [CESARI et al. ’81] stwierdzono, że doprowadziło to do
uzyskania lepszych wyników niż zastosowanie metod bezpośrednich i metody przekształcenia
Fouriera; nie rozwiązało jednak problemu wrażliwości wyników na zaburzenia danych. Dalsze
przykłady pozytywnych doświadczeń z metodą gradientów sprzężonych - to [CIVANLAR &
TRUSSEL ’86 - § VI.B, NOLET et al. ’86, IVANSSON ’86].
Wzrost zainteresowania estymatorami opartymi na minimalizacji J1[ x] = y − Gx 1 (por. § 6.2.1.)
doprowadził do prób wykorzystania metod minimalizacji funkcjonałów kwadratowych do
wyznaczania minimum J. Jednym z częściej wykorzystywanych pomysłów jest iteracyjne
wyznaczanie minimum funkcjonału kwadratowego postaci [OSBORNE ’85 - § 5.4.]:
∑ ( yn − g nT x) 2
J 2 [x; i ] = n
(6-78)
α
yn − g nT xi
Zbieżność zagwarantowana jest, jeżeli α ∈ ( −1, 1) ; dlatego α musi być nieco mniejsze od jedności,
aby punkt zbieżności tej metody można było uznać za dobrą aproksymację minimum J1 . W
[BEDNAR et al. ’86] stwierdzono, że metoda iteracyjnej minimalizacji (6-78) zawodzi w
zastosowaniach sejsmicznych, gdy liczba danych jest znaczna. Przeprowadzono w związku z tym
Rozdział 6. Jednolite ujęcie metod odtwarzania sygnałów pomiarowych
Strona 6-22
R. Z. Morawski: Metody odtwarzania sygnałów pomiarowych
badania algorytmu minimalizacji funkcjonału J1 metodą najszybszego spadku. Poza punktami
niegładkości tego funkcjonału kierunki poprawy określone są jednoznacznie wzorem:
di = (G T G) −1 G T sign ( y − Gxi )
(6-79)
zaś współczynniki βi wyznacza się minimalizując J1[ xi + β d1 ] względem β . Uzyskane wyniki
oceniono jako znacznie lepsze niż osiągalne metodą minimalizacji J 2 .
W innych przypadkach, gdy zastosowany sposób regularyzacji zadania odtwarzania prowadzi do
ekstremalizacji funkcjonału niekwadratowego, najczęściej wybierana jest metoda LevenbergaMarquardta [SCALES ’85 - § 4.2.2.]. I tak na przykład: w [KORMYLO & MENDEL ’83] została
ona użyta jako podstawa algorytmu maksymalizacji funkcjonału wiarygodności; w [YU &
SISTANIZADEH ’86] - do rozwiązania układu równań kwadratowych wiążących wartości
obwiedni odtwarzanego sygnału radarowego. Dość uniwersalnym sposobem iteracyjnego
T
poprawiania rozwiązania jest przyjęcie wersorów en = [0 K 0 1 0 K0] jako kierunków poprawy
di = ei mod N oraz losowy dobór współczynnika βi . Na tym założeniu opiera się metoda
"symulowanego odpuszczania" (ang. simulated annealing) [JANSSON ’97 - § 4.XI.2.], w której po
wyznaczeniu xi+1 bada się przyrost ∆J = J x i +1 − J x i : jeżeli ∆J < 0 , to krok jest akceptowany
[ ] [ ]
bezwarunkowo, w przeciwnym wypadku jest akceptowany z prawdopodobieństwem exp( −C∆J ) ,
gdzie C>0. Wykonanie pewnej liczby iteracji przy C=const. prowadzi do ustalenia się równowagi
dynamicznej, polegającej na znoszeniu się efektów minimalizacji J w dłuższej sekwencji iteracji;
wartość C trzeba wówczas powiększyć i utrzymać aż do ustalenia się ponownej równowagi.
Zbieżność metody jest bardzo powolna, ale pewniejsza niż dla metod gradientowych: dopuszczenie
kroków, które nie dają poprawy wskaźnika J stwarza bowiem możliwość wyprowadzenia
algorytmu z płytkich lokalnych minimów i stromych wąwozów nie prowadzących do minimum.
Powyższy przegląd zastosowań metod otymalizacji do tworzenia iteracyjnych algorytmów
odtwarzania nie obejmuje wielu pozycji (także tych cytowanych w niniejszej pracy przy innych
okazjach), które traktują o wariacyjnych metodach rozwiązywania zadania odtwarzania, a których
autorzy nie podają informacji o użytych do tego celu metodach numerycznych. W wielu
przypadkach wynika to z nieświadomości regularyzujących właściwości metod iteracyjnych.
6.4.3. Wprowadzenie dodatkowych ograniczeń
Na gruncie ogólnych koncepcji regularyzacji, przedstawionych w rozdziale 5, naturalnym
kierunkiem ulepszania metod iteracyjnych jest uwzględnienie przy ich projektowaniu ograniczeń
zbioru dopuszczalnych rozwiązań X x0 . Trzy główne sposoby realizacji tego postulatu - to:
1o konstrukcja metody iteracyjnej, uniemożliwiająca opuszczenie zbioru X x0 przez elementy ciągu
{x } ;
i
2 o rzutowanie kolejnych przybliżeń rozwiązania na zbiór X x0 ;
3o wariacyjne sformułowanie zadania odtwarzania i zastosowanie jednej z iteracyjnych metod
optymalizacji z ograniczeniami.
Jedną z wcześniejszych prób zastosowania pierwszego sposobu była metoda Golda (1964 r.)
x i +1 = x i diag −1 {Gx i }y
x0 = y
(6-79a)
zapewniająca dodatniość wszystkich xi , jeżeli dodatnie są wszystkie elementy wektora y i
macierzy G. Metoda nie znalazła szerszego zastosowania i w związku z tym jej praktyczna
przydatność nie została bliżej zbadana [JANSSON ’97 - § 4.IV]. Pod względem formalnym
konstrukcję (6-79) bardzo przypomina metoda zaproponowana w [DI GESU &
MACCARONE ’84], również gwarantująca dodatniość kolejnym przybliżeniom rozwiązania:
{
{ }}
x i +1 = x i diag G diag −1 Gx i y x i
Rozdział 6. Jednolite ujęcie metod odtwarzania sygnałów pomiarowych
(6-80)
Strona 6-23
R. Z. Morawski: Metody odtwarzania sygnałów pomiarowych
Rodowód tej metody jest dość intrygujący: w sposób heurystyczny wykorzystano analogię
zachodzącą między regułą Bayesa i zadaniem odtwarzania. Jako punkt wyjścia przyjęto założenie,
uzasadnione tylko w szczególnych przypadkach zadań odtwarzania (spektrometria [FRIEDEN ’97],
korekcja rozmycia obrazu w oscyloskopie próbkującym [GANS ’83]), że zachodzi
proporcjonalność wartości sygnałów i prawdopodobieństw ich wystąpienia:
y
P ( y n ) = Cy n , P ( x m ) = Cx m , P( n ) = g nm
xm
Wówczas układowi równań Gx=y równoważny jest układ równań prawdopodobieństw
y
∑ P( x n ) P( xm ) = P( yn ) dla n = 0,..., N − 1
m
m
mający rozwiązanie:
x
P ( xm ) = ∑ P ( m ) P ( yn ) dla m = 0,..., M − 1
yn
n
x
y
które po podstawieniu P ( m ) P ( y n ) = P ( n ) P ( x m ) oraz P −1 ( y n ) P ( y n ) = 1 przybiera postać:
yn
xm
y
P ( x m ) = ∑ P ( n ) P −1 ( y n ) P ( y n ) P ( x m )
xm
stanowiącą prototyp (6-80). W [DI GESU & MACCARONE ’84] pokazano odporność tej metody
na zaburzenia danych oraz jej zdolność do poprawiania rozdzielczości i stosunku sygnału do szumu
w przypadku sygnałów typu spektrometrycznego. Stwierdzono jednak, że nie zachowuje ona tych
właściwości w przypadku sygnałów innego typu.
Szczególnie prosty jest mechanizm wprowadzania ograniczeń amplitudowych w metodzie Janssona
(1970r.), polegającej na użyciu wzoru (6-60) z macierzą H zależną od kolejnych przybliżeń:
{
H i = diag 1 − 2 xni / ( x MAX + x MIN ) − 1
}
(6-81)
Zabieg ten umożliwia utrzymanie elementów wektora x i +1 w przedziale [ x MIN , x MAX ] , jeżeli
elementy wektora x należą do tego przedziału [JANSSON ’97 - § 4.VI.3.]. Porównanie metody
Janssona z metodą prostych iteracji przeprowadzone w [MARTIROSJAN ’84] pokazało, że metoda
ta daje znacznie wyższą jakość odtwarzania i jest bardziej odporna na zaburzenia danych. Tamże
zaproponowano dwa inne warianty konstrukcji macierzy H i , które zwiększyły jeszcze odporność
metody na zaburzenia danych - niestety kosztem jakości odtwarzania (zwiększenie składowej błędu
odtwarzania wnoszonej przez regularyzację). Użycie macierzy H i postaci (6-81) w uogólnionej
metodzie Gaussa-Seidela, B = β H i we wzorze (6-69), prowadzi do powstania algorytmu
odznaczającego się właściwością tzw. superrozdzielczości (ang. superresolution), tzn. zdolnością
odtworzenia tych składowych częstotliwościowych sygnału odtwarzanego, które nie są
reprezentowane w sygnale mierzonym [JANSSON ’97 - § 4.VI.3.].
Drugi sposób wprowadzania ograniczeń (2°) zastosowano w [PROST & GOUTTE ’77] do
wymusznia ograniczoności nośnika: xi ∈X x4 , w metodzie van Citterta. Sposób ten był przedmiotem
systematycznych badań w [PROST & GOUTTE ’84], gdzie ograniczenia amplitudy i
nośnika: x i ∈ X1x ∩ X x4 , włączono do algorytmów iteracyjnych, wynikających z minimalizacji
wskaźnika jakości odtwarzania metodą minimalnych residuów, najszybszego spadku i gradientów
sprzężonych. Stwierdzono, że wprowadzenie ograniczeń istotnie poprawia jakość odtwarzania
sygnałów spektrometrycznych, przy czym najlepsze wyniki uzyskano metodą gradientów
sprzężonych. Dodatniość odtwarzanego sygnału wymuszano w [MARUCCI et al. ’82, KAWATA
et al. ’86 i SINGH et al. ’86]. W [KAWATA & NALCIOGLU ’85] w związku z zadaniem
poprawiania jakości obrazów stosowano liniowy operator rzutowania P [ x ] = Px z zero-jedynkową
Rozdział 6. Jednolite ujęcie metod odtwarzania sygnałów pomiarowych
Strona 6-24
R. Z. Morawski: Metody odtwarzania sygnałów pomiarowych
macierzą diagonalną; pozwoliło to uniknąć operacji rzutowania po każdej iteracji: macierz G
wyjściowego układu liniowych równań algebraicznych została zastąpiona przez PG. Stosunkowo
łatwe jest uwzględnienie wszelkich ograniczeń podczas wykonywania iteracji metodą
"symulowanego odpuszczania" krok prowadzący do naruszenia ograniczeń nie jest po prostu
akceptowany [JANSSON ’97 - § 4.XI.2.].
Trzeci sposób uwzględniania ograniczeń (3°) przez długie lata rozwoju metod odtwarzania
sygnałów pomiarowych stosowany był nieczęsto ze względu na złożoność algorytmów, do których
prowadzi przy dużej liczbie danych ( N > 10 2 ) i kilku niezależnych ograniczeniach zbioru
dopuszczalnych rozwiązań. Skalę trudności doskonale ilustruje realizacja metody Tichonowa (por.
§ 6.2.2.), która jest przykładem metody wariacyjnej z jednym ograniczeniem typu równościowego
prowadzącym do pojawienia się skalarnego parametru regularyzacji α (będącego odwrotnością
odpowiedniego mnożnika Lagrange ’a). Każda realizacja algorytmu odtwarzania opartego na tej
metodzie [MORAWSKI ’87b - Rozdz. II] obejmuje wyznaczanie kilkudziesięciu dyskretnych
transformat Fouriera. Wymaga to czasu, który w wielu zastosowaniach może być trudny do
zaakceptowania. Trudności potęgują się, gdy rośnie liczba ograniczeń - por. [LEAHY &
GOUTIS ’86, CIVANLAR & TRUSSEL ’88]. Uwzględnianie ograniczeń jest jednak
podstawowym kierunkiem doskonalenia metod odtwarzania sygnałów pomiarowych i dlatego ich
przezwyciężenie staje się głównym celem aktualnie prowadzonych badań w dziedzinie
odtwarzania; decydujące znaczenie ma tu postęp w dziedzinie narzędzi obliczeniowych.
Rozdział 6. Jednolite ujęcie metod odtwarzania sygnałów pomiarowych
Strona 6-25

Podobne dokumenty