x odtwarzać x
Transkrypt
x odtwarzać x
R. Z. Morawski: Metody odtwarzania sygnałów pomiarowych 6.4. Metody iteracyjne Istotą iteracyjnych metod odtwarzania jest ograniczenie zbioru dopuszczalnych rozwiązań do elementów ciągu: x = H l [ x i , x i −1 , ... , x i − l ; y ] i = l , l + 1 ... (6-56) x 0 , x 1 , ... x l ∈ dom (G ) zbieżnego do x ∞ = x dla nie zaburzonych danych y. Wynikiem odtwarzania jest więc pewien element tego ciągu x k często wybrany tak, aby zminimalizować założony wskaźnik jakości odtwarzania. Każdy z operatorów H l jest ciągłą superpozycją operatora G , której postać definiuje metodę iteracyjną. Dąży się do tego, aby operatory te zapewniały możliwie szybką xi zbieżność iteracji oraz aby ich numeryczna realizacja była możliwie prosta. Oznaczając przez ~ przybliżenia rozwiązania odpowiadające zaburzonym danym, mechanizm regularyzacji właściwy metodom iteracyjnym przeanalizujemy przy użyciu następującego oszacowania: i ~ xi − x = ~ x i − xl + xl − x ≤ ~ x − xl + xl − x (6-57) w którym pierwszy składnik prawej strony wyraża błąd spowodowany zaburzeniem danych, drugi błąd metody iteracyjnej. Jeżeli metoda iteracyjna (6-56) jest zbieżna do x dla dokładnych danych, to drugi składnik maleje do zera przy i → ∞ ; pierwszy natomiast na ogół rośnie, ponieważ przenoszenie błędów przez operator H i o...oH 0 coraz bardziej przypomina przenoszenie błędów z danych na wyniki w rozwiązywanym zadaniu odwrotnym. Z tego względu po wykonaniu pewnej x i , co oznacza, że liczby iteracji nie obserwujemy dalszej poprawy dokładności przybliżeń ~ kontynuowanie obliczeń nie jest już celowe. Dobór optymalnej liczby iteracji jest jednym z podstawowych problemów implementacji iteracyjnych metod odtwarzania. Odwrotność tej liczby α = 1 / i pełni bowiem rolę parametru regularyzacji, który powinien być dobierany do poziomu zaburzeń w taki sposób, aby α → 0, gdy η → 0 . Dla uproszczenia rozważań w niniejszym podrozdziale założymy odwracalność operatora G , a w wielu miejscach jego symetrię lub dodatniość. Jeżeli bowiem operator G nie spełnia tych wymagań, to spełnia je operator: (6-58) G α = G ∗ oG + α L ∗ o L wynikający z regularyzacji zadania metodą Tichonova (por. § 6.2.2.) i metoda iteracyjna może być zastosowana do rozwiązywania równania: (6-59) G α [ x] = G ∗ [ ~ y] Ten sposób postępowania łączy dwa efektywne mechanizmy regularyzacji i dlatego jest najczęściej stosowany w praktyce [JANSSON ’97 - § 3.IV.D.3, KAWATA & NALCIOGLU ’85, BIEMOND & LAGENDIJK ’86, KONDO & ATSUTA ’86, MORGERA & KRISHNA ’86], choć teoretycznie możliwe jest ogólniejsze ujęcie iteracyjnych metod rozwiązywania układu liniowych równań algebraicznych, nie wymagające zawężania klasy operatorów G [MAESS ’79, VOEVODIN & KUZNECOV ’84 - § 40]. Przegląd metod iteracyjnych ograniczymy do dyskretnych modeli danych, ponieważ w zastosowaniach tych metod ze względu na wymaganie konsekwencji metody odtwarzania (por. § 4.3.) dyskretyzacja powinna poprzedzać sformułowanie algorytmu iteracyjnego. 6.4.1. Metody stacjonarne Metodę iteracyjną nazywamy stacjonarną, jeżeli dla i ≥ 1 operator H i nie zależy od numeru iteracji i. W dziedzinie odtwarzania sygnałów pomiarowych najszersze zastosowanie znalazła stacjonarna wersja uogólnionej jednokrokowej ( l = 0) metody Richardsona: x i +1 = x i + H( y − Gx i ) (6-60) Rozdział 6. Jednolite ujęcie metod odtwarzania sygnałów pomiarowych Strona 6-18 R. Z. Morawski: Metody odtwarzania sygnałów pomiarowych a zwłaszcza metoda prostych iteracji, dla której H = β I . Szczególnym przypadkiem tej ostatniej ( β = 1) jest metoda van Citterta, od której w 1931 r. zaczęło się stosowanie metod iteracyjnych do odtwarzania sygnałów spektrometrycznych [JANSSON ’97 - § 3.II.]. Gruntowną analizę metody prostych iteracji znaleźć można m.in. w [IVANOV et al. ’78 - § 3.8., KRYLOV et al. ’83 - § 9.2., MARČUK ’83 - § 4.6., FENYŐ & STOLLE ’83 - § 10.7.]. Wynika z niej, w szczególności, że jeżeli G jest macierzą symetryczną i dodatnio określoną o wartościach własnych λ n ∈[λ MIN , λ MAX ] , to składniki prawej strony wzoru (6-57) można oszacować następująco: η 2 β 1 − qi i i ~ x −x ≤ (6-61) (1 − q ) ( xi − x 2 ≤ x0 − x gdzie q = I − β G 2 ) 2 qi (6-62) { = sup 1 − βλ n } n ∈ N . Wzór (6-62) pozwala zauważyć, że warunkiem wystarczającym (w istocie także koniecznym) zbieżności metody prostych iteracji jest utrzymanie q<1. Wynika stąd ograniczenie na β : 0 < β < 2 / λ MAX (6-63) Najszybszą zbieżność zapewnia przyjęcie: (6-64) βOPT = arg β inf I − βG β ∈ (0,2 / λ MAX { } Wielkość ta może być wyrażona przez skrajne wartości własne macierzy G [MARČUK ’83 § 4.2.1., VOEVODIN & KUZNECOV ’84 - § 34.53.]: 2 βOPT = (6-65) ( λ MIN + λ MAX ) Jak widać ze wzoru (6-61), wpływ zaburzeń danych na wynik odtwarzania rośnie z liczbą iteracji. W [MARČUK ’83 - § 4.6.] proponuje się w związku z tym przerywanie iteracji, gdy prawe strony (6-61) i (6-62) osiągają porównywalne wartości. W [VAJNIKKO ’80] natomiast sugeruje się wybór mniejszej z dwóch liczb: ~i ≤ c η entier c / η i inf arg ~ y − Gx (6-66) ( 1 ) i { 2 } gdzie c1 , c2 - stałe dobierane empirycznie. W [KONDO & ATSUTA ’86], metodę prostych iteracji zastosowano do równania normalnego; jako kryterium zakończenia obliczeń przyjęto osiąganie minimum przez wskaźnik: (6-67) gdzie γ ∈[0,1] - parametr dobieramy empirycznie, L - macierz "gładkości" rozwiązania. Często, ze względu na brak kryteriów formalnych, przerywanie obliczeń odbywa się na podstawie kryteriów subiektywnych (takich jak jakość odtwarzanego obrazu oceniana przez obserwatora) lub empirycznych, tzn. wynikających z doświadczeń zebranych podczas badań symulacyjnych - por. np. [BIEMOND & LAGENDIJK ’86.] Wyniki powyższej analizy metody prostych iteracji można uogólniać na całą klasę metod zdefiniowanych wzorem (6-60). W tym celu wystarczy zauważyć, że użycie wzoru (6-60) jest równoważne zastosowaniu metody van Citterta do równania HGx=Hy, przy czym wymaganie symetrii i dodatniości G zastąpić należy analogicznym wymaganiem w stosunku do macierzy HG [VOEVODIN & KUZNECOV ’84 - § 34, str. 57-62]. W praktyce odtwarzania sygnałów pomiarowych, obok metody Richardsona, wykorzystywane są przypadki szczególne (6-60), należące do klasy metod relaksacyjnych, stanowiących uogólnienie metody Jacobiego (typu "pointsimultaneous") [JANSSON ’97 - § 3.III.C.1., MORGERA & KRISHNA ’86]: x i +1 = x i + BD −1[ y − (L + U )x i ] (6-68) lub metody Gaussa-Seidela (typu "point-successive") [JANSSON ’97 - § 3.III.C.2., LEAHY & GOUTIS ’86 - § VI.A]: Rozdział 6. Jednolite ujęcie metod odtwarzania sygnałów pomiarowych Strona 6-19 R. Z. Morawski: Metody odtwarzania sygnałów pomiarowych x i +1 = x i + BD −1 ( y − Lx i +1 − Ux i ) (6-69) gdzie L+D+U=G, przy czym L jest ściśle dolną macierzą trójkątną; U - ściśle górną macierzą trójkątną; D - macierzą diagonalną, zawierającą elementy głównej przekątnej G, o których zakłada się, że są niezerowe (ewentualnie, po odpowiedniej zmianie uporządkowania równań i niewiadomych); B - nieosobliwą macierzą współczynników relaksacji, najczęściej B = β I . Praktyczna różnica między metodami typu (6-68) i (6-69) polega na tym, że te ostatnie wymagają mniejszej pamięci komputera, ale też są i mniej dokładne, jeżeli nie zapewni się optymalnego porządku równań i niewiadomych [ibid.]. W przypadku, gdy dane modelowane są równaniem typu splotu, wygodna jest realizacja numeryczna metody prostych iteracji w dziedzinie transformat [SANZ & HUANG ’83, JANSSON ’97 - § 3.IV.D.2.]: X i +1 = X i + β ( Y − GX i ) , X0 =Y (6-70) zwłaszcza w zastosowaniu do równania normalnego G 2 X = G * Y , dla którego łatwiej kontrolować warunek zbieżności przy użyciu rzeczywistego parametru β [ibid.. - § 3.IV.D.3.]. Ciekawym uogólnieniem (6-70) jest metoda dekompozycji jądra przedstawiona w sposób systematyczny w [PROST & GOUTTE ’82]. Polega ona na dość dowolnym wyodrębnieniu z transmitancji G składowej odwracalnej Gα ; wówczas G = Gα + (G − Gα ) , a w konsekwencji Gα X + ( G − Gα ) X = Y ⇒ X = Gα−1[Y − ( G − Gα ) X ] = X + Gα−1 (Y − GX ) Stąd pomysł algorytmu iteracyjnego x i +1 = x i + Gα−1 (Y − GX i ) (6-71) który jest zbieżny pod warunkiem, że 1 − G Gα < 1 w całym zakresie zmienności argumentu transformat; warunek ten jest podstawowym kryterium wyboru Gα. Wśród wariantów przebadanych w [ibid.] najlepsze rezultaty uzyskano dla Gα = G + α , gdzie α>0 - liczba dobierana tak, aby spełniony był warunek zbieżności, przybierający w tym wypadku postać G + α > α . Dziesięć lat wcześniej, w [SILVERMAN & PEARSON ’73], zaproponowano wyodrębnienie Gα.w dziedzinie oryginału według heurystycznej zasady gα (t ) = [1(t − Tα ) − 1(t )] g (t ) (lub jej dyskretnych analogów); parametr Tα wyznaczano przy tym z warunku zbieżności (6-71). Pokazano efektywność tego podejścia na imponującej liczbie 200 przykładów! Przechodząc do ogólnej oceny metod klasy (6-60) stwierdzić należy, że ich główną zaletą jest prostota implementacji, której zawdzięczają swoją popularność. Podstawowe ograniczenia tych metod - to stosunkowo powolna, bo liniowa, zbieżność oraz słaby mechanizm regularyzacji. Zauważmy, że suma prawych stron oszacowań (6-61) i (6-62) jest funkcją liczby iteracji malejącą do η 2 λ MIN ; tj. do wartości majoryzującej błąd odtwarzania bez regularyzacji. W [SINGH et al. ’86] pokazano, że dla metod typu (6-60) zachodzi nierówność: ⎧⎪ x i ⎫⎪ y 2 2 (6-72) inf ⎨ i ⎬≤ i ~ ⎪⎩ x − x 2 ⎪⎭ η 2 x i odpowiadających wszystkim możliwym zaburzeniom przy czym inf dotyczy zbioru rozwiązań ~ danych o normie nie przekraczającej η 2 . Nierówność ta oznacza, że przy użyciu metod typu (660) nie można zagwarantować poprawy stosunku sygnału do szumu. Dwa zasadnicze kierunki przezwyciężania ograniczeń metod stacjonarnych - to przejście do metod niestacjonarnych, którym poświęcony jest następny paragraf, oraz wprowadzenie dodatkowych ograniczeń zbioru dopuszczalnych rozwiązań, o czym mowa w § 6.4.3. Rozdział 6. Jednolite ujęcie metod odtwarzania sygnałów pomiarowych Strona 6-20 R. Z. Morawski: Metody odtwarzania sygnałów pomiarowych 6.4.2. Metody niestacjonarne Niestacjonarność metod iteracyjnych polega na tym, że ich parametry zmieniają się z liczbą iteracji według zadanego a priori programu lub adaptacyjnie, z uwzględnieniem danych pomiarowych oraz informacji o przebiegu procesu iteracyjnego. Klasyczną ilustracją możliwości przyspieszenia zbieżności metody prostych iteracji jest metoda Czebyszewa [MARČUK ’83 - § 4.2.4]., której konsekwentne rozwinięcie prowadzi do szczególnego przypadku uogólnionej dwukrokowej metody Richardsona [VOEVODIN & KUZNECOV ’84 - § 38.10.]: (6-73) x i +1 = x i + βi H y − Gx i + γ i ( x i − xi −1 ) ( gdzie: ) βi = 4Ti −1 (λ ) / Ti (λ ) / (λ MAX − λMIN ) dla i = 0,1,...; γ i = Ti −1 (λ ) / Ti (λ ) dla i = 1,2,...; γ 0 = 0 ; λ = (λMAX + λMIN ) / ( λMAX − λMIN ) ; Ti (λ ) - wielomian Czebyszewa; HG - macierz symetryczna i dodatnio określona. Istotnym ograniczeniem zakresu zastosowań powyższej metody jest wymaganie dość dokładnej znajomości przedziału [λMIN , λMAX ] , w którym mieści się widmo macierzy HG. W [SINGH et al. ’86] zaproponowano metodę zbieżną kwadratowo, która jest mniej wrażliwa na niedokładność oszacowania λMIN i λMAX H0 = I − G x0 = y xi +1 = ( I + H i ) xi H i +1 = H i2 dla i = 0,1, ... Warunek zbieżności tej metody ma postać H 0 2 (6-74) < 1 ; oszacowanie wartości własnych macierzy G jest więc konieczne do prawidłowego przeskalowania rozwiązywanego układu liniowych równań algebraicznych. W [ibid.]. stwierdzono, że metoda ta wymaga średnio pięciokrotnie mniejszej liczby iteracji niż metoda van Citterta, zapewniając porównywalną dokładność i rozdzielczość w zadaniach typu spektrometrycznego. Podstawowym sposobem tworzenia niestacjonarnych metod iteracyjnych jest numeryczna realizacja wariacyjnych metod odtwarzania sygnałów pomiarowych (por. § 6.2.). Istotną zaletą tego rozwiązania jest połączenie dwóch mechanizmów regularyzacji, umożliwiająca uzyskanie lepszych wyników odtwarzania niż przy użyciu metod opisanych w § 6.4.2. Drugim istotnym argumentem przemawiającym za zastosowaniem tego rozwiązania jest dostępność gotowych algorytmów optymalizacji, zarówno w postaci opracowań teoretycznych, np. [LUENBERGER ’74, CEA ’76, FINDEISEN et al. ’80]; jak gotowych programów, np. [DAMERT et al. ’76, KRĘGLEWSKI et al. ’84, SCALES ’85]. Każda metoda iteracyjnej minimalizacji kryterium jakości odtwarzania J [ x ] może być zapisana wzorem: x i +1 = x i + βi di (6-75) gdzie di - wektor zwany kierunkiem poprawy. W metodach bezgradientowych poprawka β i d i wyznaczana jest na podstawie wartości kryterium J w pewnym otoczeniu punktu xi ; natomiast w metodach gradientowych do tego celu wykorzystywane są także wartości gradientu ∇J[x] . W dziedzinie odtwarzania sygnałów pomiarowych najszersze zastosowanie znalazły dwie metody gradientowe: metoda najszybszego spadku oraz metoda gradientów sprzężonych. Wynika to stąd, że prowadzą one do jawnych i stosunkowo prostych wyrażeń określających di i βi w przypadku kwadratowych wskaźników jakości odtwarzania J [x] = x T Qx +... z dodatnio określoną macierzą Q, w szczególności - tych używanych najczęściej: J 2 [ x] = y − Gx 2 2 Rozdział 6. Jednolite ujęcie metod odtwarzania sygnałów pomiarowych (6-76) Strona 6-21 R. Z. Morawski: Metody odtwarzania sygnałów pomiarowych oraz: J 20 [ x] = x T Gx − 2 y T x (6-77) [ ] Metoda najszybszego spadku polega na wyborze di = −∇J x i , podczas gdy w metodzie { [ ]} w sensie gradientów sprzężonych kolejne wektory di tworzy się ortogonalizując ciąg − ∇J x i iloczynu skalarnego diT Qd j [LUENBERGER ’74 - § 10.8.]. Współczynniki βi wyznacza się w [ obydwu metodach minimalizując J xi + β di ] względem β . Minimalizacja J2 jest równoważna rozwiązaniu równania normalnego G T Gx = G T y , podczas gdy minimalizacja J 20 jest równoważna rozwiązaniu równania wyjściowego Gx=y. Algorytm odtwarzania oparty na minimalizacji J 20 jest w związku z tym nieco prostszy niż algorytm oparty na minimalizacji J 2 ; nie oznacza to jednak, że zapewnia on krótszy czas osiągania założonej dokładności odtwarzania. W szczególności, minimalizacja J 20 metodą najszybszego spadku prowadzi do metody minimalnych residuów, której znaną wadą jest spadek szybkości zbieżności w miarę zbliżania się do rozwiązania [MARČUK ’83 - § 4.3.2.]. W konsekwencji ta ostatnia ustępuje znacznie metodzie opartej na minimalizacji J 2 , co ilustrują przykłady zawarte w [MORAWSKI & PODGÓRSKI ’79]. W ogólności, znaną słabością metody najszybszego spadku jest jej powolna zbieżność w przypadku zadań źle uwarunkowanych numerycznie [CEA ’76 - § 3.3., SCALES ’85 - § 3.2.]. Pod tym względem znacznie ustępuje ona metodzie gradientów sprzężonych. W [MARUCCI et al. ’82] zastosowano tę ostatnią do odtwarzania sygnału typu spektrometrycznego i stwierdzono, że nakład obliczeniowy niezbędny do uzyskania założonej dokładności jest 10 razy mniejszy niż w przypadku metody najszybszego spadku. W [KAWATA & NALCIOGLU ’85] metodę gradientów sprzężonych zastosowano do rozwiązania wstępnie zregularyzowanego zadania odtwarzania obrazu tomograficznego: stwierdzono, że jest ona szybciej zbieżna niż metoda Gaussa-Seidela, metoda Jacobiego i metoda najszybszego spadku. Podobne wnioski sformułowano w [KAWATA et al. ’86]. Także w [PROST & GOUTTE ’84], w wyniku przeprowadzonych badań uznano wyższość metody gradientów sprzężonych nad metodą najszybszego spadku. W [ASHBY ’87] opisano efektywność metody gradientów sprzężonych w przypadku, gdy G jest macierzą rzadką o znacznych rozmiarach. Metodę tę wybrano w [GUTENBAUM et al. ’76] do rozwiązania równania normalnego w związku z odtwarzaniem termokinetyki; w [CESARI et al. ’81] stwierdzono, że doprowadziło to do uzyskania lepszych wyników niż zastosowanie metod bezpośrednich i metody przekształcenia Fouriera; nie rozwiązało jednak problemu wrażliwości wyników na zaburzenia danych. Dalsze przykłady pozytywnych doświadczeń z metodą gradientów sprzężonych - to [CIVANLAR & TRUSSEL ’86 - § VI.B, NOLET et al. ’86, IVANSSON ’86]. Wzrost zainteresowania estymatorami opartymi na minimalizacji J1[ x] = y − Gx 1 (por. § 6.2.1.) doprowadził do prób wykorzystania metod minimalizacji funkcjonałów kwadratowych do wyznaczania minimum J. Jednym z częściej wykorzystywanych pomysłów jest iteracyjne wyznaczanie minimum funkcjonału kwadratowego postaci [OSBORNE ’85 - § 5.4.]: ∑ ( yn − g nT x) 2 J 2 [x; i ] = n (6-78) α yn − g nT xi Zbieżność zagwarantowana jest, jeżeli α ∈ ( −1, 1) ; dlatego α musi być nieco mniejsze od jedności, aby punkt zbieżności tej metody można było uznać za dobrą aproksymację minimum J1 . W [BEDNAR et al. ’86] stwierdzono, że metoda iteracyjnej minimalizacji (6-78) zawodzi w zastosowaniach sejsmicznych, gdy liczba danych jest znaczna. Przeprowadzono w związku z tym Rozdział 6. Jednolite ujęcie metod odtwarzania sygnałów pomiarowych Strona 6-22 R. Z. Morawski: Metody odtwarzania sygnałów pomiarowych badania algorytmu minimalizacji funkcjonału J1 metodą najszybszego spadku. Poza punktami niegładkości tego funkcjonału kierunki poprawy określone są jednoznacznie wzorem: di = (G T G) −1 G T sign ( y − Gxi ) (6-79) zaś współczynniki βi wyznacza się minimalizując J1[ xi + β d1 ] względem β . Uzyskane wyniki oceniono jako znacznie lepsze niż osiągalne metodą minimalizacji J 2 . W innych przypadkach, gdy zastosowany sposób regularyzacji zadania odtwarzania prowadzi do ekstremalizacji funkcjonału niekwadratowego, najczęściej wybierana jest metoda LevenbergaMarquardta [SCALES ’85 - § 4.2.2.]. I tak na przykład: w [KORMYLO & MENDEL ’83] została ona użyta jako podstawa algorytmu maksymalizacji funkcjonału wiarygodności; w [YU & SISTANIZADEH ’86] - do rozwiązania układu równań kwadratowych wiążących wartości obwiedni odtwarzanego sygnału radarowego. Dość uniwersalnym sposobem iteracyjnego T poprawiania rozwiązania jest przyjęcie wersorów en = [0 K 0 1 0 K0] jako kierunków poprawy di = ei mod N oraz losowy dobór współczynnika βi . Na tym założeniu opiera się metoda "symulowanego odpuszczania" (ang. simulated annealing) [JANSSON ’97 - § 4.XI.2.], w której po wyznaczeniu xi+1 bada się przyrost ∆J = J x i +1 − J x i : jeżeli ∆J < 0 , to krok jest akceptowany [ ] [ ] bezwarunkowo, w przeciwnym wypadku jest akceptowany z prawdopodobieństwem exp( −C∆J ) , gdzie C>0. Wykonanie pewnej liczby iteracji przy C=const. prowadzi do ustalenia się równowagi dynamicznej, polegającej na znoszeniu się efektów minimalizacji J w dłuższej sekwencji iteracji; wartość C trzeba wówczas powiększyć i utrzymać aż do ustalenia się ponownej równowagi. Zbieżność metody jest bardzo powolna, ale pewniejsza niż dla metod gradientowych: dopuszczenie kroków, które nie dają poprawy wskaźnika J stwarza bowiem możliwość wyprowadzenia algorytmu z płytkich lokalnych minimów i stromych wąwozów nie prowadzących do minimum. Powyższy przegląd zastosowań metod otymalizacji do tworzenia iteracyjnych algorytmów odtwarzania nie obejmuje wielu pozycji (także tych cytowanych w niniejszej pracy przy innych okazjach), które traktują o wariacyjnych metodach rozwiązywania zadania odtwarzania, a których autorzy nie podają informacji o użytych do tego celu metodach numerycznych. W wielu przypadkach wynika to z nieświadomości regularyzujących właściwości metod iteracyjnych. 6.4.3. Wprowadzenie dodatkowych ograniczeń Na gruncie ogólnych koncepcji regularyzacji, przedstawionych w rozdziale 5, naturalnym kierunkiem ulepszania metod iteracyjnych jest uwzględnienie przy ich projektowaniu ograniczeń zbioru dopuszczalnych rozwiązań X x0 . Trzy główne sposoby realizacji tego postulatu - to: 1o konstrukcja metody iteracyjnej, uniemożliwiająca opuszczenie zbioru X x0 przez elementy ciągu {x } ; i 2 o rzutowanie kolejnych przybliżeń rozwiązania na zbiór X x0 ; 3o wariacyjne sformułowanie zadania odtwarzania i zastosowanie jednej z iteracyjnych metod optymalizacji z ograniczeniami. Jedną z wcześniejszych prób zastosowania pierwszego sposobu była metoda Golda (1964 r.) x i +1 = x i diag −1 {Gx i }y x0 = y (6-79a) zapewniająca dodatniość wszystkich xi , jeżeli dodatnie są wszystkie elementy wektora y i macierzy G. Metoda nie znalazła szerszego zastosowania i w związku z tym jej praktyczna przydatność nie została bliżej zbadana [JANSSON ’97 - § 4.IV]. Pod względem formalnym konstrukcję (6-79) bardzo przypomina metoda zaproponowana w [DI GESU & MACCARONE ’84], również gwarantująca dodatniość kolejnym przybliżeniom rozwiązania: { { }} x i +1 = x i diag G diag −1 Gx i y x i Rozdział 6. Jednolite ujęcie metod odtwarzania sygnałów pomiarowych (6-80) Strona 6-23 R. Z. Morawski: Metody odtwarzania sygnałów pomiarowych Rodowód tej metody jest dość intrygujący: w sposób heurystyczny wykorzystano analogię zachodzącą między regułą Bayesa i zadaniem odtwarzania. Jako punkt wyjścia przyjęto założenie, uzasadnione tylko w szczególnych przypadkach zadań odtwarzania (spektrometria [FRIEDEN ’97], korekcja rozmycia obrazu w oscyloskopie próbkującym [GANS ’83]), że zachodzi proporcjonalność wartości sygnałów i prawdopodobieństw ich wystąpienia: y P ( y n ) = Cy n , P ( x m ) = Cx m , P( n ) = g nm xm Wówczas układowi równań Gx=y równoważny jest układ równań prawdopodobieństw y ∑ P( x n ) P( xm ) = P( yn ) dla n = 0,..., N − 1 m m mający rozwiązanie: x P ( xm ) = ∑ P ( m ) P ( yn ) dla m = 0,..., M − 1 yn n x y które po podstawieniu P ( m ) P ( y n ) = P ( n ) P ( x m ) oraz P −1 ( y n ) P ( y n ) = 1 przybiera postać: yn xm y P ( x m ) = ∑ P ( n ) P −1 ( y n ) P ( y n ) P ( x m ) xm stanowiącą prototyp (6-80). W [DI GESU & MACCARONE ’84] pokazano odporność tej metody na zaburzenia danych oraz jej zdolność do poprawiania rozdzielczości i stosunku sygnału do szumu w przypadku sygnałów typu spektrometrycznego. Stwierdzono jednak, że nie zachowuje ona tych właściwości w przypadku sygnałów innego typu. Szczególnie prosty jest mechanizm wprowadzania ograniczeń amplitudowych w metodzie Janssona (1970r.), polegającej na użyciu wzoru (6-60) z macierzą H zależną od kolejnych przybliżeń: { H i = diag 1 − 2 xni / ( x MAX + x MIN ) − 1 } (6-81) Zabieg ten umożliwia utrzymanie elementów wektora x i +1 w przedziale [ x MIN , x MAX ] , jeżeli elementy wektora x należą do tego przedziału [JANSSON ’97 - § 4.VI.3.]. Porównanie metody Janssona z metodą prostych iteracji przeprowadzone w [MARTIROSJAN ’84] pokazało, że metoda ta daje znacznie wyższą jakość odtwarzania i jest bardziej odporna na zaburzenia danych. Tamże zaproponowano dwa inne warianty konstrukcji macierzy H i , które zwiększyły jeszcze odporność metody na zaburzenia danych - niestety kosztem jakości odtwarzania (zwiększenie składowej błędu odtwarzania wnoszonej przez regularyzację). Użycie macierzy H i postaci (6-81) w uogólnionej metodzie Gaussa-Seidela, B = β H i we wzorze (6-69), prowadzi do powstania algorytmu odznaczającego się właściwością tzw. superrozdzielczości (ang. superresolution), tzn. zdolnością odtworzenia tych składowych częstotliwościowych sygnału odtwarzanego, które nie są reprezentowane w sygnale mierzonym [JANSSON ’97 - § 4.VI.3.]. Drugi sposób wprowadzania ograniczeń (2°) zastosowano w [PROST & GOUTTE ’77] do wymusznia ograniczoności nośnika: xi ∈X x4 , w metodzie van Citterta. Sposób ten był przedmiotem systematycznych badań w [PROST & GOUTTE ’84], gdzie ograniczenia amplitudy i nośnika: x i ∈ X1x ∩ X x4 , włączono do algorytmów iteracyjnych, wynikających z minimalizacji wskaźnika jakości odtwarzania metodą minimalnych residuów, najszybszego spadku i gradientów sprzężonych. Stwierdzono, że wprowadzenie ograniczeń istotnie poprawia jakość odtwarzania sygnałów spektrometrycznych, przy czym najlepsze wyniki uzyskano metodą gradientów sprzężonych. Dodatniość odtwarzanego sygnału wymuszano w [MARUCCI et al. ’82, KAWATA et al. ’86 i SINGH et al. ’86]. W [KAWATA & NALCIOGLU ’85] w związku z zadaniem poprawiania jakości obrazów stosowano liniowy operator rzutowania P [ x ] = Px z zero-jedynkową Rozdział 6. Jednolite ujęcie metod odtwarzania sygnałów pomiarowych Strona 6-24 R. Z. Morawski: Metody odtwarzania sygnałów pomiarowych macierzą diagonalną; pozwoliło to uniknąć operacji rzutowania po każdej iteracji: macierz G wyjściowego układu liniowych równań algebraicznych została zastąpiona przez PG. Stosunkowo łatwe jest uwzględnienie wszelkich ograniczeń podczas wykonywania iteracji metodą "symulowanego odpuszczania" krok prowadzący do naruszenia ograniczeń nie jest po prostu akceptowany [JANSSON ’97 - § 4.XI.2.]. Trzeci sposób uwzględniania ograniczeń (3°) przez długie lata rozwoju metod odtwarzania sygnałów pomiarowych stosowany był nieczęsto ze względu na złożoność algorytmów, do których prowadzi przy dużej liczbie danych ( N > 10 2 ) i kilku niezależnych ograniczeniach zbioru dopuszczalnych rozwiązań. Skalę trudności doskonale ilustruje realizacja metody Tichonowa (por. § 6.2.2.), która jest przykładem metody wariacyjnej z jednym ograniczeniem typu równościowego prowadzącym do pojawienia się skalarnego parametru regularyzacji α (będącego odwrotnością odpowiedniego mnożnika Lagrange ’a). Każda realizacja algorytmu odtwarzania opartego na tej metodzie [MORAWSKI ’87b - Rozdz. II] obejmuje wyznaczanie kilkudziesięciu dyskretnych transformat Fouriera. Wymaga to czasu, który w wielu zastosowaniach może być trudny do zaakceptowania. Trudności potęgują się, gdy rośnie liczba ograniczeń - por. [LEAHY & GOUTIS ’86, CIVANLAR & TRUSSEL ’88]. Uwzględnianie ograniczeń jest jednak podstawowym kierunkiem doskonalenia metod odtwarzania sygnałów pomiarowych i dlatego ich przezwyciężenie staje się głównym celem aktualnie prowadzonych badań w dziedzinie odtwarzania; decydujące znaczenie ma tu postęp w dziedzinie narzędzi obliczeniowych. Rozdział 6. Jednolite ujęcie metod odtwarzania sygnałów pomiarowych Strona 6-25