Nieparametryczne metody identyfikacji przy rócznym stopniu
Transkrypt
Nieparametryczne metody identyfikacji przy rócznym stopniu
Rozdział 6 Nieparametryczne metody identyfikacji przy różnym stopniu informacji wstepnej ˛ G. Mzyk W pracy proponuje sie˛ dwuetapowa, ˛ parametryczno-nieparametryczna˛ metodologie˛ identyfikacji systemów nieliniowych, przy wystepowaniu ˛ losowych sygnałów wejściowych i zakłócajacych. ˛ Bada sie˛ najpopularniejszy system blokowo-zorientowany — o strukturze Hammersteina. W etapie 1, nie wymagajacym ˛ wiedzy wstepnej, ˛ estymuje sie˛ wartości niedostepnego ˛ dla pomiaru sygnału wewnetrzego ˛ stosujac ˛ nieparametryczny estymator funkcji regresji. W etapie 2, w zależności od stopnia wiedzy wstepnej, ˛ estymuje sie˛ parametry nieliniowej charakterystyki podsystemu statycznego oraz liniowego obiektu dynamicznego typu FIR lub IIR stosujac ˛ zmodyfikowana˛ metode˛ najmniejszych kwadratów, lub zmiennych instrumentalnych. Parametry podsystemu statycznego i dynamicznego sa˛ identyfikowane całkowicie niezależnie. Udowodniono zbieżność zaproponowanych estymatorów do prawdziwych wartości parametrów systemu, a także wyznaczono ich szybkość zbieżności. 6.1 Wprowadzenie Metody stosowane do identyfikacji systemów Hammersteina (Rys. 6.1) można podzielić na dwie kategorie: parametryczne i nieparametryczne. Pierwsze z nich bazuja˛ na wstepnej ˛ znajomości opisów komponentów z dokładnościa˛ do skończonej liczby nieznanych parametrów (np. wielomianowa postać charakterystyki µ(u); patrz [12]). Metody nieparametryczne nie nakładaja˛ natomiast żadnych wymagań na strukture˛ opisu podsystemów (np. [9], [10]). Badania pokazuja˛ ([15]-[16], [20]-[30]), że pewne zalety może mieć podejście hybrydowe. W pierwszym (wspólnym dla obu podsystemów) etapie identyfikacji przyjmuje sie˛ uboga˛ wiedze˛ wstepn ˛ a˛ (patrz punkt 6.2.2). Zakłada sie˛ jedynie, że nieznana charakterystyka µ(u) jest funkcja˛ borelowska˛ oraz że liniowy obiekt dynamiczny jest asymptotycznie 101 102 G. Mzyk zk uk µ( ) wk { γ i }i =0 ∞ vk yk Rysunek 6.1: System Hammersteina. stabilny. Stosujac ˛ nieparametryczne techniki estymacji funkcji regresji na ˛ sygnał {wk }. podstawie par pomiarów (uk , yk ) identyfikuje sie˛ niedostepny W etapach 2, parametrycznych (osobnych dla poszczególnych podsystemów) wymaga sie˛ wiedzy o postaci analitycznej charakterystyki µ(u), lub o formie równania różnicowego opisujacego ˛ filtr liniowy. Parametry charakterystyki nieliniowej bloku statycznego i parametry liniowego obiektu dynamicznego estymuje sie˛ niezależnie metoda˛ najmniejszych kwadratów bk ) i odpowiednio lub zmiennych instrumentalnych na podstawie par (uk , w bk } jest estymatorem nieparametrycznym sekwencji {wk }. (w bk , yk ), gdzie {w Proponowane podejście ma nastepuj ˛ ace ˛ zalety: 1) otrzymuje sie˛ opis obydwu podsystemów w postaci zamknietych ˛ wzorów, 2) procedura identyfikacji nie jest iteracyjna, 3) nie wymaga sie˛ wielomianowej postaci charakterystyki µ(u), 4) algorytm pracuje z powodzeniem przy skorelowanych zakłóceniach na wyjściu bez konieczności modelowania ich struktury korelacyjnej, 5) każdy z podsystemów jest identyfikowany niezależnie od drugiego, co czyni algorytm odpornym na przyjecie ˛ błednej ˛ informacji wstep˛ nej o drugim podsystemie, 6) udowodniono fakt zbieżności i określono rzad ˛ jej szybkości. Zainteresowanych pełnym omówieniem zagadnienia oraz reprezentatywnymi przykładami odsyłamy do prac [1], [4], [12], [13] i [31]. 6.2 6.2.1 Sformułowanie problemu Badany system Przedmiotem identyfikacji jest system Hammersteina pokazany na Rys. 6.1, gdzie uk , yk i zk oznaczaja˛ odpowiednio wartość wejścia, wyjścia i ˛ zakłócenia w chwili k, zaś wk jest wejściem interakcyjnym, niedostepnym dla pomiarów (patrz dyskusja w [4]). 6.2.2 Założenia ogólne Założenia 1-5 prezentowane poniżej obowiazuj ˛ a˛ w całej pracy i sa˛ wspólne dla procedur identyfikacji obiektu statycznego i dynamicznego. 6. Nieparametryczne metody identyfikacji przy różnym stopniu informacji... 103 Założenie 1 Charakterystyka µ(u) jest funkcja˛ borelowska˛ i spełania warunek |µ(u)| 6 p1 + p2 |u| , (6.1) gdzie p1 i p2 sa˛ pewnymi dodatnimi stałymi ([9]). Założenie 2 Liniowy obiekt dynamiczny vk = ∞ X γ i wk−i (6.2) i=0 jest asymptotycznie stabilny, tzn. impulsowej {γ i }∞ i=0 . P∞ i=0 |γ i | < ∞, o nieznanej odpowiedzi Założenie 3 Sygnał wej´sciowy {uk } jest ograniczonym procesem losowym typu i.i.d.; |uk | < umax , dla pewnego nieznanego umax > 0. Założenie 4 Zakłócenie {zk } jest losowym procesem kolorowym generowanym przez liniowy,Pasymptotycznie stabilny filtr o nieznanej odpowiedzi ∞ ∞ imulsowej {ωi }i=0 ( i=0 |ω i | < ∞) zk = ∞ X ωi εk−i (6.3) i=0 na podstawie białego szumu {εk } o zerowej warto´sci oczekiwanej (Eεk = 0, {uk }. Proces {zk } jest zatem |εk | < εmax < ∞), niezależnego od wej´scia P∞ ograniczony (|zk | 6 zmax , gdzie zmax = εmax i=0 |ωi |) oraz Ezk = 0. Założenie 5 (techniczne) µ(u0 ) jest znane w pewnym punkcie u0 oraz γ 0 = 1. Techniczne znaczenie Założenia 5 zostało szczegółowo wyjaśnione w artykule [16]. Bez utraty ogólności można przyjać ˛ u0 = 0 i µ(0) = 0. Założenia dodatkowe 6, 7 i 8 dotyczace ˛ wiedzy parametrycznej o podsystemach obowiazuj ˛ a˛ lokalnie w punktach 6.3, 6.4 i 6.5. 6.3 Estymacja parametrów charakterystyki nieliniowej Założenie 6 (lokalne) Funkcja µ(u) jest znana z dokładno´scia˛ do skończonej liczby parametrów c1 , ..., cm i ma posta´c µ(u) = m X l=1 cl fl (u), (6.4) 104 G. Mzyk gdzie f1 (u), ..., fm (u) sa˛ zbiorem liniowo niezależnych funkcji bazowych, takich że |fl (u)| 6 pmax ; l = 1, 2, ..., m (6.5) dla pewnego pmax > 0 oraz u z zakresu |u| ≤ umax (patrz Założenie 3). Dla badanego systemu otrzymujemy yk = ∞ X γ i µ (uk−i ) + zk , zk = i=0 ∞ X wk = µ (uk ) = φT (uk ) c (6.6) ω i εk−i , i=0 gdzie c = (c1 , c2 , ..., cm )T jest wektorem nieznanych parametrów, a φ (uk ) = (f1 (uk ), f2 (uk ), ..., fm (uk ))T ”uogólnionym wektorem wejść”. Oznaczmy WN0 = (w1 , w2 , ..., wN0 )T , ΦN0 = (φ(u1 ), φ(u2 ), ..., φ(uN0 ))T . (6.7) ˛ macierzy ΦN0 otrzyOczywiście zachodzi WN0 = ΦN0 c. Przy pełnym rzedzie mujemy wzór na poszukiwany wektor parametrów c, ¢−1 T ¡ c = ΦTN0 ΦN0 ΦN0 WN0 , (6.8) ¢−1 T ¡ ΦN0 jest uogólniona˛ odwrotnościa˛ ΦN0 . Warunkiem kogdzie ΦTN0 ΦN0 ˛ niecznym nieosobliwości ΦN0 jest, aby N0 ≥ dim c. W świetle przyjetych ˛ w skład macierzy WN0 nie moga˛ zostać założeń interakcje wk wchodzace zmierzone. Jednakże możliwe jest wykorzystanie wzoru (6.8) przez uprzecN0 madnia˛ nieparametryczna˛ estymacje˛ wk dla usyskania przybliżenia W c cierzy WN0 , a nastepnie ˛ wstawienie WN0 do wzoru (6.8) w miejsce WN0 . Idea ta jest oparta na nastepuj ˛ acej ˛ obserwacji. Zapisujac ˛ (6.6) w postaci yk = µ(uk ) + ∞ X i=1 γ i µ (uk−i ) + ∞ X ω i εk−i i=0 i definiujac ˛ funkcje˛ regresji (6.9) R(u) = E{yk | uk = u}, P∞ otrzymujemy R(u) = µ(u) + Eµ (u1 )P i=1 γ i . Skorzystanie z Założenia 5 prowadzi do własności R(0) = Eµ (u1 ) ∞ i=1 γ i oraz µ(u) = R(u) − R(0). (6.10) ˛ z (6.10) sugeruje estymacje˛ wk Ponieważ wk = µ(uk ), równanie (6.9) łacznie metoda˛ nieparametryczna. ˛ Proponuje sie˛ nastepuj ˛ acy ˛ dwuetapowy algorytm identyfikacji wektora parametrów c: 6. Nieparametryczne metody identyfikacji przy różnym stopniu informacji... 105 Etap 1 (nieparametryczny): Na podstawie pomiarów {(uk , yk )}M k=1 , dla zbioru punktów wejściowych {un ; n = 1, 2, ..., N0 } takiego, że M > N0 ≥ m = dim c ˛ wyestymować odpowiai ΦN0 = (φ(u1 ), φ(u2 ), ..., φ(uN0 ))T jest pełnego rzedu, dajace ˛ interakcje {wn = µ(un ); n = 1, 2, ..., N0 } jako bM (un ) − R bM (0), w bn,M = R (6.11) bM (u) jest nieparametrycznym estymatorem funkcji regresji R(u), gdzie R 0 wyliczonym dla u ∈ {0, un ; n = 1, 2, ..., N0 }. Punkty estymacji {un }N n=1 moga˛ być punktami pomiarowymi, albo punktami z góry ustalonymi (brak formalnej różnicy). Etap 2 (parametryczny): Wyznaczyć estymator wektora parametrów c jako (por. (6.8)) ¢−1 T ¡ cN0 ,M , ΦN0 W b cN0 ,M = ΦTN0 ΦN0 (6.12) cN0 ,M = (w gdzie ΦN0 i W b1,M , w b2,M , ..., w bN0 ,M )T pochodza˛ z Etapu 1. Uwaga 1 Wymaganie, aby rankΦN0 = m = dim c może zosta´c spełnione ponieważ f1 (u), ..., fm (u) sa˛ liniowo niezależne, za´s punkty estymacji un w Etapie 1 moga˛ zosta´c ustalone w dowolny sposób. Warunek jest automatycznie spełniony, gdy N0 ≥ m, u1 , u2, ..., uN0 sa˛ różne, oraz f1 (u), ..., fm (u) w (6.4) sa˛ układem Czebyszewa (tzn. spełniaja˛ warunek Haara). Przykładami moga˛ być {1, u, u2 , ..., um−1 }, {1, sin u, sin 2u, ..., sin(m−1)u} (na przedziale [0, 2π]) lub {eλ1 u , eλ2 u , ..., eλm u } [5]. W artykule [16] udowodniono nastepuj ˛ ace ˛ twierdzenia. bM (u) → Twierdzenie 1 Je´sli dla u ∈ {0, un ; n = 1, 2, ..., N0 } zachodzi zbieżno´s´c R R(u) według pradopodobieństwa, gdy M → ∞ (Etap 1) to b cN0 ,M → c według prawdopodobieństwa, gdy M → ∞ (Etap 2). ¯ ¯ ¯ ¯b −τ ) wedłud prawdoTwierdzenie 2 Je´sli w Etapie 1 ¯R M (u) − R(u)¯ = O(M podobieństwa, gdy M → ∞ dla każdego u ∈ {0, un ; n = 1, 2, ..., N0 } to także kb cN0 ,M − ck = O(M −τ ) według prawdopodobieństwa, gdy M → ∞. 6.4 Estymacja parametrów liniowego obiektu dynamicznego typu FIR W niniejszym punkcie rozpatruje sie˛ przypadek szczególny, z obiektem dynamicznym typu MA (ruchoma średnia). 106 G. Mzyk Założenie 7 (lokalne) Liniowy obiekt dynamiczny ma skończona˛ odpowied´z impulsowa˛ (tzn. γ i = 0 dla i > s) vk = s X γ i wk−i , (6.13) i=0 o znanym rzedzie ˛ s, i nieznanych elementach {γ i }si=0 . Na podstawie (6.13) otrzymujemy yk = ϑTk γ +zk , gdzie γ = (γ 0 , γ 1 , ..., γ s )T , ˛ ΘN = (ϑ1+s , ϑ2+s , ..., ϑN+s )T , YN = oraz ϑk = (wk , wk−1 , ..., wk−s )T . Oznaczajac T (y1+s , y2+s , ..., yN+s ) , and ZN = (z1+s , z2+s , ..., zN+s )T otrzymujemy YN = ΘN γ + ZN (6.14) i postać estymatora najmniejszych kwadratów wektora γ, γ N = (ΘTN ΘN )−1 ΘTN YN . b (6.15) b TN,M Θ b N,M )−1 Θ b TN,M YN , γ bN,M = (Θ (6.16) Wobec (6.15) proponujemy analogiczna˛ procedure˛ identyfikacji γ. M Etap 1 (nieparametryczny): Na podstawie par pomiarów {(uk , yk )}k=1 (M − s > N ≥ s + 1 = dim γ), wyestymować elementy {wt−r ; t = n + s; n = 1, 2, . ˛ tzn. ŵt−r,M = .., N ; r = 0, 1, ..., s} macierzy ΘN metoda˛ nieparametryczna, bM (ut−r ) − R bM (0) gdzie {ut−r } sa˛ wejściami odpowiadajacymi R ˛ wyjściom b {yt }N+s zawartymi w Y (patrz (6.14)) zas R (u) jest nieparametryczN M t=1+s nym estymatorem funkcji regresji R(u) wyliczonym dla u ∈ {0, ut−r ; t = n+s; n = 1, 2, ..., N ; r = 0, 1, ..., s} (por. (6.9), (6.10), (6.11)). Etap 2 (parametryczny): Wyliczyć (por. (6.15)) b1+s,M , ϑ b2+s,M , ..., ϑ bN+s,M )T , ϑ bt,M = (w b N,M = (ϑ bt,M , w bt−1,M , ..., w bt−s,M )T , gdzie Θ a YN zawiera zakłócone wartości wyjścia. Uwaga 2 Ponieważ ’dane wej´sciowe’ sa˛ obarczone błedem ˛ estymacji, w bt−r,M´ = ³ b wt−r +ς t−r,M (patrz punkt 6.3), problem estymacji γ na podstawie ΘN,M , YN jest problemem klasy ’errors-in-variables’. Zachodza˛ nastepuj ˛ ace ˛ twierdzenia (Dowody — patrz [16]). Twierdzenie 3 Je´sli dla u ∈ {0, ut−r ; t = n +s; n = 1, 2, ..., N ; r = 0, 1, ..., s} estybM (u) jest ograniczony bład mator R ˛ estymacji nieparametrycznej w Etapie 1 zachowuje sie˛ asymptotycznie jak ¯ ¯ ¯ ¯b (6.17) ¯RM (u) − R(u)¯ = O(M −τ ) według prawdopodobieństwa, to γ bN,M → γ według prawdopodobieństwa w Etapie 2 pod warunkiem, że N, M → ∞ oraz N M −τ → 0. 6. Nieparametryczne metody identyfikacji przy różnym stopniu informacji... 107 Twierdzenie 4 Dla M ∼ N (1+α)/τ rzad ˛ szybko´sci ° , α > °0, asymptotyczny zbieżno´sci w Etapie 2 wynosi °b γ N,M − γ ° = O(N − min(1/2,α) ) według prawdopodobieństwa. 6.5 Estymacja parametrów liniowego obiektu dynamicznego typu IIR W punkcie rozpatruje sie˛ przypadek, z obiektem dynamicznym o nieskończonej odpowiedzi impulsowej, typu ARMA (Rys. 6.2). εk Ω (q −1 ) uk µ( ) wk α (q −1 ) β (q −1 ) β (q −1 ) ξk xk yk Rysunek 6.2: System Hammersteina z elementem liniowym typu ARM A. Założenie 8 (lokalne) Liniowy obiekt dynamiczny jest typu ARMA(s,p) tzn. opisuje go nastepuj ˛ ace ˛ równanie różnicowe xk = α0 wk + ... + αs wk−s + β 1 xk−1 + .... + β p xk−p . Ponieważ xk = yk − ξ k , to yk = ϑTk θ + zk , (6.18) gdzie θ = (α0 , α1 , ..., αs , β 1 , β 2 , ..., β p )T jest wektorem nieznanych parametrów (p > s), ϑk = (wk , wk−1 , ..., wk−s , yk−1 , yk−2 , ..., yk−p )T , zaś zakłócenie zk = ξ k − −1 ) β 1 ξ k−1 − ... − β p ξ k−p można przedstawić w postaci (6.6), przy ξ k = Ω(q β(q−1 ) εk , P ∞ Ω(q −1 ) = i=0 ω i q −i i β(q −1 ) = 1 − β 1 q −1 − ... − β p q −p (tzn. ξ k jest liniowym procesem ergodycznym o zerowej wartości oczekiwanej). Dla N pomiarów {(ϑk , yk )} mamy YN = ΘN θ + ZN , gdzie YN = (y1 , y2 , ..., yN )T , ΘN = (ϑ1 , ϑ2 , ..., ϑN )T , ZN = (z1 , z2 , ..., zN )T . Zau˛ innymi regresory yk−1 , yk−2 , ..., yk−p , ważmy, że macierz ΘN zawiera miedzy które powoduja˛ asymptotyczne obciażenie ˛ estymatora najmniejszych kwadratów postaci (LS) b θN = (ΘTN ΘN )−1 ΘTN YN 108 G. Mzyk przy skorelowanym zakłóceniu (patrz Założenie 4). Najpopularniejszym i najbardziej uniwersalnym sposobem pokonania tej trudności jest zastosowanie estymatora metoda˛ zmiennych instrumentalnych [34] (IV ) b θ N = (ΨTN ΘN )−1 ΨTN YN , gdzie ΨN jest macierza˛ instrumentów ΨN = (ψ 1 , ψ2 , ..., ψN )T , ψk = (ψk,1 , ψ k,2 , ..., ψk,s+p+1 )T , dla której postulujemy spełnienie ¡ ¢ dwóch warunków ˛ (a) granica P ¡limN→∞¢ ΨTN ΘN istnieje i jest macierza˛ nieosobliwa; (b) P limN→∞ ΨTN ZN = 0. Przy spełnionych warunkach (a) i (b) bład ˛ estymacji µ ¶−1 µ ¶ (IV ) 1 T 1 T (IV ) b Ψ ΦN Ψ ZN ∆N = θN − θ = (6.19) N N N N zbiega do zera według prawdopodobieństwa, gdy N → ∞ ([34], [36], [39]). Zatem elementy ΨN powinny być koniecznie zależne od uogólnionych wejść i jednocześnie niezależne od zakłóceń. Standardowe metody generacji ΨN w identyfikacji liniowych obiektów dynamicznych opieraja˛ sie˛ na przesunie˛ ciach procesu pobudzajacego ˛ [36], np. (std) ψk = (wk , ..., wk−s , wk−s−1 , ..., wk−s−p )T . Ponieważ wk , ..., wk−s−p sa˛ nieznane, proponuje sie˛ estymator hybrydowy gdzie b N,M Θ b N,M Ψ (IV ) b b TN,M Θ b N,M )−1 Ψ b TN,M YN , θ N,M = (Ψ (6.20) b1,M , ..., ϑ bN,M )T , ϑ bk,M = (w = (ϑ bk,M , ..., w bk−s,M , yk−1 , ..., yk−p )T , b 1,M , ..., ψ b N,M )T , ψ b k,M = (w = (ψ bk,M , ..., w bk−s,M , w bk−s−1,M , ..., w bk−s−p,M )T , ˛ a odpowiednie w bk−r,M wyliczane sa˛ w oparciu o metode˛ nieparametryczna. Zachodza˛ nastepuj ˛ ace ˛ twierdzenia (Dowody — patrz [17]). Twierdzenie 5 Załóżmy, że warunki (a) i (b) sa˛ spełnione. Niech w punktach u = 0 oraz uk−r (takich, że wk−r = µ(uk−r ) dla k = 1, 2, ..., N i r = 0, 1, ..., s + p; patrz (6.11)) oraz asymptotyczny bład ˛ estymacji nieperame¯ ¯ ¯ ¯b trycznej ma własno´s´c ¯RM (uk−r ) − R(uk−r )¯ = O(M −τ ) według prawdopodobieństwa, to (IV ) b θN,M → θ według prawdopodobieństwa gdy N, M → ∞, pod warunkiem, że N M −τ → 0. 6. Nieparametryczne metody identyfikacji przy różnym stopniu informacji... 109 Twierdzenie 6 Dla M ∼ N (1+α)/τ , α > 0, asymptotyczny rzad ˛ szybko´sci zbieżno´sci wynosi ° ° ° ° (IV ) − min( 12 ,α) ° °b ) według prawdopodobieństwa. °θ N,M − θ° = O(N Twierdzenie 7 Wska´znik jako´sci zmiennych instrumentalnych °2 ° ° ° (IV ) Q (ΨN ) , max °∆N (ΨN )° ∗ 2 kZN k2 ≤1 osiaga ˛ swoje dolne ograniczenie dla Ψ∗N = (ψ∗1 , ψ∗2 , ..., ψ∗N )T , ψ∗k = (wk , wk−1 , ..., wk−s , xk−1 , xk−2 , ..., xk−p )T , gdzie xk−1 , xk−2 , ..., xk−p sa˛ wyj´sciami systemu wolnymi od zakłóceń (patrz Rys. 6.2), tzn. dla wszystkich dopuszczalnych ΨN zachodzi lim Q(Ψ∗N ) 6 lim Q(ΨN ) N→∞ 6.6 N→∞ z prawdopodobieństwem 1. Przykład W Etapie 1 może zostać użyty estymator jadrowy ˛ postaci [10], [11] PM u−uk k=1 yk K( h(M) ) b RM (u) = PM , (6.21) u−uk k=1 K( h(M) ) gdzie K(u) jest funkcja˛ jadrow ˛ a, ˛ a h(M ) tzw. parametrem wygładzania. Standarowymi przykładami moga˛ być K(u) = I[−0.5,0.5] (u), (1 − |u|)I[−1,1] (u) √ 2 lub (1/ 2π)e−u /2 oraz h(M ) = const · M −α ze stała˛ 0 < α < 1. W świetle rebM (u) → R(u) zultatów pracy [37] dla wymienionych przykładów zachodzi R według prawdopodobieństwa, gdy M → ∞, a zbieżność ma miejsce we wszystkich punktach u ∈ Cont(µ, ν), ciagłości ˛ µ(u) i funkcji gestości ˛ prawdopodobieństwa wejścia ν(u) (której istnienie zakładamy), takich że ν(u) > 0. √ 2 Stosujac ˛ w szczególności jadro ˛ Gaussa K(u) = (1/ 2π)e−u /2 oraz przyjmujac ˛ h(M ) ∼ M −1/5 (zgodnie z rekomendacja˛ w [11]) otrzymuje sie˛ szybkość bM (u) − R(u)| = O(M −2/5 ) według prawdopodobieństwa, a zbieżności rzedu ˛ |R zatem ||b cN0 ,M −c|| = O(M −2/5 ) według prawdopodobieństwa (τ = 2/5) w Etapie 2, pod warunkiem że µ(u) i ν(u) sa˛ w punktach u ∈ {0, un ; n = 1, 2, ..., N0 } przynajmniej dwukrotnie różniczkowalne oraz ν(u) > 0. Analogicznie dla cześci ˛ dynamicznej otrzymujemy zbieżność γ bN,M → γ według prawdopodobieństwa dla N, M → ∞ na Etapie 2, pod warunkiem, że M ∼ N 5(1+α)/2 , α > 0. Dla α = 1/2 asymtotyczny rzad ˛ szybkości zbieżności ze wzgledu ˛ na N ma postać ||b γ N,M − γ|| = O(N −1/2 ) według prawdopodobieństwa. 110 G. Mzyk Literatura [1] E. W. Bai, “An optimal two-stage identification algorithm for Hammerstein-Wiener nonlinear systems,” Automatica, vol. 34, no. 3, pp. 333—338, 1998. [2] E. W. Bai, “Frequency domain identification of Hammerstein models,” IEEE Transactions on Automatic Control, vol. 48, no. 4, pp. 530—542, 2003. [3] E. W. Bai, “Frequency domain identification of Wiener models,” Automatica, vol. 39, pp. 1521—1530, 2003. [4] S. A. Billings, S. Y. Fakhouri, “Identification of systems containing linear dynamic and static nonlinear elements,” Automatica, vol. 18, no. 1, pp. 15—26, 1982. [5] E. W. Cheney, Introduction to Approximation Theory, AMS Chelsea Publishing, Rhode Island, 1982. [6] J. A. Cristobal, P. F. Roca, W. G. Manteiga, “A class of linear regression parameter estimators constructed by nonparametric estimation,” The Annals of Statistics, vol. 15, no. 2, pp. 603—609, 1987. [7] S. Efromovich, York, 1999. Nonparametric Curve Estimation, Springer, New [8] B. Finigan, I. Rowe, ”Strongly consistent parameter estimation by the introduction of strong instrumental variables”, IEEE Transactions on Automatic Control, vol.19, pp. 825-830, 1974. [9] W. Greblicki, “Nonparametric orthogonal series identification of Hammerstein systems,” International Journal of System Science, vol. 20, pp. 2355—2367, 1989. [10] W. Greblicki, M. Pawlak, “Identification of discrete Hammerstein systems using kernel regression estimates,” IEEE Transactions on Automatic Control, vol. 31, pp. 74—77, 1986. [11] W. Greblicki, M. Pawlak, “Cascade non-linear system identification by a non-parametric method,” International Journal of System Science, vol. 25, pp. 129—153, 1994. [12] R. Haber, L. Keviczky, Nonlinear System Identification: InputOutput Modeling Approach, Kluwer Academic Publishers, 1999. [13] N. D. Haist, F. H. Chang, R. Luus, “Nonlinear identification in the presence of correlated noise using Hammerstein model,” IEEE Transactions on Automatic Control, vol. 18, pp. 552—555, 1973. 6. Nieparametryczne metody identyfikacji przy różnym stopniu informacji... 111 [14] Z. Hasiewicz, G. Mzyk, ”Parametryczno-nieparametryczna identyfikacja systemów nieliniowych o strukturze blokowej”, XIV Krajowa Konferencja Automatyki, Zielona Góra, 2002. [15] Z. Hasiewicz, G. Mzyk, ”Two-stage identification of Hammerstein systems”, Proceedings of the 9th IEEE International Conference MMAR, Miedzyzdroje ˛ 2003. [16] Z. Hasiewicz, G. Mzyk, ”Combined parametric-nonparametric identification of Hammerstein systems”, IEEE Transactions on Automatic Control, vol. 49, pp. 1370-1376, 2004. [17] Z. Hasiewicz, G. Mzyk, ”Nonparametric instrumental variables for Hammerstein system identification”, submitted for publication in the IEEE Transactions on Automatic Control. [18] Z. Hasiewicz, M. Pawlak, P. Śliwiński, “Nonparametric identification of nonlinearities in block-oriented systems by orthogonal wavelets with compact support,” submitted to the IEEE Transactions on Circuits and Systems. [19] W. Härdle, Applied Nonparametric Regression, Cambridge University Press, Cambridge, 1990. [20] G. Mzyk, ”Zastosowanie metody zmiennej pomocniczej do identyfikacji systemów o złożonej strukturze”, XIII Krajowa Konferencja Automatyki, Opole, 1999. [21] G. Mzyk, ”Application of instrumental variable method to the identification of Hammerstein-Wiener systems”, Proceedings of the 6th International Conference MMAR 2000, Miedzyzdroje, ˛ 2000. [22] G. Mzyk, ”Hammerstein system identification by a semi-parametric method”, Proceedings of the ICSES’2000, Ustroń, 2000. [23] G. Mzyk, ”Zastosowanie metody zmiennych instrumentalnych do identyfikacji systemów Hammersteina-Wienera”, Pomiary Automatyka Kontrola, Nr 7/8, str. 35-40, 2001. [24] G. Mzyk, ”Identification of nonlinear systems with correlated input”, Proceedings of the 7th IEEE International Conference MMAR 2001, Miedzyzdroje, ˛ 2001. [25] G. Mzyk, ”Kernel-based instrumental variables for NARMAX system identification”, Proceedings of the ICSES’2001, Łódź, 2001. [26] G. Mzyk, ”Instrumental variables in Wiener system identification”, Proceedings of the 8th IEEE International Conference MMAR 2002, Szczecin, 2002. 112 G. Mzyk [27] G. Mzyk, ”Kernel-based instrumental variables for nonlinear systems identification”, Proceedings of the 9th IEEE International Conference MMAR 2003, Miedzyzdroje, ˛ 2003. [28] G. Mzyk, ”Application of empirical median for nonlinear systems identification”, Proceedings of the 9th IEEE International Conference MMAR 2003, Miedzyzdroje, ˛ 2003. [29] G. Mzyk, ”Kernel instrumental variables for Hammerstein system identification”, Proceedings of the 9th IEEE International Conference MMAR 2004, Miedzyzdroje, ˛ 2004. [30] G. Mzyk, ”Nonparametric identification of Wiener systems - a median based approach”, Proceedings of the 10th IEEE International Conference MMAR 2004, Miedzyzdroje, ˛ 2004. [31] K. S. Narendra, P. G. Gallman, “An iterative method for the identification of nonlinear systems using the Hammerstein model,” IEEE Transactions on Automatic Control, vol. 11, pp. 546—550, 1966. [32] D. Picard, A. Tsybakov, W. Härdle, G. Kerkyacharian, Wavelets, Approximation, and Statistical Applications, Springer, New York, 1998. [33] T. Söderström, P. Stoica, ”Instrumental-variable methods for identification of Hammerstein system”, International Journal of Control, vol. 35, No. 3, pp. 459-476, 1982. [34] T. Söderström, P. Stoica, System Identification, NJ: Prentice Hall, Englewood Cliffs, 1989. [35] P. Stoica, T. Söderström, ”Comments on the Wong and Polak minimax approach to accuracy optimization of instrumental variable methods”, IEEE Transactions on Automatic Control, vol. 27, pp. 11381139, 1982. [36] P. Stoica, T. Söderström, ”Instrumental variable methods for system identification”, Circuits Systems Signal Processing, vol. 21, No. 1, pp. 1-9, 2002. [37] M. P. Wand, H. C. Jones, Kernel Smoothing, Chapman and Hall, London, 1995. [38] R. Ward, ”Notes on the instrumental variable method”, IEEE Transactions on Automatic Control, vol. 22, pp. 482-484, 1977. [39] K. Wong, E. Polak, ”Identification of linear discrete time systems using the instrumental variable method”, IEEE Transactions on Automatic Control, vol. AC-12, No. 6, pp. 707-718, 1967.