Nieparametryczne metody identyfikacji przy rócznym stopniu

Transkrypt

Nieparametryczne metody identyfikacji przy rócznym stopniu
Rozdział 6
Nieparametryczne metody identyfikacji
przy różnym stopniu informacji wstepnej
˛
G. Mzyk
W pracy proponuje sie˛ dwuetapowa,
˛ parametryczno-nieparametryczna˛
metodologie˛ identyfikacji systemów nieliniowych, przy wystepowaniu
˛
losowych sygnałów wejściowych i zakłócajacych.
˛
Bada sie˛ najpopularniejszy
system blokowo-zorientowany — o strukturze Hammersteina. W etapie 1,
nie wymagajacym
˛
wiedzy wstepnej,
˛
estymuje sie˛ wartości niedostepnego
˛
dla pomiaru sygnału wewnetrzego
˛
stosujac
˛ nieparametryczny estymator
funkcji regresji. W etapie 2, w zależności od stopnia wiedzy wstepnej,
˛
estymuje sie˛ parametry nieliniowej charakterystyki podsystemu statycznego oraz liniowego obiektu dynamicznego typu FIR lub IIR stosujac
˛ zmodyfikowana˛ metode˛ najmniejszych kwadratów, lub zmiennych instrumentalnych. Parametry podsystemu statycznego i dynamicznego sa˛ identyfikowane całkowicie niezależnie. Udowodniono zbieżność zaproponowanych
estymatorów do prawdziwych wartości parametrów systemu, a także wyznaczono ich szybkość zbieżności.
6.1
Wprowadzenie
Metody stosowane do identyfikacji systemów Hammersteina (Rys. 6.1)
można podzielić na dwie kategorie: parametryczne i nieparametryczne.
Pierwsze z nich bazuja˛ na wstepnej
˛
znajomości opisów komponentów z
dokładnościa˛ do skończonej liczby nieznanych parametrów (np. wielomianowa postać charakterystyki µ(u); patrz [12]). Metody nieparametryczne
nie nakładaja˛ natomiast żadnych wymagań na strukture˛ opisu podsystemów (np. [9], [10]). Badania pokazuja˛ ([15]-[16], [20]-[30]), że pewne zalety
może mieć podejście hybrydowe. W pierwszym (wspólnym dla obu podsystemów) etapie identyfikacji przyjmuje sie˛ uboga˛ wiedze˛ wstepn
˛ a˛ (patrz
punkt 6.2.2). Zakłada sie˛ jedynie, że nieznana charakterystyka µ(u) jest
funkcja˛ borelowska˛ oraz że liniowy obiekt dynamiczny jest asymptotycznie
101
102
G. Mzyk
zk
uk
µ(
)
wk
{ γ i }i =0
∞
vk
yk
Rysunek 6.1: System Hammersteina.
stabilny. Stosujac
˛ nieparametryczne techniki estymacji funkcji regresji na
˛
sygnał {wk }.
podstawie par pomiarów (uk , yk ) identyfikuje sie˛ niedostepny
W etapach 2, parametrycznych (osobnych dla poszczególnych podsystemów) wymaga sie˛ wiedzy o postaci analitycznej charakterystyki µ(u), lub
o formie równania różnicowego opisujacego
˛
filtr liniowy. Parametry charakterystyki nieliniowej bloku statycznego i parametry liniowego obiektu
dynamicznego estymuje sie˛ niezależnie metoda˛ najmniejszych kwadratów
bk ) i odpowiednio
lub zmiennych instrumentalnych na podstawie par (uk , w
bk } jest estymatorem nieparametrycznym sekwencji {wk }.
(w
bk , yk ), gdzie {w
Proponowane podejście ma nastepuj
˛
ace
˛ zalety: 1) otrzymuje sie˛ opis obydwu podsystemów w postaci zamknietych
˛
wzorów, 2) procedura identyfikacji nie jest iteracyjna, 3) nie wymaga sie˛ wielomianowej postaci charakterystyki µ(u), 4) algorytm pracuje z powodzeniem przy skorelowanych
zakłóceniach na wyjściu bez konieczności modelowania ich struktury korelacyjnej, 5) każdy z podsystemów jest identyfikowany niezależnie od drugiego, co czyni algorytm odpornym na przyjecie
˛
błednej
˛
informacji wstep˛
nej o drugim podsystemie, 6) udowodniono fakt zbieżności i określono rzad
˛
jej szybkości. Zainteresowanych pełnym omówieniem zagadnienia oraz reprezentatywnymi przykładami odsyłamy do prac [1], [4], [12], [13] i [31].
6.2
6.2.1
Sformułowanie problemu
Badany system
Przedmiotem identyfikacji jest system Hammersteina pokazany na Rys.
6.1, gdzie uk , yk i zk oznaczaja˛ odpowiednio wartość wejścia, wyjścia i
˛
zakłócenia w chwili k, zaś wk jest wejściem interakcyjnym, niedostepnym
dla pomiarów (patrz dyskusja w [4]).
6.2.2
Założenia ogólne
Założenia 1-5 prezentowane poniżej obowiazuj
˛ a˛ w całej pracy i sa˛ wspólne
dla procedur identyfikacji obiektu statycznego i dynamicznego.
6. Nieparametryczne metody identyfikacji przy różnym stopniu informacji...
103
Założenie 1 Charakterystyka µ(u) jest funkcja˛ borelowska˛ i spełania warunek
|µ(u)| 6 p1 + p2 |u| ,
(6.1)
gdzie p1 i p2 sa˛ pewnymi dodatnimi stałymi ([9]).
Założenie 2 Liniowy obiekt dynamiczny
vk =
∞
X
γ i wk−i
(6.2)
i=0
jest asymptotycznie stabilny, tzn.
impulsowej {γ i }∞
i=0 .
P∞
i=0 |γ i |
< ∞, o nieznanej odpowiedzi
Założenie 3 Sygnał wej´sciowy {uk } jest ograniczonym procesem losowym
typu i.i.d.; |uk | < umax , dla pewnego nieznanego umax > 0.
Założenie 4 Zakłócenie {zk } jest losowym procesem kolorowym generowanym przez liniowy,Pasymptotycznie stabilny filtr o nieznanej odpowiedzi
∞
∞
imulsowej {ωi }i=0 ( i=0 |ω i | < ∞)
zk =
∞
X
ωi εk−i
(6.3)
i=0
na podstawie białego szumu {εk } o zerowej warto´sci oczekiwanej (Eεk = 0,
{uk }. Proces {zk } jest zatem
|εk | < εmax < ∞), niezależnego od wej´scia
P∞
ograniczony (|zk | 6 zmax , gdzie zmax = εmax i=0 |ωi |) oraz Ezk = 0.
Założenie 5 (techniczne) µ(u0 ) jest znane w pewnym punkcie u0 oraz γ 0 = 1.
Techniczne znaczenie Założenia 5 zostało szczegółowo wyjaśnione w artykule [16]. Bez utraty ogólności można przyjać
˛ u0 = 0 i µ(0) = 0.
Założenia dodatkowe 6, 7 i 8 dotyczace
˛ wiedzy parametrycznej o podsystemach obowiazuj
˛ a˛ lokalnie w punktach 6.3, 6.4 i 6.5.
6.3
Estymacja parametrów charakterystyki nieliniowej
Założenie 6 (lokalne) Funkcja µ(u) jest znana z dokładno´scia˛ do skończonej
liczby parametrów c1 , ..., cm i ma posta´c
µ(u) =
m
X
l=1
cl fl (u),
(6.4)
104
G. Mzyk
gdzie f1 (u), ..., fm (u) sa˛ zbiorem liniowo niezależnych funkcji bazowych, takich że
|fl (u)| 6 pmax ; l = 1, 2, ..., m
(6.5)
dla pewnego pmax > 0 oraz u z zakresu |u| ≤ umax (patrz Założenie 3).
Dla badanego systemu otrzymujemy
yk =
∞
X
γ i µ (uk−i ) + zk ,
zk =
i=0
∞
X
wk = µ (uk ) = φT (uk ) c (6.6)
ω i εk−i ,
i=0
gdzie c = (c1 , c2 , ..., cm )T jest wektorem nieznanych parametrów, a φ (uk ) =
(f1 (uk ), f2 (uk ), ..., fm (uk ))T ”uogólnionym wektorem wejść”. Oznaczmy
WN0 = (w1 , w2 , ..., wN0 )T ,
ΦN0 = (φ(u1 ), φ(u2 ), ..., φ(uN0 ))T .
(6.7)
˛
macierzy ΦN0 otrzyOczywiście zachodzi WN0 = ΦN0 c. Przy pełnym rzedzie
mujemy wzór na poszukiwany wektor parametrów c,
¢−1 T
¡
c = ΦTN0 ΦN0
ΦN0 WN0 ,
(6.8)
¢−1 T
¡
ΦN0 jest uogólniona˛ odwrotnościa˛ ΦN0 . Warunkiem kogdzie ΦTN0 ΦN0
˛
niecznym nieosobliwości ΦN0 jest, aby N0 ≥ dim c. W świetle przyjetych
˛ w skład macierzy WN0 nie moga˛ zostać
założeń interakcje wk wchodzace
zmierzone. Jednakże możliwe jest wykorzystanie wzoru (6.8) przez uprzecN0 madnia˛ nieparametryczna˛ estymacje˛ wk dla usyskania przybliżenia W
c
cierzy WN0 , a nastepnie
˛
wstawienie WN0 do wzoru (6.8) w miejsce WN0 .
Idea ta jest oparta na nastepuj
˛
acej
˛
obserwacji. Zapisujac
˛ (6.6) w postaci
yk = µ(uk ) +
∞
X
i=1
γ i µ (uk−i ) +
∞
X
ω i εk−i
i=0
i definiujac
˛ funkcje˛ regresji
(6.9)
R(u) = E{yk | uk = u},
P∞
otrzymujemy R(u) = µ(u) + Eµ (u1 )P i=1 γ i . Skorzystanie z Założenia 5 prowadzi do własności R(0) = Eµ (u1 ) ∞
i=1 γ i oraz
µ(u) = R(u) − R(0).
(6.10)
˛
z (6.10) sugeruje estymacje˛ wk
Ponieważ wk = µ(uk ), równanie (6.9) łacznie
metoda˛ nieparametryczna.
˛ Proponuje sie˛ nastepuj
˛
acy
˛ dwuetapowy algorytm identyfikacji wektora parametrów c:
6. Nieparametryczne metody identyfikacji przy różnym stopniu informacji...
105
Etap 1 (nieparametryczny): Na podstawie pomiarów {(uk , yk )}M
k=1 , dla zbioru punktów wejściowych {un ; n = 1, 2, ..., N0 } takiego, że M > N0 ≥ m = dim c
˛
wyestymować odpowiai ΦN0 = (φ(u1 ), φ(u2 ), ..., φ(uN0 ))T jest pełnego rzedu,
dajace
˛ interakcje {wn = µ(un ); n = 1, 2, ..., N0 } jako
bM (un ) − R
bM (0),
w
bn,M = R
(6.11)
bM (u) jest nieparametrycznym estymatorem funkcji regresji R(u),
gdzie R
0
wyliczonym dla u ∈ {0, un ; n = 1, 2, ..., N0 }. Punkty estymacji {un }N
n=1 moga˛
być punktami pomiarowymi, albo punktami z góry ustalonymi (brak formalnej różnicy).
Etap 2 (parametryczny): Wyznaczyć estymator wektora parametrów c
jako (por. (6.8))
¢−1 T
¡
cN0 ,M ,
ΦN0 W
b
cN0 ,M = ΦTN0 ΦN0
(6.12)
cN0 ,M = (w
gdzie ΦN0 i W
b1,M , w
b2,M , ..., w
bN0 ,M )T pochodza˛ z Etapu 1.
Uwaga 1 Wymaganie, aby rankΦN0 = m = dim c może zosta´c spełnione ponieważ f1 (u), ..., fm (u) sa˛ liniowo niezależne, za´s punkty estymacji un w
Etapie 1 moga˛ zosta´c ustalone w dowolny sposób. Warunek jest automatycznie spełniony, gdy N0 ≥ m, u1 , u2, ..., uN0 sa˛ różne, oraz f1 (u), ..., fm (u) w
(6.4) sa˛ układem Czebyszewa (tzn. spełniaja˛ warunek Haara). Przykładami moga˛ być {1, u, u2 , ..., um−1 }, {1, sin u, sin 2u, ..., sin(m−1)u} (na przedziale
[0, 2π]) lub {eλ1 u , eλ2 u , ..., eλm u } [5].
W artykule [16] udowodniono nastepuj
˛
ace
˛ twierdzenia.
bM (u) →
Twierdzenie 1 Je´sli dla u ∈ {0, un ; n = 1, 2, ..., N0 } zachodzi zbieżno´s´c R
R(u) według pradopodobieństwa, gdy M → ∞ (Etap 1) to b
cN0 ,M → c według
prawdopodobieństwa, gdy M → ∞ (Etap 2).
¯
¯
¯
¯b
−τ
) wedłud prawdoTwierdzenie 2 Je´sli w Etapie 1 ¯R
M (u) − R(u)¯ = O(M
podobieństwa, gdy M → ∞ dla każdego u ∈ {0, un ; n = 1, 2, ..., N0 } to także
kb
cN0 ,M − ck = O(M −τ ) według prawdopodobieństwa, gdy M → ∞.
6.4
Estymacja parametrów liniowego obiektu dynamicznego typu FIR
W niniejszym punkcie rozpatruje sie˛ przypadek szczególny, z obiektem
dynamicznym typu MA (ruchoma średnia).
106
G. Mzyk
Założenie 7 (lokalne) Liniowy obiekt dynamiczny ma skończona˛ odpowied´z
impulsowa˛ (tzn. γ i = 0 dla i > s)
vk =
s
X
γ i wk−i ,
(6.13)
i=0
o znanym rzedzie
˛
s, i nieznanych elementach {γ i }si=0 .
Na podstawie (6.13) otrzymujemy yk = ϑTk γ +zk , gdzie γ = (γ 0 , γ 1 , ..., γ s )T ,
˛ ΘN = (ϑ1+s , ϑ2+s , ..., ϑN+s )T , YN =
oraz ϑk = (wk , wk−1 , ..., wk−s )T . Oznaczajac
T
(y1+s , y2+s , ..., yN+s ) , and ZN = (z1+s , z2+s , ..., zN+s )T otrzymujemy
YN = ΘN γ + ZN
(6.14)
i postać estymatora najmniejszych kwadratów wektora γ,
γ N = (ΘTN ΘN )−1 ΘTN YN .
b
(6.15)
b TN,M Θ
b N,M )−1 Θ
b TN,M YN ,
γ
bN,M = (Θ
(6.16)
Wobec (6.15) proponujemy analogiczna˛ procedure˛ identyfikacji γ.
M
Etap 1 (nieparametryczny): Na podstawie par pomiarów {(uk , yk )}k=1 (M −
s > N ≥ s + 1 = dim γ), wyestymować elementy {wt−r ; t = n + s; n = 1, 2, .
˛ tzn. ŵt−r,M =
.., N ; r = 0, 1, ..., s} macierzy ΘN metoda˛ nieparametryczna,
bM (ut−r ) − R
bM (0) gdzie {ut−r } sa˛ wejściami odpowiadajacymi
R
˛
wyjściom
b
{yt }N+s
zawartymi
w
Y
(patrz
(6.14))
zas
R
(u)
jest
nieparametryczN
M
t=1+s
nym estymatorem funkcji regresji R(u) wyliczonym dla u ∈ {0, ut−r ; t = n+s;
n = 1, 2, ..., N ; r = 0, 1, ..., s} (por. (6.9), (6.10), (6.11)).
Etap 2 (parametryczny): Wyliczyć (por. (6.15))
b1+s,M , ϑ
b2+s,M , ..., ϑ
bN+s,M )T , ϑ
bt,M = (w
b N,M = (ϑ
bt,M , w
bt−1,M , ..., w
bt−s,M )T ,
gdzie Θ
a YN zawiera zakłócone wartości wyjścia.
Uwaga 2 Ponieważ ’dane wej´sciowe’ sa˛ obarczone błedem
˛
estymacji,
w
bt−r,M´ =
³
b
wt−r +ς t−r,M (patrz punkt 6.3), problem estymacji γ na podstawie ΘN,M , YN
jest problemem klasy ’errors-in-variables’.
Zachodza˛ nastepuj
˛
ace
˛ twierdzenia (Dowody — patrz [16]).
Twierdzenie 3 Je´sli dla u ∈ {0, ut−r ; t = n +s; n = 1, 2, ..., N ; r = 0, 1, ..., s} estybM (u) jest ograniczony bład
mator R
˛ estymacji nieparametrycznej w Etapie
1 zachowuje sie˛ asymptotycznie jak
¯
¯
¯
¯b
(6.17)
¯RM (u) − R(u)¯ = O(M −τ ) według prawdopodobieństwa,
to γ
bN,M → γ według prawdopodobieństwa w Etapie 2 pod warunkiem, że
N, M → ∞ oraz N M −τ → 0.
6. Nieparametryczne metody identyfikacji przy różnym stopniu informacji...
107
Twierdzenie 4 Dla M ∼ N (1+α)/τ
rzad
˛ szybko´sci
° , α > °0, asymptotyczny
zbieżno´sci w Etapie 2 wynosi °b
γ N,M − γ ° = O(N − min(1/2,α) ) według prawdopodobieństwa.
6.5
Estymacja parametrów liniowego obiektu dynamicznego typu IIR
W punkcie rozpatruje sie˛ przypadek, z obiektem dynamicznym o nieskończonej odpowiedzi impulsowej, typu ARMA (Rys. 6.2).
εk
Ω (q −1 )
uk
µ(
)
wk
α (q −1 )
β (q
−1
)
β (q −1 )
ξk
xk
yk
Rysunek 6.2: System Hammersteina z elementem liniowym typu ARM A.
Założenie 8 (lokalne) Liniowy obiekt dynamiczny jest typu ARMA(s,p)
tzn. opisuje go nastepuj
˛
ace
˛ równanie różnicowe
xk = α0 wk + ... + αs wk−s + β 1 xk−1 + .... + β p xk−p .
Ponieważ xk = yk − ξ k , to
yk = ϑTk θ + zk ,
(6.18)
gdzie θ = (α0 , α1 , ..., αs , β 1 , β 2 , ..., β p )T jest wektorem nieznanych parametrów
(p > s), ϑk = (wk , wk−1 , ..., wk−s , yk−1 , yk−2 , ..., yk−p )T , zaś zakłócenie zk = ξ k −
−1
)
β 1 ξ k−1 − ... − β p ξ k−p można przedstawić w postaci (6.6), przy ξ k = Ω(q
β(q−1 ) εk ,
P
∞
Ω(q −1 ) = i=0 ω i q −i i β(q −1 ) = 1 − β 1 q −1 − ... − β p q −p (tzn. ξ k jest liniowym
procesem ergodycznym o zerowej wartości oczekiwanej). Dla N pomiarów
{(ϑk , yk )} mamy
YN = ΘN θ + ZN ,
gdzie YN = (y1 , y2 , ..., yN )T , ΘN = (ϑ1 , ϑ2 , ..., ϑN )T , ZN = (z1 , z2 , ..., zN )T . Zau˛
innymi regresory yk−1 , yk−2 , ..., yk−p ,
ważmy, że macierz ΘN zawiera miedzy
które powoduja˛ asymptotyczne obciażenie
˛
estymatora najmniejszych kwadratów postaci
(LS)
b
θN = (ΘTN ΘN )−1 ΘTN YN
108
G. Mzyk
przy skorelowanym zakłóceniu (patrz Założenie 4). Najpopularniejszym i
najbardziej uniwersalnym sposobem pokonania tej trudności jest zastosowanie estymatora metoda˛ zmiennych instrumentalnych [34]
(IV )
b
θ N = (ΨTN ΘN )−1 ΨTN YN ,
gdzie ΨN jest macierza˛ instrumentów
ΨN = (ψ 1 , ψ2 , ..., ψN )T ,
ψk = (ψk,1 , ψ k,2 , ..., ψk,s+p+1 )T ,
dla której postulujemy spełnienie
¡
¢ dwóch warunków
˛
(a) granica P ¡limN→∞¢ ΨTN ΘN istnieje i jest macierza˛ nieosobliwa;
(b) P limN→∞ ΨTN ZN = 0.
Przy spełnionych warunkach (a) i (b) bład
˛ estymacji
µ
¶−1 µ
¶
(IV )
1 T
1 T
(IV )
b
Ψ ΦN
Ψ ZN
∆N = θN − θ =
(6.19)
N N
N N
zbiega do zera według prawdopodobieństwa, gdy N → ∞ ([34], [36], [39]).
Zatem elementy ΨN powinny być koniecznie zależne od uogólnionych wejść
i jednocześnie niezależne od zakłóceń. Standardowe metody generacji ΨN
w identyfikacji liniowych obiektów dynamicznych opieraja˛ sie˛ na przesunie˛
ciach procesu pobudzajacego
˛
[36], np.
(std)
ψk
= (wk , ..., wk−s , wk−s−1 , ..., wk−s−p )T .
Ponieważ wk , ..., wk−s−p sa˛ nieznane, proponuje sie˛ estymator hybrydowy
gdzie
b N,M
Θ
b N,M
Ψ
(IV )
b
b TN,M Θ
b N,M )−1 Ψ
b TN,M YN ,
θ N,M = (Ψ
(6.20)
b1,M , ..., ϑ
bN,M )T , ϑ
bk,M = (w
= (ϑ
bk,M , ..., w
bk−s,M , yk−1 , ..., yk−p )T ,
b 1,M , ..., ψ
b N,M )T , ψ
b k,M = (w
= (ψ
bk,M , ..., w
bk−s,M , w
bk−s−1,M , ..., w
bk−s−p,M )T ,
˛
a odpowiednie w
bk−r,M wyliczane sa˛ w oparciu o metode˛ nieparametryczna.
Zachodza˛ nastepuj
˛
ace
˛ twierdzenia (Dowody — patrz [17]).
Twierdzenie 5 Załóżmy, że warunki (a) i (b) sa˛ spełnione. Niech w punktach u = 0 oraz uk−r (takich, że wk−r = µ(uk−r ) dla k = 1, 2, ..., N i r =
0, 1, ..., s + p; patrz (6.11))
oraz asymptotyczny
bład
˛ estymacji nieperame¯
¯
¯
¯b
trycznej ma własno´s´c ¯RM (uk−r ) − R(uk−r )¯ = O(M −τ ) według prawdopodobieństwa, to
(IV )
b
θN,M → θ według prawdopodobieństwa
gdy N, M → ∞, pod warunkiem, że N M −τ → 0.
6. Nieparametryczne metody identyfikacji przy różnym stopniu informacji...
109
Twierdzenie 6 Dla M ∼ N (1+α)/τ , α > 0, asymptotyczny rzad
˛ szybko´sci zbieżno´sci wynosi
°
°
°
° (IV )
− min( 12 ,α)
°
°b
) według prawdopodobieństwa.
°θ N,M − θ° = O(N
Twierdzenie 7 Wska´znik jako´sci zmiennych instrumentalnych
°2
°
°
° (IV )
Q (ΨN ) , max °∆N (ΨN )°
∗
2
kZN k2 ≤1
osiaga
˛ swoje dolne ograniczenie dla
Ψ∗N = (ψ∗1 , ψ∗2 , ..., ψ∗N )T , ψ∗k = (wk , wk−1 , ..., wk−s , xk−1 , xk−2 , ..., xk−p )T ,
gdzie xk−1 , xk−2 , ..., xk−p sa˛ wyj´sciami systemu wolnymi od zakłóceń (patrz
Rys. 6.2), tzn. dla wszystkich dopuszczalnych ΨN zachodzi
lim Q(Ψ∗N ) 6 lim Q(ΨN )
N→∞
6.6
N→∞
z prawdopodobieństwem 1.
Przykład
W Etapie 1 może zostać użyty estymator jadrowy
˛
postaci [10], [11]
PM
u−uk
k=1 yk K( h(M) )
b
RM (u) = PM
,
(6.21)
u−uk
k=1 K( h(M) )
gdzie K(u) jest funkcja˛ jadrow
˛
a,
˛ a h(M ) tzw. parametrem wygładzania.
Standarowymi przykładami moga˛ być K(u) = I[−0.5,0.5] (u), (1 − |u|)I[−1,1] (u)
√
2
lub (1/ 2π)e−u /2 oraz h(M ) = const · M −α ze stała˛ 0 < α < 1. W świetle rebM (u) → R(u)
zultatów pracy [37] dla wymienionych przykładów zachodzi R
według prawdopodobieństwa, gdy M → ∞, a zbieżność ma miejsce we
wszystkich punktach u ∈ Cont(µ, ν), ciagłości
˛
µ(u) i funkcji gestości
˛
prawdopodobieństwa wejścia ν(u) (której istnienie zakładamy), takich że ν(u) > 0.
√
2
Stosujac
˛ w szczególności jadro
˛
Gaussa K(u) = (1/ 2π)e−u /2 oraz przyjmujac
˛ h(M ) ∼ M −1/5 (zgodnie z rekomendacja˛ w [11]) otrzymuje sie˛ szybkość
bM (u) − R(u)| = O(M −2/5 ) według prawdopodobieństwa, a
zbieżności rzedu
˛
|R
zatem ||b
cN0 ,M −c|| = O(M −2/5 ) według prawdopodobieństwa (τ = 2/5) w Etapie 2, pod warunkiem że µ(u) i ν(u) sa˛ w punktach u ∈ {0, un ; n = 1, 2, ..., N0 }
przynajmniej dwukrotnie różniczkowalne oraz ν(u) > 0. Analogicznie dla
cześci
˛
dynamicznej otrzymujemy zbieżność γ
bN,M → γ według prawdopodobieństwa dla N, M → ∞ na Etapie 2, pod warunkiem, że M ∼ N 5(1+α)/2 ,
α > 0. Dla α = 1/2 asymtotyczny rzad
˛ szybkości zbieżności ze wzgledu
˛
na
N ma postać ||b
γ N,M − γ|| = O(N −1/2 ) według prawdopodobieństwa.
110
G. Mzyk
Literatura
[1] E. W. Bai,
“An optimal two-stage identification algorithm for
Hammerstein-Wiener nonlinear systems,” Automatica, vol. 34, no.
3, pp. 333—338, 1998.
[2] E. W. Bai, “Frequency domain identification of Hammerstein models,” IEEE Transactions on Automatic Control, vol. 48, no. 4, pp.
530—542, 2003.
[3] E. W. Bai, “Frequency domain identification of Wiener models,”
Automatica, vol. 39, pp. 1521—1530, 2003.
[4] S. A. Billings, S. Y. Fakhouri, “Identification of systems containing
linear dynamic and static nonlinear elements,” Automatica, vol. 18,
no. 1, pp. 15—26, 1982.
[5] E. W. Cheney, Introduction to Approximation Theory, AMS Chelsea
Publishing, Rhode Island, 1982.
[6] J. A. Cristobal, P. F. Roca, W. G. Manteiga, “A class of linear regression parameter estimators constructed by nonparametric estimation,”
The Annals of Statistics, vol. 15, no. 2, pp. 603—609, 1987.
[7] S. Efromovich,
York, 1999.
Nonparametric Curve Estimation,
Springer, New
[8] B. Finigan, I. Rowe, ”Strongly consistent parameter estimation by the
introduction of strong instrumental variables”, IEEE Transactions on
Automatic Control, vol.19, pp. 825-830, 1974.
[9] W. Greblicki, “Nonparametric orthogonal series identification of
Hammerstein systems,” International Journal of System Science,
vol. 20, pp. 2355—2367, 1989.
[10] W. Greblicki, M. Pawlak, “Identification of discrete Hammerstein
systems using kernel regression estimates,” IEEE Transactions on
Automatic Control, vol. 31, pp. 74—77, 1986.
[11] W. Greblicki, M. Pawlak, “Cascade non-linear system identification by a non-parametric method,” International Journal of System
Science, vol. 25, pp. 129—153, 1994.
[12] R. Haber, L. Keviczky, Nonlinear System Identification: InputOutput Modeling Approach, Kluwer Academic Publishers, 1999.
[13] N. D. Haist, F. H. Chang, R. Luus, “Nonlinear identification in the
presence of correlated noise using Hammerstein model,” IEEE Transactions on Automatic Control, vol. 18, pp. 552—555, 1973.
6. Nieparametryczne metody identyfikacji przy różnym stopniu informacji...
111
[14] Z. Hasiewicz, G. Mzyk, ”Parametryczno-nieparametryczna identyfikacja systemów nieliniowych o strukturze blokowej”, XIV Krajowa
Konferencja Automatyki, Zielona Góra, 2002.
[15] Z. Hasiewicz, G. Mzyk, ”Two-stage identification of Hammerstein
systems”, Proceedings of the 9th IEEE International Conference
MMAR, Miedzyzdroje
˛
2003.
[16] Z. Hasiewicz, G. Mzyk, ”Combined parametric-nonparametric identification of Hammerstein systems”, IEEE Transactions on Automatic
Control, vol. 49, pp. 1370-1376, 2004.
[17] Z. Hasiewicz, G. Mzyk, ”Nonparametric instrumental variables for
Hammerstein system identification”, submitted for publication in the
IEEE Transactions on Automatic Control.
[18] Z. Hasiewicz, M. Pawlak, P. Śliwiński, “Nonparametric identification
of nonlinearities in block-oriented systems by orthogonal wavelets with
compact support,” submitted to the IEEE Transactions on Circuits
and Systems.
[19] W. Härdle, Applied Nonparametric Regression, Cambridge University
Press, Cambridge, 1990.
[20] G. Mzyk, ”Zastosowanie metody zmiennej pomocniczej do identyfikacji systemów o złożonej strukturze”, XIII Krajowa Konferencja
Automatyki, Opole, 1999.
[21] G. Mzyk, ”Application of instrumental variable method to the identification of Hammerstein-Wiener systems”, Proceedings of the 6th
International Conference MMAR 2000, Miedzyzdroje,
˛
2000.
[22] G. Mzyk, ”Hammerstein system identification by a semi-parametric
method”, Proceedings of the ICSES’2000, Ustroń, 2000.
[23] G. Mzyk, ”Zastosowanie metody zmiennych instrumentalnych do
identyfikacji systemów Hammersteina-Wienera”, Pomiary Automatyka Kontrola, Nr 7/8, str. 35-40, 2001.
[24] G. Mzyk, ”Identification of nonlinear systems with correlated input”,
Proceedings of the 7th IEEE International Conference MMAR 2001,
Miedzyzdroje,
˛
2001.
[25] G. Mzyk, ”Kernel-based instrumental variables for NARMAX system
identification”, Proceedings of the ICSES’2001, Łódź, 2001.
[26] G. Mzyk, ”Instrumental variables in Wiener system identification”,
Proceedings of the 8th IEEE International Conference MMAR 2002,
Szczecin, 2002.
112
G. Mzyk
[27] G. Mzyk, ”Kernel-based instrumental variables for nonlinear systems
identification”, Proceedings of the 9th IEEE International Conference
MMAR 2003, Miedzyzdroje,
˛
2003.
[28] G. Mzyk, ”Application of empirical median for nonlinear systems
identification”, Proceedings of the 9th IEEE International Conference
MMAR 2003, Miedzyzdroje,
˛
2003.
[29] G. Mzyk, ”Kernel instrumental variables for Hammerstein system
identification”, Proceedings of the 9th IEEE International Conference
MMAR 2004, Miedzyzdroje,
˛
2004.
[30] G. Mzyk, ”Nonparametric identification of Wiener systems - a median based approach”, Proceedings of the 10th IEEE International
Conference MMAR 2004, Miedzyzdroje,
˛
2004.
[31] K. S. Narendra, P. G. Gallman, “An iterative method for the identification of nonlinear systems using the Hammerstein model,” IEEE
Transactions on Automatic Control, vol. 11, pp. 546—550, 1966.
[32] D. Picard, A. Tsybakov, W. Härdle, G. Kerkyacharian, Wavelets,
Approximation, and Statistical Applications, Springer, New York,
1998.
[33] T. Söderström, P. Stoica, ”Instrumental-variable methods for identification of Hammerstein system”, International Journal of Control,
vol. 35, No. 3, pp. 459-476, 1982.
[34] T. Söderström, P. Stoica, System Identification, NJ: Prentice Hall,
Englewood Cliffs, 1989.
[35] P. Stoica, T. Söderström, ”Comments on the Wong and Polak minimax approach to accuracy optimization of instrumental variable methods”, IEEE Transactions on Automatic Control, vol. 27, pp. 11381139, 1982.
[36] P. Stoica, T. Söderström, ”Instrumental variable methods for system
identification”, Circuits Systems Signal Processing, vol. 21, No. 1, pp.
1-9, 2002.
[37] M. P. Wand, H. C. Jones, Kernel Smoothing, Chapman and Hall,
London, 1995.
[38] R. Ward, ”Notes on the instrumental variable method”, IEEE Transactions on Automatic Control, vol. 22, pp. 482-484, 1977.
[39] K. Wong, E. Polak, ”Identification of linear discrete time systems
using the instrumental variable method”, IEEE Transactions on Automatic Control, vol. AC-12, No. 6, pp. 707-718, 1967.

Podobne dokumenty