ZAJĘCIA XI Podsumowanie procesu identyfikacji

Transkrypt

ZAJĘCIA XI Podsumowanie procesu identyfikacji
Komputerowa identyfikacja obiektów
ZAJĘCIA XI
Podsumowanie procesu identyfikacji
• Zbieranie danych pomiarowych
• Wybór modelu opisującego relację między danymi
• Wybór i realizacja algorytmu identyfikacji
• Sprawdzenie czy zidentyfikowany model jest dobry
• Projektowanie i testowanie procesów identyfikacji
Katedra Metrologii AGH
Kraków 2006
Komputerowa identyfikacja obiektów
WPROWADZENIE
Podsumowaniu procesu identyfikacji, z omówieniem poszczególnych etapów i przypomnieniem najistotniejszych
informacji, jest poświęcona większa część tego opracowania. Może ona posłużyć jako przewodnik po poprzednich
opracowaniach w trakcie przygotowywania się do końcowego testu z zajęć Komputerowa Identyfikacja Obiektów.
Poznaliśmy dotąd zasadniczą część procesu identyfikacji polegającą na obliczaniu parametrów wybranego modelu.
Założeniem wstępnym tego etapu identyfikacji jest poprawność modelu, czyli jego adekwatność do zachowania się
obiektu. Określenie modelu opisującego dokładnie obiekt rzeczywisty jest niemożliwe ze względu na nieskończoną
ilość czynników, które należałoby wziąć pod uwagę. Powszechnie przyjmuje się, że model powinien opisywać
obiekt z dokładnością wymaganą w konkretnym zastosowaniu, co można zweryfikować praktycznie. Jeśli mamy
możliwość wyboru jednego z wielu konkurencyjnych modeli, to który wybrać ? Z taką sytuacją mamy do czynienia
np. przy ustalaniu właściwego rzędu modelu transmitancyjnego. Zagadnienia związane z tym tematem są
przedstawiane w końcowej części opracowania. Jednocześnie jest to ostatnie zagadnienie interesujące nas w
podstawowym kursie identyfikacji.
Katedra Metrologii AGH
Kraków 2006
Komputerowa identyfikacja obiektów
CEL I ŚRODKI PROWADZENIA IDENTYFIKACJI (ZAJĘCIA 1,2,3)
Celem procesu identyfikacji parametrycznej jest wyznaczenie opisu zachowania się obiektu w postaci równań
matematycznych. Równania mogą mieć postać algebraiczną, różniczkową, różniczkową cząstkową, całkową,
różnicową, operatorową, itd., z ewentualnymi nieliniowościami i zmiennością czasową parametrów, zależnie od
własności opisywanego obiektu. Celem jest wyznaczenie modelu w postaci parametrycznej, tj. w postaci
równań, w których występują parametry wyznaczane w procesie estymacji parametrów, lub w mniej zwartej postaci
nieparametrycznej zależności wyjścia od czasu lub częstotliwości. W identyfikacji drogą dojścia do modelu jest
analiza sygnałów wejściowych i wyjściowych identyfikowanego obiektu i uwzględnienie posiadanej wiedzy a priori
na temat struktury modelu wynikającej ze znajomości zasad zachowania się obiektu. Inna droga dochodzenia do
modelu, alternatywna do identyfikacji, to jego tworzenie na podstawie wiedzy o strukturze i wartościach stałych
charakteryzujących obiekt. Zadanie estymacji parametrów jest rozwiązywane numerycznie, z użyciem algorytmów
obliczeniowych. Najczęściej wykorzystywane są algorytmy rozwiązywania układów równań liniowych, algorytmy
minimalizacji i algorytmy symulacji.
Estymacja parametrów modelu jest prowadzona na podstawie sygnałów obiektu, z których co najmniej sygnał
wyjściowy pochodzi z pomiarów (jest zakłócony). Zakłócenia są interpretowane jako zmienne losowe i opisywane
pojęciami statystyki, jak wartość oczekiwana i macierz kowariancyjna. Podobnie rzecz ma się z wynikami estymacji,
czyli z oszacowaniami wartości parametrów modelu. Ponieważ są one wyznaczane na podstawie wielkości
losowych, same również są zmiennymi losowymi, mają określony rozrzut i wartość oczekiwaną. Specjalne
znaczenie w teorii estymacji mają dwa parametry statystyczne estymat parametrów – obciążenie (wektor
składowej systematycznej błędu) i macierz kowariancyjna opisująca rozrzut estymat.
Katedra Metrologii AGH
Kraków 2006
Komputerowa identyfikacja obiektów
ETAPY PROCESU IDENTYFIKACJI (WSZYSTKIE ZAJĘCIA)
Cały proces identyfikacji składa się z kilku etapów, z których w trakcie kursu Komputerowej Identyfikacji Obiektów
interesował nas najbardziej etap obliczeń numerycznych estymatora. Poszczególne etapy to:
1. Zaprojektowanie procesu zbierania danych pomiarowych, czyli wybór miejsca, czasu i rodzaju
mierzonych sygnałów i zebranie danych pomiarowych
2. Wybór struktury modelu na podstawie zebranych pomiarów i wiedzy o zachowaniu się obiektu
3. Estymacja parametrów na podstawie danych pomiarowych
4. Weryfikacja modelu uzyskanego przez identyfikację
Przykład: Pomiar parametrów napięcia sieciowego
Problemem, który będzie ilustrował wykład będzie estymacja amplitudy A, częstotliwości f i fazy φ napięcia
sieciowego. Zebranie danych pomiarowych polega w tym przypadku na dobraniu rodzaju i pasma przetworników
pomiarowych (przekładnik czy dzielnik) i częstotliwości próbkowania (jaka będzie minimalna ?). Model mierzonego
sygnału może być czystą kosinusoidą A cos ( 2π ft + φ ) lub zbiorem harmonicznych. Algorytm estymacji może być
wsadowy lub iteracyjny. Jakość modelu będzie opisywana inaczej np. dla potrzeb próbkowania synchronicznego
niż np. dla sprawdzenia zgodności amplitudy napięcia sieciowego z normą.
Cały proces identyfikacji czasem trzeba kilkakrotnie powtórzyć, np. jeśli wynik weryfikacji modelu nie jest pozytywny
to wracamy do etapu projektowania procesu zbierania danych pomiarowych lub do etapu wyboru struktury modelu.
Wynikiem całego procesu identyfikacji jest odpowiadający naszym potrzebom, wiarygodny i sprawdzony model.
Katedra Metrologii AGH
Kraków 2006
Komputerowa identyfikacja obiektów
ZASADY IDENTYFIKACJI I WYNIKAJĄCE Z NICH METODY (ZAJĘCIA 5,10)
Estymacja parametrów polega w ogólności na poszukiwaniu takich wartości parametrów, dla których występuje
najlepsze dopasowanie odpowiedzi modelu do odpowiedzi obiektu. Kwestią wyboru jest liczbowe kryterium
jakości dopasowania. Najpopularniejszym z kryteriów jest kryterium najmniejszej sumy kwadratów odchyłek
odpowiedzi (reszt). Jego popularność wynika z prostoty obliczeń wynikowego estymatora dla modelu liniowego, w
którym to przypadku zadanie polega na rozwiązaniu układu równań liniowych. Estymator ten jest nazywany
estymatorem najmniejszej sumy kwadratów (LS). Inne kryteria dopasowania skutkują trudniejszymi zadaniami
obliczeniowymi, ale są używane w niektórych przypadkach, np. wtedy, kiedy istotny jest mniejszy wpływ dużych
odchyłek (kryterium sumy modułów odchyłek) lub większy (kryterium maksimum z modułów odchyłek).
Jak się okazuje kryterium LS jest szczególnym przypadkiem ogólniejszej zasady estymacji – zasady
maksymalizacji wiarygodności (ML), czyli takiego doboru wartości parametrów żeby zmierzona odpowiedź
obiektu była najbardziej prawdopodobna. Estymator LS jest estymatorem największej wiarygodności dla
identycznego normalnego rozkładu zakłóceń pomiarowych odpowiedzi obiektu. Jeśli zakłócenia nie mają
identycznej wariancji dla poszczególnych pomiarów (np. z powodu zmiany zakresu przyrządu pomiarowego) to
optymalny estymator ma postać ważoną, gdzie największy udział w wyniku estymacji mają pomiary o najmniejszej
wariancji (tzn. najlepsze). Dodatkowo, zakłócenia skorelowane pomiędzy pomiarami są ważone macierzowo
odwrotnością macierzy kowariancji zakłóceń. Taki estymator nazywa się estymatorem Markowa.
Katedra Metrologii AGH
Kraków 2006
Komputerowa identyfikacja obiektów
SZCZEGÓLNE PRZYPADKI I IMPLEMENTACJE ESTYMATORA LS (ZAJĘCIA 5,6,7,8,10)
W zależności od własności obiektu identyfikacji, od własności zakłóceń pomiarowych i od pożądanego charakteru
obliczeń istnieje szereg algorytmów obliczeniowych. Należy znać przeznaczenie, zasady obliczeń i własności
algorytmów:
• prosty (algebraiczny) estymator LS, rekursywny (iteracyjny) estymator LS
• estymator LS z wykładniczym zapominaniem
• estymator Markowa
• estymator ML dla problemu z zakłóconymi wejściami
• estymator LS dla obiektów dynamicznych
• nieliniowy estymator LS (NLS)
Miernikiem zrozumienia algorytmów estymacji jest umiejętność ich zaprogramowania w środowisku Matlab na
podstawie wzorów matematycznych.
Przykład: Sygnał kosinusoidalny w szumie pomiarowym – metoda NLS
Dysponując zbiorem próbek sygnału staramy się odzyskać parametry A, f i φ modelu A cos ( 2π ft + φ ) . Kryterium
minimalizacji, które można wyprowadzić z zasady ML dla nieskorelowanych zakłóceń gaussowskich ma postać:
N
J ( θ ) = ∑ ⎡⎣ y ( ti ) − gi (u, θ )⎤⎦ ,
i =1
2
θ = [ A, f ,φ ]
gi (u, θ ) = A cos ( 2π ft + φ )
Jak wiemy z zajęć nr 8, kryterium można zminimalizować algorytmami optymalizacji, np. algorytmem LevenbergaMarquardta dopasowanym do problemów najmniejszej sumy kwadratów. Co jeśli nie znamy tylko A ?
Katedra Metrologii AGH
Kraków 2006
Komputerowa identyfikacja obiektów
Przykład: Estymacja parametrów A, φ sygnału sinusoidalnego ale metodą LS
Postępowanie ogólne jak w poprzednim przykładzie jest kłopotliwe z powodu iteracyjnego charakteru poszukiwania
rozwiązania. Spróbujmy Przetworzyć model tak, żeby miał postać liniową przy zmienionej parametryzacji. Przy
wyprowadzeniu musimy założyć znajomość częstotliwości f.
Możemy przetworzyć model do postaci:
A cos ( 2π ft + φ ) = A ⎡⎣cos (φ ) cos ( 2π ft ) − sin (φ ) sin ( 2π ft )⎤⎦
Przyjmując:
θ1 = A cos (φ ) ,
θ 2 = − A sin (φ )
Doprowadzamy model do klasycznej postaci problemu LS, tzn. sumy czynników skalowanych liniowo
poszukiwanymi parametrami, lub inaczej liniowego rozwinięcia (aproksymacji) obserwowanego sygnału w wybranej
bazie. Bazę aproksymacji tworzą w tym przypadku funkcje:
u1 = cos ( 2π ft ) ,
u2 = sin ( 2π ft )
a model ma postać:
y = θ1u1 + θ 2u2 = uθ
Formując dla wszystkich pomiarów (oczywiście za czas podstawiamy wektor chwil) macierze y, U (czy każdy
(
potrafi ?) możemy policzyć wektor θ = UT U
)
−1
UT y (pamiętamy, że to tylko ładny wzór, a w Matlabie policzymy
θ = U \ y ). Następnie:
A = θ1 + θ 2
Katedra Metrologii AGH
φ = arctan ( −θ 2 θ1 )
Kraków 2006
Komputerowa identyfikacja obiektów
WŁASNOŚCI ESTYMATORÓW (ZAJĘCIA 6,9,10)
Istotny dla jakości wyznaczonego modelu matematycznego jest błąd wyznaczenia parametrów modelu.
Rozróżniamy przy tym błąd systematyczny nazywany w teorii estymacji błędem obciążenia i błąd przypadkowy
opisywany łącznie dla wszystkich parametrów macierzą kowariancyjną. Wektor obciążeń estymat i macierz
kowariancyjną możemy oszacować jeśli dysponujemy zbiorem estymat parametrów, np. z serii eksperymentów
identyfikacyjnych. W analizie komputerowej algorytmów identyfikacji korzysta się często z techniki symulacji
procesu identyfikacji (analiza Monte Carlo), co polega na generowaniu odpowiedzi symulowanego obiektu,
dodawaniu zakłóceń z użyciem funkcji generacji liczb pseudolosowych i przeprowadzaniu identyfikacji na tak
wytworzonych danych. Taka technika jest jednak czasochłonna.
Alternatywnym sposobem określania dokładności estymatora jest jego analiza statystyczna prowadzona metodami
analitycznymi. Zadanie to jest proste w przypadku estymatorów liniowych – odpowiednie zależności są łatwe do
wyprowadzenia. Trudniejsza jest analiza estymatorów nieliniowych. Dużą pomocą jest tutaj nierówność RaoCramera określająca granicę dla macierzy kowariancyjnej każdego estymatora nieobciążonego wyznaczanego na
podstawie określonych danych. Granicą tą jest odwrotność macierzy informacyjnej Fishera.
Przykład: Granica wariancji dla estymacji częstotliwości sygnału kosinusoidalnego (amplituda i faza znane)
Korzystając ze szczególnego przypadku zakłóceń gaussowskich nieskorelowanych mamy:
⎛ N ⎡ ∂g (t , f ) ⎤ 2 ⎞
n
2
2
σf ≥ σ ⎜∑⎢
⎥ ⎟
⎜ n =1 ⎣ ∂f
⎦ ⎠⎟
⎝
−1
więc:
2⎞
⎛ 2 N
σ ≥ σ ⎜ A ∑ ⎡⎣ 2π tn sin ( 2π ftn + φ )⎤⎦ ⎟
⎝ n =1
⎠
2
f
−1
2
Możemy teraz dobrać np. okres próbkowania taki, żeby dokładność była największa (projektujemy eksperyment).
Katedra Metrologii AGH
Kraków 2006
Komputerowa identyfikacja obiektów
WERYFIKACJA MODELU, CZYLI TEST POPRAWNOŚCI IDENTYFIKACJI
Celem tworzenia modelu obiektu rzeczywistego jest oddanie zachowania się obiektu w różnych sytuacjach, nie
tylko takich które wystąpiły w danych pomiarowych. Oznacza to, że model utworzony na podstawie odpowiedzi na
pobudzenie skokowe powinien również dobrze oddawać zachowanie się obiektu przy innych pobudzeniach, np.
impulsowych. Miarą jakości modelu jest więc dokładność naśladowania odpowiedzi obiektu przez odpowiedź
modelu przy takim samym pobudzeniu. Odpowiedź obiektu znamy z pomiaru, a więc jest ona zakłócona. Między
odpowiedziami wystąpią różnice nazywane resztami. Gdybyśmy utworzyli dokładny model to reszty byłyby równe
zakłóceniom pomiarowym, ale w praktyce wynikają one z zakłóceń, z błędów w wartościach parametrów modelu i z
błędów w strukturze modelu. Błędy w strukturze modelu powodują pojawianie się regularności w przebiegach
czasowych reszt, co można zaobserwować próbując modelować np. obiekt drugiego rzędu modelem rzędu
pierwszego i porównując odpowiedzi skokowe obydwu. Wykrywając takie regularności jesteśmy w stanie stwierdzić
czy przyjęta struktura modelu (rząd) odpowiada identyfikowanemu obiektowi.
Podstawową metodą weryfikacji modelu jest analiza dopasowania odpowiedzi modelu do zmierzonej odpowiedzi
obiektu, lub bezpośrednio analiza przebiegu czasowego reszt dopasowania czyli różnicy odpowiedzi. Taka analiza
prowadzona metodą graficzną jest w dużym stopniu subiektywna i silnie zależy od intuicji badacza. Więcej
informacji o jakości modelu można uzyskać obliczając funkcję autokorelacji reszt. Jeśli uzasadnione jest
założenie, że zakłócenia są szumem białym, to funkcja autokorelacji reszt powinna być różna od zera tylko przy
zerowym przesunięciu. Ponieważ w praktyce posługujemy się estymatorem funkcji autokorelacji, to estymowana
funkcja autokorelacji będzie bliska zeru dla każdego przesunięcia różnego od zera (a dokładnie będzie
asymptotycznie równa zeru z rosnącą długością wektora reszt).
Katedra Metrologii AGH
Kraków 2006
Komputerowa identyfikacja obiektów
WERYFIKACJA MODELU, CZYLI TEST POPRAWNOŚCI IDENTYFIKACJI
Regularności reszt objawią się dużymi wartościami lub pikami funkcji autokorelacji, co świadczyć będzie o
nieadekwatności modelu do identyfikowanego obiektu.
Powyższy test również jest oparty na interpretacji wykresu, a więc ma również charakter subiektywny (co to znaczy
„bliski zeru” ?). Konieczne było więc opracowanie testów obliczeniowych opartych na resztach, które ze względu na
losową naturę reszt są testami statystycznymi. Testy statystyczne są oparte na założeniach co do własności reszt,
z których często używane to:
a) reszty mają własności szumu białego (szum nieskorelowany) o zerowej średniej,
b) reszty mają rozkład symetryczny,
c) reszty są niezależne od sygnałów wejściowych.
O ile pierwsze dwa założenia są naturalne, to ostatnie wymaga wyjaśnienia. Oznacza ono, że statystycznie reszty
nie niosą żadnej informacji o reakcji obiektu na sygnał pobudzający. Cała informacja o zachowaniu się obiektu
może być odtworzona z modelu i jego wejścia.
Obliczeniowo testy statystyczne polegają na przyjęciu hipotezy zerowej i sprawdzeniu na podstawie reszt i tablic
statystycznych czy istnieją przesłanki do odrzucenia hipotezy. Postępowanie to, chociaż wykorzystujące
podstawowy aparat statystyki, wykracza poza ramy kursu identyfikacji na poziomie wprowadzającym i nie będzie tu
szerzej omawiane. Szczegóły można znaleźć w książce [Soderstrom, Stoica 1997].
Przykład: Reszty dopasowania do sygnału sinusoidalnego
Po dopasowaniu modelu sygnału sinusoidalnego do pomiarów napięcia sieciowego pozostałe reszty wyglądają na
sygnał okresowy o dwukrotnie większej częstotliwości niż estymowana dla sygnału. Jak to skomentujesz ?
Katedra Metrologii AGH
Kraków 2006
Komputerowa identyfikacja obiektów
ZADANIA
Zadanie 1
Zaimplementuj algorytm LS estymacji parametrów A, φ sygnału sinusoidalnego i sprawdź jego działanie na
wytworzonym w Matlabie zaszumionym sygnale sinusoidalnym.
Zadanie 2
Przeprowadź identyfikację modelu liniowego na podstawie danych z pliku pierwszego. Przeprowadź weryfikację
modelu metodą analizy graficznej reszt i metodą analizy graficznej funkcji autokorelacji reszt.
Zadanie 3
Przeprowadź cały proces identyfikacji dla danych pomiarowych z pliku drugiego wiedząc, że jest to odpowiedź
obiektu elektrycznego (napięcie wyjściowe) na pobudzenie skokiem napięcia na wejściu.
LITERATURA
Odnośnie weryfikacji modeli:
Soderstrom T., Stoica P., Identyfikacja systemów, PWN Warszawa 1997
Odnośnie całego procesu identyfikacji wszystkie pozycje podane w poprzednich opracowaniach.
Katedra Metrologii AGH
Kraków 2006