ZAJĘCIA XI Podsumowanie procesu identyfikacji
Transkrypt
ZAJĘCIA XI Podsumowanie procesu identyfikacji
Komputerowa identyfikacja obiektów ZAJĘCIA XI Podsumowanie procesu identyfikacji • Zbieranie danych pomiarowych • Wybór modelu opisującego relację między danymi • Wybór i realizacja algorytmu identyfikacji • Sprawdzenie czy zidentyfikowany model jest dobry • Projektowanie i testowanie procesów identyfikacji Katedra Metrologii AGH Kraków 2006 Komputerowa identyfikacja obiektów WPROWADZENIE Podsumowaniu procesu identyfikacji, z omówieniem poszczególnych etapów i przypomnieniem najistotniejszych informacji, jest poświęcona większa część tego opracowania. Może ona posłużyć jako przewodnik po poprzednich opracowaniach w trakcie przygotowywania się do końcowego testu z zajęć Komputerowa Identyfikacja Obiektów. Poznaliśmy dotąd zasadniczą część procesu identyfikacji polegającą na obliczaniu parametrów wybranego modelu. Założeniem wstępnym tego etapu identyfikacji jest poprawność modelu, czyli jego adekwatność do zachowania się obiektu. Określenie modelu opisującego dokładnie obiekt rzeczywisty jest niemożliwe ze względu na nieskończoną ilość czynników, które należałoby wziąć pod uwagę. Powszechnie przyjmuje się, że model powinien opisywać obiekt z dokładnością wymaganą w konkretnym zastosowaniu, co można zweryfikować praktycznie. Jeśli mamy możliwość wyboru jednego z wielu konkurencyjnych modeli, to który wybrać ? Z taką sytuacją mamy do czynienia np. przy ustalaniu właściwego rzędu modelu transmitancyjnego. Zagadnienia związane z tym tematem są przedstawiane w końcowej części opracowania. Jednocześnie jest to ostatnie zagadnienie interesujące nas w podstawowym kursie identyfikacji. Katedra Metrologii AGH Kraków 2006 Komputerowa identyfikacja obiektów CEL I ŚRODKI PROWADZENIA IDENTYFIKACJI (ZAJĘCIA 1,2,3) Celem procesu identyfikacji parametrycznej jest wyznaczenie opisu zachowania się obiektu w postaci równań matematycznych. Równania mogą mieć postać algebraiczną, różniczkową, różniczkową cząstkową, całkową, różnicową, operatorową, itd., z ewentualnymi nieliniowościami i zmiennością czasową parametrów, zależnie od własności opisywanego obiektu. Celem jest wyznaczenie modelu w postaci parametrycznej, tj. w postaci równań, w których występują parametry wyznaczane w procesie estymacji parametrów, lub w mniej zwartej postaci nieparametrycznej zależności wyjścia od czasu lub częstotliwości. W identyfikacji drogą dojścia do modelu jest analiza sygnałów wejściowych i wyjściowych identyfikowanego obiektu i uwzględnienie posiadanej wiedzy a priori na temat struktury modelu wynikającej ze znajomości zasad zachowania się obiektu. Inna droga dochodzenia do modelu, alternatywna do identyfikacji, to jego tworzenie na podstawie wiedzy o strukturze i wartościach stałych charakteryzujących obiekt. Zadanie estymacji parametrów jest rozwiązywane numerycznie, z użyciem algorytmów obliczeniowych. Najczęściej wykorzystywane są algorytmy rozwiązywania układów równań liniowych, algorytmy minimalizacji i algorytmy symulacji. Estymacja parametrów modelu jest prowadzona na podstawie sygnałów obiektu, z których co najmniej sygnał wyjściowy pochodzi z pomiarów (jest zakłócony). Zakłócenia są interpretowane jako zmienne losowe i opisywane pojęciami statystyki, jak wartość oczekiwana i macierz kowariancyjna. Podobnie rzecz ma się z wynikami estymacji, czyli z oszacowaniami wartości parametrów modelu. Ponieważ są one wyznaczane na podstawie wielkości losowych, same również są zmiennymi losowymi, mają określony rozrzut i wartość oczekiwaną. Specjalne znaczenie w teorii estymacji mają dwa parametry statystyczne estymat parametrów – obciążenie (wektor składowej systematycznej błędu) i macierz kowariancyjna opisująca rozrzut estymat. Katedra Metrologii AGH Kraków 2006 Komputerowa identyfikacja obiektów ETAPY PROCESU IDENTYFIKACJI (WSZYSTKIE ZAJĘCIA) Cały proces identyfikacji składa się z kilku etapów, z których w trakcie kursu Komputerowej Identyfikacji Obiektów interesował nas najbardziej etap obliczeń numerycznych estymatora. Poszczególne etapy to: 1. Zaprojektowanie procesu zbierania danych pomiarowych, czyli wybór miejsca, czasu i rodzaju mierzonych sygnałów i zebranie danych pomiarowych 2. Wybór struktury modelu na podstawie zebranych pomiarów i wiedzy o zachowaniu się obiektu 3. Estymacja parametrów na podstawie danych pomiarowych 4. Weryfikacja modelu uzyskanego przez identyfikację Przykład: Pomiar parametrów napięcia sieciowego Problemem, który będzie ilustrował wykład będzie estymacja amplitudy A, częstotliwości f i fazy φ napięcia sieciowego. Zebranie danych pomiarowych polega w tym przypadku na dobraniu rodzaju i pasma przetworników pomiarowych (przekładnik czy dzielnik) i częstotliwości próbkowania (jaka będzie minimalna ?). Model mierzonego sygnału może być czystą kosinusoidą A cos ( 2π ft + φ ) lub zbiorem harmonicznych. Algorytm estymacji może być wsadowy lub iteracyjny. Jakość modelu będzie opisywana inaczej np. dla potrzeb próbkowania synchronicznego niż np. dla sprawdzenia zgodności amplitudy napięcia sieciowego z normą. Cały proces identyfikacji czasem trzeba kilkakrotnie powtórzyć, np. jeśli wynik weryfikacji modelu nie jest pozytywny to wracamy do etapu projektowania procesu zbierania danych pomiarowych lub do etapu wyboru struktury modelu. Wynikiem całego procesu identyfikacji jest odpowiadający naszym potrzebom, wiarygodny i sprawdzony model. Katedra Metrologii AGH Kraków 2006 Komputerowa identyfikacja obiektów ZASADY IDENTYFIKACJI I WYNIKAJĄCE Z NICH METODY (ZAJĘCIA 5,10) Estymacja parametrów polega w ogólności na poszukiwaniu takich wartości parametrów, dla których występuje najlepsze dopasowanie odpowiedzi modelu do odpowiedzi obiektu. Kwestią wyboru jest liczbowe kryterium jakości dopasowania. Najpopularniejszym z kryteriów jest kryterium najmniejszej sumy kwadratów odchyłek odpowiedzi (reszt). Jego popularność wynika z prostoty obliczeń wynikowego estymatora dla modelu liniowego, w którym to przypadku zadanie polega na rozwiązaniu układu równań liniowych. Estymator ten jest nazywany estymatorem najmniejszej sumy kwadratów (LS). Inne kryteria dopasowania skutkują trudniejszymi zadaniami obliczeniowymi, ale są używane w niektórych przypadkach, np. wtedy, kiedy istotny jest mniejszy wpływ dużych odchyłek (kryterium sumy modułów odchyłek) lub większy (kryterium maksimum z modułów odchyłek). Jak się okazuje kryterium LS jest szczególnym przypadkiem ogólniejszej zasady estymacji – zasady maksymalizacji wiarygodności (ML), czyli takiego doboru wartości parametrów żeby zmierzona odpowiedź obiektu była najbardziej prawdopodobna. Estymator LS jest estymatorem największej wiarygodności dla identycznego normalnego rozkładu zakłóceń pomiarowych odpowiedzi obiektu. Jeśli zakłócenia nie mają identycznej wariancji dla poszczególnych pomiarów (np. z powodu zmiany zakresu przyrządu pomiarowego) to optymalny estymator ma postać ważoną, gdzie największy udział w wyniku estymacji mają pomiary o najmniejszej wariancji (tzn. najlepsze). Dodatkowo, zakłócenia skorelowane pomiędzy pomiarami są ważone macierzowo odwrotnością macierzy kowariancji zakłóceń. Taki estymator nazywa się estymatorem Markowa. Katedra Metrologii AGH Kraków 2006 Komputerowa identyfikacja obiektów SZCZEGÓLNE PRZYPADKI I IMPLEMENTACJE ESTYMATORA LS (ZAJĘCIA 5,6,7,8,10) W zależności od własności obiektu identyfikacji, od własności zakłóceń pomiarowych i od pożądanego charakteru obliczeń istnieje szereg algorytmów obliczeniowych. Należy znać przeznaczenie, zasady obliczeń i własności algorytmów: • prosty (algebraiczny) estymator LS, rekursywny (iteracyjny) estymator LS • estymator LS z wykładniczym zapominaniem • estymator Markowa • estymator ML dla problemu z zakłóconymi wejściami • estymator LS dla obiektów dynamicznych • nieliniowy estymator LS (NLS) Miernikiem zrozumienia algorytmów estymacji jest umiejętność ich zaprogramowania w środowisku Matlab na podstawie wzorów matematycznych. Przykład: Sygnał kosinusoidalny w szumie pomiarowym – metoda NLS Dysponując zbiorem próbek sygnału staramy się odzyskać parametry A, f i φ modelu A cos ( 2π ft + φ ) . Kryterium minimalizacji, które można wyprowadzić z zasady ML dla nieskorelowanych zakłóceń gaussowskich ma postać: N J ( θ ) = ∑ ⎡⎣ y ( ti ) − gi (u, θ )⎤⎦ , i =1 2 θ = [ A, f ,φ ] gi (u, θ ) = A cos ( 2π ft + φ ) Jak wiemy z zajęć nr 8, kryterium można zminimalizować algorytmami optymalizacji, np. algorytmem LevenbergaMarquardta dopasowanym do problemów najmniejszej sumy kwadratów. Co jeśli nie znamy tylko A ? Katedra Metrologii AGH Kraków 2006 Komputerowa identyfikacja obiektów Przykład: Estymacja parametrów A, φ sygnału sinusoidalnego ale metodą LS Postępowanie ogólne jak w poprzednim przykładzie jest kłopotliwe z powodu iteracyjnego charakteru poszukiwania rozwiązania. Spróbujmy Przetworzyć model tak, żeby miał postać liniową przy zmienionej parametryzacji. Przy wyprowadzeniu musimy założyć znajomość częstotliwości f. Możemy przetworzyć model do postaci: A cos ( 2π ft + φ ) = A ⎡⎣cos (φ ) cos ( 2π ft ) − sin (φ ) sin ( 2π ft )⎤⎦ Przyjmując: θ1 = A cos (φ ) , θ 2 = − A sin (φ ) Doprowadzamy model do klasycznej postaci problemu LS, tzn. sumy czynników skalowanych liniowo poszukiwanymi parametrami, lub inaczej liniowego rozwinięcia (aproksymacji) obserwowanego sygnału w wybranej bazie. Bazę aproksymacji tworzą w tym przypadku funkcje: u1 = cos ( 2π ft ) , u2 = sin ( 2π ft ) a model ma postać: y = θ1u1 + θ 2u2 = uθ Formując dla wszystkich pomiarów (oczywiście za czas podstawiamy wektor chwil) macierze y, U (czy każdy ( potrafi ?) możemy policzyć wektor θ = UT U ) −1 UT y (pamiętamy, że to tylko ładny wzór, a w Matlabie policzymy θ = U \ y ). Następnie: A = θ1 + θ 2 Katedra Metrologii AGH φ = arctan ( −θ 2 θ1 ) Kraków 2006 Komputerowa identyfikacja obiektów WŁASNOŚCI ESTYMATORÓW (ZAJĘCIA 6,9,10) Istotny dla jakości wyznaczonego modelu matematycznego jest błąd wyznaczenia parametrów modelu. Rozróżniamy przy tym błąd systematyczny nazywany w teorii estymacji błędem obciążenia i błąd przypadkowy opisywany łącznie dla wszystkich parametrów macierzą kowariancyjną. Wektor obciążeń estymat i macierz kowariancyjną możemy oszacować jeśli dysponujemy zbiorem estymat parametrów, np. z serii eksperymentów identyfikacyjnych. W analizie komputerowej algorytmów identyfikacji korzysta się często z techniki symulacji procesu identyfikacji (analiza Monte Carlo), co polega na generowaniu odpowiedzi symulowanego obiektu, dodawaniu zakłóceń z użyciem funkcji generacji liczb pseudolosowych i przeprowadzaniu identyfikacji na tak wytworzonych danych. Taka technika jest jednak czasochłonna. Alternatywnym sposobem określania dokładności estymatora jest jego analiza statystyczna prowadzona metodami analitycznymi. Zadanie to jest proste w przypadku estymatorów liniowych – odpowiednie zależności są łatwe do wyprowadzenia. Trudniejsza jest analiza estymatorów nieliniowych. Dużą pomocą jest tutaj nierówność RaoCramera określająca granicę dla macierzy kowariancyjnej każdego estymatora nieobciążonego wyznaczanego na podstawie określonych danych. Granicą tą jest odwrotność macierzy informacyjnej Fishera. Przykład: Granica wariancji dla estymacji częstotliwości sygnału kosinusoidalnego (amplituda i faza znane) Korzystając ze szczególnego przypadku zakłóceń gaussowskich nieskorelowanych mamy: ⎛ N ⎡ ∂g (t , f ) ⎤ 2 ⎞ n 2 2 σf ≥ σ ⎜∑⎢ ⎥ ⎟ ⎜ n =1 ⎣ ∂f ⎦ ⎠⎟ ⎝ −1 więc: 2⎞ ⎛ 2 N σ ≥ σ ⎜ A ∑ ⎡⎣ 2π tn sin ( 2π ftn + φ )⎤⎦ ⎟ ⎝ n =1 ⎠ 2 f −1 2 Możemy teraz dobrać np. okres próbkowania taki, żeby dokładność była największa (projektujemy eksperyment). Katedra Metrologii AGH Kraków 2006 Komputerowa identyfikacja obiektów WERYFIKACJA MODELU, CZYLI TEST POPRAWNOŚCI IDENTYFIKACJI Celem tworzenia modelu obiektu rzeczywistego jest oddanie zachowania się obiektu w różnych sytuacjach, nie tylko takich które wystąpiły w danych pomiarowych. Oznacza to, że model utworzony na podstawie odpowiedzi na pobudzenie skokowe powinien również dobrze oddawać zachowanie się obiektu przy innych pobudzeniach, np. impulsowych. Miarą jakości modelu jest więc dokładność naśladowania odpowiedzi obiektu przez odpowiedź modelu przy takim samym pobudzeniu. Odpowiedź obiektu znamy z pomiaru, a więc jest ona zakłócona. Między odpowiedziami wystąpią różnice nazywane resztami. Gdybyśmy utworzyli dokładny model to reszty byłyby równe zakłóceniom pomiarowym, ale w praktyce wynikają one z zakłóceń, z błędów w wartościach parametrów modelu i z błędów w strukturze modelu. Błędy w strukturze modelu powodują pojawianie się regularności w przebiegach czasowych reszt, co można zaobserwować próbując modelować np. obiekt drugiego rzędu modelem rzędu pierwszego i porównując odpowiedzi skokowe obydwu. Wykrywając takie regularności jesteśmy w stanie stwierdzić czy przyjęta struktura modelu (rząd) odpowiada identyfikowanemu obiektowi. Podstawową metodą weryfikacji modelu jest analiza dopasowania odpowiedzi modelu do zmierzonej odpowiedzi obiektu, lub bezpośrednio analiza przebiegu czasowego reszt dopasowania czyli różnicy odpowiedzi. Taka analiza prowadzona metodą graficzną jest w dużym stopniu subiektywna i silnie zależy od intuicji badacza. Więcej informacji o jakości modelu można uzyskać obliczając funkcję autokorelacji reszt. Jeśli uzasadnione jest założenie, że zakłócenia są szumem białym, to funkcja autokorelacji reszt powinna być różna od zera tylko przy zerowym przesunięciu. Ponieważ w praktyce posługujemy się estymatorem funkcji autokorelacji, to estymowana funkcja autokorelacji będzie bliska zeru dla każdego przesunięcia różnego od zera (a dokładnie będzie asymptotycznie równa zeru z rosnącą długością wektora reszt). Katedra Metrologii AGH Kraków 2006 Komputerowa identyfikacja obiektów WERYFIKACJA MODELU, CZYLI TEST POPRAWNOŚCI IDENTYFIKACJI Regularności reszt objawią się dużymi wartościami lub pikami funkcji autokorelacji, co świadczyć będzie o nieadekwatności modelu do identyfikowanego obiektu. Powyższy test również jest oparty na interpretacji wykresu, a więc ma również charakter subiektywny (co to znaczy „bliski zeru” ?). Konieczne było więc opracowanie testów obliczeniowych opartych na resztach, które ze względu na losową naturę reszt są testami statystycznymi. Testy statystyczne są oparte na założeniach co do własności reszt, z których często używane to: a) reszty mają własności szumu białego (szum nieskorelowany) o zerowej średniej, b) reszty mają rozkład symetryczny, c) reszty są niezależne od sygnałów wejściowych. O ile pierwsze dwa założenia są naturalne, to ostatnie wymaga wyjaśnienia. Oznacza ono, że statystycznie reszty nie niosą żadnej informacji o reakcji obiektu na sygnał pobudzający. Cała informacja o zachowaniu się obiektu może być odtworzona z modelu i jego wejścia. Obliczeniowo testy statystyczne polegają na przyjęciu hipotezy zerowej i sprawdzeniu na podstawie reszt i tablic statystycznych czy istnieją przesłanki do odrzucenia hipotezy. Postępowanie to, chociaż wykorzystujące podstawowy aparat statystyki, wykracza poza ramy kursu identyfikacji na poziomie wprowadzającym i nie będzie tu szerzej omawiane. Szczegóły można znaleźć w książce [Soderstrom, Stoica 1997]. Przykład: Reszty dopasowania do sygnału sinusoidalnego Po dopasowaniu modelu sygnału sinusoidalnego do pomiarów napięcia sieciowego pozostałe reszty wyglądają na sygnał okresowy o dwukrotnie większej częstotliwości niż estymowana dla sygnału. Jak to skomentujesz ? Katedra Metrologii AGH Kraków 2006 Komputerowa identyfikacja obiektów ZADANIA Zadanie 1 Zaimplementuj algorytm LS estymacji parametrów A, φ sygnału sinusoidalnego i sprawdź jego działanie na wytworzonym w Matlabie zaszumionym sygnale sinusoidalnym. Zadanie 2 Przeprowadź identyfikację modelu liniowego na podstawie danych z pliku pierwszego. Przeprowadź weryfikację modelu metodą analizy graficznej reszt i metodą analizy graficznej funkcji autokorelacji reszt. Zadanie 3 Przeprowadź cały proces identyfikacji dla danych pomiarowych z pliku drugiego wiedząc, że jest to odpowiedź obiektu elektrycznego (napięcie wyjściowe) na pobudzenie skokiem napięcia na wejściu. LITERATURA Odnośnie weryfikacji modeli: Soderstrom T., Stoica P., Identyfikacja systemów, PWN Warszawa 1997 Odnośnie całego procesu identyfikacji wszystkie pozycje podane w poprzednich opracowaniach. Katedra Metrologii AGH Kraków 2006