Metoda najmn. kwadr. - funkcje nieliniowe Metoda najmniejszych
Transkrypt
Metoda najmn. kwadr. - funkcje nieliniowe Metoda najmniejszych
Metoda najmn. kwadr. - funkcje nieliniowe ■ Metoda najmniejszych kwadratów Funkcje nieliniowe Procedura z redukcją kroku iteracji Przykłady zastosowań ➔ Dopasowanie funkcji wykładniczej ➔ Dopasowanie funkcji Gaussa Własności metody Test χ2 ➔ Obszary ufności i błędy niesymetryczne Pomiary zależne ➔ Metoda elementów ➔ Metoda mnożników Lagrange'a KADD – Metoda najmniejszych kwadratów – funkcje nieliniowe 1 Przypadek nieliniowy ■ W ogólności gdy zależności nie są liniowe, piszemy f j x ,= j −h j x=0, czyli f x ,=0 ■ Sprowadzamy go do przypadku liniowego poprzez rozwinięcie w szereg Taylora i wzięcie tylko wyrazów liniowych. Punkt x0=(x10, x20, ..., xr0) wokół którego dokonujemy rozwinięcia musi być w praktyce zbliżony do oczekiwanego minimum. f j x , = f j x0, x 1 −x 10 = x− x0 = x 2 −x 20 ⋮ x r −x r0 ∂fj ∂ x1 x0 a jl = x 1 − x 10 ∂fj ∂ xl ∂fj ∂ xr x r −x r0 x0 c j = f j x0 , y=y j −h j x0 x0 KADD – Metoda najmniejszych kwadratów – funkcje nieliniowe 2 Przypadek nieliniowy – iteracje ■ Dalej postępujemy analogicznie do p. liniowego: f j x0 , = f j x0 , y−= f j x0 , y− , f = A c−=0, = A c ■ i mamy warunek minimalizacyjny: M = c A T G y c A =min ■ Rozwiązujac go otrzymujemy wynik: =−A ' c' Jest to jednak tylko kolejne przybliżenie. Bierzemy x 1 =x 0 jako kolejny punkt, wokół którego dokonujemy rozwinięcia i procedurę powtarzamy. ■ Procedura ta jest usprawiedliwiona tylko, gdy zależność jest dobrze przybliżana przez pierwsze pochodne w okolicy punktu xi±Δxi. −1 T −1 T −1 G = A G A = A ' A ' ■ Δxi wyznaczamy z macierzy: x y ■ KADD – Metoda najmniejszych kwadratów – funkcje nieliniowe 3 Omówienie przypadku nieliniowego Procedura wymaga możliwości podania pochodnej po każdym z parametrów Różniczkowanie można w ogólności wykonać numerycznie, jednak wiąże się to z komplikacjami programistycznymi i wydłużeniem obliczeń. ■ Funkcja M nie jest nie jest prostą formą kwadratową nieznanych parametrów, stąd minimalizacja musi następować iteracyjnie. ■ Zbieżność procedury jest także zależna od wyboru wielkości początkowej. ■ Procedurę kończymy, gdy wielkość M nie zmniejsza się w kolejnych krokach. 4 ■ KADD – Metoda najmniejszych kwadratów – funkcje nieliniowe Procedura z redukcją kroku iteracji ■ Często po i-tym kroku nie jest spełnione: M xi =M xi−1M xi−1 ■ Wtedy rozważamy wyrażenie: , gdzie 0≤s≤1 M xi−1s ■ Otrzymujemy zmodyfikowany wzór: T G cs A = 2 M = cs A c 's A ' y ■ który różniczkujemy ze względu na s: T A ' =2 M ' =2 c 's A ' s−1 T A ' T A ' ■ I otrzymujemy, że M'(s=0)<0 dla dodatnio określonej macierzy A'TA', czyli krzywizny funkcji M. W okolicy minimum to powinno być zawsze prawdziwe. M jest f. ciągłą, więc istnieje λ które: M ' s0, 0≤s≤ KADD – Metoda najmniejszych kwadratów – funkcje nieliniowe 5 Implementacja redukcji kroku ■ Czyli w przypadku, gdy nie jest spełniona nierówność: M xi =M xi−1M xi−1 wybieramy dowolną liczbę s taką, że 0<s<1 i sprawdzamy, czy zachodzi: M xi−1s M xi−1 ■ Jeśli tak, to przyjmujemy, że xi = xi−1s ■ Jeżeli nie, to ponownie przeprowadzamy całą procedurę, tzn. tym razem czynnik przez który mnożymy wynosi s2, potem ewentualnie s3 itd. KADD – Metoda najmniejszych kwadratów – funkcje nieliniowe 6 Dopasowanie eksponenty ■ Próbujemy dopasować do danych funkcję wykładniczą z ujemnym wykładnikiem: h j x=x 1 ⋅exp −x 2 t j ■ czyli poszukiwane parametry to x1 i x2. Dalej: f j = j −h j x ■ Elementy macierzy A liczymy analitycznie: a j1= a j2= ∂f ∂ x1 x0 ∂f ∂ x2 =−exp −x 02 t j =−x 01 exp −x 02 t j ⋅−t j =x 01 t j exp −x 02 t j x0 Zamiast wektora x używamy = x− x0 a c j =y j −h j x0 ■ Dalej procedura jest analogiczna do przypadku funkcji liniowej ■ KADD – Metoda najmniejszych kwadratów – funkcje nieliniowe 7 Eksponenta – rysunek KADD – Metoda najmniejszych kwadratów – funkcje nieliniowe 8 Analiza dopasowania ■ ■ Korzystając z macierzy (A'TA')-1 rysujemy elipsę kowariancji na tle mapy χ2 Podobnie możemy graficznie przedstawić kolejny kroki procedury dopasowania KADD – Metoda najmniejszych kwadratów – funkcje nieliniowe 9 Dopasowanie Gaussa ■ W podobny sposób możemy dopasować krzywą Gaussa. Formuła ma trzy parametry: 1 h j x= x 1 ⋅ ■ 2 x exp − 3 t j − x 2 2 2 x 32 Pochodne znów liczymy analitycznie: a j1= ∂f ∂ x1 =− 1 2 x exp − t j − x 02 2 =−h j x0 / x 01 2 03 2 x 3 2 t −x 2t−x 02 t−x 02 02 ∂f 1 j a j2= =−x 01 ⋅ exp − =−h j x0 ⋅ 2 2 2 ∂ x2 x 2 x 2 x x 2 x 03 03 03 03 a j3= x0 ∂f ∂ x2 0 = x0 x 01 2 x 2 03 x 01 2 x exp − 2 03 exp − t j −x 02 2 2 x 2 03 t j − x 02 2 t− x 02 2 2 x − = h j x0 t−x 02 2 −h j x0 ⋅ x 303 2 3 03 03 03 KADD – Metoda najmniejszych kwadratów – funkcje nieliniowe x x 10 Dopasowanie Gaussa – kroki KADD – Metoda najmniejszych kwadratów – funkcje nieliniowe 11 Dopasowanie Gaussa – kowariancja ■ ■ Rysujemy rzut elipsoidy kowariancji na płaszczyznę (x2, x3). Elipsoida ma 3 wymiary. Widizmy poszczególne kroki dopasowania na tle mapy χ2. KADD – Metoda najmniejszych kwadratów – funkcje nieliniowe 12 Test χ2 a m. najmniejszych kwadratów ■ Wyniki uzyskane metodą największej wiarygodności, z której wynika metoda najmniejszych kwadratów, mają następujące własności: Rozwiązanie x jest asymptotycznie nieobciążone E xi =x i , i=1, 2 , , r Jest ono estymatorem o minimalnej wariancji { } 2 xi =E xi − x i 2 =min Wielkość M ma rozkład χ2 o n-r st. swobody ■ Jednak jeżeli rozkład błędów nie jest znany (a więc nie jest Gaussem) to rozwiązanie uzyskane metodą najmniejszych kwadratów mają mniej silne własności KADD – Metoda najmniejszych kwadratów – funkcje nieliniowe 13 Nieznany rozkład błędów ■ Gdy nie znamy rozkładu błędów εj, to x : Jest nieobciążone Ze wszystkich estymatorów x będących liniowymi kombinacjami y, x ma najmniejszą wariancję Wartość oczekiwana wielkości M wynosi { } E { M }=E G y =n−r T czyli odpowiada wielkości oczekiwanej rozkładu χ2 o liczbie stopni swobody n-r. ■ Wielkość M jest często nazywana χ2 i służy do oceny jakości dopasowania, choć w ogólności nie musi pochodzić z rozkładu χ2. Liczba f=n-r jest liczbą stopni swobody dopasowania. 14 KADD – Metoda najmniejszych kwadratów – funkcje nieliniowe Analiza wielkości M ■ Gdy błędy mają rozkład normalny, wielkość M utożsamiamy z χ2 i stosujemy testy wiarygodności 2 M =T G y 1− n−r Zbyt duże M może oznaczać, że: Założenie, że dane są opisane przez f(x,η) jest błędne (postać funkcyjna lub niektóre parametry) Ograniczenie rozwinięcia w szereg Taylora f(x,η) do pierwszego wyrazu nie wystarcza Źle dobrano punkt początkowy dopasowania x 0 Macierz kowariancji wielkości mierzalnych C jest y nieprawdziwa ■ Gdy liczymy M dla wielu różnych zestawów danych, możemy sprawdzić jego zgodność z rozkładem χ2 15 ■ KADD – Metoda najmniejszych kwadratów – funkcje nieliniowe Obszar ufności ■ Przypomnienie – elipsoida ufności, to krzywa spełniająca równanie: −1 g x= x− x C x x− x =const T ■ Liczymy różnicę między wartością funkcji M w punkcie x i w minimum dopasowania x : −1 M x−M x = x− x A G y A x− x = x− x C x x− x T T T czyli elipsoida ufności odpowiada hiperpowierzchni na której M ma stałą wartość. W szczególności elipsoida kowariancji odpowiada krzywej: M x−M x =1 ⇒ M x=M x 1 ■ Elipsoida ufności odpowiadająca prawdopodobieństwu W jest hiperpowierzchnią: M x=M x g , gdzie g=W2 f , gdzie f =n−r KADD – Metoda najmniejszych kwadratów – funkcje nieliniowe 16 Obszar ufności – równania nieliniowe Rozważania o obszarze ufności są ściśle prawdziwe dla równań liniowych i przybliżeniu dla równań nieliniowych. To przybliżenie jest dobre gdy funkcja jest prawie liniowa, lub gdy zmiany parametrów (czyli ich błędy) są małe. ■ Gdy błędy są duże elipsoida kowariancji ma tę samą interpretację jako granica obszaru ufności, jednak błędy przestają być symetryczne. ■ Zwróćmy jeszcze uwagę na różnicę w definicjach: ■ 2 M =T G y = y−h x0 A T G y y−h x0 A 1− n−r 2 M x−M x = x− x T AT G y A x− x = x− x T C −1 x− x n−r x 1− ■ Obie wartości porównujemy z tymi samymi kwantylami, jednak są to zupełnie różne zmienne! KADD – Metoda najmniejszych kwadratów – funkcje nieliniowe 17 Wyznaczenie błędów niesymetrycznych Gdy elipsoida kowariancji ma skomplikowany kształt, mamy błędy niesymetryczne: x i = xi x i x i− = xi − x i− czyli wartości dla których pionowe i poziome linie są styczne do tej elipsoidy. Formalnie zapisujemy to: { } min { M x ; xi=x }−M x g=0 min M x ; xi= x i± =M x g , lub i± 3,8cm 2,15cm 2,49cm ■ 3,42cm KADD – Metoda najmniejszych kwadratów – funkcje nieliniowe 18 Pomiary zależne ■ Pomiary nie muszą być całkowicie niezależne. Np. mierząc 3 kąty w trójkącie musimy uzyskać sumę równą 180°. Szukamy estymatorów wielkości ηj: y j = j j , j=1, 2 , , n ■ { } E j =0 { } 2 2 E j = j Oprócz tego mamy też równania więzów: f k =0, k=1, 2 , , q ■ Najprostszy przypadek to równania liniowe: b10 b11 1 b12 2 b1 n n=0 ⋮ b q0 b q1 1 b q2 2 b qn n =0 ■ lub w notacji macierzowej B b0 =0 KADD – Metoda najmniejszych kwadratów – funkcje nieliniowe 19 Metoda elementów ■ Rozwiązujemy q równań więzów aby wyeliminować z równań q z n wielkości η. Pozostałe n-q wielkości αi (i=1,2,...,n-q) nazywamy elementami. Mogą to być pierwotne pomiary n lub ich kombinacje liniowe: j = f j0 f j1 1 f j2 2 f j , n−q n−q , j=1, 2 , , n lub =F f 0 ■ ■ Rozwiązanie znajdujemy podobnie jak wcześniej: = F Gy F T −1 F T G y y− f 0 Macierz kowariancji wynosi wtedy: −1 T G−1 = F Gy F ■ zaś poprawione wyniki pomiarów i ich macierz kowariancji wynoszą: −1 T =F f 0 =F F G y F F T G y y− f 0 f 0 T G−1 = F G F KADD – Metoda najmniejszych kwadratów – funkcje nieliniowe 20 Metoda mnożników Lagrange'a ■ Metoda elementów wymaga wyboru zmiennych α. Metoda mnożników Lagrange'a podchodzi inaczej do problemu. Przepiszmy równanie więzów: B y−B b0 =0 ■ Wprowadzamy wektor c i otrzymujemy równanie: c=B yb0 c−B =0 ■ Wprowadzamy wektor mnożników Lagrange'a: T = 1 2 q ■ i z jego pomocą rozszerzamy funkcję M do L: L=M 2 T c−B =T G y 2 T c−B ■ Jest to funkcja Lagrange'a. Teraz rozwiązujemy problem minimalizacji M przy jednoczesnym spełnieniu równań więzów. KADD – Metoda najmniejszych kwadratów – funkcje nieliniowe 21 Mnożniki Lagrange'a – rozwiązanie ■ ■ Pochodna zupełna funkcji L musi znikać: dL=2 T G y d 2 T B d =0 ⇔ T G y −T B=0 Przekształcając otrzymujemy rozwiązanie na μ: T −1 T −1 T −1 T G y =T B ⇒ =G−1 B ⇒ c−B G B =0 ⇒ = B G B c y y y ■ I możemy wyliczyć estymatory błędów pomiarowych T −1 T −1 =G−1 B B G B c y y ■ oraz najlepszy estymator dla wektora η: −1 T −1 T −1 = y− = y−G y B B G y B c ■ I ostatecznie piszemy macierze kowariancji: −1 T −1 G−1 = B G B ≡G B y −1 −1 T −1 G−1 =G −G B G B G y y B y KADD – Metoda najmniejszych kwadratów – funkcje nieliniowe 22