4. lista

Transkrypt

4. lista
Analiza wypukła, Matematyka, 2. st.
semestr zimowy 2015/2016
IV lista zadań
1. Rozważ zagadnienie minimalizacji bez ograniczeń funkcji f (x, y) = 3x2 + y 4 .
(a) Wykonaj dla tej funkcji jeden krok metody największego spadku, startując z punktu
(1, 2) i dobierając długość kroku przy pomocy reguły Armijo z s = 1, σ = 0.1 oraz
β = 0.1.
(b) Wykonaj polecenie z punktu (a), zmieniając wartość β na 0.5. O ile dokładniejsze jest uzyskane przybliżenie? O ile więcej operacji trzeba było wykonać, aby je
uzyskać?
(c) Wykonaj polecenie z punktu (b), ale tym razem stosując metodę Newtona. Porównaj
dokładność uzyskanego przybliżenia oraz liczbę operacji, które były konieczne do
jego otrzymania.
3
2. Niech f (x) = kxk 2 (gdzie x ∈ Rn z normą euklidesową). Zauważ, że jedynym punktem
stacjonarnym tej funkcji jest x∗ = 0. Zastosuj do niej metodę największego spadku ze
stałą długością kroku αk ≡ α. Pokaż, że dla dowolnego punktu startowego x0 jest ona
zbieżna do x∗ w skończonej liczbie kroków lub nie jest zbieżna w ogóle.
3. Rozważ funkcję f (x, y) = x2 + 4xy − 2y 2 .
(a) Zauważ, że ma ona dokładnie jeden punkt stacjonarny, który nie jest minimum
lokalnym ani maksimum lokalnym.
(b) Pokaż, że jeśli (x0 , y0 ) = a(2, 1), to metoda największego spadku ze stałą długością
kroku α jest zbieżna wtedy i tylko wtedy, gdy α ∈ 0, 14 .
(c) Pokaż, że jeśli (x0 , y0 ) = b(1, −2), to metoda największego
spadku
ze stałą długością
kroku α jest zbieżna wtedy i tylko wtedy, gdy α ∈ − 61 , 0 . Oczywiście z definicji
α > 0. Co zatem oznacza uzyskany wynik?
(d) Pokaż, że jeśli (x0 , y0 ) = a(2, 1) + b(1, −2), a, b 6= 0, to metoda największego spadku
nie jest zbieżna dla żadnej (stałej) wartości α.
(e) Oblicz wartości i wektory własne dla macierzy definiującej formę kwadratową f (x, y).
Korzystając z uzyskanych wyników wytłumacz, skąd się bierze szczególne zachowanie metody największego spadku w przypadkach z podpunktów (b) i (c).
(f) Jaka wartość kroku byłaby wybrana w podpunktach (b), (c) i (d), gdyby wybór był
dokonany w sposób optymalny? Czy metoda byłaby wtedy zbieżna?
4. Pokaż, że jeśli zbiór A ∈ Rn jest nieograniczony, domknięty i wypukły, to dla dowolnego
x0 ∈ A istnieje promień {x ∈ Rn : x = x0 + αv, α ∈ R+ } (gdzie v to pewien ustalony
wektor z Rn \ {0}) zawarty w A.
5. Pokaż, że jeśli f : Rn → R jest funkcją wypukłą posiadającą dokładnie jedno minimum
x∗ , to dowolna metoda gradientowa spełniająca założenia twierdzenia o zbieżności metod
gradientowych z wykładu będzie dla dowolnego punktu startowego zbieżna do x∗ .
Wskazówka: Na początek, korzystając z wyniku udowodnionego w poprzednim zadaniu,
pokaż, że zbiór {x ∈ Rn : f (x) ¬ f (x∗ )} jest zwarty.
6. Udowodnij, że metoda Newtona jest niezależna od przekształceń liniowych, tzn. że jeśli
zmienne yn uzyskamy z ciągu kolejnych przybliżeń metody Newtona zastosowanej do
funkcji f , xn , przy pomocy przekształcenia liniowego yn = Lxn (L – macierz odwracalna), to yn są kolejnymi przybliżeniami metody Newtona zastosowanej do szukania
minimum odpowiednio zmodyfikowanej funkcji f z punktem startowym y0 = Lx0 .
Zadania do zaprogramowania
1. Napisz program, który dla zadanego przez użytkownika problemu programowania kwadratowego z liniowymi ograniczeniami będzie rozwiązywał ten problem przy pomocy
algorytmu Wolfe’a.
2. Napisz implementację metody iteracyjnej Newtona szukania minimum funkcji (z poprawką zamieniającą zdefiniowaną w metodzie Newtona macierz Dk na macierz jednostkową, gdy ta pierwsza nie jest dodatnio określona). Program powinien umożliwiać
użytkownikowi podanie funkcji, dla której będzie szukane minimum oraz punktu początkowego. Pochodne mają być liczone symbolicznie. Można do programu wprowadzić
ograniczenie na liczbę zmiennych funkcji, ale musi on radzić sobie z funkcjami dwóch i
trzech zmiennych.

Podobne dokumenty