sterowanie stochastyczne w czasie ciągłym
Transkrypt
sterowanie stochastyczne w czasie ciągłym
Program przedmiotu: STEROWANIE STOCHASTYCZNE W CZASIE CIĄGŁYM 30 godzin wykładu Opis tematyki: Typowym zadaniem sterowania stochastycznego jest znalezienie strategii która maksymalizuje (minimalizuje) średni zysk (koszt). Wykład dotyczy modeli w czasie ciągłym. Znajomość przypadku czasu dyskretnego nie jest niezbędna do zrozumienia wykładu. Tak więc w typowej sytuacji proces sterowany X jest rozwiązaniem równania stochastycznego d X = b(X,u) dt + a(X,u)d Z, X(0)=x, gdzie Z jest procesem Wienera lub, w modelach dopuszczających skoki, procesem Levy'ego. Celem jest znalezienie sterowania u, które dla zadanych T, g oraz G maksymalizuje J(x,u)=E( g(X(t),u(t))d t + G(X(T))). Cele przedmiotu: Poznanie podstawowych twierdzeń i technik teorii sterowanie stochastycznego w czasie ciągłym (programowanie dynamiczne, zasada maksimum Pontriagina, równania HamiltonaJacobiego-Bellmana, optymalne stopowanie, sterowanie impulsowe, równania quasi-variacyjne, sterowanie singularne, problemy liniowo-kwadratowe, rozwiązania lepkościowe). Zaznajomienie z konkretnymi zastosowaniami: problemy inwestora, problemy najlepszego czasu sprzedarzy (kupna). Zawartość programowa: 1. Pojęcia wstępne (10 godzin). Procesy Markowa w czasie ciągłym, procesy Levy'ego. Generatory procesów zadanych przez stochastyczne równania różniczkowe. 2. Problemy deterministyczne (4 godziny). Twierdzenie Bellmana dla problemów sterowania na skończonym i nieskończonym odcinku czasowym. Zasada maksimum Pontriagina. Rozwiązanie problemu liniowokwadratowego (liniowa dynamika stanów i kwadratowy funkcjonał kosztu). Sterowanie impulsowe. 3. Twierdzenie weryfikacyjne dla stochastycznego problemu optymalnego sterowania. Stochastyczna zasada maksimum. Zastosowania do problemów inwestora (6 godzin). 4. Twierdzenie weryfikacyjne dla problemu optymalnego stopowania, sterowanie impulsowe (6 godzin). 5. Sterowanie singularne, rozwiązania lepkościowe (4 godziny). Literatura: 1. W. Fleming, M. Soner, Controlled Markov processes and viscosity solutions, Springer 1993. 2. H. Kushner, Introduction to stochastic control, New York 1971. 3. B. Oksendal, A. Sulem, Applied stochastic control of jump diffusions, Springer 2004. 4. S. Peszat, J. Zabczyk, Wstęp do teorii sterowania stochastycznego w czasie dyskretnym, manuskrypt. 5. J. Yong, X.Y. Zhou, Stochastic controls, Springer 1999. 6. J. Zabczyk, Zarys matematycznej teorii sterowania, PWN 1991.