sterowanie stochastyczne w czasie ciągłym

Transkrypt

sterowanie stochastyczne w czasie ciągłym
Program przedmiotu:
STEROWANIE STOCHASTYCZNE W CZASIE CIĄGŁYM
30 godzin wykładu
Opis tematyki: Typowym zadaniem sterowania stochastycznego jest
znalezienie strategii która maksymalizuje (minimalizuje) średni zysk
(koszt). Wykład dotyczy modeli w czasie ciągłym. Znajomość przypadku
czasu dyskretnego nie jest niezbędna do zrozumienia wykładu. Tak więc w
typowej sytuacji proces sterowany X jest rozwiązaniem równania
stochastycznego
d X = b(X,u) dt + a(X,u)d Z, X(0)=x,
gdzie Z jest procesem Wienera lub, w modelach dopuszczających skoki,
procesem Levy'ego. Celem jest znalezienie sterowania u, które dla
zadanych T, g oraz G maksymalizuje
J(x,u)=E(  g(X(t),u(t))d t + G(X(T))).
Cele przedmiotu: Poznanie podstawowych twierdzeń i technik teorii
sterowanie stochastycznego w czasie ciągłym (programowanie
dynamiczne, zasada maksimum Pontriagina, równania HamiltonaJacobiego-Bellmana, optymalne stopowanie, sterowanie impulsowe,
równania quasi-variacyjne, sterowanie singularne,
problemy liniowo-kwadratowe, rozwiązania lepkościowe). Zaznajomienie z
konkretnymi zastosowaniami: problemy inwestora, problemy najlepszego
czasu sprzedarzy (kupna).
Zawartość programowa:
1. Pojęcia wstępne (10 godzin). Procesy Markowa w czasie ciągłym,
procesy Levy'ego. Generatory procesów zadanych przez stochastyczne
równania różniczkowe.
2. Problemy deterministyczne (4 godziny). Twierdzenie Bellmana dla
problemów sterowania na skończonym i nieskończonym odcinku
czasowym. Zasada maksimum Pontriagina. Rozwiązanie problemu liniowokwadratowego (liniowa dynamika stanów i kwadratowy funkcjonał kosztu).
Sterowanie impulsowe.
3. Twierdzenie weryfikacyjne dla stochastycznego problemu optymalnego
sterowania. Stochastyczna zasada maksimum. Zastosowania do
problemów inwestora (6 godzin).
4. Twierdzenie weryfikacyjne dla problemu optymalnego stopowania,
sterowanie impulsowe (6 godzin).
5. Sterowanie singularne, rozwiązania lepkościowe (4 godziny).
Literatura:
1. W. Fleming, M. Soner, Controlled Markov processes and viscosity
solutions, Springer 1993.
2. H. Kushner, Introduction to stochastic control, New York 1971.
3. B. Oksendal, A. Sulem, Applied stochastic control of jump diffusions,
Springer 2004.
4. S. Peszat, J. Zabczyk, Wstęp do teorii sterowania stochastycznego w
czasie dyskretnym, manuskrypt.
5. J. Yong, X.Y. Zhou, Stochastic controls, Springer 1999.
6. J. Zabczyk, Zarys matematycznej teorii sterowania, PWN 1991.