3 Opcjonalne i prognozowalne σ
Transkrypt
3 Opcjonalne i prognozowalne σ
M. Beśka, Całka Stochastyczna, wykład 3 33 Opcjonalne i prognozowalne σ-algebry 3 3.1 Dwie σ-algebry na [0, ∞) × Ω Zaczniemy od definicji Definicja 3.1 Opcjonalną σ-algebrą względem filtracji F = {Ft }t≥0 nazywamy σ-algebrę podzbiorów [0, ∞) × Ω generowaną przez wszystkie adaptowane i cadlag procesy. Oznaczać będziemy ją symbolem O. Twierdzenie 3.2 Niech O1 będzie σ-algebrą generowaną przez przedziały stochastyczne [[T, +∞[[, gdzie T jest czasem zatrzymania. (i) Jeśli S i T są czasami zatrzymania i Y jest FS -mierzalną zmienną losową to Y I[[S,T [[ jest O1 -mierzalnym procesem. (ii) Zachodzi równość O1 = O. Dowód. Dla dowodu (i) wystarczy rozpatrzyć przypadek, gdy Y = IA dla A ∈ FS . Zachodzi równość: IA I[[S,T [[ = IA I[[SF ,TF [[ , gdzie F = {S ≤ T }. Ponieważ F ∈ FS∧T , więc SF i TF są czasami zatrzymania. Ponadto S ≤ SF ≤ TF , zatem A ∈ FSF i A ∈ FTF . Stąd (SF )A i (TF )A są także czasami zatrzymania. Ostatecznie więc otrzymujemy IA I[[S,T [[ = IA I[[SF ,TF [[ = I[[(SF )A ,(TF )A [[ = I[[(SF )A ,+∞[[ − I[[(TF )A ,+∞[[ . Stąd proces IA I[[S,T [[ jest O1 - mierzalny, co kończy dowód punktu (i). Dowód punktu (ii) rozpoczniemy od spostrzeżenia, że I[[T,+∞[[ jest cadlag i adaptowanym procesem więc O1 ⊂ O. Dla dowodu zawierania w drugą stronę załóżmy, że X jest cadlag i adaptowany. Dla każdego n ∈ IN rozważmy następujący ciąg {Tkn }k≥1 odwzorowań T0n = 0 T1n = inf{t : t > T0n , |Xt − XT0n | > 1/n} T2n = inf{t : t > T1n , |Xt − XT1n | > 1/n} ... = .............................................. n n | > 1/n} Tkn = inf{t : t > Tk−1 , |Xt − XTk−1 ... = .............................................. n (ω) = +∞ dla ω ∈ Ω, k, n ≥ 1 Na mocy Przyjmujemy tutaj, że Tkn (ω) = +∞, gdy Tk−1 stwierdzenia 1.31 wszystkie Tkn są czasami zatrzymania. Proces X jest cadlag, więc nie M. Beśka, Całka Stochastyczna, wykład 3 34 posiada punktów nieciągłości drugiego rodzaju. Dla każdego t > 0 i dla każdego n ∈ IN trajektorie procesu X na przedziale [0, t] posiadają tylko skończoną ilość skoków większych niż 1/n. Stąd mamy, że ciąg {Tkn }k∈N czasów zatrzymania nie ma punktów skupienia i jest niemalejący, oraz lim Tkn = +∞. k→∞ Określmy Xtn (ω) = ∞ X n [[ (t, ω). XTkn I[[Tkn ,Tk+1 k=0 Z części (i) (już udowodnionej) wynika, że X n jest O1 -mierzalny. Proces X jest granicą n (ω) mamy |X (ω) − X n (ω)| = |X − X n | ≤ 1 . procesów X n , bo dla Tkn (ω) ≤ t < Tk+1 t t Tk t n Zatem X jest O1 -mierzalny. 2 Wniosek 3.3 Wszystkie stochastyczne przedziały są opcjonalne Dowód. Faktycznie zachodzą następujące równości: [[S, T [[ = [[S, +∞[[ \ [[T, +∞[[ [[T ]] = ∞ \ [[ T, T + 1/n[[ n=1 [[S, T ]] = [[S, T [[ ∪ [[T ]] Wniosek 3.4 Jeśli X jest opcjonalnym procesem, a T jest czasem zatrzymania to X T jest też opcjonalnym procesem. 2 Dowód. Zauważmy, że proces X T jest sumą dwóch procesów: (3.1) XtT (ω) = Xt (ω)I[[0,T [[ (t, ω) + XT (ω)I{T <∞} I[[T,+∞[[ . Na mocy wniosku 3.3 proces I[[0,T [[ jest opcjonalny. Zatem pierwszy składnik (3.1) jest procesem opcjonalnym. Opcjonalność drugiego składnika wynika z twierdzenia 3.2 oraz z tego, że σ - algebra opcjonalna jest zawarta w σ - algebrze zbiorów progresywnie mierzalnych. 2 Opcjonalna σ-algebra jest wystarczająca jesli rozważamy całkę stochastyczną względem ciągłych martyngałów. Dla całek stochastycznych względem ogólnych martyngałów konieczne jest rozważanie innej σ-algebry. Definicja 3.5 Prognozowalna σ-algebra P to taka, która jest generowana przez wszystkie adaptowane cag procesy. Następujące twierdzenie daje charakteryzację zdefiniowanej powyżej prognozowalnej σalgebry. 35 M. Beśka, Całka Stochastyczna, wykład 3 Twierdzenie 3.6 Niech (i) D będzie σ-algebrą generowaną przez zbiory: {0} × F , gdzie F ∈ F0 oraz przez zbiory (s, t] × F , gdzie s < t i F ∈ Fs . (ii) C będzie σ-algebrą podzbiorów [0, ∞) × Ω generowana przez wszystkie adaptowane ciągłe procesy. (iii) E będzie σ-algebrą generowaną przez zbiory {0}×F , gdzie F ∈ F0 oraz przez wszystkie przedziały stochastyczne ]]T, +∞[[, gdzie T jest czasem zatrzymania. Zachodzi równość P = D = C = E. Dowód. Oczywiście C ⊂ P. Ponieważ (s, t] × F =]]S, T ]], gdzie S = sF i T = tF więc D ⊂ E. Zauważmy, że I]]T,+∞[[ oraz IF I[0] (gdzie F ∈ F0 ) są adaptowanymi cag procesami. Zatem D ⊂ E ⊂ P. Udowodnimy teraz zawieranie P ⊂ D. Niech X będzie adaptowanym cag procesem. Określmy ∞ X Xtn (ω) = X0 (ω) + X k (ω)I k k+1 (t). k=1 n n , n Ponieważ proces X jest cag, więc dla każdego t > 0 istnieje ciąg { knn }n∈N , taki że Xtn (ω) = X kn (ω) oraz n kn n % t, Xt (ω) = lim X kn (ω). n→∞ n Tak więc dla każdego t ciąg {Xtn } jest zbieżny do Xt . Zawieranie będzie udowodnione jeśli pokażemy, że {Xtn } jest D-mierzalny. W tym celu wystarczy wykazać, że IA I k k+1 , gdzie n A ∈ F k jest D-mierzalny. Mamy , n n IA I Tak więc proces IA I k k+1 , n n k k+1 , n n =I k k+1 , n n ×A jest D-mierzalny. Do tej pory wykazaliśmy więc, że C ⊂ P = D = E. W celu zakończenia dowodu wystarczy wykazać zawieranie E ⊂ C. Niech S będzie czasem zatrzymania. Określmy Xt (ω) = t − S(ω) ∧ t. Proces X jest adaptowany, ciągły i zachodzi równość ]]S, +∞[[= {(s, ω) : Xs (ω) > 0}. 36 M. Beśka, Całka Stochastyczna, wykład 3 Dla A ∈ F0 i n ≥ 1 określmy adaptowany i ciągły proces 0, ω 6∈ A, 0, ω ∈ A ∧ t ≥ 1/n, Mamy Xtn (ω) = 1 − nt, ω ∈ A ∧ 0 ≤ t < 1/n. Xtn (ω) −−−→ I{0} (t)IA (ω), n→∞ gdzie t ≥ 0, ω ∈ Ω. Zatem generatory E należą do C, więc E ⊂ C. 2 Wniosek 3.7 Z twierdzenia 3.6(ii) otrzymujemy zawieranie P ⊂ O. 2 Twierdzenie 3.8 (O klasach monotonicznych) Niech C będzie π układem w E oraz niech H bedzie przestrzenią wektorową (nad IR) funkcji rzeczywistych określonych na E i spełniającą warunki: (i) IE ∈ H, IA ∈ H dla A ∈ C; (ii) Jeśli {fn } ⊂ H i 0 ≤ f1 ≤ f2 ≤ · · · i lim fn = f , (f ograniczona), to f ∈ H. n→∞ Wtedy H zawiera wszystkie funkcje mierzalne (ograniczone) względem σ(C). Dowód. Określmy M = {A ⊂ E : IA ∈ H}. Z założenia C ⊂ M. Wykażemy, że M jest λ-układem. Z punktu (i) E ∈ M. Niech A, B ∈ M oraz B ⊂ A. Wtedy IA\B = IA − IB ∈ H. Stąd A \ B ∈ M. I ostatni warunk λ-układu. Niech Ai ∈ M oraz Ai ⊂ Ai+1 dla i ≥ 1. Wtedy = lim IAn ∈ H. IS∞ i=1 Ai n→∞ Stąd (3.2) S∞ i=1 Ai ∈ M. Tak więc M jest λ-układem. Zatem σ(C) = λ(C) ⊂ λ(M) = M. Jeśli teraz f jest funkcją ograniczoną i mierzalną względem σ(C) to f = f + − f − . Funkcje f + i f − są punktową granicą niemalejącego ciągu prostych funkcji mierzalnych. Te proste funkcje są kombinacjami liniowymi indykatorów zbiorów z σ(C). Stąd i z (3.2) te funkcje proste są elementami H. Ponieważ H jest zamknięta na granice niemalejących ciągów funkcji nieujemnych, których granica jest ograniczona i jest przestrzenią wektorową, więc f ∈ H. 2 M. Beśka, Całka Stochastyczna, wykład 3 37 Twierdzenie 3.9 Jeśli Y jest prognozowalnym procesem i T jest czasem zatrzymania to zmienna losowa YT I{T <∞} jest FT − -mierzalna. Dowód. Niech H będzie zbiorem prognozowalnych procesów X, takich że XT I{T <∞} jest FT − -mierzalna dla wszystkich czasów zatrzymania T . Oznaczmy przez C zbiór przedziałow stochastycznych postaci [[0A ]], A ∈ F0 lub ]]S, ∞[[, gdzie S jest czasem zatrzymania. Zauważmy, że C jest π-układem oraz na mocy twierdzenia 3.6 generuje σ-algebrę zbiorów prognozowalnych. Wykażemy, że są spełnione założenia twierdzenia o klasach monotonicznych. Założenie (ii) jest spełnione z definicji H, jak również I[0, ∞)×Ω ∈ H. Sprawdzimy, że indykatory zbiorów z C należą do H. Zmienna losowa I[[0A ]] T I{T <∞} = IA∩{T =0} I{T <∞} = IA∩{T =0} jest F0 -mierzalna, a więc FT − -mierzalna. W drugim przypadku mamy I]]S, ∞[[ T I{T <∞} = I{S<T <∞} I{T <∞} = I{S<T } I{T <∞} oraz {S < T } ∈ FT − . Dowód będzie zakończony jeśli pokażemy, że I{T <∞} jest FT − mierzalne, co wynika z tego, że T jest FT − - mierzalne (twierdzenie 2.7 (iii)) lub bezpośrednio [ {T < ∞} = {T ≤ r} oraz {T ≤ r} = {r < T }0 ∈ FT − . r∈Q Założenia twierdzenia o klasach monotonicznych są spełnione. Teza twierdzenia wynika teraz z twierdzenia o klasach monotonicznych. 2 Następujący przykład pokazują, że zawieranie we wniosku 3.7 jest istotne. Przykład. Rozpatrzmy zupełną przestrzeń probabilistyczną (Ω, F, P ). Określmy filtrację σ(N (P )) jeśli t < 1, Ft = F jeśli t ≥ 1, gdzie N (P ) rodzina wszystkich elementów F o zerowym prawdopodobieństwie. Dla takiej filtracji są tylko dwa rodzaje czasów zatrzymania: S jest stały P -p.w. lub S jest zmienną losową względem F i S(ω) ≥ 1, P - p.w. Dla F ∈ F, 0 < P (F ) < 1 rozważmy proces 1 dla ω ∈ F, Xt (ω) = I[[S,+∞[[ (t, ω)I[[0,1]] (t, ω), gdzie S(ω) = +∞ dla ω 6∈ F. Zauważmy, że proces X jest opcjonalny (bo przedziały stochastyczne są opcjonalne). Zauważmy również, że Xt (ω) = I[[S,+∞[[ (t, ω)I[[0,1]] (t, ω) = I[[S, 1]] (t, ω) = IF (ω)I{1} (t). 38 M. Beśka, Całka Stochastyczna, wykład 3 Gdyby X był prognozowalny to zgodnie z twierdzeniem 3.9 dla czasu zatrzymania T ≡ 1 zmienna losowa XT I{T <∞} byłaby FT − -mierzalna. Ale XT I{T <∞} = IF oraz F 6∈ FT − = F1− = σ(N (P )) co daje sprzeczność. 2 Wniosek 3.10 Niech X będzie prognozowalnym procesem i niech Ft = Fn dla t ∈ [n, n+1[, n ∈ IN ∪ {0} to Xn jest Fn−1 -mierzalna dla n ≥ 1. Dowód. Zastosujemy W tutaj twierdzenie 3.9 dla czasu zatrzymania T ≡ n, n ≥ 1. W tym przypadku FT − = t<n Ft = Fn−1 , więc Xn jest Fn−1 -mierzalna dla n ≥ 1. 2 Przykład. Niech (Ω, F, P ) będzie zupełną przestrzenią probabilistyczną i niech będzie dana rosnąca rodzina W σ-algebr Fn , n ∈ IN ∪ {0} zawierająca P -zerowe zbiory F. Załóżmy ponadto, że F = n≥0 Fn . Rozważmy ciąg zmiennych losowych {Xn }n≥0 adaptowany względem rodziny {Fn }n≥0 . Utwórzmy proces stowarzyszony z danym ciągiem {Xn }n∈N i określony na (Ω, F, {Ft }, P ), gdzie Ft = Fn dla t ∈ [n, n + 1[, n≥0 Xt = Xn dla t ∈ [n, n + 1[, n ≥ 0. oraz Rodzina {Ft } jest prawostronnie ciągłą, a proces {Xt }t≥0 jest cadlag i adaptowany. Stąd jest opcjonalny i możemy go zapisać w postaci Xt (ω) = ∞ X Xn I[[n,n+1[[ (t, ω). n=0 Ponadto zachodzi Twierdzenie 3.11 Proces X określony powyżej jest prognozowalny wtedy i tylko wtedy, gdy Xn jest Fn−1 -mierzalna dla n ≥ 1. Dowód. Niech X będzie takim procesem, że dla każdego n ∈ IN zmienna losowa Xn jest Fn−1 -mierzalna. Zachodzą równości: Xt (ω) = Xt (ω) = ∞ X n=0 ∞ X Xn (ω)I[[n, n+1[[ (t, ω), Xn (ω)I[[n]] (t, ω) + Xn (ω)I]]n, n+1[[ (t, ω) n=0 oraz Xn (ω)I[[n]] (t, ω) = lim k→∞ Xn (ω)I]]n− 1 , k (t, ω) n]] 39 M. Beśka, Całka Stochastyczna, wykład 3 jest prognozowalny, ponieważ Xn jest Fn−1 -mierzalna dla n ≥ 1 (X0 I[[0]] jest prognozowalny). Z drugiej strony Xn (ω)I]]n, n+1[[ (t, ω) = lim Xn (ω)I]]n, n+1− 1 ]] (t, ω) k→∞ k jest także prognozowalny. Konieczność wynika z wniosku 3.10. 2 Uwaga. Zachodzą zawierania P ⊂ O ⊂ {progresywnie mierzalne zbiory} ⊂ B([0, ∞)) ⊗ F. 2 Twierdzenie 3.12 Jeśli X jest prognozowalnym procesem oraz T jest czasem zatrzymania to proces X T jest prognozowalny. Dowód. Proces X T można przedstawić w postaci X T = X0 + XI]]0,T ]] + XT I{T <∞} I]]T,+∞[[ i proces ten jest prognozowalny, ponieważ XI]]0,T ]] jest prognozowalny jako iloczyn dwóch prognozowalnych procesów, a XT I]]T,+∞[[ jest adaptowany i cag. 2 3.2 Zastosowania twierdzenia o cięciach Podamy teraz bez dowodu tzw. twierdzenia o cięciach. Dowód można znaleźć np. w książce Dellacherie. Twierdzenie 3.13 Niech (Ω, F, P ) będzie zupełną przestrzenią probabilistyczną i niech E ⊂ B([0, ∞)) ⊗ F. Wtedy istnieje F-mierzalna zmienna losowa T : Ω → [0, ∞] taka, że (i) jeśli T (ω) < ∞ to (T (ω), ω) ∈ E; (ii) P ({T < ∞}) = P (π(E)). 2 Uwaga. Chociaż w ogólnym przypadku T nie musi być czasem zatrzymania, to warunek (i) oznacza, że wykres T jest zawarty w E tzn. [[T ]] ⊂ E. Niech π będzie rzutem z [0, ∞) × Ω na Ω. Wtedy {T < ∞} = π([[T ]]) ⊂ π(E) i warunek (ii) oznacza, że {T < ∞} = π(E), P -p.w. tzn. dziedzina na której T jest skończona różni się od rzutu π(E) tylko na zbiorze miary zero. Twierdzenie to można uogólnić na zbiory opcjonalne i prognozowalne M. Beśka, Całka Stochastyczna, wykład 3 40 Twierdzenie 3.14 (Twierdzenie o cięciach) Niech (Ω, F, F, P ) będzie zupełną bazą stochastyczną i niech E ⊂ [0, ∞) × Ω będzie opcjonalnym (prognozowalnym) zbiorem. Wtedy dla dowolnego ε > 0 istnieje czas zatrzymania (prognozowalny czas zatrzymania) T taki, że (i) [[T ]] ⊂ E; (ii) P ({T < ∞}) ≥ P (π(E)) − ε. 2 Z twierdzenia o cięciach dostajemy od razu Wniosek 3.15 Niech X = {Xt }t≥0 i Y = {Yt }t≥0 będą opcjonalnymi (prognozowalnymi) procesami. Procesy X i Y są nieodróżnialne wtedy i tylko wtedy, gdy P − p.w. XT = YT , dla skończonego czasu zatrzymania (prognozowalnego). Dowód. Dowód przeprowadzimy w przypadku procesów opcjonalnych, dla prognozowalnych procesów przebiega on analogicznie. Konieczność jest oczywista. Dostateczność. Oznaczmy przez A = {(t, ω) : Xt (ω) 6= Yt (ω)}. Jest oczywiste, że A jest zbiorem opcjonalnym. Załóżmy, że P (π(A)) > 0. Wtedy z twierdzenia 3.14 dla dowolnego ε > 0 istnieje czas zatrzymania T taki, że [[T ]] ⊂ A i P ({T < ∞}) ≥ P (π(A)) − ε. Stąd P {T < ∞} > 0 (wystarczy przyjąć ε = P (π(A))/2). Ponieważ {T < ∞} = ∞ [ {T < n}, n=1 więc istnieje n ≥ 1 takie, że P ({T < n}) > 0. Rozważmy czas zatrzymania S = T ∧ n. Wtedy dla każdego ω ∈ {T < n} ⊂ {T < ∞} ⊂ π(A) (bo [[T ]] ⊂ A) mamy XS(ω) (ω) = XT (ω) (ω) 6= YT (ω) (ω) = YS(ω) (ω), co jest sprzeczne z założeniem. 2 Wniosek 3.16 Niech T : Ω → [0, ∞] będzie zmienną losową. Wtedy T jest czasem zatrzymania (prognozowalnym czasem zatrzymania) wtedy i tylko wtedy, gdy [[T ]] ∈ O ([[T ]] ∈ P). 41 M. Beśka, Całka Stochastyczna, wykład 3 Dowód. Jeśli T jest czasem zatrzymania to z wniosku 3.3 mamy [[T ]] ∈ O. Jeśli teraz [[T ]] ∈ O to z twierdzenia 1.34 debiut D[[T ]] = T jest czasem zatrzymania. Załóżmy teraz, że T jest prognozowalnym czasem zatrzymania i niech {Tn }n≥1 będzie ciągiem zapowiadającym T . Wtedy ∞ \ [[T ]] = ]]Tn , T ]] ∪ {0} × {T = 0} . n=1 Stąd i z twierdzenia 3.6 mamy [[T ]] ∈ P. W drugą stronę niech [[T ]] ∈ P. Z twierdzenia 3.14 dla każdego n ≥ 1 istnieje prognozowalny czas zatrzymania Tn taki, że (i) [[Tn ]] ⊂ [[T ]]; (ii) P ({Tn < ∞}) ≥ P ({T < ∞}) − 1/2n . Oznaczmy Sn = T1 ∧ . . . ∧ Tn , n ≥ 1. Ciąg {Sn }n≥1 jest nierosnącym ciągiem prognozowalnych czasów zatrzymania. Z (i) T ≤ Tn dla n ≥ 1. Stąd, z definicji Sn i własności minimum mamy (3.3) T ≤ Sn ≤ Tn dla n ≥ 1. Oznaczmy S = limn→∞ Sn . Wtedy dla każdego ω ∈ Ω istnieje n ≥ 1 takie, że Sn (ω) = S(ω). Rzeczywiście, bo jeśli istnieje n ≥ 1 takie, że Sn (ω) < ∞ to z definicji Sn istnieje 1 ≤ k ≤ n takie, że Tk (ω) = Sn (ω). Stąd i z (i) Sn (ω) = T (ω). Ponieważ {Sn }n≥1 jest nierosnący i mając na uwadze (3.3) dostajemy dla m ≥ n T (ω) ≤ Sm (ω) ≤ Sn (ω) = T (ω). Przechodząc w powyższym wyrażeniu z m → ∞ dostajemy T (ω) = S(ω) = Sn (ω). Jeśli natomiast Sn (ω) = ∞ dla każdego n ≥ 1 to S(ω) = ∞. Stosując teraz twierdzenie 2.15 wnioskujemy, że S jest prognozowanym czasem zatrzymania. Ponadto mamy {S 6= T } = {T < ∞} ∩ ∞ \ {Tn = ∞}. n=1 Rzeczywiście, niech T (ω) < ∞ i niech dla każdego n ≥ 1 mamy Tn (ω) = ∞. Wtedy z definicji Sn mamy dla każdego n ≥ 1 równość Sn (ω) = ∞. Zatem S(ω) = ∞. Ponieważ z założenia T (ω) < ∞, więc T (ω) 6= S(ω). W drugą stronę. Załóżmy, że S(ω) 6= T (ω). Z (3.3) mamy S(ω) ≥ T (ω), więc S(ω) > T (ω). Stąd T (ω) < ∞. Ponadto dla każdego n ≥ 1 mamy Tn (ω) = ∞, bo gdyby istnialo n0 takie, że Tn0 (ω) < ∞, to z (i) i z (3.3) mamy Tn0 (ω) = Sn0 (ω) = T (ω), a stąd dla każdego n ≥ n0 dostajemy Sn (ω) = T (ω), czyli S(ω) = T (ω) co daje sprzeczność z założeniem. Z udowodnionej co równości i z (ii) otrzymujemy ∞ \ P {S 6= T } = P {T < ∞} ∩ {Tn = ∞} = n=1 42 M. Beśka, Całka Stochastyczna, wykład 3 P ∞ \ n=1 1 {T < ∞} \ {Tn < ∞} ≤ n 2 dla każdego n ≥ 1. Biorąc n → ∞ dostajemy, że T = S, P - p.w., więc T jest też prognozowalnym czasem zatrzymania. 2 Twierdzenie 3.17 Niech A ∈ O (A ∈ P) i niech A⊂ ∞ [ [[Sn ]], n=1 gdzie {Sn }n≥1 ciągiem czasów zatrzymania. Wtedy A= (3.4) ∞ [ [[Tn ]], n=1 gdzie Tn dla każdego n ≥ 1 jest czasem zatrzymania (pronozowalnym czasem zatrzymania) oraz [[Tn ]] ∩ [[Tm ]] = ∅ dla n 6= m. Dowód. Niech A ∈ O. Oznaczmy [ [ B1 = A ∩ [[S1 ]], Bn = A \ [[Sk ]] ∩ [[Sn ]] = A ∩ [[Sn ]] \ [[Sk ]] , k<n n ≥ 2. k<n Niech Tn , n ≥ 1 będzie czasem zatrzymania, którego wykres jest równy Bn (np. Tn = DBn ). Z wniosku 3.16 zmienna losowa Tn jest czasem zatrzymania dla n ≥ 1. Dla tak określonych czasów zatrzymania mamy [[Tn ]]∩[[Tm ]] = ∅ dla n 6= m oraz zachodzi (3.4), co kończy dowód w przypadku opcjonalnym. Niech teraz A ∈ P. Z udowodnionej już części twierdzenia wynika, że A= ∞ [ [[Tn ]], n=1 gdzie {Tn }n≥1 jest ciągiem czasów zatrzymania takim, że [[Tn ]] ∩ [[Tm ]] = ∅ dla n 6= m. Oznaczmy przez Un , Vn osiągalną i totalnie nieosiagalną część Tn (patrz twierdzenie 2.11). Wtedy [[Tn ]] = [[Un ]] ∪ [[Vn ]] oraz Tn = Un ∧ Vn . Z definicji osiagalnych czsow zatrzymania istnieją ciągi {Rn,m }m≥1 , n ≥ 1 prognozowalnych czasów zatrzymania takie, że [[Un ]] ⊂ ∞ [ m=1 [[Rn,m ]], n ≥ 1. 43 M. Beśka, Całka Stochastyczna, wykład 3 Oznaczmy n, m ≥ 1. Sn,m = DA∩[[Rn,m ]] , Na mocy stwierdzenia 1.34 Sn,m jest zmienna losową, a ponieważ [[Sn,m ]] = A ∩ [[Rn,m ]] jest prognozowalnym zbiorem, więc z wniosku 3.16 jest również prognozowalnym czasem zatrzymania. Zauważmy, że ∞ [ ∞ [ ∞ [ [[Un ]] = n=1 ∞ [ ∞ [ A ∩ [[Rn,m ]] = n=1 m=1 [[Sn,m ]]. n=1 m=1 Wykresy [[Sn,m ]], n, m ≥ 1 możemy rozłączyć tak jak to zrobiliśmy dla A opcjonalnego. Oznaczmy przez [[Sen,m ]], n, m ≥ 1 czasy zatrzymania, których wykresami są otrzymane rozłączne wykresy (są one prognozowalne na mocy wniosku 3.16), wtedy A= ∞ [ n=1 [[Un ]] ∪ ∞ [ ∞ [ ∞ [ [[Vn ]] = n=1 ∞ [ [[Sn,m ]] ∪ n=1 m=1 [[Vn ]] = n=1 ∞ [ ∞ [ n=1 m=1 [[Sen,m ]] ∪ ∞ [ [[Vn ]] n=1 oraz [[Vi ]] ∩ [[Vj ]] = ∅ dla i 6= j, [[Sen,i ]] ∩ [[Sek,j ]] = ∅ dla n 6= k ∨ i 6= j. Zauważmy również, że zbiory ∞ [ [[Vn ]] ∞ [ ∞ [ i n=1 [[Sen,m ]] n=1 m=1 sa rozłączne, bo Vn1 są totalnie nieosiągalne, a Sen,m prognozowalne. Dla zakończenia dowodu wystarczyw wykazać, że ∞ [ B := [[Vn ]] = ∅. n=1 Załóżmy, że tak nie jest. Wtedy B =A\ ∞ [ ∞ [ [[Sen,m ]] n=1 m=1 byłby zbiorem prognozowalnym takim, że P [π(B)] > 0. Z twierdzenia o cięciach 3.14 istnieje prognozowalny czas zatrzymania R taki, że [[R]] ⊂ B oraz P {R < ∞} > 0. Stąd [[R]] = [[R]] ∩ B = ∞ [ [[R]] ∩ [[Vn ]] n=1 oraz {R < ∞} = π([[R]]) = ∞ [ n=1 π([[R]] ∩ [[Vn ]]). 44 M. Beśka, Całka Stochastyczna, wykład 3 Zatem 0 < P ({R < ∞}) ≤ ∞ X P (π([[R]] ∩ [[Vn ]])). n=1 Stąd istnieje n0 ≥ 1 takie, że P (π([[R]] ∩ [[Vn0 ]])) > 0 tzn. [[R]] ∩ [[Vn0 ]] 6= ∅, co jest niemożliwe, bo Vn0 jest totalnie nieosiagalnym czasem zatrzymania. 2 Twierdzenie 3.18 Niech X i Y będą opcjonalnymi (prognozowalnymi) nieujemnymi procesami. Jeśli dla każdego czasu zatrzymania (prognozowalnego czasu zatrzymania) T zachodzi równość (3.5) E XT I{T <∞} = E YT I{T <∞} , to procesy X i Y są nierozróżnialne. Dowód. Niech X i Y będą opcjonalnymi procesami. Określmy A1 = {(t, ω) : Xt (ω) < Yt (ω)}, oraz A2 = {(t, ω) : Xt (ω) > Yt (ω)}. Zbiory A1 i A2 są opcjonalne. Gdyby X i Y nie byli nierozróżnialne, to P π(A1 ) > 0 lub P π(A2 ) > 0. Załóżmy, że P π(A1 ) > 0. Mamy A1 = ∞ [ Bn , gdzie Bn = {(t, ω) : Xt (ω) < Yt (ω) ≤ n}, n ≥ 1. n=1 Zatem istnieje n ≥ 1 takie, że P π(Bn ) > 0. Wtedy z twierdzenia o cięciach (twierdzenie 3.14) istnieje czas zatrzymania T taki, że [[T ]] ⊂ Bn P {T < ∞} > 0 (wystarczy w twierdzeniu o cięciach przyjąć ε = P π(Bn ) /2). Dla ω ∈ {T < ∞} mamy (T (ω), ω) ∈ [[T ]] ⊂ Bn . Stąd XT (ω) < YT (ω) ≤ n co przeczy równości (3.5). Dla procesów prognozowalnych dowód przebiega podobnie. oraz 2 Uwaga. W powyższym twierdzeniu zamiast procesów nieujemnych można rozpatrywać procesy ograniczone. Wtedy teza jest również prawdziwa. 45 M. Beśka, Całka Stochastyczna, wykład 3 Twierdzenie 3.19 Niech A będzie prognozowalnym zbiorem (A ∈ P). Jeśli [[DA ]] ⊂ A, to DA jest prognozowalnym czasem zatrzymania. Dowód. Z wniosku 3.16 wystarczy pokazać, że [[DA ]] ∈ P. Ale [[DA ]] = A\ ]]DA , ∞[[ ∈ P. 2 Definicja 3.20 Niech X = {Xt }t≥0 będzie cadlag procesem i niech T będzie czasem zatrzymania. Mówimy, że skoki X obciążają (ang. charges) czas zatrzymania T jeśli P ({XT 6= XT − , T < ∞}) > 0. Równoważnie P (π(A ∩ [[T ]])) > 0, A = {X 6= X− }. gdzie Definicja 3.21 Niech X = {Xt }t≥0 będzie cadlag procesem i niech T będzie czasem zatrzymania. Mówimy, że proces X dopuszcza (ang. admits) skok w czasie zatrzymania T jeśli P ({XT 6= XT − , T < ∞}) > 0 oraz XT 6= XT − , P − p.w. na {T < ∞}. Równoważnie [[T ]] ⊂ A oraz P {T < ∞} > 0, gdzie A = {X 6= X− }. Definicja 3.22 Niech X = {Xt }t≥0 będzie cadlag procesem. Mówimy, że ciąg {Tn }n≥1 czasów zatrzymania wyczerpuje (ang. exhausts) skoki procesu X jeśli (i) proces X dopuszcza skok w Tn dla każdego n ≥ 1; (ii) [[Tn ]] ∩ [[Tm ]] = ∅ dla n 6= m; (iii) Skoki procesu X nie obciążają żadnego czasu zatrzymania T takiego, że [[T ]] ∩ ∞ [ [[Tn ]] = ∅. n=1 Równoważnie A = {X 6= X− } = ∞ [ [[Tn ]] n=1 P {Tn < ∞} > 0, Zachodzi nastepujące twierdzenie [[Tn ]] ∩ [[Tm ]] = ∅, n 6= m. 46 M. Beśka, Całka Stochastyczna, wykład 3 Twierdzenie 3.23 Niech X = {Xt }t≥0 będzie adaptowanym cadlag procesem. Wtedy istnieje ciąg {Tn }n≥1 czasów zatrzymania, który wyczerpuje skoki procesu X. Jeśli X jest prognozowalnym procesem, to {Tn }n≥1 może składać się z prognozowalnych czasów zatrzymania. Dowód. Załóżmy, że X = {Xt }t≥0 jest adaptowanym cadlag procesem. Oznaczmy przez A = {X 6= X− }. Wykażemy, że A da się przedstawić w postaci przeliczalnej sumy wykresów czasów zatrzymania. Dla każdego m ≥ 1 określmy Am = {|X − X− | > 1/m}, który jest zbiorem opcjonalnym (prognozowalnym, gdy X jest prognozowalny). Oczywiście zachodzi równość ∞ [ A= Am m=1 oraz oznaczmy cięcie zbioru Am w punkcie ω wzorem Am (ω) = {t ≥ 0 : (t, ω) ∈ Am }, ω ∈ Ω. Ponieważ X ma cadlag trajektorie, więc Am (ω) jest co najwyżej przeliczalnym zbiorem nie posiadającym punktów skupienia. Dla liczby naturalnej p ≥ 1 określmy p DA (ω) = inf{t ≥ 0 : [0, t] ∩ Am (ω) zawiera co najmniej p punktów}. m 1 1 1 Zauważmy, że DA jest debiutem zbioru Am tzn. DA = DAm . Stąd DA jest czasem zam m m p trzymania. Wykażemy przez indukcję, że DAm są dla p ≥ 1 czasami zatrzymania. Załóżmy, p że DA jest czasem zatrzymania. Wtedy m p+1 1 p DA = DA m m p Apm = Am ∩ ]]DA , ∞[[. m gdzie Ponieważ Apm jest zbiorem opcjonalnym (prognozowalnym, gdy X jest prognozowalny), p+1 więc DA jest czasem zatrzymania. Teraz otrzymujemy m Am = ∞ [ p [[DA ]], m p=1 więc A= ∞ [ m=1 Am = ∞ [ ∞ [ p [[DA ]]. m m=1 p=1 Stosując teraz twierdznie 3.17 dostajemy tezę. 2 47 M. Beśka, Całka Stochastyczna, wykład 3 Wniosek 3.24 Dowolny prognozowalny proces nie obciąża żadnego totalnie nieosiągalnego czasu zatrzymania. 2 Wniosek 3.25 Niech X = {Xt }t≥0 będzie adaptowanym cadlag procesem. Wtedy istnieje ciąg {Tn }n≥1 czasów zatrzymania, gdzie Tn jest prognozowalny albo totalnie nieosiągalny oraz ∞ [ A = {X 6= X− } ⊂ [[Tn ]], [[Tn ]] ∩ [[Tm ]] = ∅, n 6= m. n=1 Dowód. Jak wiadomo z dowodu twierdzenia 3.17 i 3.23 mamy następujacą reprezentację A= ∞ [ [[Un ]] ∪ n=1 ∞ [ [[Vn ]], n=1 gdzie Un i Vn są dla n ≥ 1 odpowiednio osiagalnymi i totalnie nieosiagalnymi czasami zatrzymania oraz [[Un ]] ∩ [[Um ]] = ∅, [[Vn ]] ∩ [[Vm ]] = ∅, n 6= m. Z definicji osiągalnych czasów zatrzymania dla n ≥ 1 mamy ∞ [ [[Un ]] ⊂ [[Rn,m ]], m=1 gdzie Rn,m są prognozowalnymi czasami zatrzymania. Zatem A⊂ ∞ [ [[Vn ]] ∪ n=1 ∞ [ ∞ [ [[Rn,m ]] = n=1 m=1 ∞ [ [[Vn ]] ∪ n=1 ∞ [ [[Rn ]] n=1 po przenumerowaniu. Określmy en = (Rn ){R 6=R , R n k k=1,2,...,n−1} , n ≥ 1. Wtedy en ]] = [[Rn ]] \ [[R n−1 [ [[Rk ]] k=1 en , n ≥ 1 są prognozowlane. Ponadto oraz czasy zatrzymania R ∞ [ n=1 en ]] = [[R ∞ [ [[Rn ]] oraz ek ]] = ∅, [[Vn ]] ∩ [[R k, n ≥ 1. n=1 2 Z powyższego wniosku wynika, że badanie własności skoków procesów cadlag sprowadza się do rozpatrzenia dwóch przypadków; czas skoku procesu jest prognozowalny lub totalnie nieosiągalny.