3 Opcjonalne i prognozowalne σ

Transkrypt

3 Opcjonalne i prognozowalne σ
M. Beśka, Całka Stochastyczna, wykład 3
33
Opcjonalne i prognozowalne σ-algebry
3
3.1
Dwie σ-algebry na [0, ∞) × Ω
Zaczniemy od definicji
Definicja 3.1 Opcjonalną σ-algebrą względem filtracji F = {Ft }t≥0 nazywamy σ-algebrę
podzbiorów [0, ∞) × Ω generowaną przez wszystkie adaptowane i cadlag procesy. Oznaczać
będziemy ją symbolem O.
Twierdzenie 3.2 Niech O1 będzie σ-algebrą generowaną przez przedziały stochastyczne
[[T, +∞[[, gdzie T jest czasem zatrzymania.
(i) Jeśli S i T są czasami zatrzymania i Y jest FS -mierzalną zmienną losową to Y I[[S,T [[
jest O1 -mierzalnym procesem.
(ii) Zachodzi równość O1 = O.
Dowód. Dla dowodu (i) wystarczy rozpatrzyć przypadek, gdy Y = IA dla A ∈ FS .
Zachodzi równość:
IA I[[S,T [[ = IA I[[SF ,TF [[ ,
gdzie F = {S ≤ T }. Ponieważ F ∈ FS∧T , więc SF i TF są czasami zatrzymania. Ponadto
S ≤ SF ≤ TF , zatem A ∈ FSF i A ∈ FTF . Stąd (SF )A i (TF )A są także czasami
zatrzymania. Ostatecznie więc otrzymujemy
IA I[[S,T [[ = IA I[[SF ,TF [[ = I[[(SF )A ,(TF )A [[ = I[[(SF )A ,+∞[[ − I[[(TF )A ,+∞[[ .
Stąd proces IA I[[S,T [[ jest O1 - mierzalny, co kończy dowód punktu (i). Dowód punktu
(ii) rozpoczniemy od spostrzeżenia, że I[[T,+∞[[ jest cadlag i adaptowanym procesem więc
O1 ⊂ O. Dla dowodu zawierania w drugą stronę załóżmy, że X jest cadlag i adaptowany.
Dla każdego n ∈ IN rozważmy następujący ciąg {Tkn }k≥1 odwzorowań
T0n = 0
T1n = inf{t : t > T0n , |Xt − XT0n | > 1/n}
T2n = inf{t : t > T1n , |Xt − XT1n | > 1/n}
... = ..............................................
n
n | > 1/n}
Tkn = inf{t : t > Tk−1
, |Xt − XTk−1
... = ..............................................
n (ω) = +∞ dla ω ∈ Ω, k, n ≥ 1 Na mocy
Przyjmujemy tutaj, że Tkn (ω) = +∞, gdy Tk−1
stwierdzenia 1.31 wszystkie Tkn są czasami zatrzymania. Proces X jest cadlag, więc nie
M. Beśka, Całka Stochastyczna, wykład 3
34
posiada punktów nieciągłości drugiego rodzaju. Dla każdego t > 0 i dla każdego n ∈ IN
trajektorie procesu X na przedziale [0, t] posiadają tylko skończoną ilość skoków większych
niż 1/n. Stąd mamy, że ciąg {Tkn }k∈N czasów zatrzymania nie ma punktów skupienia i
jest niemalejący, oraz
lim Tkn = +∞.
k→∞
Określmy
Xtn (ω) =
∞
X
n [[ (t, ω).
XTkn I[[Tkn ,Tk+1
k=0
Z części (i) (już udowodnionej) wynika, że X n jest O1 -mierzalny. Proces X jest granicą
n (ω) mamy |X (ω) − X n (ω)| = |X − X n | ≤ 1 .
procesów X n , bo dla Tkn (ω) ≤ t < Tk+1
t
t
Tk
t
n
Zatem X jest O1 -mierzalny.
2
Wniosek 3.3 Wszystkie stochastyczne przedziały są opcjonalne
Dowód. Faktycznie zachodzą następujące równości:
[[S, T [[ = [[S, +∞[[ \ [[T, +∞[[
[[T ]] =
∞
\
[[ T, T + 1/n[[
n=1
[[S, T ]] = [[S, T [[ ∪ [[T ]]
Wniosek 3.4 Jeśli X jest opcjonalnym procesem, a T jest czasem zatrzymania to X T jest
też opcjonalnym procesem.
2
Dowód. Zauważmy, że proces X T jest sumą dwóch procesów:
(3.1)
XtT (ω) = Xt (ω)I[[0,T [[ (t, ω) + XT (ω)I{T <∞} I[[T,+∞[[ .
Na mocy wniosku 3.3 proces I[[0,T [[ jest opcjonalny. Zatem pierwszy składnik (3.1) jest procesem opcjonalnym. Opcjonalność drugiego składnika wynika z twierdzenia 3.2 oraz z tego,
że σ - algebra opcjonalna jest zawarta w σ - algebrze zbiorów progresywnie mierzalnych.
2
Opcjonalna σ-algebra jest wystarczająca jesli rozważamy całkę stochastyczną względem ciągłych martyngałów. Dla całek stochastycznych względem ogólnych martyngałów
konieczne jest rozważanie innej σ-algebry.
Definicja 3.5 Prognozowalna σ-algebra P to taka, która jest generowana przez wszystkie
adaptowane cag procesy.
Następujące twierdzenie daje charakteryzację zdefiniowanej powyżej prognozowalnej σalgebry.
35
M. Beśka, Całka Stochastyczna, wykład 3
Twierdzenie 3.6 Niech
(i) D będzie σ-algebrą generowaną przez zbiory: {0} × F , gdzie F ∈ F0 oraz przez zbiory
(s, t] × F , gdzie s < t i F ∈ Fs .
(ii) C będzie σ-algebrą podzbiorów [0, ∞) × Ω generowana przez wszystkie adaptowane
ciągłe procesy.
(iii) E będzie σ-algebrą generowaną przez zbiory {0}×F , gdzie F ∈ F0 oraz przez wszystkie
przedziały stochastyczne ]]T, +∞[[, gdzie T jest czasem zatrzymania.
Zachodzi równość
P = D = C = E.
Dowód. Oczywiście C ⊂ P. Ponieważ (s, t] × F =]]S, T ]], gdzie S = sF i T = tF więc
D ⊂ E. Zauważmy, że I]]T,+∞[[ oraz IF I[0] (gdzie F ∈ F0 ) są adaptowanymi cag procesami.
Zatem D ⊂ E ⊂ P.
Udowodnimy teraz zawieranie P ⊂ D. Niech X będzie adaptowanym cag procesem.
Określmy
∞
X
Xtn (ω) = X0 (ω) +
X k (ω)I k k+1 (t).
k=1
n
n
,
n
Ponieważ proces X jest cag, więc dla każdego t > 0 istnieje ciąg { knn }n∈N , taki że
Xtn (ω) = X kn (ω)
oraz
n
kn
n
% t,
Xt (ω) = lim X kn (ω).
n→∞
n
Tak więc dla każdego t ciąg {Xtn } jest zbieżny do Xt . Zawieranie będzie udowodnione jeśli
pokażemy, że {Xtn } jest D-mierzalny. W tym celu wystarczy wykazać, że IA I k k+1 , gdzie
n
A ∈ F k jest D-mierzalny. Mamy
,
n
n
IA I
Tak więc proces IA I
k k+1
, n
n
k k+1
, n
n
=I
k k+1
, n
n
×A
jest D-mierzalny. Do tej pory wykazaliśmy więc, że
C ⊂ P = D = E.
W celu zakończenia dowodu wystarczy wykazać zawieranie E ⊂ C. Niech S będzie czasem
zatrzymania. Określmy
Xt (ω) = t − S(ω) ∧ t.
Proces X jest adaptowany, ciągły i zachodzi równość
]]S, +∞[[= {(s, ω) : Xs (ω) > 0}.
36
M. Beśka, Całka Stochastyczna, wykład 3
Dla A ∈ F0 i n ≥ 1 określmy adaptowany i ciągły proces

0,
ω 6∈ A,

0,
ω ∈ A ∧ t ≥ 1/n,
Mamy
Xtn (ω) =

1 − nt, ω ∈ A ∧ 0 ≤ t < 1/n.
Xtn (ω) −−−→ I{0} (t)IA (ω),
n→∞
gdzie t ≥ 0, ω ∈ Ω. Zatem generatory E należą do C, więc E ⊂ C.
2
Wniosek 3.7 Z twierdzenia 3.6(ii) otrzymujemy zawieranie P ⊂ O.
2
Twierdzenie 3.8 (O klasach monotonicznych) Niech C będzie π układem w E oraz
niech H bedzie przestrzenią wektorową (nad IR) funkcji rzeczywistych określonych na E i
spełniającą warunki:
(i) IE ∈ H, IA ∈ H dla A ∈ C;
(ii) Jeśli {fn } ⊂ H i 0 ≤ f1 ≤ f2 ≤ · · · i lim fn = f , (f ograniczona), to f ∈ H.
n→∞
Wtedy H zawiera wszystkie funkcje mierzalne (ograniczone) względem σ(C).
Dowód. Określmy
M = {A ⊂ E : IA ∈ H}.
Z założenia C ⊂ M. Wykażemy, że M jest λ-układem. Z punktu (i) E ∈ M. Niech A,
B ∈ M oraz B ⊂ A. Wtedy IA\B = IA − IB ∈ H. Stąd A \ B ∈ M. I ostatni warunk
λ-układu. Niech Ai ∈ M oraz Ai ⊂ Ai+1 dla i ≥ 1. Wtedy
= lim IAn ∈ H.
IS∞
i=1 Ai
n→∞
Stąd
(3.2)
S∞
i=1 Ai
∈ M. Tak więc M jest λ-układem. Zatem
σ(C) = λ(C) ⊂ λ(M) = M.
Jeśli teraz f jest funkcją ograniczoną i mierzalną względem σ(C) to f = f + − f − . Funkcje
f + i f − są punktową granicą niemalejącego ciągu prostych funkcji mierzalnych. Te proste
funkcje są kombinacjami liniowymi indykatorów zbiorów z σ(C). Stąd i z (3.2) te funkcje
proste są elementami H. Ponieważ H jest zamknięta na granice niemalejących ciągów
funkcji nieujemnych, których granica jest ograniczona i jest przestrzenią wektorową, więc
f ∈ H.
2
M. Beśka, Całka Stochastyczna, wykład 3
37
Twierdzenie 3.9 Jeśli Y jest prognozowalnym procesem i T jest czasem zatrzymania to
zmienna losowa YT I{T <∞} jest FT − -mierzalna.
Dowód. Niech H będzie zbiorem prognozowalnych procesów X, takich że XT I{T <∞} jest
FT − -mierzalna dla wszystkich czasów zatrzymania T . Oznaczmy przez C zbiór przedziałow stochastycznych postaci [[0A ]], A ∈ F0 lub ]]S, ∞[[, gdzie S jest czasem zatrzymania.
Zauważmy, że C jest π-układem oraz na mocy twierdzenia 3.6 generuje σ-algebrę zbiorów
prognozowalnych. Wykażemy, że są spełnione założenia twierdzenia o klasach monotonicznych. Założenie (ii) jest spełnione z definicji H, jak również I[0, ∞)×Ω ∈ H. Sprawdzimy,
że indykatory zbiorów z C należą do H. Zmienna losowa
I[[0A ]] T I{T <∞} = IA∩{T =0} I{T <∞} = IA∩{T =0}
jest F0 -mierzalna, a więc FT − -mierzalna. W drugim przypadku mamy
I]]S, ∞[[ T I{T <∞} = I{S<T <∞} I{T <∞} = I{S<T } I{T <∞}
oraz {S < T } ∈ FT − . Dowód będzie zakończony jeśli pokażemy, że I{T <∞} jest FT − mierzalne, co wynika z tego, że T jest FT − - mierzalne (twierdzenie 2.7 (iii)) lub bezpośrednio
[
{T < ∞} =
{T ≤ r} oraz {T ≤ r} = {r < T }0 ∈ FT − .
r∈Q
Założenia twierdzenia o klasach monotonicznych są spełnione. Teza twierdzenia wynika
teraz z twierdzenia o klasach monotonicznych.
2
Następujący przykład pokazują, że zawieranie we wniosku 3.7 jest istotne.
Przykład. Rozpatrzmy zupełną przestrzeń probabilistyczną (Ω, F, P ). Określmy filtrację
σ(N (P )) jeśli t < 1,
Ft =
F
jeśli t ≥ 1,
gdzie N (P ) rodzina wszystkich elementów F o zerowym prawdopodobieństwie. Dla takiej
filtracji są tylko dwa rodzaje czasów zatrzymania: S jest stały P -p.w. lub S jest zmienną
losową względem F i S(ω) ≥ 1, P - p.w. Dla F ∈ F, 0 < P (F ) < 1 rozważmy proces
1
dla ω ∈ F,
Xt (ω) = I[[S,+∞[[ (t, ω)I[[0,1]] (t, ω), gdzie S(ω) =
+∞ dla ω 6∈ F.
Zauważmy, że proces X jest opcjonalny (bo przedziały stochastyczne są opcjonalne). Zauważmy również, że
Xt (ω) = I[[S,+∞[[ (t, ω)I[[0,1]] (t, ω) = I[[S, 1]] (t, ω) = IF (ω)I{1} (t).
38
M. Beśka, Całka Stochastyczna, wykład 3
Gdyby X był prognozowalny to zgodnie z twierdzeniem 3.9 dla czasu zatrzymania T ≡ 1
zmienna losowa XT I{T <∞} byłaby FT − -mierzalna. Ale XT I{T <∞} = IF oraz F 6∈ FT − =
F1− = σ(N (P )) co daje sprzeczność.
2
Wniosek 3.10 Niech X będzie prognozowalnym procesem i niech Ft = Fn dla t ∈ [n, n+1[,
n ∈ IN ∪ {0} to Xn jest Fn−1 -mierzalna dla n ≥ 1.
Dowód. Zastosujemy
W tutaj twierdzenie 3.9 dla czasu zatrzymania T ≡ n, n ≥ 1. W tym
przypadku FT − = t<n Ft = Fn−1 , więc Xn jest Fn−1 -mierzalna dla n ≥ 1.
2
Przykład. Niech (Ω, F, P ) będzie zupełną przestrzenią probabilistyczną i niech będzie
dana rosnąca rodzina
W σ-algebr Fn , n ∈ IN ∪ {0} zawierająca P -zerowe zbiory F. Załóżmy
ponadto, że F = n≥0 Fn . Rozważmy ciąg zmiennych losowych {Xn }n≥0 adaptowany
względem rodziny {Fn }n≥0 . Utwórzmy proces stowarzyszony z danym ciągiem {Xn }n∈N
i określony na (Ω, F, {Ft }, P ), gdzie
Ft = Fn
dla t ∈ [n, n + 1[,
n≥0
Xt = Xn
dla t ∈ [n, n + 1[,
n ≥ 0.
oraz
Rodzina {Ft } jest prawostronnie ciągłą, a proces {Xt }t≥0 jest cadlag i adaptowany. Stąd
jest opcjonalny i możemy go zapisać w postaci
Xt (ω) =
∞
X
Xn I[[n,n+1[[ (t, ω).
n=0
Ponadto zachodzi
Twierdzenie 3.11 Proces X określony powyżej jest prognozowalny wtedy i tylko wtedy,
gdy Xn jest Fn−1 -mierzalna dla n ≥ 1.
Dowód. Niech X będzie takim procesem, że dla każdego n ∈ IN zmienna losowa Xn jest
Fn−1 -mierzalna. Zachodzą równości:
Xt (ω) =
Xt (ω) =
∞
X
n=0
∞
X
Xn (ω)I[[n,
n+1[[ (t, ω),
Xn (ω)I[[n]] (t, ω) + Xn (ω)I]]n,
n+1[[ (t, ω)
n=0
oraz
Xn (ω)I[[n]] (t, ω) = lim
k→∞
Xn (ω)I]]n− 1 ,
k
(t,
ω)
n]]
39
M. Beśka, Całka Stochastyczna, wykład 3
jest prognozowalny, ponieważ Xn jest Fn−1 -mierzalna dla n ≥ 1 (X0 I[[0]] jest prognozowalny). Z drugiej strony
Xn (ω)I]]n, n+1[[ (t, ω) = lim Xn (ω)I]]n, n+1− 1 ]] (t, ω)
k→∞
k
jest także prognozowalny. Konieczność wynika z wniosku 3.10.
2
Uwaga. Zachodzą zawierania
P ⊂ O ⊂ {progresywnie mierzalne zbiory} ⊂ B([0, ∞)) ⊗ F.
2
Twierdzenie 3.12 Jeśli X jest prognozowalnym procesem oraz T jest czasem zatrzymania
to proces X T jest prognozowalny.
Dowód. Proces X T można przedstawić w postaci
X T = X0 + XI]]0,T ]] + XT I{T <∞} I]]T,+∞[[
i proces ten jest prognozowalny, ponieważ XI]]0,T ]] jest prognozowalny jako iloczyn dwóch
prognozowalnych procesów, a XT I]]T,+∞[[ jest adaptowany i cag.
2
3.2
Zastosowania twierdzenia o cięciach
Podamy teraz bez dowodu tzw. twierdzenia o cięciach. Dowód można znaleźć np. w
książce Dellacherie.
Twierdzenie 3.13 Niech (Ω, F, P ) będzie zupełną przestrzenią probabilistyczną i niech
E ⊂ B([0, ∞)) ⊗ F. Wtedy istnieje F-mierzalna zmienna losowa T : Ω → [0, ∞] taka, że
(i) jeśli T (ω) < ∞ to (T (ω), ω) ∈ E;
(ii) P ({T < ∞}) = P (π(E)).
2
Uwaga. Chociaż w ogólnym przypadku T nie musi być czasem zatrzymania, to warunek (i)
oznacza, że wykres T jest zawarty w E tzn. [[T ]] ⊂ E. Niech π będzie rzutem z [0, ∞) × Ω
na Ω. Wtedy {T < ∞} = π([[T ]]) ⊂ π(E) i warunek (ii) oznacza, że {T < ∞} = π(E),
P -p.w. tzn. dziedzina na której T jest skończona różni się od rzutu π(E) tylko na zbiorze
miary zero.
Twierdzenie to można uogólnić na zbiory opcjonalne i prognozowalne
M. Beśka, Całka Stochastyczna, wykład 3
40
Twierdzenie 3.14 (Twierdzenie o cięciach) Niech (Ω, F, F, P ) będzie zupełną bazą stochastyczną i niech E ⊂ [0, ∞) × Ω będzie opcjonalnym (prognozowalnym) zbiorem. Wtedy
dla dowolnego ε > 0 istnieje czas zatrzymania (prognozowalny czas zatrzymania) T taki,
że
(i) [[T ]] ⊂ E;
(ii) P ({T < ∞}) ≥ P (π(E)) − ε.
2
Z twierdzenia o cięciach dostajemy od razu
Wniosek 3.15 Niech X = {Xt }t≥0 i Y = {Yt }t≥0 będą opcjonalnymi (prognozowalnymi)
procesami. Procesy X i Y są nieodróżnialne wtedy i tylko wtedy, gdy
P − p.w.
XT = YT ,
dla skończonego czasu zatrzymania (prognozowalnego).
Dowód. Dowód przeprowadzimy w przypadku procesów opcjonalnych, dla prognozowalnych procesów przebiega on analogicznie. Konieczność jest oczywista. Dostateczność.
Oznaczmy przez A = {(t, ω) : Xt (ω) 6= Yt (ω)}. Jest oczywiste, że A jest zbiorem opcjonalnym. Załóżmy, że P (π(A)) > 0. Wtedy z twierdzenia 3.14 dla dowolnego ε > 0 istnieje
czas zatrzymania T taki, że
[[T ]] ⊂ A
i
P ({T < ∞}) ≥ P (π(A)) − ε.
Stąd P {T < ∞} > 0 (wystarczy przyjąć ε = P (π(A))/2). Ponieważ
{T < ∞} =
∞
[
{T < n},
n=1
więc istnieje n ≥ 1 takie, że P ({T < n}) > 0. Rozważmy czas zatrzymania S = T ∧ n.
Wtedy dla każdego ω ∈ {T < n} ⊂ {T < ∞} ⊂ π(A) (bo [[T ]] ⊂ A) mamy
XS(ω) (ω) = XT (ω) (ω) 6= YT (ω) (ω) = YS(ω) (ω),
co jest sprzeczne z założeniem.
2
Wniosek 3.16 Niech T : Ω → [0, ∞] będzie zmienną losową. Wtedy T jest czasem zatrzymania (prognozowalnym czasem zatrzymania) wtedy i tylko wtedy, gdy [[T ]] ∈ O ([[T ]] ∈ P).
41
M. Beśka, Całka Stochastyczna, wykład 3
Dowód. Jeśli T jest czasem zatrzymania to z wniosku 3.3 mamy [[T ]] ∈ O. Jeśli teraz
[[T ]] ∈ O to z twierdzenia 1.34 debiut D[[T ]] = T jest czasem zatrzymania. Załóżmy teraz,
że T jest prognozowalnym czasem zatrzymania i niech {Tn }n≥1 będzie ciągiem zapowiadającym T . Wtedy
∞
\
[[T ]] =
]]Tn , T ]] ∪ {0} × {T = 0} .
n=1
Stąd i z twierdzenia 3.6 mamy [[T ]] ∈ P. W drugą stronę niech [[T ]] ∈ P. Z twierdzenia
3.14 dla każdego n ≥ 1 istnieje prognozowalny czas zatrzymania Tn taki, że
(i) [[Tn ]] ⊂ [[T ]];
(ii) P ({Tn < ∞}) ≥ P ({T < ∞}) − 1/2n .
Oznaczmy Sn = T1 ∧ . . . ∧ Tn , n ≥ 1. Ciąg {Sn }n≥1 jest nierosnącym ciągiem prognozowalnych czasów zatrzymania. Z (i) T ≤ Tn dla n ≥ 1. Stąd, z definicji Sn i własności
minimum mamy
(3.3)
T ≤ Sn ≤ Tn
dla n ≥ 1.
Oznaczmy S = limn→∞ Sn . Wtedy dla każdego ω ∈ Ω istnieje n ≥ 1 takie, że Sn (ω) =
S(ω). Rzeczywiście, bo jeśli istnieje n ≥ 1 takie, że Sn (ω) < ∞ to z definicji Sn istnieje
1 ≤ k ≤ n takie, że Tk (ω) = Sn (ω). Stąd i z (i) Sn (ω) = T (ω). Ponieważ {Sn }n≥1 jest
nierosnący i mając na uwadze (3.3) dostajemy dla m ≥ n
T (ω) ≤ Sm (ω) ≤ Sn (ω) = T (ω).
Przechodząc w powyższym wyrażeniu z m → ∞ dostajemy T (ω) = S(ω) = Sn (ω). Jeśli
natomiast Sn (ω) = ∞ dla każdego n ≥ 1 to S(ω) = ∞. Stosując teraz twierdzenie 2.15
wnioskujemy, że S jest prognozowanym czasem zatrzymania. Ponadto mamy
{S 6= T } = {T < ∞} ∩
∞
\
{Tn = ∞}.
n=1
Rzeczywiście, niech T (ω) < ∞ i niech dla każdego n ≥ 1 mamy Tn (ω) = ∞. Wtedy z
definicji Sn mamy dla każdego n ≥ 1 równość Sn (ω) = ∞. Zatem S(ω) = ∞. Ponieważ
z założenia T (ω) < ∞, więc T (ω) 6= S(ω). W drugą stronę. Załóżmy, że S(ω) 6= T (ω).
Z (3.3) mamy S(ω) ≥ T (ω), więc S(ω) > T (ω). Stąd T (ω) < ∞. Ponadto dla każdego
n ≥ 1 mamy Tn (ω) = ∞, bo gdyby istnialo n0 takie, że Tn0 (ω) < ∞, to z (i) i z (3.3)
mamy Tn0 (ω) = Sn0 (ω) = T (ω), a stąd dla każdego n ≥ n0 dostajemy Sn (ω) = T (ω),
czyli S(ω) = T (ω) co daje sprzeczność z założeniem. Z udowodnionej co równości i z (ii)
otrzymujemy
∞
\
P {S 6= T } = P {T < ∞} ∩
{Tn = ∞} =
n=1
42
M. Beśka, Całka Stochastyczna, wykład 3
P
∞
\
n=1
1
{T < ∞} \ {Tn < ∞} ≤ n
2
dla każdego n ≥ 1. Biorąc n → ∞ dostajemy, że T = S, P - p.w., więc T jest też
prognozowalnym czasem zatrzymania.
2
Twierdzenie 3.17 Niech A ∈ O (A ∈ P) i niech
A⊂
∞
[
[[Sn ]],
n=1
gdzie {Sn }n≥1 ciągiem czasów zatrzymania. Wtedy
A=
(3.4)
∞
[
[[Tn ]],
n=1
gdzie Tn dla każdego n ≥ 1 jest czasem zatrzymania (pronozowalnym czasem zatrzymania)
oraz [[Tn ]] ∩ [[Tm ]] = ∅ dla n 6= m.
Dowód. Niech A ∈ O. Oznaczmy
[
[
B1 = A ∩ [[S1 ]], Bn = A \
[[Sk ]] ∩ [[Sn ]] = A ∩ [[Sn ]] \
[[Sk ]] ,
k<n
n ≥ 2.
k<n
Niech Tn , n ≥ 1 będzie czasem zatrzymania, którego wykres jest równy Bn (np. Tn = DBn ).
Z wniosku 3.16 zmienna losowa Tn jest czasem zatrzymania dla n ≥ 1. Dla tak określonych
czasów zatrzymania mamy [[Tn ]]∩[[Tm ]] = ∅ dla n 6= m oraz zachodzi (3.4), co kończy dowód
w przypadku opcjonalnym.
Niech teraz A ∈ P. Z udowodnionej już części twierdzenia wynika, że
A=
∞
[
[[Tn ]],
n=1
gdzie {Tn }n≥1 jest ciągiem czasów zatrzymania takim, że [[Tn ]] ∩ [[Tm ]] = ∅ dla n 6= m.
Oznaczmy przez Un , Vn osiągalną i totalnie nieosiagalną część Tn (patrz twierdzenie 2.11).
Wtedy
[[Tn ]] = [[Un ]] ∪ [[Vn ]]
oraz
Tn = Un ∧ Vn .
Z definicji osiagalnych czsow zatrzymania istnieją ciągi {Rn,m }m≥1 , n ≥ 1 prognozowalnych
czasów zatrzymania takie, że
[[Un ]] ⊂
∞
[
m=1
[[Rn,m ]],
n ≥ 1.
43
M. Beśka, Całka Stochastyczna, wykład 3
Oznaczmy
n, m ≥ 1.
Sn,m = DA∩[[Rn,m ]] ,
Na mocy stwierdzenia 1.34 Sn,m jest zmienna losową, a ponieważ [[Sn,m ]] = A ∩ [[Rn,m ]]
jest prognozowalnym zbiorem, więc z wniosku 3.16 jest również prognozowalnym czasem
zatrzymania. Zauważmy, że
∞
[
∞ [
∞
[
[[Un ]] =
n=1
∞ [
∞
[
A ∩ [[Rn,m ]] =
n=1 m=1
[[Sn,m ]].
n=1 m=1
Wykresy [[Sn,m ]], n, m ≥ 1 możemy rozłączyć tak jak to zrobiliśmy dla A opcjonalnego.
Oznaczmy przez [[Sen,m ]], n, m ≥ 1 czasy zatrzymania, których wykresami są otrzymane
rozłączne wykresy (są one prognozowalne na mocy wniosku 3.16), wtedy
A=
∞
[
n=1
[[Un ]] ∪
∞
[
∞ [
∞
[
[[Vn ]] =
n=1
∞
[
[[Sn,m ]] ∪
n=1 m=1
[[Vn ]] =
n=1
∞ [
∞
[
n=1 m=1
[[Sen,m ]] ∪
∞
[
[[Vn ]]
n=1
oraz
[[Vi ]] ∩ [[Vj ]] = ∅ dla i 6= j,
[[Sen,i ]] ∩ [[Sek,j ]] = ∅ dla n 6= k ∨ i 6= j.
Zauważmy również, że zbiory
∞
[
[[Vn ]]
∞ [
∞
[
i
n=1
[[Sen,m ]]
n=1 m=1
sa rozłączne, bo Vn1 są totalnie nieosiągalne, a Sen,m prognozowalne. Dla zakończenia
dowodu wystarczyw wykazać, że
∞
[
B :=
[[Vn ]] = ∅.
n=1
Załóżmy, że tak nie jest. Wtedy
B =A\
∞ [
∞
[
[[Sen,m ]]
n=1 m=1
byłby zbiorem prognozowalnym takim, że P [π(B)] > 0. Z twierdzenia o cięciach 3.14
istnieje prognozowalny czas zatrzymania R taki, że [[R]] ⊂ B oraz P {R < ∞} > 0. Stąd
[[R]] = [[R]] ∩ B =
∞
[
[[R]] ∩ [[Vn ]]
n=1
oraz
{R < ∞} = π([[R]]) =
∞
[
n=1
π([[R]] ∩ [[Vn ]]).
44
M. Beśka, Całka Stochastyczna, wykład 3
Zatem
0 < P ({R < ∞}) ≤
∞
X
P (π([[R]] ∩ [[Vn ]])).
n=1
Stąd istnieje n0 ≥ 1 takie, że
P (π([[R]] ∩ [[Vn0 ]])) > 0 tzn. [[R]] ∩ [[Vn0 ]] 6= ∅,
co jest niemożliwe, bo Vn0 jest totalnie nieosiagalnym czasem zatrzymania.
2
Twierdzenie 3.18 Niech X i Y będą opcjonalnymi (prognozowalnymi) nieujemnymi procesami. Jeśli dla każdego czasu zatrzymania (prognozowalnego czasu zatrzymania) T zachodzi równość
(3.5)
E XT I{T <∞} = E YT I{T <∞} ,
to procesy X i Y są nierozróżnialne.
Dowód. Niech X i Y będą opcjonalnymi procesami. Określmy
A1 = {(t, ω) : Xt (ω) < Yt (ω)},
oraz
A2 = {(t, ω) : Xt (ω) > Yt (ω)}.
Zbiory A1 i A2 są opcjonalne. Gdyby X i Y nie byli nierozróżnialne, to
P π(A1 ) > 0
lub
P π(A2 ) > 0.
Załóżmy, że P π(A1 ) > 0. Mamy
A1 =
∞
[
Bn ,
gdzie Bn = {(t, ω) : Xt (ω) < Yt (ω) ≤ n},
n ≥ 1.
n=1
Zatem istnieje n ≥ 1 takie, że P π(Bn ) > 0. Wtedy z twierdzenia o cięciach (twierdzenie
3.14) istnieje czas zatrzymania T taki, że
[[T ]] ⊂ Bn
P {T < ∞} > 0
(wystarczy w twierdzeniu o cięciach przyjąć ε = P π(Bn ) /2). Dla ω ∈ {T < ∞} mamy
(T (ω), ω) ∈ [[T ]] ⊂ Bn . Stąd XT (ω) < YT (ω) ≤ n co przeczy równości (3.5). Dla procesów
prognozowalnych dowód przebiega podobnie.
oraz
2
Uwaga. W powyższym twierdzeniu zamiast procesów nieujemnych można rozpatrywać
procesy ograniczone. Wtedy teza jest również prawdziwa.
45
M. Beśka, Całka Stochastyczna, wykład 3
Twierdzenie 3.19 Niech A będzie prognozowalnym zbiorem (A ∈ P). Jeśli [[DA ]] ⊂ A, to
DA jest prognozowalnym czasem zatrzymania.
Dowód. Z wniosku 3.16 wystarczy pokazać, że [[DA ]] ∈ P. Ale
[[DA ]] = A\ ]]DA , ∞[[ ∈ P.
2
Definicja 3.20 Niech X = {Xt }t≥0 będzie cadlag procesem i niech T będzie czasem zatrzymania. Mówimy, że skoki X obciążają (ang. charges) czas zatrzymania T jeśli
P ({XT 6= XT − , T < ∞}) > 0.
Równoważnie
P (π(A ∩ [[T ]])) > 0,
A = {X 6= X− }.
gdzie
Definicja 3.21 Niech X = {Xt }t≥0 będzie cadlag procesem i niech T będzie czasem zatrzymania. Mówimy, że proces X dopuszcza (ang. admits) skok w czasie zatrzymania T
jeśli
P ({XT 6= XT − , T < ∞}) > 0
oraz
XT 6= XT − , P − p.w.
na
{T < ∞}.
Równoważnie
[[T ]] ⊂ A
oraz
P {T < ∞} > 0,
gdzie
A = {X 6= X− }.
Definicja 3.22 Niech X = {Xt }t≥0 będzie cadlag procesem. Mówimy, że ciąg {Tn }n≥1
czasów zatrzymania wyczerpuje (ang. exhausts) skoki procesu X jeśli
(i) proces X dopuszcza skok w Tn dla każdego n ≥ 1;
(ii) [[Tn ]] ∩ [[Tm ]] = ∅ dla n 6= m;
(iii) Skoki procesu X nie obciążają żadnego czasu zatrzymania T takiego, że
[[T ]] ∩
∞
[
[[Tn ]] = ∅.
n=1
Równoważnie
A = {X 6= X− } =
∞
[
[[Tn ]]
n=1
P {Tn < ∞} > 0,
Zachodzi nastepujące twierdzenie
[[Tn ]] ∩ [[Tm ]] = ∅,
n 6= m.
46
M. Beśka, Całka Stochastyczna, wykład 3
Twierdzenie 3.23 Niech X = {Xt }t≥0 będzie adaptowanym cadlag procesem. Wtedy istnieje ciąg {Tn }n≥1 czasów zatrzymania, który wyczerpuje skoki procesu X. Jeśli X jest
prognozowalnym procesem, to {Tn }n≥1 może składać się z prognozowalnych czasów zatrzymania.
Dowód. Załóżmy, że X = {Xt }t≥0 jest adaptowanym cadlag procesem. Oznaczmy przez
A = {X 6= X− }. Wykażemy, że A da się przedstawić w postaci przeliczalnej sumy wykresów
czasów zatrzymania. Dla każdego m ≥ 1 określmy
Am = {|X − X− | > 1/m},
który jest zbiorem opcjonalnym (prognozowalnym, gdy X jest prognozowalny). Oczywiście
zachodzi równość
∞
[
A=
Am
m=1
oraz oznaczmy cięcie zbioru Am w punkcie ω wzorem
Am (ω) = {t ≥ 0 : (t, ω) ∈ Am },
ω ∈ Ω.
Ponieważ X ma cadlag trajektorie, więc Am (ω) jest co najwyżej przeliczalnym zbiorem nie
posiadającym punktów skupienia. Dla liczby naturalnej p ≥ 1 określmy
p
DA
(ω) = inf{t ≥ 0 : [0, t] ∩ Am (ω) zawiera co najmniej p punktów}.
m
1
1
1
Zauważmy, że DA
jest debiutem zbioru Am tzn. DA
= DAm . Stąd DA
jest czasem zam
m
m
p
trzymania. Wykażemy przez indukcję, że DAm są dla p ≥ 1 czasami zatrzymania. Załóżmy,
p
że DA
jest czasem zatrzymania. Wtedy
m
p+1
1
p
DA
= DA
m
m
p
Apm = Am ∩ ]]DA
, ∞[[.
m
gdzie
Ponieważ Apm jest zbiorem opcjonalnym (prognozowalnym, gdy X jest prognozowalny),
p+1
więc DA
jest czasem zatrzymania. Teraz otrzymujemy
m
Am =
∞
[
p
[[DA
]],
m
p=1
więc
A=
∞
[
m=1
Am =
∞ [
∞
[
p
[[DA
]].
m
m=1 p=1
Stosując teraz twierdznie 3.17 dostajemy tezę.
2
47
M. Beśka, Całka Stochastyczna, wykład 3
Wniosek 3.24 Dowolny prognozowalny proces nie obciąża żadnego totalnie nieosiągalnego
czasu zatrzymania.
2
Wniosek 3.25 Niech X = {Xt }t≥0 będzie adaptowanym cadlag procesem. Wtedy istnieje
ciąg {Tn }n≥1 czasów zatrzymania, gdzie Tn jest prognozowalny albo totalnie nieosiągalny
oraz
∞
[
A = {X 6= X− } ⊂
[[Tn ]],
[[Tn ]] ∩ [[Tm ]] = ∅, n 6= m.
n=1
Dowód. Jak wiadomo z dowodu twierdzenia 3.17 i 3.23 mamy następujacą reprezentację
A=
∞
[
[[Un ]] ∪
n=1
∞
[
[[Vn ]],
n=1
gdzie Un i Vn są dla n ≥ 1 odpowiednio osiagalnymi i totalnie nieosiagalnymi czasami
zatrzymania oraz
[[Un ]] ∩ [[Um ]] = ∅,
[[Vn ]] ∩ [[Vm ]] = ∅,
n 6= m.
Z definicji osiągalnych czasów zatrzymania dla n ≥ 1 mamy
∞
[
[[Un ]] ⊂
[[Rn,m ]],
m=1
gdzie Rn,m są prognozowalnymi czasami zatrzymania. Zatem
A⊂
∞
[
[[Vn ]] ∪
n=1
∞ [
∞
[
[[Rn,m ]] =
n=1 m=1
∞
[
[[Vn ]] ∪
n=1
∞
[
[[Rn ]]
n=1
po przenumerowaniu. Określmy
en = (Rn ){R 6=R ,
R
n
k
k=1,2,...,n−1} ,
n ≥ 1.
Wtedy
en ]] = [[Rn ]] \
[[R
n−1
[
[[Rk ]]
k=1
en , n ≥ 1 są prognozowlane. Ponadto
oraz czasy zatrzymania R
∞
[
n=1
en ]] =
[[R
∞
[
[[Rn ]]
oraz
ek ]] = ∅,
[[Vn ]] ∩ [[R
k, n ≥ 1.
n=1
2
Z powyższego wniosku wynika, że badanie własności skoków procesów cadlag sprowadza
się do rozpatrzenia dwóch przypadków; czas skoku procesu jest prognozowalny lub totalnie
nieosiągalny.