Rachunek Malliavina z zastosowaniem w estymacji

Transkrypt

Rachunek Malliavina z zastosowaniem w estymacji
Uniwersytet Jagielloński
Wydział Matematyki i Informatyki
Mateusz Majka
Nr albumu: 1027261
Rachunek Malliavina
z zastosowaniem w estymacji
parametrów greckich
Praca magisterska
na kierunku MATEMATYKA
Praca wykonana pod kierunkiem
dra hab. Piotra Kobaka
Kraków 2012
5785716075(1)
2634520789(2)
Spis treści
Wprowadzenie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1. Całki stochastyczne . . . . . . . . . .
1.1. Całka wielokrotna Wienera - Itô .
1.2. Iterowana całka Itô . . . . . . . . .
1.3. Wielomiany Hermite’a . . . . . . .
1.4. Rozwinięcie w chaos Wienera - Itô
1.5. Całka Skorohoda . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
12
15
18
22
2. Pochodna Malliavina . . . . . . . . . . . . . . . . .
2.1. Izonormalne procesy gaussowskie . . . . . . . . .
2.2. Pochodna Malliavina i jej własności . . . . . . .
2.3. Związek pochodnej Malliavina z całką Skorohoda
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
27
27
28
38
3. Estymatory parametrów greckich . . . . . .
3.1. Parametry greckie . . . . . . . . . . . . . .
3.2. Klasyczne metody estymacji . . . . . . . . .
3.2.1. Metoda różnic skończonych . . . . .
3.2.2. Metoda pochodnej po trajektoriach .
3.2.3. Metoda stosunku wiarygodności . .
3.3. Estymatory z użyciem rachunku Malliavina
3.3.1. Delta opcji europejskiej . . . . . . .
3.3.2. Gamma opcji europejskiej . . . . . .
3.3.3. Vega opcji europejskiej . . . . . . . .
3.3.4. Delta opcji azjatyckiej . . . . . . . .
3.3.5. Gamma opcji azjatyckiej . . . . . . .
3.3.6. Vega opcji azjatyckiej . . . . . . . .
3.4. Eksperymenty numeryczne . . . . . . . . . .
3.4.1. Delta europejskiej opcji call . . . . .
3.4.2. Gamma europejskiej opcji call . . .
3.4.3. Delta azjatyckiej opcji call . . . . . .
3.4.4. Delta azjatyckiej opcji binarnej . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
41
41
42
42
44
46
47
48
49
50
51
53
55
57
57
58
59
60
Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
63
3
1651042345(3)
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2078500745(4)
Wprowadzenie
W pracy tej przedstawiono pewien dział analizy stochastycznej znany jako rachunek Malliavina, a także zaprezentowano jego zastosowanie w matematyce finansowej do estymacji
parametrów greckich. Teoria ta została stworzona w 1976 roku przez francuskiego matematyka Paula Malliavina, który używał jej do badania gęstości rozwiązań stochastycznych
równań różniczkowych. W latach 90. zaczęły się pojawiać zastosowania rachunku Malliavina w matematyce finansowej. Na szczególną uwagę zasługuje tutaj praca [Fou99], w której
przedstawiono sposoby obliczania estymatorów parametrów greckich, stanowiące w niektórych przypadkach interesującą alternatywę dla wcześniej stosowanych metod.
Współcześnie wydaje się, że najpopularniejsze są dwa alternatywne podejścia do tej teorii
- jedno autorstwa Bernta Øksendala, zaprezentowane w skrypcie [Øks97] i później rozwinięte
w monografii [DØP09] oraz drugie, opisane w wydanym po raz pierwszy w 1995 roku podręczniku Davida Nualarta [Nua06], a także przedstawione w nieco bardziej przystępnej formie
przez jego córkę Eulalię w skrypcie [Nua12]. W poniższej pracy połączyliśmy te dwa odmienne
podejścia w sposób, który uznaliśmy za najbardziej optymalny. Mianowicie, zdecydowaliśmy
się na zdefiniowanie pochodnej Malliavina w duchu książki Nualarta, gdyż uznaliśmy ten
sposób za bardzo elegancki i przejrzysty, dający się łatwo uogólniać i pozwalający bez trudu
zobaczyć analogię do klasycznego pojęcia gradientu funkcji w Rn . Z drugiej strony, wybraliśmy podejście do rozwinięć w chaos Wienera - Itô i do całki Skorohoda w stylu Øksendala,
gdyż jest bardzo elementarne, a przy tym w zupełności wystarczające z punktu widzenia
omawianych przez nas zastosowań.
W rozdziałach 1 i 2 prezentujemy kompletne wprowadzenie teoretyczne do rachunku Malliavina oparte głównie na wymienionych wyżej źródłach. Poza połączeniem wspomnianych
odmiennych podejść w unikalny, niespotykany w literaturze sposób, wzbogaciliśmy oryginalne teksty o liczne komentarze, uwagi i brakujące dowody. Rozdział pierwszy rozpoczyna sekcja
poświęcona całce wielokrotnej Wienera - Itô, którą oparliśmy na sekcji 1.3 skryptu [Nua12]
i na sekcji 9.6 książki [Kuo06] (teksty dotyczące tej całki są w obu źródłach bardzo podobne),
uzupełniając ten tekst o przykład 1.1.5 oraz o dowody lematu 1.1.8 oraz twierdzenia 1.1.10,
pozostawione w obu tych źródłach jako ćwiczenia. W sekcji 1.2 podajemy definicję iterowanej
całki Itô dla funkcji deterministycznej taką jak w [DØP09] oraz prezentujemy twierdzenie
wiążące to pojęcie z całką wielokrotną, wraz z dowodem pochodzącym z [Nua12]. Sformułowaliśmy też uwagę 1.2.3, mówiącą iż definicję całki iterowanej daje się rozszerzyć na pewną
klasę procesów stochastycznych i że zachowuje się wtedy własność ortogonalności całek różnych rzędów. Fakty te okazują się niezwykle istotne w dowodzie twierdzenia o rozwinięciu
w chaos Wienera - Itô pochodzącym z [DØP09], a mimo to autorzy tej pozycji nigdzie wprost
o tym nie wspominają. W sekcji 1.3 definiujemy wielomiany Hermite’a, po czym prezentujemy
pewien techniczny rezultat (twierdzenie 1.3.1), którego dowód pochodzi z [DØP09], a następnie prezentujemy nasz własny dowód wniosku 1.3.2 przedstawiającego istotne dla naszych
dalszych rozważań własności tych wielomianów. Sekcję tę zamykamy dowodem twierdzenia
pozwalającego obliczać całki wielokrotne z wykorzystaniem wielomianów Hermite’a, pocho5
3562029319(5)
dzącym z [Nua12]. Kolejna sekcja to przede wszystkim dowód twierdzenia 1.4.1 zaczerpnięty
z [DØP09], jednak podany przez nas w odrobinę uproszczonej wersji, z pominięciem pewnych szacowań obecnych w oryginale, które okazały się zbędne. Ostatnia sekcja pierwszego
rozdziału poświęcona jest całce Skorohoda i oparta w całości na rozdziale drugim monografii
[DØP09], przy czym samą definicję całki postawiliśmy ze względów technicznych nieco inaczej
niż w tym źródle, a także dodaliśmy dowód lematu 1.5.6 pozostawiony tam jako ćwiczenie.
Rozdział drugi rozpoczyna krótka sekcja poświęcona na wprowadzenie pojęcia izonormalnego procesu gaussowskiego, zgodnie ze skryptem [Nua12]. Dodaliśmy tutaj prosty przykład
2.1.1, na rzecz pominiętych bardziej wyrafinowanych przykładów z [Nua12], które jednak
wykraczają poza zakres tej pracy. W sekcji 2.2 definiujemy w końcu pochodną Malliavina
opierając się na [Nua12] i wprowadzając stosowne modyfikacje. Zauważamy, że lemat 2.2.2
można wypowiedzieć dla dowolnego p ∈ [1, ∞) (a nie tylko dla p = 2 jak w [Nua12]) i w celu
jego udowodnienia przytaczamy lemat 2.2.1, którego dowód dla p = 1 można bez trudu znaleźć w literaturze, jednak dla pozostałych p nam się to nie udało i dlatego w tym przypadku
prezentujemy nasz własny dowód. Następnie definiujemy pochodną Malliavina na przestrzeni gładkich zmiennych losowych i wykazujemy, że definicja ta jest poprawna (lemat 2.2.4
zaczerpnięty ponownie z [Nua12], przy czym jego dowód został przez nas rozpisany dużo
dokładniej niż w oryginale). Dalej przedstawiamy dowód domykalności tak zdefiniowanej pochodnej Malliavina wraz z niezbędnymi lematami, uzupełniając tutaj tekst z [Nua12] o brakujący dowód reguły produktowej (lemat 2.2.7). Formułujemy w tym miejscu uwagę 2.2.10,
w której podkreślamy analogię rozważanej sytuacji do klasycznej teorii przestrzeni Sobolewa.
Następnie przedstawiamy dowód reguły łańcuchowej (twierdzenie 2.2.12), rozpisany trochę
dokładniej niż oryginał z [Nua12]. Na koniec cytujemy z tego samego źródła dowód niezwykle
ważnego rezultatu łączącego pochodną Malliavina z pojęciem rozwinięcia zmiennej losowej
w chaos Wienera - Itô. W sekcji 2.3 cytujemy z [DØP09] trzy ważne twierdzenia łączące
pochodną Malliavina z całką Skorohoda, przy czym dowód twierdzenia 2.3.2 przedstawiamy
w uproszczonej wersji, gdyż na tym etapie dzięki zdefiniowaniu pochodnej Malliavina w odmienny sposób niż autorzy [DØP09], dysponujemy regułą produktową, z której oni nie mogli
skorzystać.
W rozdziale trzecim rozpoczynamy od krótkiego wprowadzenia do problematyki obliczania parametrów greckich, po czym w sekcji 3.2 prezentujemy trzy metody podejścia do tego
zagadnienia niewykorzystujące rachunku Malliavina. Sekcja ta oparta jest głównie na rozdziale 7 książki [Gla04] oraz na pracy [BG96]. Następnie w sekcji 3.3 podajemy wraz z dowodem
twierdzenie 3.3.1, które oparliśmy na propozycji 2.1 z [Nua12], jednak sformułowaliśmy je
w prostszy sposób, w zupełności wystarczający dla naszych zastosowań. Mając przygotowany
ten rezultat, przystępujemy do wyprowadzenia wzorów na estymatory parametrów greckich.
Stosowane metody obliczeń oparliśmy na pracy [KKM02] oraz na przykładach ze skryptu
[Nua12]. W przypadku opcji europejskich oraz dla delty opcji azjatyckiej zaprezentowaliśmy
szczegółowo rozpisane wyprowadzenia wzorów dostępnych w wyżej wymienionych źródłach,
zaś w przypadku gammy i vegi opcji azjatyckiej otrzymaliśmy nasze własne wzory, według naszej wiedzy niedostępne w literaturze. Na końcu pracy znajdują się rezultaty eksperymentów
numerycznych, które przeprowadziliśmy za pomocą napisanego przez nas programu w języku
C++, ilustrowane wykresami przygotowanymi z użyciem oprogramowania Gnuplot. Wykresy
te prezentują porównanie tego, jak w konkretnych przypadkach działają metody estymacji
parametrów greckich oparte na rachunku Malliavina oraz te niewykorzystujące tej teorii.
6
3373748291(6)
Rozdział 1
Całki stochastyczne
1.1. Całka wielokrotna Wienera - Itô
W tej sekcji zdefiniujemy pojęcie wielokrotnej całki Wienera - Itô, które będzie w dalszym
ciągu pracy kluczowe ze względu na swoje powiązania z pochodną Malliavina i całką Skorohoda. Pojęcie to po raz pierwszy wprowadził Kiyosi Itô w pracy [Itô51]. Podobnie jak
przy definiowaniu wielu innych rodzajów całek, wielokrotną całkę Wienera - Itô określa się
najpierw na pewnej przestrzeni funkcji prostych, a następnie rozszerza definicję korzystając
z aproksymacji. Jak zauważył Itô, stawiając wyjściową definicję dla tzw. funkcji prostych
pozaprzekątniowych można otrzymać całkę wielokrotną, którą da się obliczać jako całkę iterowaną. Powie o tym twierdzenie 1.2.2. Ta sekcja pracy oparta jest w głównej mierze na
monografii [Kuo06] oraz na skrypcie [Nua12].
Wprowadźmy pewne oznaczenia. Ustalmy przedział T := [a, b], gdzie 0 ¬ a < b < ∞,
niech {B(t)}t∈T oznacza proces Wienera (ruch Browna) określony na przestrzeni probabilistycznej (Ω, F, P ), zaś {Ft }t∈T filtrację generowaną przez ten proces. Określamy ”zbiór
przekątniowy” kostki T n dla n ­ 1 jako D := {(t1 , . . . tn ) ∈ T n : ∃i 6= j takie, że ti = tj }.
Zdefiniujemy najpierw całkę wielokrotną z funkcji schodkowej (prostej) zerującej się na zbiorze D.
Definicja 1.1.1. Funkcję f : T n → R nazywamy schodkową, jeżeli jest ona postaci
f=
X
ai1 ,i2 ,...,in 1[τi1 −1 ,τi1 )×[τi2 −1 ,τi2 )×···×[τin −1 ,τin ) ,
(1.1)
1¬i1 ,i2 ,...,in ¬k
gdzie a = τ0 < τ1 < . . . < τk = b jest podziałem przedziału [a, b], ij ∈ N dla j ∈ {1, . . . , n},
zaś współczynniki ai1 ,i2 ,...,in są rzeczywiste.
Funkcję schodkową będziemy nazywać pozaprzekątniową, jeżeli
ai1 ,i2 ,...,in = 0 , gdy ip = iq dla pewnych p 6= q .
Innymi słowy, funkcja pozaprzekątniowa jest to funkcja schodkowa zerująca się na zbiorze
przekątniowym D. Rodzinę pozaprzekątniowych funkcji schodkowych na T n będziemy oznaczać przez En . Jak łatwo zauważyć, En jest przestrzenią wektorową.
Definicja 1.1.2. Dla pozaprzekątniowej funkcji schodkowej danej wzorem (1.1), definiujemy
n-krotną całkę Wienera - Itô jako
In (f ) :=
X
ai1 ,i2 ,...,in ξi1 ξi2 · · · ξin ,
1¬i1 ,i2 ,...,in ¬k
gdzie ξip = B(τip ) − B(τip −1 ) dla p ∈ {1, . . . n}.
7
2661045288(7)
(1.2)
Jak łatwo zauważyć, powyższa definicja jest poprawna, tzn. nie zależy od reprezentacji
funkcji f w postaci (1.1). Ponadto In jest operatorem liniowym na En .
Wprowadzimy teraz naturalne pojęcia funkcji symetrycznej oraz symetryzacji.
Definicja 1.1.3. Funkcję f : T n → R nazywamy symetryczną, jeżeli dla dowolnej permutacji
σ zbioru {1, . . . , n} oraz dla dowolnych t1 , . . . , tn ∈ T zachodzi
f (tσ(1) , . . . , tσ(n) ) = f (t1 , . . . , tn ) .
Przestrzeń funkcji symetrycznych całkowalnych z kwadratem na T n będziemy oznaczać przez
e 2 (T n ).
L
Definicja 1.1.4. Jeżeli f jest funkcją określoną na T n o wartościach w R, to jej symetryzację
fe : T n → R określamy jako
fe(t1 , . . . , tn ) :=
1 X
f (tσ(1) , . . . , tσ(n) ) ,
n! σ
gdzie w powyższym wzorze suma jest brana po wszystkich permutacjach σ zbioru {1, . . . , n}.
Zauważmy, że funkcja f : T n → R jest symetryczna wtedy i tylko wtedy, gdy jest równa
swojej symetryzacji, tzn. f = fe. Ponadto, jeśli f jest pozaprzekątniową funkcją schodkową,
to jej symetryzacja fe również.
Ponieważ miara Lebesgue’a jest symetryczna, to biorąc dowolną permutację σ zbioru
{1, . . . , n} widzimy, że
Z
Tn
|f (tσ(1) , . . . , tσ(n) )|2 dt1 . . . dtn =
Z
Tn
|f (t1 , . . . , tn )|2 dt1 . . . dtn .
Zatem na mocy nierówności Minkowskiego,
kfekL2 (T n ) ¬
1 X
1
kf kL2 (T n ) = n!kf kL2 (T n ) = kf kL2 (T n ) .
n! σ
n!
(1.3)
Czyli mamy nierówność kfekL2 (T n ) ¬ kf kL2 (T n ) . W ogólności, może to być nierówność silna.
Przykład 1.1.5. Niech f będzie funkcją antysymetryczną, tzn. taką, że dla każdej permutacji
σ zbioru {1, . . . , n} zachodzi f (tσ(1) , . . . , tσ(n) ) = sgn(σ)f (t1 , . . . , tn ), gdzie sgn(σ) oznacza
znak permutacji σ. Zauważmy, że wówczas symetryzacja funkcji f jest funkcją stale równą
zeru. Oczywiście istnieją jednak funkcje antysymetryczne, które mają niezerową normę w sensie L2 . Przykładowo, biorąc T = [0, 1], n = 2 i funkcję f (x, y) = −x + y widzimy, że fe = 0,
ale kf k2L2 (T 2 ) = 61 .
Lemat 1.1.6. Jeśli f ∈ En , to In (f ) = In (fe).
Dowód. Ponieważ zarówno całka In , jak i operacja brania symetryzacji funkcji są liniowe, to
wystarczy wykazać tezę lematu dla funkcji
f = 1[t(1) ,t(2) )×[t(1) ,t(2) )×...×[t(1) ,t(2) ) ,
1
(1)
1
2
2
n
n
(2)
gdzie przedziały [ti , ti ), i ∈ {1, . . . , n} są parami rozłączne. Mamy wówczas
In (f ) =
n
Y
(2)
i=1
8
2062921106(8)
(1)
(B(ti ) − B(ti )) .
Z drugiej strony,
fe =
1 X
1 (1) (2)
.
(1)
(2)
(1)
(2)
n! σ [tσ(1) ,tσ(1) )×[tσ(2) ,tσ(2) )×...×[tσ(n) ,tσ(n) )
Stąd
n
1 XY
(2)
(1)
e
In (f ) =
(B(tσ(i) ) − B(tσ(i) )) .
n!
σ i=1
Zauważmy jednak, że dla dowolnej permutacji σ zbioru {1, . . . , n}
n
Y
(2)
(1)
(B(tσ(i) ) − B(tσ(i) )) =
i=1
n
Y
(2)
(1)
(B(ti ) − B(ti )) ,
i=1
a wobec tego
In (fe) =
n
n
Y
1 XY
(2)
(1)
(2)
(1)
(B(ti ) − B(ti )) =
(B(ti ) − B(ti )) = In (f ) .
n! σ i=1
i=1
Lemat 1.1.7. Niech f ∈ En , zaś g ∈ Em , gdzie n, m ­ 1. Wtedy E[In (f )] = 0 oraz
(
E[In (f )Im (g)] =
0,
n!hfe, geiL2 (T n ) ,
gdy n 6= m,
gdy n = m.
(1.4)
Dowód. Niech funkcja f będzie postaci (1.1). Wówczas współczynniki ai1 ,i2 ,...,in zerują się,
gdy przedziały [τi1 −1 , τi1 ), . . . , [τin −1 , τin ) nie są parami rozłączne. Z drugiej strony, jeśli są
one parami rozłączne, to E[ξi1 · · · ξin ] = 0 (gdyż przyrosty procesu Wienera są niezależne
i mają zerową wartość oczekiwaną). Stąd E[In (f )] = 0.
Na mocy lematu 1.1.6, możemy w dalszej części dowodu założyć, że funkcje f i g są
symetryczne. Możemy też przyjąć, że zarówno f jak i g są skojarzone z tym samym podziałem
a = τ0 < τ1 < . . . < τk = b przedziału [a, b] (biorąc ewentualnie wspólne rozdrobnienie dwóch
różnych podziałów), tzn. zakładamy, że g jest postaci
X
g=
bi1 ,i2 ,...,im 1[τi1 −1 ,τi1 )×[τi2 −1 ,τi2 )×···×[τim −1 ,τim ) ,
1¬i1 ,i2 ,...,im ¬k
gdzie bi1 ,i2 ,...,im = 0 gdy ip = iq dla p 6= q.
Następnie zauważmy, że skoro funkcja f jest symetryczna, to dla dowolnej permutacji
σ zbioru {1, . . . , n} mamy
aiσ(1) ,iσ(2) ,...,iσ(n) = ai1 ,i2 ,...,in ,
a zatem możemy zapisać
X
In (f ) = n!
ai1 ,i2 ,...,in ξi1 ξi2 · · · ξin .
1¬i1 <i2 <...<in ¬k
Analogiczna równość jest prawdziwa dla funkcji g.
Wykorzystując powyższą obserwację, możemy obliczyć
E[In (f )Im (g)] = n!m!
X
X
1¬i1 <...<in ¬k 1¬j1 <...<jm ¬k
9
1997848716(9)
ai1 ,...,in bj1 ,...,jm E[ξi1 · · · ξin ξj1 · · · ξjm ] .
Zauważmy teraz, że dla ustalonego zbioru indeksów i1 < . . . < in , na mocy własności przyrostów procesu Wienera mamy
n
p=1 (τip
(Q
E[ξi1 · · · ξin ξj1 · · · ξjm ] =
− τip −1 ),
0,
gdy n = m oraz j1 = i1 , . . . , jn = in ,
w przeciwnym wypadku.
Stąd już widać, że E[In (f )Im (g)] = 0, gdy n 6= m, zaś w przeciwnym razie
X
E[In (f )In (g)] = (n!)2
ai1 ,...,in bi1 ,...,in
1¬i1 <...<in ¬k
X
= n!
ai1 ,...,in bi1 ,...,in
1¬i1 ,...,in ¬k
n
Y
(τip − τip −1 )
p=1
n
Y
(τip − τip −1 )
p=1
Z
= n!
Tn
f (t1 , . . . , tn )g(t1 , . . . , tn )dt1 . . . dtn
= n!hfe, geiL2 (T n ) .
W szczególności, biorąc w powyższym lemacie g = f , dostajemy równość E[In (f )2 ] =
n!kfek2L2 (T n ) . Wiemy jednak, że kfekL2 (T n ) ¬ kf kL2 (T n ) , a zatem In : En → L2 (Ω) jest operatorem ograniczonym. Pokażemy teraz, że En jest gęstą podprzestrzenią L2 (T n ), dzięki czemu
będziemy mogli rozszerzyć operator In na całe L2 (T n ).
Lemat 1.1.8. Niech f ∈ L2 (T n ). Wtedy istnieje ciąg {fk }∞
n=1 funkcji schodkowych pozaprzekątniowych, taki, że
lim kfk − f kL2 (T n ) = 0 .
k→∞
Dowód. Zauważmy, że zbiór przekątniowy D można zapisać jako D = i6=j [{ti = tj } ∩ D],
tzn. D jest skończoną sumą przecięć (n − 1) -wymiarowych hiperpłaszczyzn z D. Wobec tego
n-wymiarowa miara Lebesgue’a zbioru D wynosi 0.
Zatem jeśli f ∈ L2 (T n ), to na mocy twierdzenia Lebesgue’a o zmajoryzowanym przejściu
granicznym, dla ustalonego ε > 0 możemy znaleźć δ > 0 tak małe, że
S
Z
f 2 (t1 , . . . , tn )dt1 . . . dtn <
Dδ
ε
,
2
(1.5)
gdzie Dδ = {x ∈ T n : dist(x, D) < δ}.
Z drugiej strony, z teorii miary wiemy, że funkcje proste są gęste w L2 . W szczególności,
rozważając funkcję f |Dδc ∈ L2 (Dδc ), gdzie Dδc := T n \ Dδ , wiemy, że istnieje funkcja ϕ postaci
P
c
ϕ= m
i=1 ai 1Ai , gdzie Ai ⊂ Dδ są n-wymiarowymi prostokątami dla i ∈ {1, . . . , m}, taka, że
Z
Dδc
|f (t1 , . . . , tn ) − ϕ(t1 , . . . , tn )|2 dt1 . . . dtn <
ε
.
2
(1.6)
Zwróćmy uwagę, że funkcja ϕ zeruje się na Dδ , zatem jest to funkcja schodkowa pozaprzekątniowa. Na podstawie nierówności (1.5) i (1.6) dostajemy
Z
Tn
|f (t1 , . . . , tn ) − ϕ(t1 , . . . , tn )|2 dt1 . . . dtn < ε ,
co kończy dowód.
10
1936723444(10)
2
n
Niech teraz f ∈ L2 (T n ) i niech {fk }∞
n=1 ⊂ En będzie ciągiem aproksymującym f w L (T )
tak jak w powyższym lemacie. Wówczas, na mocy lematu 1.1.7, liniowości In oraz nierówności
(1.3)
E[(In (fk ) − In (fl ))2 ] = n!kfek − fel k2L2 (T n ) ¬ n!kfk − fl k2L2 (T n ) → 0 ,
2
gdy k, l → ∞. Wobec tego, ciąg {In (fk )}∞
k=1 jest ciągiem Cauchy’ego w L (Ω). Możemy
zatem zdefiniować
In (f ) := lim In (fk ) , w sensie L2 (Ω) .
(1.7)
k→∞
Jak łatwo zauważyć, definicja In (f ) jest poprawna, tzn. nie zależy od wyboru ciągu aproksymującego {fk }∞
n=1 (wystarczy zastosować standardowy argument z braniem ciągów naprzemiennych).
Definicja 1.1.9. Jeśli f ∈ L2 (T n ), to zmienną losową In (f ) ∈ L2 (Ω) zdefiniowaną równaniem (1.7) nazywamy wielokrotną całką Wienera - Itô i oznaczamy ją przez
Z
Tn
f (t1 , . . . , tn )dB(t1 ) . . . dB(tn ) .
Dla n = 1 definicja ta pokrywa się ze zwykłą całką Itô z funkcji deterministycznej.
Zauważmy, że lematy 1.1.6 oraz 1.1.7 można w prosty sposób, korzystając z lematu 1.1.8,
rozszerzyć na funkcje z L2 (T n ).
Twierdzenie 1.1.10. Niech f ∈ L2 (T n ), g ∈ L2 (T m ) dla n, m ­ 1. Wtedy
(i) In (f ) = In (fe),
(ii) E[In (f )] = 0,
(iii)
(
E[In (f )Im (g)] =
0,
n!hfe, geiL2 (T n ) ,
gdy n 6= m,
gdy n = m.
2
n
Dowód. Jeśli f ∈ L2 (T n ), to istnieje {fk }∞
n=1 ⊂ En taki, że fk → f w L (T ), gdy k → ∞.
2
Wtedy In (fk ) → In (f ) w L (Ω), gdy k → ∞. Zauważmy jednak, że na mocy lematu 1.1.6
In (fk ) = In (fek ) dla k ­ 1, tzn. In (fek ) → In (f ) w L2 (Ω), gdy k → ∞. Z drugiej strony,
korzystając z nierówności (1.3), widzimy, że fek → fe w L2 (T n ), gdy k → ∞. Stąd mamy
In (fek ) → In (fe) w L2 (Ω), gdy k → ∞, a w konsekwencji In (f ) = In (fe).
W celu udowodnienia punktu (ii) zauważmy, że zbieżność In (fk ) → In (f ) w L2 (Ω), gdy
k → ∞, pociąga za sobą zbieżność słabą w L2 (Ω). W szczególności, E[In (fk )·1] → E[In (f )·1],
gdy k → ∞, a stąd E[In (f )] = 0.
2
m
Pozostaje wykazać punkt (iii). Ustalmy ciąg {gl }∞
l=1 ⊂ Em taki, że gl → g w L (T ), gdy
l → ∞. Wówczas Im (gl ) → Im (g) w L2 (Ω), gdy l → ∞. Ustalmy l ∈ N+ i zauważmy, że na
2
mocy słabej zbieżności ciągu {In (fk )}∞
k=1 w L (Ω)
E[In (fk )Im (gl )] → E[In (f )Im (gl )] , gdy k → ∞ .
Jednak na mocy lematu 1.1.7 wiemy, że
(
E[In (fk )Im (gl )] =
0,
n!hfek , gel iL2 (T n ) ,
11
2046821952(11)
gdy n 6= m,
gdy n = m.
2
n
Powołując się na słabą zbieżność ciągu {fek }∞
k=1 w L (T ) i przechodząc z k → ∞ w powyższym wzorze widzimy więc, że dla dowolnie ustalonego l ∈ N+ zachodzi
(
0,
n!hfe, gel iL2 (T n ) ,
E[In (f )Im (gl )] =
gdy n 6= m,
gdy n = m.
(1.8)
2
el }∞
Korzystając tym razem ze słabej zbieżności ciągu {Im (gl )}∞
l=1 w L (Ω) oraz ciągu {g
l=1
2
m
w L (T ) i przechodząc w (1.8) z l → ∞ dostajemy w końcu
(
E[In (f )Im (g)] =
0,
n!hfe, geiL2 (T n ) ,
gdy n 6= m,
gdy n = m.
1.2. Iterowana całka Itô
W tej sekcji zdefiniujemy iterowaną całkę Itô, opierając się na monografii [DØP09]. Następnie
wykażemy twierdzenie wiążące całkę iterowaną ze zdefiniowaną uprzednio wielokrotną całką
Wienera - Itô.
Rozważmy zbiór Sn = {(t1 , . . . , tn ) ∈ T n : a ¬ t1 ¬ . . . ¬ tn ¬ b} i zauważmy, że λn (Sn ) =
1 n
n
n
n! λ (T ), gdzie λ oznacza n-wymiarową miarę Lebesgue’a. Wobec tego dla dowolnej funkcji
2
n
e (T ) będziemy mieli
g∈L
Z
kgk2L2 (T n )
= n!
Sn
g 2 (t1 , . . . , tn )dt1 . . . dtn = n!kgk2L2 (Sn ) .
(1.9)
Definicja 1.2.1. Niech f będzie funkcją określoną na Sn o wartościach w R, całkowalną
z kwadratem, tzn. niech kf kL2 (Sn ) < ∞. Wówczas możemy zdefiniować n-krotną iterowaną
całkę Itô jako
Z b Z tn
Jn (f ) :=
a
···
a
Z t3 Z t2
f (t1 , . . . , tn )dB(t1 )dB(t2 ) . . . dB(tn−1 )dB(tn ) .
a
(1.10)
a
Zauważmy, że powyższa definicja jest poprawna. Istotnie, ustalmy i ∈ {1, . . . , n} oraz
ti+1 ¬ ti+2 ¬ . . . ¬ tn ¬ b i połóżmy
Z ti
Jbti (f ) :=
···
Z t2
f (t1 , . . . , tn )dB(t1 ) . . . dB(ti−1 ) ,
a
a
dla ti ∈ [a, ti+1 ]. Z własności całki Itô wiemy, że zmienna losowa Jbti (f ) jest Fti -mierzalna.
Ponadto
Z ti+1
E
a
Z ti+1
2
b
Jti (f ) dti =
E[Jbti (f )]2 dti
a
"Z Z
Z
ti+1
=
a
ti
E
ti−1
a
Z ti+1 Z ti
= ... =
a
···
a
a
···
2
Z t2
f (t1 , . . . , tn )dB(t1 ) . . . dB(ti−2 )
#
dti−1 dti
a
Z t2
f 2 (t1 , . . . , tn )dt1 . . . dti < ∞ ,
a
(1.11)
gdzie skorzystaliśmy kolejno z twierdzenia Fubiniego oraz z izometrii Itô, a następnie powtórzyliśmy tę operację i − 1 razy i otrzymaliśmy wartość, która jest skończona dla prawie wszystkich ti+1 ¬ ti+2 ¬ . . . ¬ tn ¬ b takich, że (t1 , . . . , tn ) ∈ Sn , gdyż z założenia
12
3280393605(12)
kf kL2 (Sn ) < ∞. Oznacza to, że proces stochastyczny {Jbti (f )}ti ∈[a,ti+1 ] jest całkowalny z kwaR
dratem na przestrzeni Ω×[a, ti+1 ]. Wnioskujemy stąd, że całka Itô ati+1 Jbti (f )dB(ti ) ma sens,
a zatem wyrażenie (1.10) poprawnie definiuje pewną zmienną losową. Co więcej, powtarzając
rozumowanie (1.11) możemy łatwo pokazać, że E[Jn (f )]2 < ∞, tzn. Jn (f ) ∈ L2 (Ω).
Twierdzenie 1.2.2. Niech f ∈ L2 (T n ), n ­ 1. Wtedy
Z
Tn
f (t1 , . . . , tn )dB(t1 ) . . . dB(tn )
Z b Z tn
= n!
a
···
a
Z t2
fe(t1 , . . . , tn−1 , tn )dB(t1 ) . . . dB(tn−1 )dB(tn ) .
a
Dowód. Zaczniemy od wykazania tezy dla dowolnej funkcji f ∈ En . Zauważmy przy tym, że ze
względu na liniowość zarówno całki wielokrotnej jak i całki iterowanej oraz liniowość operacji
brania symetryzacji, wystarczy pokazać tezę dla funkcji charakterystycznej n-wymiarowego
prostokąta rozłącznego ze zbiorem D. Będziemy zatem rozważać funkcję postaci
f (t1 , . . . , tn ) = 1[t(1) ,t(2) )×[t(1) ,t(2) )×...×[t(1) ,t(2) ) (t1 , . . . , tn ) ,
1
(1)
1
2
n
2
n
(2)
gdzie przedziały [ti , ti ), i ∈ {1, . . . , n} są parami rozłączne. Ponadto, ponieważ In (f ) =
(1)
(2)
(1)
(2)
(1)
(2)
In (fe), możemy bez straty ogólności przyjąć, że t1 < t1 ¬ t2 < t2 ¬ . . . ¬ tn−1 < tn−1 ¬
(1)
(2)
tn < tn . Wówczas
Z
Tn
f (t1 , . . . , tn )dB(t1 ) . . . dB(tn ) =
n
Y
(2)
(1)
(B(ti ) − B(ti )) .
i=1
Z drugiej strony zauważmy, że dla funkcji f zdefiniowanej jak wyżej, zachodzi równość fe =
na zbiorze {t1 < . . . < tn−1 < tn }. Stąd mamy
Z t2
fe(t1 , . . . , tn )dB(t1 ) =
a
1
n! f
1
(2)
(1)
(B(t1 ) − B(t1 ))1[t(1) ,t(2) )×...×[t(1) ,t(2) ) (t2 , . . . , tn ) .
n
n
n!
2
2
Możemy potraktować powyższe wyrażenie jako proces stochastyczny indeksowany zmienną
(1) (2)
(2)
(1)
t2 . Jest on wtedy stały dla t2 ∈ [t2 , t2 ), jest też Ft(1) - mierzalny (skoro t1 ¬ t2 ). Możemy
2
go zatem scałkować względem B(t2 ) i otrzymamy
Z t3 Z t2
fe(t1 , . . . , tn )dB(t1 )dB(t2 )
a
a
=
1
(2)
(1)
(2)
(1)
(B(t1 ) − B(t1 ))(B(t2 ) − B(t2 ))1[t(1) ,t(2) )×...×[t(1) ,t(2) ) (t3 , . . . , tn ) .
n
n
n!
3
3
Iterując powyższą procedurę, otrzymamy
Z b Z tn
a
···
a
Z t2
a
n
1 Y
(2)
(1)
e
f (t1 , . . . , tn−1 , tn )dB(t1 ) . . . dB(tn−1 )dB(tn ) =
(B(ti ) − B(ti )) .
n! i=1
Stąd mamy tezę dla f ∈ En . Jeśli teraz f ∈ L2 (T n ) jest dowolna, to istnieje ciąg {fk }∞
k=1 ⊂ En
2
n
2
taki, że fk → f w L (T ), gdy k → ∞. Stąd oczywiście In (fk ) → In (f ) w L (Ω), gdy k → ∞.
Ponadto, na mocy nierówności (1.3), fek → fe w L2 (T n ) gdy k → ∞, a wobec tego, na mocy
13
3278939647(13)
równości (1.9), również fek → fe w L2 (Sn ), gdy k → ∞. Zauważmy następnie, że na mocy
zastosowanej n razy izometrii Itô
" Z Z
tn
b
E
a
Z t2 ···
a
a
"Z
=E
fek (t1 , . . . , tn ) − fe(t1 , . . . , tn ) dB(t1 ) . . . dB(tn−1 )dB(tn )
b Z tn
···
a
=
a
Z t2 a
a
"Z
tn
Z b
2 #
···
E
Z t2 a
a
Z b Z tn
= ... =
···
fek (t1 , . . . , tn ) − fe(t1 , . . . , tn ) dB(t1 ) . . . dB(tn−1 )
a
#
dtn
2 #
e
e
fk (t1 , . . . , tn ) − f (t1 , . . . , tn ) dB(t1 ) . . . dB(tn−1 )
dtn
Z t2 a
a
2
2
fek (t1 , . . . , tn ) − fe(t1 , . . . , tn )
dt1 . . . dtn−1 dtn .
Zatem Jn (fek ) → Jn (fe) w L2 (Ω), gdy k → ∞, a ponieważ na mocy pierwszej części dowodu
mamy In (fk ) = n!Jn (fek ) dla wszystkich k ­ 1, to dowód jest zakończony.
Uwaga 1.2.3. Zauważmy, że iterowaną całkę Itô Jn (f ) można zdefiniować również wtedy,
gdy f jest procesem stochastycznym (indeksowanym za pomocą n zmiennych czasowych)
określonym na Ω × Sn , adaptowanym do filtracji {Ft }t∈T ze względu na swoją pierwszą
współrzędną czasową i całkowalnym z kwadratem, tzn. f ∈ L2 (Ω × Sn ). Wówczas możemy
powtórzyć rozumowanie (1.11) i pokazać, że definicja Jn (f ) jest poprawna. Ponadto, jeśli
m < n oraz g jest funkcją deterministyczną z L2 (Sm ), to stosując m razy izometrię Itô
otrzymamy
" Z Z
b
sm
E[Jm (g)Jn (f )] = E
Z b Z sm
a
a
···
g(s1 , . . . , sm )dB(s1 ) . . . dB(sm ) ·
a
a
!#
f (t1 , . . . , tn−m , s1 , . . . , sm )dB(t1 ) . . . dB(tn−m )dB(s1 ) . . . dB(sm )
a
Z b " Z sm
a
!
Z t2
a
=
···
Z s2
E
···
Z s2
a
a
Z sm
···
g(s1 , . . . , sm )dB(s1 ) . . . dB(sm−1 ) ·
#
Z t2
f (t1 , . . . , tn−m , s1 , . . . , sm )dB(t1 ) . . . dB(tn−m ) . . . dB(sm−1 )
a
dsm
a
Z b Z sm
= ... =
a
···
"Z
Z s2
s1
g(s1 , . . . , sm )E
a
a
a
···
Z t2
f (t1 , . . . , tn−m , s1 , . . . , sm )
a
#
dB(t1 ) . . . dB(tn−m ) ds1 . . . dsm = 0 ,
(1.12)
ponieważ wartość oczekiwana całki Itô jest równa zeru. Oczywiście w przypadku, gdy zarówno
g jak i f są funkcjami deterministycznymi, odpowiednio w L2 (Sm ) i L2 (Sn ), rezultat (1.12)
można otrzymać stosując po prostu twierdzenie 1.1.10 oraz twierdzenie 1.2.2.
14
3837648558(14)
1.3. Wielomiany Hermite’a
Ze względu na swój związek z wielokrotnymi całkami Wienera - Itô, interesować nas będą
tak zwane wielomiany Hermite’a. Dla x ∈ R, n ∈ N oraz λ > 0 definiujemy
x2
Hn (x, λ) := (−λ)n e 2λ
dn − x2
(e 2λ )
dxn
W szczególności będziemy stosować oznaczenie Hn (x) := Hn (x, 1). Dla przykładu, wielomiany
Hermite’a dla n = 0, 1, 2, 3 dane są wzorami
H0 (x, λ) = 1 ,
H1 (x, λ) = x ,
H2 (x, λ) = x2 − λ ,
H3 (x, λ) = x3 − 3λx .
Wykażemy teraz twierdzenie, dzięki któremu w prosty sposób będziemy mogli otrzymać istotne dla nas własności wielomianów Hermite’a.
Twierdzenie 1.3.1. Przy oznaczeniach jak wyżej,
exp{tx −
∞ n
X
t
t2 λ
}=
Hn (x, λ)
2
n!
n=0
√
Dowód. Oznaczmy u := t λ. Wówczas
tx −
t2 λ
x
u2
1 x
x2
= u√ −
= − ( √ − u)2 +
.
2
2
2 λ
2λ
λ
Wobec tego
exp{tx −
t2 λ
x2
1 x
} = exp{ } exp{− ( √ − u)2 }
2
2λ
2 λ
∞
2
n
X
x
u dn
1 x
= exp{ }
exp{− ( √ − u)2 } |u=0
n
2λ n=0 n! du
2 λ
= exp{
∞
n
n d
un
x2 X
w2
}
(−λ) 2
exp{− } |w=x
n
2λ n=0 n!
dw
2λ
= exp{
∞ n
t
x2 X
dn
x2
}
(−λ)n n exp{− } ,
2λ n=0 n!
dx
2λ
gdzie w trzeciej równości zastosowaliśmy podstawienie
n
dn
2
dwn (−λ) ).
√x
λ
−u=
w
√
λ
(wówczas mamy
dn
dun
=
Jako wniosek wykażemy teraz kilka prostych własności wielomianów Hn (x, λ).
Wniosek 1.3.2. Przy powyższych oznaczeniach, dla n ­ 1 zachodzą następujące wzory
∂
Hn (x, λ) = nHn−1 (x, λ) ,
∂x
Hn+1 (x, λ) = xHn (x, λ) − λnHn−1 (x, λ) ,
n
(1.14)
Hn (−x, λ) = (−1) Hn (x, λ) ,
(1.15)
∂
1 ∂2
Hn (x, λ) = −
Hn (x, λ) .
∂λ
2 ∂x2
(1.16)
15
2737673446(15)
(1.13)
Dowód. W celu udowodnienia wzoru (1.13) zauważmy, że
∞ n+1
∞
X
X
∂
t2 λ
t2 λ
t
tn
exp{tx −
} = t exp{tx −
}=
Hn (x, λ) =
Hn−1 (x, λ) .
∂x
2
2
n!
(n − 1)!
n=0
n=1
Z drugiej strony,
∞ n
X
t2 λ
t ∂
∂
exp{tx −
}=
Hn (x, λ) .
∂x
2
n!
∂x
n=0
Porównując wyrazy przy odpowiednich potęgach t, dostajemy (1.13). Podobnie, chcąc wykazać (1.14) różniczkujemy
∂
t2 λ
t2 λ
exp{tx −
} = (x − λt) exp{tx −
}
∂t
2
2
∞ n
∞ n+1
X
X
t
t
=x
Hn (x, λ) − λ
Hn (x, λ)
n!
n!
n=0
n=0
=x
∞ n
X
t
n=0
n!
Hn (x, λ) − λ
∞
X
tn
Hn−1 (x, λ) ,
(n − 1)!
n=1
a następnie porównujemy to rozwinięcie z rozwinięciem uzyskanym za pomocą różniczkowania
szeregu wyraz po wyrazie
∞
X
∂
t2 λ
ntn−1
exp{tx −
}=
Hn (x, λ)
∂t
2
n!
n=0
=
=
∞
X
tn−1
Hn (x, λ)
(n − 1)!
n=0
∞ n
X
t
n=1
n!
Hn+1 (x, λ) .
Wzór (1.15) jest oczywisty, zaś po zróżniczkowaniu
∂
t2 λ
t2
t2 λ
exp{tx −
} = − exp{tx −
}
∂λ
2
2
2
∞ n+2
t
1X
=−
Hn (x, λ)
2 n=0 n!
=−
∞
tn
1X
Hn−2 (x, λ) ,
2 n=2 (n − 2)!
i zauważeniu, że na mocy zastosowanego dwukrotnie wzoru (1.13), n(n − 1)Hn−2 (x, λ) =
∂2
∂x2 Hn (x, λ), dostajemy wzór (1.16).
Wykażemy teraz twierdzenie, które pozwoli nam obliczać wielokrotne całki Wienera - Itô
za pomocą wielomianów Hermite’a.
Twierdzenie 1.3.3. Niech f ∈ L2 (T ) oraz n ­ 1. Wtedy
In (f
⊗n
Z b
) = Hn
a
!
f (t)dB(t), kf k2L2 (T )
,
gdzie f ⊗n oznacza n-tą potęgę tensorową funkcji f , tzn. f ⊗n jest funkcją n zmiennych daną
wzorem f ⊗n (t1 , . . . tn ) = f (t1 ) · . . . · f (tn ).
16
2004392155(16)
Dowód. Zastosujemy indukcję względem n. Jeśli n = 1, to ponieważ H1 (x, λ) = x, mamy
I1 (f
⊗1
Z b
Z b
f (t)dB(t) = H1
)=
a
a
!
f (t)dB(t), kf k2L2 (T )
.
Załóżmy teraz, że teza jest prawdziwa dla pewnego n i korzystając z twierdzenia 1.2.2 zapiszmy
In+1 (f ⊗n+1 ) = (n + 1)!
Z b
f (tn+1 )X(tn+1 )dB(tn+1 ) ,
a
gdzie
Z t Z tn
X(t) =
···
a
a
Z t2
f (t1 ) · · · f (tn )dB(t1 ) . . . dB(tn ) .
a
Korzystając ponownie z twierdzenia 1.2.2 oraz z założenia indukcyjnego, dostajemy
1
X(t) =
f (t1 ) · · · f (tn )dB(t1 ) . . . dB(tn )
n! [a,t]n
Z t
Z t
1
f (s)dB(s),
f 2 (s)ds .
= Hn
n!
a
a
Z
Stąd otrzymujemy
In+1 (f ⊗n+1 ) = (n + 1)
Z b
Z tn+1
Z tn+1
f (tn+1 )Hn
f (s)dB(s),
a
f 2 (s)ds dB(tn+1 ) .
a
a
Z drugiej strony, stosując wzór Itô do funkcji Hn+1 (x, λ) dostajemy
Z t
dHn+1
a
Z t
∂
f (s)ds =
f (s)dB(s),
Hn+1 f (t)dB(t)
∂x
a
!
1 ∂2
∂
2
+
Hn+1 f (t)dt +
Hn+1 f 2 (t)dt .
2 ∂x2
∂λ
2
Korzystając ze wzorów (1.13) i (1.16) widzimy więc, że
Z t
dHn+1
Z t
f (s)dB(s),
a
Z t
2
f (s)ds = (n + 1)f (t)Hn
a
Z t
f (s)ds dB(t) ,
f (s)dB(s),
a
2
a
a stąd
!
Z b
f (t)dB(t), kf k2L2 (T )
Hn+1
a
Z b
=
Z t
Z t
f (s)dB(s),
(n + 1)f (t)Hn
a
a
f 2 (s)ds dB(t) .
a
Wobec tego
In+1 (f
⊗n+1
Z b
) = Hn+1
a
!
f (t)dB(t), kf k2L2 (T )
,
co kończy dowód.
Przykład 1.3.4. Jako prosty przykład, policzmy z wykorzystaniem twierdzenia 1.3.3 całkę
trzykrotną z funkcji stale równej 1. Ponieważ
kwadrat normy takiej funkcji w przestrzeni
R
L2 (T ) jest równy b − a, jej całka Itô ab dB(t) = B(b) − B(a) oraz H3 (x, λ) = x3 − 3λx, to
mamy
Z
T3
1dB(t1 )dB(t2 )dB(t3 ) = (B(b) − B(a))3 − 3(b − a)(B(b) − B(a)) .
17
2458763699(17)
1.4. Rozwinięcie w chaos Wienera - Itô
Udowodnimy teraz kluczowe dla naszych dalszych rozważań twierdzenie mówiące o tym, iż
każda zmienna losowa z L2 (Ω) mierzalna względem odpowiedniej σ-algebry daje się przedstawić jako suma szeregu wielokrotnych całek Wienera - Itô. Twierdzenie to w ogólnej postaci, wykorzystującej pojęcie tzw. chaosu Wienera, można znaleźć np. w monografii [Nua06]
(Twierdzenie 1.1.1). W tej pracy ograniczymy się do jego szczególnego przypadku. Przedstawiony poniżej dowód jest oparty na dowodzie, który można znaleźć np. w [DØP09] lub
[Øks97].
Twierdzenie 1.4.1. Niech ξ będzie Fb - mierzalną zmienną losową w L2 (Ω). Wówczas iste2 n
nieje dokładnie jeden ciąg {fn }∞
n=0 funkcji fn ∈ L (T ) taki, że
ξ=
∞
X
In (fn ) ,
(1.17)
n=0
gdzie f0 = E[F ], przez I0 oznaczamy odwzorowanie identycznościowe, zaś zbieżność powyższego szeregu rozumiana jest w sensie przestrzeni L2 (Ω). Co więcej, mamy następującą izometrię
kξk2L2 (Ω) =
∞
X
n!kfn k2L2 (T n )
(1.18)
n=0
Dowód. Na mocy twierdzenia Itô o reprezentacji, istnieje {Ft }t∈T - adaptowany proces ϕ1 (s1 ),
s1 ∈ [a, b], taki, że
Z b
ξ = E[ξ] +
ϕ1 (s1 )dB(s1 ) .
(1.19)
a
Podnosząc (1.19) obustronnie do kwadratu dostajemy
2
ϕ1 (s1 )dB(s1 )
ϕ1 (s1 )dB(s1 ) +
ξ = (E[ξ]) + 2E[ξ]
!2
Z b
Z b
2
,
(1.20)
a
a
zaś po obłożeniu równości (1.20) operatorem wartości oczekiwanej i skorzystaniu z podstawowych własności całki Itô mamy
"Z
E[ξ 2 ] = (E[ξ])2 + E
b
a
#
ϕ21 (s1 )ds1 .
(1.21)
Stąd już łatwo widać, że
"Z
E
b
a
#
ϕ21 (s1 )ds1 ¬ E[ξ 2 ] < ∞ .
(1.22)
Na podstawie (1.22) wnioskujemy, że dla prawie wszystkich s1 ∈ [a, b] mamy E[ϕ21 (s1 )] < ∞,
a zatem możemy ponownie zastosować twierdzenie Itô o reprezentacji i otrzymujemy proces
{Ft }t∈T - adaptowany ϕ2 (s2 , s1 ), s2 ∈ [a, s1 ] taki, że
Z s1
ϕ1 (s1 ) = E[ϕ1 (s1 )] +
ϕ2 (s2 , s1 )dB(s2 ) .
(1.23)
a
Ponadto, powtarzając przekształcenia (1.19)-(1.22), otrzymujemy oszacowanie
Z s1
E
a
ϕ22 (s2 , s1 )ds2 ¬ E[ϕ21 (s1 )] < ∞ .
18
1329180580(18)
(1.24)
Wprowadzając oznaczenia
g0 = E[ξ]
g1 (s1 ) = E[ϕ1 (s1 )]
i podstawiając (1.23) do (1.19) dostajemy
Z b Z s1
Z b
ϕ2 (s2 , s1 )dB(s2 )dB(s1 ) .
g1 (s1 )dB(s1 ) +
ξ = g0 +
a
a
(1.25)
a
Kontynuując nasze rozumowanie, wnioskujemy z nierówności (1.24), że dla prawie wszystkich s2 ∈ [a, s1 ] zachodzi E[ϕ22 (s2 , s1 )] < ∞, a zatem korzystając z twierdzenia Itô o reprezentacji, dostaniemy {Ft }t∈T - adaptowany proces ϕ3 (s3 , s2 , s1 ), s3 ∈ [a, s2 ] taki, że
Z s2
ϕ2 (s2 , s1 ) = E[ϕ2 (s2 , s1 )] +
ϕ3 (s3 , s2 , s1 )dB(s3 ) ,
(1.26)
a
oraz spełnione jest oszacowanie
Z s2
E
a
ϕ23 (s3 , s2 , s1 )ds3 ¬ E[ϕ22 (s2 , s1 )] < ∞ .
Określając
g2 (s2 , s1 ) = E[ϕ2 (s2 , s1 )] ,
i podstawiając (1.26) do (1.25) dostaniemy
Z b Z s1
Z b
g2 (s2 , s1 )dB(s2 )dB(s1 )
g1 (s1 )dB(s1 ) +
ξ = g0 +
a
a
a
Z b Z s1 Z s2
ϕ3 (s3 , s2 , s1 )dB(s3 )dB(s2 )dB(s1 ) .
+
a
a
a
Powtarzając dalej powyższy schemat postępowania, po n krokach otrzymamy proces stochastyczny ϕn+1 (t1 , t2 , . . . , tn+1 ), a ¬ t1 ¬ t2 ¬ . . . ¬ tn+1 ¬ b (określony prawie wszędzie na
Sn+1 ) oraz n + 1 deterministycznych funkcji g0 , g1 , . . . , gn , gdzie g0 jest stała, zaś gk jest
zdefiniowana na Sk dla k ∈ {1, . . . , n}. Spełnione będzie równanie
ξ=
n
X
Z
Jk (gk ) +
ϕn+1 dB ⊗(n+1) ,
Sn+1
k=0
gdzie
Z
ϕn+1 dB ⊗(n+1) :=
Sn+1
Z b Z tn+1
a
···
a
Z t2
ϕn+1 (t1 , . . . , tn+1 )dB(t1 ) . . . dB(tn+1 ) .
a
Będziemy teraz chcieli pokazać, że ciąg zmiennych losowych
Z
ϕn+1 dB ⊗(n+1) ,
ψn+1 :=
Sn+1
jest zbieżny do zera w normie L2 (Ω). W tym celu zauważmy, że na mocy uwagi 1.2.3 mamy
hψn+1 , Jk (fk )iL2 (Ω) = 0 ,
19
5731515724(19)
(1.27)
dla wszystkich k ¬ n oraz dowolnych funkcji fk ∈ L2 (Sk ). Zatem z twierdzenia Pitagorasa
kξk2L2 (Ω) =
n
X
kJk (gk )k2L2 (Ω) + kψn+1 k2L2 (Ω) .
k=0
W szczególności,
n
X
kJk (gk )k2L2 (Ω) ¬ kξk2L2 (Ω) , dla n = 1, 2, . . . ,
k=0
a zatem
∞
X
kJk (gk )k2L2 (Ω) ¬ kξk2L2 (Ω) < ∞ .
k=0
P∞
k=0 Jk (gk )
Wobec tego szereg
jest zbieżny w L2 (Ω), a w konsekwencji
lim ψn+1 =: ψ ,
n→∞
istnieje w L2 (Ω). Ponieważ zbieżność w normie implikuje zbieżność słabą, to na mocy (1.27)
mamy
hψ, Jk (fk )iL2 (Ω) = 0 ,
dla wszystkich k ∈ N oraz fk ∈ L2 (Sk ). Na podstawie twierdzenia 1.3.3 wynika stąd, że
E[Hk (θ, kgk2L2 (T ) ) · ψ] = 0 ,
dla wszystkich g ∈ L2 (T ) oraz dla wszystkich k ­ 0, gdzie θ = ab g(t)dB(t). Zauważmy teraz,
że na mocy własności (1.14) wielomianów Hermite’a, wyraz najwyższego rzędu w Hn (x, λ)
to xn , a zatem xn można przedstawić jako kombinację liniową wielomianów Hermite’a stopnia ¬ n. Wobec tego
E[θk · ψ] = 0 , dla wszystkich k ­ 1 .
R
Stąd
E[exp θ · ψ] = E
"∞
X θk
k!
k=0
#
·ψ =
∞
X
1
k!
k=0
E[θk · ψ] = 0 .
Skorzystamy teraz z twierdzenia mówiącego, że rodzina zmiennych losowych postaci
(Z
b
exp
a
1
h(t)dB(t) −
2
)
Z b
2
, gdzie h ∈ L2 (T ) ,
h (t)dt
a
jest totalna w L2 (Ω), tzn. jej rozpięcie liniowe jest gęste w L2 (Ω) (zobacz np. [Øks03], Lemat
4.3.2). Ale
"
(
1
E exp θ −
2
Z b
a
)
#
(
1
g (t)dt · ψ = exp −
2
2
dla dowolnej g ∈ L2 (T ). Stąd ψ = 0.
Wobec tego
ξ=
∞
X
Z b
a
)
2
g (t)dt E[exp θ · ψ] = 0 ,
Jk (gk ) ,
k=0
a stąd wnioskujemy, że
kξk2L2 (Ω) =
∞
X
kJk (gk )k2L2 (Ω) ,
k=0
20
2631330993(20)
ponieważ całki Jk dla kolejnych k są wzajemnie ortogonalne. Przypomnijmy, że funkcje gk
są zdefiniowane tylko na Sk , ale możemy je rozszerzyć na całe T k poprzez zero. Wówczas
1
kładziemy fk := gek dla k ­ 0. Mamy wtedy fk = k!
gk na zbiorze Sk , a zatem na mocy
twierdzenia 1.2.2 dostajemy Ik (fk ) = Jk (gk ) dla k ­ 0. Otrzymaliśmy więc żądane rozwinięcie
ξ=
∞
X
Ik (fk ) ,
k=0
oraz izometrię
kξk2L2 (Ω) =
∞
X
kIk (fk )k2L2 (Ω) =
∞
X
k!kfk k2L2 (T k ) ,
k=0
k=0
gdzie ostatnia równość wynika z lematu 1.1.7.
P
Pozostaje pokazać jedyność tego rozwinięcia. Załóżmy w tym celu, że ξ = ∞
k=0 Ik (hk )
jest innym takim rozwinięciem. Jednak na mocy liniowości wielokrotnej całki Wienera - Itô
∞
X
Ik (hk − fk ) = 0 ,
k=0
a na podstawie wykazanej izometrii
∞
X
k!khk − fk k2L2 (T k ) = 0 .
k=0
Stąd hk = fk prawie wszędzie w T k dla k ­ 0.
Przyjrzyjmy się teraz dwóm prostym przykładom rozwinięć w chaos Wienera - Itô pewnych zmiennych losowych.
Przykład 1.4.2. Niech a = 0 oraz ξ = B(b). Zauważmy, że na mocy twierdzenia 1.3.3
Z b
Z
I2 (1) =
T2
1dB(t1 )dB(t2 ) = H2
0
!
1dB(t), k1k2L2 (T )
= H2 (B(b), b) = B(b)2 − b .
Wobec tego
B(b)2 = b + I2 (1) = I0 (b) + I2 (1) ,
czyli w rozwinięciu ξ =
fk = 0 dla k ∈
/ {0, 2}.
P∞
k=0 Ik (fk )
mamy dwie funkcje stałe niezerowe f0 = b, f2 = 1, zaś
Przykład 1.4.3. Ustalmy funkcję g ∈ L2 (T ) i niech ξ = exp{ ab g(s)dB(s)}. Stosując twierR
dzenie 1.3.1 dla t = 1, x = ab g(s)dB(s) oraz λ = kgk2L2 (T ) otrzymujemy
R
(Z
b
exp
a
1
g(s)dB(s) − kgk2L2 (T )
2
)
=
∞
X
1
n=0
n!
Z b
Hn
a
!
g(s)dB(s), kgk2L2 (T )
Korzystając teraz z twierdzenia 1.3.3 widzimy, że
∞
X
1
1
ξ = exp{ kgk2L2 (T ) }
In (g ⊗n ) ,
2
n!
n=0
a zatem funkcje fn z rozwinięcia zmiennej ξ dane są wzorem
fn =
1
1
exp{ kgk2L2 (T ) }g ⊗n , dla n ­ 0 .
n!
2
21
3549688063(21)
.
1.5. Całka Skorohoda
Wykorzystując twierdzenie 1.4.1, zdefiniujemy w tej sekcji całkę Skorohoda, która, jak się
okaże, stanowi rozszerzenie pojęcia całki Itô na przypadek procesów stochastycznych, które
niekoniecznie są {Ft }t∈T -adaptowane. Całka Skorohoda będzie dla nas istotna ze względu na
swoje powiązania z pochodną Malliavina, które zostaną opisane w kolejnym rozdziale w sekcji
2.3.
Rozważmy Fb ⊗ B(T ) - mierzalny proces stochastyczny u = {u(t)}t∈T całkowalny z kwadratem, tzn. u ∈ L2 (Ω × T ). Wówczas dla dowolnie ustalonego t ∈ T zmienna losowa u(t) jest
Fb - mierzalna oraz dla prawie wszystkich t ∈ T mamy u(t) ∈ L2 (Ω). Wobec tego dla prawie
wszystkich t ∈ T możemy zastosować twierdzenie 1.4.1 do zmiennej losowej u(t), a zatem
e 2 (T n )
otrzymujemy rodzinę funkcji fn,t = fn,t (t1 , . . . , tn ), (t1 , . . . , tn ) ∈ T n takich, że fn,t ∈ L
dla n = 1, 2, . . . oraz
u(t) =
∞
X
In (fn,t ) ,
n=0
dla p.w. t ∈ T . Ponieważ funkcje fn,t , n = 1, 2, . . . zależą od parametru t ∈ T , możemy
stosować zapis
fn,t (t1 , . . . , tn ) =: fn (t1 , . . . , tn , t) = fn (t1 , . . . , tn , tn+1 ) ,
i traktować fn jako funkcję n + 1 zmiennych. Jest ona symetryczna ze względu na swoje
pierwsze n zmiennych, zatem jej symetryzacja fen jest dana przez
fen (t1 , . . . , tn+1 ) =
1
[fn (t1 , . . . , tn+1 )+fn (t2 , . . . , tn+1 , t1 )+. . .+fn (t1 , . . . , tn−1 , tn+1 , tn )] .
n+1
(1.28)
Definicja 1.5.1. Niech u ∈ L2 (Ω × T ) będzie procesem stochastycznym posiadającym rozwinięcie w chaos Wienera - Itô
∞
X
u(t) =
In (fn,t ) =
∞
X
In (fn (·, t)) ,
(1.29)
n=0
n=0
dla p.w. t ∈ T . Wtedy definiujemy całkę Skorohoda procesu u jako
δ(u) :=
∞
X
In+1 (fen ) ,
(1.30)
n=0
o ile szereg ten jest zbieżny w L2 (Ω). W powyższym wzorze fen oznaczają funkcje symetryczne
uzyskane z funkcji fn (·, t) zgodnie ze wzorem (1.28). Mówimy, że proces u jest całkowalny w
sensie Skorohoda i piszemy u ∈ Dom(δ), jeżeli szereg (1.30) jest zbieżny w L2 (Ω).
Uwaga 1.5.2. Oczywiście fakt, iż rozwinięcie (1.29) jest zdefiniowane tylko dla prawie wszystkich t ∈ T , jest nieistotny, gdyż zawsze możemy położyć fn (·, t) ≡ 0 dla t ze zbioru miary
zero. Zmiana funkcji fen na zbiorze miary zero nie wpływa na wartość całki In+1 (fen ), a tym
samym nie wpływa na definicję całki Skorohoda.
Uwaga 1.5.3. Korzystając z twierdzenia 1.1.10, możemy łatwo pokazać, że szereg (1.30) jest
zbieżny wtedy i tylko wtedy, gdy
∞
X
(n + 1)!kfen k2L2 (T n+1 ) < ∞ .
n=0
22
2304313461(22)
(1.31)
Mamy bowiem
k
∞
X
In+1 (fen )k2 2
L (Ω)
∞
X
=
kIn+1 (fen )k2 2
L (Ω)
n=0
=
n=0
∞
X
(n + 1)!kfen k2L2 (T n+1 ) ,
n=0
gdzie w pierwszej równości skorzystaliśmy z faktu, iż całki In oraz Im są wzajemnie ortogonalne dla n 6= m, zaś w drugiej - z zależności E[In (g)2 ] = n!kgek2L2 (T n ) dla dowolnej funkcji
g ∈ L2 (T n ).
Ponadto, jeżeli szereg (1.31) jest zbieżny, to jego suma jest równa E[δ(u)2 ].
Uwaga 1.5.4. Ponieważ dla dowolnej funkcji f ∈ L2 (T n ) zachodzi In (f ) = In (fe), to w definicji
P
całki Skorohoda można by rozważać po prostu szereg ∞
n=0 In+1 (fn ). Zwyczajowo stosuje
się jednak zapis uwzględniający symetryzację, gdyż funkcje fen są nam i tak potrzebne do
obliczania normy całki Skorohoda za pomocą wyrażenia (1.31).
Uwaga 1.5.5. Całkę Skorohoda procesu {u(t)}t∈T oznacza się również jako
Z b
u(t)δB(t) .
a
Lemat 1.5.6. Całka Skorohoda δ : L2 (Ω × T ) ⊃ Dom(δ) → L2 (Ω) jest operatorem liniowym.
Dowód. Własność δ(au) = aδ(u) dla dowolnych a ∈ R oraz u ∈ Dom(δ) jest oczywista.
W celu pokazania addytywności, udowodnimy najpierw, że jeżeli dane są dwie zmienne losowe
P
F , G ∈ L2 (Ω, Fb , P ) o rozwinięciach w chaos Wienera - Itô, odpowiednio, ∞
n=0 In (fn ) oraz
P∞
P∞
I
(f
+
g
).
I
(g
),
to
zmienna
F
+
G
ma
rozwinięcie
n
n
n=0 n P
n=0 n n
P
I (f ) i GN = N
Załóżmy najpierw, że dane są zmienne losowe FN = N
n=0 In (gn ).
n=0
PNn n
Wówczas, na mocy liniowości całki In , mamy FN + GN = n=0 In (fn + gn ). Jeżeli teraz
P∞
P
F = ∞
n=0 In (gn ), to definiując sumy częściowe FN i GN jak powyżej,
n=0 In (fn ) i G =
mamy FN → F oraz GN → G w L2 (Ω) przy N → ∞. Z drugiej strony, ciąg sum częściowych
P
P∞
PN
F +G = ∞
n=0 In (fn + gn ).
n=0 In (fn + gn ), a wobec tego
n=0 In (fn + gn ) jest zbieżny do
P∞
Jeżeli więc dane są procesy u, v ∈ Dom(δ), takie, że u(t) = n=0 In (fn (·, t)) oraz v(t) =
P∞
P∞
n=0 In (fn (·, t)+gn (·, t)). Biorąc pod uwagę liniowość
n=0 In (gn (·, t)), to wtedy (u+v)(t) =
operacji brania symetryzacji, mamy wobec tego
δ(u + v) =
=
=
∞
X
In+1 (fen + gen )
n=0
∞
X
[In+1 (fen ) + In+1 (gen )]
n=0
∞
X
In+1 (fen ) +
n=0
∞
X
In+1 (gen ) = δ(u) + δ(v) .
n=0
Przykład 1.5.7. Niech a = 0, tzn. T = [0, b]. Policzmy
całkę Skorohoda z procesu stochastyczRb
nego u(t) := B(b) dla t ∈ T . Oczywiście B(b) = 0 1dB(s), a zatem w rozwinięciu w chaos
Wienera - Itô zmiennej B(b) mamy f0 = 0, f1 = 1 oraz fn = 0 dla n ­ 2. Wobec tego
Z b Z t2
δ(u) = I2 (fe1 ) = I2 (1) = 2
Z b
1dB(t1 )dB(t2 ) = 2
0
0
0
23
1730959466(23)
B(t2 )dB(t2 ) = B(b)2 − b .
Zajmiemy się teraz wykazaniem kluczowego w tej sekcji twierdzenia, łączącego pojęcie
całki Skorohoda z całką Itô. Będzie nam jednak wcześniej potrzebny pewien techniczny lemat.
Lemat 1.5.8. Niech {u(t)}t∈T będzie procesem stochastycznym z L2 (Ω × T ) mającym rozwinięcie
u(t) =
∞
X
In (fn (·, t)) .
n=0
Wówczas proces u jest {Ft }t∈T -adaptowany wtedy i tylko wtedy, gdy
fn (t1 , . . . tn , t) = 0 dla t < max ti ,
(1.32)
1¬i¬n
dla dowolnego n ­ 0, gdzie powyższa równość jest rozumiana jako zachodząca dla prawie
wszystkich (t1 , . . . , tn ) ∈ T n takich, że t < max1¬i¬n ti przy ustalonym t ∈ T .
e 2 (T n ) zachodzi
Dowód. Na początek zauważmy, że dla dowolnej funkcji g ∈ L
Z b Z tn
E[In (g)|Ft ] = n!E[
a
a
Z t Z tn
= n!
a a
Z b Z tn
= n!
a
···
Z t2
a
g(t1 , . . . , tn )dB(t1 ) . . . dB(tn−1 )dB(tn )|Ft ]
a
···
Z t2
g(t1 , . . . , tn )dB(t1 ) . . . dB(tn−1 )dB(tn )
a
···
Z t2
a
g(t1 , . . . , tn )1{max ti <t} (t1 , . . . , tn )dB(t1 ) . . . dB(tn−1 )dB(tn )
= In (g(t1 , . . . , tn )1{max ti <t} (t1 , . . . , tn )) .
Proces u jest adaptowany wtedy i tylko wtedy, gdy u(t) = E[u(t)|Ft ] dla każdego t ∈ T . Jest
to z kolei równoważne temu, że
∞
X
n=0
In (fn (·, t)) =
∞
X
E[In (fn (·, t))|Ft ] =
n=0
∞
X
In (fn (·, t)1{max ti <t} ) ,
n=0
zaś to, na mocy jedyności (w sensie p.w.) funkcji w rozwinięciu w chaos Wienera - Itô, zachodzi
wtedy i tylko wtedy, gdy
fn (t1 , . . . , tn , t) = fn (t1 , . . . , tn , t)1{max ti <t} (t1 , . . . , tn ) ,
dla prawie wszystkich (t1 , . . . , tn ) ∈ T n przy dowolnie ustalonym t ∈ T . Jak łatwo zauważyć,
ostatnia równość jest równoważna warunkowi (1.32), a zatem dowód jest zakończony.
Możemy w końcu przystapić do dowodu zapowiadanego twierdzenia, charakteryzującego
całkę Skorohoda jako rozszerzenie pojęcia całki Itô na przypadek procesów, które niekoniecznie są {Ft }t∈T - adaptowane.
Twierdzenie 1.5.9. Niech {u(t)}t∈T będzie {Ft }t∈T - adaptowanym procesem stochastycznym z L2 (Ω × T ). Wtedy u ∈ Dom(δ) oraz
Z b
δ(u) =
u(t)dB(t) .
(1.33)
a
Dowód. Przyjmijmy tak jak poprzednio, że proces u ma rozwinięcie u(t) =
Na mocy lematu 1.5.8 oraz równania (1.28) widzimy, że
fen (t1 , . . . , tn , tn+1 ) =
1
fn (t1 , . . . , tj−1 , tj+1 , . . . , tn+1 , tj ) ,
n+1
24
2329693977(24)
P∞
n=0 In (fn (·, t)).
(1.34)
dla n ­ 1 i dla p.w. (t1 , . . . , tn , tn+1 ) ∈ T n+1 , gdzie
j = arg max ti .
1¬i¬n+1
Wobec tego
kfen k2L2 (T n+1 ) = (n + 1)!
Z
Sn+1
fen2 (t1 , . . . , tn+1 )dt1 . . . dtn+1
(n + 1)!
f 2 (t1 , . . . , tn+1 )dt1 . . . dtn+1
(n + 1)2 Sn+1 n
Z t2
Z b Z t Z tn
n!
···
fn2 (t1 , . . . , tn , t)dt1 . . . dtn dt
n+1 a a a
a
Z t2
Z b Z b Z tn
n!
···
fn2 (t1 , . . . , tn , t)dt1 . . . dtn dt
n+1 a a a
a
Z b Z
n!
(
f 2 (t1 , . . . , tn , t)dt1 . . . dtn )dt
n + 1 a Sn n
Z b
1
kfn (·, t)k2L2 (T n ) dt ,
n+1 a
Z
=
=
=
=
=
gdzie w drugiej równości skorzystaliśmy z (1.34), zaś w czwartej - ponownie z lematu 1.5.8.
Mamy zatem
∞
X
(n + 1)!kfen k2 2
L (T n+1 )
=
n=0
=
∞
X
Z b
n!
n=0
Z bX
∞
a n=0
Z b
a
kfn (·, t)k2L2 (T n ) dt
n!kfn (·, t)k2L2 (T n ) dt
E[u(t)2 ]dt
=
a
Z b
= E[
u(t)2 dt] < ∞ ,
a
gdyż z założenia u ∈ L2 (Ω × T ). Stąd (i z uwagi 1.5.3) wynika, że u ∈ Dom(δ). W celu
wykazania zależności (1.33), policzmy
Z b
u(t)dB(t) =
a
=
=
=
=
Z bX
∞
a n=0
∞ Z b
X
n=0 a
∞ Z b
X
n=0 a
∞ Z b
X
n=0 a
∞
X
In (fn (·, t))dB(t)
In (fn (·, t))dB(t)
Z
n!
{0¬t1 ¬...¬tn ¬t}
fn (t1 , . . . , tn , t)dB(t1 ) . . . dB(tn )dB(t)
Z
n!(n + 1)
{0¬t1 ¬...¬tn ¬t}
fen (t1 , . . . , tn , t)dB(t1 ) . . . dB(tn )dB(t)
In+1 (fen ) = δ(u) ,
n=0
gdzie w trzeciej równości ponownie skorzystaliśmy z lematu 1.5.8, zaś w czwartej ze wzoru
(1.34).
25
9030916673(25)
3451475010(26)
Rozdział 2
Pochodna Malliavina
2.1. Izonormalne procesy gaussowskie
Niech H będzie rzeczywistą, ośrodkową przestrzenią Hilberta z iloczynem skalarnym h·, ·i
i niech k · k oznacza normę w H zadaną przez ten iloczyn. Rodzinę zmiennych losowych
W = {W (h) : h ∈ H} będziemy nazywać izonormalnym procesem gaussowskim, jeżeli jest
ona scentrowaną gaussowską rodziną zmiennych losowych (tzn. każda skończona kombinacja
liniowa zmiennych z W ma rozkład normalny o zerowej wartości oczekiwanej) oraz zachodzi
warunek
E[W (h)W (g)] = hh, gi , dla wszystkich h, g ∈ H .
(2.1)
Dla dowolnej przestrzeni Hilberta H jak wyżej, możemy skonstruować przestrzeń probabilistyczną (Ω, F, P ) oraz zadany na niej proces W spełniający powyższe warunki. Dowód
tego faktu, oparty na twierdzeniu Kołmogorowa, można znaleźć np. w [Dud04] (twierdzenie
12.1.4).
Zauważmy, że dla tak zdefiniowanego izonormalnego procesu gaussowskiego W , odwzorowanie H 3 h 7→ W (h) ∈ L2 (Ω, F, P ) jest liniowe. Weźmy bowiem dowolne h, g ∈ H oraz
λ, µ ∈ R. Mamy wówczas
E[(W (λh+µg) − λW (h) − µW (g))2 ]
= E[W (λh + µg)2 + λ2 W (h)2 + µ2 W (g)2 − 2λW (λh + µg)W (h)
− 2µW (λh + µg)W (g) + 2λµW (h)W (g)]
= kλh + µgk2 + λ2 khk2 + µ2 kgk2 − 2λhλh + µg, hi
− 2µhλh + µg, gi + 2λµhh, gi
= kλh + µgk2 + λ2 khk2 + µ2 kgk2 − 2λ2 khk2 − 2λµhg, hi
− 2λµhh, gi − 2µ2 kgk2 + 2λµhh, gi = 0 .
Wobec tego W (λh + µg) oraz λW (h) + µW (g) są równe jako elementy przestrzeni L2 (Ω)
(czyli prawie wszędzie).
Na mocy liniowości odwzorowania h 7→ W (h) widzimy, że w definicji izonormalnego procesu gaussowskiego zamiast warunku mówiącego, iż W ma być scentrowaną gaussowską rodziną
zmiennych losowych, wystarczy założyć, że dla dowolnego h ∈ H zmienna W (h) ma rozkład
N (0, khk2 ).
Przykład 2.1.1. Niech X będzie zmienną losową o standardowym rozkładzie normalnym
N (0, 1). Jako przestrzeń Hilberta H przyjmijmy prostą rzeczywistą R ze zwykłym mno27
3481467739(27)
żeniem jako iloczynem skalarnym. Dla dowolnego h ∈ R, niech W (h) := hX. Wówczas
{W (h) : h ∈ R} jest izonormalnym procesem gaussowskim na R.
Przykład 2.1.2. Najbardziej interesujący będzie dla nas przypadek, gdy jako przestrzeń Hilberta H będziemy rozważać przestrzeń funkcji deterministycznych całkowalnych z kwadratem
na pewnym ustalonym przedziale [a, b] =: T , tzn. H = L2 (T ). Wówczas definiujemy W (h)
jako całkę Itô
Z b
h(t)dB(t) ,
W (h) =
a
dla h ∈ L2 (T ). Korzystając z faktu, iż zmienna losowa ab h(t)dB(t) ma rozkład normalny
N (0, khk2L2 (T ) ) oraz z izometrii Itô, widzimy, że {W (h) : h ∈ L2 (T )} jest izonormalnym
procesem gaussowskim.
R
Innym ciekawym przykładem może być izonormalny proces gaussowski skonstruowany
przy użyciu ułamkowego procesu Wienera. Szczegóły takiej konstrukcji można znaleźć w skrypcie [Nua12]. My w dalszym ciągu tej pracy skupimy się na przypadku z przykładu 2.1.2.
2.2. Pochodna Malliavina i jej własności
W tej sekcji będziemy pracować przy ustalonej ośrodkowej, rzeczywistej przestrzeni Hilberta
H. Dany jest również izonormalny proces gaussowski W = {W (h) : h ∈ H} określony na
pewnej przestrzeni probabilistycznej (Ω, G, P ), gdzie G oznacza σ-algebrę generowaną przez
proces W . Przez Lp (Ω) dla p ∈ [1, ∞) będziemy rozumieć przestrzeń Lp (Ω, G, P ).
Pochodną Malliavina będziemy chcieli na początek zdefiniować na pewnym gęstym podzbiorze przestrzeni Lp (Ω). Przez Cp∞ (Rn ) będziemy oznaczać przestrzeń funkcji f : Rn → R
klasy C ∞ takich, że f oraz wszystkie jej pochodne cząstkowe mają wzrost wielomianowy, tzn.
dla każdego wielowskaźnika α ∈ Nn istnieją stałe C > 0 oraz M ­ 0 takie, że dla każdego
x ∈ Rn zachodzi
∂αf
| α (x)| ¬ C(1 + |x|)M ,
∂x
gdzie |x| oznacza normę euklidesową elementu x w Rn .
Rozważmy rodzinę S zmiennych losowych takich, że każda F ∈ S ma postać
F = f (W (h1 ), . . . , W (hn )) ,
(2.2)
dla pewnej funkcji f ∈ Cp∞ (Rn ), wektorów h1 , . . . , hn ∈ H oraz n ­ 1. Zauważmy, że dla
dowolnego p ∈ [1, ∞) mamy S ⊂ Lp (Ω), gdyż zmienne losowe o rozkładzie normalnym mają wszystkie momenty (są całkowalne z dowolną potęgą). Ponadto łatwo widać, że S jest
przestrzenią liniową. Przestrzeń S bywa czasem nazywana przestrzenią gładkich zmiennych
losowych.
Analogicznie definiujemy rodzinę Sb zmiennych losowych postaci (2.2), dla których funkcja
f należy do Cb∞ (Rn ), tzn. do przestrzeni tych funkcji f klasy C ∞ , że zarówno f jak i wszystkie
jej pochodne cząstkowe są ograniczone. Zauważmy, że oczywiście Sb ⊂ S, zatem aby wykazać
gęstość S w Lp (Ω) dla dowolnego p ∈ [1, ∞), wystarczy pokazać gęstość Sb . W tym celu
przytoczmy najpierw pewien lemat.
Lemat 2.2.1. Niech X ∈ Lp (Ω, F, P ) dla pewnego p ∈ [1, ∞) zaś {Gk }∞
k=1 będzie rosnącą
S
rodziną σ - algebr takich, że Gk ⊂ F dla k ­ 1. Jeżeli G = σ( ∞
G
),
to
wówczas
k=1 k
E[X|Gk ] → E[X|G] gdy k → ∞ ,
w sensie Lp (Ω) oraz prawie na pewno.
28
2543423353(28)
Dowód. Lemat ten wypowiedziany dla p = 1 można łatwo znaleźć w literaturze (np. [Øks03],
wniosek C.9), dlatego przyjmijmy ten rezultat jako znany i skoncentrujmy się na przypadku
p > 1. Ponieważ Lp (Ω) ⊂ L1 (Ω) dla p ­ 1, to chcąc pokazać zbieżność E[X|Gk ] → E[X|G]
w Lp (Ω) będziemy mogli skorzystać ze zbieżności prawie na pewno otrzymanej na mocy
przypadku p = 1. Wprowadźmy oznaczenie Mk := E[X|Gk ] dla k ∈ N+ oraz M∞ := E[X|G].
p ∞
Wówczas {Mk }∞
k=1 jest martyngałem, a zatem {|Mk | }k=1 jest submartyngałem. Stąd
lim E[|Mk |p ] = sup E[|Mk |p ] ¬ E[|M∞ |p ] ,
k→∞
k∈N
ale z drugiej strony, na mocy lematu Fatou
E[|M∞ |p ] ¬ lim inf E[|Mk |p ] ¬ sup E[|Mk |p ] .
k→∞
k∈N
Widzimy więc, że limk→∞ E[|Mk |p ] = E[|M∞ |p ], a zatem powołując się na twierdzenie Vitaliego (zob. np. [Sch05], twierdzenie 16.6) otrzymujemy zbieżność E[X|Gk ] → E[X|G] w sensie
Lp (Ω).
Lemat 2.2.2. Przestrzeń Sb jest gęsta w Lp (Ω) dla p ∈ [1, ∞).
Dowód. Ustalmy p ∈ [1, ∞). Pokażemy na początek, że każda zmienna losowa F ∈ Lp (Ω) może być aproksymowana przez ciąg zmiennych losowych postaci f (W (h1 ), . . . , W (hn )), gdzie
f ∈ Lp (Rn ), zaś h1 , . . . , hn ∈ H. Oznaczmy bowiem przez {ei }∞
i=1 bazę ortonormalną przestrzeni H i rozważmy rosnący ciąg σ-algebr Gn := σ(W (e1 ), . . . , W (en )), n ­ 1. Mamy
S
wówczas G = σ( ∞
n=1 Gn ), skoro G jest σ-algebrą generowaną przez proces {W (h) : h ∈ H}.
Zatem jeśli F jest zmienną losową z Lp (Ω), to na mocy lematu 2.2.1 mamy
F = lim E[F |Gn ] , w sensie Lp (Ω) .
n→∞
Ponadto zauważmy, że na mocy lematu Dooba - Dynkina, E[F |Gn ] jest funkcją borelowską
zmiennych W (e1 ), . . . , W (en ), a skoro E[F |Gn ] ∈ Lp (Ω), to E[F |Gn ] = f (W (e1 ), . . . , W (en ))
dla pewnej funkcji f ∈ Lp (Rn ), dla każdego n ­ 1.
Jeśli teraz ustalimy f ∈ Lp (Rn ), to możemy rozważyć funkcje fε := f ∗ϕε , dla ε > 0, gdzie
ϕε oznaczają standardowe regularyzatory w Rn . Mamy wówczas fε ∈ Cb∞ (Rn ) oraz fε → f
w sensie Lp (Rn ), gdy ε → 0 (zob. np. [Leo09], twierdzenie C.19). W połączeniu z pierwszą
częścią dowodu otrzymujemy zatem żadaną aproksymację dowolnej zmiennej F ∈ Lp (Ω) przez
zmienną z Sb .
Definicja 2.2.3. Niech F ∈ S będzie postaci (2.2). Wówczas definiujemy pochodną Malliavina zmiennej F , oznaczaną przez DF , jako zmienną losową o wartościach w przestrzeni
Hilberta H daną wzorem
DF =
n
X
∂i f (W (h1 ), . . . , W (hn ))hi .
i=1
Najprostszym przykładem pochodnej Malliavina jest pochodna zmiennej F = W (h).
W reprezentacji (2.2) bierzemy n = 1, f (x) = x i wprost z definicji dostajemy DF = h.
Przed przejściem do dalszych rozważań wykażmy jednak najpierw, że powyższa definicja jest
poprawna. Powie o tym następujący lemat.
Lemat 2.2.4. Powyższa definicja nie zależy od wyboru reprezentacji (2.2) zmiennej F ∈ S.
29
6059845396(29)
Dowód. Załóżmy, że F ∈ S ma dwie różne reprezentacje
F = f (W (h1 ), . . . , W (hn )) = g(W (ϕ1 ), . . . , W (ϕm )) ,
gdzie f ∈ Cp∞ (Rn ), g ∈ Cp∞ (Rm ), n, m ­ 1. Niech (e1 , . . . , eN ) będzie bazą ortonormalną
podprzestrzeni generowanej przez wektory h1 , . . . , hn , ϕ1 , . . . , ϕm . Zdefiniujmy teraz macierz
A ∈ Mn×N jako
 
h1 h
i
 .. 
A :=  .  e1 · · · eN ,
hn
czyli

hh1 , e1 i hh1 , e2 i · · ·

 hh2 , e1 i hh2 , e2 i · · ·
A=
..
..
..

.
.
.

hhn , e1 i hhn , e2 i · · ·

hh1 , eN i
hh2 , eN i 

.
..

.

hhn , eN i
Jeżeli zdefiniujemy wektor X := (W (e1 ), . . . , W (eN )), to wówczas
P
N
l=1 hh1 , el iW (el )


..
.
.

PN
hh
,
e
iW
(e
)
l
l=1 n l

AX = 

Ponieważ wiemy, że odwzorowanie h 7→ W (h) jest liniowe, to dla każdego j ∈ {1, . . . , n}
mamy
N
X
N
X
l=1
l=1
hhj , el iW (el ) = W (
hhj , el iel ) = W (hj ) .
Wobec tego AX = (W (h1 ), . . . , W (hn )), a w konsekwencji F = f (AX).
Z drugiej strony, traktując f (AX) jako funkcję zmiennych W (e1 ), . . . , W (eN ) i korzystając
z reguły łańcuchowej w Rn , dostajemy dla każdego i ∈ {1, . . . , N }
∂i f (AX) =
n
X
∂j f (AX)Aji ,
(2.3)
j=1
gdzie Aji = hhj , ei i. Widzimy zatem, wprost z definicji 2.2.3, że każdego i ∈ {1, . . . , N } mamy
∂i f (AX) = hD(f (W (h1 ), . . . , W (hn ))), ei i .
Analogicznie postępujemy w przypadku drugiej reprezentacji zmiennej F , tzn. definiujemy
macierz B ∈ Mm×N jako


ϕ1 h
i


B :=  ...  e1 · · · eN ,
ϕm
i pokazujemy, że F = g(BX). Następnie obliczamy
∂i g(BX) =
m
X
∂k g(BX)Bki ,
k=1
30
4166297442(30)
(2.4)
dla dowolnego i ∈ {1, . . . , N }, gdzie Bki = hϕk , ei i. Korzystając ponownie z definicji 2.2.3,
a następnie porównując (2.3) i (2.4) dostajemy
hD(f (W (h1 ), . . . , W (hn ))), ei i = hD(g(W (ϕ1 ), . . . , W (ϕm ))), ei i ,
dla wszystkich i ∈ {1, . . . N }. Ponieważ zarówno zmienna losowa D(f (W (h1 ), . . . , W (hn )))
jak i D(g(W (ϕ1 ), . . . , W (ϕm ))) są kombinacjami liniowymi wektorów, odpowiednio, h1 , . . . , hn
i ϕ1 , . . . , ϕm , zaś e1 , . . . eN stanowią bazę przestrzeni rozpiętej przez wszystkie te wektory, to
otrzymujemy równość
D(f (W (h1 ), . . . , W (hn ))) = D(g(W (ϕ1 ), . . . , W (ϕm ))) .
Widzimy zatem, że definicja 2.2.3 jest poprawna. Ponadto, zauważmy, że odwzorowanie
D przyjmuje wartości w Lp (Ω; H), tzn. dla dowolnego F ∈ S zachodzi
Z
kDF kp dP < ∞ .
Ω
Wynika to z faktu, że pochodne ∂i f mają z założenia wzrost wielomianowy, zaś zmienne
W (hi ) posiadają wszystkie momenty. Zwróćmy jeszcze uwagę na to, iż D jest oczywiście
odwzorowaniem liniowym. Zdefiniowaliśmy więc operator liniowy
D : S → Lp (Ω; H) ,
określony na pewnej gęstej podprzestrzeni liniowej przestrzeni Lp (Ω). W dalszym ciągu tej
sekcji zastanowimy się nad kwestią znalezienia jego rozszerzenia, najpierw jednak przyjrzyjmy
się, jak wygląda pochodna Malliavina w najbardziej interesującym nas przypadku, w którym
izonormalny proces gaussowski jest zadany tak jak w przykładzie 2.1.2, tzn. poprzez całki Itô
z funkcji deterministycznych.
Przykład 2.2.5. Niech T = [a, b], H = L2 (T ) oraz W (h) = ab h(t)dB(t) dla h ∈ H. Biorąc
pod uwagę izomorfizm przestrzeni Hilberta L2 (Ω; H) ∼
= L2 (Ω × T ), będziemy utożsamiać
pochodną Malliavina DF zmiennej losowej F ∈ S ⊂ L2 (Ω) z całkowalnym z kwadratem
procesem stochastycznym {Dt F }t∈T . Dla przykładu, jeżeli F = W (h) dla pewnego h ∈ H, to
wówczas Dt (W (h)) = h(t) dla t ∈ [a, b]. Wiemy już zatem, jak obliczać pochodne Malliavina
całek Itô z funkcji deterministycznych i widzimy, że w takim wypadku operator D zwraca
nam funkcję podcałkową. Odnotujmy jeszcze w
tym miejscu fakt, iż dla dowolnego przedziału
R
[s, u] ⊂ [a, b] mamy Dt (B(u) − B(s)) = Dt ( ab 1[s,u] (r)dB(r)) = 1[s,u] (t). Będzie to istotne
w dowodzie twierdzenia 2.2.14.
R
Iloczyn skalarny pochodnej DF z wektorem h ∈ H może być interpretowany jako pochodna kierunkowa zmiennej F ∈ S postaci (2.2) w kierunku wektora (hh1 , hi, . . . , hhn , hi) Mamy
bowiem
hDF, hi =
n
X
∂i f (W (h1 ), . . . , W (hn ))hhi , hi
i=1
= lim
ε→0
1
(f (W (h1 ) + εhh1 , hi, . . . , W (hn ) + εhhn , hi) − f (W (h1 ), . . . , W (hn ))) .
ε
Widać tu analogię do klasycznej sytuacji w Rn , gdzie mając daną funkcję g : Rn → R klasy
C 1 i wektor v = (v1 , . . . , vn ) ∈ Rn , zachodzi
1
h∇g(x), viRn = lim (g(x1 + εv1 , . . . , xn + εvn ) − g(x1 , . . . , xn )) ,
ε→0 ε
31
2014211667(31)
dla dowolnego punktu x = (x1 , . . . , xn ) ∈ Rn , gdzie ∇g oznacza gradient funkcji g, zaś
h·, ·iRn standardowy iloczyn skalarny w Rn . Pochodna Malliavina bywa czasem nazywana
stochastycznym gradientem.
Będziemy chcieli teraz pokazać, że operator D jest operatorem domykalnym, a zatem
istnieje jego domknięte rozszerzenie. W tym celu udowodnimy najpierw kilka przydatnych
lematów.
Lemat 2.2.6. Niech F ∈ S oraz h ∈ H. Wtedy
E[hDF, hi] = E[F W (h)] .
Dowód. Bez straty ogólności możemy założyć, że khk = 1. Wówczas istnieje układ ortonormalny {e1 , . . . en } w H oraz funkcja f ∈ Cp∞ (Rn ) takie, że h = e1 oraz zmienna F jest
postaci
F = f (W (e1 ), . . . , W (en )) .
Niech teraz φ oznacza gęstość standardowego rozkładu normalnego na Rn , tzn.
n
φ(x) = (2π)− 2 exp {−
n
1X
x2 } .
2 i=1 i
Zauważmy, że dla każdego i ∈ {1, . . . , n} zmienna W (ei ) ma standardowy rozkład normalny
N (0, 1), ponadto zmienne W (ei ), W (ej ) dla i 6= j są niezależne, bo są gaussowskie i nieskorelowane, jako że E[W (ei )W (ej )] = hei , ej i = 0. Wobec tego wektor losowy (W (e1 ), . . . , W (en ))
ma n-wymiarowy rozkład normalny, czyli ma gęstość φ. Biorąc to pod uwagę, otrzymujemy
n
X
E[hDF, hi] = E[
h∂i f (W (e1 ), . . . , W (en ))ei , hi]
i=1
= E[∂1 f (W (e1 ), . . . , W (en ))]
Z
=
n
∂1 f (x)φ(x)dx
ZR
=
Rn
f (x)φ(x)x1 dx
= E[F W (e1 )] = E[F W (h)] ,
gdzie w czwartej równości skorzystaliśmy z twierdzenia o całkowaniu przez części w Rn .
Udowodnimy teraz regułę produktową dla pochodnej Malliavina.
Lemat 2.2.7. Niech F , G ∈ S. Wtedy
D(F G) = GDF + F DG .
Dowód. Niech F = f (W (h1 ), . . . , W (hn )) oraz G = g(W (ϕ1 ), . . . , W (ϕm )) dla pewnych funkcji f ∈ Cp∞ (Rn ), g ∈ Cp∞ (Rm ) oraz wektorów h1 , . . . , hn , ϕ1 , . . . , ϕm ∈ H. Dla uproszczenia
zapisu oznaczmy u1 , . . . , un+m := h1 , . . . , hn , ϕ1 , . . . , ϕm . Funkcje f i g możemy traktować
jako funkcje n + m zmiennych. Mamy
F G = f g(W (u1 ), . . . , W (un+m )) .
32
2369439942(32)
Oczywiście f g ∈ Cp∞ (Rn+m ), zatem F G ∈ S. Rozpisując wprost z definicji pochodnej Malliavina i korzystając ze zwykłej reguły produktowej otrzymujemy
D(F G) =
=
=
n+m
X
i=1
n+m
X
∂i (f g)(W (u1 ), . . . , W (un+m ))ui
g∂i f (W (u1 ), . . . , W (un+m ))ui +
n+m
X
i=1
n
X
i=1
n+m
X
i=1
i=n+1
g∂i f (W (u1 ), . . . , W (un+m ))ui +
f ∂i g(W (u1 ), . . . , W (un+m ))ui
f ∂i g(W (u1 ), . . . , W (un+m ))ui
= GDF + F DG .
Lemat 2.2.8. Niech F , G ∈ S oraz h ∈ H. Wtedy
E[GhDF, hi] = −E[F hDG, hi] + E[F GW (h)] .
Dowód. Wystarczy zastosować lemat 2.2.6 do zmiennej F G ∈ S, a następnie skorzystać
z reguły produktowej (lemat 2.2.7).
Jesteśmy już przygotowani do udowodnienia twierdzenia, które pozwoli nam rozszerzyć
operator D na większą klasę zmiennych losowych z Lp (Ω).
Twierdzenie 2.2.9. Dla dowolnego p ∈ [1, ∞), pochodna Malliavina D jest operatorem
domykalnym z S ⊂ Lp (Ω) w Lp (Ω; H).
Dowód. Niech {FN }∞
N =1 będzie ciągiem zmiennych losowych w S takim, że FN zbiega do zera
w normie Lp (Ω) oraz ciąg pochodnych DFN zbiega do pewnego elementu η w Lp (Ω; H). Aby
pokazać domykalność operatora D, wykażemy, że η = 0.
2
Weźmy dowolny h ∈ H oraz zmienną losową F ∈ Sb postaci F = Ge−εW (h) , gdzie G ∈ Sb
oraz ε > 0. Zwróćmy uwagę, że wówczas zmienna F W (h) jest ograniczona, a zatem zarówno
0
F jak i F W (h) należą do przestrzeni Lp (Ω), gdzie p1 + p10 = 1. Mamy wtedy
E[F hη, hi] = lim E[F hDFN , hi] = lim E[−FN hDF, hi + FN F W (h)] = 0 ,
N →∞
N →∞
gdzie w pierwszej równości wykorzystaliśmy słabą zbieżność ciągu DFN do η w Lp (Ω; H),
w drugiej równości użyliśmy lematu 2.2.8, zaś w trzeciej wykorzystaliśmy słabą zbieżność
ciągu FN do zera w Lp (Ω) (zmienna hDF, hi jest ograniczona i w konsekwencji należy do
0
Lp (Ω), skoro F ∈ Sb ).
Przechodząc z ε do zera otrzymujemy
E[Ghη, hi] = 0 ,
(2.5)
dla każdego G ∈ Sb oraz h ∈ H. Ponieważ Sb jest gęste w Lp (Ω), to rodzina zmiennych
losowych o wartościach w H postaci Gh, gdzie G ∈ Sb , h ∈ H, jest totalna w Lp (Ω; H) (tzn.
jej rozpięcie liniowe jest gęste). Stąd, na podstawie (2.5), dostajemy η = 0.
Skoro wiemy już, że D : S ⊂ Lp (Ω) → Lp (Ω; H) jest operatorem domykalnym, to istnieje
jego domknięcie D, którego dziedziną jest rodzina tych zmiennych losowych F ∈ Lp (Ω), dla
p
∞
których istnieje ciąg {Fn }∞
n=1 ⊂ S zbieżny do F w normie L (Ω) i taki, że ciąg {DFn }n=1
33
8146498974(33)
również jest zbieżny (w normie Lp (Ω; H)). Dziedzinę D możemy więc przedstawić jako uzupełnienie przestrzeni S względem normy
) p1
(
E[|F |p ] + E[kDF kp ]
kF k1,p :=
.
Dziedzinę D będziemy oznaczać przez D1,p , zaś operator D po prostu przez D. Przestrzeń D1,p
ze zdefiniowaną powyżej normą jest przestrzenią Banacha (por. np. [Wei80], twierdzenie 5.1).
W szczególności, dla p = 2, przestrzeń D1,2 jest przestrzenią Hilberta z iloczynem skalarnym
hF, Gi1,2 := E[F G] + E[hDF, DGi] .
Uwaga 2.2.10. Warto w tym miejscu zauważyć analogię do klasycznej teorii przestrzeni Sobolewa. Mianowicie, niech U ⊂ Rn będzie dowolnym zbiorem otwartym. Wówczas, na mocy
twierdzenia Meyersa - Serrina (zob. np. [Leo09], twierdzenie 10.15) wiemy, że przestrzeń Sobolewa W 1,p (U ) da się przedstawić jako domknięcie przestrzeni C ∞ (U ) ∩ W 1,p (U ) w normie
k · kW 1,p (U ) , gdzie jako jedną z możliwych równoważnych norm można wziąć
) p1
(
kukW 1,p (U ) :=
kukpLp (U )
+
k∇ukpLp (U ;Rn )
,
dla dowolnej funkcji u ∈ W 1,p (U ).
Uwaga 2.2.11. Można też zdefiniować pochodną Malliavina rzędu drugiego. Jeśli F ∈ S jest
postaci (2.2), to D2 F = D(DF ) określa się jako
D2 F =
n
X
2
∂ij
f (W (h1 ), . . . , W (hn ))(hi ⊗ hj ) ,
i,j=1
gdzie ⊗ oznacza iloczyn tensorowy. Wobec tego D2 F jest zmienną losową o wartościach
w H ⊗ H. Analogicznie definiuje się k-tą pochodną Malliavina Dk F dla k ­ 1 jako zmienną
losową o wartościach w k-tej potędze tensorowej przestrzeni H, czyli w H ⊗k . Dowodzi się,
że dla każdego k ­ 1 i dla każdego p ∈ [1, ∞), operator Dk jest operatorem domykalnym
z S ⊂ Lp (Ω) w Lp (Ω; H ⊗k ), a następnie rozważa się jego domknięcie, oznaczane również przez
Dk , którego dziedzina Dk,p jest uzupełnieniem S względem normy
(
kF kk,p :=
p
E[|F | ] +
k
X
) p1
E[kD
j
F kpH ⊗j ]
.
j=1
W dalszym ciągu tej pracy będziemy się zajmować jedynie pochodnymi pierwszego rzędu.
Szczegóły dotyczące pochodnych wyższych rzędów można znaleźć w [Nua06].
Wykażemy teraz niezwykle przydatną w obliczeniach regułę łańcuchową dla pochodnej
Malliavina.
Twierdzenie 2.2.12. Niech g : Rd → R będzie funkcją klasy C 1 o ograniczonych pochodnych
cząstkowych. Niech p ∈ [1, ∞) oraz niech F = (F 1 , . . . , F d ) będzie wektorem losowym takim,
że F i ∈ D1,p dla wszystkich i ∈ {1, . . . , d}. Wtedy g(F ) ∈ D1,p oraz
D(g(F )) =
d
X
i=1
34
3311318674(34)
∂i g(F )DF i .
Dowód. Udowodnimy jedynie przypadek d = 1.
Zdefiniujmy gε (x) := g ∗ψε (x), gdzie ψε są standardowymi regularyzatorami, tzn. ψε (x) =
1
x
∞ o nośniku zwartym takim, że
ψ(
ε
ε ), dla x ∈ R, εR > 0, gdzie ψ jest funkcją klasy C
suppψ ⊂ [−1, 1] oraz R ψ(x)dx = 1. Wówczas gε ∈ Cb∞ (R).
Z drugiej strony, ponieważ F ∈ D1,p , to istnieje ciąg {Fk }∞
k=1 ⊂ S zmiennych losowych
∞
n
k
postaci Fk = fk (W (h1 ), . . . , W (hnk )), fk ∈ Cp (R ), zbieżny do F w normie Lp (Ω) przy
p
k → ∞ oraz taki, że ciąg {DFk }∞
k=1 zbiega do DF w L (Ω; H) przy k → ∞. Ponieważ
∞
∞
gε ◦ fk ∈ Cb (R) ⊂ Cp (R), to gε (Fk ) ∈ S oraz
nk
X
D(gε (Fk )) =
i=1
nk
X
=
∂i (gε ◦ fk )(W (h1 ), . . . , W (hnk ))hi
gε0 (fk (W (h1 ), . . . , W (hnk )))∂i fk (W (h1 ), . . . , W (hnk ))hi
i=1
= gε0 (Fk )DFk .
Przeprowadzimy teraz szacowanie korzystając z nierówności trójkąta.
kgε0 (Fk )DFk − g 0 (F )DF kLp (Ω;H) ¬ kgε0 (Fk )(DFk − DF )kLp (Ω;H)
+ k(gε0 (Fk ) − g 0 (Fk ))DF kLp (Ω;H) + k(g 0 (Fk ) − g 0 (F ))DF kLp (Ω;H) =: I1 + I2 + I3 .
Zauważmy, że dla dowolnych ε > 0 oraz k ­ 1, zmienna gε0 (Fk ) jest ograniczona przez stałą
niezależną od ε ani od k, a zatem I1 → 0 przy k → ∞. Z kolei przy dowolnie ustalonym k ­ 1
I2 = k(gε0 (Fk ) − g 0 (Fk ))DF kLp (Ω;H) ¬ sup |gε0 (x) − g 0 (x)|kDF kLp (Ω;H) → 0 ,
x∈R
gdy ε → 0. W przypadku wyrażenia I3 zwróćmy uwagę, że zbieżność Fk → F w normie Lp (Ω)
0
0
oraz ciągłość funkcji g 0 implikują istnienie podciągu {Fkl }∞
l=1 takiego, że g (Fkl ) → g (F )
prawie wszędzie przy l → ∞. Ponieważ rozumowanie to można powtórzyć dla dowolnego
0
podciągu ciągu {Fk }∞
k=1 , to korzystając z ograniczoności g i z twierdzenia Lebesgue’a o zmajoryzowanym przejściu granicznym otrzymujemy I3 → 0 przy k → ∞.
Wykazaliśmy zatem, że D(gε (Fk )) zbiega do g 0 (F )DF w Lp (Ω; H) przy k → ∞ oraz
ε → 0. Ponadto
kgε (Fk ) − g(F )kLp (Ω) ¬ kgε (Fk ) − gε (F )kLp (Ω) + kgε (F ) − g(F )kLp (Ω) =: J1 + J2 .
Mamy wtedy
J1p =
Z
|gε (Fk ) − gε (F )|p dP ¬
Ω
Z
sup |gε0 (x)|p |Fk − F |p dP ,
Ω x∈R
a zatem J1 ¬ M kFk −F kLp (Ω) dla pewnej stałej M ­ 0 i w konsekwencji J1 → 0 przy k → ∞.
Mamy poza tym J2 ¬ supx∈R |gε (x) − g(x)| → 0 przy ε → 0.
Pokazaliśmy więc, że gε (Fk ) → g(F ) w Lp (Ω) przy k → ∞ oraz ε → 0. Korzystając
z domkniętości operatora D widzimy wobec tego, że g(F ) ∈ D1,p oraz D(g(F )) = g 0 (F )DF ,
co kończy dowód.
Zacytujmy jeszcze, tym razem bez dowodu, inną wersję reguły łańcuchowej dla funkcji
lipschitzowskich. Dowód poniższego twierdzenia można znaleźć np. w [Nua12] (propozycja
1.40).
35
2104153430(35)
Twierdzenie 2.2.13. Niech g : Rd → R będzie funkcją lipschitzowską ze stałą Lipschitza
K > 0 i niech F = (F 1 , . . . , F d ) będzie wektorem losowym takim, że F i ∈ D1,2 dla wszystkich
i ∈ {1, . . . , d}. Wtedy g(F ) ∈ D1,2 oraz istnieje wektor losowy G = (G1 , . . . , Gd ) ograniczony
w Rd przez K taki, że
D(g(F )) =
d
X
Gi DF i .
i=1
Ponadto, jeżeli rozkład wektora F jest absolutnie ciągły względem miary Lebesgue’a na Rd ,
to Gi = ∂i g(F ) (funkcja g jako lipschitzowska jest prawie wszędzie różniczkowalna na mocy
twierdzenia Rademachera).
Powróćmy teraz do sytuacji z przykładu 2.2.5, tzn. niech proces W będzie zadany przez
całki Itô z funkcji z L2 (T ), dla pewnego przedziału T = [a, b]. Zwróćmy uwagę, że jeżeli
{Ft }t∈[a,b] jest filtracją zadaną przez proces Wienera {B(t)}t∈[a,b] , to Fb = G. Rozważmy
zmienną losową F ∈ L2 (Ω) = L2 (Ω, G, P ). Wówczas, na mocy twierdzenia 1.4.1, wiemy, iż
posiada ona rozwinięcie postaci
F =
∞
X
In (fn ) ,
n=0
e 2 (T n ) dla n ­ 0. Okazuje się, że pochodną Malliavina zmiennej F (o ile ta
gdzie fn ∈ L
pochodna istnieje) daje się wówczas przedstawić jako pewną operację na rozwinięciu F . Mówi
o tym poniższe twierdzenie.
Twierdzenie 2.2.14. Niech F będzie zmienną losową z L2 (Ω, G, P ) posiadającą rozwinięcie
P
e2 n
F = ∞
n=0 In (fn ) dla pewnych funkcji fn ∈ L (T ). Jeżeli
∞
X
nn!kfn k2L2 (T n ) < ∞ ,
n=1
to F ∈ D1,2 oraz zachodzi wzór
Dt F =
∞
X
nIn−1 (fn (·, t)) ,
n=1
gdzie In−1 (fn (·, t)) oznacza, że całkujemy funkcję fn jako funkcję n − 1 zmiennych, traktując
n-tą zmienną jako parametr.
Dowód. Zacznijmy od przypadku, w którym F = In (fn ), gdzie fn ∈ En , tzn. fn jest symetryczną funkcją schodkową pozaprzekątniową postaci
fn (t1 , . . . , tn ) =
k
X
ai1 ,...,in 1[τi1 −1 ,τi1 )×···×[τin −1 ,τin ) (t1 , . . . , tn ) .
i1 ,...,in =1
Przypomnijmy, że wówczas n-krotna całka Wienera - Itô funkcji fn dana jest wzorem
In (fn ) =
k
X
ai1 ,...,in ξi1 · · · ξin ,
i1 ,...,in =1
gdzie ξip = B(τip ) − B(τip −1 ). W celu obliczenia pochodnej Malliavina zmiennej In (fn ),
skorzystamy z reguły łańcuchowej zastosowanej do funkcji g(x1 , . . . , xn ) = x1 · . . . · xn oraz
36
2043302643(36)
z tego, iż Dt (B(τij ) − B(τij −1 )) = 1[τij −1 ,τij ) (t) (por. uwaga w przykładzie 2.2.5). Mamy
zatem
Dt F =
n
X
k
X
ai1 ,...,in ξi1 · · · ξi(j−1) ξi(j+1) · · · ξin 1[τij −1 ,τij ) (t) = nIn−1 (fn (·, t)) ,
j=1 i1 ,...,in =1
gdzie w drugiej równości skorzystaliśmy z faktu, że funkcja fn jest symetryczna.
e 2 (T n ). Wówczas, na mocy lematu 1.1.8,
Niech teraz F = In (fn ) dla pewnej funkcji fn ∈ L
k
∞
k
2
n
istnieje ciąg {fn }k=1 ⊂ En taki, że fn → fn w L (T ), gdy k → ∞. Korzystając z nierówności
(1.3), widzimy, że również fenk → fen = fn w L2 (T n ), gdy k → ∞. Wobec tego
In (fenk ) → In (fn ) w sensie L2 (Ω), gdy k → ∞ .
(2.6)
Ponadto, z pierwszego kroku dowodu wiemy, że dla każdego k ­ 1 zachodzi Dt (In (fenk )) =
nIn−1 (fenk (·, t)), dla t ∈ [a, b]. Z drugiej strony zauważmy, że In−1 (fenk (·, t)) → In−1 (fn (·, t))
w L2 (Ω × T ) ∼
= L2 (Ω; H), przy k → ∞, ponieważ
Z b
E[
a
|In−1 (fenk (·,t) − fn (·, t))|2 dt]
Z b
=
(n − 1)!
Z
T n−1
a
|fenk (t1 , . . . , tn−1 , t) − fn (t1 , . . . , tn−1 , t)|2 dt1 . . . dtn−1 dt
= (n − 1)!kfenk − fn k2L2 (T n ) → 0, gdy k → ∞ ,
gdzie w pierwszej równości skorzystaliśmy z twierdzenia 1.1.10. Mamy wobec tego zbieżność
Dt (In (fenk )) → nIn−1 (fn (·, t)) w L2 (Ω × T ) przy k → ∞, co w połączeniu z (2.6) i domkniętością operatora D, daje In (fn ) ∈ D1,2 oraz Dt (In (fn )) = nIn−1 (fn (·, t)).
P
e2 n
Przyjmijmy wreszcie, że F ma postać ∞
n=0 In (fn ) dla pewnych fn ∈ L (T ). Rozważmy
P
N
2
ciąg sum częściowych {FN }∞
n=0 In (fn ). Mamy wówczas FN → F w L (Ω),
N =0 , tzn. FN =
gdy N → ∞, a ponadto na mocy liniowości D z poprzedniej części dowodu wiemy, że
N
X
Dt (FN ) =
nIn−1 (fn (·, t)) ,
(2.7)
n=1
dla każdego N ­ 1. Wprost z definicji przestrzeni D1,2 widzimy, że jeżeli ciąg {Dt (FN )}∞
N =1
jest zbieżny w L2 (Ω × T ), to F ∈ D1,2 . Zbieżność tego ciągu jest na mocy równości (2.7)
P
2
równoważna zbieżności szeregu N
n=1 nIn−1 (fn (·, t)) w L (Ω × T ), a to z kolei zachodzi wtedy
i tylko wtedy, gdy
∞
X
knIn−1 (fn (·, t))k2L2 (Ω×T ) < ∞ .
n=1
Mamy jednak
∞
X
knIn−1 (fn (·, t))k2L2 (Ω×T ) =
n=1
∞
X
n=1
n2
Z b
a
(n − 1)!kfn (·, t)k2L2 (T n−1 ) dt =
∞
X
nn!kfn k2L2 (T n ) .
n=1
Oczywiście, jeżeli szereg (2.7) jest zbieżny, to jest zbieżny do ∞
n=1 nIn−1 (fn (·, t)), zatem aby
zakończyć dowód wystarczy skorzystać z domkniętości operatora D.
P
37
6336154113(37)
2.3. Związek pochodnej Malliavina z całką Skorohoda
Pochodna Malliavina D traktowana jako operator S ⊂ L2 (Ω) → L2 (Ω; H) jest gęsto określonym operatorem nieograniczonym pomiędzy przestrzeniami Hilberta. Wobec tego jesteśmy
w stanie zdefiniować dla niej operator sprzężony D∗ określony na pewnej podprzestrzeni
L2 (Ω; H) (zob. np. [Wei80], rozdział 4.4). Mianowicie, dziedzina D∗ to rodzina tych zmiennych losowych u ∈ L2 (Ω; H), dla których istnieje stała cu ­ 0 taka, że dla wszystkich F ∈ D1,2
zachodzi
|E[hDF, ui]| ¬ cu kF kL2 (Ω) .
Innymi słowy, jest to rodzina tych zmiennych losowych u ∈ L2 (Ω; H), dla których odwzorowanie liniowe D1,2 3 F 7→ E[hDF, ui] ∈ R jest ciągłe. Ponadto, wprost z definicji operatora
sprzężonego zachodzi równość
E[F D∗ (u)] = E[hDF, ui] ,
(2.8)
dla wszystkich F ∈ D1,2 oraz wszystkich u z dziedziny D∗ . Tak zdefiniowany operator D∗ jest
nazywany operatorem dywergencji. Nazewnictwo to wynika z analogii do klasycznej sytuacji
w Rn . Jeżeli bowiem U ⊂ Rn jest ograniczonym obszarem o brzegu klasy C 1 , to dla funkcji
u : U → R oraz pola wektorowego v : U → Rn klasy C 1 zachodzi wzór
ZZ
∇u · vdx =
Z
u(v · n)dσ −
u div vdx ,
U
∂U
U
ZZ
gdzie n oznacza wektor normalny zewnętrzny do ∂U , zaś przez · oznaczyliśmy standardowy
iloczyn skalarny w Rn . Widzimy zatem, że dla funkcji spełniających odpowiednie warunki
brzegowe, operator dywergencji (z minusem) może być traktowany jako sprzężony do gradientu.
Okazuje się, że w sytuacji z przykładu 2.2.5, tzn. gdy pochodna Malliavina jest operatorem
o wartościach w L2 (Ω × T ), operator dywergencji D∗ jest tożsamy z całką Skorohoda δ, którą
zdefiniowaliśmy w sekcji 1.5. Dowód tego faktu można znaleźć np. w [Nua12] (propozycja
1.64). My jednak wybierzemy inne podejście, oparte na monografii [DØP09]. Mianowicie
wychodząc od naszej definicji całki Skorohoda, pokażemy, że zachodzi dla niej wzór (2.8).
Twierdzenie 2.3.1. Niech F ∈ D1,2 i niech u ∈ Dom(δ). Wtedy
Z b
E[F δ(u)] = E[
u(t)Dt F dt] .
(2.9)
a
∞
Dowód. Niech F = ∞
k=0 Ik (gk (·, t)) dla t ∈ T , będą rozwinięciami
n=0 In (fn ) oraz u(t) =
w chaos Wienera - Itô, odpowiednio, zmiennej F i procesu u. Wówczas
P
P
E[F δ(u)] = E[
=
=
∞
X
∞
X
In (fn )
n=0
∞
X
Ik+1 (gek )]
k=0
E[Ik+1 (fk+1 )Ik+1 (gek )]
k=0
∞
X
(k + 1)!hfk+1 , gek iL2 (T k+1 ) .
k=0
Drugą równość w powyższym rozumowaniu można uzasadnić biorąc dowolne K, L ∈ N i rozpisując
E[
L
X
n=0
In (fn )
K
X
k=0
min{K,L}
Ik+1 (gek )] =
X
k=0
38
1492959245(38)
E[Ik+1 (fk+1 )Ik+1 (gek )] ,
z wykorzystaniem wzajemnej ortogonalności In , Ik dla n 6= k, a następnie przechodząc do
granicy kolejno z L i K, powołując się na słabą zbieżność w L2 (Ω) ciągu sum częściowych do
szeregu całek wielokrotnych.
Z drugiej strony,
Z b
E[
a
u(t)Dt F dt] = E[
Z
=
Z bX
∞
a k=0
∞
bX
a k=0
Z bX
∞
Ik (gk (·, t))
∞
X
nIn−1 (fn (·, t))dt]
n=1
E[(k + 1)Ik (gk (·, t))Ik (fk+1 (·, t))]dt
(k + 1)k!hfk+1 (·, t), gk (·, t)iL2 (T k ) dt
=
a k=0
∞
X
(k + 1)!hfk+1 , gk iL2 (T k+1 ) ,
=
k=0
przy czym drugą równość można uzasadnić podobnie jak wcześniej, zaś w trzeciej korzystamy
z tego, iż gk jest funkcją symetryczną ze względu na swoje pierwsze k współrzędnych. Wobec
tego dla pokazania tezy twierdzenia wystarczy zauważyć, że dla wszystkich k ­ 0 zachodzi
hfk+1 , gk iL2 (T k+1 ) = hfk+1 , gek iL2 (T k+1 ) . Istotnie,
hfk+1 , gek iL2 (T k+1 ) =
=
Z b
a
hfk+1 (·, t), gek (·, t)iL2 (T k ) dt
X
1 k+1
k + 1 j=1
Z b
a
hfk+1 (·, tj ), gk (·, tj )iL2 (T k ) dtj
= hfk+1 , gk iL2 (T k+1 ) ,
ponieważ funkcja fk+1 i miara Lebesgue’a na Rk+1 są symetryczne.
Niezwykle istotne z punktu widzenia zastosowań będzie następujące twierdzenie o całkowaniu przez części.
Twierdzenie 2.3.2. Niech F ∈ D1,2 oraz u ∈ Dom(δ) będą takie, że F u ∈ Dom(δ). Wtedy
δ(F u) = F δ(u) −
Z b
u(t)Dt F dt .
(2.10)
a
Dowód. Ustalmy dowolną zmienną losową G ∈ D1,2 i zastosujmy do niej oraz do procesu
{F u(t)}t∈T wzór (2.9). Mamy wówczas
Z b
E[Gδ(F u)] = E[
F u(t)Dt Gdt]
a
Z b
= E[
a
Z b
u(t)Dt (F G)dt] − E[
= E[F Gδ(u)] − E[G
u(t)GDt F dt]
a
Z b
u(t)Dt F dt] ,
a
gdzie w drugiej równości skorzystaliśmy z reguły produktowej dla pochodnej Malliavina,
zaś w trzeciej ponownie ze wzoru (2.9). Ponieważ przestrzeń D1,2 jest gęsta w L2 (Ω), to
z dowolności G ∈ D1,2 wynika teza.
39
8788486416(39)
Kolejne twierdzenie tego typu powie nam, jak obliczać pochodną Malliavina z całki Skorohoda pewnego procesu stochastycznego.
Twierdzenie 2.3.3. Niech u ∈ L2 (Ω × T ) będzie procesem stochastycznym takim, że dla
dowolnie ustalonego t R ∈ T zachodzi u(t) ∈ D1,2 oraz {Dt u(s)}s∈T ∈ Dom(δ). Ponadto,
załóżmy, że δ(Dt u) = ab Dt u(s)δB(s) ∈ L2 (Ω × T ) jako proces indeksowany zmienną t ∈ T .
Wtedy δ(u) ∈ D1,2 oraz
Dt (δ(u)) = δ(Dt u) + u(t) ,
(2.11)
dla dowolnego t ∈ T .
Dowód. Załóżmy najpierw, że u(s) = In (fn (·, s)), gdzie fn (t1 , . . . , tn , s) jest funkcją symetryczną względem zmiennych t1 , . . . , tn . Wówczas δ(u) = In+1 (fen ), gdzie
1
fen (x1 , . . . , xn+1 ) =
[fn (·, x1 ) + . . . + fn (·, xn+1 )] .
n+1
Wobec tego Dt (δ(u)) = (n + 1)In (fen (·, t)), gdzie
1
fen (·, t) =
[fn (t, ·, x1 ) + . . . + fn (t, ·, xn ) + fn (·, t)]
n+1
(funkcja fn jest symetryczna ze względu na swoje n pierwszych zmiennych, dlatego w kolejności argumentów ma znaczenie jedynie to, który z nich stoi na ostatniej pozycji - wobec tego
możemy w n składnikach sumy zapisać zmienną t jako pierwszą). Stąd
Dt (δ(u)) = In [fn (t, ·, x1 ) + . . . + fn (t, ·, xn )] + u(t) .
(2.12)
Z drugiej strony,
Z b
δ(Dt u) =
Z b
Dt u(s)δB(s) =
a
nIn−1 (fn (·, t, s))δB(s) = nIn (fbn (·, t, ·)) ,
a
gdzie
1
[fn (t, ·, x1 ) + . . . + fn (t, ·, xn )]
n
jest symetryzacją funkcji fn (x1 , . . . , xn−1 , t, xn ) względem zmiennych x1 , . . . , xn . Wobec tego
fbn (x1 , . . . , xn−1 , t, xn ) =
δ(Dt u) = In [fn (t, ·, x1 ) + . . . + fn (t, ·, xn )] .
(2.13)
Porównując (2.12) i (2.13) dostajemy tezę dla u(t) = In (fn (·, t)).
P
Rozważmy teraz ogólny przypadek u(s) = ∞
n=0 In (fn (·, s)) i określmy ciąg sum częPM
ściowych uM (s) := n=0 In (fn (·, s)) dla M ∈ N. Na mocy poprzedniej części dowodu oraz
liniowości całki Skorohoda i pochodnej Malliavina, dla każdego M mamy
Dt (δ(uM )) = δ(Dt uM ) + uM (t) .
Korzystając w odpowiedni sposób z założeń i wykonując przejście graniczne w sensie przestrzeni L2 (Ω×T ) przy M → ∞, otrzymujemy tezę. Szczegóły techniczne tego przejścia można
znaleźć w [DØP09] (twierdzenie 3.18).
Na koniec tej sekcji zacytujmy jeszcze bez dowodu pewien wniosek z powyższego twierdzenia, opisujący sytuację, w której rozważany proces jest adaptowany.
Wniosek 2.3.4. Niech proces stochastyczny {u(t)}t∈T będzie taki jak w założeniach twierdzenia 2.3.3. Załóżmy ponadto, że u jest {Ft }t∈T - adaptowany. Wtedy
Z b
Dt (
Z b
u(s)dB(s)) =
a
Dt u(s)dB(s) + u(t) ,
t
dla dowolnego t ∈ T .
40
1723101209(40)
Rozdział 3
Estymatory parametrów greckich
Jednym z najpopularniejszych zastosowań rachunku Malliavina w matematyce finansowej
jest estymacja tzw. parametrów greckich. W rozdziale tym przedstawimy najpierw krótko
różne sposoby podejścia do tej problematyki niewykorzystujące metod rachunku Malliavina,
a następnie przyjrzymy się sytuacjom, w których teoria ta może przynieść nam wymierne
korzyści.
Dla uproszczenia, w rozdziale tym będziemy pracować w klasycznym jednowymiarowym
modelu Blacka - Scholesa, tzn. zakładamy, że rozważamy pewien instrument bazowy (np.
akcje jakiejś firmy), którego cena modelowana jest następującym stochastycznym równaniem
różniczkowym
(
dS(t) = µS(t)dt + σS(t)dB(t)
S(0) = x ,
(3.1)
gdzie µ ∈ R, σ, x > 0, zaś t zmienia się w przedziale [0, T ]. Parametr σ jest nazywany
zmiennością modelu, zaś x oznacza cenę początkową instrumentu bazowego.
Prezentowane rozważania można uogólnić na przypadek innych, bardziej skomplikowanych modeli, takich jak model Hestona (zob. np. [Ben02]) lub modele oparte o skokowe procesy Levy’ego (poświęcona jest temu duża część monografii [DØP09]). Jednak model Blacka Scholesa jest wystarczający do ukazania głównych idei omawianej metodologii, a dzięki swojej
prostocie pozwala na uniknięcie kłopotliwych szczegółów technicznych.
3.1. Parametry greckie
Niech Φ oznacza funkcję wypłaty pewnego instrumentu pochodnego (opcji), tzn. Φ : R → R
jest pewną funkcją borelowską. Jeśli wypłata zależy jedynie od wartości instrumentu bazowego
w chwili końcowej T , tzn. Φ = Φ(S(T )), to mamy do czynienia z tzw. opcją europejską. Innym
interesującym nas rodzajem opcji będą opcje azjatyckie. Mogą one występować w wariancie
dyskretnym, gdy funkcja wypłaty zależy od ceny instrumentu bazowego w pewnej skończonej
liczbie chwil t1 , . . . , tm ∈ [0, T ], tzn. Φ = Φ(S(t1 ), . . . , S(tm )) lub teżR w wariancie ciągłym,
gdy wypłata zależy od średniej całkowej wszystkich cen, tzn. Φ = Φ( 0T S(t)dt).
Jak wiadomo, w modelu (3.1) wartość opcji o funkcji wypłaty Φ w chwili t = 0 dana jest
jako
V0 = EQ [e−rT Φ] ,
gdzie r oznacza stopę procentową, a zatem jest to zdyskontowana wartość oczekiwana funkcji
wypłaty względem miary Q neutralnej względem ryzyka. W matematyce finansowej w wielu
41
3759541754(41)
sytuacjach rozważa się tzw. parametry greckie. Są to pochodne wartości V0 względem różnych
parametrów modelu. Do najczęściej używanych należą
∂V0
(delta) ,
∂x
∂ 2 V0
(gamma) ,
Γ=
∂x2
∂V0
ν=
(vega) ,
∂σ
∂V0
ρ=
(ro) .
∂r
∆=
Nazwa ”parametry greckie” wynika z faktu, iż wartości te tradycyjnie oznacza się za pomocą
liter alfabetu greckiego (warto w tym miejscu odnotować, że w alfabecie greckim nie ma takiej
litery jak ”vega”, zaś parametr ten oznacza się literą ni).
Informacje na temat zastosowań parametrów greckich w matematyce finansowej można
znaleźć np. w monografii [Hul09]. Dostępne są tam również powszechnie znane wzory na deltę, gammę, vegę i ro dla europejskich opcji call i put. Jednak nie dla każdej opcji takie wzory
daje się otrzymać i np. w przypadku opcji azjatyckich konieczne okazuje się stosowanie metod
numerycznych w celu obliczenia przybliżonej wartości interesujących nas parametrów. Przyjrzymy się teraz kilku możliwym sposobom podejścia do tego problemu poprzez symulacje
metodą Monte Carlo.
3.2. Klasyczne metody estymacji
Niech λ oznacza pewien parametr rozważanego modelu, od którego zależy funkcja wypłaty
opcji, tzn. Φ = Φ(λ). Wówczas
u(λ) = EQ [e−rT Φ(λ)]
jest wartością opcji w chwili t = 0, traktowaną jako funkcja zmiennej λ. Naszym celem
będzie obliczenie u0 (λ) (lub, w przypadku parametru gamma, u00 (λ)). Zakładamy przy tym, że
jesteśmy w stanie (za pomocą generatora liczb pseudolosowych) generować realizacje zmiennej
losowej Φ(λ), dzięki czemu będziemy mogli wyestymować wartość u0 (λ) metodą Monte Carlo.
3.2.1. Metoda różnic skończonych
Metoda ta opiera się na oczywistej obserwacji faktu, iż dla małych wartości h > 0, wartość
ilorazu różnicowego
u(λ + h) − u(λ)
h
jest bliska wartości pochodnej funkcji u w punkcie λ. Zatem aby wyestymować u0 (λ) metodą
Monte Carlo, wystarczy przeprowadzić odpowiednio dużo symulacji zmiennej Φ(λ + h) oraz
Φ(λ), obliczyć dla nich średnie arytmetyczne Φ̄(λ + h) oraz Φ̄(λ) otrzymanych wartości (gdyż
estymatorem wartości oczekiwanej EQ jest oczywiście średnia arytmetyczna próby), a następnie tak otrzymane estymatory odjąć, pomnożyć przez e−rT i podzielić przez parametr
h. Dostajemy więc estymator
û0 (λ) = e−rT
Φ̄(λ + h) − Φ̄(λ)
.
h
(3.2)
Główną zaletą tej metody jest jej prostota, gdyż daje się ona zastosować do zupełnie dowolnej
funkcji wypłaty Φ. Łatwo jednak widać, że takie podejście niesie ze sobą podwójny błąd,
42
3211823703(42)
bowiem oprócz błędu wynikającego z faktu estymowania wartości oczekiwanej EQ za pomocą
średniej arytmetycznej (który występuje zawsze przy metodzie Monte Carlo) mamy również
błąd wynikający z przybliżania wartości pochodnej wartością ilorazu różnicowego.
Zauważmy, że taki estymator jest estymatorem obciążonym. Mianowicie, przy założeniu,
że funkcja u jest dwukrotnie różniczkowalna w punkcie λ, możemy zapisać ze wzoru Taylora
1
u(λ + h) = u(λ) + u0 (λ)h + u00 (λ)h2 + o(h2 ) .
2
Mamy wtedy
1
EQ [û0 (λ) − u0 (λ)] = u00 (λ)h + o(h) ,
2
gdyż
EQ [û0 (λ)] = e−rT
EQ [Φ(λ + h)] − EQ [Φ(λ)]
u(λ + h) − u(λ)
=
,
h
h
zaś
u(λ + h) − u(λ) − 12 u00 (λ)h2 − o(h2 )
.
h
Możemy to obciążenie zmniejszyć, stosując alternatywny estymator
EQ [u0 (λ)] = u0 (λ) =
e−rT
Φ̄(λ + h) − Φ̄(λ − h)
.
2h
(3.3)
Oczywiście wartość takiego ilorazu różnicowego dla małych h również przybliża wartość pochodnej, ale tym razem rozpisując
1
u(λ + h) = u(λ) + u0 (λ)h + u00 (λ)h2 + o(h2 ) ,
2
1
0
u(λ − h) = u(λ) − u (λ)h + u00 (λ)h2 + o(h2 ) ,
2
widzimy, że przy obliczaniu wartości oczekiwanej naszego nowego estymatora (3.3), w wyrażeniu u(λ + h) − u(λ − h) zredukuje się wyraz przy h2 , a zatem jego obciążenie wyniesie
u(λ + h) − u(λ − h)
2u0 (λ)h + o(h2 )
− u0 (λ) =
− u0 (λ) = o(h) ,
2h
2h
czyli będzie mniejszego rzędu niż w estymatorze (3.2). Wobec tego w obu estymatorach obciążenie jest niezerowe, ale zmniejsza się wraz z coraz mniejszą wartością parametru h. Jednak
zwróćmy uwagę, że wariancja powyższych estymatorów jest dana jako
Var[û0 (λ)] =
1
Var[e−rT (Φ̄(λ + h) − Φ̄(λ))]
h2
(i analogicznie dla estymatora (3.3)), tzn. wariancja rośnie gdy h maleje, przy czym, jak
zauważa autor [Gla04], tempo wzrostu wariancji jest mniejsze, gdy do obliczenia realizacji
zmiennej Φ w obu interesujących nas punktach używamy tych samych liczb losowych, niż
gdybyśmy symulowali te wartości w sposób niezależny. W książce tej można znaleźć obszerną dyskusję na temat optymalnego doboru wielkości parametru h w zależności od liczby
przeprowadzonych symulacji n.
Reasumując, widzimy jasno, że metoda różnic skończonych jest daleka od doskonałości
i dlatego tam gdzie to możliwe warto zastanowić się nad metodami alternatywnymi.
43
1897330317(43)
3.2.2. Metoda pochodnej po trajektoriach
Ponieważ interesująca nas wielkość
u0 (λ) =
d
EQ [e−rT Φ(λ)]
dλ
jest pochodną wyrażenia będącego wartością oczekiwaną pewnej zmiennej losowej, warto
zastanowić się, czy można zamienić kolejność różniczkowania i brania wartości oczekiwanej
(czyli de facto całkowania). Mielibyśmy wtedy
d
d
EQ [e−rT Φ(λ)] = EQ [e−rT Φ(λ)] ,
dλ
dλ
(3.4)
d
czyli wyrażenie e−rT dλ
Φ(λ) stanowiłoby nieobciążony estymator u0 (λ). Podkreślmy w tym
d
Φ(λ) istnieje z prawmiejscu, że aby zapisać wzór (3.4), musimy założyć, że pochodna dλ
dopodobieństwem jeden w tym sensie, że dla dowolnie ustalonego λ z pewnego przedziału
rozważanych możliwych wartości tego parametru, istnieje zbiór A = A(λ) ⊂ Ω taki, że
d
d
Q(A) = 1 oraz dla każdego ω ∈ A istnieje dλ
Φ(λ, ω). Wówczas zmienna losowa dλ
Φ(λ) jest
nazywana pochodną po trajektoriach (ang. pathwise derivative) zmiennej Φ w punkcie λ.
Zacytujemy teraz zbiór warunków wystarczających do tego, aby zachodziła równość (3.4),
podany przez Broadiego i Glassermana w pracy [BG96]. Zakładamy, że parametr λ zmienia
się w pewnym otwartym przedziale Λ ⊂ R i że dla dowolnie ustalonego λ ∈ Λ zmienna losowa
Φ(λ) jest funkcją pewnego wektora losowego X(λ) = (X1 (λ), . . . , Xm (λ)), tzn.
Φ(λ) = f (X1 (λ), . . . , Xm (λ)) ,
dla pewnej funkcji f : Rm → R. W powyższym zapisie wektor X(λ) może być interpretowany
jako zestaw cen danego instrumentu bazowego w różnych momentach czasowych lub też zestaw cen różnych instrumentów bazowych (wszystkich zależnych od parametru λ). Rozważmy
następujące warunki:
(A) Dla każdego λ ∈ Λ oraz dla każdego i ∈ {1, . . . , m}
Xi (λ + h) − Xi (λ)
h→0
h
Xi0 (λ) = lim
istnieje z prawdopodobieństwem 1.
(B) Jeżeli Df ⊂ Rm oznacza zbiór punktów, w których funkcja f jest różniczkowalna, to dla
dowolnego λ ∈ Λ zachodzi Q(X(λ) ∈ Df ) = 1.
(C) Funkcja f jest lipschitzowska, tzn. istnieje stała kf taka, że dla dowolnych x, y ∈ Rm
zachodzi
|f (x) − f (y)| ¬ kf kx − yk .
(D) Istnieją zmienne losowe Ki dla i ∈ {1, . . . , m} takie, że EQ [Ki ] < ∞ oraz dla dowolnych
λ1 , λ2 ∈ Λ zachodzi
|Xi (λ2 ) − Xi (λ1 )| ¬ Ki |λ2 − λ1 | ,
dla i ∈ {1, . . . , m}.
d
Warunki (A) i (B) gwarantują, że dla dowolnie ustalonego λ ∈ Λ, pochodna dλ
Φ(λ) istnieje
z prawdopodobieństwem 1. Znajdziemy bowiem zbiór pełnej miary taki, że na tym zbiorze
44
1016639094(44)
X(λ) ∈ Df oraz istnieją Xi0 (λ) dla wszystkich i ∈ {1, . . . , m}, a zatem możemy w punktach
ω z tego zbioru zastosować zwykłą regułę łańcuchową w Rm i obliczyć
m
X
d
∂f
(X(λ))Xi0 (λ) .
Φ(λ) =
dλ
∂x
i
i=1
Warunki (C) i (D) z kolei zapewniają, że możliwa jest zamiana kolejności różniczkowania
i całkowania we wzorze (3.4). Mianowicie, zauważmy, że istnieje zmienna losowa K taka, że
EQ [K] < ∞ oraz dla dowolnych λ1 , λ2 ∈ Λ zachodzi
|f (X(λ2 )) − f (X(λ1 ))| ¬ K|λ2 − λ1 |
(jeżeli w Rm przyjmiemy jako normę sumę modułów współrzędnych, to możemy wziąć zmienP
ną K = m
i=1 kf Ki ). Zatem dla dowolnego λ ∈ Λ i dla h > 0 takiego, że λ + h ∈ Λ mamy
|
Φ(λ + h) − Φ(λ)
|¬K,
h
a wobec tego możemy zastosować twierdzenie Lebesgue’a o zmajoryzowanym przejściu do
granicy pod znakiem całki i otrzymać
−rT
lim EQ e
h→0
Φ(λ + h) − Φ(λ)
Φ(λ + h) − Φ(λ)
= EQ e−rT lim
.
h→0
h
h
Stąd dostajemy wzór (3.4).
W praktyce warunki (A), (B) i (D) zazwyczaj są spełnione. Problem pojawia się przy warunku (C), gdyż istnieją opcje o nieciągłej funkcji wypłaty, do których nie można zastosować
powyższego rozumowania.
Przyjrzyjmy się opisanej tutaj metodzie na przykładzie estymatora delty europejskiej opcji
call (oczywiście w tym przypadku chcąc obliczyć deltę możemy wprost zastosować znany wzór,
ale jest to dobry przykład ilustrujący metodę pochodnej po trajektoriach). Mianowicie, niech
Φ = (S(T ) − K)+ = max{S(T ) − K, 0} dla pewnego K > 0. Przypomnijmy, że pracujemy
w modelu Blacka-Scholesa, tzn. cena instrumentu bazowego dana jest równaniem (3.1). Wobec
tego
σ2
e )} ,
S(T ) = x exp{(r − )T + σ B(T
2
e
gdzie {B(t)}
t∈[0,T ] oznacza proces Wienera względem miary Q (zob. np. [Kle05], sekcja 11.4).
Chcemy obliczyć parametr grecki ∆, zatem w oznaczeniach z powyższgo rozumowania jako
λ przyjmujemy x, zaś jako przedział Λ można wziąć cały zbiór R. Funkcja f w przypadku
opcji call dana jest jako f (y) = max{y − K, 0}, zaś w miejsce wektora X(λ) mamy zmienną
losową S(T ) (zależną w oczywisty sposób od x). Łatwo widać, że w takiej sytuacji spełnione
są warunki (A), (C) i (D). Jeśli chodzi o warunek (B), to wprawdzie funkcja f nie jest
różniczkowalna w punkcie y = K, ale prawdopodobieństwo zdarzenia {S(T ) = K} jest równe
zeru, zatem również jest on spełniony. Możemy zatem zapisać
dΦ
d
EQ [e−rT Φ] = EQ e−rT
,
∆=
dx
dx
zaś do obliczenia
dΦ
dx
możemy na zbiorze pełnej miary zastosować regułę łańcuchową, tzn.
dΦ
dΦ dS(T )
=
.
dx
dS(T ) dx
45
3092155430(45)
Widzimy, że z prawdopodobieństwem 1
dΦ
= 1{S(T )>K} ,
dS(T )
zaś
dS(T )
S(T )
=
,
dx
x
a stąd wynika, że średnia arytmetyczna realizacji zmiennej losowej postaci
e−rT
(3.5)
S(T )
1
.
x {S(T )>K}
(3.6)
stanowi nieobciążony estymator parametru ∆. Niestety, jak już zauważyliśmy, rozumowania
tego typu nie da się zastosować np. w sytuacji, gdy funkcja wypłaty opcji jest nieciągła, czyli
w przypadku opcji binarnych lub barierowych.
3.2.3. Metoda stosunku wiarygodności
Główna idea tej metody (ang. likelihood ratio method) opiera się na tym, że w przypadku
gdy znana jest gęstość instrumentu bazowego, to jest zazwyczaj bardziej regularna od funkcji
wypłaty opcji. Zatem zapisując wzór na wartość opcji z użyciem tej gęstości może być łatwiej o zamianę kolejności różniczkowania i całkowania niż w przypadku ”zwykłego” zapisu
wykorzystującego funkcję wypłaty.
Podobnie jak w rozważaniach dotyczących metody pochodnej po trajektoriach, zakładamy, że Φ daje się przedstawić jako funkcja f wektora losowego X = (X1 , . . . , Xm ). Przyjmujemy dodatkowo, że wektor X posiada gęstość g względem miary Q. Tym razem zależność
funkcji wypłaty od pewnego parametru λ będziemy wyrażać za pomocą gęstości tego wektora, tzn. zakładamy że g zależy od λ i będziemy ją oznaczać gλ . Wobec tego wartość opcji
o funkcji wypłaty Φ = Φ(λ) w chwili t = 0 dana jest jako
−rT
EQ [e
−rT
Φ(λ)] = EQ [e
Z
f (X)] =
Rm
e−rT f (x)gλ (x)dx .
Przy założeniu, że można zamienić kolejność różniczkowania i całkowania, możemy wówczas
obliczyć
Z
d
d
e−rT f (x) gλ (x)dx .
EQ [e−rT Φ(λ)] =
(3.7)
dλ
dλ
Rm
Przekształcając dalej to wyrażenie, otrzymamy
Z
e
Rm
−rT
d
f (x) gλ (x)dx =
dλ
Z
−rT
e
Rm
f (x)
d
dλ gλ (x)
gλ (x)
"
−rT
gλ (x)dx = EQ e
f (X)
d
dλ gλ (X)
gλ (X)
#
,
a zatem widzimy, że średnia arytmetyczna realizacji zmiennej losowej
d
gλ (X)
e−rT f (X) dλ
gλ (X)
jest nieobciążonym estymatorem rozważanego przez nas parametru greckiego. Jak już zauważyliśmy, gęstości zmiennych losowych są zazwyczaj gładkie, więc bez problemu można
zamienić kolejność różniczkowania i całkowania we wzorze (3.7). Jednak do użycia tej metody konieczna jest znajomość wzoru na gęstość, co w praktyce może się okazać poważnym
ograniczeniem (np. w przypadku opcji azjatyckich, w których funkcja wypłaty
zależy od
R
średniej całkowej cen instrumentu bazowego na przedziale [0, T ], tzn. Φ = Φ( 0T S(t)dt)).
46
4138032721(46)
3.3. Estymatory z użyciem rachunku Malliavina
Powyższy przegląd metod estymacji parametrów greckich pokazuje, że w pewnych przypadkach dobór odpowiedniego estymatora może okazać się kłopotliwy. Wprawdzie zawsze można
zastosować metodę różnic skończonych, ale jak zauważyliśmy jest ona mocno niedoskonała
i używając jej trzeba decydować się na kompromis pomiędzy obciążeniem estymatora, a jego wariancją. W tej sekcji przyjrzymy się alternatywnym metodom opartym na rachunku
Malliavina, które nie wymagają znajomości gęstości instrumentu bazowego i dają się stosować również dla opcji o nieciągłych funkcjach wypłaty. Zacznijmy od podania pewnego
twierdzenia, które okaże się kluczowe w dalszych obliczeniach.
Twierdzenie 3.3.1. Niech
F ∈ D1,2 oraz G ∈ L2 (Ω). RPonadto, niech u ∈ L2 (Ω × [0, T ])
RT
będzie procesem takim, że 0 u(t)Dt F dt 6= 0 p.w. oraz Gu( 0T u(t)Dt F dt)−1 ∈ Dom(δ). Wtedy
dla dowolnej funkcji f ∈ C 1 (R) o ograniczonej pochodnej zachodzi
E[f 0 (F )G] = E[f (F )H(F, G)] ,
(3.8)
!
Gu(·)
gdzie stosujemy oznaczenie H(F, G) := δ
RT
0
u(t)Dt F dt
!
=
Gu(s)
RT
0
RT
0
u(t)Dt F dt
δB(s).
Dowód. Na podstawie reguły łańcuchowej (twierdzenie 2.2.12) mamy
Dt (f (F )) = f 0 (F )Dt F .
Mnożąc obie strony przez Gu, a następnie całkując po t ∈ [0, T ] otrzymujemy
Z T
Z T
0
Z T
0
u(t)Dt F dt .
f (F )Dt F Gu(t)dt = f (F )G
Dt (f (F ))Gu(t)dt =
0
0
0
Korzystając z założenia o tym, że 0T u(t)Dt F dt 6= 0 p.w. możemy podzielić obie strony
powyższej równości przez to wyrażenie i dostać
R
0
"R T
0
E[f (F )G] = E
Dt (f (F ))Gu(t)dt
RT
0
u(t)Dt F dt
#
.
Następnie stosując twierdzenie mówiące o tym, że całka Skorohoda jest operatorem sprzężonym do pochodnej Malliavina, czyli wzór (2.9), otrzymujemy
"R T
E
0
Dt (f (F ))Gu(t)dt
RT
0
u(t)Dt F dt
#
"
= E f (F )δ
Gu(·)
RT
0
u(t)Dt F dt
!#
.
Uwaga 3.3.2. Jeżeli zmienna losowa F ma rozkład absolutnie ciągły względem miary Lebesgue’a na R, to na podstawie twierdzenia 2.2.13 wnioskujemy, że wzór (3.8) zachodzi również
gdy funkcja f jest lipschitzowska.
Możemy teraz przystąpić do analizy konkretnych przykładów.
47
3661553830(47)
3.3.1. Delta opcji europejskiej
Rozpoczniemy od wyprowadzenia wzoru na estymator delty dla opcji europejskiej, tzn. opcji
o funkcji wypłaty Φ = Φ(S(T )). Załóżmy najpierw, że Φ jest funkcją klasy C 1 o ograniczonej
pochodnej. Wówczas można zamienić kolejność różniczkowania i brania wartości oczekiwanej,
mamy zatem
d
dS(T )
−rT
−rT 0
∆=
.
EQ [e
Φ(S(T ))] = EQ e
Φ (S(T ))
dx
dx
Korzystając ze wzoru (3.5) otrzymujemy
EQ e−rT Φ0 (S(T ))
dS(T )
e−rT
=
EQ [Φ0 (S(T ))S(T )] .
dx
x
Stosujemy teraz twierdzenie 3.3.1, biorąc we wzorze (3.8) F = G = S(T ) oraz proces u ≡ 1.
Dostajemy zatem
"
e−rT
e−rT
EQ [Φ0 (S(T ))S(T )] =
EQ Φ(S(T ))δ
x
x
S(T )
RT
0
Dt (S(T ))dt
!#
.
W celu obliczenia całki Skorohoda występującej w powyższym wzorze, zauważmy najpierw,
że zmienną losową S(T ) można przedstawić jako
e )) ,
S(T ) = g(B(T
2
gdzie g(y) := x exp{(r − σ2 )T + σy}. Mamy wtedy g 0 (y) = σg(y), a wobec tego, stosując
regułę łańcuchową dla pochodnej Malliavina (twierdzenie 2.2.12), otrzymujemy
e )) .
Dt (S(T )) = σS(T )Dt (B(T
Tymczasem
Z T
e
1dB(s)
,
e )=
B(T
0
e )) = 1, dla t ∈ [0, T ]. Wobec tego
a zatem Dt (B(T
Z T
Z T
σS(T )dt = T σS(T ) .
Dt (S(T ))dt =
0
(3.9)
0
Mamy więc
δ
S(T )
RT
0
Dt (S(T ))dt
!
=δ
S(T )
T σS(T )
=δ
1
Tσ
=
e )
B(T
1
δ(1) =
,
Tσ
Tσ
e ) (co wynika wprost z definicji lub alternatywnie z faktu, iż proces stale
gdyż δ(1) = B(T
równy 1 jest adaptowany, a zatem możemy liczyć tę całkę jako zwykłą całkę Itô). Ostatecznie
∆=
e−rT
e )] .
EQ [Φ(S(T ))B(T
xT σ
(3.10)
Wobec tego parametr ∆ będziemy estymować za pomocą średniej arytmetycznej realizacji
zmiennej losowej
e−rT
e )
Φ(S(T ))B(T
xT σ
i na podstawie wzoru (3.10) wnioskujemy, że będzie to estymator nieobciążony.
48
2048074016(48)
Uwaga 3.3.3. Wzór (3.10) jest prawdziwy również dla funkcji Φ, która nie jest ciągła. Jak
zauważa autorka [Nua12] (uwaga 3.7 w jej skrypcie), wystarczy, aby Φ była funkcją przedziałami ciągłą, o skokowych nieciągłościach i wzroście liniowym. Wówczas stosując odpowiednią
aproksymację oraz fakt, że wzór (3.10) mamy już wykazany dla pewnej klasy funkcji, możemy
otrzymać go również przy słabszych założeniach. Mozliwość osłabienia założeń dotyczących
regularności funkcji wypłaty Φ jest bardzo istotna w kontekście praktycznych zastosowań,
gdyż, jak podkreśliliśmy przy okazji omawiania metody pochodnej po trajektoriach, problemy sprawiają właśnie opcje o nieciągłych funkcjach wypłaty i dla nich będziemy chcieli
wykorzystać otrzymane przez nas estymatory. W kolejnych przykładach zawsze będziemy
wykonywać obliczenia przy założeniu, że Φ jest klasy C 1 o ograniczonej pochodnej, mając
w pamięci fakt, iż wyprowadzane wzory można poprzez aproksymację uogólnić na szerszą
klasę funkcji.
3.3.2. Gamma opcji europejskiej
Na podstawie obliczeń wykonanych na początku naszych rozważań dotyczących delty opcji
europejskiej wiemy już, że
d
e−rT
EQ [e−rT Φ(S(T ))] =
EQ [Φ0 (S(T ))S(T )] .
dx
x
Wobec tego
!
e−rT
EQ [Φ0 (S(T ))S(T )]
x
d2
d
Γ = 2 EQ [e−rT Φ(S(T ))] =
dx
dx
e−rT
e−rT
dS(T )
dS(T )
= − 2 EQ [Φ0 (S(T ))S(T )] +
EQ Φ00 (S(T ))
S(T ) + Φ0 (S(T ))
x
x
dx
dx
−rT
e
= 2 EQ [Φ00 (S(T ))S 2 (T )] .
x
Przy dodatkowym założeniu, że Φ0 również jest funkcją klasy C 1 o ograniczonej pochodnej,
możemy zastosować twierdzenie 3.3.1 biorąc we wzorze (3.8) F = S(T ), G = S 2 (T ) oraz
u ≡ 1. Dostajemy wówczas
"
e−rT
e−rT
00
2
E
[Φ
(S(T
))S
(T
)]
=
EQ Φ0 (S(T ))δ
Q
x2
x2
=
e−rT
EQ
x2
RT
0
Dt (S(T ))dt
S(T )
Φ (S(T ))δ
σT
0
.
Skorzystamy teraz z twierdzenia 2.3.2, we wzorze (2.10) przyjmując F =
Mamy zatem
S(T )
δ
σT
S(T )
=
δ(1) −
σT
Z T
Dt
0
e )
e−rT
B(T
−1
Γ = 2 EQ Φ0 (S(T ))S(T )
x
σT
49
2750458633(49)
S(T )
σT
e )
S(T )
S(T )B(T
dt =
− S(T ) .
σT
σT
Otrzymaliśmy więc
"
!#
S 2 (T )
!#
oraz u ≡ 1.
i możemy teraz zastosować ponownie twierdzenie 3.3.1 biorąc we wzorze (3.8) F = S(T ),
)
G = S(T )( B(T
σT − 1) oraz u ≡ 1. Dostajemy
e
e )
e−rT
B(T
0
E
Φ
(S(T
))S(T
)
−1
Q
x2
σT


"
e )
B(T
σT

− 1 
 S(T )

e−rT
 .
Φ(S(T ))δ  R
E
Q
 T


x2
D
(S(T
))dt
t
0
!#
=
e )) = B
e 2 (T ) − T , a zatem
Na podstawie przykładu 1.5.7 wiemy, że δ(B(T
δ
S(T )
RT
0
e )
B(T
−1
σT
Dt (S(T ))dt
!!
e )
B(T
−1
σT
1
=
δ
σT
!
e 2 (T )
B
1
e )
− − B(T
σT
σ
1
=
σT
!
.
Ostatecznie dostajemy wzór na gammę postaci
"
e 2 (T )
B
e−rT
1
e )
Γ = 2 EQ Φ(S(T ))
− − B(T
x σT
σT
σ
!#
.
(3.11)
3.3.3. Vega opcji europejskiej
Tym razem będziemy chcieli obliczyć pochodną wartości opcji względem parametru σ. Mamy
dS(T )
d
EQ [e−rT Φ(S(T ))] = EQ e−rT Φ0 (S(T ))
.
dσ
dσ
ν=
Przypomnijmy, że
S(T ) = x exp{(r −
σ2
e )} ,
)T + σ B(T
2
a wobec tego
dS(T )
e )) .
= S(T )(−σT + B(T
dσ
e ) − σT )
Zastosujemy teraz twierdzenie 3.3.1 biorąc we wzorze (3.8) F = S(T ), G = S(T )(B(T
oraz u ≡ 1. Dostaniemy wówczas
−rT
EQ e
"
dS(T )
Φ (S(T ))
= EQ e−rT Φ(S(T ))δ
dσ
0
e ) − σT )
S(T )(B(T
RT
0
Dt (S(T ))dt
!#
.
Podczas obliczania estymatora dla delty opcji europejskiej pokazaliśmy, że
Z T
Dt (S(T ))dt = σT S(T )
0
(por. wzór (3.9)), a zatem
δ
e ) − σT )
S(T )(B(T
RT
0
!
Dt (S(T ))dt
=
1
e ) − σT ) .
δ(B(T
σT
Podobnie jak przy liczeniu gammy możemy powołać się na przykład 1.5.7 i stwierdzić, że
e )) = B
e 2 (T ) − T . Wobec tego
δ(B(T
1
e ) − σT ) = 1 (B
e 2 (T ) − T − σT B(T
e )) .
δ(B(T
σT
σT
Otrzymaliśmy więc wzór
ν=
e−rT
e 2 (T ) − T − σT B(T
e ))] .
EQ [Φ(S(T ))(B
σT
50
2575391254(50)
(3.12)
3.3.4. Delta opcji azjatyckiej
Tym razem
będziemy rozważać opcję azjatycką, tzn. przyjmujemy, że Φ = Φ(S̄(T )), gdzie
RT
S̄(T ) = 0 S(t)dt. Mamy wówczas
"
#
dS̄(T )
d
EQ [e−rT Φ(S̄(T ))] = EQ e−rT Φ0 (S̄(T ))
.
∆=
dx
dx
Jednak
dS̄(T )
=
dx
Z T
dS(t)
dx
0
Z T
S(t)
dt =
x
0
1
S̄(T ) ,
x
dt =
a zatem
"
#
−rT
EQ e
dS̄(T )
e−rT
Φ (S̄(T ))
=
EQ [Φ0 (S̄(T ))S̄(T )] .
dx
x
0
(3.13)
Zastosujemy teraz twierdzenie 3.3.1, we wzorze (3.8) przyjmując F = G = S̄(T ), ale zamiast
brać u ≡ 1 tak jak w rozważaniach dotyczących opcji europejskich, weźmy u(t) = S(t).
Dostajemy wówczas
"
e−rT
e−rT
EQ [Φ0 (S̄(T ))S̄(T )] =
EQ Φ(S̄(T ))δ
x
x
!#
S̄(T )S(·)
RT
Dt (S̄(T ))S(t)dt
0
.
Policzmy najpierw
!
Z T
Dt (S̄(T )) = Dt
S(s)ds
Z T
Dt S(s)ds
=
0
0
Z T
Z T
Z T
e
σS(s)Dt B(s)ds
=
=
0
0
σS(s)1[0,s] (t)ds = σ
S(s)ds .
t
Wobec tego
Z T
Z T
Dt (S̄(T ))S(t)dt = σ
Z T
S(t)
t
0
0
!
1
S(s)ds dt = σ
2
Z TZ T
0
0
1
S(t)S(s)dtds = σ(S̄(T ))2 .
2
Stąd
δ
!
S̄(T )S(·)
RT
0
Dt (S̄(T ))S(t)dt
=δ
S̄(T )S(·)
1
2
2 σ(S̄(T ))
!
S(·)
2
= δ
σ
S̄(T )
.
Chcąc obliczyć tę całkę Skorohoda, zastosujemy twierdzenie 2.3.2, we wzorze (2.10) przyjmując F = (S̄(T ))−1 oraz u(t) = S(t). Otrzymujemy zatem
2
S(·)
δ
σ
S̄(T )
2
=
σ
1
δ(S(·)) −
S̄(T )
Z T
S(t)Dt
0
!
1
dt
S̄(T )
.
Zauważmy, że na podstawie reguły łańcuchowej dla pochodnej Malliavina mamy
Dt
1
S̄(T )
=−
1
σ
Dt (S̄(T )) = −
2
(S̄(T ))
(S̄(T ))2
51
9509835419(51)
Z T
S(s)ds .
t
Ponadto wiemy, że proces {S(t)}t∈[0,T ] jest adaptowany, więc δ(S(·)) =
my obliczyć
2
σ
1
δ(S(·)) −
S̄(T )
Z T
S(t)Dt
0
1
dt
S̄(T )
!
2
=
σ
RT
2
σ
RT
=
2
=
σ
0
0
RT
0
RT
0
e
S(t)dB(t)
i może-
!
R
Z T
σS(t) tT S(s)ds
dt
2
e
S(t)dB(t)
+
S̄(T )
(S̄(T ))
0
e
S(t)dB(t)
σ
+
2
S̄(T )
!
e
S(t)dB(t)
+ 1.
S̄(T )
Wiemy też, że proces {S(t)}t∈[0,T ] spełnia stochastyczne równanie różniczkowe
e
dS(t) = rS(t)dt + σS(t)dB(t)
(zob np. [Kle05], sekcja 11.4), a stąd
Z T
1
e
S(t)dB(t)
=
S(T ) − x − r
σ
0
!
Z T
S(t)dt
.
0
Reasumując, otrzymaliśmy
δ
!
S̄(T )S(·)
RT
0
Dt (S̄(T ))S(t)dt
2 1 (S(T ) − x − r
= σ
σ
S̄(T )
RT
0
S(t)dt)
σ2
S(T ) − x
−r+
2
S̄(T )
2
+1= 2
σ
!
.
Zatem ostatecznie dostajemy wzór postaci
"
σ2
2e−rT
S(T ) − x
−
r
+
∆=
E
Φ(
S̄(T
))
Q
xσ 2
2
S̄(T )
!#
.
(3.14)
Warto w tym miejscu podkreślić, że nie jest to jedyny sposób na otrzymanie estymatora delty
opcji azjatyckiej. Powyższe obliczenia oparliśmy na przykładzie 3.13 ze skryptu [Nua12], ale
alternatywne podejście prezentują np. autorzy pracy [KKM02]. Mianowicie, dochodząc na
początku tak jak my do wzoru (3.13), stosują twierdzenie 3.3.1, ale we wzorze (3.8) biorą
F = G = S̄(T ) i u ≡ 1. Dostają wówczas
"
e−rT
e−rT
EQ [Φ0 (S̄(T ))S̄(T )] =
EQ Φ(S̄(T ))δ
x
x
Ponieważ
Z T
RT
0
Z TZ T
Dt (S̄(T ))dt =
0
0
0
!#
S̄(T )
.
Dt (S̄(T ))dt
Z T
σS(s)1[0,s] (t)dsdt = σ
sS(s)ds ,
0
mamy
"
e−rT
EQ Φ(S̄(T ))δ
x
S̄(T )
RT
0
Dt (S̄(T ))dt
!#
"
e−rT
=
EQ Φ(S̄(T ))δ
x
S̄(T )
σ
RT
0
sS(s)ds
!#
.
Aby obliczyć tę całkę Skorohoda, można zastosować twierdzenie 2.3.2 biorąc we wzorze (2.10)
u = σ1 oraz F = R T S̄(T ) . Dostaniemy wówczas
sS(s)ds
0
δ
S̄(T )
σ
RT
0
sS(s)ds
!
S̄(T )
1
= RT
δ
σ
0 sS(s)ds
52
1272324506(52)
−
Z T
1
0
σ
Dt
S̄(T )
RT
0
sS(s)ds
!
dt .
Korzystając z reguły produktowej i z reguły łańcuchowej dla pochodnej Malliavina, a także
z faktu, iż
e
= σS(s)1[0,s] (t) ,
Dt S(s) = σS(s)Dt B(s)
możemy obliczyć
!
S̄(T )
Dt
RT
0
= RT
sS(s)ds
=
0
RT
0
−1
Dt (S̄(T )) + S̄(T ) R T
sS(s)ds
( 0 sS(s)ds)2
1
σS(s)1[0,s] (t)ds
RT
0
sS(s)ds
Z T
Dt (sS(s))ds
0
Z T
S̄(T )
− RT
( 0 sS(s)ds)2
0
σsS(s)1[0,s] (t)ds .
Mamy zatem
Z T
1
0
σ
Dt
S̄(T )
!
1
dt =
RT
σ
0 sS(s)ds
RT Rs
R R
1 S̄(T ) 0T 0s σsS(s)dtds
0 0 σS(s)dtds
−
RT
RT
0
σ
sS(s)ds
(
0
sS(s)ds)2
RT
R
1 σ 0 sS(s)ds S̄(T ) 0T s2 S(s)ds
.
=
−
RT
RT
σ
0
sS(s)ds
(
0
sS(s)ds)2
Wobec tego ostatecznie
δ
S̄(T )
σ
RT
0
sS(s)ds
!
=
e )
S̄(T )B(T
σ
RT
0
sS(s)ds
−1+
S̄(T )
RT 2
0 s S(s)ds
RT
(
0
sS(s)ds)2
,
a zatem otrzymujemy wzór postaci
T 2
e )
s S(s)ds
e−rT
S̄(T )
B(T
∆=
EQ Φ(S̄(T )) R T
+ R0T
−1
x
σ
0 sS(s)ds
0 sS(s)ds
"
"
#
R
!#
.
(3.15)
3.3.5. Gamma opcji azjatyckiej
Rozpoczniemy obliczenia podobnie jak w przypadku gammy opcji europejskiej, tzn. wykorzystując początkową część obliczeń dla delty opcji azjatyckiej (wzór (3.13)) możemy zapisać
d2
d
Γ = 2 EQ [e−rT Φ(S̄(T ))] =
dx
dx
!
e−rT
EQ [Φ0 (S̄(T ))S̄(T )]
x
"
e−rT
e−rT
dS̄(T )
dS̄(T )
EQ Φ00 (S̄(T ))
S̄(T ) + Φ0 (S̄(T ))
= − 2 EQ [Φ0 (S̄(T ))S̄(T )] +
x
x
dx
dx
"
(S̄(T ))2
e−rT
e−rT
S̄(T )
= − 2 EQ [Φ0 (S̄(T ))S̄(T )] +
EQ Φ00 (S̄(T ))
+ Φ0 (S̄(T ))
x
x
x
x
=
#
#
e−rT
EQ [Φ00 (S̄(T ))(S̄(T ))2 ] ,
x2
S̄(T )
)
gdzie korzystaliśmy z tego, iż dS̄(T
dx = x . Użyjemy w tym miejscu po raz kolejny twierdzenia
3.3.1, biorąc we wzorze (3.8) F = S̄(T ) i G = (S̄(T ))2 , a jako proces u przyjmiemy, podobnie
jak przy obliczaniu delty opcji azjatyckiej, u(t) = S(t) (ponownie umożliwi nam to znaczne
uproszczenie całki Skorohoda, która pojawi się w obliczeniach). Mamy więc
"
e−rT
e−rT
00
2
E
[Φ
(
S̄(T
))(
S̄(T
))
]
=
EQ Φ0 (S̄(T ))δ
Q
x2
x2
53
2680201375(53)
(S̄(T ))2 S(·)
RT
0
Dt (S̄(T ))S(t)dt
!#
.
Korzystając z obliczeń wykonanych przy okazji wyprowadzania wzoru na deltę opcji azjatyckiej, mamy
Z T
1
Dt (S̄(T ))S(t)dt = σ(S̄(T ))2 ,
2
0
a także
Z T
e
S(t)dB(t)
=
δ(S(·)) =
0
1
(S(T ) − x − rS̄(T )) .
σ
Łącząc te dwa fakty, otrzymujemy
"
e−rT
Γ = 2 EQ Φ0 (S̄(T ))δ
x
!#
(S̄(T ))2 S(·)
RT
0
Dt (S̄(T ))S(t)dt
(3.16)
2e−rT
2re−rT
= 2 2 EQ [Φ0 (S̄(T ))(S(T ) − x)] − 2 2 EQ [Φ0 (S̄(T ))S̄(T )] .
x σ
x σ
Po raz kolejny powołując się na wykonane już wcześniej obliczenia, na podstawie wzorów
(3.13) oraz (3.14) mamy
"
2e−rT
S(T ) − x
σ2
e−rT
EQ [Φ0 (S̄(T ))S̄(T )] =
E
Φ(
S̄(T
))
−
r
+
∆=
Q
x
xσ 2
2
S̄(T )
!#
,
a zatem możemy obliczyć drugi składnik w wyrażeniu (3.16) jako
"
S(T ) − x
σ2
4re−rT
2re−rT
0
−
r
+
E
[Φ
(
S̄(T
))
S̄(T
)]
=
E
Φ(
S̄(T
))
Q
Q
x2 σ 2
x2 σ 4
2
S̄(T )
!#
.
Skoncentrujmy się wobec tego na składniku
2e−rT
EQ [Φ0 (S̄(T ))(S(T ) − x)] .
x2 σ 2
Zastosujemy do niego ponownie twierdzenie 3.3.1, we wzorze (3.8) przyjmując F = S̄(T ),
G = S(T ) − x oraz u(t) = S(t). Otrzymujemy zatem
"
2e−rT
2e−rT
0
E
[Φ
(
S̄(T
))(S(T
)
−
x)]
=
EQ Φ(S̄(T ))δ
Q
x2 σ 2
x2 σ 2
"
2e−rT
= 2 2 EQ Φ(S̄(T ))δ
x σ
!#
(S(T ) − x)S(·)
RT
0
Dt (S̄(T ))S(t)dt
(S(T ) − x)S(·)
1
2
2 σ(S̄(T ))
!#
.
Całkę Skorohoda, która pojawiła się powyżej, policzymy z wykorzystaniem twierdzenia 2.3.2
biorąc we wzorze (2.10) F = (S(T ) − x)(S̄(T ))−2 oraz u(t) = S(t). Wówczas
(S(T ) − x)S(·)
δ
(S̄(T ))2
S(T ) − x
=
δ(S(·)) −
(S̄(T ))2
Ale
δ(S(·)) =
Z T
Dt
0
S(T ) − x
S(t)dt .
(S̄(T ))2
(3.17)
1
(S(T ) − x − rS̄(T )) ,
σ
a zatem
S(T ) − x
1 S(T ) − x
1
δ(S(·)) =
(S(T ) − x − rS̄(T )) =
2
2
σ (S̄(T ))
σ
(S̄(T ))
54
2477965770(54)
S(T ) − x
S̄(T )
2
r
−
σ
S(T ) − x
S̄(T )
.
Pozostaje więc zająć się drugim składnikiem ze wzoru (3.17). Mamy
Z T
Dt
0
S(T ) − x
S(t)dt =
(S̄(T ))2
=
Z T
Dt (S(T ) − x)
(S̄(T ))2
0
−2
+ (S(T ) − x)
Dt (S̄(T )) S(t)dt
(S̄(T ))3
Z T"
σS(T )
2(S(T ) − x)
−
σ
2
(S̄(T ))
(S̄(T ))3
0
#
Z T
0
S(s)1[0,s] (t)ds S(t)dt
σS(T ) 2σ(S(T ) − x) T T
=
S(s)1[0,s] (t)dsS(t)dt
−
(S̄(T ))3
S̄(T )
0
0
σS(T ) 2σ(S(T ) − x) 1
=
−
(S̄(T ))2 .
S̄(T )
(S̄(T ))3 2
Z
Z
Wracając do wzoru (3.17), otrzymujemy
(S(T ) − x)S(·)
δ
(S̄(T ))2
S(T ) − x
S̄(T )
2
(S(T ) − x)S(·)
1
2
2 σ(S̄(T ))
!#
1
=
σ
r
−
σ
S(T ) − x
S̄(T )
σS(T )
S(T ) − x
−
+σ
S̄(T )
S̄(T )
.
Wobec tego
"
2e−rT
EQ Φ(S̄(T ))δ
x2 σ 2
"
4e−rT
= 2 4 EQ Φ(S̄(T ))
x σ
4e−rT
(S(T ) − x)S(·)
EQ Φ(S̄(T ))δ
2
3
x σ
(S̄(T ))2
=
S(T ) − x
S̄(T )
2
S(T ) − x
+ (σ 2 − r)
S̄(T )
σ 2 S(T )
−
S̄(T )
!#
,
a zatem wstawiając otrzymane rezultaty do wzoru (3.16) dostajemy
2re−rT
2e−rT
0
E
[Φ
(
S̄(T
))(S(T
)
−
x)]
−
EQ [Φ0 (S̄(T ))S̄(T )]
Q
2σ2
x2 σ 2
x
"
!#
4e−rT
S(T ) − x 2
S(T ) − x
σ 2 S(T )
2
= 2 4 EQ Φ(S̄(T ))
+ (σ − r)
−
x σ
S̄(T )
S̄(T )
S̄(T )
Γ=
"
4e−rT
S(T ) − x
− 2 4 EQ Φ(S̄(T )) r
x σ
S̄(T )
"
4e−rT
= 2 4 EQ Φ(S̄(T ))
x σ
S(T ) − x
S̄(T )
2
rσ 2
−r +
2
!#
2
S(T ) − x
+ (σ 2 − 2r)
S̄(T )
σ 2 S(T )
rσ 2
−
+ r2 −
2
S̄(T )
!#
.
3.3.6. Vega opcji azjatyckiej
Obliczenia rozpoczniemy podobnie jak we wszystkich dotychczasowych przypadkach. Mamy
"
#
d
dS̄(T )
ν=
EQ [e−rT Φ(S̄(T ))] = EQ e−rT Φ0 (S̄(T ))
.
dσ
dσ
Przypomnijmy, że
S(t) = x exp{(r −
a zatem
σ2
e
)t + σ B(t)}
,
2
dS(t)
e
= S(t)(B(t)
− σt)
dσ
i w konsekwencji
dS̄(T )
d
=
dσ
dσ
Z T
Z T
S(t)dt =
0
0
55
1720083720(55)
e
S(t)(B(t)
− σt)dt .
Podążając za dotychczasowym schematem postępowania, będziemy
chcieli zastosować twierR
e
dzenie 3.3.1 biorąc we wzorze (3.8) F = S̄(T ) oraz G = 0T S(t)(B(t)
− σt)dt. Pozostaje
pytanie o odpowiedni dobór procesu u, tak aby możliwie jak najbardziej uprościć obliczanie
całki Skorohoda, która pojawi się w wyniku zastosowania tego twierdzenia. Wybór u(t) = S(t)
wydaje się nie przynosić w tym wypadku żadnych korzyści (w przypadku delty i gammy wybór ten powodował pojawienie się w mianowniku całkowanego przez nas procesu wyrażenia
(S̄(T ))2 , które następnie upraszczało
się z licznikiem, jednak tutaj ta metoda nie zadziała,
R
e − σt)dt). Postąpimy zatem podobnie jak w zaprezengdyż w liczniku występuje 0T S(t)(B(t)
towanym przez nas alternatywnym sposobie obliczania delty opcji azjatyckiej i przyjmiemy
po prostu u ≡ 1. Otrzymamy wówczas
"
−rT
e
Z T
0
EQ Φ (S̄(T ))
#
RT
"
e
S(t)(B(t)
− σt)dt = e
−rT
0
0
EQ Φ(S̄(T ))δ
e
S(t)(B(t)
− σt)dt
RT
0
!#
Dt (S̄(T ))dt
.
Przypomnijmy, że
Z T
Z T
sS(s)ds ,
Dt (S̄(T ))dt = σ
0
0
a zatem
RT
δ
0
e
S(t)(B(t)
− σt)dt
RT
0
RT
!
0
=δ
Dt (S̄(T ))dt
RT
e
S(t)B(t)dt
−
σ
RT
0
0
σtS(t)dt
RT
!
0
=δ
sS(s)ds
σ
e
S(t)B(t)dt
RT
0
!
sS(s)ds
e ).
−B(T
Do obliczenia powyższej całki
R Skorohoda wykorzystamy ponownie twierdzenie 2.3.2, we wzoT
e
S(t)B(t)dt
rze (2.10) przyjmując F = 0R T
0
RT
e
S(t)B(t)dt
0
δ
RT
0
!
sS(s)ds
oraz u ≡ 1. Otrzymujemy
sS(s)ds
RT
e
S(t)B(t)dt
e )−
B(T
= 0R T
sS(s)ds
0
RT
Z T
0
Dt
e
S(s)B(s)ds
RT
0
0
!
sS(s)ds
dt .
Pozostaje zająć się pochodną Malliavina, która pojawiła się powyżej. Mamy
RT
Dt
0
e
S(s)B(s)ds
RT
0
!
= RT
sS(s)ds
0
Z T
1
sS(s)ds
e
e
(Dt S(s))B(s)
+ S(s)Dt B(s)
ds
0
!
Z T
e
S(s)B(s)ds
+
RT
(
0
= RT
0
RT
0
"Z
1
sS(s)ds
0
e
S(s)B(s)ds
− RT
( 0 sS(s)ds)2
Z T
−1
0
sS(s)ds)2
sDt S(s)ds
0
#
Z T
T
σS(s)1[0,s]
e
(t)B(s)ds
+
0
S(s)1[0,s] (t)ds
Z T
0
σsS(s)1[0,s] (t)ds .
Całkując otrzymane wyrażenie względem zmiennej t po przedziale [0, T ], dostajemy
RT
Z T
Dt
0
0
e
S(s)B(s)ds
RT
0
!
sS(s)ds
dt = R T
0
1
sS(s)ds
Z T
e
σsS(s)B(s)ds
+1
0
RT
e
S(s)B(s)ds
− 0R T
( 0 sS(s)ds)2
Z T
0
Wobec tego, wracając do naszej początkowej całki Skorohoda
RT
δ
0
e
S(t)(B(t)
− σt)dt
RT
0
Dt (S̄(T ))dt
56
2408993197(56)
!
,
σs2 S(s)ds .
widzimy, że jest ona równa
1
σ
"R T
e
0 S(t)B(t)dt e
B(T ) −
RT
0 sS(s)ds
RT
0
RT
e
σsS(s)B(s)ds
RT
0
e
S(s)B(s)ds
− 1 + 0R T
( 0 sS(s)ds)2
sS(s)ds
Z T
#
e ).
σs2 S(s)ds − B(T
0
Stąd otrzymujemy wzór na wartość parametru ν postaci
"
e
−rT
EQ Φ(S̄(T ))
RT
0
e
S(t)B(t)dt
RT
0
sS(s)ds
T 2
e )
s S(s)ds
B(T
+ R0T
σ
0 sS(s)ds
R
RT
!
−
0
e
sS(s)B(s)ds
RT
0
sS(s)ds
!#
1
e )
− − B(T
σ
3.4. Eksperymenty numeryczne
W tej sekcji prezentujemy wyniki przeprowadzonych przez nas eksperymentów numerycznych, ukazujące działanie estymatorów otrzymanych z użyciem rachunku Malliavina w kilku
konkretnych przypadkach. W celu wykonania tych eksperymentów, napisaliśmy odpowiedni program w języku C++, wykorzystując fragmenty kodu dostępne w książkach [AP05]
oraz [Jos08]. Program ten zapisywał wyniki przeprowadzanych symulacji do odpowiedniego
pliku, z którego, za pomocą darmowego oprogramowania Gnuplot (dostępnego na stronie
http://www.gnuplot.info/) otrzymaliśmy prezentowane poniżej wykresy.
3.4.1. Delta europejskiej opcji call
Rozpoczniemy od zaprezentowania wyników symulacji dotyczących delty europejskiej opcji
call, tzn. opcji o funkcji wypłaty Φ(S(T )) = max{S(T )−K, 0}.Jak wiadomo, w tym wypadku
istnieje konkretny wzór postaci
∆ = N (d1 ) ,
gdzie N oznacza dystrybuantę standardowego rozkładu normalnego, zaś
ln
d1 =
x
K
+ r+
√
σ T
σ2
2
T
(3.18)
(zob. np. [Hul09], str. 354). Będziemy mogli zatem otrzymane rezultaty porównać z rzeczywistą wartością tego parametru.
Przyjmijmy x = 100, K = 100, r = 0, 05, σ = 0, 2 oraz T = 1. Wówczas d1 = 0, 35,
a zatem
∆ ≈ 0, 63683 .
Przeprowadziliśmy symulacje trzema metodami, w każdej z nich generując 15000 liczb pseudolosowych.
(1) Metodą różnic skończonych (RS), z wykorzystaniem estymatora
e−rT
u(x + h) − u(x − h)
,
2h
gdzie u(x) jest estymatorem EQ [Φ(S(T ), x)]. Zastosowaliśmy przy tym wartość h = 0, 001.
(2) Metodą pochodnej po trajektoriach (PPT), z wykorzystaniem wzoru (3.6), tzn.
∆=
e−rT
EQ [S(T )1{S(T )>K} ] .
x
57
3111667257(57)
.
Malliavin
Metoda RS
Metoda PPT
wart. rzeczywista
0.85
0.8
0.75
0.7
0.65
0.6
0.55
0.5
0
2000
4000
6000
8000
10000
12000
14000
Rysunek 3.1: Symulacja delty dla europejskiej opcji call.
(3) Metodą rachunku Malliavina, korzystając ze wzoru (3.10), tzn.
∆=
e−rT
e )] .
EQ [Φ(S(T ))B(T
xT σ
Jak widać, w tym wypadku estymator otrzymany z użyciem rachunku Malliavina spisuje się najgorzej spośród wykorzystanych metod (wydaje się, że najlepiej wypada estymator
otrzymany metodą pochodnej po trajektoriach). Jednak nie jest to niespodzianką - podobne
obserwacje czyni np. autor [Ben02], który stwierdza, że wykorzystywanie estymatorów wyprowadzonych z użyciem rachunku Malliavina do opcji o ciągłej funkcji wypłaty (takich jak
np. opcja call) mija się z celem. Prawdziwą przydatność pokazują one w wypadku nieciągłych funkcji wypłaty lub też przy estymowaniu parametru gamma, gdzie konieczne staje się
przybliżanie drugiej pochodnej.
3.4.2. Gamma europejskiej opcji call
Przyjrzyjmy się teraz symulacji parametru gamma dla europejskiej opcji call o takich samych
parametrach jak powyżej. Również w tym wypadku istnieje konkretny wzór, gdyż, jak podaje
[Hul09] na stronie 363, mamy
N 0 (d1 )
√ ,
Γ=
xσ T
gdzie d1 jest takie jak wcześniej we wzorze (3.18), zaś
x2
1
N 0 (x) = √ e− 2
2π
jest gęstością standardowego rozkładu normalnego. Wobec tego przy naszych parametrach
opcji dostajemy
Γ ≈ 0, 018762 .
W tym wypadku porównamy ze sobą metodę różnic skończonych z estymatorem
e−rT
u(x + h) + u(x − h) − 2u(x)
h2
58
1127473059(58)
(zob. np. [Ben02]), gdzie u(x) tak jak poprzednio jest estymatorem EQ [Φ(S(T ), x)], oraz
estymator otrzymany metodami rachunku Malliavina (por. wzór (3.11)), tzn.
"
e 2 (T )
e−rT
B
1
e )
Γ = 2 EQ Φ(S(T ))
− − B(T
x σT
σT
σ
!#
.
Tym razem dla każdej z metod wygenerowaliśmy 50000 liczb pseudolosowych, zaś w metodzie różnic skończonych przyjęliśmy h = 0, 000001 (staraliśmy się eksperymentalnie dobrać
wartość h, która dałaby najlepsze rezultaty).
0.08
Malliavin
Metoda RS
wart. rzeczywista
0.06
0.04
0.02
0
-0.02
-0.04
-0.06
-0.08
-0.1
-0.12
0
5000
10000
15000
20000
25000
30000
35000
40000
45000
50000
Rysunek 3.2: Symulacja gammy dla europejskiej opcji call.
Wykres pokazuje, że w przypadku przybliżania drugiej pochodnej metoda różnic skończonych działa w sposób wysoce niezadowalający. Z kolei estymator otrzymany za pomocą
rachunku Malliavina zbiega dość szybko do rzeczywistej wartości.
3.4.3. Delta azjatyckiej opcji call
Rozważmy opcję o funkcji wypłaty Φ(S̄(T )) = max{ T1 S̄(T ) − K, 0}, ustalając wszystkie
parametry takie jak w poprzednich przykładach. W tym wypadku nie istnieje konkretny
wzór na wartość delty, zatem pozostaje zdać się na symulacje komputerowe. Porównamy ze
sobą metodę różnic skończonych z estymatorem
e−rT
u(x + h) − u(x − h)
,
2h
gdzie u(x) jest estymatorem EQ [Φ(S̄(T ), x)], oraz otrzymany przez nas estymator ze wzoru
(3.14), tj.
"
!#
2e−rT
S(T ) − x
σ2
−r+
∆=
EQ Φ(S̄(T ))
.
xσ 2
2
S̄(T )
W tym przykładzie dla obu metod przeprowadziliśmy po 20000 symulacji, przy czym w każdej
z nich wygenerowaliśmy po 500 liczb losowych w celu
otrzymania realizacji trajektorii procesu
RT
e
{B(t)}t∈[0,T ] , aby dostać wartość całki S̄(T ) = 0 S(t)dt. Dla metody różnic skończonych
przyjęliśmy h = 0, 01.
59
3468892464(59)
0.8
Malliavin
Metoda RS
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0
2000
4000
6000
8000
10000
12000
14000
16000
18000
20000
Rysunek 3.3: Symulacja delty dla azjatyckiej opcji call.
Jak widać, metoda różnic skończonych sprawdza się tutaj nieco lepiej niż estymator otrzymany za pomocą rachunku Malliavina. Podobnie było w przypadku delty europejskiej opcji
call. Przykłady te wydają się więc potwierdzać hipotezę, że używanie rachunku Malliavina
dla opcji o ciągłej funkcji wypłaty nie daje żadnych korzyści w stosunku do metody różnic
skończonych.
3.4.4. Delta azjatyckiej opcji binarnej
0.05
Malliavin
Metoda RS
0.045
0.04
0.035
0.03
0.025
0.02
0.015
0.01
0.005
0
0
500
1000
1500
2000
2500
3000
3500
4000
Rysunek 3.4: Symulacja delty dla azjatyckiej opcji binarnej.
Tym razem rozważyliśmy opcję o funkcji wypłaty Φ = 1{ 1 S̄(T )>K} , przyjmując wszystkie
T
parametry tak jak poprzednio. Ponownie porównaliśmy metodę różnic skończonych i estyma60
1425917072(60)
tor uzyskany za pomocą rachunku Malliavina. W tym przykładzie przeprowadziliśmy po 4000
symulacji
dla każdej metody (i po 500 liczb pseudolosowych na każdą ścieżkę dla obliczenia
R
całki 0T S(t)dt). W metodzie różnic skończonych przyjęliśmy h = 1, gdyż zwiększanie tego
parametru wydawało się poprawiać jej działanie.
Na wykresie widzimy, że estymator otrzymany za pomocą rachunku Malliavina wydaje się
zbiegać do konkretnej wartości już po ok. 500 symulacjach, podczas gdy estymator metody
różnic skończonych potrzebuje na to ok. 2000 symulacji, a w dalszym ciągu również wykazuje
większe wahania.
61
1644950538(61)
3464694919(62)
Bibliografia
[AP05] Yves Achdou, Olivier Pironneau, Computational Methods for Option Pricing, Society
for Industrial and Applied Mathematics, 2005.
[Ben02] Eric Benhamou, Malliavin Calculus for Monte Carlo Methods in Finance, LSE Working Paper, 2002, dostępne na http://ssrn.com/abstract=298084.
[BG96] Mark Broadie, Paul Glasserman, Estimating Security Price Derivatives Using Simulation, Management Science, Vol. 42, No. 2 (1996) 269-285.
[DØP09] Giulia Di Nunno, Bernt Øksendal, Frank Proske, Malliavin Calculus for Lévy Processes with Applications to Finance, Springer, 2009.
[Dud04] R. M. Dudley, Real Analysis and Probability, Cambridge University Press, 2004.
[Fou99] Eric Fournié, Jean-Michel Lasry, Jérôme Lebuchoux, Pierre-Louis Lions, Nizar Touzi,
Applications of Malliavin Calculus to Monte Carlo Methods in Finance, Finance and
Stochastics, 3 (1999) 391-412.
[Gla04] Paul Glasserman, Monte Carlo Methods in Financial Engineering, Springer-Verlag,
2004.
[Hul09] John C. Hull, Options, Futures and Other Derivatives, Seventh Edition, Pearson
Education International, 2009.
[Itô51] Kiyosi Itô, Multiple Wiener Integral, J. Math. Soc. Japan, 3 (1951) 157-169.
[Jos08] Mark S. Joshi, C++ Design Patterns and Derivatives Pricing, Second Edition, Cambridge University Press, 2008.
[KKM02] Masato Koda, Arturo Kohatsu-Higa, Miquel Montero, An Application of Stochastic
Sensitivity Analysis to Financial Engineering, Institute of Policy and Planning Sciences
(2002) No. 980.
[Kle05] Fima C. Klebaner, Introduction to Stochastic Calculus with Applications, Imperial
College Press, 2005.
[Kuo06] Hui-Hsiung Kuo, Introduction to Stochastic Integration, Springer, 2006.
[Leo09] Giovanni Leoni, A First Course in Sobolev Spaces, American Mathematical Society,
2009.
[Nua06] David Nualart, The Malliavin Calculus and Related Topics, Second Edition,
Springer-Verlag, 2006.
63
1402637985(63)
[Nua12] Eulalia Nualart, Lectures on Malliavin Calculus and Its Applications, 2012.
[Øks97] Bernt Øksendal, An Introduction to Malliavin Calculus with Applications to Economics, 1997.
[Øks03] Bernt Øksendal, Stochastic Differential Equations, Sixth Edition, Springer-Verlag,
2003.
[Sch05] René L. Schilling, Measures, Integrals and Martingales, Cambridge University Press,
2005.
[Wei80] Joachim Weidmann, Linear Operators in Hilbert Spaces, Springer-Verlag, 1980.
64
1939441785(64)