Rachunek Malliavina z zastosowaniem w estymacji
Transkrypt
Rachunek Malliavina z zastosowaniem w estymacji
Uniwersytet Jagielloński Wydział Matematyki i Informatyki Mateusz Majka Nr albumu: 1027261 Rachunek Malliavina z zastosowaniem w estymacji parametrów greckich Praca magisterska na kierunku MATEMATYKA Praca wykonana pod kierunkiem dra hab. Piotra Kobaka Kraków 2012 5785716075(1) 2634520789(2) Spis treści Wprowadzenie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1. Całki stochastyczne . . . . . . . . . . 1.1. Całka wielokrotna Wienera - Itô . 1.2. Iterowana całka Itô . . . . . . . . . 1.3. Wielomiany Hermite’a . . . . . . . 1.4. Rozwinięcie w chaos Wienera - Itô 1.5. Całka Skorohoda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 7 12 15 18 22 2. Pochodna Malliavina . . . . . . . . . . . . . . . . . 2.1. Izonormalne procesy gaussowskie . . . . . . . . . 2.2. Pochodna Malliavina i jej własności . . . . . . . 2.3. Związek pochodnej Malliavina z całką Skorohoda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 27 28 38 3. Estymatory parametrów greckich . . . . . . 3.1. Parametry greckie . . . . . . . . . . . . . . 3.2. Klasyczne metody estymacji . . . . . . . . . 3.2.1. Metoda różnic skończonych . . . . . 3.2.2. Metoda pochodnej po trajektoriach . 3.2.3. Metoda stosunku wiarygodności . . 3.3. Estymatory z użyciem rachunku Malliavina 3.3.1. Delta opcji europejskiej . . . . . . . 3.3.2. Gamma opcji europejskiej . . . . . . 3.3.3. Vega opcji europejskiej . . . . . . . . 3.3.4. Delta opcji azjatyckiej . . . . . . . . 3.3.5. Gamma opcji azjatyckiej . . . . . . . 3.3.6. Vega opcji azjatyckiej . . . . . . . . 3.4. Eksperymenty numeryczne . . . . . . . . . . 3.4.1. Delta europejskiej opcji call . . . . . 3.4.2. Gamma europejskiej opcji call . . . 3.4.3. Delta azjatyckiej opcji call . . . . . . 3.4.4. Delta azjatyckiej opcji binarnej . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 41 42 42 44 46 47 48 49 50 51 53 55 57 57 58 59 60 Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 3 1651042345(3) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2078500745(4) Wprowadzenie W pracy tej przedstawiono pewien dział analizy stochastycznej znany jako rachunek Malliavina, a także zaprezentowano jego zastosowanie w matematyce finansowej do estymacji parametrów greckich. Teoria ta została stworzona w 1976 roku przez francuskiego matematyka Paula Malliavina, który używał jej do badania gęstości rozwiązań stochastycznych równań różniczkowych. W latach 90. zaczęły się pojawiać zastosowania rachunku Malliavina w matematyce finansowej. Na szczególną uwagę zasługuje tutaj praca [Fou99], w której przedstawiono sposoby obliczania estymatorów parametrów greckich, stanowiące w niektórych przypadkach interesującą alternatywę dla wcześniej stosowanych metod. Współcześnie wydaje się, że najpopularniejsze są dwa alternatywne podejścia do tej teorii - jedno autorstwa Bernta Øksendala, zaprezentowane w skrypcie [Øks97] i później rozwinięte w monografii [DØP09] oraz drugie, opisane w wydanym po raz pierwszy w 1995 roku podręczniku Davida Nualarta [Nua06], a także przedstawione w nieco bardziej przystępnej formie przez jego córkę Eulalię w skrypcie [Nua12]. W poniższej pracy połączyliśmy te dwa odmienne podejścia w sposób, który uznaliśmy za najbardziej optymalny. Mianowicie, zdecydowaliśmy się na zdefiniowanie pochodnej Malliavina w duchu książki Nualarta, gdyż uznaliśmy ten sposób za bardzo elegancki i przejrzysty, dający się łatwo uogólniać i pozwalający bez trudu zobaczyć analogię do klasycznego pojęcia gradientu funkcji w Rn . Z drugiej strony, wybraliśmy podejście do rozwinięć w chaos Wienera - Itô i do całki Skorohoda w stylu Øksendala, gdyż jest bardzo elementarne, a przy tym w zupełności wystarczające z punktu widzenia omawianych przez nas zastosowań. W rozdziałach 1 i 2 prezentujemy kompletne wprowadzenie teoretyczne do rachunku Malliavina oparte głównie na wymienionych wyżej źródłach. Poza połączeniem wspomnianych odmiennych podejść w unikalny, niespotykany w literaturze sposób, wzbogaciliśmy oryginalne teksty o liczne komentarze, uwagi i brakujące dowody. Rozdział pierwszy rozpoczyna sekcja poświęcona całce wielokrotnej Wienera - Itô, którą oparliśmy na sekcji 1.3 skryptu [Nua12] i na sekcji 9.6 książki [Kuo06] (teksty dotyczące tej całki są w obu źródłach bardzo podobne), uzupełniając ten tekst o przykład 1.1.5 oraz o dowody lematu 1.1.8 oraz twierdzenia 1.1.10, pozostawione w obu tych źródłach jako ćwiczenia. W sekcji 1.2 podajemy definicję iterowanej całki Itô dla funkcji deterministycznej taką jak w [DØP09] oraz prezentujemy twierdzenie wiążące to pojęcie z całką wielokrotną, wraz z dowodem pochodzącym z [Nua12]. Sformułowaliśmy też uwagę 1.2.3, mówiącą iż definicję całki iterowanej daje się rozszerzyć na pewną klasę procesów stochastycznych i że zachowuje się wtedy własność ortogonalności całek różnych rzędów. Fakty te okazują się niezwykle istotne w dowodzie twierdzenia o rozwinięciu w chaos Wienera - Itô pochodzącym z [DØP09], a mimo to autorzy tej pozycji nigdzie wprost o tym nie wspominają. W sekcji 1.3 definiujemy wielomiany Hermite’a, po czym prezentujemy pewien techniczny rezultat (twierdzenie 1.3.1), którego dowód pochodzi z [DØP09], a następnie prezentujemy nasz własny dowód wniosku 1.3.2 przedstawiającego istotne dla naszych dalszych rozważań własności tych wielomianów. Sekcję tę zamykamy dowodem twierdzenia pozwalającego obliczać całki wielokrotne z wykorzystaniem wielomianów Hermite’a, pocho5 3562029319(5) dzącym z [Nua12]. Kolejna sekcja to przede wszystkim dowód twierdzenia 1.4.1 zaczerpnięty z [DØP09], jednak podany przez nas w odrobinę uproszczonej wersji, z pominięciem pewnych szacowań obecnych w oryginale, które okazały się zbędne. Ostatnia sekcja pierwszego rozdziału poświęcona jest całce Skorohoda i oparta w całości na rozdziale drugim monografii [DØP09], przy czym samą definicję całki postawiliśmy ze względów technicznych nieco inaczej niż w tym źródle, a także dodaliśmy dowód lematu 1.5.6 pozostawiony tam jako ćwiczenie. Rozdział drugi rozpoczyna krótka sekcja poświęcona na wprowadzenie pojęcia izonormalnego procesu gaussowskiego, zgodnie ze skryptem [Nua12]. Dodaliśmy tutaj prosty przykład 2.1.1, na rzecz pominiętych bardziej wyrafinowanych przykładów z [Nua12], które jednak wykraczają poza zakres tej pracy. W sekcji 2.2 definiujemy w końcu pochodną Malliavina opierając się na [Nua12] i wprowadzając stosowne modyfikacje. Zauważamy, że lemat 2.2.2 można wypowiedzieć dla dowolnego p ∈ [1, ∞) (a nie tylko dla p = 2 jak w [Nua12]) i w celu jego udowodnienia przytaczamy lemat 2.2.1, którego dowód dla p = 1 można bez trudu znaleźć w literaturze, jednak dla pozostałych p nam się to nie udało i dlatego w tym przypadku prezentujemy nasz własny dowód. Następnie definiujemy pochodną Malliavina na przestrzeni gładkich zmiennych losowych i wykazujemy, że definicja ta jest poprawna (lemat 2.2.4 zaczerpnięty ponownie z [Nua12], przy czym jego dowód został przez nas rozpisany dużo dokładniej niż w oryginale). Dalej przedstawiamy dowód domykalności tak zdefiniowanej pochodnej Malliavina wraz z niezbędnymi lematami, uzupełniając tutaj tekst z [Nua12] o brakujący dowód reguły produktowej (lemat 2.2.7). Formułujemy w tym miejscu uwagę 2.2.10, w której podkreślamy analogię rozważanej sytuacji do klasycznej teorii przestrzeni Sobolewa. Następnie przedstawiamy dowód reguły łańcuchowej (twierdzenie 2.2.12), rozpisany trochę dokładniej niż oryginał z [Nua12]. Na koniec cytujemy z tego samego źródła dowód niezwykle ważnego rezultatu łączącego pochodną Malliavina z pojęciem rozwinięcia zmiennej losowej w chaos Wienera - Itô. W sekcji 2.3 cytujemy z [DØP09] trzy ważne twierdzenia łączące pochodną Malliavina z całką Skorohoda, przy czym dowód twierdzenia 2.3.2 przedstawiamy w uproszczonej wersji, gdyż na tym etapie dzięki zdefiniowaniu pochodnej Malliavina w odmienny sposób niż autorzy [DØP09], dysponujemy regułą produktową, z której oni nie mogli skorzystać. W rozdziale trzecim rozpoczynamy od krótkiego wprowadzenia do problematyki obliczania parametrów greckich, po czym w sekcji 3.2 prezentujemy trzy metody podejścia do tego zagadnienia niewykorzystujące rachunku Malliavina. Sekcja ta oparta jest głównie na rozdziale 7 książki [Gla04] oraz na pracy [BG96]. Następnie w sekcji 3.3 podajemy wraz z dowodem twierdzenie 3.3.1, które oparliśmy na propozycji 2.1 z [Nua12], jednak sformułowaliśmy je w prostszy sposób, w zupełności wystarczający dla naszych zastosowań. Mając przygotowany ten rezultat, przystępujemy do wyprowadzenia wzorów na estymatory parametrów greckich. Stosowane metody obliczeń oparliśmy na pracy [KKM02] oraz na przykładach ze skryptu [Nua12]. W przypadku opcji europejskich oraz dla delty opcji azjatyckiej zaprezentowaliśmy szczegółowo rozpisane wyprowadzenia wzorów dostępnych w wyżej wymienionych źródłach, zaś w przypadku gammy i vegi opcji azjatyckiej otrzymaliśmy nasze własne wzory, według naszej wiedzy niedostępne w literaturze. Na końcu pracy znajdują się rezultaty eksperymentów numerycznych, które przeprowadziliśmy za pomocą napisanego przez nas programu w języku C++, ilustrowane wykresami przygotowanymi z użyciem oprogramowania Gnuplot. Wykresy te prezentują porównanie tego, jak w konkretnych przypadkach działają metody estymacji parametrów greckich oparte na rachunku Malliavina oraz te niewykorzystujące tej teorii. 6 3373748291(6) Rozdział 1 Całki stochastyczne 1.1. Całka wielokrotna Wienera - Itô W tej sekcji zdefiniujemy pojęcie wielokrotnej całki Wienera - Itô, które będzie w dalszym ciągu pracy kluczowe ze względu na swoje powiązania z pochodną Malliavina i całką Skorohoda. Pojęcie to po raz pierwszy wprowadził Kiyosi Itô w pracy [Itô51]. Podobnie jak przy definiowaniu wielu innych rodzajów całek, wielokrotną całkę Wienera - Itô określa się najpierw na pewnej przestrzeni funkcji prostych, a następnie rozszerza definicję korzystając z aproksymacji. Jak zauważył Itô, stawiając wyjściową definicję dla tzw. funkcji prostych pozaprzekątniowych można otrzymać całkę wielokrotną, którą da się obliczać jako całkę iterowaną. Powie o tym twierdzenie 1.2.2. Ta sekcja pracy oparta jest w głównej mierze na monografii [Kuo06] oraz na skrypcie [Nua12]. Wprowadźmy pewne oznaczenia. Ustalmy przedział T := [a, b], gdzie 0 ¬ a < b < ∞, niech {B(t)}t∈T oznacza proces Wienera (ruch Browna) określony na przestrzeni probabilistycznej (Ω, F, P ), zaś {Ft }t∈T filtrację generowaną przez ten proces. Określamy ”zbiór przekątniowy” kostki T n dla n 1 jako D := {(t1 , . . . tn ) ∈ T n : ∃i 6= j takie, że ti = tj }. Zdefiniujemy najpierw całkę wielokrotną z funkcji schodkowej (prostej) zerującej się na zbiorze D. Definicja 1.1.1. Funkcję f : T n → R nazywamy schodkową, jeżeli jest ona postaci f= X ai1 ,i2 ,...,in 1[τi1 −1 ,τi1 )×[τi2 −1 ,τi2 )×···×[τin −1 ,τin ) , (1.1) 1¬i1 ,i2 ,...,in ¬k gdzie a = τ0 < τ1 < . . . < τk = b jest podziałem przedziału [a, b], ij ∈ N dla j ∈ {1, . . . , n}, zaś współczynniki ai1 ,i2 ,...,in są rzeczywiste. Funkcję schodkową będziemy nazywać pozaprzekątniową, jeżeli ai1 ,i2 ,...,in = 0 , gdy ip = iq dla pewnych p 6= q . Innymi słowy, funkcja pozaprzekątniowa jest to funkcja schodkowa zerująca się na zbiorze przekątniowym D. Rodzinę pozaprzekątniowych funkcji schodkowych na T n będziemy oznaczać przez En . Jak łatwo zauważyć, En jest przestrzenią wektorową. Definicja 1.1.2. Dla pozaprzekątniowej funkcji schodkowej danej wzorem (1.1), definiujemy n-krotną całkę Wienera - Itô jako In (f ) := X ai1 ,i2 ,...,in ξi1 ξi2 · · · ξin , 1¬i1 ,i2 ,...,in ¬k gdzie ξip = B(τip ) − B(τip −1 ) dla p ∈ {1, . . . n}. 7 2661045288(7) (1.2) Jak łatwo zauważyć, powyższa definicja jest poprawna, tzn. nie zależy od reprezentacji funkcji f w postaci (1.1). Ponadto In jest operatorem liniowym na En . Wprowadzimy teraz naturalne pojęcia funkcji symetrycznej oraz symetryzacji. Definicja 1.1.3. Funkcję f : T n → R nazywamy symetryczną, jeżeli dla dowolnej permutacji σ zbioru {1, . . . , n} oraz dla dowolnych t1 , . . . , tn ∈ T zachodzi f (tσ(1) , . . . , tσ(n) ) = f (t1 , . . . , tn ) . Przestrzeń funkcji symetrycznych całkowalnych z kwadratem na T n będziemy oznaczać przez e 2 (T n ). L Definicja 1.1.4. Jeżeli f jest funkcją określoną na T n o wartościach w R, to jej symetryzację fe : T n → R określamy jako fe(t1 , . . . , tn ) := 1 X f (tσ(1) , . . . , tσ(n) ) , n! σ gdzie w powyższym wzorze suma jest brana po wszystkich permutacjach σ zbioru {1, . . . , n}. Zauważmy, że funkcja f : T n → R jest symetryczna wtedy i tylko wtedy, gdy jest równa swojej symetryzacji, tzn. f = fe. Ponadto, jeśli f jest pozaprzekątniową funkcją schodkową, to jej symetryzacja fe również. Ponieważ miara Lebesgue’a jest symetryczna, to biorąc dowolną permutację σ zbioru {1, . . . , n} widzimy, że Z Tn |f (tσ(1) , . . . , tσ(n) )|2 dt1 . . . dtn = Z Tn |f (t1 , . . . , tn )|2 dt1 . . . dtn . Zatem na mocy nierówności Minkowskiego, kfekL2 (T n ) ¬ 1 X 1 kf kL2 (T n ) = n!kf kL2 (T n ) = kf kL2 (T n ) . n! σ n! (1.3) Czyli mamy nierówność kfekL2 (T n ) ¬ kf kL2 (T n ) . W ogólności, może to być nierówność silna. Przykład 1.1.5. Niech f będzie funkcją antysymetryczną, tzn. taką, że dla każdej permutacji σ zbioru {1, . . . , n} zachodzi f (tσ(1) , . . . , tσ(n) ) = sgn(σ)f (t1 , . . . , tn ), gdzie sgn(σ) oznacza znak permutacji σ. Zauważmy, że wówczas symetryzacja funkcji f jest funkcją stale równą zeru. Oczywiście istnieją jednak funkcje antysymetryczne, które mają niezerową normę w sensie L2 . Przykładowo, biorąc T = [0, 1], n = 2 i funkcję f (x, y) = −x + y widzimy, że fe = 0, ale kf k2L2 (T 2 ) = 61 . Lemat 1.1.6. Jeśli f ∈ En , to In (f ) = In (fe). Dowód. Ponieważ zarówno całka In , jak i operacja brania symetryzacji funkcji są liniowe, to wystarczy wykazać tezę lematu dla funkcji f = 1[t(1) ,t(2) )×[t(1) ,t(2) )×...×[t(1) ,t(2) ) , 1 (1) 1 2 2 n n (2) gdzie przedziały [ti , ti ), i ∈ {1, . . . , n} są parami rozłączne. Mamy wówczas In (f ) = n Y (2) i=1 8 2062921106(8) (1) (B(ti ) − B(ti )) . Z drugiej strony, fe = 1 X 1 (1) (2) . (1) (2) (1) (2) n! σ [tσ(1) ,tσ(1) )×[tσ(2) ,tσ(2) )×...×[tσ(n) ,tσ(n) ) Stąd n 1 XY (2) (1) e In (f ) = (B(tσ(i) ) − B(tσ(i) )) . n! σ i=1 Zauważmy jednak, że dla dowolnej permutacji σ zbioru {1, . . . , n} n Y (2) (1) (B(tσ(i) ) − B(tσ(i) )) = i=1 n Y (2) (1) (B(ti ) − B(ti )) , i=1 a wobec tego In (fe) = n n Y 1 XY (2) (1) (2) (1) (B(ti ) − B(ti )) = (B(ti ) − B(ti )) = In (f ) . n! σ i=1 i=1 Lemat 1.1.7. Niech f ∈ En , zaś g ∈ Em , gdzie n, m 1. Wtedy E[In (f )] = 0 oraz ( E[In (f )Im (g)] = 0, n!hfe, geiL2 (T n ) , gdy n 6= m, gdy n = m. (1.4) Dowód. Niech funkcja f będzie postaci (1.1). Wówczas współczynniki ai1 ,i2 ,...,in zerują się, gdy przedziały [τi1 −1 , τi1 ), . . . , [τin −1 , τin ) nie są parami rozłączne. Z drugiej strony, jeśli są one parami rozłączne, to E[ξi1 · · · ξin ] = 0 (gdyż przyrosty procesu Wienera są niezależne i mają zerową wartość oczekiwaną). Stąd E[In (f )] = 0. Na mocy lematu 1.1.6, możemy w dalszej części dowodu założyć, że funkcje f i g są symetryczne. Możemy też przyjąć, że zarówno f jak i g są skojarzone z tym samym podziałem a = τ0 < τ1 < . . . < τk = b przedziału [a, b] (biorąc ewentualnie wspólne rozdrobnienie dwóch różnych podziałów), tzn. zakładamy, że g jest postaci X g= bi1 ,i2 ,...,im 1[τi1 −1 ,τi1 )×[τi2 −1 ,τi2 )×···×[τim −1 ,τim ) , 1¬i1 ,i2 ,...,im ¬k gdzie bi1 ,i2 ,...,im = 0 gdy ip = iq dla p 6= q. Następnie zauważmy, że skoro funkcja f jest symetryczna, to dla dowolnej permutacji σ zbioru {1, . . . , n} mamy aiσ(1) ,iσ(2) ,...,iσ(n) = ai1 ,i2 ,...,in , a zatem możemy zapisać X In (f ) = n! ai1 ,i2 ,...,in ξi1 ξi2 · · · ξin . 1¬i1 <i2 <...<in ¬k Analogiczna równość jest prawdziwa dla funkcji g. Wykorzystując powyższą obserwację, możemy obliczyć E[In (f )Im (g)] = n!m! X X 1¬i1 <...<in ¬k 1¬j1 <...<jm ¬k 9 1997848716(9) ai1 ,...,in bj1 ,...,jm E[ξi1 · · · ξin ξj1 · · · ξjm ] . Zauważmy teraz, że dla ustalonego zbioru indeksów i1 < . . . < in , na mocy własności przyrostów procesu Wienera mamy n p=1 (τip (Q E[ξi1 · · · ξin ξj1 · · · ξjm ] = − τip −1 ), 0, gdy n = m oraz j1 = i1 , . . . , jn = in , w przeciwnym wypadku. Stąd już widać, że E[In (f )Im (g)] = 0, gdy n 6= m, zaś w przeciwnym razie X E[In (f )In (g)] = (n!)2 ai1 ,...,in bi1 ,...,in 1¬i1 <...<in ¬k X = n! ai1 ,...,in bi1 ,...,in 1¬i1 ,...,in ¬k n Y (τip − τip −1 ) p=1 n Y (τip − τip −1 ) p=1 Z = n! Tn f (t1 , . . . , tn )g(t1 , . . . , tn )dt1 . . . dtn = n!hfe, geiL2 (T n ) . W szczególności, biorąc w powyższym lemacie g = f , dostajemy równość E[In (f )2 ] = n!kfek2L2 (T n ) . Wiemy jednak, że kfekL2 (T n ) ¬ kf kL2 (T n ) , a zatem In : En → L2 (Ω) jest operatorem ograniczonym. Pokażemy teraz, że En jest gęstą podprzestrzenią L2 (T n ), dzięki czemu będziemy mogli rozszerzyć operator In na całe L2 (T n ). Lemat 1.1.8. Niech f ∈ L2 (T n ). Wtedy istnieje ciąg {fk }∞ n=1 funkcji schodkowych pozaprzekątniowych, taki, że lim kfk − f kL2 (T n ) = 0 . k→∞ Dowód. Zauważmy, że zbiór przekątniowy D można zapisać jako D = i6=j [{ti = tj } ∩ D], tzn. D jest skończoną sumą przecięć (n − 1) -wymiarowych hiperpłaszczyzn z D. Wobec tego n-wymiarowa miara Lebesgue’a zbioru D wynosi 0. Zatem jeśli f ∈ L2 (T n ), to na mocy twierdzenia Lebesgue’a o zmajoryzowanym przejściu granicznym, dla ustalonego ε > 0 możemy znaleźć δ > 0 tak małe, że S Z f 2 (t1 , . . . , tn )dt1 . . . dtn < Dδ ε , 2 (1.5) gdzie Dδ = {x ∈ T n : dist(x, D) < δ}. Z drugiej strony, z teorii miary wiemy, że funkcje proste są gęste w L2 . W szczególności, rozważając funkcję f |Dδc ∈ L2 (Dδc ), gdzie Dδc := T n \ Dδ , wiemy, że istnieje funkcja ϕ postaci P c ϕ= m i=1 ai 1Ai , gdzie Ai ⊂ Dδ są n-wymiarowymi prostokątami dla i ∈ {1, . . . , m}, taka, że Z Dδc |f (t1 , . . . , tn ) − ϕ(t1 , . . . , tn )|2 dt1 . . . dtn < ε . 2 (1.6) Zwróćmy uwagę, że funkcja ϕ zeruje się na Dδ , zatem jest to funkcja schodkowa pozaprzekątniowa. Na podstawie nierówności (1.5) i (1.6) dostajemy Z Tn |f (t1 , . . . , tn ) − ϕ(t1 , . . . , tn )|2 dt1 . . . dtn < ε , co kończy dowód. 10 1936723444(10) 2 n Niech teraz f ∈ L2 (T n ) i niech {fk }∞ n=1 ⊂ En będzie ciągiem aproksymującym f w L (T ) tak jak w powyższym lemacie. Wówczas, na mocy lematu 1.1.7, liniowości In oraz nierówności (1.3) E[(In (fk ) − In (fl ))2 ] = n!kfek − fel k2L2 (T n ) ¬ n!kfk − fl k2L2 (T n ) → 0 , 2 gdy k, l → ∞. Wobec tego, ciąg {In (fk )}∞ k=1 jest ciągiem Cauchy’ego w L (Ω). Możemy zatem zdefiniować In (f ) := lim In (fk ) , w sensie L2 (Ω) . (1.7) k→∞ Jak łatwo zauważyć, definicja In (f ) jest poprawna, tzn. nie zależy od wyboru ciągu aproksymującego {fk }∞ n=1 (wystarczy zastosować standardowy argument z braniem ciągów naprzemiennych). Definicja 1.1.9. Jeśli f ∈ L2 (T n ), to zmienną losową In (f ) ∈ L2 (Ω) zdefiniowaną równaniem (1.7) nazywamy wielokrotną całką Wienera - Itô i oznaczamy ją przez Z Tn f (t1 , . . . , tn )dB(t1 ) . . . dB(tn ) . Dla n = 1 definicja ta pokrywa się ze zwykłą całką Itô z funkcji deterministycznej. Zauważmy, że lematy 1.1.6 oraz 1.1.7 można w prosty sposób, korzystając z lematu 1.1.8, rozszerzyć na funkcje z L2 (T n ). Twierdzenie 1.1.10. Niech f ∈ L2 (T n ), g ∈ L2 (T m ) dla n, m 1. Wtedy (i) In (f ) = In (fe), (ii) E[In (f )] = 0, (iii) ( E[In (f )Im (g)] = 0, n!hfe, geiL2 (T n ) , gdy n 6= m, gdy n = m. 2 n Dowód. Jeśli f ∈ L2 (T n ), to istnieje {fk }∞ n=1 ⊂ En taki, że fk → f w L (T ), gdy k → ∞. 2 Wtedy In (fk ) → In (f ) w L (Ω), gdy k → ∞. Zauważmy jednak, że na mocy lematu 1.1.6 In (fk ) = In (fek ) dla k 1, tzn. In (fek ) → In (f ) w L2 (Ω), gdy k → ∞. Z drugiej strony, korzystając z nierówności (1.3), widzimy, że fek → fe w L2 (T n ), gdy k → ∞. Stąd mamy In (fek ) → In (fe) w L2 (Ω), gdy k → ∞, a w konsekwencji In (f ) = In (fe). W celu udowodnienia punktu (ii) zauważmy, że zbieżność In (fk ) → In (f ) w L2 (Ω), gdy k → ∞, pociąga za sobą zbieżność słabą w L2 (Ω). W szczególności, E[In (fk )·1] → E[In (f )·1], gdy k → ∞, a stąd E[In (f )] = 0. 2 m Pozostaje wykazać punkt (iii). Ustalmy ciąg {gl }∞ l=1 ⊂ Em taki, że gl → g w L (T ), gdy l → ∞. Wówczas Im (gl ) → Im (g) w L2 (Ω), gdy l → ∞. Ustalmy l ∈ N+ i zauważmy, że na 2 mocy słabej zbieżności ciągu {In (fk )}∞ k=1 w L (Ω) E[In (fk )Im (gl )] → E[In (f )Im (gl )] , gdy k → ∞ . Jednak na mocy lematu 1.1.7 wiemy, że ( E[In (fk )Im (gl )] = 0, n!hfek , gel iL2 (T n ) , 11 2046821952(11) gdy n 6= m, gdy n = m. 2 n Powołując się na słabą zbieżność ciągu {fek }∞ k=1 w L (T ) i przechodząc z k → ∞ w powyższym wzorze widzimy więc, że dla dowolnie ustalonego l ∈ N+ zachodzi ( 0, n!hfe, gel iL2 (T n ) , E[In (f )Im (gl )] = gdy n 6= m, gdy n = m. (1.8) 2 el }∞ Korzystając tym razem ze słabej zbieżności ciągu {Im (gl )}∞ l=1 w L (Ω) oraz ciągu {g l=1 2 m w L (T ) i przechodząc w (1.8) z l → ∞ dostajemy w końcu ( E[In (f )Im (g)] = 0, n!hfe, geiL2 (T n ) , gdy n 6= m, gdy n = m. 1.2. Iterowana całka Itô W tej sekcji zdefiniujemy iterowaną całkę Itô, opierając się na monografii [DØP09]. Następnie wykażemy twierdzenie wiążące całkę iterowaną ze zdefiniowaną uprzednio wielokrotną całką Wienera - Itô. Rozważmy zbiór Sn = {(t1 , . . . , tn ) ∈ T n : a ¬ t1 ¬ . . . ¬ tn ¬ b} i zauważmy, że λn (Sn ) = 1 n n n n! λ (T ), gdzie λ oznacza n-wymiarową miarę Lebesgue’a. Wobec tego dla dowolnej funkcji 2 n e (T ) będziemy mieli g∈L Z kgk2L2 (T n ) = n! Sn g 2 (t1 , . . . , tn )dt1 . . . dtn = n!kgk2L2 (Sn ) . (1.9) Definicja 1.2.1. Niech f będzie funkcją określoną na Sn o wartościach w R, całkowalną z kwadratem, tzn. niech kf kL2 (Sn ) < ∞. Wówczas możemy zdefiniować n-krotną iterowaną całkę Itô jako Z b Z tn Jn (f ) := a ··· a Z t3 Z t2 f (t1 , . . . , tn )dB(t1 )dB(t2 ) . . . dB(tn−1 )dB(tn ) . a (1.10) a Zauważmy, że powyższa definicja jest poprawna. Istotnie, ustalmy i ∈ {1, . . . , n} oraz ti+1 ¬ ti+2 ¬ . . . ¬ tn ¬ b i połóżmy Z ti Jbti (f ) := ··· Z t2 f (t1 , . . . , tn )dB(t1 ) . . . dB(ti−1 ) , a a dla ti ∈ [a, ti+1 ]. Z własności całki Itô wiemy, że zmienna losowa Jbti (f ) jest Fti -mierzalna. Ponadto Z ti+1 E a Z ti+1 2 b Jti (f ) dti = E[Jbti (f )]2 dti a "Z Z Z ti+1 = a ti E ti−1 a Z ti+1 Z ti = ... = a ··· a a ··· 2 Z t2 f (t1 , . . . , tn )dB(t1 ) . . . dB(ti−2 ) # dti−1 dti a Z t2 f 2 (t1 , . . . , tn )dt1 . . . dti < ∞ , a (1.11) gdzie skorzystaliśmy kolejno z twierdzenia Fubiniego oraz z izometrii Itô, a następnie powtórzyliśmy tę operację i − 1 razy i otrzymaliśmy wartość, która jest skończona dla prawie wszystkich ti+1 ¬ ti+2 ¬ . . . ¬ tn ¬ b takich, że (t1 , . . . , tn ) ∈ Sn , gdyż z założenia 12 3280393605(12) kf kL2 (Sn ) < ∞. Oznacza to, że proces stochastyczny {Jbti (f )}ti ∈[a,ti+1 ] jest całkowalny z kwaR dratem na przestrzeni Ω×[a, ti+1 ]. Wnioskujemy stąd, że całka Itô ati+1 Jbti (f )dB(ti ) ma sens, a zatem wyrażenie (1.10) poprawnie definiuje pewną zmienną losową. Co więcej, powtarzając rozumowanie (1.11) możemy łatwo pokazać, że E[Jn (f )]2 < ∞, tzn. Jn (f ) ∈ L2 (Ω). Twierdzenie 1.2.2. Niech f ∈ L2 (T n ), n 1. Wtedy Z Tn f (t1 , . . . , tn )dB(t1 ) . . . dB(tn ) Z b Z tn = n! a ··· a Z t2 fe(t1 , . . . , tn−1 , tn )dB(t1 ) . . . dB(tn−1 )dB(tn ) . a Dowód. Zaczniemy od wykazania tezy dla dowolnej funkcji f ∈ En . Zauważmy przy tym, że ze względu na liniowość zarówno całki wielokrotnej jak i całki iterowanej oraz liniowość operacji brania symetryzacji, wystarczy pokazać tezę dla funkcji charakterystycznej n-wymiarowego prostokąta rozłącznego ze zbiorem D. Będziemy zatem rozważać funkcję postaci f (t1 , . . . , tn ) = 1[t(1) ,t(2) )×[t(1) ,t(2) )×...×[t(1) ,t(2) ) (t1 , . . . , tn ) , 1 (1) 1 2 n 2 n (2) gdzie przedziały [ti , ti ), i ∈ {1, . . . , n} są parami rozłączne. Ponadto, ponieważ In (f ) = (1) (2) (1) (2) (1) (2) In (fe), możemy bez straty ogólności przyjąć, że t1 < t1 ¬ t2 < t2 ¬ . . . ¬ tn−1 < tn−1 ¬ (1) (2) tn < tn . Wówczas Z Tn f (t1 , . . . , tn )dB(t1 ) . . . dB(tn ) = n Y (2) (1) (B(ti ) − B(ti )) . i=1 Z drugiej strony zauważmy, że dla funkcji f zdefiniowanej jak wyżej, zachodzi równość fe = na zbiorze {t1 < . . . < tn−1 < tn }. Stąd mamy Z t2 fe(t1 , . . . , tn )dB(t1 ) = a 1 n! f 1 (2) (1) (B(t1 ) − B(t1 ))1[t(1) ,t(2) )×...×[t(1) ,t(2) ) (t2 , . . . , tn ) . n n n! 2 2 Możemy potraktować powyższe wyrażenie jako proces stochastyczny indeksowany zmienną (1) (2) (2) (1) t2 . Jest on wtedy stały dla t2 ∈ [t2 , t2 ), jest też Ft(1) - mierzalny (skoro t1 ¬ t2 ). Możemy 2 go zatem scałkować względem B(t2 ) i otrzymamy Z t3 Z t2 fe(t1 , . . . , tn )dB(t1 )dB(t2 ) a a = 1 (2) (1) (2) (1) (B(t1 ) − B(t1 ))(B(t2 ) − B(t2 ))1[t(1) ,t(2) )×...×[t(1) ,t(2) ) (t3 , . . . , tn ) . n n n! 3 3 Iterując powyższą procedurę, otrzymamy Z b Z tn a ··· a Z t2 a n 1 Y (2) (1) e f (t1 , . . . , tn−1 , tn )dB(t1 ) . . . dB(tn−1 )dB(tn ) = (B(ti ) − B(ti )) . n! i=1 Stąd mamy tezę dla f ∈ En . Jeśli teraz f ∈ L2 (T n ) jest dowolna, to istnieje ciąg {fk }∞ k=1 ⊂ En 2 n 2 taki, że fk → f w L (T ), gdy k → ∞. Stąd oczywiście In (fk ) → In (f ) w L (Ω), gdy k → ∞. Ponadto, na mocy nierówności (1.3), fek → fe w L2 (T n ) gdy k → ∞, a wobec tego, na mocy 13 3278939647(13) równości (1.9), również fek → fe w L2 (Sn ), gdy k → ∞. Zauważmy następnie, że na mocy zastosowanej n razy izometrii Itô " Z Z tn b E a Z t2 ··· a a "Z =E fek (t1 , . . . , tn ) − fe(t1 , . . . , tn ) dB(t1 ) . . . dB(tn−1 )dB(tn ) b Z tn ··· a = a Z t2 a a "Z tn Z b 2 # ··· E Z t2 a a Z b Z tn = ... = ··· fek (t1 , . . . , tn ) − fe(t1 , . . . , tn ) dB(t1 ) . . . dB(tn−1 ) a # dtn 2 # e e fk (t1 , . . . , tn ) − f (t1 , . . . , tn ) dB(t1 ) . . . dB(tn−1 ) dtn Z t2 a a 2 2 fek (t1 , . . . , tn ) − fe(t1 , . . . , tn ) dt1 . . . dtn−1 dtn . Zatem Jn (fek ) → Jn (fe) w L2 (Ω), gdy k → ∞, a ponieważ na mocy pierwszej części dowodu mamy In (fk ) = n!Jn (fek ) dla wszystkich k 1, to dowód jest zakończony. Uwaga 1.2.3. Zauważmy, że iterowaną całkę Itô Jn (f ) można zdefiniować również wtedy, gdy f jest procesem stochastycznym (indeksowanym za pomocą n zmiennych czasowych) określonym na Ω × Sn , adaptowanym do filtracji {Ft }t∈T ze względu na swoją pierwszą współrzędną czasową i całkowalnym z kwadratem, tzn. f ∈ L2 (Ω × Sn ). Wówczas możemy powtórzyć rozumowanie (1.11) i pokazać, że definicja Jn (f ) jest poprawna. Ponadto, jeśli m < n oraz g jest funkcją deterministyczną z L2 (Sm ), to stosując m razy izometrię Itô otrzymamy " Z Z b sm E[Jm (g)Jn (f )] = E Z b Z sm a a ··· g(s1 , . . . , sm )dB(s1 ) . . . dB(sm ) · a a !# f (t1 , . . . , tn−m , s1 , . . . , sm )dB(t1 ) . . . dB(tn−m )dB(s1 ) . . . dB(sm ) a Z b " Z sm a ! Z t2 a = ··· Z s2 E ··· Z s2 a a Z sm ··· g(s1 , . . . , sm )dB(s1 ) . . . dB(sm−1 ) · # Z t2 f (t1 , . . . , tn−m , s1 , . . . , sm )dB(t1 ) . . . dB(tn−m ) . . . dB(sm−1 ) a dsm a Z b Z sm = ... = a ··· "Z Z s2 s1 g(s1 , . . . , sm )E a a a ··· Z t2 f (t1 , . . . , tn−m , s1 , . . . , sm ) a # dB(t1 ) . . . dB(tn−m ) ds1 . . . dsm = 0 , (1.12) ponieważ wartość oczekiwana całki Itô jest równa zeru. Oczywiście w przypadku, gdy zarówno g jak i f są funkcjami deterministycznymi, odpowiednio w L2 (Sm ) i L2 (Sn ), rezultat (1.12) można otrzymać stosując po prostu twierdzenie 1.1.10 oraz twierdzenie 1.2.2. 14 3837648558(14) 1.3. Wielomiany Hermite’a Ze względu na swój związek z wielokrotnymi całkami Wienera - Itô, interesować nas będą tak zwane wielomiany Hermite’a. Dla x ∈ R, n ∈ N oraz λ > 0 definiujemy x2 Hn (x, λ) := (−λ)n e 2λ dn − x2 (e 2λ ) dxn W szczególności będziemy stosować oznaczenie Hn (x) := Hn (x, 1). Dla przykładu, wielomiany Hermite’a dla n = 0, 1, 2, 3 dane są wzorami H0 (x, λ) = 1 , H1 (x, λ) = x , H2 (x, λ) = x2 − λ , H3 (x, λ) = x3 − 3λx . Wykażemy teraz twierdzenie, dzięki któremu w prosty sposób będziemy mogli otrzymać istotne dla nas własności wielomianów Hermite’a. Twierdzenie 1.3.1. Przy oznaczeniach jak wyżej, exp{tx − ∞ n X t t2 λ }= Hn (x, λ) 2 n! n=0 √ Dowód. Oznaczmy u := t λ. Wówczas tx − t2 λ x u2 1 x x2 = u√ − = − ( √ − u)2 + . 2 2 2 λ 2λ λ Wobec tego exp{tx − t2 λ x2 1 x } = exp{ } exp{− ( √ − u)2 } 2 2λ 2 λ ∞ 2 n X x u dn 1 x = exp{ } exp{− ( √ − u)2 } |u=0 n 2λ n=0 n! du 2 λ = exp{ ∞ n n d un x2 X w2 } (−λ) 2 exp{− } |w=x n 2λ n=0 n! dw 2λ = exp{ ∞ n t x2 X dn x2 } (−λ)n n exp{− } , 2λ n=0 n! dx 2λ gdzie w trzeciej równości zastosowaliśmy podstawienie n dn 2 dwn (−λ) ). √x λ −u= w √ λ (wówczas mamy dn dun = Jako wniosek wykażemy teraz kilka prostych własności wielomianów Hn (x, λ). Wniosek 1.3.2. Przy powyższych oznaczeniach, dla n 1 zachodzą następujące wzory ∂ Hn (x, λ) = nHn−1 (x, λ) , ∂x Hn+1 (x, λ) = xHn (x, λ) − λnHn−1 (x, λ) , n (1.14) Hn (−x, λ) = (−1) Hn (x, λ) , (1.15) ∂ 1 ∂2 Hn (x, λ) = − Hn (x, λ) . ∂λ 2 ∂x2 (1.16) 15 2737673446(15) (1.13) Dowód. W celu udowodnienia wzoru (1.13) zauważmy, że ∞ n+1 ∞ X X ∂ t2 λ t2 λ t tn exp{tx − } = t exp{tx − }= Hn (x, λ) = Hn−1 (x, λ) . ∂x 2 2 n! (n − 1)! n=0 n=1 Z drugiej strony, ∞ n X t2 λ t ∂ ∂ exp{tx − }= Hn (x, λ) . ∂x 2 n! ∂x n=0 Porównując wyrazy przy odpowiednich potęgach t, dostajemy (1.13). Podobnie, chcąc wykazać (1.14) różniczkujemy ∂ t2 λ t2 λ exp{tx − } = (x − λt) exp{tx − } ∂t 2 2 ∞ n ∞ n+1 X X t t =x Hn (x, λ) − λ Hn (x, λ) n! n! n=0 n=0 =x ∞ n X t n=0 n! Hn (x, λ) − λ ∞ X tn Hn−1 (x, λ) , (n − 1)! n=1 a następnie porównujemy to rozwinięcie z rozwinięciem uzyskanym za pomocą różniczkowania szeregu wyraz po wyrazie ∞ X ∂ t2 λ ntn−1 exp{tx − }= Hn (x, λ) ∂t 2 n! n=0 = = ∞ X tn−1 Hn (x, λ) (n − 1)! n=0 ∞ n X t n=1 n! Hn+1 (x, λ) . Wzór (1.15) jest oczywisty, zaś po zróżniczkowaniu ∂ t2 λ t2 t2 λ exp{tx − } = − exp{tx − } ∂λ 2 2 2 ∞ n+2 t 1X =− Hn (x, λ) 2 n=0 n! =− ∞ tn 1X Hn−2 (x, λ) , 2 n=2 (n − 2)! i zauważeniu, że na mocy zastosowanego dwukrotnie wzoru (1.13), n(n − 1)Hn−2 (x, λ) = ∂2 ∂x2 Hn (x, λ), dostajemy wzór (1.16). Wykażemy teraz twierdzenie, które pozwoli nam obliczać wielokrotne całki Wienera - Itô za pomocą wielomianów Hermite’a. Twierdzenie 1.3.3. Niech f ∈ L2 (T ) oraz n 1. Wtedy In (f ⊗n Z b ) = Hn a ! f (t)dB(t), kf k2L2 (T ) , gdzie f ⊗n oznacza n-tą potęgę tensorową funkcji f , tzn. f ⊗n jest funkcją n zmiennych daną wzorem f ⊗n (t1 , . . . tn ) = f (t1 ) · . . . · f (tn ). 16 2004392155(16) Dowód. Zastosujemy indukcję względem n. Jeśli n = 1, to ponieważ H1 (x, λ) = x, mamy I1 (f ⊗1 Z b Z b f (t)dB(t) = H1 )= a a ! f (t)dB(t), kf k2L2 (T ) . Załóżmy teraz, że teza jest prawdziwa dla pewnego n i korzystając z twierdzenia 1.2.2 zapiszmy In+1 (f ⊗n+1 ) = (n + 1)! Z b f (tn+1 )X(tn+1 )dB(tn+1 ) , a gdzie Z t Z tn X(t) = ··· a a Z t2 f (t1 ) · · · f (tn )dB(t1 ) . . . dB(tn ) . a Korzystając ponownie z twierdzenia 1.2.2 oraz z założenia indukcyjnego, dostajemy 1 X(t) = f (t1 ) · · · f (tn )dB(t1 ) . . . dB(tn ) n! [a,t]n Z t Z t 1 f (s)dB(s), f 2 (s)ds . = Hn n! a a Z Stąd otrzymujemy In+1 (f ⊗n+1 ) = (n + 1) Z b Z tn+1 Z tn+1 f (tn+1 )Hn f (s)dB(s), a f 2 (s)ds dB(tn+1 ) . a a Z drugiej strony, stosując wzór Itô do funkcji Hn+1 (x, λ) dostajemy Z t dHn+1 a Z t ∂ f (s)ds = f (s)dB(s), Hn+1 f (t)dB(t) ∂x a ! 1 ∂2 ∂ 2 + Hn+1 f (t)dt + Hn+1 f 2 (t)dt . 2 ∂x2 ∂λ 2 Korzystając ze wzorów (1.13) i (1.16) widzimy więc, że Z t dHn+1 Z t f (s)dB(s), a Z t 2 f (s)ds = (n + 1)f (t)Hn a Z t f (s)ds dB(t) , f (s)dB(s), a 2 a a stąd ! Z b f (t)dB(t), kf k2L2 (T ) Hn+1 a Z b = Z t Z t f (s)dB(s), (n + 1)f (t)Hn a a f 2 (s)ds dB(t) . a Wobec tego In+1 (f ⊗n+1 Z b ) = Hn+1 a ! f (t)dB(t), kf k2L2 (T ) , co kończy dowód. Przykład 1.3.4. Jako prosty przykład, policzmy z wykorzystaniem twierdzenia 1.3.3 całkę trzykrotną z funkcji stale równej 1. Ponieważ kwadrat normy takiej funkcji w przestrzeni R L2 (T ) jest równy b − a, jej całka Itô ab dB(t) = B(b) − B(a) oraz H3 (x, λ) = x3 − 3λx, to mamy Z T3 1dB(t1 )dB(t2 )dB(t3 ) = (B(b) − B(a))3 − 3(b − a)(B(b) − B(a)) . 17 2458763699(17) 1.4. Rozwinięcie w chaos Wienera - Itô Udowodnimy teraz kluczowe dla naszych dalszych rozważań twierdzenie mówiące o tym, iż każda zmienna losowa z L2 (Ω) mierzalna względem odpowiedniej σ-algebry daje się przedstawić jako suma szeregu wielokrotnych całek Wienera - Itô. Twierdzenie to w ogólnej postaci, wykorzystującej pojęcie tzw. chaosu Wienera, można znaleźć np. w monografii [Nua06] (Twierdzenie 1.1.1). W tej pracy ograniczymy się do jego szczególnego przypadku. Przedstawiony poniżej dowód jest oparty na dowodzie, który można znaleźć np. w [DØP09] lub [Øks97]. Twierdzenie 1.4.1. Niech ξ będzie Fb - mierzalną zmienną losową w L2 (Ω). Wówczas iste2 n nieje dokładnie jeden ciąg {fn }∞ n=0 funkcji fn ∈ L (T ) taki, że ξ= ∞ X In (fn ) , (1.17) n=0 gdzie f0 = E[F ], przez I0 oznaczamy odwzorowanie identycznościowe, zaś zbieżność powyższego szeregu rozumiana jest w sensie przestrzeni L2 (Ω). Co więcej, mamy następującą izometrię kξk2L2 (Ω) = ∞ X n!kfn k2L2 (T n ) (1.18) n=0 Dowód. Na mocy twierdzenia Itô o reprezentacji, istnieje {Ft }t∈T - adaptowany proces ϕ1 (s1 ), s1 ∈ [a, b], taki, że Z b ξ = E[ξ] + ϕ1 (s1 )dB(s1 ) . (1.19) a Podnosząc (1.19) obustronnie do kwadratu dostajemy 2 ϕ1 (s1 )dB(s1 ) ϕ1 (s1 )dB(s1 ) + ξ = (E[ξ]) + 2E[ξ] !2 Z b Z b 2 , (1.20) a a zaś po obłożeniu równości (1.20) operatorem wartości oczekiwanej i skorzystaniu z podstawowych własności całki Itô mamy "Z E[ξ 2 ] = (E[ξ])2 + E b a # ϕ21 (s1 )ds1 . (1.21) Stąd już łatwo widać, że "Z E b a # ϕ21 (s1 )ds1 ¬ E[ξ 2 ] < ∞ . (1.22) Na podstawie (1.22) wnioskujemy, że dla prawie wszystkich s1 ∈ [a, b] mamy E[ϕ21 (s1 )] < ∞, a zatem możemy ponownie zastosować twierdzenie Itô o reprezentacji i otrzymujemy proces {Ft }t∈T - adaptowany ϕ2 (s2 , s1 ), s2 ∈ [a, s1 ] taki, że Z s1 ϕ1 (s1 ) = E[ϕ1 (s1 )] + ϕ2 (s2 , s1 )dB(s2 ) . (1.23) a Ponadto, powtarzając przekształcenia (1.19)-(1.22), otrzymujemy oszacowanie Z s1 E a ϕ22 (s2 , s1 )ds2 ¬ E[ϕ21 (s1 )] < ∞ . 18 1329180580(18) (1.24) Wprowadzając oznaczenia g0 = E[ξ] g1 (s1 ) = E[ϕ1 (s1 )] i podstawiając (1.23) do (1.19) dostajemy Z b Z s1 Z b ϕ2 (s2 , s1 )dB(s2 )dB(s1 ) . g1 (s1 )dB(s1 ) + ξ = g0 + a a (1.25) a Kontynuując nasze rozumowanie, wnioskujemy z nierówności (1.24), że dla prawie wszystkich s2 ∈ [a, s1 ] zachodzi E[ϕ22 (s2 , s1 )] < ∞, a zatem korzystając z twierdzenia Itô o reprezentacji, dostaniemy {Ft }t∈T - adaptowany proces ϕ3 (s3 , s2 , s1 ), s3 ∈ [a, s2 ] taki, że Z s2 ϕ2 (s2 , s1 ) = E[ϕ2 (s2 , s1 )] + ϕ3 (s3 , s2 , s1 )dB(s3 ) , (1.26) a oraz spełnione jest oszacowanie Z s2 E a ϕ23 (s3 , s2 , s1 )ds3 ¬ E[ϕ22 (s2 , s1 )] < ∞ . Określając g2 (s2 , s1 ) = E[ϕ2 (s2 , s1 )] , i podstawiając (1.26) do (1.25) dostaniemy Z b Z s1 Z b g2 (s2 , s1 )dB(s2 )dB(s1 ) g1 (s1 )dB(s1 ) + ξ = g0 + a a a Z b Z s1 Z s2 ϕ3 (s3 , s2 , s1 )dB(s3 )dB(s2 )dB(s1 ) . + a a a Powtarzając dalej powyższy schemat postępowania, po n krokach otrzymamy proces stochastyczny ϕn+1 (t1 , t2 , . . . , tn+1 ), a ¬ t1 ¬ t2 ¬ . . . ¬ tn+1 ¬ b (określony prawie wszędzie na Sn+1 ) oraz n + 1 deterministycznych funkcji g0 , g1 , . . . , gn , gdzie g0 jest stała, zaś gk jest zdefiniowana na Sk dla k ∈ {1, . . . , n}. Spełnione będzie równanie ξ= n X Z Jk (gk ) + ϕn+1 dB ⊗(n+1) , Sn+1 k=0 gdzie Z ϕn+1 dB ⊗(n+1) := Sn+1 Z b Z tn+1 a ··· a Z t2 ϕn+1 (t1 , . . . , tn+1 )dB(t1 ) . . . dB(tn+1 ) . a Będziemy teraz chcieli pokazać, że ciąg zmiennych losowych Z ϕn+1 dB ⊗(n+1) , ψn+1 := Sn+1 jest zbieżny do zera w normie L2 (Ω). W tym celu zauważmy, że na mocy uwagi 1.2.3 mamy hψn+1 , Jk (fk )iL2 (Ω) = 0 , 19 5731515724(19) (1.27) dla wszystkich k ¬ n oraz dowolnych funkcji fk ∈ L2 (Sk ). Zatem z twierdzenia Pitagorasa kξk2L2 (Ω) = n X kJk (gk )k2L2 (Ω) + kψn+1 k2L2 (Ω) . k=0 W szczególności, n X kJk (gk )k2L2 (Ω) ¬ kξk2L2 (Ω) , dla n = 1, 2, . . . , k=0 a zatem ∞ X kJk (gk )k2L2 (Ω) ¬ kξk2L2 (Ω) < ∞ . k=0 P∞ k=0 Jk (gk ) Wobec tego szereg jest zbieżny w L2 (Ω), a w konsekwencji lim ψn+1 =: ψ , n→∞ istnieje w L2 (Ω). Ponieważ zbieżność w normie implikuje zbieżność słabą, to na mocy (1.27) mamy hψ, Jk (fk )iL2 (Ω) = 0 , dla wszystkich k ∈ N oraz fk ∈ L2 (Sk ). Na podstawie twierdzenia 1.3.3 wynika stąd, że E[Hk (θ, kgk2L2 (T ) ) · ψ] = 0 , dla wszystkich g ∈ L2 (T ) oraz dla wszystkich k 0, gdzie θ = ab g(t)dB(t). Zauważmy teraz, że na mocy własności (1.14) wielomianów Hermite’a, wyraz najwyższego rzędu w Hn (x, λ) to xn , a zatem xn można przedstawić jako kombinację liniową wielomianów Hermite’a stopnia ¬ n. Wobec tego E[θk · ψ] = 0 , dla wszystkich k 1 . R Stąd E[exp θ · ψ] = E "∞ X θk k! k=0 # ·ψ = ∞ X 1 k! k=0 E[θk · ψ] = 0 . Skorzystamy teraz z twierdzenia mówiącego, że rodzina zmiennych losowych postaci (Z b exp a 1 h(t)dB(t) − 2 ) Z b 2 , gdzie h ∈ L2 (T ) , h (t)dt a jest totalna w L2 (Ω), tzn. jej rozpięcie liniowe jest gęste w L2 (Ω) (zobacz np. [Øks03], Lemat 4.3.2). Ale " ( 1 E exp θ − 2 Z b a ) # ( 1 g (t)dt · ψ = exp − 2 2 dla dowolnej g ∈ L2 (T ). Stąd ψ = 0. Wobec tego ξ= ∞ X Z b a ) 2 g (t)dt E[exp θ · ψ] = 0 , Jk (gk ) , k=0 a stąd wnioskujemy, że kξk2L2 (Ω) = ∞ X kJk (gk )k2L2 (Ω) , k=0 20 2631330993(20) ponieważ całki Jk dla kolejnych k są wzajemnie ortogonalne. Przypomnijmy, że funkcje gk są zdefiniowane tylko na Sk , ale możemy je rozszerzyć na całe T k poprzez zero. Wówczas 1 kładziemy fk := gek dla k 0. Mamy wtedy fk = k! gk na zbiorze Sk , a zatem na mocy twierdzenia 1.2.2 dostajemy Ik (fk ) = Jk (gk ) dla k 0. Otrzymaliśmy więc żądane rozwinięcie ξ= ∞ X Ik (fk ) , k=0 oraz izometrię kξk2L2 (Ω) = ∞ X kIk (fk )k2L2 (Ω) = ∞ X k!kfk k2L2 (T k ) , k=0 k=0 gdzie ostatnia równość wynika z lematu 1.1.7. P Pozostaje pokazać jedyność tego rozwinięcia. Załóżmy w tym celu, że ξ = ∞ k=0 Ik (hk ) jest innym takim rozwinięciem. Jednak na mocy liniowości wielokrotnej całki Wienera - Itô ∞ X Ik (hk − fk ) = 0 , k=0 a na podstawie wykazanej izometrii ∞ X k!khk − fk k2L2 (T k ) = 0 . k=0 Stąd hk = fk prawie wszędzie w T k dla k 0. Przyjrzyjmy się teraz dwóm prostym przykładom rozwinięć w chaos Wienera - Itô pewnych zmiennych losowych. Przykład 1.4.2. Niech a = 0 oraz ξ = B(b). Zauważmy, że na mocy twierdzenia 1.3.3 Z b Z I2 (1) = T2 1dB(t1 )dB(t2 ) = H2 0 ! 1dB(t), k1k2L2 (T ) = H2 (B(b), b) = B(b)2 − b . Wobec tego B(b)2 = b + I2 (1) = I0 (b) + I2 (1) , czyli w rozwinięciu ξ = fk = 0 dla k ∈ / {0, 2}. P∞ k=0 Ik (fk ) mamy dwie funkcje stałe niezerowe f0 = b, f2 = 1, zaś Przykład 1.4.3. Ustalmy funkcję g ∈ L2 (T ) i niech ξ = exp{ ab g(s)dB(s)}. Stosując twierR dzenie 1.3.1 dla t = 1, x = ab g(s)dB(s) oraz λ = kgk2L2 (T ) otrzymujemy R (Z b exp a 1 g(s)dB(s) − kgk2L2 (T ) 2 ) = ∞ X 1 n=0 n! Z b Hn a ! g(s)dB(s), kgk2L2 (T ) Korzystając teraz z twierdzenia 1.3.3 widzimy, że ∞ X 1 1 ξ = exp{ kgk2L2 (T ) } In (g ⊗n ) , 2 n! n=0 a zatem funkcje fn z rozwinięcia zmiennej ξ dane są wzorem fn = 1 1 exp{ kgk2L2 (T ) }g ⊗n , dla n 0 . n! 2 21 3549688063(21) . 1.5. Całka Skorohoda Wykorzystując twierdzenie 1.4.1, zdefiniujemy w tej sekcji całkę Skorohoda, która, jak się okaże, stanowi rozszerzenie pojęcia całki Itô na przypadek procesów stochastycznych, które niekoniecznie są {Ft }t∈T -adaptowane. Całka Skorohoda będzie dla nas istotna ze względu na swoje powiązania z pochodną Malliavina, które zostaną opisane w kolejnym rozdziale w sekcji 2.3. Rozważmy Fb ⊗ B(T ) - mierzalny proces stochastyczny u = {u(t)}t∈T całkowalny z kwadratem, tzn. u ∈ L2 (Ω × T ). Wówczas dla dowolnie ustalonego t ∈ T zmienna losowa u(t) jest Fb - mierzalna oraz dla prawie wszystkich t ∈ T mamy u(t) ∈ L2 (Ω). Wobec tego dla prawie wszystkich t ∈ T możemy zastosować twierdzenie 1.4.1 do zmiennej losowej u(t), a zatem e 2 (T n ) otrzymujemy rodzinę funkcji fn,t = fn,t (t1 , . . . , tn ), (t1 , . . . , tn ) ∈ T n takich, że fn,t ∈ L dla n = 1, 2, . . . oraz u(t) = ∞ X In (fn,t ) , n=0 dla p.w. t ∈ T . Ponieważ funkcje fn,t , n = 1, 2, . . . zależą od parametru t ∈ T , możemy stosować zapis fn,t (t1 , . . . , tn ) =: fn (t1 , . . . , tn , t) = fn (t1 , . . . , tn , tn+1 ) , i traktować fn jako funkcję n + 1 zmiennych. Jest ona symetryczna ze względu na swoje pierwsze n zmiennych, zatem jej symetryzacja fen jest dana przez fen (t1 , . . . , tn+1 ) = 1 [fn (t1 , . . . , tn+1 )+fn (t2 , . . . , tn+1 , t1 )+. . .+fn (t1 , . . . , tn−1 , tn+1 , tn )] . n+1 (1.28) Definicja 1.5.1. Niech u ∈ L2 (Ω × T ) będzie procesem stochastycznym posiadającym rozwinięcie w chaos Wienera - Itô ∞ X u(t) = In (fn,t ) = ∞ X In (fn (·, t)) , (1.29) n=0 n=0 dla p.w. t ∈ T . Wtedy definiujemy całkę Skorohoda procesu u jako δ(u) := ∞ X In+1 (fen ) , (1.30) n=0 o ile szereg ten jest zbieżny w L2 (Ω). W powyższym wzorze fen oznaczają funkcje symetryczne uzyskane z funkcji fn (·, t) zgodnie ze wzorem (1.28). Mówimy, że proces u jest całkowalny w sensie Skorohoda i piszemy u ∈ Dom(δ), jeżeli szereg (1.30) jest zbieżny w L2 (Ω). Uwaga 1.5.2. Oczywiście fakt, iż rozwinięcie (1.29) jest zdefiniowane tylko dla prawie wszystkich t ∈ T , jest nieistotny, gdyż zawsze możemy położyć fn (·, t) ≡ 0 dla t ze zbioru miary zero. Zmiana funkcji fen na zbiorze miary zero nie wpływa na wartość całki In+1 (fen ), a tym samym nie wpływa na definicję całki Skorohoda. Uwaga 1.5.3. Korzystając z twierdzenia 1.1.10, możemy łatwo pokazać, że szereg (1.30) jest zbieżny wtedy i tylko wtedy, gdy ∞ X (n + 1)!kfen k2L2 (T n+1 ) < ∞ . n=0 22 2304313461(22) (1.31) Mamy bowiem k ∞ X In+1 (fen )k2 2 L (Ω) ∞ X = kIn+1 (fen )k2 2 L (Ω) n=0 = n=0 ∞ X (n + 1)!kfen k2L2 (T n+1 ) , n=0 gdzie w pierwszej równości skorzystaliśmy z faktu, iż całki In oraz Im są wzajemnie ortogonalne dla n 6= m, zaś w drugiej - z zależności E[In (g)2 ] = n!kgek2L2 (T n ) dla dowolnej funkcji g ∈ L2 (T n ). Ponadto, jeżeli szereg (1.31) jest zbieżny, to jego suma jest równa E[δ(u)2 ]. Uwaga 1.5.4. Ponieważ dla dowolnej funkcji f ∈ L2 (T n ) zachodzi In (f ) = In (fe), to w definicji P całki Skorohoda można by rozważać po prostu szereg ∞ n=0 In+1 (fn ). Zwyczajowo stosuje się jednak zapis uwzględniający symetryzację, gdyż funkcje fen są nam i tak potrzebne do obliczania normy całki Skorohoda za pomocą wyrażenia (1.31). Uwaga 1.5.5. Całkę Skorohoda procesu {u(t)}t∈T oznacza się również jako Z b u(t)δB(t) . a Lemat 1.5.6. Całka Skorohoda δ : L2 (Ω × T ) ⊃ Dom(δ) → L2 (Ω) jest operatorem liniowym. Dowód. Własność δ(au) = aδ(u) dla dowolnych a ∈ R oraz u ∈ Dom(δ) jest oczywista. W celu pokazania addytywności, udowodnimy najpierw, że jeżeli dane są dwie zmienne losowe P F , G ∈ L2 (Ω, Fb , P ) o rozwinięciach w chaos Wienera - Itô, odpowiednio, ∞ n=0 In (fn ) oraz P∞ P∞ I (f + g ). I (g ), to zmienna F + G ma rozwinięcie n n n=0 n P n=0 n n P I (f ) i GN = N Załóżmy najpierw, że dane są zmienne losowe FN = N n=0 In (gn ). n=0 PNn n Wówczas, na mocy liniowości całki In , mamy FN + GN = n=0 In (fn + gn ). Jeżeli teraz P∞ P F = ∞ n=0 In (gn ), to definiując sumy częściowe FN i GN jak powyżej, n=0 In (fn ) i G = mamy FN → F oraz GN → G w L2 (Ω) przy N → ∞. Z drugiej strony, ciąg sum częściowych P P∞ PN F +G = ∞ n=0 In (fn + gn ). n=0 In (fn + gn ), a wobec tego n=0 In (fn + gn ) jest zbieżny do P∞ Jeżeli więc dane są procesy u, v ∈ Dom(δ), takie, że u(t) = n=0 In (fn (·, t)) oraz v(t) = P∞ P∞ n=0 In (fn (·, t)+gn (·, t)). Biorąc pod uwagę liniowość n=0 In (gn (·, t)), to wtedy (u+v)(t) = operacji brania symetryzacji, mamy wobec tego δ(u + v) = = = ∞ X In+1 (fen + gen ) n=0 ∞ X [In+1 (fen ) + In+1 (gen )] n=0 ∞ X In+1 (fen ) + n=0 ∞ X In+1 (gen ) = δ(u) + δ(v) . n=0 Przykład 1.5.7. Niech a = 0, tzn. T = [0, b]. Policzmy całkę Skorohoda z procesu stochastyczRb nego u(t) := B(b) dla t ∈ T . Oczywiście B(b) = 0 1dB(s), a zatem w rozwinięciu w chaos Wienera - Itô zmiennej B(b) mamy f0 = 0, f1 = 1 oraz fn = 0 dla n 2. Wobec tego Z b Z t2 δ(u) = I2 (fe1 ) = I2 (1) = 2 Z b 1dB(t1 )dB(t2 ) = 2 0 0 0 23 1730959466(23) B(t2 )dB(t2 ) = B(b)2 − b . Zajmiemy się teraz wykazaniem kluczowego w tej sekcji twierdzenia, łączącego pojęcie całki Skorohoda z całką Itô. Będzie nam jednak wcześniej potrzebny pewien techniczny lemat. Lemat 1.5.8. Niech {u(t)}t∈T będzie procesem stochastycznym z L2 (Ω × T ) mającym rozwinięcie u(t) = ∞ X In (fn (·, t)) . n=0 Wówczas proces u jest {Ft }t∈T -adaptowany wtedy i tylko wtedy, gdy fn (t1 , . . . tn , t) = 0 dla t < max ti , (1.32) 1¬i¬n dla dowolnego n 0, gdzie powyższa równość jest rozumiana jako zachodząca dla prawie wszystkich (t1 , . . . , tn ) ∈ T n takich, że t < max1¬i¬n ti przy ustalonym t ∈ T . e 2 (T n ) zachodzi Dowód. Na początek zauważmy, że dla dowolnej funkcji g ∈ L Z b Z tn E[In (g)|Ft ] = n!E[ a a Z t Z tn = n! a a Z b Z tn = n! a ··· Z t2 a g(t1 , . . . , tn )dB(t1 ) . . . dB(tn−1 )dB(tn )|Ft ] a ··· Z t2 g(t1 , . . . , tn )dB(t1 ) . . . dB(tn−1 )dB(tn ) a ··· Z t2 a g(t1 , . . . , tn )1{max ti <t} (t1 , . . . , tn )dB(t1 ) . . . dB(tn−1 )dB(tn ) = In (g(t1 , . . . , tn )1{max ti <t} (t1 , . . . , tn )) . Proces u jest adaptowany wtedy i tylko wtedy, gdy u(t) = E[u(t)|Ft ] dla każdego t ∈ T . Jest to z kolei równoważne temu, że ∞ X n=0 In (fn (·, t)) = ∞ X E[In (fn (·, t))|Ft ] = n=0 ∞ X In (fn (·, t)1{max ti <t} ) , n=0 zaś to, na mocy jedyności (w sensie p.w.) funkcji w rozwinięciu w chaos Wienera - Itô, zachodzi wtedy i tylko wtedy, gdy fn (t1 , . . . , tn , t) = fn (t1 , . . . , tn , t)1{max ti <t} (t1 , . . . , tn ) , dla prawie wszystkich (t1 , . . . , tn ) ∈ T n przy dowolnie ustalonym t ∈ T . Jak łatwo zauważyć, ostatnia równość jest równoważna warunkowi (1.32), a zatem dowód jest zakończony. Możemy w końcu przystapić do dowodu zapowiadanego twierdzenia, charakteryzującego całkę Skorohoda jako rozszerzenie pojęcia całki Itô na przypadek procesów, które niekoniecznie są {Ft }t∈T - adaptowane. Twierdzenie 1.5.9. Niech {u(t)}t∈T będzie {Ft }t∈T - adaptowanym procesem stochastycznym z L2 (Ω × T ). Wtedy u ∈ Dom(δ) oraz Z b δ(u) = u(t)dB(t) . (1.33) a Dowód. Przyjmijmy tak jak poprzednio, że proces u ma rozwinięcie u(t) = Na mocy lematu 1.5.8 oraz równania (1.28) widzimy, że fen (t1 , . . . , tn , tn+1 ) = 1 fn (t1 , . . . , tj−1 , tj+1 , . . . , tn+1 , tj ) , n+1 24 2329693977(24) P∞ n=0 In (fn (·, t)). (1.34) dla n 1 i dla p.w. (t1 , . . . , tn , tn+1 ) ∈ T n+1 , gdzie j = arg max ti . 1¬i¬n+1 Wobec tego kfen k2L2 (T n+1 ) = (n + 1)! Z Sn+1 fen2 (t1 , . . . , tn+1 )dt1 . . . dtn+1 (n + 1)! f 2 (t1 , . . . , tn+1 )dt1 . . . dtn+1 (n + 1)2 Sn+1 n Z t2 Z b Z t Z tn n! ··· fn2 (t1 , . . . , tn , t)dt1 . . . dtn dt n+1 a a a a Z t2 Z b Z b Z tn n! ··· fn2 (t1 , . . . , tn , t)dt1 . . . dtn dt n+1 a a a a Z b Z n! ( f 2 (t1 , . . . , tn , t)dt1 . . . dtn )dt n + 1 a Sn n Z b 1 kfn (·, t)k2L2 (T n ) dt , n+1 a Z = = = = = gdzie w drugiej równości skorzystaliśmy z (1.34), zaś w czwartej - ponownie z lematu 1.5.8. Mamy zatem ∞ X (n + 1)!kfen k2 2 L (T n+1 ) = n=0 = ∞ X Z b n! n=0 Z bX ∞ a n=0 Z b a kfn (·, t)k2L2 (T n ) dt n!kfn (·, t)k2L2 (T n ) dt E[u(t)2 ]dt = a Z b = E[ u(t)2 dt] < ∞ , a gdyż z założenia u ∈ L2 (Ω × T ). Stąd (i z uwagi 1.5.3) wynika, że u ∈ Dom(δ). W celu wykazania zależności (1.33), policzmy Z b u(t)dB(t) = a = = = = Z bX ∞ a n=0 ∞ Z b X n=0 a ∞ Z b X n=0 a ∞ Z b X n=0 a ∞ X In (fn (·, t))dB(t) In (fn (·, t))dB(t) Z n! {0¬t1 ¬...¬tn ¬t} fn (t1 , . . . , tn , t)dB(t1 ) . . . dB(tn )dB(t) Z n!(n + 1) {0¬t1 ¬...¬tn ¬t} fen (t1 , . . . , tn , t)dB(t1 ) . . . dB(tn )dB(t) In+1 (fen ) = δ(u) , n=0 gdzie w trzeciej równości ponownie skorzystaliśmy z lematu 1.5.8, zaś w czwartej ze wzoru (1.34). 25 9030916673(25) 3451475010(26) Rozdział 2 Pochodna Malliavina 2.1. Izonormalne procesy gaussowskie Niech H będzie rzeczywistą, ośrodkową przestrzenią Hilberta z iloczynem skalarnym h·, ·i i niech k · k oznacza normę w H zadaną przez ten iloczyn. Rodzinę zmiennych losowych W = {W (h) : h ∈ H} będziemy nazywać izonormalnym procesem gaussowskim, jeżeli jest ona scentrowaną gaussowską rodziną zmiennych losowych (tzn. każda skończona kombinacja liniowa zmiennych z W ma rozkład normalny o zerowej wartości oczekiwanej) oraz zachodzi warunek E[W (h)W (g)] = hh, gi , dla wszystkich h, g ∈ H . (2.1) Dla dowolnej przestrzeni Hilberta H jak wyżej, możemy skonstruować przestrzeń probabilistyczną (Ω, F, P ) oraz zadany na niej proces W spełniający powyższe warunki. Dowód tego faktu, oparty na twierdzeniu Kołmogorowa, można znaleźć np. w [Dud04] (twierdzenie 12.1.4). Zauważmy, że dla tak zdefiniowanego izonormalnego procesu gaussowskiego W , odwzorowanie H 3 h 7→ W (h) ∈ L2 (Ω, F, P ) jest liniowe. Weźmy bowiem dowolne h, g ∈ H oraz λ, µ ∈ R. Mamy wówczas E[(W (λh+µg) − λW (h) − µW (g))2 ] = E[W (λh + µg)2 + λ2 W (h)2 + µ2 W (g)2 − 2λW (λh + µg)W (h) − 2µW (λh + µg)W (g) + 2λµW (h)W (g)] = kλh + µgk2 + λ2 khk2 + µ2 kgk2 − 2λhλh + µg, hi − 2µhλh + µg, gi + 2λµhh, gi = kλh + µgk2 + λ2 khk2 + µ2 kgk2 − 2λ2 khk2 − 2λµhg, hi − 2λµhh, gi − 2µ2 kgk2 + 2λµhh, gi = 0 . Wobec tego W (λh + µg) oraz λW (h) + µW (g) są równe jako elementy przestrzeni L2 (Ω) (czyli prawie wszędzie). Na mocy liniowości odwzorowania h 7→ W (h) widzimy, że w definicji izonormalnego procesu gaussowskiego zamiast warunku mówiącego, iż W ma być scentrowaną gaussowską rodziną zmiennych losowych, wystarczy założyć, że dla dowolnego h ∈ H zmienna W (h) ma rozkład N (0, khk2 ). Przykład 2.1.1. Niech X będzie zmienną losową o standardowym rozkładzie normalnym N (0, 1). Jako przestrzeń Hilberta H przyjmijmy prostą rzeczywistą R ze zwykłym mno27 3481467739(27) żeniem jako iloczynem skalarnym. Dla dowolnego h ∈ R, niech W (h) := hX. Wówczas {W (h) : h ∈ R} jest izonormalnym procesem gaussowskim na R. Przykład 2.1.2. Najbardziej interesujący będzie dla nas przypadek, gdy jako przestrzeń Hilberta H będziemy rozważać przestrzeń funkcji deterministycznych całkowalnych z kwadratem na pewnym ustalonym przedziale [a, b] =: T , tzn. H = L2 (T ). Wówczas definiujemy W (h) jako całkę Itô Z b h(t)dB(t) , W (h) = a dla h ∈ L2 (T ). Korzystając z faktu, iż zmienna losowa ab h(t)dB(t) ma rozkład normalny N (0, khk2L2 (T ) ) oraz z izometrii Itô, widzimy, że {W (h) : h ∈ L2 (T )} jest izonormalnym procesem gaussowskim. R Innym ciekawym przykładem może być izonormalny proces gaussowski skonstruowany przy użyciu ułamkowego procesu Wienera. Szczegóły takiej konstrukcji można znaleźć w skrypcie [Nua12]. My w dalszym ciągu tej pracy skupimy się na przypadku z przykładu 2.1.2. 2.2. Pochodna Malliavina i jej własności W tej sekcji będziemy pracować przy ustalonej ośrodkowej, rzeczywistej przestrzeni Hilberta H. Dany jest również izonormalny proces gaussowski W = {W (h) : h ∈ H} określony na pewnej przestrzeni probabilistycznej (Ω, G, P ), gdzie G oznacza σ-algebrę generowaną przez proces W . Przez Lp (Ω) dla p ∈ [1, ∞) będziemy rozumieć przestrzeń Lp (Ω, G, P ). Pochodną Malliavina będziemy chcieli na początek zdefiniować na pewnym gęstym podzbiorze przestrzeni Lp (Ω). Przez Cp∞ (Rn ) będziemy oznaczać przestrzeń funkcji f : Rn → R klasy C ∞ takich, że f oraz wszystkie jej pochodne cząstkowe mają wzrost wielomianowy, tzn. dla każdego wielowskaźnika α ∈ Nn istnieją stałe C > 0 oraz M 0 takie, że dla każdego x ∈ Rn zachodzi ∂αf | α (x)| ¬ C(1 + |x|)M , ∂x gdzie |x| oznacza normę euklidesową elementu x w Rn . Rozważmy rodzinę S zmiennych losowych takich, że każda F ∈ S ma postać F = f (W (h1 ), . . . , W (hn )) , (2.2) dla pewnej funkcji f ∈ Cp∞ (Rn ), wektorów h1 , . . . , hn ∈ H oraz n 1. Zauważmy, że dla dowolnego p ∈ [1, ∞) mamy S ⊂ Lp (Ω), gdyż zmienne losowe o rozkładzie normalnym mają wszystkie momenty (są całkowalne z dowolną potęgą). Ponadto łatwo widać, że S jest przestrzenią liniową. Przestrzeń S bywa czasem nazywana przestrzenią gładkich zmiennych losowych. Analogicznie definiujemy rodzinę Sb zmiennych losowych postaci (2.2), dla których funkcja f należy do Cb∞ (Rn ), tzn. do przestrzeni tych funkcji f klasy C ∞ , że zarówno f jak i wszystkie jej pochodne cząstkowe są ograniczone. Zauważmy, że oczywiście Sb ⊂ S, zatem aby wykazać gęstość S w Lp (Ω) dla dowolnego p ∈ [1, ∞), wystarczy pokazać gęstość Sb . W tym celu przytoczmy najpierw pewien lemat. Lemat 2.2.1. Niech X ∈ Lp (Ω, F, P ) dla pewnego p ∈ [1, ∞) zaś {Gk }∞ k=1 będzie rosnącą S rodziną σ - algebr takich, że Gk ⊂ F dla k 1. Jeżeli G = σ( ∞ G ), to wówczas k=1 k E[X|Gk ] → E[X|G] gdy k → ∞ , w sensie Lp (Ω) oraz prawie na pewno. 28 2543423353(28) Dowód. Lemat ten wypowiedziany dla p = 1 można łatwo znaleźć w literaturze (np. [Øks03], wniosek C.9), dlatego przyjmijmy ten rezultat jako znany i skoncentrujmy się na przypadku p > 1. Ponieważ Lp (Ω) ⊂ L1 (Ω) dla p 1, to chcąc pokazać zbieżność E[X|Gk ] → E[X|G] w Lp (Ω) będziemy mogli skorzystać ze zbieżności prawie na pewno otrzymanej na mocy przypadku p = 1. Wprowadźmy oznaczenie Mk := E[X|Gk ] dla k ∈ N+ oraz M∞ := E[X|G]. p ∞ Wówczas {Mk }∞ k=1 jest martyngałem, a zatem {|Mk | }k=1 jest submartyngałem. Stąd lim E[|Mk |p ] = sup E[|Mk |p ] ¬ E[|M∞ |p ] , k→∞ k∈N ale z drugiej strony, na mocy lematu Fatou E[|M∞ |p ] ¬ lim inf E[|Mk |p ] ¬ sup E[|Mk |p ] . k→∞ k∈N Widzimy więc, że limk→∞ E[|Mk |p ] = E[|M∞ |p ], a zatem powołując się na twierdzenie Vitaliego (zob. np. [Sch05], twierdzenie 16.6) otrzymujemy zbieżność E[X|Gk ] → E[X|G] w sensie Lp (Ω). Lemat 2.2.2. Przestrzeń Sb jest gęsta w Lp (Ω) dla p ∈ [1, ∞). Dowód. Ustalmy p ∈ [1, ∞). Pokażemy na początek, że każda zmienna losowa F ∈ Lp (Ω) może być aproksymowana przez ciąg zmiennych losowych postaci f (W (h1 ), . . . , W (hn )), gdzie f ∈ Lp (Rn ), zaś h1 , . . . , hn ∈ H. Oznaczmy bowiem przez {ei }∞ i=1 bazę ortonormalną przestrzeni H i rozważmy rosnący ciąg σ-algebr Gn := σ(W (e1 ), . . . , W (en )), n 1. Mamy S wówczas G = σ( ∞ n=1 Gn ), skoro G jest σ-algebrą generowaną przez proces {W (h) : h ∈ H}. Zatem jeśli F jest zmienną losową z Lp (Ω), to na mocy lematu 2.2.1 mamy F = lim E[F |Gn ] , w sensie Lp (Ω) . n→∞ Ponadto zauważmy, że na mocy lematu Dooba - Dynkina, E[F |Gn ] jest funkcją borelowską zmiennych W (e1 ), . . . , W (en ), a skoro E[F |Gn ] ∈ Lp (Ω), to E[F |Gn ] = f (W (e1 ), . . . , W (en )) dla pewnej funkcji f ∈ Lp (Rn ), dla każdego n 1. Jeśli teraz ustalimy f ∈ Lp (Rn ), to możemy rozważyć funkcje fε := f ∗ϕε , dla ε > 0, gdzie ϕε oznaczają standardowe regularyzatory w Rn . Mamy wówczas fε ∈ Cb∞ (Rn ) oraz fε → f w sensie Lp (Rn ), gdy ε → 0 (zob. np. [Leo09], twierdzenie C.19). W połączeniu z pierwszą częścią dowodu otrzymujemy zatem żadaną aproksymację dowolnej zmiennej F ∈ Lp (Ω) przez zmienną z Sb . Definicja 2.2.3. Niech F ∈ S będzie postaci (2.2). Wówczas definiujemy pochodną Malliavina zmiennej F , oznaczaną przez DF , jako zmienną losową o wartościach w przestrzeni Hilberta H daną wzorem DF = n X ∂i f (W (h1 ), . . . , W (hn ))hi . i=1 Najprostszym przykładem pochodnej Malliavina jest pochodna zmiennej F = W (h). W reprezentacji (2.2) bierzemy n = 1, f (x) = x i wprost z definicji dostajemy DF = h. Przed przejściem do dalszych rozważań wykażmy jednak najpierw, że powyższa definicja jest poprawna. Powie o tym następujący lemat. Lemat 2.2.4. Powyższa definicja nie zależy od wyboru reprezentacji (2.2) zmiennej F ∈ S. 29 6059845396(29) Dowód. Załóżmy, że F ∈ S ma dwie różne reprezentacje F = f (W (h1 ), . . . , W (hn )) = g(W (ϕ1 ), . . . , W (ϕm )) , gdzie f ∈ Cp∞ (Rn ), g ∈ Cp∞ (Rm ), n, m 1. Niech (e1 , . . . , eN ) będzie bazą ortonormalną podprzestrzeni generowanej przez wektory h1 , . . . , hn , ϕ1 , . . . , ϕm . Zdefiniujmy teraz macierz A ∈ Mn×N jako h1 h i .. A := . e1 · · · eN , hn czyli hh1 , e1 i hh1 , e2 i · · · hh2 , e1 i hh2 , e2 i · · · A= .. .. .. . . . hhn , e1 i hhn , e2 i · · · hh1 , eN i hh2 , eN i . .. . hhn , eN i Jeżeli zdefiniujemy wektor X := (W (e1 ), . . . , W (eN )), to wówczas P N l=1 hh1 , el iW (el ) .. . . PN hh , e iW (e ) l l=1 n l AX = Ponieważ wiemy, że odwzorowanie h 7→ W (h) jest liniowe, to dla każdego j ∈ {1, . . . , n} mamy N X N X l=1 l=1 hhj , el iW (el ) = W ( hhj , el iel ) = W (hj ) . Wobec tego AX = (W (h1 ), . . . , W (hn )), a w konsekwencji F = f (AX). Z drugiej strony, traktując f (AX) jako funkcję zmiennych W (e1 ), . . . , W (eN ) i korzystając z reguły łańcuchowej w Rn , dostajemy dla każdego i ∈ {1, . . . , N } ∂i f (AX) = n X ∂j f (AX)Aji , (2.3) j=1 gdzie Aji = hhj , ei i. Widzimy zatem, wprost z definicji 2.2.3, że każdego i ∈ {1, . . . , N } mamy ∂i f (AX) = hD(f (W (h1 ), . . . , W (hn ))), ei i . Analogicznie postępujemy w przypadku drugiej reprezentacji zmiennej F , tzn. definiujemy macierz B ∈ Mm×N jako ϕ1 h i B := ... e1 · · · eN , ϕm i pokazujemy, że F = g(BX). Następnie obliczamy ∂i g(BX) = m X ∂k g(BX)Bki , k=1 30 4166297442(30) (2.4) dla dowolnego i ∈ {1, . . . , N }, gdzie Bki = hϕk , ei i. Korzystając ponownie z definicji 2.2.3, a następnie porównując (2.3) i (2.4) dostajemy hD(f (W (h1 ), . . . , W (hn ))), ei i = hD(g(W (ϕ1 ), . . . , W (ϕm ))), ei i , dla wszystkich i ∈ {1, . . . N }. Ponieważ zarówno zmienna losowa D(f (W (h1 ), . . . , W (hn ))) jak i D(g(W (ϕ1 ), . . . , W (ϕm ))) są kombinacjami liniowymi wektorów, odpowiednio, h1 , . . . , hn i ϕ1 , . . . , ϕm , zaś e1 , . . . eN stanowią bazę przestrzeni rozpiętej przez wszystkie te wektory, to otrzymujemy równość D(f (W (h1 ), . . . , W (hn ))) = D(g(W (ϕ1 ), . . . , W (ϕm ))) . Widzimy zatem, że definicja 2.2.3 jest poprawna. Ponadto, zauważmy, że odwzorowanie D przyjmuje wartości w Lp (Ω; H), tzn. dla dowolnego F ∈ S zachodzi Z kDF kp dP < ∞ . Ω Wynika to z faktu, że pochodne ∂i f mają z założenia wzrost wielomianowy, zaś zmienne W (hi ) posiadają wszystkie momenty. Zwróćmy jeszcze uwagę na to, iż D jest oczywiście odwzorowaniem liniowym. Zdefiniowaliśmy więc operator liniowy D : S → Lp (Ω; H) , określony na pewnej gęstej podprzestrzeni liniowej przestrzeni Lp (Ω). W dalszym ciągu tej sekcji zastanowimy się nad kwestią znalezienia jego rozszerzenia, najpierw jednak przyjrzyjmy się, jak wygląda pochodna Malliavina w najbardziej interesującym nas przypadku, w którym izonormalny proces gaussowski jest zadany tak jak w przykładzie 2.1.2, tzn. poprzez całki Itô z funkcji deterministycznych. Przykład 2.2.5. Niech T = [a, b], H = L2 (T ) oraz W (h) = ab h(t)dB(t) dla h ∈ H. Biorąc pod uwagę izomorfizm przestrzeni Hilberta L2 (Ω; H) ∼ = L2 (Ω × T ), będziemy utożsamiać pochodną Malliavina DF zmiennej losowej F ∈ S ⊂ L2 (Ω) z całkowalnym z kwadratem procesem stochastycznym {Dt F }t∈T . Dla przykładu, jeżeli F = W (h) dla pewnego h ∈ H, to wówczas Dt (W (h)) = h(t) dla t ∈ [a, b]. Wiemy już zatem, jak obliczać pochodne Malliavina całek Itô z funkcji deterministycznych i widzimy, że w takim wypadku operator D zwraca nam funkcję podcałkową. Odnotujmy jeszcze w tym miejscu fakt, iż dla dowolnego przedziału R [s, u] ⊂ [a, b] mamy Dt (B(u) − B(s)) = Dt ( ab 1[s,u] (r)dB(r)) = 1[s,u] (t). Będzie to istotne w dowodzie twierdzenia 2.2.14. R Iloczyn skalarny pochodnej DF z wektorem h ∈ H może być interpretowany jako pochodna kierunkowa zmiennej F ∈ S postaci (2.2) w kierunku wektora (hh1 , hi, . . . , hhn , hi) Mamy bowiem hDF, hi = n X ∂i f (W (h1 ), . . . , W (hn ))hhi , hi i=1 = lim ε→0 1 (f (W (h1 ) + εhh1 , hi, . . . , W (hn ) + εhhn , hi) − f (W (h1 ), . . . , W (hn ))) . ε Widać tu analogię do klasycznej sytuacji w Rn , gdzie mając daną funkcję g : Rn → R klasy C 1 i wektor v = (v1 , . . . , vn ) ∈ Rn , zachodzi 1 h∇g(x), viRn = lim (g(x1 + εv1 , . . . , xn + εvn ) − g(x1 , . . . , xn )) , ε→0 ε 31 2014211667(31) dla dowolnego punktu x = (x1 , . . . , xn ) ∈ Rn , gdzie ∇g oznacza gradient funkcji g, zaś h·, ·iRn standardowy iloczyn skalarny w Rn . Pochodna Malliavina bywa czasem nazywana stochastycznym gradientem. Będziemy chcieli teraz pokazać, że operator D jest operatorem domykalnym, a zatem istnieje jego domknięte rozszerzenie. W tym celu udowodnimy najpierw kilka przydatnych lematów. Lemat 2.2.6. Niech F ∈ S oraz h ∈ H. Wtedy E[hDF, hi] = E[F W (h)] . Dowód. Bez straty ogólności możemy założyć, że khk = 1. Wówczas istnieje układ ortonormalny {e1 , . . . en } w H oraz funkcja f ∈ Cp∞ (Rn ) takie, że h = e1 oraz zmienna F jest postaci F = f (W (e1 ), . . . , W (en )) . Niech teraz φ oznacza gęstość standardowego rozkładu normalnego na Rn , tzn. n φ(x) = (2π)− 2 exp {− n 1X x2 } . 2 i=1 i Zauważmy, że dla każdego i ∈ {1, . . . , n} zmienna W (ei ) ma standardowy rozkład normalny N (0, 1), ponadto zmienne W (ei ), W (ej ) dla i 6= j są niezależne, bo są gaussowskie i nieskorelowane, jako że E[W (ei )W (ej )] = hei , ej i = 0. Wobec tego wektor losowy (W (e1 ), . . . , W (en )) ma n-wymiarowy rozkład normalny, czyli ma gęstość φ. Biorąc to pod uwagę, otrzymujemy n X E[hDF, hi] = E[ h∂i f (W (e1 ), . . . , W (en ))ei , hi] i=1 = E[∂1 f (W (e1 ), . . . , W (en ))] Z = n ∂1 f (x)φ(x)dx ZR = Rn f (x)φ(x)x1 dx = E[F W (e1 )] = E[F W (h)] , gdzie w czwartej równości skorzystaliśmy z twierdzenia o całkowaniu przez części w Rn . Udowodnimy teraz regułę produktową dla pochodnej Malliavina. Lemat 2.2.7. Niech F , G ∈ S. Wtedy D(F G) = GDF + F DG . Dowód. Niech F = f (W (h1 ), . . . , W (hn )) oraz G = g(W (ϕ1 ), . . . , W (ϕm )) dla pewnych funkcji f ∈ Cp∞ (Rn ), g ∈ Cp∞ (Rm ) oraz wektorów h1 , . . . , hn , ϕ1 , . . . , ϕm ∈ H. Dla uproszczenia zapisu oznaczmy u1 , . . . , un+m := h1 , . . . , hn , ϕ1 , . . . , ϕm . Funkcje f i g możemy traktować jako funkcje n + m zmiennych. Mamy F G = f g(W (u1 ), . . . , W (un+m )) . 32 2369439942(32) Oczywiście f g ∈ Cp∞ (Rn+m ), zatem F G ∈ S. Rozpisując wprost z definicji pochodnej Malliavina i korzystając ze zwykłej reguły produktowej otrzymujemy D(F G) = = = n+m X i=1 n+m X ∂i (f g)(W (u1 ), . . . , W (un+m ))ui g∂i f (W (u1 ), . . . , W (un+m ))ui + n+m X i=1 n X i=1 n+m X i=1 i=n+1 g∂i f (W (u1 ), . . . , W (un+m ))ui + f ∂i g(W (u1 ), . . . , W (un+m ))ui f ∂i g(W (u1 ), . . . , W (un+m ))ui = GDF + F DG . Lemat 2.2.8. Niech F , G ∈ S oraz h ∈ H. Wtedy E[GhDF, hi] = −E[F hDG, hi] + E[F GW (h)] . Dowód. Wystarczy zastosować lemat 2.2.6 do zmiennej F G ∈ S, a następnie skorzystać z reguły produktowej (lemat 2.2.7). Jesteśmy już przygotowani do udowodnienia twierdzenia, które pozwoli nam rozszerzyć operator D na większą klasę zmiennych losowych z Lp (Ω). Twierdzenie 2.2.9. Dla dowolnego p ∈ [1, ∞), pochodna Malliavina D jest operatorem domykalnym z S ⊂ Lp (Ω) w Lp (Ω; H). Dowód. Niech {FN }∞ N =1 będzie ciągiem zmiennych losowych w S takim, że FN zbiega do zera w normie Lp (Ω) oraz ciąg pochodnych DFN zbiega do pewnego elementu η w Lp (Ω; H). Aby pokazać domykalność operatora D, wykażemy, że η = 0. 2 Weźmy dowolny h ∈ H oraz zmienną losową F ∈ Sb postaci F = Ge−εW (h) , gdzie G ∈ Sb oraz ε > 0. Zwróćmy uwagę, że wówczas zmienna F W (h) jest ograniczona, a zatem zarówno 0 F jak i F W (h) należą do przestrzeni Lp (Ω), gdzie p1 + p10 = 1. Mamy wtedy E[F hη, hi] = lim E[F hDFN , hi] = lim E[−FN hDF, hi + FN F W (h)] = 0 , N →∞ N →∞ gdzie w pierwszej równości wykorzystaliśmy słabą zbieżność ciągu DFN do η w Lp (Ω; H), w drugiej równości użyliśmy lematu 2.2.8, zaś w trzeciej wykorzystaliśmy słabą zbieżność ciągu FN do zera w Lp (Ω) (zmienna hDF, hi jest ograniczona i w konsekwencji należy do 0 Lp (Ω), skoro F ∈ Sb ). Przechodząc z ε do zera otrzymujemy E[Ghη, hi] = 0 , (2.5) dla każdego G ∈ Sb oraz h ∈ H. Ponieważ Sb jest gęste w Lp (Ω), to rodzina zmiennych losowych o wartościach w H postaci Gh, gdzie G ∈ Sb , h ∈ H, jest totalna w Lp (Ω; H) (tzn. jej rozpięcie liniowe jest gęste). Stąd, na podstawie (2.5), dostajemy η = 0. Skoro wiemy już, że D : S ⊂ Lp (Ω) → Lp (Ω; H) jest operatorem domykalnym, to istnieje jego domknięcie D, którego dziedziną jest rodzina tych zmiennych losowych F ∈ Lp (Ω), dla p ∞ których istnieje ciąg {Fn }∞ n=1 ⊂ S zbieżny do F w normie L (Ω) i taki, że ciąg {DFn }n=1 33 8146498974(33) również jest zbieżny (w normie Lp (Ω; H)). Dziedzinę D możemy więc przedstawić jako uzupełnienie przestrzeni S względem normy ) p1 ( E[|F |p ] + E[kDF kp ] kF k1,p := . Dziedzinę D będziemy oznaczać przez D1,p , zaś operator D po prostu przez D. Przestrzeń D1,p ze zdefiniowaną powyżej normą jest przestrzenią Banacha (por. np. [Wei80], twierdzenie 5.1). W szczególności, dla p = 2, przestrzeń D1,2 jest przestrzenią Hilberta z iloczynem skalarnym hF, Gi1,2 := E[F G] + E[hDF, DGi] . Uwaga 2.2.10. Warto w tym miejscu zauważyć analogię do klasycznej teorii przestrzeni Sobolewa. Mianowicie, niech U ⊂ Rn będzie dowolnym zbiorem otwartym. Wówczas, na mocy twierdzenia Meyersa - Serrina (zob. np. [Leo09], twierdzenie 10.15) wiemy, że przestrzeń Sobolewa W 1,p (U ) da się przedstawić jako domknięcie przestrzeni C ∞ (U ) ∩ W 1,p (U ) w normie k · kW 1,p (U ) , gdzie jako jedną z możliwych równoważnych norm można wziąć ) p1 ( kukW 1,p (U ) := kukpLp (U ) + k∇ukpLp (U ;Rn ) , dla dowolnej funkcji u ∈ W 1,p (U ). Uwaga 2.2.11. Można też zdefiniować pochodną Malliavina rzędu drugiego. Jeśli F ∈ S jest postaci (2.2), to D2 F = D(DF ) określa się jako D2 F = n X 2 ∂ij f (W (h1 ), . . . , W (hn ))(hi ⊗ hj ) , i,j=1 gdzie ⊗ oznacza iloczyn tensorowy. Wobec tego D2 F jest zmienną losową o wartościach w H ⊗ H. Analogicznie definiuje się k-tą pochodną Malliavina Dk F dla k 1 jako zmienną losową o wartościach w k-tej potędze tensorowej przestrzeni H, czyli w H ⊗k . Dowodzi się, że dla każdego k 1 i dla każdego p ∈ [1, ∞), operator Dk jest operatorem domykalnym z S ⊂ Lp (Ω) w Lp (Ω; H ⊗k ), a następnie rozważa się jego domknięcie, oznaczane również przez Dk , którego dziedzina Dk,p jest uzupełnieniem S względem normy ( kF kk,p := p E[|F | ] + k X ) p1 E[kD j F kpH ⊗j ] . j=1 W dalszym ciągu tej pracy będziemy się zajmować jedynie pochodnymi pierwszego rzędu. Szczegóły dotyczące pochodnych wyższych rzędów można znaleźć w [Nua06]. Wykażemy teraz niezwykle przydatną w obliczeniach regułę łańcuchową dla pochodnej Malliavina. Twierdzenie 2.2.12. Niech g : Rd → R będzie funkcją klasy C 1 o ograniczonych pochodnych cząstkowych. Niech p ∈ [1, ∞) oraz niech F = (F 1 , . . . , F d ) będzie wektorem losowym takim, że F i ∈ D1,p dla wszystkich i ∈ {1, . . . , d}. Wtedy g(F ) ∈ D1,p oraz D(g(F )) = d X i=1 34 3311318674(34) ∂i g(F )DF i . Dowód. Udowodnimy jedynie przypadek d = 1. Zdefiniujmy gε (x) := g ∗ψε (x), gdzie ψε są standardowymi regularyzatorami, tzn. ψε (x) = 1 x ∞ o nośniku zwartym takim, że ψ( ε ε ), dla x ∈ R, εR > 0, gdzie ψ jest funkcją klasy C suppψ ⊂ [−1, 1] oraz R ψ(x)dx = 1. Wówczas gε ∈ Cb∞ (R). Z drugiej strony, ponieważ F ∈ D1,p , to istnieje ciąg {Fk }∞ k=1 ⊂ S zmiennych losowych ∞ n k postaci Fk = fk (W (h1 ), . . . , W (hnk )), fk ∈ Cp (R ), zbieżny do F w normie Lp (Ω) przy p k → ∞ oraz taki, że ciąg {DFk }∞ k=1 zbiega do DF w L (Ω; H) przy k → ∞. Ponieważ ∞ ∞ gε ◦ fk ∈ Cb (R) ⊂ Cp (R), to gε (Fk ) ∈ S oraz nk X D(gε (Fk )) = i=1 nk X = ∂i (gε ◦ fk )(W (h1 ), . . . , W (hnk ))hi gε0 (fk (W (h1 ), . . . , W (hnk )))∂i fk (W (h1 ), . . . , W (hnk ))hi i=1 = gε0 (Fk )DFk . Przeprowadzimy teraz szacowanie korzystając z nierówności trójkąta. kgε0 (Fk )DFk − g 0 (F )DF kLp (Ω;H) ¬ kgε0 (Fk )(DFk − DF )kLp (Ω;H) + k(gε0 (Fk ) − g 0 (Fk ))DF kLp (Ω;H) + k(g 0 (Fk ) − g 0 (F ))DF kLp (Ω;H) =: I1 + I2 + I3 . Zauważmy, że dla dowolnych ε > 0 oraz k 1, zmienna gε0 (Fk ) jest ograniczona przez stałą niezależną od ε ani od k, a zatem I1 → 0 przy k → ∞. Z kolei przy dowolnie ustalonym k 1 I2 = k(gε0 (Fk ) − g 0 (Fk ))DF kLp (Ω;H) ¬ sup |gε0 (x) − g 0 (x)|kDF kLp (Ω;H) → 0 , x∈R gdy ε → 0. W przypadku wyrażenia I3 zwróćmy uwagę, że zbieżność Fk → F w normie Lp (Ω) 0 0 oraz ciągłość funkcji g 0 implikują istnienie podciągu {Fkl }∞ l=1 takiego, że g (Fkl ) → g (F ) prawie wszędzie przy l → ∞. Ponieważ rozumowanie to można powtórzyć dla dowolnego 0 podciągu ciągu {Fk }∞ k=1 , to korzystając z ograniczoności g i z twierdzenia Lebesgue’a o zmajoryzowanym przejściu granicznym otrzymujemy I3 → 0 przy k → ∞. Wykazaliśmy zatem, że D(gε (Fk )) zbiega do g 0 (F )DF w Lp (Ω; H) przy k → ∞ oraz ε → 0. Ponadto kgε (Fk ) − g(F )kLp (Ω) ¬ kgε (Fk ) − gε (F )kLp (Ω) + kgε (F ) − g(F )kLp (Ω) =: J1 + J2 . Mamy wtedy J1p = Z |gε (Fk ) − gε (F )|p dP ¬ Ω Z sup |gε0 (x)|p |Fk − F |p dP , Ω x∈R a zatem J1 ¬ M kFk −F kLp (Ω) dla pewnej stałej M 0 i w konsekwencji J1 → 0 przy k → ∞. Mamy poza tym J2 ¬ supx∈R |gε (x) − g(x)| → 0 przy ε → 0. Pokazaliśmy więc, że gε (Fk ) → g(F ) w Lp (Ω) przy k → ∞ oraz ε → 0. Korzystając z domkniętości operatora D widzimy wobec tego, że g(F ) ∈ D1,p oraz D(g(F )) = g 0 (F )DF , co kończy dowód. Zacytujmy jeszcze, tym razem bez dowodu, inną wersję reguły łańcuchowej dla funkcji lipschitzowskich. Dowód poniższego twierdzenia można znaleźć np. w [Nua12] (propozycja 1.40). 35 2104153430(35) Twierdzenie 2.2.13. Niech g : Rd → R będzie funkcją lipschitzowską ze stałą Lipschitza K > 0 i niech F = (F 1 , . . . , F d ) będzie wektorem losowym takim, że F i ∈ D1,2 dla wszystkich i ∈ {1, . . . , d}. Wtedy g(F ) ∈ D1,2 oraz istnieje wektor losowy G = (G1 , . . . , Gd ) ograniczony w Rd przez K taki, że D(g(F )) = d X Gi DF i . i=1 Ponadto, jeżeli rozkład wektora F jest absolutnie ciągły względem miary Lebesgue’a na Rd , to Gi = ∂i g(F ) (funkcja g jako lipschitzowska jest prawie wszędzie różniczkowalna na mocy twierdzenia Rademachera). Powróćmy teraz do sytuacji z przykładu 2.2.5, tzn. niech proces W będzie zadany przez całki Itô z funkcji z L2 (T ), dla pewnego przedziału T = [a, b]. Zwróćmy uwagę, że jeżeli {Ft }t∈[a,b] jest filtracją zadaną przez proces Wienera {B(t)}t∈[a,b] , to Fb = G. Rozważmy zmienną losową F ∈ L2 (Ω) = L2 (Ω, G, P ). Wówczas, na mocy twierdzenia 1.4.1, wiemy, iż posiada ona rozwinięcie postaci F = ∞ X In (fn ) , n=0 e 2 (T n ) dla n 0. Okazuje się, że pochodną Malliavina zmiennej F (o ile ta gdzie fn ∈ L pochodna istnieje) daje się wówczas przedstawić jako pewną operację na rozwinięciu F . Mówi o tym poniższe twierdzenie. Twierdzenie 2.2.14. Niech F będzie zmienną losową z L2 (Ω, G, P ) posiadającą rozwinięcie P e2 n F = ∞ n=0 In (fn ) dla pewnych funkcji fn ∈ L (T ). Jeżeli ∞ X nn!kfn k2L2 (T n ) < ∞ , n=1 to F ∈ D1,2 oraz zachodzi wzór Dt F = ∞ X nIn−1 (fn (·, t)) , n=1 gdzie In−1 (fn (·, t)) oznacza, że całkujemy funkcję fn jako funkcję n − 1 zmiennych, traktując n-tą zmienną jako parametr. Dowód. Zacznijmy od przypadku, w którym F = In (fn ), gdzie fn ∈ En , tzn. fn jest symetryczną funkcją schodkową pozaprzekątniową postaci fn (t1 , . . . , tn ) = k X ai1 ,...,in 1[τi1 −1 ,τi1 )×···×[τin −1 ,τin ) (t1 , . . . , tn ) . i1 ,...,in =1 Przypomnijmy, że wówczas n-krotna całka Wienera - Itô funkcji fn dana jest wzorem In (fn ) = k X ai1 ,...,in ξi1 · · · ξin , i1 ,...,in =1 gdzie ξip = B(τip ) − B(τip −1 ). W celu obliczenia pochodnej Malliavina zmiennej In (fn ), skorzystamy z reguły łańcuchowej zastosowanej do funkcji g(x1 , . . . , xn ) = x1 · . . . · xn oraz 36 2043302643(36) z tego, iż Dt (B(τij ) − B(τij −1 )) = 1[τij −1 ,τij ) (t) (por. uwaga w przykładzie 2.2.5). Mamy zatem Dt F = n X k X ai1 ,...,in ξi1 · · · ξi(j−1) ξi(j+1) · · · ξin 1[τij −1 ,τij ) (t) = nIn−1 (fn (·, t)) , j=1 i1 ,...,in =1 gdzie w drugiej równości skorzystaliśmy z faktu, że funkcja fn jest symetryczna. e 2 (T n ). Wówczas, na mocy lematu 1.1.8, Niech teraz F = In (fn ) dla pewnej funkcji fn ∈ L k ∞ k 2 n istnieje ciąg {fn }k=1 ⊂ En taki, że fn → fn w L (T ), gdy k → ∞. Korzystając z nierówności (1.3), widzimy, że również fenk → fen = fn w L2 (T n ), gdy k → ∞. Wobec tego In (fenk ) → In (fn ) w sensie L2 (Ω), gdy k → ∞ . (2.6) Ponadto, z pierwszego kroku dowodu wiemy, że dla każdego k 1 zachodzi Dt (In (fenk )) = nIn−1 (fenk (·, t)), dla t ∈ [a, b]. Z drugiej strony zauważmy, że In−1 (fenk (·, t)) → In−1 (fn (·, t)) w L2 (Ω × T ) ∼ = L2 (Ω; H), przy k → ∞, ponieważ Z b E[ a |In−1 (fenk (·,t) − fn (·, t))|2 dt] Z b = (n − 1)! Z T n−1 a |fenk (t1 , . . . , tn−1 , t) − fn (t1 , . . . , tn−1 , t)|2 dt1 . . . dtn−1 dt = (n − 1)!kfenk − fn k2L2 (T n ) → 0, gdy k → ∞ , gdzie w pierwszej równości skorzystaliśmy z twierdzenia 1.1.10. Mamy wobec tego zbieżność Dt (In (fenk )) → nIn−1 (fn (·, t)) w L2 (Ω × T ) przy k → ∞, co w połączeniu z (2.6) i domkniętością operatora D, daje In (fn ) ∈ D1,2 oraz Dt (In (fn )) = nIn−1 (fn (·, t)). P e2 n Przyjmijmy wreszcie, że F ma postać ∞ n=0 In (fn ) dla pewnych fn ∈ L (T ). Rozważmy P N 2 ciąg sum częściowych {FN }∞ n=0 In (fn ). Mamy wówczas FN → F w L (Ω), N =0 , tzn. FN = gdy N → ∞, a ponadto na mocy liniowości D z poprzedniej części dowodu wiemy, że N X Dt (FN ) = nIn−1 (fn (·, t)) , (2.7) n=1 dla każdego N 1. Wprost z definicji przestrzeni D1,2 widzimy, że jeżeli ciąg {Dt (FN )}∞ N =1 jest zbieżny w L2 (Ω × T ), to F ∈ D1,2 . Zbieżność tego ciągu jest na mocy równości (2.7) P 2 równoważna zbieżności szeregu N n=1 nIn−1 (fn (·, t)) w L (Ω × T ), a to z kolei zachodzi wtedy i tylko wtedy, gdy ∞ X knIn−1 (fn (·, t))k2L2 (Ω×T ) < ∞ . n=1 Mamy jednak ∞ X knIn−1 (fn (·, t))k2L2 (Ω×T ) = n=1 ∞ X n=1 n2 Z b a (n − 1)!kfn (·, t)k2L2 (T n−1 ) dt = ∞ X nn!kfn k2L2 (T n ) . n=1 Oczywiście, jeżeli szereg (2.7) jest zbieżny, to jest zbieżny do ∞ n=1 nIn−1 (fn (·, t)), zatem aby zakończyć dowód wystarczy skorzystać z domkniętości operatora D. P 37 6336154113(37) 2.3. Związek pochodnej Malliavina z całką Skorohoda Pochodna Malliavina D traktowana jako operator S ⊂ L2 (Ω) → L2 (Ω; H) jest gęsto określonym operatorem nieograniczonym pomiędzy przestrzeniami Hilberta. Wobec tego jesteśmy w stanie zdefiniować dla niej operator sprzężony D∗ określony na pewnej podprzestrzeni L2 (Ω; H) (zob. np. [Wei80], rozdział 4.4). Mianowicie, dziedzina D∗ to rodzina tych zmiennych losowych u ∈ L2 (Ω; H), dla których istnieje stała cu 0 taka, że dla wszystkich F ∈ D1,2 zachodzi |E[hDF, ui]| ¬ cu kF kL2 (Ω) . Innymi słowy, jest to rodzina tych zmiennych losowych u ∈ L2 (Ω; H), dla których odwzorowanie liniowe D1,2 3 F 7→ E[hDF, ui] ∈ R jest ciągłe. Ponadto, wprost z definicji operatora sprzężonego zachodzi równość E[F D∗ (u)] = E[hDF, ui] , (2.8) dla wszystkich F ∈ D1,2 oraz wszystkich u z dziedziny D∗ . Tak zdefiniowany operator D∗ jest nazywany operatorem dywergencji. Nazewnictwo to wynika z analogii do klasycznej sytuacji w Rn . Jeżeli bowiem U ⊂ Rn jest ograniczonym obszarem o brzegu klasy C 1 , to dla funkcji u : U → R oraz pola wektorowego v : U → Rn klasy C 1 zachodzi wzór ZZ ∇u · vdx = Z u(v · n)dσ − u div vdx , U ∂U U ZZ gdzie n oznacza wektor normalny zewnętrzny do ∂U , zaś przez · oznaczyliśmy standardowy iloczyn skalarny w Rn . Widzimy zatem, że dla funkcji spełniających odpowiednie warunki brzegowe, operator dywergencji (z minusem) może być traktowany jako sprzężony do gradientu. Okazuje się, że w sytuacji z przykładu 2.2.5, tzn. gdy pochodna Malliavina jest operatorem o wartościach w L2 (Ω × T ), operator dywergencji D∗ jest tożsamy z całką Skorohoda δ, którą zdefiniowaliśmy w sekcji 1.5. Dowód tego faktu można znaleźć np. w [Nua12] (propozycja 1.64). My jednak wybierzemy inne podejście, oparte na monografii [DØP09]. Mianowicie wychodząc od naszej definicji całki Skorohoda, pokażemy, że zachodzi dla niej wzór (2.8). Twierdzenie 2.3.1. Niech F ∈ D1,2 i niech u ∈ Dom(δ). Wtedy Z b E[F δ(u)] = E[ u(t)Dt F dt] . (2.9) a ∞ Dowód. Niech F = ∞ k=0 Ik (gk (·, t)) dla t ∈ T , będą rozwinięciami n=0 In (fn ) oraz u(t) = w chaos Wienera - Itô, odpowiednio, zmiennej F i procesu u. Wówczas P P E[F δ(u)] = E[ = = ∞ X ∞ X In (fn ) n=0 ∞ X Ik+1 (gek )] k=0 E[Ik+1 (fk+1 )Ik+1 (gek )] k=0 ∞ X (k + 1)!hfk+1 , gek iL2 (T k+1 ) . k=0 Drugą równość w powyższym rozumowaniu można uzasadnić biorąc dowolne K, L ∈ N i rozpisując E[ L X n=0 In (fn ) K X k=0 min{K,L} Ik+1 (gek )] = X k=0 38 1492959245(38) E[Ik+1 (fk+1 )Ik+1 (gek )] , z wykorzystaniem wzajemnej ortogonalności In , Ik dla n 6= k, a następnie przechodząc do granicy kolejno z L i K, powołując się na słabą zbieżność w L2 (Ω) ciągu sum częściowych do szeregu całek wielokrotnych. Z drugiej strony, Z b E[ a u(t)Dt F dt] = E[ Z = Z bX ∞ a k=0 ∞ bX a k=0 Z bX ∞ Ik (gk (·, t)) ∞ X nIn−1 (fn (·, t))dt] n=1 E[(k + 1)Ik (gk (·, t))Ik (fk+1 (·, t))]dt (k + 1)k!hfk+1 (·, t), gk (·, t)iL2 (T k ) dt = a k=0 ∞ X (k + 1)!hfk+1 , gk iL2 (T k+1 ) , = k=0 przy czym drugą równość można uzasadnić podobnie jak wcześniej, zaś w trzeciej korzystamy z tego, iż gk jest funkcją symetryczną ze względu na swoje pierwsze k współrzędnych. Wobec tego dla pokazania tezy twierdzenia wystarczy zauważyć, że dla wszystkich k 0 zachodzi hfk+1 , gk iL2 (T k+1 ) = hfk+1 , gek iL2 (T k+1 ) . Istotnie, hfk+1 , gek iL2 (T k+1 ) = = Z b a hfk+1 (·, t), gek (·, t)iL2 (T k ) dt X 1 k+1 k + 1 j=1 Z b a hfk+1 (·, tj ), gk (·, tj )iL2 (T k ) dtj = hfk+1 , gk iL2 (T k+1 ) , ponieważ funkcja fk+1 i miara Lebesgue’a na Rk+1 są symetryczne. Niezwykle istotne z punktu widzenia zastosowań będzie następujące twierdzenie o całkowaniu przez części. Twierdzenie 2.3.2. Niech F ∈ D1,2 oraz u ∈ Dom(δ) będą takie, że F u ∈ Dom(δ). Wtedy δ(F u) = F δ(u) − Z b u(t)Dt F dt . (2.10) a Dowód. Ustalmy dowolną zmienną losową G ∈ D1,2 i zastosujmy do niej oraz do procesu {F u(t)}t∈T wzór (2.9). Mamy wówczas Z b E[Gδ(F u)] = E[ F u(t)Dt Gdt] a Z b = E[ a Z b u(t)Dt (F G)dt] − E[ = E[F Gδ(u)] − E[G u(t)GDt F dt] a Z b u(t)Dt F dt] , a gdzie w drugiej równości skorzystaliśmy z reguły produktowej dla pochodnej Malliavina, zaś w trzeciej ponownie ze wzoru (2.9). Ponieważ przestrzeń D1,2 jest gęsta w L2 (Ω), to z dowolności G ∈ D1,2 wynika teza. 39 8788486416(39) Kolejne twierdzenie tego typu powie nam, jak obliczać pochodną Malliavina z całki Skorohoda pewnego procesu stochastycznego. Twierdzenie 2.3.3. Niech u ∈ L2 (Ω × T ) będzie procesem stochastycznym takim, że dla dowolnie ustalonego t R ∈ T zachodzi u(t) ∈ D1,2 oraz {Dt u(s)}s∈T ∈ Dom(δ). Ponadto, załóżmy, że δ(Dt u) = ab Dt u(s)δB(s) ∈ L2 (Ω × T ) jako proces indeksowany zmienną t ∈ T . Wtedy δ(u) ∈ D1,2 oraz Dt (δ(u)) = δ(Dt u) + u(t) , (2.11) dla dowolnego t ∈ T . Dowód. Załóżmy najpierw, że u(s) = In (fn (·, s)), gdzie fn (t1 , . . . , tn , s) jest funkcją symetryczną względem zmiennych t1 , . . . , tn . Wówczas δ(u) = In+1 (fen ), gdzie 1 fen (x1 , . . . , xn+1 ) = [fn (·, x1 ) + . . . + fn (·, xn+1 )] . n+1 Wobec tego Dt (δ(u)) = (n + 1)In (fen (·, t)), gdzie 1 fen (·, t) = [fn (t, ·, x1 ) + . . . + fn (t, ·, xn ) + fn (·, t)] n+1 (funkcja fn jest symetryczna ze względu na swoje n pierwszych zmiennych, dlatego w kolejności argumentów ma znaczenie jedynie to, który z nich stoi na ostatniej pozycji - wobec tego możemy w n składnikach sumy zapisać zmienną t jako pierwszą). Stąd Dt (δ(u)) = In [fn (t, ·, x1 ) + . . . + fn (t, ·, xn )] + u(t) . (2.12) Z drugiej strony, Z b δ(Dt u) = Z b Dt u(s)δB(s) = a nIn−1 (fn (·, t, s))δB(s) = nIn (fbn (·, t, ·)) , a gdzie 1 [fn (t, ·, x1 ) + . . . + fn (t, ·, xn )] n jest symetryzacją funkcji fn (x1 , . . . , xn−1 , t, xn ) względem zmiennych x1 , . . . , xn . Wobec tego fbn (x1 , . . . , xn−1 , t, xn ) = δ(Dt u) = In [fn (t, ·, x1 ) + . . . + fn (t, ·, xn )] . (2.13) Porównując (2.12) i (2.13) dostajemy tezę dla u(t) = In (fn (·, t)). P Rozważmy teraz ogólny przypadek u(s) = ∞ n=0 In (fn (·, s)) i określmy ciąg sum częPM ściowych uM (s) := n=0 In (fn (·, s)) dla M ∈ N. Na mocy poprzedniej części dowodu oraz liniowości całki Skorohoda i pochodnej Malliavina, dla każdego M mamy Dt (δ(uM )) = δ(Dt uM ) + uM (t) . Korzystając w odpowiedni sposób z założeń i wykonując przejście graniczne w sensie przestrzeni L2 (Ω×T ) przy M → ∞, otrzymujemy tezę. Szczegóły techniczne tego przejścia można znaleźć w [DØP09] (twierdzenie 3.18). Na koniec tej sekcji zacytujmy jeszcze bez dowodu pewien wniosek z powyższego twierdzenia, opisujący sytuację, w której rozważany proces jest adaptowany. Wniosek 2.3.4. Niech proces stochastyczny {u(t)}t∈T będzie taki jak w założeniach twierdzenia 2.3.3. Załóżmy ponadto, że u jest {Ft }t∈T - adaptowany. Wtedy Z b Dt ( Z b u(s)dB(s)) = a Dt u(s)dB(s) + u(t) , t dla dowolnego t ∈ T . 40 1723101209(40) Rozdział 3 Estymatory parametrów greckich Jednym z najpopularniejszych zastosowań rachunku Malliavina w matematyce finansowej jest estymacja tzw. parametrów greckich. W rozdziale tym przedstawimy najpierw krótko różne sposoby podejścia do tej problematyki niewykorzystujące metod rachunku Malliavina, a następnie przyjrzymy się sytuacjom, w których teoria ta może przynieść nam wymierne korzyści. Dla uproszczenia, w rozdziale tym będziemy pracować w klasycznym jednowymiarowym modelu Blacka - Scholesa, tzn. zakładamy, że rozważamy pewien instrument bazowy (np. akcje jakiejś firmy), którego cena modelowana jest następującym stochastycznym równaniem różniczkowym ( dS(t) = µS(t)dt + σS(t)dB(t) S(0) = x , (3.1) gdzie µ ∈ R, σ, x > 0, zaś t zmienia się w przedziale [0, T ]. Parametr σ jest nazywany zmiennością modelu, zaś x oznacza cenę początkową instrumentu bazowego. Prezentowane rozważania można uogólnić na przypadek innych, bardziej skomplikowanych modeli, takich jak model Hestona (zob. np. [Ben02]) lub modele oparte o skokowe procesy Levy’ego (poświęcona jest temu duża część monografii [DØP09]). Jednak model Blacka Scholesa jest wystarczający do ukazania głównych idei omawianej metodologii, a dzięki swojej prostocie pozwala na uniknięcie kłopotliwych szczegółów technicznych. 3.1. Parametry greckie Niech Φ oznacza funkcję wypłaty pewnego instrumentu pochodnego (opcji), tzn. Φ : R → R jest pewną funkcją borelowską. Jeśli wypłata zależy jedynie od wartości instrumentu bazowego w chwili końcowej T , tzn. Φ = Φ(S(T )), to mamy do czynienia z tzw. opcją europejską. Innym interesującym nas rodzajem opcji będą opcje azjatyckie. Mogą one występować w wariancie dyskretnym, gdy funkcja wypłaty zależy od ceny instrumentu bazowego w pewnej skończonej liczbie chwil t1 , . . . , tm ∈ [0, T ], tzn. Φ = Φ(S(t1 ), . . . , S(tm )) lub teżR w wariancie ciągłym, gdy wypłata zależy od średniej całkowej wszystkich cen, tzn. Φ = Φ( 0T S(t)dt). Jak wiadomo, w modelu (3.1) wartość opcji o funkcji wypłaty Φ w chwili t = 0 dana jest jako V0 = EQ [e−rT Φ] , gdzie r oznacza stopę procentową, a zatem jest to zdyskontowana wartość oczekiwana funkcji wypłaty względem miary Q neutralnej względem ryzyka. W matematyce finansowej w wielu 41 3759541754(41) sytuacjach rozważa się tzw. parametry greckie. Są to pochodne wartości V0 względem różnych parametrów modelu. Do najczęściej używanych należą ∂V0 (delta) , ∂x ∂ 2 V0 (gamma) , Γ= ∂x2 ∂V0 ν= (vega) , ∂σ ∂V0 ρ= (ro) . ∂r ∆= Nazwa ”parametry greckie” wynika z faktu, iż wartości te tradycyjnie oznacza się za pomocą liter alfabetu greckiego (warto w tym miejscu odnotować, że w alfabecie greckim nie ma takiej litery jak ”vega”, zaś parametr ten oznacza się literą ni). Informacje na temat zastosowań parametrów greckich w matematyce finansowej można znaleźć np. w monografii [Hul09]. Dostępne są tam również powszechnie znane wzory na deltę, gammę, vegę i ro dla europejskich opcji call i put. Jednak nie dla każdej opcji takie wzory daje się otrzymać i np. w przypadku opcji azjatyckich konieczne okazuje się stosowanie metod numerycznych w celu obliczenia przybliżonej wartości interesujących nas parametrów. Przyjrzymy się teraz kilku możliwym sposobom podejścia do tego problemu poprzez symulacje metodą Monte Carlo. 3.2. Klasyczne metody estymacji Niech λ oznacza pewien parametr rozważanego modelu, od którego zależy funkcja wypłaty opcji, tzn. Φ = Φ(λ). Wówczas u(λ) = EQ [e−rT Φ(λ)] jest wartością opcji w chwili t = 0, traktowaną jako funkcja zmiennej λ. Naszym celem będzie obliczenie u0 (λ) (lub, w przypadku parametru gamma, u00 (λ)). Zakładamy przy tym, że jesteśmy w stanie (za pomocą generatora liczb pseudolosowych) generować realizacje zmiennej losowej Φ(λ), dzięki czemu będziemy mogli wyestymować wartość u0 (λ) metodą Monte Carlo. 3.2.1. Metoda różnic skończonych Metoda ta opiera się na oczywistej obserwacji faktu, iż dla małych wartości h > 0, wartość ilorazu różnicowego u(λ + h) − u(λ) h jest bliska wartości pochodnej funkcji u w punkcie λ. Zatem aby wyestymować u0 (λ) metodą Monte Carlo, wystarczy przeprowadzić odpowiednio dużo symulacji zmiennej Φ(λ + h) oraz Φ(λ), obliczyć dla nich średnie arytmetyczne Φ̄(λ + h) oraz Φ̄(λ) otrzymanych wartości (gdyż estymatorem wartości oczekiwanej EQ jest oczywiście średnia arytmetyczna próby), a następnie tak otrzymane estymatory odjąć, pomnożyć przez e−rT i podzielić przez parametr h. Dostajemy więc estymator û0 (λ) = e−rT Φ̄(λ + h) − Φ̄(λ) . h (3.2) Główną zaletą tej metody jest jej prostota, gdyż daje się ona zastosować do zupełnie dowolnej funkcji wypłaty Φ. Łatwo jednak widać, że takie podejście niesie ze sobą podwójny błąd, 42 3211823703(42) bowiem oprócz błędu wynikającego z faktu estymowania wartości oczekiwanej EQ za pomocą średniej arytmetycznej (który występuje zawsze przy metodzie Monte Carlo) mamy również błąd wynikający z przybliżania wartości pochodnej wartością ilorazu różnicowego. Zauważmy, że taki estymator jest estymatorem obciążonym. Mianowicie, przy założeniu, że funkcja u jest dwukrotnie różniczkowalna w punkcie λ, możemy zapisać ze wzoru Taylora 1 u(λ + h) = u(λ) + u0 (λ)h + u00 (λ)h2 + o(h2 ) . 2 Mamy wtedy 1 EQ [û0 (λ) − u0 (λ)] = u00 (λ)h + o(h) , 2 gdyż EQ [û0 (λ)] = e−rT EQ [Φ(λ + h)] − EQ [Φ(λ)] u(λ + h) − u(λ) = , h h zaś u(λ + h) − u(λ) − 12 u00 (λ)h2 − o(h2 ) . h Możemy to obciążenie zmniejszyć, stosując alternatywny estymator EQ [u0 (λ)] = u0 (λ) = e−rT Φ̄(λ + h) − Φ̄(λ − h) . 2h (3.3) Oczywiście wartość takiego ilorazu różnicowego dla małych h również przybliża wartość pochodnej, ale tym razem rozpisując 1 u(λ + h) = u(λ) + u0 (λ)h + u00 (λ)h2 + o(h2 ) , 2 1 0 u(λ − h) = u(λ) − u (λ)h + u00 (λ)h2 + o(h2 ) , 2 widzimy, że przy obliczaniu wartości oczekiwanej naszego nowego estymatora (3.3), w wyrażeniu u(λ + h) − u(λ − h) zredukuje się wyraz przy h2 , a zatem jego obciążenie wyniesie u(λ + h) − u(λ − h) 2u0 (λ)h + o(h2 ) − u0 (λ) = − u0 (λ) = o(h) , 2h 2h czyli będzie mniejszego rzędu niż w estymatorze (3.2). Wobec tego w obu estymatorach obciążenie jest niezerowe, ale zmniejsza się wraz z coraz mniejszą wartością parametru h. Jednak zwróćmy uwagę, że wariancja powyższych estymatorów jest dana jako Var[û0 (λ)] = 1 Var[e−rT (Φ̄(λ + h) − Φ̄(λ))] h2 (i analogicznie dla estymatora (3.3)), tzn. wariancja rośnie gdy h maleje, przy czym, jak zauważa autor [Gla04], tempo wzrostu wariancji jest mniejsze, gdy do obliczenia realizacji zmiennej Φ w obu interesujących nas punktach używamy tych samych liczb losowych, niż gdybyśmy symulowali te wartości w sposób niezależny. W książce tej można znaleźć obszerną dyskusję na temat optymalnego doboru wielkości parametru h w zależności od liczby przeprowadzonych symulacji n. Reasumując, widzimy jasno, że metoda różnic skończonych jest daleka od doskonałości i dlatego tam gdzie to możliwe warto zastanowić się nad metodami alternatywnymi. 43 1897330317(43) 3.2.2. Metoda pochodnej po trajektoriach Ponieważ interesująca nas wielkość u0 (λ) = d EQ [e−rT Φ(λ)] dλ jest pochodną wyrażenia będącego wartością oczekiwaną pewnej zmiennej losowej, warto zastanowić się, czy można zamienić kolejność różniczkowania i brania wartości oczekiwanej (czyli de facto całkowania). Mielibyśmy wtedy d d EQ [e−rT Φ(λ)] = EQ [e−rT Φ(λ)] , dλ dλ (3.4) d czyli wyrażenie e−rT dλ Φ(λ) stanowiłoby nieobciążony estymator u0 (λ). Podkreślmy w tym d Φ(λ) istnieje z prawmiejscu, że aby zapisać wzór (3.4), musimy założyć, że pochodna dλ dopodobieństwem jeden w tym sensie, że dla dowolnie ustalonego λ z pewnego przedziału rozważanych możliwych wartości tego parametru, istnieje zbiór A = A(λ) ⊂ Ω taki, że d d Q(A) = 1 oraz dla każdego ω ∈ A istnieje dλ Φ(λ, ω). Wówczas zmienna losowa dλ Φ(λ) jest nazywana pochodną po trajektoriach (ang. pathwise derivative) zmiennej Φ w punkcie λ. Zacytujemy teraz zbiór warunków wystarczających do tego, aby zachodziła równość (3.4), podany przez Broadiego i Glassermana w pracy [BG96]. Zakładamy, że parametr λ zmienia się w pewnym otwartym przedziale Λ ⊂ R i że dla dowolnie ustalonego λ ∈ Λ zmienna losowa Φ(λ) jest funkcją pewnego wektora losowego X(λ) = (X1 (λ), . . . , Xm (λ)), tzn. Φ(λ) = f (X1 (λ), . . . , Xm (λ)) , dla pewnej funkcji f : Rm → R. W powyższym zapisie wektor X(λ) może być interpretowany jako zestaw cen danego instrumentu bazowego w różnych momentach czasowych lub też zestaw cen różnych instrumentów bazowych (wszystkich zależnych od parametru λ). Rozważmy następujące warunki: (A) Dla każdego λ ∈ Λ oraz dla każdego i ∈ {1, . . . , m} Xi (λ + h) − Xi (λ) h→0 h Xi0 (λ) = lim istnieje z prawdopodobieństwem 1. (B) Jeżeli Df ⊂ Rm oznacza zbiór punktów, w których funkcja f jest różniczkowalna, to dla dowolnego λ ∈ Λ zachodzi Q(X(λ) ∈ Df ) = 1. (C) Funkcja f jest lipschitzowska, tzn. istnieje stała kf taka, że dla dowolnych x, y ∈ Rm zachodzi |f (x) − f (y)| ¬ kf kx − yk . (D) Istnieją zmienne losowe Ki dla i ∈ {1, . . . , m} takie, że EQ [Ki ] < ∞ oraz dla dowolnych λ1 , λ2 ∈ Λ zachodzi |Xi (λ2 ) − Xi (λ1 )| ¬ Ki |λ2 − λ1 | , dla i ∈ {1, . . . , m}. d Warunki (A) i (B) gwarantują, że dla dowolnie ustalonego λ ∈ Λ, pochodna dλ Φ(λ) istnieje z prawdopodobieństwem 1. Znajdziemy bowiem zbiór pełnej miary taki, że na tym zbiorze 44 1016639094(44) X(λ) ∈ Df oraz istnieją Xi0 (λ) dla wszystkich i ∈ {1, . . . , m}, a zatem możemy w punktach ω z tego zbioru zastosować zwykłą regułę łańcuchową w Rm i obliczyć m X d ∂f (X(λ))Xi0 (λ) . Φ(λ) = dλ ∂x i i=1 Warunki (C) i (D) z kolei zapewniają, że możliwa jest zamiana kolejności różniczkowania i całkowania we wzorze (3.4). Mianowicie, zauważmy, że istnieje zmienna losowa K taka, że EQ [K] < ∞ oraz dla dowolnych λ1 , λ2 ∈ Λ zachodzi |f (X(λ2 )) − f (X(λ1 ))| ¬ K|λ2 − λ1 | (jeżeli w Rm przyjmiemy jako normę sumę modułów współrzędnych, to możemy wziąć zmienP ną K = m i=1 kf Ki ). Zatem dla dowolnego λ ∈ Λ i dla h > 0 takiego, że λ + h ∈ Λ mamy | Φ(λ + h) − Φ(λ) |¬K, h a wobec tego możemy zastosować twierdzenie Lebesgue’a o zmajoryzowanym przejściu do granicy pod znakiem całki i otrzymać −rT lim EQ e h→0 Φ(λ + h) − Φ(λ) Φ(λ + h) − Φ(λ) = EQ e−rT lim . h→0 h h Stąd dostajemy wzór (3.4). W praktyce warunki (A), (B) i (D) zazwyczaj są spełnione. Problem pojawia się przy warunku (C), gdyż istnieją opcje o nieciągłej funkcji wypłaty, do których nie można zastosować powyższego rozumowania. Przyjrzyjmy się opisanej tutaj metodzie na przykładzie estymatora delty europejskiej opcji call (oczywiście w tym przypadku chcąc obliczyć deltę możemy wprost zastosować znany wzór, ale jest to dobry przykład ilustrujący metodę pochodnej po trajektoriach). Mianowicie, niech Φ = (S(T ) − K)+ = max{S(T ) − K, 0} dla pewnego K > 0. Przypomnijmy, że pracujemy w modelu Blacka-Scholesa, tzn. cena instrumentu bazowego dana jest równaniem (3.1). Wobec tego σ2 e )} , S(T ) = x exp{(r − )T + σ B(T 2 e gdzie {B(t)} t∈[0,T ] oznacza proces Wienera względem miary Q (zob. np. [Kle05], sekcja 11.4). Chcemy obliczyć parametr grecki ∆, zatem w oznaczeniach z powyższgo rozumowania jako λ przyjmujemy x, zaś jako przedział Λ można wziąć cały zbiór R. Funkcja f w przypadku opcji call dana jest jako f (y) = max{y − K, 0}, zaś w miejsce wektora X(λ) mamy zmienną losową S(T ) (zależną w oczywisty sposób od x). Łatwo widać, że w takiej sytuacji spełnione są warunki (A), (C) i (D). Jeśli chodzi o warunek (B), to wprawdzie funkcja f nie jest różniczkowalna w punkcie y = K, ale prawdopodobieństwo zdarzenia {S(T ) = K} jest równe zeru, zatem również jest on spełniony. Możemy zatem zapisać dΦ d EQ [e−rT Φ] = EQ e−rT , ∆= dx dx zaś do obliczenia dΦ dx możemy na zbiorze pełnej miary zastosować regułę łańcuchową, tzn. dΦ dΦ dS(T ) = . dx dS(T ) dx 45 3092155430(45) Widzimy, że z prawdopodobieństwem 1 dΦ = 1{S(T )>K} , dS(T ) zaś dS(T ) S(T ) = , dx x a stąd wynika, że średnia arytmetyczna realizacji zmiennej losowej postaci e−rT (3.5) S(T ) 1 . x {S(T )>K} (3.6) stanowi nieobciążony estymator parametru ∆. Niestety, jak już zauważyliśmy, rozumowania tego typu nie da się zastosować np. w sytuacji, gdy funkcja wypłaty opcji jest nieciągła, czyli w przypadku opcji binarnych lub barierowych. 3.2.3. Metoda stosunku wiarygodności Główna idea tej metody (ang. likelihood ratio method) opiera się na tym, że w przypadku gdy znana jest gęstość instrumentu bazowego, to jest zazwyczaj bardziej regularna od funkcji wypłaty opcji. Zatem zapisując wzór na wartość opcji z użyciem tej gęstości może być łatwiej o zamianę kolejności różniczkowania i całkowania niż w przypadku ”zwykłego” zapisu wykorzystującego funkcję wypłaty. Podobnie jak w rozważaniach dotyczących metody pochodnej po trajektoriach, zakładamy, że Φ daje się przedstawić jako funkcja f wektora losowego X = (X1 , . . . , Xm ). Przyjmujemy dodatkowo, że wektor X posiada gęstość g względem miary Q. Tym razem zależność funkcji wypłaty od pewnego parametru λ będziemy wyrażać za pomocą gęstości tego wektora, tzn. zakładamy że g zależy od λ i będziemy ją oznaczać gλ . Wobec tego wartość opcji o funkcji wypłaty Φ = Φ(λ) w chwili t = 0 dana jest jako −rT EQ [e −rT Φ(λ)] = EQ [e Z f (X)] = Rm e−rT f (x)gλ (x)dx . Przy założeniu, że można zamienić kolejność różniczkowania i całkowania, możemy wówczas obliczyć Z d d e−rT f (x) gλ (x)dx . EQ [e−rT Φ(λ)] = (3.7) dλ dλ Rm Przekształcając dalej to wyrażenie, otrzymamy Z e Rm −rT d f (x) gλ (x)dx = dλ Z −rT e Rm f (x) d dλ gλ (x) gλ (x) " −rT gλ (x)dx = EQ e f (X) d dλ gλ (X) gλ (X) # , a zatem widzimy, że średnia arytmetyczna realizacji zmiennej losowej d gλ (X) e−rT f (X) dλ gλ (X) jest nieobciążonym estymatorem rozważanego przez nas parametru greckiego. Jak już zauważyliśmy, gęstości zmiennych losowych są zazwyczaj gładkie, więc bez problemu można zamienić kolejność różniczkowania i całkowania we wzorze (3.7). Jednak do użycia tej metody konieczna jest znajomość wzoru na gęstość, co w praktyce może się okazać poważnym ograniczeniem (np. w przypadku opcji azjatyckich, w których funkcja wypłaty zależy od R średniej całkowej cen instrumentu bazowego na przedziale [0, T ], tzn. Φ = Φ( 0T S(t)dt)). 46 4138032721(46) 3.3. Estymatory z użyciem rachunku Malliavina Powyższy przegląd metod estymacji parametrów greckich pokazuje, że w pewnych przypadkach dobór odpowiedniego estymatora może okazać się kłopotliwy. Wprawdzie zawsze można zastosować metodę różnic skończonych, ale jak zauważyliśmy jest ona mocno niedoskonała i używając jej trzeba decydować się na kompromis pomiędzy obciążeniem estymatora, a jego wariancją. W tej sekcji przyjrzymy się alternatywnym metodom opartym na rachunku Malliavina, które nie wymagają znajomości gęstości instrumentu bazowego i dają się stosować również dla opcji o nieciągłych funkcjach wypłaty. Zacznijmy od podania pewnego twierdzenia, które okaże się kluczowe w dalszych obliczeniach. Twierdzenie 3.3.1. Niech F ∈ D1,2 oraz G ∈ L2 (Ω). RPonadto, niech u ∈ L2 (Ω × [0, T ]) RT będzie procesem takim, że 0 u(t)Dt F dt 6= 0 p.w. oraz Gu( 0T u(t)Dt F dt)−1 ∈ Dom(δ). Wtedy dla dowolnej funkcji f ∈ C 1 (R) o ograniczonej pochodnej zachodzi E[f 0 (F )G] = E[f (F )H(F, G)] , (3.8) ! Gu(·) gdzie stosujemy oznaczenie H(F, G) := δ RT 0 u(t)Dt F dt ! = Gu(s) RT 0 RT 0 u(t)Dt F dt δB(s). Dowód. Na podstawie reguły łańcuchowej (twierdzenie 2.2.12) mamy Dt (f (F )) = f 0 (F )Dt F . Mnożąc obie strony przez Gu, a następnie całkując po t ∈ [0, T ] otrzymujemy Z T Z T 0 Z T 0 u(t)Dt F dt . f (F )Dt F Gu(t)dt = f (F )G Dt (f (F ))Gu(t)dt = 0 0 0 Korzystając z założenia o tym, że 0T u(t)Dt F dt 6= 0 p.w. możemy podzielić obie strony powyższej równości przez to wyrażenie i dostać R 0 "R T 0 E[f (F )G] = E Dt (f (F ))Gu(t)dt RT 0 u(t)Dt F dt # . Następnie stosując twierdzenie mówiące o tym, że całka Skorohoda jest operatorem sprzężonym do pochodnej Malliavina, czyli wzór (2.9), otrzymujemy "R T E 0 Dt (f (F ))Gu(t)dt RT 0 u(t)Dt F dt # " = E f (F )δ Gu(·) RT 0 u(t)Dt F dt !# . Uwaga 3.3.2. Jeżeli zmienna losowa F ma rozkład absolutnie ciągły względem miary Lebesgue’a na R, to na podstawie twierdzenia 2.2.13 wnioskujemy, że wzór (3.8) zachodzi również gdy funkcja f jest lipschitzowska. Możemy teraz przystąpić do analizy konkretnych przykładów. 47 3661553830(47) 3.3.1. Delta opcji europejskiej Rozpoczniemy od wyprowadzenia wzoru na estymator delty dla opcji europejskiej, tzn. opcji o funkcji wypłaty Φ = Φ(S(T )). Załóżmy najpierw, że Φ jest funkcją klasy C 1 o ograniczonej pochodnej. Wówczas można zamienić kolejność różniczkowania i brania wartości oczekiwanej, mamy zatem d dS(T ) −rT −rT 0 ∆= . EQ [e Φ(S(T ))] = EQ e Φ (S(T )) dx dx Korzystając ze wzoru (3.5) otrzymujemy EQ e−rT Φ0 (S(T )) dS(T ) e−rT = EQ [Φ0 (S(T ))S(T )] . dx x Stosujemy teraz twierdzenie 3.3.1, biorąc we wzorze (3.8) F = G = S(T ) oraz proces u ≡ 1. Dostajemy zatem " e−rT e−rT EQ [Φ0 (S(T ))S(T )] = EQ Φ(S(T ))δ x x S(T ) RT 0 Dt (S(T ))dt !# . W celu obliczenia całki Skorohoda występującej w powyższym wzorze, zauważmy najpierw, że zmienną losową S(T ) można przedstawić jako e )) , S(T ) = g(B(T 2 gdzie g(y) := x exp{(r − σ2 )T + σy}. Mamy wtedy g 0 (y) = σg(y), a wobec tego, stosując regułę łańcuchową dla pochodnej Malliavina (twierdzenie 2.2.12), otrzymujemy e )) . Dt (S(T )) = σS(T )Dt (B(T Tymczasem Z T e 1dB(s) , e )= B(T 0 e )) = 1, dla t ∈ [0, T ]. Wobec tego a zatem Dt (B(T Z T Z T σS(T )dt = T σS(T ) . Dt (S(T ))dt = 0 (3.9) 0 Mamy więc δ S(T ) RT 0 Dt (S(T ))dt ! =δ S(T ) T σS(T ) =δ 1 Tσ = e ) B(T 1 δ(1) = , Tσ Tσ e ) (co wynika wprost z definicji lub alternatywnie z faktu, iż proces stale gdyż δ(1) = B(T równy 1 jest adaptowany, a zatem możemy liczyć tę całkę jako zwykłą całkę Itô). Ostatecznie ∆= e−rT e )] . EQ [Φ(S(T ))B(T xT σ (3.10) Wobec tego parametr ∆ będziemy estymować za pomocą średniej arytmetycznej realizacji zmiennej losowej e−rT e ) Φ(S(T ))B(T xT σ i na podstawie wzoru (3.10) wnioskujemy, że będzie to estymator nieobciążony. 48 2048074016(48) Uwaga 3.3.3. Wzór (3.10) jest prawdziwy również dla funkcji Φ, która nie jest ciągła. Jak zauważa autorka [Nua12] (uwaga 3.7 w jej skrypcie), wystarczy, aby Φ była funkcją przedziałami ciągłą, o skokowych nieciągłościach i wzroście liniowym. Wówczas stosując odpowiednią aproksymację oraz fakt, że wzór (3.10) mamy już wykazany dla pewnej klasy funkcji, możemy otrzymać go również przy słabszych założeniach. Mozliwość osłabienia założeń dotyczących regularności funkcji wypłaty Φ jest bardzo istotna w kontekście praktycznych zastosowań, gdyż, jak podkreśliliśmy przy okazji omawiania metody pochodnej po trajektoriach, problemy sprawiają właśnie opcje o nieciągłych funkcjach wypłaty i dla nich będziemy chcieli wykorzystać otrzymane przez nas estymatory. W kolejnych przykładach zawsze będziemy wykonywać obliczenia przy założeniu, że Φ jest klasy C 1 o ograniczonej pochodnej, mając w pamięci fakt, iż wyprowadzane wzory można poprzez aproksymację uogólnić na szerszą klasę funkcji. 3.3.2. Gamma opcji europejskiej Na podstawie obliczeń wykonanych na początku naszych rozważań dotyczących delty opcji europejskiej wiemy już, że d e−rT EQ [e−rT Φ(S(T ))] = EQ [Φ0 (S(T ))S(T )] . dx x Wobec tego ! e−rT EQ [Φ0 (S(T ))S(T )] x d2 d Γ = 2 EQ [e−rT Φ(S(T ))] = dx dx e−rT e−rT dS(T ) dS(T ) = − 2 EQ [Φ0 (S(T ))S(T )] + EQ Φ00 (S(T )) S(T ) + Φ0 (S(T )) x x dx dx −rT e = 2 EQ [Φ00 (S(T ))S 2 (T )] . x Przy dodatkowym założeniu, że Φ0 również jest funkcją klasy C 1 o ograniczonej pochodnej, możemy zastosować twierdzenie 3.3.1 biorąc we wzorze (3.8) F = S(T ), G = S 2 (T ) oraz u ≡ 1. Dostajemy wówczas " e−rT e−rT 00 2 E [Φ (S(T ))S (T )] = EQ Φ0 (S(T ))δ Q x2 x2 = e−rT EQ x2 RT 0 Dt (S(T ))dt S(T ) Φ (S(T ))δ σT 0 . Skorzystamy teraz z twierdzenia 2.3.2, we wzorze (2.10) przyjmując F = Mamy zatem S(T ) δ σT S(T ) = δ(1) − σT Z T Dt 0 e ) e−rT B(T −1 Γ = 2 EQ Φ0 (S(T ))S(T ) x σT 49 2750458633(49) S(T ) σT e ) S(T ) S(T )B(T dt = − S(T ) . σT σT Otrzymaliśmy więc " !# S 2 (T ) !# oraz u ≡ 1. i możemy teraz zastosować ponownie twierdzenie 3.3.1 biorąc we wzorze (3.8) F = S(T ), ) G = S(T )( B(T σT − 1) oraz u ≡ 1. Dostajemy e e ) e−rT B(T 0 E Φ (S(T ))S(T ) −1 Q x2 σT " e ) B(T σT − 1 S(T ) e−rT . Φ(S(T ))δ R E Q T x2 D (S(T ))dt t 0 !# = e )) = B e 2 (T ) − T , a zatem Na podstawie przykładu 1.5.7 wiemy, że δ(B(T δ S(T ) RT 0 e ) B(T −1 σT Dt (S(T ))dt !! e ) B(T −1 σT 1 = δ σT ! e 2 (T ) B 1 e ) − − B(T σT σ 1 = σT ! . Ostatecznie dostajemy wzór na gammę postaci " e 2 (T ) B e−rT 1 e ) Γ = 2 EQ Φ(S(T )) − − B(T x σT σT σ !# . (3.11) 3.3.3. Vega opcji europejskiej Tym razem będziemy chcieli obliczyć pochodną wartości opcji względem parametru σ. Mamy dS(T ) d EQ [e−rT Φ(S(T ))] = EQ e−rT Φ0 (S(T )) . dσ dσ ν= Przypomnijmy, że S(T ) = x exp{(r − σ2 e )} , )T + σ B(T 2 a wobec tego dS(T ) e )) . = S(T )(−σT + B(T dσ e ) − σT ) Zastosujemy teraz twierdzenie 3.3.1 biorąc we wzorze (3.8) F = S(T ), G = S(T )(B(T oraz u ≡ 1. Dostaniemy wówczas −rT EQ e " dS(T ) Φ (S(T )) = EQ e−rT Φ(S(T ))δ dσ 0 e ) − σT ) S(T )(B(T RT 0 Dt (S(T ))dt !# . Podczas obliczania estymatora dla delty opcji europejskiej pokazaliśmy, że Z T Dt (S(T ))dt = σT S(T ) 0 (por. wzór (3.9)), a zatem δ e ) − σT ) S(T )(B(T RT 0 ! Dt (S(T ))dt = 1 e ) − σT ) . δ(B(T σT Podobnie jak przy liczeniu gammy możemy powołać się na przykład 1.5.7 i stwierdzić, że e )) = B e 2 (T ) − T . Wobec tego δ(B(T 1 e ) − σT ) = 1 (B e 2 (T ) − T − σT B(T e )) . δ(B(T σT σT Otrzymaliśmy więc wzór ν= e−rT e 2 (T ) − T − σT B(T e ))] . EQ [Φ(S(T ))(B σT 50 2575391254(50) (3.12) 3.3.4. Delta opcji azjatyckiej Tym razem będziemy rozważać opcję azjatycką, tzn. przyjmujemy, że Φ = Φ(S̄(T )), gdzie RT S̄(T ) = 0 S(t)dt. Mamy wówczas " # dS̄(T ) d EQ [e−rT Φ(S̄(T ))] = EQ e−rT Φ0 (S̄(T )) . ∆= dx dx Jednak dS̄(T ) = dx Z T dS(t) dx 0 Z T S(t) dt = x 0 1 S̄(T ) , x dt = a zatem " # −rT EQ e dS̄(T ) e−rT Φ (S̄(T )) = EQ [Φ0 (S̄(T ))S̄(T )] . dx x 0 (3.13) Zastosujemy teraz twierdzenie 3.3.1, we wzorze (3.8) przyjmując F = G = S̄(T ), ale zamiast brać u ≡ 1 tak jak w rozważaniach dotyczących opcji europejskich, weźmy u(t) = S(t). Dostajemy wówczas " e−rT e−rT EQ [Φ0 (S̄(T ))S̄(T )] = EQ Φ(S̄(T ))δ x x !# S̄(T )S(·) RT Dt (S̄(T ))S(t)dt 0 . Policzmy najpierw ! Z T Dt (S̄(T )) = Dt S(s)ds Z T Dt S(s)ds = 0 0 Z T Z T Z T e σS(s)Dt B(s)ds = = 0 0 σS(s)1[0,s] (t)ds = σ S(s)ds . t Wobec tego Z T Z T Dt (S̄(T ))S(t)dt = σ Z T S(t) t 0 0 ! 1 S(s)ds dt = σ 2 Z TZ T 0 0 1 S(t)S(s)dtds = σ(S̄(T ))2 . 2 Stąd δ ! S̄(T )S(·) RT 0 Dt (S̄(T ))S(t)dt =δ S̄(T )S(·) 1 2 2 σ(S̄(T )) ! S(·) 2 = δ σ S̄(T ) . Chcąc obliczyć tę całkę Skorohoda, zastosujemy twierdzenie 2.3.2, we wzorze (2.10) przyjmując F = (S̄(T ))−1 oraz u(t) = S(t). Otrzymujemy zatem 2 S(·) δ σ S̄(T ) 2 = σ 1 δ(S(·)) − S̄(T ) Z T S(t)Dt 0 ! 1 dt S̄(T ) . Zauważmy, że na podstawie reguły łańcuchowej dla pochodnej Malliavina mamy Dt 1 S̄(T ) =− 1 σ Dt (S̄(T )) = − 2 (S̄(T )) (S̄(T ))2 51 9509835419(51) Z T S(s)ds . t Ponadto wiemy, że proces {S(t)}t∈[0,T ] jest adaptowany, więc δ(S(·)) = my obliczyć 2 σ 1 δ(S(·)) − S̄(T ) Z T S(t)Dt 0 1 dt S̄(T ) ! 2 = σ RT 2 σ RT = 2 = σ 0 0 RT 0 RT 0 e S(t)dB(t) i może- ! R Z T σS(t) tT S(s)ds dt 2 e S(t)dB(t) + S̄(T ) (S̄(T )) 0 e S(t)dB(t) σ + 2 S̄(T ) ! e S(t)dB(t) + 1. S̄(T ) Wiemy też, że proces {S(t)}t∈[0,T ] spełnia stochastyczne równanie różniczkowe e dS(t) = rS(t)dt + σS(t)dB(t) (zob np. [Kle05], sekcja 11.4), a stąd Z T 1 e S(t)dB(t) = S(T ) − x − r σ 0 ! Z T S(t)dt . 0 Reasumując, otrzymaliśmy δ ! S̄(T )S(·) RT 0 Dt (S̄(T ))S(t)dt 2 1 (S(T ) − x − r = σ σ S̄(T ) RT 0 S(t)dt) σ2 S(T ) − x −r+ 2 S̄(T ) 2 +1= 2 σ ! . Zatem ostatecznie dostajemy wzór postaci " σ2 2e−rT S(T ) − x − r + ∆= E Φ( S̄(T )) Q xσ 2 2 S̄(T ) !# . (3.14) Warto w tym miejscu podkreślić, że nie jest to jedyny sposób na otrzymanie estymatora delty opcji azjatyckiej. Powyższe obliczenia oparliśmy na przykładzie 3.13 ze skryptu [Nua12], ale alternatywne podejście prezentują np. autorzy pracy [KKM02]. Mianowicie, dochodząc na początku tak jak my do wzoru (3.13), stosują twierdzenie 3.3.1, ale we wzorze (3.8) biorą F = G = S̄(T ) i u ≡ 1. Dostają wówczas " e−rT e−rT EQ [Φ0 (S̄(T ))S̄(T )] = EQ Φ(S̄(T ))δ x x Ponieważ Z T RT 0 Z TZ T Dt (S̄(T ))dt = 0 0 0 !# S̄(T ) . Dt (S̄(T ))dt Z T σS(s)1[0,s] (t)dsdt = σ sS(s)ds , 0 mamy " e−rT EQ Φ(S̄(T ))δ x S̄(T ) RT 0 Dt (S̄(T ))dt !# " e−rT = EQ Φ(S̄(T ))δ x S̄(T ) σ RT 0 sS(s)ds !# . Aby obliczyć tę całkę Skorohoda, można zastosować twierdzenie 2.3.2 biorąc we wzorze (2.10) u = σ1 oraz F = R T S̄(T ) . Dostaniemy wówczas sS(s)ds 0 δ S̄(T ) σ RT 0 sS(s)ds ! S̄(T ) 1 = RT δ σ 0 sS(s)ds 52 1272324506(52) − Z T 1 0 σ Dt S̄(T ) RT 0 sS(s)ds ! dt . Korzystając z reguły produktowej i z reguły łańcuchowej dla pochodnej Malliavina, a także z faktu, iż e = σS(s)1[0,s] (t) , Dt S(s) = σS(s)Dt B(s) możemy obliczyć ! S̄(T ) Dt RT 0 = RT sS(s)ds = 0 RT 0 −1 Dt (S̄(T )) + S̄(T ) R T sS(s)ds ( 0 sS(s)ds)2 1 σS(s)1[0,s] (t)ds RT 0 sS(s)ds Z T Dt (sS(s))ds 0 Z T S̄(T ) − RT ( 0 sS(s)ds)2 0 σsS(s)1[0,s] (t)ds . Mamy zatem Z T 1 0 σ Dt S̄(T ) ! 1 dt = RT σ 0 sS(s)ds RT Rs R R 1 S̄(T ) 0T 0s σsS(s)dtds 0 0 σS(s)dtds − RT RT 0 σ sS(s)ds ( 0 sS(s)ds)2 RT R 1 σ 0 sS(s)ds S̄(T ) 0T s2 S(s)ds . = − RT RT σ 0 sS(s)ds ( 0 sS(s)ds)2 Wobec tego ostatecznie δ S̄(T ) σ RT 0 sS(s)ds ! = e ) S̄(T )B(T σ RT 0 sS(s)ds −1+ S̄(T ) RT 2 0 s S(s)ds RT ( 0 sS(s)ds)2 , a zatem otrzymujemy wzór postaci T 2 e ) s S(s)ds e−rT S̄(T ) B(T ∆= EQ Φ(S̄(T )) R T + R0T −1 x σ 0 sS(s)ds 0 sS(s)ds " " # R !# . (3.15) 3.3.5. Gamma opcji azjatyckiej Rozpoczniemy obliczenia podobnie jak w przypadku gammy opcji europejskiej, tzn. wykorzystując początkową część obliczeń dla delty opcji azjatyckiej (wzór (3.13)) możemy zapisać d2 d Γ = 2 EQ [e−rT Φ(S̄(T ))] = dx dx ! e−rT EQ [Φ0 (S̄(T ))S̄(T )] x " e−rT e−rT dS̄(T ) dS̄(T ) EQ Φ00 (S̄(T )) S̄(T ) + Φ0 (S̄(T )) = − 2 EQ [Φ0 (S̄(T ))S̄(T )] + x x dx dx " (S̄(T ))2 e−rT e−rT S̄(T ) = − 2 EQ [Φ0 (S̄(T ))S̄(T )] + EQ Φ00 (S̄(T )) + Φ0 (S̄(T )) x x x x = # # e−rT EQ [Φ00 (S̄(T ))(S̄(T ))2 ] , x2 S̄(T ) ) gdzie korzystaliśmy z tego, iż dS̄(T dx = x . Użyjemy w tym miejscu po raz kolejny twierdzenia 3.3.1, biorąc we wzorze (3.8) F = S̄(T ) i G = (S̄(T ))2 , a jako proces u przyjmiemy, podobnie jak przy obliczaniu delty opcji azjatyckiej, u(t) = S(t) (ponownie umożliwi nam to znaczne uproszczenie całki Skorohoda, która pojawi się w obliczeniach). Mamy więc " e−rT e−rT 00 2 E [Φ ( S̄(T ))( S̄(T )) ] = EQ Φ0 (S̄(T ))δ Q x2 x2 53 2680201375(53) (S̄(T ))2 S(·) RT 0 Dt (S̄(T ))S(t)dt !# . Korzystając z obliczeń wykonanych przy okazji wyprowadzania wzoru na deltę opcji azjatyckiej, mamy Z T 1 Dt (S̄(T ))S(t)dt = σ(S̄(T ))2 , 2 0 a także Z T e S(t)dB(t) = δ(S(·)) = 0 1 (S(T ) − x − rS̄(T )) . σ Łącząc te dwa fakty, otrzymujemy " e−rT Γ = 2 EQ Φ0 (S̄(T ))δ x !# (S̄(T ))2 S(·) RT 0 Dt (S̄(T ))S(t)dt (3.16) 2e−rT 2re−rT = 2 2 EQ [Φ0 (S̄(T ))(S(T ) − x)] − 2 2 EQ [Φ0 (S̄(T ))S̄(T )] . x σ x σ Po raz kolejny powołując się na wykonane już wcześniej obliczenia, na podstawie wzorów (3.13) oraz (3.14) mamy " 2e−rT S(T ) − x σ2 e−rT EQ [Φ0 (S̄(T ))S̄(T )] = E Φ( S̄(T )) − r + ∆= Q x xσ 2 2 S̄(T ) !# , a zatem możemy obliczyć drugi składnik w wyrażeniu (3.16) jako " S(T ) − x σ2 4re−rT 2re−rT 0 − r + E [Φ ( S̄(T )) S̄(T )] = E Φ( S̄(T )) Q Q x2 σ 2 x2 σ 4 2 S̄(T ) !# . Skoncentrujmy się wobec tego na składniku 2e−rT EQ [Φ0 (S̄(T ))(S(T ) − x)] . x2 σ 2 Zastosujemy do niego ponownie twierdzenie 3.3.1, we wzorze (3.8) przyjmując F = S̄(T ), G = S(T ) − x oraz u(t) = S(t). Otrzymujemy zatem " 2e−rT 2e−rT 0 E [Φ ( S̄(T ))(S(T ) − x)] = EQ Φ(S̄(T ))δ Q x2 σ 2 x2 σ 2 " 2e−rT = 2 2 EQ Φ(S̄(T ))δ x σ !# (S(T ) − x)S(·) RT 0 Dt (S̄(T ))S(t)dt (S(T ) − x)S(·) 1 2 2 σ(S̄(T )) !# . Całkę Skorohoda, która pojawiła się powyżej, policzymy z wykorzystaniem twierdzenia 2.3.2 biorąc we wzorze (2.10) F = (S(T ) − x)(S̄(T ))−2 oraz u(t) = S(t). Wówczas (S(T ) − x)S(·) δ (S̄(T ))2 S(T ) − x = δ(S(·)) − (S̄(T ))2 Ale δ(S(·)) = Z T Dt 0 S(T ) − x S(t)dt . (S̄(T ))2 (3.17) 1 (S(T ) − x − rS̄(T )) , σ a zatem S(T ) − x 1 S(T ) − x 1 δ(S(·)) = (S(T ) − x − rS̄(T )) = 2 2 σ (S̄(T )) σ (S̄(T )) 54 2477965770(54) S(T ) − x S̄(T ) 2 r − σ S(T ) − x S̄(T ) . Pozostaje więc zająć się drugim składnikiem ze wzoru (3.17). Mamy Z T Dt 0 S(T ) − x S(t)dt = (S̄(T ))2 = Z T Dt (S(T ) − x) (S̄(T ))2 0 −2 + (S(T ) − x) Dt (S̄(T )) S(t)dt (S̄(T ))3 Z T" σS(T ) 2(S(T ) − x) − σ 2 (S̄(T )) (S̄(T ))3 0 # Z T 0 S(s)1[0,s] (t)ds S(t)dt σS(T ) 2σ(S(T ) − x) T T = S(s)1[0,s] (t)dsS(t)dt − (S̄(T ))3 S̄(T ) 0 0 σS(T ) 2σ(S(T ) − x) 1 = − (S̄(T ))2 . S̄(T ) (S̄(T ))3 2 Z Z Wracając do wzoru (3.17), otrzymujemy (S(T ) − x)S(·) δ (S̄(T ))2 S(T ) − x S̄(T ) 2 (S(T ) − x)S(·) 1 2 2 σ(S̄(T )) !# 1 = σ r − σ S(T ) − x S̄(T ) σS(T ) S(T ) − x − +σ S̄(T ) S̄(T ) . Wobec tego " 2e−rT EQ Φ(S̄(T ))δ x2 σ 2 " 4e−rT = 2 4 EQ Φ(S̄(T )) x σ 4e−rT (S(T ) − x)S(·) EQ Φ(S̄(T ))δ 2 3 x σ (S̄(T ))2 = S(T ) − x S̄(T ) 2 S(T ) − x + (σ 2 − r) S̄(T ) σ 2 S(T ) − S̄(T ) !# , a zatem wstawiając otrzymane rezultaty do wzoru (3.16) dostajemy 2re−rT 2e−rT 0 E [Φ ( S̄(T ))(S(T ) − x)] − EQ [Φ0 (S̄(T ))S̄(T )] Q 2σ2 x2 σ 2 x " !# 4e−rT S(T ) − x 2 S(T ) − x σ 2 S(T ) 2 = 2 4 EQ Φ(S̄(T )) + (σ − r) − x σ S̄(T ) S̄(T ) S̄(T ) Γ= " 4e−rT S(T ) − x − 2 4 EQ Φ(S̄(T )) r x σ S̄(T ) " 4e−rT = 2 4 EQ Φ(S̄(T )) x σ S(T ) − x S̄(T ) 2 rσ 2 −r + 2 !# 2 S(T ) − x + (σ 2 − 2r) S̄(T ) σ 2 S(T ) rσ 2 − + r2 − 2 S̄(T ) !# . 3.3.6. Vega opcji azjatyckiej Obliczenia rozpoczniemy podobnie jak we wszystkich dotychczasowych przypadkach. Mamy " # d dS̄(T ) ν= EQ [e−rT Φ(S̄(T ))] = EQ e−rT Φ0 (S̄(T )) . dσ dσ Przypomnijmy, że S(t) = x exp{(r − a zatem σ2 e )t + σ B(t)} , 2 dS(t) e = S(t)(B(t) − σt) dσ i w konsekwencji dS̄(T ) d = dσ dσ Z T Z T S(t)dt = 0 0 55 1720083720(55) e S(t)(B(t) − σt)dt . Podążając za dotychczasowym schematem postępowania, będziemy chcieli zastosować twierR e dzenie 3.3.1 biorąc we wzorze (3.8) F = S̄(T ) oraz G = 0T S(t)(B(t) − σt)dt. Pozostaje pytanie o odpowiedni dobór procesu u, tak aby możliwie jak najbardziej uprościć obliczanie całki Skorohoda, która pojawi się w wyniku zastosowania tego twierdzenia. Wybór u(t) = S(t) wydaje się nie przynosić w tym wypadku żadnych korzyści (w przypadku delty i gammy wybór ten powodował pojawienie się w mianowniku całkowanego przez nas procesu wyrażenia (S̄(T ))2 , które następnie upraszczało się z licznikiem, jednak tutaj ta metoda nie zadziała, R e − σt)dt). Postąpimy zatem podobnie jak w zaprezengdyż w liczniku występuje 0T S(t)(B(t) towanym przez nas alternatywnym sposobie obliczania delty opcji azjatyckiej i przyjmiemy po prostu u ≡ 1. Otrzymamy wówczas " −rT e Z T 0 EQ Φ (S̄(T )) # RT " e S(t)(B(t) − σt)dt = e −rT 0 0 EQ Φ(S̄(T ))δ e S(t)(B(t) − σt)dt RT 0 !# Dt (S̄(T ))dt . Przypomnijmy, że Z T Z T sS(s)ds , Dt (S̄(T ))dt = σ 0 0 a zatem RT δ 0 e S(t)(B(t) − σt)dt RT 0 RT ! 0 =δ Dt (S̄(T ))dt RT e S(t)B(t)dt − σ RT 0 0 σtS(t)dt RT ! 0 =δ sS(s)ds σ e S(t)B(t)dt RT 0 ! sS(s)ds e ). −B(T Do obliczenia powyższej całki R Skorohoda wykorzystamy ponownie twierdzenie 2.3.2, we wzoT e S(t)B(t)dt rze (2.10) przyjmując F = 0R T 0 RT e S(t)B(t)dt 0 δ RT 0 ! sS(s)ds oraz u ≡ 1. Otrzymujemy sS(s)ds RT e S(t)B(t)dt e )− B(T = 0R T sS(s)ds 0 RT Z T 0 Dt e S(s)B(s)ds RT 0 0 ! sS(s)ds dt . Pozostaje zająć się pochodną Malliavina, która pojawiła się powyżej. Mamy RT Dt 0 e S(s)B(s)ds RT 0 ! = RT sS(s)ds 0 Z T 1 sS(s)ds e e (Dt S(s))B(s) + S(s)Dt B(s) ds 0 ! Z T e S(s)B(s)ds + RT ( 0 = RT 0 RT 0 "Z 1 sS(s)ds 0 e S(s)B(s)ds − RT ( 0 sS(s)ds)2 Z T −1 0 sS(s)ds)2 sDt S(s)ds 0 # Z T T σS(s)1[0,s] e (t)B(s)ds + 0 S(s)1[0,s] (t)ds Z T 0 σsS(s)1[0,s] (t)ds . Całkując otrzymane wyrażenie względem zmiennej t po przedziale [0, T ], dostajemy RT Z T Dt 0 0 e S(s)B(s)ds RT 0 ! sS(s)ds dt = R T 0 1 sS(s)ds Z T e σsS(s)B(s)ds +1 0 RT e S(s)B(s)ds − 0R T ( 0 sS(s)ds)2 Z T 0 Wobec tego, wracając do naszej początkowej całki Skorohoda RT δ 0 e S(t)(B(t) − σt)dt RT 0 Dt (S̄(T ))dt 56 2408993197(56) ! , σs2 S(s)ds . widzimy, że jest ona równa 1 σ "R T e 0 S(t)B(t)dt e B(T ) − RT 0 sS(s)ds RT 0 RT e σsS(s)B(s)ds RT 0 e S(s)B(s)ds − 1 + 0R T ( 0 sS(s)ds)2 sS(s)ds Z T # e ). σs2 S(s)ds − B(T 0 Stąd otrzymujemy wzór na wartość parametru ν postaci " e −rT EQ Φ(S̄(T )) RT 0 e S(t)B(t)dt RT 0 sS(s)ds T 2 e ) s S(s)ds B(T + R0T σ 0 sS(s)ds R RT ! − 0 e sS(s)B(s)ds RT 0 sS(s)ds !# 1 e ) − − B(T σ 3.4. Eksperymenty numeryczne W tej sekcji prezentujemy wyniki przeprowadzonych przez nas eksperymentów numerycznych, ukazujące działanie estymatorów otrzymanych z użyciem rachunku Malliavina w kilku konkretnych przypadkach. W celu wykonania tych eksperymentów, napisaliśmy odpowiedni program w języku C++, wykorzystując fragmenty kodu dostępne w książkach [AP05] oraz [Jos08]. Program ten zapisywał wyniki przeprowadzanych symulacji do odpowiedniego pliku, z którego, za pomocą darmowego oprogramowania Gnuplot (dostępnego na stronie http://www.gnuplot.info/) otrzymaliśmy prezentowane poniżej wykresy. 3.4.1. Delta europejskiej opcji call Rozpoczniemy od zaprezentowania wyników symulacji dotyczących delty europejskiej opcji call, tzn. opcji o funkcji wypłaty Φ(S(T )) = max{S(T )−K, 0}.Jak wiadomo, w tym wypadku istnieje konkretny wzór postaci ∆ = N (d1 ) , gdzie N oznacza dystrybuantę standardowego rozkładu normalnego, zaś ln d1 = x K + r+ √ σ T σ2 2 T (3.18) (zob. np. [Hul09], str. 354). Będziemy mogli zatem otrzymane rezultaty porównać z rzeczywistą wartością tego parametru. Przyjmijmy x = 100, K = 100, r = 0, 05, σ = 0, 2 oraz T = 1. Wówczas d1 = 0, 35, a zatem ∆ ≈ 0, 63683 . Przeprowadziliśmy symulacje trzema metodami, w każdej z nich generując 15000 liczb pseudolosowych. (1) Metodą różnic skończonych (RS), z wykorzystaniem estymatora e−rT u(x + h) − u(x − h) , 2h gdzie u(x) jest estymatorem EQ [Φ(S(T ), x)]. Zastosowaliśmy przy tym wartość h = 0, 001. (2) Metodą pochodnej po trajektoriach (PPT), z wykorzystaniem wzoru (3.6), tzn. ∆= e−rT EQ [S(T )1{S(T )>K} ] . x 57 3111667257(57) . Malliavin Metoda RS Metoda PPT wart. rzeczywista 0.85 0.8 0.75 0.7 0.65 0.6 0.55 0.5 0 2000 4000 6000 8000 10000 12000 14000 Rysunek 3.1: Symulacja delty dla europejskiej opcji call. (3) Metodą rachunku Malliavina, korzystając ze wzoru (3.10), tzn. ∆= e−rT e )] . EQ [Φ(S(T ))B(T xT σ Jak widać, w tym wypadku estymator otrzymany z użyciem rachunku Malliavina spisuje się najgorzej spośród wykorzystanych metod (wydaje się, że najlepiej wypada estymator otrzymany metodą pochodnej po trajektoriach). Jednak nie jest to niespodzianką - podobne obserwacje czyni np. autor [Ben02], który stwierdza, że wykorzystywanie estymatorów wyprowadzonych z użyciem rachunku Malliavina do opcji o ciągłej funkcji wypłaty (takich jak np. opcja call) mija się z celem. Prawdziwą przydatność pokazują one w wypadku nieciągłych funkcji wypłaty lub też przy estymowaniu parametru gamma, gdzie konieczne staje się przybliżanie drugiej pochodnej. 3.4.2. Gamma europejskiej opcji call Przyjrzyjmy się teraz symulacji parametru gamma dla europejskiej opcji call o takich samych parametrach jak powyżej. Również w tym wypadku istnieje konkretny wzór, gdyż, jak podaje [Hul09] na stronie 363, mamy N 0 (d1 ) √ , Γ= xσ T gdzie d1 jest takie jak wcześniej we wzorze (3.18), zaś x2 1 N 0 (x) = √ e− 2 2π jest gęstością standardowego rozkładu normalnego. Wobec tego przy naszych parametrach opcji dostajemy Γ ≈ 0, 018762 . W tym wypadku porównamy ze sobą metodę różnic skończonych z estymatorem e−rT u(x + h) + u(x − h) − 2u(x) h2 58 1127473059(58) (zob. np. [Ben02]), gdzie u(x) tak jak poprzednio jest estymatorem EQ [Φ(S(T ), x)], oraz estymator otrzymany metodami rachunku Malliavina (por. wzór (3.11)), tzn. " e 2 (T ) e−rT B 1 e ) Γ = 2 EQ Φ(S(T )) − − B(T x σT σT σ !# . Tym razem dla każdej z metod wygenerowaliśmy 50000 liczb pseudolosowych, zaś w metodzie różnic skończonych przyjęliśmy h = 0, 000001 (staraliśmy się eksperymentalnie dobrać wartość h, która dałaby najlepsze rezultaty). 0.08 Malliavin Metoda RS wart. rzeczywista 0.06 0.04 0.02 0 -0.02 -0.04 -0.06 -0.08 -0.1 -0.12 0 5000 10000 15000 20000 25000 30000 35000 40000 45000 50000 Rysunek 3.2: Symulacja gammy dla europejskiej opcji call. Wykres pokazuje, że w przypadku przybliżania drugiej pochodnej metoda różnic skończonych działa w sposób wysoce niezadowalający. Z kolei estymator otrzymany za pomocą rachunku Malliavina zbiega dość szybko do rzeczywistej wartości. 3.4.3. Delta azjatyckiej opcji call Rozważmy opcję o funkcji wypłaty Φ(S̄(T )) = max{ T1 S̄(T ) − K, 0}, ustalając wszystkie parametry takie jak w poprzednich przykładach. W tym wypadku nie istnieje konkretny wzór na wartość delty, zatem pozostaje zdać się na symulacje komputerowe. Porównamy ze sobą metodę różnic skończonych z estymatorem e−rT u(x + h) − u(x − h) , 2h gdzie u(x) jest estymatorem EQ [Φ(S̄(T ), x)], oraz otrzymany przez nas estymator ze wzoru (3.14), tj. " !# 2e−rT S(T ) − x σ2 −r+ ∆= EQ Φ(S̄(T )) . xσ 2 2 S̄(T ) W tym przykładzie dla obu metod przeprowadziliśmy po 20000 symulacji, przy czym w każdej z nich wygenerowaliśmy po 500 liczb losowych w celu otrzymania realizacji trajektorii procesu RT e {B(t)}t∈[0,T ] , aby dostać wartość całki S̄(T ) = 0 S(t)dt. Dla metody różnic skończonych przyjęliśmy h = 0, 01. 59 3468892464(59) 0.8 Malliavin Metoda RS 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 2000 4000 6000 8000 10000 12000 14000 16000 18000 20000 Rysunek 3.3: Symulacja delty dla azjatyckiej opcji call. Jak widać, metoda różnic skończonych sprawdza się tutaj nieco lepiej niż estymator otrzymany za pomocą rachunku Malliavina. Podobnie było w przypadku delty europejskiej opcji call. Przykłady te wydają się więc potwierdzać hipotezę, że używanie rachunku Malliavina dla opcji o ciągłej funkcji wypłaty nie daje żadnych korzyści w stosunku do metody różnic skończonych. 3.4.4. Delta azjatyckiej opcji binarnej 0.05 Malliavin Metoda RS 0.045 0.04 0.035 0.03 0.025 0.02 0.015 0.01 0.005 0 0 500 1000 1500 2000 2500 3000 3500 4000 Rysunek 3.4: Symulacja delty dla azjatyckiej opcji binarnej. Tym razem rozważyliśmy opcję o funkcji wypłaty Φ = 1{ 1 S̄(T )>K} , przyjmując wszystkie T parametry tak jak poprzednio. Ponownie porównaliśmy metodę różnic skończonych i estyma60 1425917072(60) tor uzyskany za pomocą rachunku Malliavina. W tym przykładzie przeprowadziliśmy po 4000 symulacji dla każdej metody (i po 500 liczb pseudolosowych na każdą ścieżkę dla obliczenia R całki 0T S(t)dt). W metodzie różnic skończonych przyjęliśmy h = 1, gdyż zwiększanie tego parametru wydawało się poprawiać jej działanie. Na wykresie widzimy, że estymator otrzymany za pomocą rachunku Malliavina wydaje się zbiegać do konkretnej wartości już po ok. 500 symulacjach, podczas gdy estymator metody różnic skończonych potrzebuje na to ok. 2000 symulacji, a w dalszym ciągu również wykazuje większe wahania. 61 1644950538(61) 3464694919(62) Bibliografia [AP05] Yves Achdou, Olivier Pironneau, Computational Methods for Option Pricing, Society for Industrial and Applied Mathematics, 2005. [Ben02] Eric Benhamou, Malliavin Calculus for Monte Carlo Methods in Finance, LSE Working Paper, 2002, dostępne na http://ssrn.com/abstract=298084. [BG96] Mark Broadie, Paul Glasserman, Estimating Security Price Derivatives Using Simulation, Management Science, Vol. 42, No. 2 (1996) 269-285. [DØP09] Giulia Di Nunno, Bernt Øksendal, Frank Proske, Malliavin Calculus for Lévy Processes with Applications to Finance, Springer, 2009. [Dud04] R. M. Dudley, Real Analysis and Probability, Cambridge University Press, 2004. [Fou99] Eric Fournié, Jean-Michel Lasry, Jérôme Lebuchoux, Pierre-Louis Lions, Nizar Touzi, Applications of Malliavin Calculus to Monte Carlo Methods in Finance, Finance and Stochastics, 3 (1999) 391-412. [Gla04] Paul Glasserman, Monte Carlo Methods in Financial Engineering, Springer-Verlag, 2004. [Hul09] John C. Hull, Options, Futures and Other Derivatives, Seventh Edition, Pearson Education International, 2009. [Itô51] Kiyosi Itô, Multiple Wiener Integral, J. Math. Soc. Japan, 3 (1951) 157-169. [Jos08] Mark S. Joshi, C++ Design Patterns and Derivatives Pricing, Second Edition, Cambridge University Press, 2008. [KKM02] Masato Koda, Arturo Kohatsu-Higa, Miquel Montero, An Application of Stochastic Sensitivity Analysis to Financial Engineering, Institute of Policy and Planning Sciences (2002) No. 980. [Kle05] Fima C. Klebaner, Introduction to Stochastic Calculus with Applications, Imperial College Press, 2005. [Kuo06] Hui-Hsiung Kuo, Introduction to Stochastic Integration, Springer, 2006. [Leo09] Giovanni Leoni, A First Course in Sobolev Spaces, American Mathematical Society, 2009. [Nua06] David Nualart, The Malliavin Calculus and Related Topics, Second Edition, Springer-Verlag, 2006. 63 1402637985(63) [Nua12] Eulalia Nualart, Lectures on Malliavin Calculus and Its Applications, 2012. [Øks97] Bernt Øksendal, An Introduction to Malliavin Calculus with Applications to Economics, 1997. [Øks03] Bernt Øksendal, Stochastic Differential Equations, Sixth Edition, Springer-Verlag, 2003. [Sch05] René L. Schilling, Measures, Integrals and Martingales, Cambridge University Press, 2005. [Wei80] Joachim Weidmann, Linear Operators in Hilbert Spaces, Springer-Verlag, 1980. 64 1939441785(64)