Teoria ryzyka z SAS
Transkrypt
Teoria ryzyka z SAS
Rozdział 1 Miary ryzyka 1.1 Koherentne miary ryzyka Definicja 1.1 Zbiór zmiennych losowych jest stożkiem M jeśli stałe należą do M oraz jeśli L1 , L2 ∈ M to L1 + L2 ∈ M oraz jeśli λ > 0 i L ∈ M to λL ∈ M. Elementy zbioru M będziemy rozumieli jako stopy strat inwestycji Definicja 1.2 Niech M będzie stożkiem. Wówczas funkcję ρ : M → IR nazywamy koherentną miarą ryzyka jeśli 1) jest niezmiennicza na translacje, czyli dla dowolnego l ∈ IR oraz L ∈ M ρ(l + L) = l + ρ(L) 2. jest subaddytywna ρ(L1 + L2 ) ¬ ρ(L1 ) + ρ(L2 ) 3. jest dodatnio jednorodna, czyli jeśli λ > 0 ρ(λL) = λρ(L) 4. jest monotoniczna, jeśli L1 ¬ L2 prawie wszędzie to ρ(L1 ) ¬ ρ(L2 ). ze względu na zastosowania wprowadzamy dwie miary ryzyka: Definicja 1.3 Niech X zmienna losowa. Wówczas wartością zagrożoną (kwantylem) X nazywamy V aRα (X) = qα (X) = inf{x : FX (x) α} gdzie FX oznacza dystrybuantę. 1 Wartość zagrożona nie jest koherentną miarą ryzka w ogólności. Nie spełnia warunku subaddytywności. Z definicja łatwo sprawdzić, że spełnia pozostałe warunki definicji 1.1. Jeśli jednak inwestycje (stopy straty) mają wspólny rozkład eliptyczny ( w szczególności normalny) to VaR jest koherentną miarą ryzyka, zob. Twierdzenie 2.4. Definicja 1.4 Niech X zmienna losowa taka, że E|X| < ∞. Wówczas uśrednioną wartością zagrożoną (ang. Expected shortfall) nazywamy ESα (X) = 1 1−α Z 1 V aRu (X)du. α gdzie FX oznacza dystrybuantę. Expected shortfall jest koherentną miarą ryzyka. Dowód znajduje się w rozdziale. Ponieważ VaR spełnia warunki 1,3,4 definicji 1.2 zatem miara ES spełnia również warunki 1,3,4 definicji 1.2. ES jest jednak miarą koherentną w zbiorze wszystkich zmiennych losowych całkowalnych. Dowód twierdzenia wynika np. z mocnego prawa wielkich liczb dla statystyk pozycyjnych. 1.1.1 Konwencja dla zysku Jeśli zmienna losowa X reprezentuje zysk, to zmienna losowa L = LX = −X reprezentuje stratę. Wówczas aksjomaty koherentnej miary ryzyka są definiowane ”odwrotnie”. Mianowicie niech ρ będzie miarą ryzyka zdefniowaną powyżej wówczas ρz (X) = ρ(LX ) definiuje koherentną miar/e ryzka w sensie zysku czyli jeśli X1 ¬ X2 to LX1 LX2 zatem ρ(LX1 ) ρ(LX2 ) czyli ρz (X1 ) ρz (X2 ). Jeśli c oznacza stały zysk, to LX+c = −X − c = LX − c zatem ρz (X + c) = ρ(LX+c ) = ρ(LX − c) = ρ(LX ) − c = ρz (X) − c. Subbaddytywność i dodatnia jednorodność są zachowane gdyż ρz (X1 + X2 ) = ρ(LX1 +X2 ) = ρ(LX1 + LX2 ) ¬ ρ(LX1 ) + ρ(LX2 ) = ρz (X1 ) + ρz (X2 ). Analogicznie dodatnia jednorodność. zob [2]. 1.2 Uogólniona dystrybuanta odwrotna Przypomnienie wiadomości o dot. uogólnionej dystrybuanty odwrotnej. Lemat 1.1 Jeśli F = FX jest dystrybuantą zmiennej losowej X, to P (F (X) ¬ F (x)) = P (X ¬ x) = F (x). 2 Dowód. Ponieważ dystrybuanta jest niemalejąca zatem {X ¬ x} ⊂ {F (X) ¬ F (x)}. Zauważmy, że {F (X) ¬ F (x)} = {X ¬ x} ∪ {F (X) = F (x), X > x}, gdyż Ω = {X ¬ x} ∪ {X > x}. Wystarczy pokazać teraz, że P {F (X) = F (x), X > x} = 0. (1.1) Dla ustalonego x niech x0 = inf{y : F (y) = F (x)}. Z definicji x0 oraz z prawostronnej ciągłości, F (x0 ) = F (x). Ponadto niech x1 = sup{y : F (y) = F (x)}. Jeśli F (x1 ) = F (x), to P (x0 < X ¬ x1 ) = 0. (1.2) P (x0 < X < x1 ) = 0, (1.3) Jeśli F (x1 ) > F (x), to gdyż dla każdego b < x1 P (x0 < X ¬ b) = 0. Z waruków (1.2) oraz (1.3) wynika (1.1). Definicja 1.5 Niech F = FX jest dystrybuantą zmiennej losowej X. Uogólnioną dystrybuantę odwrotną nazywamy funkcję F −1 (y) = inf{x : FX (x) y} Uogólniona dystrybuanta odwrotna F −1 : [0, 1] → IR ∪ {−∞, +∞} gdyż korzystamy ze standartowej definicji +∞ = inf ∅, −∞ = inf IR. Zauważmy, że V arα (X) = F −1 (α). Lemat 1.2 Niech F = FX jest dystrybuantą zmiennej losowej X. 1. F −1 jest niemająca i lewostronnie ciagła. 2. Jesli F jest ciągła wtedy i tylko wtedy gdy F −1 jest ściśle rosnąca na [0, 1]. 3. Jeśli F jest ściśle rosnąca wtedy i tylko wtedy gdy F −1 jest ciągła na [0, 1]. Niech −∞ < F −1 < +∞. Wówczas 4. F (x) y wtedy i tylko wtedy gdy F −1 (y) ¬ x. 5. F −1 (F (x)) ¬ x 6. F (F −1 (y)) y 7. Jeśli F jest ściśle rosnąca, to F −1 (F (x)) = x 8. Jeśli F jest ciągla, toF (F −1 (y)) = y. Zobacz [5]. 3 Rozdział 2 Wielowymiarowe rozkłady Niech A oznacza macierz. Przez A0 = AT będzie rozumieli macierz transponowaną. Działania na macierzach w SAS są w Dodatku na końcu. 2.1 Wielowymiarowy rozkład normalny. Definicja 2.1 Wektor X = (X1 , X2 , . . . , Xp )0 ma niezdegenorowany rozkład normaly (gaussowski) X ∈ N (µ, Σ) jeśli EX = µ ∈ IRp , Σ = E(X − µ)(X − µ)T dla macierz kowariancji det Σ 6= 0 zaś gęstość x ∈ IRp 1 1 T −1 Exp − (x − µ) Σ (x − µ) . f (x) = 2 (2π)p/2 |Σ|1/2 Aby wygenerować dane z danego rozkładu normalnego N (µ, Σ) korzystamy z twierdzenia Fishera. Mianowicie √ znajdujemy pierwiastek macierzy Σ, ( rozkład Cholesky) czyli macierz A = Σ taką, że A0 A = Σ. Niech Z bedzie wektorem losowym Z = (Z1 , Z2 , . . . , Zp ), Zi ∈ N (0, 1) oraz Zi są niezależne dla i = 1, ..., p. Zauważmy, że Z ∈ N (0, Ip ), gdzie Ip jest macierzą jednostkową. Wówczas wektor losowy Y = A0 Z + µ ma rozkład gaussowski z macierzą korelacji Σ, Y ∈ N (µ, Σ). Rzeczywiście E(Y − µ)(Y − µ)0 = EA0 ZZ0 A = A0 Ip A = Σ, EY = µ. Pozostałe własności wektorów gaussowskich na wykładzie Statystyka matematyczna. Przykład 4 Ustawienie ”seed” oznacza, że liczby pseudolosowe losowe startują od tego punktu. Ciąg liczb -procedura została stworzona przez Matsumoto and Nishimura (1998). Ciąg liczb ma okres 219937 − 1. Funkcja ”normal” generuje liczbę, wektor, lub macierz liczb losowych o rozkładzie N (0, 1) w zależności jaki obiekt jest argumentem ”normal” Następujacy program generuje wektor o długości 10 liczb losowych c = j(10,1,0); b = normal(c); print b; ”Repeat function” wygeneruje te same obiekty. Składnia REPEAT( matrix, nrow, ncol) proc iml; x={ 1 2 , 3 4} ; y=repeat(x,2,3); print y; Generowanie macierzy losowej i tworzenie pliku danych z macierzy proc iml ; n = 10; /*deklarowanie macierzy*/ sigma = { 4 2, 2 3 }; mu = {1, 0}; p = nrow(sigma); m = repeat(t(mu),n) ; g =root(sigma); z =normal(repeat(0,n,p)) ; /*albo można z =normal(j(n,p,0)) ; */ ymatrix = z*g + m ; /* przepisanie danych z macierzy do pliku*/ create newdata from ymatrix; append from ymatrix; close newdata; proc print data = newdata; Rysowanie danych wygenerowanych proc gplot data=newdata; plot col1*col2="star"; run; Lub procedura ods graphics on; proc kde data=newdata; bivar col1 col2 / plots=all; run; ods graphics off; 5 2.2 Weryfikacja hipotezy o normalności rozkładu Testowanie normalności wielowymiarowego rozkładu normalnego. Program odwołuje się do odległości Mahalanobisa. Mianowice Mardia-test jest oparty na mierze skośności (zakładamy, że obie całki istnieją) 3 β1,p = E (X − µ)T Σ−1 (Y − µ) gdzie X, Y są niezależne oraz kurtozie β2,p = E (X − µ)T Σ−1 (X − µ) 2 . Dla wektorów losowych X, Y wielowymiarowego rozkładu normalnego, jesli X, Y są niezależne wówczas β1,p = 0 zaś β2,p = p(p + 2). Zakładamy, że mamy ciąg niezależnych wektorów o jednakowym rozkładzie Y1 , Y2 , . . . , Yn dla których istnieje macierz kowariancji Σ. Mamy nastepujące estymatory n n 1 XX 3 g βd 1,p = 2 n i=1 j=1 ij zaś n 1X 2 βd g , 2,p = n i=1 ii gdzie gij = (Yi − Y )T Sn−1 (Yj − Y ). W przypadku gdy wektory losowe Y1 , Y2 , . . . , Yn ∈ N (µ, Σ) macierz losowa Sn jest estymatorem Σ największej wiarogodności (obciążonym), czyli Sn = n−1 S, n zaś S jest nieobciążonym estymatorem Σ, czyli n S= 1 X (Yi − Y)(Yi − Y)0 , n − 1 i=1 gdzie n Y= 1X Yi . n i=1 Przykład Mamy macierz danych (Rao 1948) dotyczący wagi korków do win. Dla jednego drzewa mamy cztery pomiary wagi korka w zależności od strony świata. Poniższy program wylicza macierz kowariancji oraz macierz odwrotną do kowariancji. 6 proc iml ; y ={ 72 66 76 77, 60 53 66 63, 56 57 64 58, 41 29 36 38, 32 32 35 36, 30 35 34 26, 39 39 31 27, 42 43 31 25, 37 40 31 25, 33 29 27 36, 32 30 34 28, 63 45 74 63, 54 46 60 52, 47 51 52 43, 91 79 100 75, 56 68 47 50, 79 65 70 61, 81 80 68 58, 78 55 67 60, 46 38 37 38, 39 35 34 37, 32 30 30 32, 60 50 67 54, 35 37 48 39, 39 36 39 31, 50 34 37 40, 43 37 39 50, 48 54 57 43} ; n = nrow(y) ; p = ncol(y) ; dfchi = p*(p+1)*(p+2)/6 ; q = i(n) - (1/n)*j(n,n,1); s = (1/(n))*t(y)*q*y ; s_inv = inv(s) ; g_matrix = q*y*s_inv*t(y)*q; beta1hat = ( sum(g_matrix#g_matrix#g_matrix) )/(n*n); beta2hat =trace( g_matrix#g_matrix )/n ; kappa1 = n*beta1hat/6 ; kappa2 = (beta2hat - p*(p+2) ) śqrt(8*p*(p+2)/n) ; pvalskew = 1 - probchi(kappa1,dfchi) ; pvalkurt = 2*( 1 - probnorm(abs(kappa2)) ); print s ; print s_inv ; print "TESTS:"; 7 print print run; "Based on skewness:" beta1hat kappa1 pvalskew ; " Based on kurtosis" beta2hat kappa2 pvalkurt; Drugi sposób to odwołanie się do gotowej procedury data cork; input north east south west; datalines; 72 66 76 77 60 53 66 63 56 57 64 58 41 29 36 38 32 32 35 36 30 35 34 26 39 39 31 27 42 43 31 25 37 40 31 25 33 29 27 36 32 30 34 28 63 45 74 63 54 46 60 52 47 51 52 43 91 79 100 75 56 68 47 50 79 65 70 61 81 80 68 58 78 55 67 60 46 38 37 38 39 35 34 37 32 30 30 32 60 50 67 54 35 37 48 39 39 36 39 31 50 34 37 40 43 37 39 50 48 54 57 43 ; run; proc calis data = cork kurtosis; title1 "Output 1.1"; title2 "Computation of Mardia’s Kurtosis"; lineqs north = e1, east = e2, south = e3, west = e4; std 8 e1=eps1, e2=eps2, e3=eps3, e4=eps4; run ; Procedura proc calis z opcją kurtosis wyświetla szereg parametrów związanych z kurtozą, w tym • Standardową kurtozę Mardii (Mardia based kappa) κ1 = βd 2,p − 1 = κ1 (βd 2,p ). p(p + 2) • Mean scaled univariate kurtosis κ2 , równa miarowych • Adjusted mean scaled kurtosis κ3 , równa kurtoz jednowymiarowych 1 3p razy suma kurtoz jednowy- 1 3p razy suma poprawionych Do weryfikacji hipotezy badany wektor cech ma rozkład normalny służy po−2 równanie parametru κi z wartością krytyczną p+2 w naszym przypadku −1/3. Możemy również posłużyć się asymptotycznym rozkładem κ1 . Mianowicie Mardia w swojej pracy pokazał, że dla βd 2,p zachodzi centralne twierdzenie graniczne βd 2,p − p(p + 2) p ∼ N (0, 1). 8p(p + 2)/n Zatem asymptotyczny rozkład κ1 też jest normalny. W powyższym przykładzie dla każdej statystyki jest prawdą, że κi −1/3 zatem nie ma podstaw do odrzucenia hipotezy zerowej. Na koniec wprowadzamy jeszcze jedną procedurą która umożliwia obliczenie macierzy kowariancji oraz korelacji proc corr data = cork cov; run; 2.3 Składowe główne rozkładów gaussowskich Analiza składowych głównych to w zasadzie analiza wektorów własnych i wartości własnych macierzy Σ. Niezwykle przydatna procedura proc princomp data=cork; run; podaje wartości własne i wektory własne w badanym przykładzie. Jedna składowa główna wyjaśnia prawie całą zmienność modelu 89%. Składa się ona z niemal identycznych informacji z każdej ze składowych wektora obserwacji. Druga składowa główna (razem z pierwszą) wyjaśnia 96% procent modelu. Wektor własny, czyli druga składowa główna istotnie rozróżnia dane z east i west i z tych danych buduje informacje. Stąd badany model można sprowadzić do dwóch danych. 9 2.4 Rozkłady sferyczne i eliptyczne Wektor X = (X1 , X2 , . . . , Xp )0 będzie wektorem losowym. Niech L(X) oznacza rozkład wektora X. Definicja 2.2 Mówimy, że X ma rozkład sferyczny jesli dla każdej macierzy ortogonalnej U, czyli takiej, że UUT = Ip zachodzi L(UX) = L(X), czyli równość zachodzi dla rozkładów. Przykład wektora o rozkładzie sferycznym Z ∈ N (0, Ip ). Rozkład L(X) oznacza bądź dystrybuantę wektora X, czyli FX badź miarę, czyli transport miary P przez X. Zatem dla dowolnego zbioru borelowskiego A ∈ B(IRp ) νX (A) = P (X ∈ A). Zauważmy, że dla dowolnej funkcji dodatniej f : IRp → IR mamy Z Ef (X) = f (u)νX (u). IRp Równość rozkładów jest równoważna z faktem, że funkcje charakterystyczne są sobie równe. Funkcję charakterystyczną definiujemy wzorem t ∈ IRp 0 t0 X =< t, X >= φX (t) = Eeit X , p X tj Xj . j=1 Zauważmy jeszcze jedną prostą własność dla wektora losowego losowej X i λ > 0 0 0 φλX (t) = Eeit λX = Eeiλt X = φX (λt). Niech kak = √ (2.1) < a, a >, gdzie a ∈ Rp . Twierdzenie 2.1 Następujące warunki są równoważne 1. Wektor losowy X ma rozkład sferyczny 2. Istnieje funkcja mierzalna ψ : IR → IR (generator rozkładu sferycznego) taka, że ψ(t0 t) = φX (t). 3. Dla każdego wektora a ∈ IRp L(a0 X) = L(kakX1 ), Dowód. 1 =⇒ 2. Niech wektor X ma rozkład sferyczny. Niech U odwzorowanie ortogonalne. Wówczas z założenia dla t ∈ IRp 0 0 0 φX (t) = φU X (t) = Eeit UX = Eei(U t) X = φX (U0 t). Biorąc dowolny obrót U otrzymujemy, że φX jest fukcją stałą dla wektorów o tej samej długości i zależy jedynie od długości wektora t. Zatem możemy zdefiniować funkcję ψ ψ(a) = φX (t), a = t0 t = ktk2 . 10 2 =⇒ 3. Niech e1 = (1, 0 . . . 0) będzie wektorem jednostkowym w IRp . Zauważmy, że z założenia dla u ∈ IR 0 φX1 (u) = EeiuX1 = Eei(ue1 ) X = φX (ue1 ) = ψ(u2 ) (2.2) Również z założenia dla t ∈ IRp 0 φt0 X (u) = Eeiut X = φX (ut) = ψ(u2 t0 t) = ψ(u2 ktk2 ) Korzystając z (2.1) oraz (2.2) otrzymujemy φt0 X (u) = φX1 (uktk) = φktkX1 (u), co kończy dowód implikacji. 2 =⇒ 3. Niech U dowolne przekształcenie ortogonalne. Wówczas 0 0 0 φUX (t) = Eeit UX = Eei(U t) X . Z założenia biorąc a = U0 t otrzymamy 0 0 0 Eei(U t) X = φa0 X (1) = φkakX1 (1) = EeikU tkX1 . Ponieważ U jest ortogonalne,to kUtk = ktk. Zatem 0 φUX (t) = Eeik tkX1 . Znowu korzystając z założenia φUX (t) = φX (t) co kończy dowód twierdzenia. Lemat 2.2 Niech X, Y niezależne wektory losowe. Niech dana jest funkcja mierzalna f : IR × IR → IR taka , że zmienna losowa E|f (X, Y)| < ∞. Wówczas E[f (X, Y)|Y ] = g(Y ), gdzie g(y) = E[f (X, y). Na S p−1 wprowadzimy miarę powierzchniową unormowaną ν(S p−1 ) = 1, czyli Z Z 0 0 1 eit a dν(a) = eit a da, ωp−1 S p−1 S p−1 gdzie ωp−1 jest miarą powierzchniową sfery S p−1 , czyli ωp−1 = 2 π p/2 . Γ(p/2) Zauważmy, że dla dowolnego t ∈ IRp funkcja Z 0 t→ eit a dν(a), S p−1 11 zależy jedynie od ktk. Prowadzi to do definicji Z 0 Ωp (ktk2 ) = eit a dν(a). (2.3) S p−1 Funkcja Ωp jest związana z funkcją Bessela. Mianowicie niech k liczba całkowita. Funkcją Bessla nazywamy funkcję postaci, por. [6] Jk (t) = 1 2π Z 2π eit sin θ e−ikθ dθ, t ∈ IR. 0 Zachodzi lemat, Lemat 3.1 [6] dla dowolnego k 0 Jk (t) = (t/2)k Γ((2k + 1)/2)Γ(1/2) 1 Z eits (1 − s2 )(2k−1)/2 ds, t ∈ IR. −1 Powyższa formuła pozwala rozpatrywać funkcje Bessela dla k > −1/2. Wówczas dla dowolnego t ∈ IRp , niech s = ktk > 0 wówczas (dowód str. 154 [6]) Z e S p−1 = it0 a ωp−2 dν(a) = ωp−1 Z 1 eisu (1 − u2 )(p−3)/2 du −1 Γ(p/2) Γ(p/2) J(p−2)/2 (s) = J(p−2)/2 (ktk). (s/2)(p−2)/2 (ktk/2)(p−2)/2 Twierdzenie 2.3 Następujące warunki są równoważne 1. Wektor losowy X ma rozkład sferyczny 2. L(X) = L(RS), gdzie S jest rozkładem jednostajnym na sferze S p−1 ⊂ p IR , R jest zmienną losową dodatnią. Ponadto R oraz S są niezależne. Dowód 2 =⇒ 1. Korzystając z Lematu 2.2 otrzymamy 0 0 φRS (t) = EeiRt S = E(E[eiRt S |R]) = EΩp (R2 ktk2 ), gdzie korzystamy z (2.3), czyli 0 Ωp (r2 ktk2 ) = Eeirt S . Stąd φRS (t) = EΩp (R2 ktk2 ) = EΩp (R2 t0 t). Zatem pokazliśmy, że funkcja charakterystyczna zależy wyłącznie od iloczynu skalarnego t0 t. Z twierdzenia 2.1 punkt 2 wynika teza twierdzenia. 1 =⇒ 2. Konstruujemy wektory losowe R, S niezależne i takie, że L(R) = L(kXk), zaś S ma rozkład jednostajny na S p−1 i sprawdzamy rozkład wektora RS. Definicja 2.3 Wektor losowy X ma rozkład eliptyczny jeśli istnieje macierz A, wektor µ oraz wektor Y o rozkładzie sferycznym tak, że L(X) = L(AY + µ). 12 Ponieważ rozkład sferyczny Y jest jednoznaczenie określony przez generator ψ (Twierdzenie 2.1 (2)) zatem rozkład X jest jednoznacznie określony przez ψ oraz przez macierz A i µ. Zauważmy, że macierz korelacji dla X jest równa Σ = AA0 . Korzystając z rozkładu Choleskiego rozkład X jest jednoznacznie określony przez trójkę (µ, Σ, ψ) i oznaczamy go przez X ∼ Ep (µ, Σ, ψ). Wektor o rozkładzie normalnym X ∈ N (µ, Σ) ma rozkład eliptyczny. Mianowicie √ L(X) = L( ΣZ + µ), gdzie Z ∈ N (0, Ip ). W rodzinie generowanej przez rozkłady eliptyczne miara ryzyka jest subaddytywna. Twierdzenie 2.4 Niech X = (X1 , X2 , . . . , Xp )0 ma rozkład eliptyczny. Rozważmy stożek p X M = {L : L = λ0 + λj Xj , λj ∈ IR}. j=1 Wówczas dla każdego L1 , L2 ∈ M V aRα (L1 + L2 ) ¬ V aRα (L1 ) + V aRα (L2 ). (2.4) Dowód. Z twierdzenia 2.3 wynika, że istnieje macierz A, wektor µ oraz wektor Y o rozkładzie sferycznym tak, że L(X) = L(AY + µ). Wystarczy teraz udowodnić, że dla dowolnych wektorów t1 , t2 V aRα (t01 AY + t02 AY) ¬ V aRα (t01 AY) + V aRα (t01 AY). Z twierdzenia 2.1 Y ma rozklad sferyczny L(t01 AY+t02 AY) = L((t1 +t2 )0 AY) = L((A0 t1 +A0 t2 )0 Y) = L(kA0 t1 +A0 t2 kY1 ) Ponadto dla i = 1, 2 L(t0i AY) = L((A0 ti )0 Y) = L(kA0 ti kY1 ). Zatem V aRα (t01 AY + t02 AY) = V aRα (kA0 t1 + A0 t2 kY1 ) = kA0 t1 + A0 t2 kV aRα (Y1 ). oraz V aRα (t0i AY) = V aRα (kA0 ti kY1 ) = kA0 ti kV aRα (Y1 ). Wystarczy teraz zauważyć, że dla dowolnych A, t1 , t2 kA0 t1 + A0 t2 k ¬ kA0 t1 k + kA0 t2 k co daje (2.4). 13 Rozdział 3 Oczekiwana wartość zagrożona Niech X będzie zmienną losową taką, że E|X| < ∞ o dystrybuancie FX , Oczekiwana wartość zagrożona-expected shortfall na poziomie ufności α ∈ [0, 1) definiujemy Z 1 Z 1 1 1 ESα = qu (FX )du = V aRu (X)du, 1−α α 1−α α gdzie qu (FX ) jest kwantylem FX . Z definicji wynika, że ESα V arα (X). Lemat 3.1 Niech zmienna losowa X ma ciągła dystrybuantę F = FX . Wówczas E[X; X V aRα (X)] , ESα = 1−α gdzie Z E[X; X V aRα (X)] = XdP. {XV aRα (X)} Uwaga. Z definicji warunkowej wartości oczekiwanej wynika, że Z 1 E[X|X V aRα (X)] = XdP. 1 − α {XV aRα (X)} Dowód. Jeśli U ∈ U (0, 1) czyli jeśli zmienna losowa U ma rozkład jednostaj−1 ny na odcinku (0, 1), to uogólniona dystrybuanta odwrotna F −1 = FX złożona z U ma rozkład FX , czyli P (F −1 (U ) ¬ a) = FX (a). Powyższy fakt wynika z lematu 1.2. Zatem E(X; X V aRα (X)) = E(F −1 (U ); F −1 (U ) V aRα (X)). = E(F −1 (U ); F −1 (U ) F −1 (α)) 14 Z lematu 2.1 (2) E(F −1 (U ); F −1 (U ) F −1 (α)) = E(F −1 Z 1 F −1 (u)du (U ) : U α) = α co kończy dowód. Podamy teraz twierdzenie Van Zwet, czyli Mocne prawo wielkich liczb dla statystyk pozycyjnych Twierdzenie 3.2 Mocne prawo wielkich liczb dla statystyk pozycyjnych Niech X, X1 , X2 , ... ciąg niezależnych zmiennych losowych o rozkladzie FX oraz niech E|X| < ∞. Wówczas dla 0 ¬ α < 1 1 lim n→∞ [n(1 − α)] n X Xj,n j=[nα]+1 1 = ESα = 1−α Z 1 V aRu (X)du pr. na pewno, α gdzie X1,n ¬ X2,n ¬ · · · ¬ Xn,n oznaczają statystyki pozycyjne dla X1 , X2 , . . . , Xn oraz [n(1 − α)] oznacza najwieszą liczbę całkowitą mniejszą od n(1 − α). Zauważmy, że biorąc za α = 0 otrzymujemy Mocne Prawo wielkich Liczb n n 1X 1X Xj,n = lim Xj = n→∞ n n→∞ n j=1 j=1 1 Z V aRu (X)du = EX lim pr. na pewno. 0 Zachodzi twierdzenie C. Acerbi, D. Tasche 2002 Twierdzenie 3.3 Oczekiwana wartość zagrożona-expected shortfall na poziomie ufności α ∈ (0, 1) jest koherentną miarą ryzyka. Dowód. Niech (X1 , X2 ) wektor losowy. Chcemy pokazać, że ESα (X1 + X2 ) ¬ ESα (X1 ) + ESα (X2 ). Niech (L1 , L̃1 ), . . . (Ln , L̃n ) ciąg wektorów o rozkładzie łacznym (X1 , X2 ). Wówczas Yi = Li + L̃i ciąg niezależnych zmiennych losowych. zauważmy, że n X Yi:n = sup{Yi1 + · · · Yim , 1 ¬ i1 < · · · < im ¬ n} ¬ i=m sup{Li1 +· · · Lim , 1 ¬ i1 < · · · < im ¬ n}+sup{L̃i1 +· · · L̃im , 1 ¬ i1 < · · · < im ¬ n}. Przechodząc do granicy dla m = [nα] i n → ∞ i korzystając z Twierdzenia 3.2 otrzymujemy nasze twierdzenie. 15 Rozdział 4 Twierdzenie o reprezentacji miar koherentnych Niech X będzie zbiorem zmiennych losowych mierzalnych i ograniczonych. Niech M zbiór miar skończenie addytywnych, nieujemnych, unormowanych na Ω, czyli jeśli P ∈ M to P (Ω) = 1. Do definicji całki wzgl. tych miar definiujemy korzystając z tw. Hahna-Banacha. [2] Twierdzenie 4.1 Funkcjonał ρ : X → IR jest koherentną miarą ryzyka wtedy i tylko wtedy gdy istnieje podzbiór Q zbioru M miar skończenie addytywnych unormowanych na Ω taki, że Z ρ(X) = sup E P X = sup XdP, X ∈ X . P ∈Q P ∈Q Ω Przypadek Ω zbior skończny n elementowy. Wowczas każdą inwestycję X (stopę straty z inwestycji) X : Ω → IR można utożsamić z wektorem tX ∈ IRn . Zatem mamy wzajemną odpowiedniość zmiennych losowych na Ω oraz wektorów w przestrzeni IRn . Dlatego miarę probabilistyczną P na Ω możemy również z wektorem aP = (a1 , ..., an ) z sympleksu ∆ = ∆n , czyli n X 0 ¬ ai ¬ 1, ai = 1. i=1 Zauważmy, że E P X =< lX , aP >= lX ◦ aP . Z drugiej strony a ∈ ∆ to a wyznacza miarę Pa jak wyżej. W tym przypadku twierdzenie ma następującą postać Twierdzenie 4.2 Niech Ω zbior skończny n elementowy. Funkcjonał ρ : X → IR jest koherentną miarą ryzyka wtedy i tylko wtedy gdy istnieje podzbiór Q zbioru ∆n taki, że ρ(X) = sup E Pa X = sup < lX , a >, a∈Q a∈Q 16 X ∈ X. Dowód. Szkic . Jeśli Q jest podzbiorem ∆, to funkcjonał ρQ : IRn → IR taki, że ρQ (X) = sup lX ◦ aP , X∈X a∈Q w sposób oczywisty spełnia warunki miary koherentnej, gdyż dziedziczy te własności z własności supremum. W drugą stronę załóżmy, że dany jest funkcjonał ρ : IRn → IR spełniający warunki Definicji 1.2. Udowodnimy, że dla każdego l ∈ IRn |ρ(l)| ¬ klk (4.1) gdzie klk = (l ◦ l)1//2 = n X 1/2 lj2 j=1 oznacza normę euklidesową, co oznacza ciągłość. Po pierwsze z warunku dodatniej jednorodności dla wektora zerowego 0 ∈ IRn i dla dowolnej liczby dodatniej λ ρ(0) = ρ(λ0) = λρ(0), czyli ρ(0) = 0. Zauważmy, że aby pokazać (4.1) wystarczy udowodnić (4.1) dla x ∈ S n−1 = {x ∈ IRn : kxk = 1} gdyż (4.1) jest prawdziwa dla x = 0. Jeśli zaś l 6= 0, to x = l/klk ∈ S n−1 . Wówćzas jeśli (4.1) zachodzi dla x ∈ S n−1 to l l ρ ¬ klk klk i z didatniej jednorodności ρ otrzymujemy (4.1) dla dowolnego l ∈ IRn . Ponieważ wektor stały c = (c, . . . , c) oznacza zmienną losową stała zatem z translacyjnej niezmienniczości i ponieważ ρ(0) = 0 zatem ρ(c) = ρ(0 + c) = ρ(0) + c = c, czyli dla wektora stałego 1 = (1, . . . , 1) ∈ IRn ρ(1) = 1. Ponieważ dla dowolnego x ∈ S n−1 x+10 (porównujemy po wszystkich współrzędnych) zatem z monotoniczności x −1 i z powyższych rezultatów ρ(x) −1. 17 Analogicznie dla dowolnego x ∈ S n−1 ρ(x) ¬ 1. Zatem dla dowolego x ∈ S n−1 |ρ(x)| ¬ kxk = 1. Niech teraz l0 dowolny ustalonty wektor taki, że ρ(l0 ) = 1. Definiujemy zbiór U = U (l0 ) = {l ∈ IRn : ρ(l) < ρ(l0 )}. Zbiór U jest otwarty (ρ jest funkcją ciągła) i l0 nie należy do tego zbioru. Korzystając z dodatniej jednorodności ρ oraz z subaddytywności pokazujemy, że U jest wypukły. Korzystając zaś z twierdzenia Hahna Banacha o oddzielaniu (Twierdzenie Kreina) istnieje hiperpłaszczyzna (funkcjonał, wektor q) oddzielająca zbiór U od wektora l0 , czyli dla dowolnego l ∈ U q ◦ l < q ◦ l0 . Ponieważ 0 ∈ U (bo ρ(0) = 0 < q ◦ l0 ) zatem istnieje q0 = q0 (l0 ) = λq tak, że q0 ◦ l0 = ρ(l0 ) = 1. Zatem dla dowolnego l ∈ U q0 ◦ l < q0 ◦ l0 = 1. Można pokazać, że q0 ∈ ∆. Wówczas dla Q = {q0 : ρ(l0 ) = 1} możemy udowodnić, że ρ(l) = ρQ (l) = sup l ◦ a. a∈Q Rzeczywiście jeśli ρ(l) = b to ρ(l − b1 + 1) = 1. Zatem (l0 = l − b1 + 1) ρQ (l) − b + 1 = ρQ (l − b1 + 1) 1. Stąd ρQ (l) ρ(l). Wystarczy teraz udowonić, że dla dowolnego l i q0 ∈ Q q0 ◦ l ¬ ρ(l). Jeśli ρ(l) < b to ρ(l − b1 + 1) = ρ(l) − b + 1 < 1. czyli q0 ◦ (l − b1 + 1) < 1. Stąd ponieważ q0 ∈ ∆ (q0 ◦ 1 = 1) q0 ◦ l < b co dowodzi (4.2) co kończy dowód. Jaka jest reprezentacja ESα ? [2] 18 (4.2) Rozdział 5 Alokacja kapitału Lemat 5.1 Niech U zbiór otwarty w IRp \ {0}. Niech dana jest funkcja różniczkowalna f : U → IR dodatnio jednorodna, czyli dla h > 0 oraz t, ht ∈ U zachodzi f (ht) = hf (t). Wówczas f (t) =< t, ∇f (t) > . Dowód. Pochodna kierunkowa w kierunku u ∈ IRp , kuk = 1 dla funkcji f ∈ C 1 (U ) w punkcie x ∈ Rp Du f (x) = lim a→0 f (x + au) − f (x) = u ◦ ∇f. a Stąd jeśli x 6= 0, to wstawiając u = x/kxk otrzymamy lim a→0 f (x + ax/kxk) − f (x) = x ◦ ∇f /kxk a czyli (1 + a/kxk)f (x) − f (x) = x ◦ ∇f /kxk. a→0 a lim Ostatecznie f (x)/kxk = x ◦ ∇f /kxk co kończy dowód. Dany jest wektor stóp strat X = (X1 , . . . , Xp ). Przez X(t) = p X tj Xj j=1 rozumiemy losową wartość inwestycji. Dla ujemnej tj rozumiemy jako pozycje krótkie. Niech M taki stożek, dla ktorego zbiór inwestycji U ⊂ IRp \ {0} {X(t) : t ∈ U } ⊂ M. Niech na M zadana bedzie miara ryzyka ρ. Wówczas definiujemy funkcje na zbiorze t ∈ U rρ (t) = ρ(X(t)). 19 Definicja 5.1 Gradientową alokacją kapitału dla funkcji ryzyka ρ nazywamy ∇rρ . Wyznaczyć gradientową alokację kapitału dla V aR i .ES Twierdzenie 5.2 (Tasche 2000) Załóżmy, że wektor losowy X = (X1 , . . . , Xp ) ma rozkład łączny. Niech ρ = V aRα . Wówczas ACj = ACj (V aRα ) := ∂rρ (t) = E[Xj |X(t) = qα (X(t))]. ∂tj (5.1) Załóżmy ponadto, że w otoczeniu punktu t istnieje dystrybuanta odwrotna absolutnie ciągła zmiennej losowej X(t) oraz gęstość fX(t) > 0. Jeśli ρ = ESα to ∂rρ (t) = E[Xj |X(t) qα (X(t))]. ∂tj ACj = ACj (ESα ) := (5.2) Problem wyznaczyć rozkłady warunkowe. Dowód. Pokażemy, że z (5.1) wynika (5.2). Mianowicie z definicji ES 1 ∂rESα (t) = ∂tj 1−α = 1 1−α Z 1 α ∂rV aRu (t) du ∂tj 1 Z E[Xj |X(t) = qu (X(t))]du α −1 Dokonajmy zamiany zmiennych v = qu (X(t)) = FX(t) (u). Wówczas u = FX(t) (v) 1 ∂rESα (t) = ∂tj 1−α Z 1 E[Xj |X(t) = v]fX(t) (v)dv qα (X(t) co kończy dowód. (Wniosek 6.27 [5]) Wniosek 5.3 Niech ρ będzie miarą ryzyka dodatnio jednorodną i translacyjnie niezmiennicza. Przyjmijmy Eulerowską zasadę alokacji. p X p ∂rρ (t) X rρ (X(t)) = tj = tj ACj ∂tj j=1 j=1 Wówczas dla rozkładów eliptycznych jeśli µ = 0 X ∼ Ep (µ, Σ, ψ). to Pd Σik tk ACi = Pdk=1 . ACj k=1 Σjk tk 20 Dowód Niech X = µ + AY gdzie Y ma rozkład sferyczny. Z dodatniej jednorodności i translacyjnie niezmienniczości oraz Twierdzenia 2.1(3) p X rρ (t) = ρ(X(t) = ρ( tj Xj ) = ρ(t ◦ µ + t0 AY) = t ◦ µ + ρ((t0 A)Y) j=1 = t ◦ µ + ρ(kt0 AkY1 ) = t ◦ µ + kt0 Akρ(Y1 ) = t ◦ µ + √ t0 Σtρ(Y1 ). Ponieważ µ = 0 zatem Σt ∇rρ (t) = √ ρ(Y1 ). t0 Σt co kończy dowód. Problemy. Wyznaczyć gradienotwą alokację kapitału dla V aR i ES rozkładów modelowanych rodzinami kopuł. H. Cossette, M. P. Côté, E. Marceau, K. Moutanabbir Multivariate distribution defined with Farlie Gumbel Morgenstern copula and mixed Erlang marginals: Aggregation and capital allocation. Insurance: Mathematics and Economics 52 (2013) 560 572. 21 Rozdział 6 Twierdzenie Sklara i kopuły Definicja funkcji kopuły. Twierdzenie Skalara. W pracach w tym rozdziale. Poniżej elementarne własności. Kopuły umożliwiają modelowanie wielowymiarowych rozkładów łącznych przy niewielkiej próbce. • Dopasowujemy do danych surowych rozkłady brzegowe F1 , F2 (np. normalny, Wiebulla, gamma, chi-kwadrat nie koniecznie z tej samej rodziny). • Bierzemy rodziny kopuł Cθ : Gumbela, Claytona, Franka i zakładamy, że rozkład łączny jest postaci F(L1 ,L2 ) (x1 , x2 ) = P (L1 ¬ x1 , L2 ¬ x2 ) = Cθ (F1 (x1 ), F2 (x2 )). zakładamy tutaj, że rozkłady brzegowe mniej podlegają ” zmianie” niż rozkłady łączne. • Generujemy dane z rozkładu (L1 , L2 ) w następujący sposób, jeśli pary (ξ1i , ξ2i ) są wygenerowane z rozkładu Cθ (proc copula, simulate statement, marginals uniform), to pary (l1i , l2i ) sa wygenerowane z rozkładu F(L1 ,L2 ) , gdzie lji = Fj−1 (ξj.i ), j = 1, 2 i = 1, . . . n. Uzasadnienie tego faktu P (F1−1 (ξ1 ) ¬ a1 , F2−1 (ξ2 ) ¬ a2 ) = P (ξ1 ¬ F1 (a1 ), ξ2 ¬ F2 (a2 )) = C(F1 (a1 ), F2 (a2 )) = F(L1 ,L2 ) (a1 , a2 ). • Mając zatem ”pełną informację” czyli rozkład łączny analizujemy portfele (zmienne losowe postaci) P (s) = sL1 + (1 − s)L2 . Ponadto analizujemy zachowanie V ar[P (s)] oraz E[P (s)] w zależności od parametru θ, składu portfela czyli 0 ¬ s ¬ 1 orazi w zależności rodziny kopuł. 22 Twierdzenie 6.1 Niech C będzie funkcją kopuły. Wówczas dla t = (t1 , . . . , tn ) n X max{ tj + 1 − n, 0} ¬ C(t) ¬ min{t1 , . . . , tn }. j=1 Dowód. Niech zmienne losowe Uj mają rozkład jednostajny na odcinku (0, 1). Wówczas dla każdego i zachodzi \ {Uj ¬ tj } ⊂ {Ui ¬ ti }. 1¬j¬n Zatem jeśli C jest dystrybuantą wektora losowego (U1 , . . . , Un ), to dla t = (t1 , . . . , tn ) C(t) ¬ ti dla każdego i co kończy dowód prawej nierówności. Z definicji \ [ C(t) = P {Uj ¬ tj } = 1 − P {Uj > tj } . 1¬j¬n 1¬j¬n Zatem C(t) 1 − n X P (Uj > tj ) = 1 − j=1 n n X X (1 − tj ) = 1 − n + tj . j=1 j=1 To kończy dowód. Korzystając z twierdzenie Sklara dla dowolnej dystrybuanty F wektora losowego X = (X1 , X2 , . . . , Xn ) zachodzi n X Fj (tj ) + 1 − n, 0} ¬ F (t) ¬ min{F1 (t1 ), . . . , Fn (tn )}. max{ j=1 gdzie Fi oznacza dystrybuantę Xi oraz t = (t1 , . . . , tn ). Definicja 6.1 (Współczynnik korelacji Kendall’a (tau Kendall’a)) Niech (X1 , X2 ) dwuwymiarowy wektor losowy zaś (X̃1 , X̃2 ) niezależna kopia. Wówczas ρτ (X1 , X2 ) = Esign (X1 − X̃1 )(X2 − X̃2 ) . Funkcja sign jest funkcją znaku czyli przyjmuje wartości −1, 0, 1. Definicja 6.2 (Współczynnik korelacji Spearman’a. Niech (X1 , X2 ) dwuwymiarowy wektor losowy zaś F1 i F2 rozkłady brzegowe (dystrybuanty). Wówczas ρS (X1 , X2 ) = ρ(F1 (X1 ), F2 (X2 )), gdzie ρ liniowy współczynnik korelacji. Zauważmy, że ρS jest liniowym współczynnik korelacji dla jedynej funkcji kopuły C dla wektora losowego (F1 (X1 ), F2 (X2 )) o ile F1 i F2 rozkłady brzegowe są ciągłe. 23 Twierdzenie 6.2 Niech (X1 , X2 ) dwuwymiarowy wektor losowy zaś F1 i F2 rozkłady brzegowe są ciągłe. Wówczas Z 1Z 1 C(u1 , u2 )dC(u1 , u2 ) − 1. ρτ (X1 , X2 ) = 4 Z 0 0 1Z 1 (C(u1 , u2 ) − u1 u2 ) du1 du2 . ρS (X1 , X2 ) = 4 0 0 Dowód Z definicji ρτ (X1 , X2 ) = P ((X1 − X̃1 )(X2 − X̃2 ) > 0) − P ((X1 − X̃1 )(X2 − X̃2 ) < 0). Stąd ponieważ rozkłady brzegowe są ciągłe P ((X1 − X̃1 )(X2 − X̃2 ) < 0) = 1 − P ((X1 − X̃1 )(X2 − X̃2 ) > 0). Istotnie P ((X1 − X̃1 )(X2 − X̃2 ) = 0) ¬ P ((X1 − X̃1 ) = 0) + P ((X2 − X̃2 ) = 0) = 0. Stąd ρτ (X1 , X2 ) = 2P ((X1 − X̃1 )(X2 − X̃2 ) > 0) − 1. Stąd jeśli F oznacza rozkład rozłączny to ρτ (X1 , X2 ) = 4P (X1 < X̃1 , X2 < X̃2 ) − 1 = Z ∞Z ∞ h i 4E P (X1 < X̃1 , X2 < X̃2 |X̃1 , X̃2 ) −1 = 4 P (X1 < x1 , X2 < x2 )dF (x1 , x2 )−1. −∞ −∞ Z twierdzenia Sklara dostajemy tezę. W SAS możemy wyznaczyć cztery współczynniki korelacji (empiryczne), lub inczej mówiąc mamy cztery naturalne estymatory współczynników korelacji. Niestety SAS oblicza ”trudniejszy parametr” tzw.tau-b Kendalla. Dla danych cork rozdział 2 ods graphics on; title ’Measures of Association for a Physical Fitness Study’; proc corr data=cork pearson spearman kendall hoeffding plots=matrix(histogram); var north east south west; run; ods graphics off; Parametr tau Kendalla możemy policzyć ”samodzielnie”. Trzeba obliczyć ilość par zgodnych znakiem do ilości par niezgodnych znakiem. Mianowicie potrzeba wyznaczyć ρ cτ = 2 n(n − 1) X sign(xt,1 − xs,1 )(xt,2 − xs,2 ). 1¬t<s¬n Z drugiej strony dla kopuły Gumbella 1 ρ(CθGu ) = 1 − . θ 24 dla kopuły Claytona ρ(CθCl ) = θ . θ+2 Stąd można wyestymować (wykalibrować str 221 [5]) parametry kopuł dla danych. Opracować z ”heplu SAS” procedurę z opcjami. The COPULA Procedure Zobacz w [4] teorię i kopuł. 25 Rozdział 7 Oszacowania dla ryzyka Niech ρ miara ryzyka. Niech X = (X1 , . . . , Xd ) wektor strat. Niech dana jest funkcja mierzalna Ψ : IRp → IR. Podstawowym problemem w mierzeniu ryzyka jest rozwiązanie nastepującego problemu. Dla ρ , zadanych rozkładów brzegowych Fi ,i = 1, ..., p oraz funkcji Ψ znaleźć oszacowania dla inf{ρ(Ψ(X)) : Xj ∼ Fj , j = 1, ..., p} oraz sup{ρ(Ψ(X)) : Xj ∼ Fj , j = 1, ..., p}. Najczęściej rozważane funkcje Ψ, t ∈ IRp dla portfela p X Ψ(t) = tj (7.1) j=1 dla reasekuracji ”stop loss” na poziomie k p X Ψ(t) = ( tj − k)+ j=1 dla reasekuracji ”excess of loss” na poziomach kj Ψ(t) = p X (tj − kj )+ j=1 Problem dla ρ = V arα , zadanych rozkładów brzegowych Fi ,i = 1, ..., p oraz funkcji Ψ postaci (7.1) znaleźć oszacowania dla p X inf{V aRα ( Xj ) : Xj ∼ Fj , j = 1, ..., p} j=1 oraz sup{V aRα ( p X Xj ) : Xj ∼ Fj , j = 1, ..., p}. j=1 26 Można jeszcze bardziej zawęzić problem do sytuacji gdy rozkład łączny jest modelowany za pomocą rodziny kopuł. Metodami Monte Carlo rozwiązać powyższy problem. W sposób efektywny możemy rozwiązać powyższy problem dla kowariancji. W tym celu korzystamy z Lemat 7.1 (Formuła Hofffdinga) Niech dany jest wektor losowy (X1 , X2 ) o dystrybuancie F oraz rozkładach brzegowych F1 , F2 . Wówczas Z ∞Z ∞ (F (x1 , x2 ) − F1 (x1 )F (x2 ))dx1 dx2 , cov(X1 , X2 ) = −∞ −∞ Dowód. Niech ρ(X1 , X2 ) oznacza kowariancję wektora losowego oraz niech ρmin = inf{ρ(X1 , X2 ) : Xi ∼ Fi }. ρmax = sup{ρ(X1 , X2 ) : Xi ∼ Fi }. Definicja 7.1 Zmienne losowe X1 , . . . , Xd o rozkładach brzegowych F1 , . . . , Fd są wspólniemonotoniczne (komonotoniczne) jeśli rozkład łaczny F F (x1 , . . . , xd ) = min{F1 (x1 ), . . . , Fd (xd )}. Twierdzenie 7.2 (Charakteryzacja komonotonicznych zmiennych losowych) Zmienne losowe X1 , . . . , Xd o rozkładach brzegowych F1 , . . . , Fd są wspólniemonotoniczne (komonotoniczne) wtedy i tylko wtedy gdy istnieje zmienna losowa Z oraz funkcje vj niemalejące j = 1, . . . , d takie , że L(X1 , . . . , Xd ) = L(v1 (Z), . . . , vd (Z)). Ponadto V aRα (X1 + · · · Xd ) = V aRα (X1 ) + · · · + V aRα (Xd ). (7.2) Dwód (7.2) wynika z faktu, że dla zmiennych losowych komonotonicznych jest jedno źródło losowości. Definicja 7.2 Zmienne losowe X1 , X2 o rozkładach brzegowych F1 , F2 są przeciwmonotoniczne (ang. countermonotonic) jeśli rozkład łaczny F F (x1 , x2 ) = max{F1 (x1 ) + F2 (x2 ) − 1, 0}. Twierdzenie 7.3 (Charakteryzacja przeciwmonotonicznych zmiennych losowych) Zmienne losowe X1 , X2 o rozkładach brzegowych F1 , F2 są przeciwmonotoniczne wtedy i tylko wtedy gdy istnieje zmienna losowa Z oraz funkcje vj niemalejąca i nierosnąca j = 1, 2 takie , że L(X1 , X2 ) = L(v1 (Z), v2 (Z)). Twierdzenie 7.4 Jeśli zmienne losowe X1 i X2 są przeciwmonotoniczne to ρmin = ρ(X1 , X2 ) Jeśli zmienne losowe X1 i X2 są wspólniemonotoniczne to ρmax = ρ(X1 , X2 ) 27 Problematyka z tego rozdziału jest analogiczna do problematyki transportu, zob [7] Tematyka ta związana jest również z kopułami zob. [4] np. dla ustalonych zmiennych losowych X oraz Y (czyli mamy ustalone rozkłady brzegowe F i G) znaleźć minimum wyrażenia min{E|X − Y |α : X ∼ F, Y ∼ G}. 28 Rozdział 8 Centralne twierdzenie graniczne świetne wprowadznie do centralnych twierdzeń granicznych w książce [1] strona 70. Do problemtyki następnego rozdziału [1] strona 113. Definicja 8.1 Zmienna losowa X ma rozkład stabilny jeśli dla ciągu niezależnych kopii X1 , X2 zmiennej X i dowolych c1 , c2 > 0 istnieją b > 0 oraz a ∈ R takie, że Fc1 X1 +c2 X2 = FbX+a , czyli L(c1 X1 + c2 X2 ) = L(bX + a). Rozkłady stabilne są całkowicie scharakteryzowane przez funkcje charakterystyczne. Rozkłady są scharakteryzowane przez cztery parametry γ, α, c oraz β. Ponieważ głównym parametrem jest α ∈ (0, 2] zatem w skrócie będziemy je oznaczać Gα . Ważnym przykładem są rozkłady α-stabilne α ∈ (0, 2] których funkcja characterystyczna jest dana wzorem α φ(t) = eiγt−c|t| , t ∈ IR gdzie c > 0 i γ ∈ IR. Nietrudno pokazać, że jeśli X1 , X2 , ... jest ciągiem niezależnych zmiennych losowych o rozkładzie stabilnym Gα , to z definicji istnieją dwa ciągi an i bn > 0 tak, że zachodzi Fξn (y) = Gα (y) gdzie Fξn jest dystrybuantą zmiennej losowej ξn = Sn − an , bn Sn = n X j=1 Z drugiej strony zachodzi twierdzenie 29 Xj . Twierdzenie 8.1 Jeśli dany jest ciąg niezależnych zmiennych losowych X1 , X2 , ... o jednakowym rozkładzie oraz ciągi an i bn tak, że Fξn (y)) → G(y), n → ∞, do pewnej dystrybuanty G, to wówczas G = Gα ma rozkład stabilny. Przykład Jeśli X, X1 , X2 , ... są niezależne o rozkładzie Cauchy, to φX (t) = e−|t| . Zatem Sn = Pn j=1 Xj otrzymujemy φSn /n (t) = n Y φXj /n (t) = j=1 n Y e−|t|/n = e−|t| . j=1 W konsekwencji FSn /n (t) = FX (t). Model Craméra Lundberga. Dany jest ciąg {Xj } nieujemnych niezależnych zmiennych losowych o jednakowym rozkładzie (oznaczający roszczenia). Niech ponadto µ = EX < ∞ oraz σ 2 = V arX < ∞. Niech N (t) będzie procesem Poissona o intensywności λ niezależnym od {Xj }. Proces N (t) modeluje proces ilości roszczeń w czasie [0, t]. Ogólny proces roszczeń modeluje proces PN (t) N (t) > 0 j=1 Xj S(t) = 0 N (t) = 0 Twierdzenie 8.2 W modelu Cramer-Lundberga N (t) ES(t) = E X Xj = µλt. j=1 Jesli t → ∞ to PN (t) j=1 p Xj − ES(t) V arS(t) gdzie zbieżność jest wg. rozkładu. Trajektorie procesu Poissona data poisson; t=0; p=0; lambda=5; delta=0.01; output; do i = 1 to 1000; t =t+delta; p = p+ rand(’Poisson’,delta*lambda); x=lambda*t; output; 30 → N (0, 1), end; run; Symbol value=none interpol=sms line=1 width=2; title"Trajectory Poisson"; proc gplot data=poisson; plot p*t x*t /overlay ; run; Centralne twierdzenie graniczne w modelu Cramera-Lunberga. Proces Poissona ma intensywność λ = 10, rozkłady roszczeń maja rozkład gamma z a = 16. Przeanalizuj wykresy dla małych n data central; lambda=10; a=16; n=20000; do i = 1 to n; poss=Rand(’Poisson’,lambda); s=0; do k=1 to poss; s = Rand(’gamma’,a)+s; end; z=(s-a*poss)/sqrt(poss*a); output; end; title ’Limit distribution ’; proc univariate data=central; var z; histogram / midpoints=-3 to 3 by 0.5 normal vaxis = axis1 name = ’MyHist’; inset n mean(5.3) std=’Std Dev’(5.3) skewness(5.3) / pos = ne header = ’Summary Statistics’; axis1 label=(a=90 r=0); run; 31 Rozdział 9 Obszary przyciągania dla maksimum Niech {Xj } ciąg niezależnych zmiennych losowych o jednakowym rozkładzie F . Niech M1 = X1 zaś Mn = max{X1 , X2 , ..., Xn }. Zauważmy, że P (Mn ¬ x) = P (X1 ¬, ..., Xn ¬ x) = F n (x). Interesują nas możliwe granice c−1 n (Mn − dn ) → H. (9.1) Analogicznie jak dla CTG ważną rolę pelnią rozkłady stabilne tutaj ważną rolę pełnią max-stabilne. Definicja 9.1 Niezdegeneroana zmienna losowa ma rozkład max-stabilny jeśli dla niezależnych kopii X czyli X1 , X2 , ... istnieją ciągi cn > 0 oraz dn tak, że L(max{X1 , ...Xn }) = L(cn X + dn ). Twierdzenie 9.1 Jesli istnieje granica w równaniu (9.1), to H jest • Fréchet α > 0 Φα (x) = 0 exp(−x−α ) dla x ¬ 0 dla x > 0. (9.2) • Weibull α > 0 Ψα (x) = n exp(−(−x)α ) 1 dla x ¬ 0 dla x > 0. • Gumbell Λ(x) = exp(−e−x ), 32 x ∈ IR. (9.3) Zwykle rozkład Weibulla podaje się dla ustalonego α > 0 oraz dla x 0 wzorem α F (x) = 1 − e−x , (9.4) Stąd wida/c, że jest rozkład Weibulla jest uogólnieniem rozkładu wykładniczego. W tej wersji mamy twierdzenie jeśli X ma rozkład Fréchet wtedy i tylko wtedy gdy 1/ ma rozkład Weibulla ze wzoru (9.4). Rzeczywiście P (1/X ¬ a) = P (X 1/a) = 1 − P (X < 1/a) i korzystając z powyższych formuł dla rozkładu Frécheta i weibulla otrzymuje wzór (9.4) odpowiednio (9.2). Ponadto jeśli X ma rozkład dany wzorem (9.4) wtedy i tylko wtedy gdy −X ma rozkład (9.3). W programie SAS 9.3 mamy dostępne wszystkie te rozkłady. Rozkład Gumbella Λ(x) = exp(−e−(x−µ)/σ ), x ∈ IR, gdzie µ parametr położenia rozkladu zaś σ parametr skali. Rozkłady Fréchet i Weibulla są wzajemnie odpowiadające. Dlatego w SAS 9.3 rozkład Weibulla ( 0 dla x ¬ θ Φα (x) = exp − x−θ −α dla x > θ. σ Przyklad Niech Xj jest ciągiem niezależnych zmiennych losowych o rozkładzie wykładniczym z parametrem λ = 1. Sprawdzić, że P (Mn − ln n ¬ x) → Λ(x) = exp(−e−x ). Zaobserwować zmianę parametru p dla testów dopasowania w zależności od próby, kiepskie dla 50 i świetne 200) data makaron; do j=1 to 50(zamienic na 200); a=0; do i = 1 to 100; b=rand(’exponential’); if b>a then a=b; c=a; end; max=c; output; end; run; title ’Limit distribution ’; proc univariate data=makaron; var max; histogram / gumbel midpoints=0 to 40 by 1 ; run; 33 Na koniec zobaczmy, że graniczne rozkłady możemy zapisać w postaci exp(−(1 + ξx)−1/ξ ) dla ξ 6= 0 Hξ (x) = exp(−e−x ) dla ξ = 0, gdzie 1 + ξx > 0. Czyli dla ξ > 0, x > −1/ξ zaś dla ξ < 0 x < −1/ξ. Pokazać, że funkcja Hξ (x) jest ciągła dla x 6= 0 przy ξ → 0. Możemy otrzymać rodzinę trzy parametrową Hξ,µ,σ = Hξ ((x − µ)/σ). Korzystając z twierdzenia 9.1 otrzymamy wówczas, że F należy do obszaru przyciągania F ∈ M DA(Hξ,µ,σ ) = M DA(Hξ ). 34 Rozdział 10 Uogólniony rozkład Paretoanaliza rozkładów ogonów Dla zmiennej losowej X z dystrybuantą F wprowadzmy Fu (x) = P (X − u ¬ x|X > u) = F (x + u) − F (u) , 1 − F (u) 0 ¬ x ¬ xF − u, gdzie xF ¬ ∞ jest prawym punktem krańcowym F , czyli Definicja 10.1 Uogólniony rozkład Pareto jest dany za pomocą dystrybuanty 1 − (1 + ξx/β)−1/ξ dla ξ 6= 0 Gξ,β = 1 − exp(−x/β) dla ξ = 0. β > 0 i x 0 gdy ξ 0 zaś dla ξ < 0, 0 ¬ x ¬ −β/ξ. Sprawdź wzory w SAS support: Table 4.116 Distributions and Parameters Twierdzenie 10.1 Pickands-Balkema-de Haan Istnieje mierzalna dodatnia funkcja β taka, że lim sup u→xF 0¬x¬xF −u |Fu (x) − Gξ,β(u) (x)| = 0. wtedy i tylko wtedy gdy F ∈ M DA(Hξ ). 35 Rozdział 11 Analiza macierzowa w SASprzypomnienie proc iml ; /*tworzenie macierzy*/ A ={ 2 1 , 0 3 } ; /*transponowanie macierzu */ B=t(A); /*działania na macierzach*/ E=B*A; F=E-B+A; /*odwracanie macierzy*/ C=inv(A); /*licza wierszy i kolumn*/ wie = nrow(A); kol= ncol(A); /*wyznacznik i ślad*/ trace_a = trace(A); det_a = det(A); /* pierwiastek macierzy dodatnio okreslonej*/ D=root(E); /*tworzenie specjalnych macierzy np jedynek*/ J=j(3,3,1); /*tworzenie macierzy jednostkowej */ K=i(3); /*drukowanie macierzy*/ print D; run; łączenie macierzy. Sprawdź następujące operacje A||B oraz A//B. 36 proc iml ; A ={ 2 1 , 0 3 } ; B ={ 5 -1 , 2 -3 } ; C=A||B; D=A//B; print C ; print D ; run; Tworzenie pliku SAS z macierzy proc iml; ymatrix = { 2 4 8, 3 9 1, 9 4 8, 1 1 1, 2 7 8}; create newdata from ymatrix; append from ymatrix; close newdata; proc print data = newdata; 37 Bibliografia [1] P. Embrechts, C. Kluppelberg, T. Mikosch Modelling Extremal Events for Insurance and Finance Springer 2012. [2] Hans Föllmer, Alexander Schied Stochastic Finance An Introduction in Discrete Time Second Revised and Extended Edition Walter de Gruyter Berlin New York 2004. [3] Ravindra Khattree, Dayanand N. Naik, Applied Multivariate Statistics with SAS software SAS Institute Inc. and John Wiley & Sons, Second edition 2003. [4] R.B. Nelsen, An introduction to copulas Springer 2006 [5] A. McNeil, R. Frey, P. Embrechtes Quantitive Risk Management Princeton University Press 2005 [6] E.M. Stein, G. Weiss Fourier analysis on Euclidean spaces Princeton University Press 1971. [7] C. Villani Topics in optimal Transportation Graduate Studies in Mathematics vol. 58 AMS 2003 [8] Van Zwet, W.R. (1980) A strong law for linear functions of order statistics. Ann. Probab. 8, 986–990 38