Teoria ryzyka z SAS

Transkrypt

Teoria ryzyka z SAS
Rozdział 1
Miary ryzyka
1.1
Koherentne miary ryzyka
Definicja 1.1 Zbiór zmiennych losowych jest stożkiem M jeśli stałe należą do
M oraz jeśli L1 , L2 ∈ M to L1 + L2 ∈ M oraz jeśli λ > 0 i L ∈ M to λL ∈ M.
Elementy zbioru M będziemy rozumieli jako stopy strat inwestycji
Definicja 1.2 Niech M będzie stożkiem. Wówczas funkcję
ρ : M → IR
nazywamy koherentną miarą ryzyka jeśli
1) jest niezmiennicza na translacje, czyli dla dowolnego l ∈ IR oraz L ∈ M
ρ(l + L) = l + ρ(L)
2. jest subaddytywna
ρ(L1 + L2 ) ¬ ρ(L1 ) + ρ(L2 )
3. jest dodatnio jednorodna, czyli jeśli λ > 0
ρ(λL) = λρ(L)
4. jest monotoniczna, jeśli L1 ¬ L2 prawie wszędzie to
ρ(L1 ) ¬ ρ(L2 ).
ze względu na zastosowania wprowadzamy dwie miary ryzyka:
Definicja 1.3 Niech X zmienna losowa. Wówczas wartością zagrożoną (kwantylem) X nazywamy
V aRα (X) = qα (X) = inf{x : FX (x) ­ α}
gdzie FX oznacza dystrybuantę.
1
Wartość zagrożona nie jest koherentną miarą ryzka w ogólności. Nie spełnia warunku subaddytywności. Z definicja łatwo sprawdzić, że spełnia pozostałe warunki definicji 1.1. Jeśli jednak inwestycje (stopy straty) mają wspólny rozkład
eliptyczny ( w szczególności normalny) to VaR jest koherentną miarą ryzyka,
zob. Twierdzenie 2.4.
Definicja 1.4 Niech X zmienna losowa taka, że E|X| < ∞. Wówczas uśrednioną wartością zagrożoną (ang. Expected shortfall) nazywamy
ESα (X) =
1
1−α
Z
1
V aRu (X)du.
α
gdzie FX oznacza dystrybuantę.
Expected shortfall jest koherentną miarą ryzyka. Dowód znajduje się w rozdziale. Ponieważ VaR spełnia warunki 1,3,4 definicji 1.2 zatem miara ES spełnia
również warunki 1,3,4 definicji 1.2. ES jest jednak miarą koherentną w zbiorze
wszystkich zmiennych losowych całkowalnych. Dowód twierdzenia wynika np. z
mocnego prawa wielkich liczb dla statystyk pozycyjnych.
1.1.1
Konwencja dla zysku
Jeśli zmienna losowa X reprezentuje zysk, to zmienna losowa L = LX = −X
reprezentuje stratę. Wówczas aksjomaty koherentnej miary ryzyka są definiowane ”odwrotnie”. Mianowicie niech ρ będzie miarą ryzyka zdefniowaną powyżej
wówczas
ρz (X) = ρ(LX )
definiuje koherentną miar/e ryzka w sensie zysku czyli jeśli X1 ¬ X2 to LX1 ­
LX2 zatem ρ(LX1 ) ­ ρ(LX2 ) czyli ρz (X1 ) ­ ρz (X2 ).
Jeśli c oznacza stały zysk, to LX+c = −X − c = LX − c zatem
ρz (X + c) = ρ(LX+c ) = ρ(LX − c) = ρ(LX ) − c = ρz (X) − c.
Subbaddytywność i dodatnia jednorodność są zachowane gdyż
ρz (X1 + X2 ) = ρ(LX1 +X2 ) = ρ(LX1 + LX2 ) ¬
ρ(LX1 ) + ρ(LX2 ) = ρz (X1 ) + ρz (X2 ).
Analogicznie dodatnia jednorodność. zob [2].
1.2
Uogólniona dystrybuanta odwrotna
Przypomnienie wiadomości o dot. uogólnionej dystrybuanty odwrotnej.
Lemat 1.1 Jeśli F = FX jest dystrybuantą zmiennej losowej X, to
P (F (X) ¬ F (x)) = P (X ¬ x) = F (x).
2
Dowód. Ponieważ dystrybuanta jest niemalejąca zatem
{X ¬ x} ⊂ {F (X) ¬ F (x)}.
Zauważmy, że
{F (X) ¬ F (x)} = {X ¬ x} ∪ {F (X) = F (x), X > x},
gdyż Ω = {X ¬ x} ∪ {X > x}. Wystarczy pokazać teraz, że
P {F (X) = F (x), X > x} = 0.
(1.1)
Dla ustalonego x niech
x0 = inf{y : F (y) = F (x)}.
Z definicji x0 oraz z prawostronnej ciągłości, F (x0 ) = F (x). Ponadto niech
x1 = sup{y : F (y) = F (x)}.
Jeśli F (x1 ) = F (x), to
P (x0 < X ¬ x1 ) = 0.
(1.2)
P (x0 < X < x1 ) = 0,
(1.3)
Jeśli F (x1 ) > F (x), to
gdyż dla każdego b < x1
P (x0 < X ¬ b) = 0.
Z waruków (1.2) oraz (1.3) wynika (1.1).
Definicja 1.5 Niech F = FX jest dystrybuantą zmiennej losowej X. Uogólnioną dystrybuantę odwrotną nazywamy funkcję
F −1 (y) = inf{x : FX (x) ­ y}
Uogólniona dystrybuanta odwrotna
F −1 : [0, 1] → IR ∪ {−∞, +∞}
gdyż korzystamy ze standartowej definicji
+∞ = inf ∅,
−∞ = inf IR.
Zauważmy, że V arα (X) = F −1 (α).
Lemat 1.2 Niech F = FX jest dystrybuantą zmiennej losowej X.
1. F −1 jest niemająca i lewostronnie ciagła.
2. Jesli F jest ciągła wtedy i tylko wtedy gdy F −1 jest ściśle rosnąca na [0, 1].
3. Jeśli F jest ściśle rosnąca wtedy i tylko wtedy gdy F −1 jest ciągła na [0, 1].
Niech −∞ < F −1 < +∞. Wówczas
4. F (x) ­ y wtedy i tylko wtedy gdy F −1 (y) ¬ x.
5. F −1 (F (x)) ¬ x
6. F (F −1 (y)) ­ y
7. Jeśli F jest ściśle rosnąca, to F −1 (F (x)) = x
8. Jeśli F jest ciągla, toF (F −1 (y)) = y.
Zobacz [5].
3
Rozdział 2
Wielowymiarowe rozkłady
Niech A oznacza macierz. Przez A0 = AT będzie rozumieli macierz transponowaną. Działania na macierzach w SAS są w Dodatku na końcu.
2.1
Wielowymiarowy rozkład normalny.
Definicja 2.1 Wektor X = (X1 , X2 , . . . , Xp )0 ma niezdegenorowany rozkład
normaly (gaussowski) X ∈ N (µ, Σ) jeśli
EX = µ ∈ IRp ,
Σ = E(X − µ)(X − µ)T
dla macierz kowariancji det Σ 6= 0 zaś gęstość x ∈ IRp
1
1
T −1
Exp
−
(x
−
µ)
Σ
(x
−
µ)
.
f (x) =
2
(2π)p/2 |Σ|1/2
Aby wygenerować dane z danego rozkładu normalnego N (µ, Σ) korzystamy z
twierdzenia Fishera. Mianowicie
√ znajdujemy pierwiastek macierzy Σ, ( rozkład
Cholesky) czyli macierz A = Σ taką, że
A0 A = Σ.
Niech Z bedzie wektorem losowym
Z = (Z1 , Z2 , . . . , Zp ),
Zi ∈ N (0, 1)
oraz Zi są niezależne dla i = 1, ..., p. Zauważmy, że Z ∈ N (0, Ip ), gdzie Ip jest
macierzą jednostkową. Wówczas wektor losowy
Y = A0 Z + µ
ma rozkład gaussowski z macierzą korelacji Σ, Y ∈ N (µ, Σ). Rzeczywiście
E(Y − µ)(Y − µ)0 = EA0 ZZ0 A = A0 Ip A = Σ,
EY = µ.
Pozostałe własności wektorów gaussowskich na wykładzie Statystyka matematyczna.
Przykład
4
Ustawienie ”seed” oznacza, że liczby pseudolosowe losowe startują od tego
punktu. Ciąg liczb -procedura została stworzona przez Matsumoto and Nishimura (1998). Ciąg liczb ma okres 219937 − 1.
Funkcja ”normal” generuje liczbę, wektor, lub macierz liczb losowych o rozkładzie N (0, 1) w zależności jaki obiekt jest argumentem ”normal” Następujacy
program generuje wektor o długości 10 liczb losowych
c = j(10,1,0);
b = normal(c);
print b;
”Repeat function” wygeneruje te same obiekty. Składnia REPEAT( matrix,
nrow, ncol)
proc iml;
x={ 1 2 ,
3 4} ;
y=repeat(x,2,3);
print y;
Generowanie macierzy losowej i tworzenie pliku danych z macierzy
proc iml ;
n = 10;
/*deklarowanie macierzy*/
sigma = { 4 2,
2 3
};
mu = {1, 0};
p = nrow(sigma);
m = repeat(t(mu),n) ;
g =root(sigma);
z =normal(repeat(0,n,p)) ;
/*albo można z =normal(j(n,p,0)) ; */
ymatrix = z*g + m ;
/* przepisanie danych z macierzy do pliku*/
create newdata from ymatrix;
append from ymatrix;
close newdata;
proc print data = newdata;
Rysowanie danych wygenerowanych
proc gplot data=newdata;
plot col1*col2="star";
run;
Lub procedura
ods graphics on;
proc kde data=newdata;
bivar col1 col2 / plots=all;
run;
ods graphics off;
5
2.2
Weryfikacja hipotezy o normalności rozkładu
Testowanie normalności wielowymiarowego rozkładu normalnego. Program odwołuje się do odległości Mahalanobisa. Mianowice Mardia-test jest oparty na
mierze skośności (zakładamy, że obie całki istnieją)
3
β1,p = E (X − µ)T Σ−1 (Y − µ)
gdzie X, Y są niezależne oraz kurtozie
β2,p = E (X − µ)T Σ−1 (X − µ)
2
.
Dla wektorów losowych X, Y wielowymiarowego rozkładu normalnego, jesli X, Y
są niezależne wówczas
β1,p = 0
zaś
β2,p = p(p + 2).
Zakładamy, że mamy ciąg niezależnych wektorów o jednakowym rozkładzie
Y1 , Y2 , . . . , Yn dla których istnieje macierz kowariancji Σ. Mamy nastepujące
estymatory
n
n
1 XX 3
g
βd
1,p = 2
n i=1 j=1 ij
zaś
n
1X 2
βd
g ,
2,p =
n i=1 ii
gdzie
gij = (Yi − Y )T Sn−1 (Yj − Y ).
W przypadku gdy wektory losowe Y1 , Y2 , . . . , Yn ∈ N (µ, Σ) macierz losowa Sn
jest estymatorem Σ największej wiarogodności (obciążonym), czyli
Sn =
n−1
S,
n
zaś S jest nieobciążonym estymatorem Σ, czyli
n
S=
1 X
(Yi − Y)(Yi − Y)0 ,
n − 1 i=1
gdzie
n
Y=
1X
Yi .
n i=1
Przykład Mamy macierz danych (Rao 1948) dotyczący wagi korków do win.
Dla jednego drzewa mamy cztery pomiary wagi korka w zależności od strony
świata. Poniższy program wylicza macierz kowariancji oraz macierz odwrotną
do kowariancji.
6
proc iml ;
y ={
72 66 76 77,
60 53 66 63,
56 57 64 58,
41 29 36 38,
32 32 35 36,
30 35 34 26,
39 39 31 27,
42 43 31 25,
37 40 31 25,
33 29 27 36,
32 30 34 28,
63 45 74 63,
54 46 60 52,
47 51 52 43,
91 79 100 75,
56 68 47 50,
79 65 70 61,
81 80 68 58,
78 55 67 60,
46 38 37 38,
39 35 34 37,
32 30 30 32,
60 50 67 54,
35 37 48 39,
39 36 39 31,
50 34 37 40,
43 37 39 50,
48 54 57 43} ;
n = nrow(y) ;
p = ncol(y) ;
dfchi = p*(p+1)*(p+2)/6 ;
q = i(n) - (1/n)*j(n,n,1);
s = (1/(n))*t(y)*q*y ; s_inv = inv(s) ;
g_matrix = q*y*s_inv*t(y)*q;
beta1hat = ( sum(g_matrix#g_matrix#g_matrix) )/(n*n);
beta2hat =trace( g_matrix#g_matrix )/n ;
kappa1 = n*beta1hat/6 ;
kappa2 = (beta2hat - p*(p+2) ) śqrt(8*p*(p+2)/n) ;
pvalskew = 1 - probchi(kappa1,dfchi) ;
pvalkurt = 2*( 1 - probnorm(abs(kappa2)) );
print s ;
print s_inv ;
print
"TESTS:";
7
print
print
run;
"Based on skewness:" beta1hat kappa1 pvalskew ;
" Based on kurtosis" beta2hat kappa2 pvalkurt;
Drugi sposób to odwołanie się do gotowej procedury
data cork;
input north east south west;
datalines;
72 66 76 77
60 53 66 63
56 57 64 58
41 29 36 38
32 32 35 36
30 35 34 26
39 39 31 27
42 43 31 25
37 40 31 25
33 29 27 36
32 30 34 28
63 45 74 63
54 46 60 52
47 51 52 43
91 79 100 75
56 68 47 50
79 65 70 61
81 80 68 58
78 55 67 60
46 38 37 38
39 35 34 37
32 30 30 32
60 50 67 54
35 37 48 39
39 36 39 31
50 34 37 40
43 37 39 50
48 54 57 43
;
run;
proc calis data = cork kurtosis;
title1 "Output 1.1";
title2 "Computation of Mardia’s Kurtosis";
lineqs
north = e1,
east = e2,
south = e3,
west = e4;
std
8
e1=eps1, e2=eps2, e3=eps3, e4=eps4;
run ;
Procedura
proc calis z opcją kurtosis
wyświetla szereg parametrów związanych z kurtozą, w tym
• Standardową kurtozę Mardii (Mardia based kappa)
κ1 =
βd
2,p
− 1 = κ1 (βd
2,p ).
p(p + 2)
• Mean scaled univariate kurtosis κ2 , równa
miarowych
• Adjusted mean scaled kurtosis κ3 , równa
kurtoz jednowymiarowych
1
3p
razy suma kurtoz jednowy-
1
3p
razy suma poprawionych
Do weryfikacji hipotezy badany wektor cech ma rozkład normalny służy po−2
równanie parametru κi z wartością krytyczną p+2
w naszym przypadku −1/3.
Możemy również posłużyć się asymptotycznym rozkładem κ1 . Mianowicie Mardia w swojej pracy pokazał, że dla βd
2,p zachodzi centralne twierdzenie graniczne
βd
2,p − p(p + 2)
p
∼ N (0, 1).
8p(p + 2)/n
Zatem asymptotyczny rozkład κ1 też jest normalny.
W powyższym przykładzie dla każdej statystyki jest prawdą, że κi ­ −1/3
zatem nie ma podstaw do odrzucenia hipotezy zerowej.
Na koniec wprowadzamy jeszcze jedną procedurą która umożliwia obliczenie
macierzy kowariancji oraz korelacji
proc corr data = cork cov;
run;
2.3
Składowe główne rozkładów gaussowskich
Analiza składowych głównych to w zasadzie analiza wektorów własnych i wartości własnych macierzy Σ.
Niezwykle przydatna procedura
proc princomp data=cork;
run;
podaje wartości własne i wektory własne w badanym przykładzie. Jedna składowa główna wyjaśnia prawie całą zmienność modelu 89%. Składa się ona z niemal
identycznych informacji z każdej ze składowych wektora obserwacji. Druga składowa główna (razem z pierwszą) wyjaśnia 96% procent modelu. Wektor własny,
czyli druga składowa główna istotnie rozróżnia dane z east i west i z tych danych
buduje informacje. Stąd badany model można sprowadzić do dwóch danych.
9
2.4
Rozkłady sferyczne i eliptyczne
Wektor X = (X1 , X2 , . . . , Xp )0 będzie wektorem losowym. Niech L(X) oznacza
rozkład wektora X.
Definicja 2.2 Mówimy, że X ma rozkład sferyczny jesli dla każdej macierzy
ortogonalnej U, czyli takiej, że
UUT = Ip
zachodzi L(UX) = L(X), czyli równość zachodzi dla rozkładów.
Przykład wektora o rozkładzie sferycznym Z ∈ N (0, Ip ).
Rozkład L(X) oznacza bądź dystrybuantę wektora X, czyli FX badź miarę,
czyli transport miary P przez X. Zatem dla dowolnego zbioru borelowskiego
A ∈ B(IRp )
νX (A) = P (X ∈ A).
Zauważmy, że dla dowolnej funkcji dodatniej f : IRp → IR mamy
Z
Ef (X) =
f (u)νX (u).
IRp
Równość rozkładów jest równoważna z faktem, że funkcje charakterystyczne są
sobie równe. Funkcję charakterystyczną definiujemy wzorem t ∈ IRp
0
t0 X =< t, X >=
φX (t) = Eeit X ,
p
X
tj Xj .
j=1
Zauważmy jeszcze jedną prostą własność dla wektora losowego losowej X i λ > 0
0
0
φλX (t) = Eeit λX = Eeiλt X = φX (λt).
Niech kak =
√
(2.1)
< a, a >, gdzie a ∈ Rp .
Twierdzenie 2.1 Następujące warunki są równoważne
1. Wektor losowy X ma rozkład sferyczny
2. Istnieje funkcja mierzalna ψ : IR → IR (generator rozkładu sferycznego)
taka, że
ψ(t0 t) = φX (t).
3. Dla każdego wektora a ∈ IRp
L(a0 X) = L(kakX1 ),
Dowód. 1 =⇒ 2. Niech wektor X ma rozkład sferyczny. Niech U odwzorowanie ortogonalne. Wówczas z założenia dla t ∈ IRp
0
0
0
φX (t) = φU X (t) = Eeit UX = Eei(U t) X = φX (U0 t).
Biorąc dowolny obrót U otrzymujemy, że φX jest fukcją stałą dla wektorów
o tej samej długości i zależy jedynie od długości wektora t. Zatem możemy
zdefiniować funkcję ψ
ψ(a) = φX (t),
a = t0 t = ktk2 .
10
2 =⇒ 3. Niech e1 = (1, 0 . . . 0) będzie wektorem jednostkowym w IRp . Zauważmy, że z założenia dla u ∈ IR
0
φX1 (u) = EeiuX1 = Eei(ue1 ) X = φX (ue1 ) = ψ(u2 )
(2.2)
Również z założenia dla t ∈ IRp
0
φt0 X (u) = Eeiut X = φX (ut) = ψ(u2 t0 t) = ψ(u2 ktk2 )
Korzystając z (2.1) oraz (2.2) otrzymujemy
φt0 X (u) = φX1 (uktk) = φktkX1 (u),
co kończy dowód implikacji.
2 =⇒ 3. Niech U dowolne przekształcenie ortogonalne. Wówczas
0
0
0
φUX (t) = Eeit UX = Eei(U t) X .
Z założenia biorąc a = U0 t otrzymamy
0
0
0
Eei(U t) X = φa0 X (1) = φkakX1 (1) = EeikU tkX1 .
Ponieważ U jest ortogonalne,to kUtk = ktk. Zatem
0
φUX (t) = Eeik tkX1 .
Znowu korzystając z założenia
φUX (t) = φX (t)
co kończy dowód twierdzenia.
Lemat 2.2 Niech X, Y niezależne wektory losowe. Niech dana jest funkcja mierzalna f : IR × IR → IR taka , że zmienna losowa
E|f (X, Y)| < ∞.
Wówczas
E[f (X, Y)|Y ] = g(Y ),
gdzie
g(y) = E[f (X, y).
Na S p−1 wprowadzimy miarę powierzchniową unormowaną ν(S p−1 ) = 1,
czyli
Z
Z
0
0
1
eit a dν(a) =
eit a da,
ωp−1 S p−1
S p−1
gdzie ωp−1 jest miarą powierzchniową sfery S p−1 , czyli
ωp−1 = 2
π p/2
.
Γ(p/2)
Zauważmy, że dla dowolnego t ∈ IRp funkcja
Z
0
t→
eit a dν(a),
S p−1
11
zależy jedynie od ktk. Prowadzi to do definicji
Z
0
Ωp (ktk2 ) =
eit a dν(a).
(2.3)
S p−1
Funkcja Ωp jest związana z funkcją Bessela. Mianowicie niech k liczba całkowita.
Funkcją Bessla nazywamy funkcję postaci, por. [6]
Jk (t) =
1
2π
Z
2π
eit sin θ e−ikθ dθ,
t ∈ IR.
0
Zachodzi lemat, Lemat 3.1 [6] dla dowolnego k ­ 0
Jk (t) =
(t/2)k
Γ((2k + 1)/2)Γ(1/2)
1
Z
eits (1 − s2 )(2k−1)/2 ds,
t ∈ IR.
−1
Powyższa formuła pozwala rozpatrywać funkcje Bessela dla k > −1/2. Wówczas
dla dowolnego t ∈ IRp , niech s = ktk > 0 wówczas (dowód str. 154 [6])
Z
e
S p−1
=
it0 a
ωp−2
dν(a) =
ωp−1
Z
1
eisu (1 − u2 )(p−3)/2 du
−1
Γ(p/2)
Γ(p/2)
J(p−2)/2 (s) =
J(p−2)/2 (ktk).
(s/2)(p−2)/2
(ktk/2)(p−2)/2
Twierdzenie 2.3 Następujące warunki są równoważne
1. Wektor losowy X ma rozkład sferyczny
2. L(X) = L(RS), gdzie S jest rozkładem jednostajnym na sferze S p−1 ⊂
p
IR , R jest zmienną losową dodatnią. Ponadto R oraz S są niezależne.
Dowód 2 =⇒ 1. Korzystając z Lematu 2.2 otrzymamy
0
0
φRS (t) = EeiRt S = E(E[eiRt S |R]) = EΩp (R2 ktk2 ),
gdzie korzystamy z (2.3), czyli
0
Ωp (r2 ktk2 ) = Eeirt S .
Stąd
φRS (t) = EΩp (R2 ktk2 ) = EΩp (R2 t0 t).
Zatem pokazliśmy, że funkcja charakterystyczna zależy wyłącznie od iloczynu
skalarnego t0 t. Z twierdzenia 2.1 punkt 2 wynika teza twierdzenia.
1 =⇒ 2. Konstruujemy wektory losowe R, S niezależne i takie, że
L(R) = L(kXk),
zaś S ma rozkład jednostajny na S p−1 i sprawdzamy rozkład wektora RS.
Definicja 2.3 Wektor losowy X ma rozkład eliptyczny jeśli istnieje macierz A,
wektor µ oraz wektor Y o rozkładzie sferycznym tak, że
L(X) = L(AY + µ).
12
Ponieważ rozkład sferyczny Y jest jednoznaczenie określony przez generator ψ
(Twierdzenie 2.1 (2)) zatem rozkład X jest jednoznacznie określony przez ψ oraz
przez macierz A i µ. Zauważmy, że macierz korelacji dla X jest równa Σ = AA0 .
Korzystając z rozkładu Choleskiego rozkład X jest jednoznacznie określony przez
trójkę (µ, Σ, ψ) i oznaczamy go przez
X ∼ Ep (µ, Σ, ψ).
Wektor o rozkładzie normalnym X ∈ N (µ, Σ) ma rozkład eliptyczny. Mianowicie
√
L(X) = L( ΣZ + µ),
gdzie Z ∈ N (0, Ip ).
W rodzinie generowanej przez rozkłady eliptyczne miara ryzyka jest subaddytywna.
Twierdzenie 2.4 Niech X = (X1 , X2 , . . . , Xp )0 ma rozkład eliptyczny. Rozważmy stożek
p
X
M = {L : L = λ0 +
λj Xj , λj ∈ IR}.
j=1
Wówczas dla każdego L1 , L2 ∈ M
V aRα (L1 + L2 ) ¬ V aRα (L1 ) + V aRα (L2 ).
(2.4)
Dowód. Z twierdzenia 2.3 wynika, że istnieje macierz A, wektor µ oraz wektor
Y o rozkładzie sferycznym tak, że
L(X) = L(AY + µ).
Wystarczy teraz udowodnić, że dla dowolnych wektorów t1 , t2
V aRα (t01 AY + t02 AY) ¬ V aRα (t01 AY) + V aRα (t01 AY).
Z twierdzenia 2.1 Y ma rozklad sferyczny
L(t01 AY+t02 AY) = L((t1 +t2 )0 AY) = L((A0 t1 +A0 t2 )0 Y) = L(kA0 t1 +A0 t2 kY1 )
Ponadto dla i = 1, 2
L(t0i AY) = L((A0 ti )0 Y) = L(kA0 ti kY1 ).
Zatem
V aRα (t01 AY + t02 AY) = V aRα (kA0 t1 + A0 t2 kY1 ) = kA0 t1 + A0 t2 kV aRα (Y1 ).
oraz
V aRα (t0i AY) = V aRα (kA0 ti kY1 ) = kA0 ti kV aRα (Y1 ).
Wystarczy teraz zauważyć, że dla dowolnych A, t1 , t2
kA0 t1 + A0 t2 k ¬ kA0 t1 k + kA0 t2 k
co daje (2.4).
13
Rozdział 3
Oczekiwana wartość
zagrożona
Niech X będzie zmienną losową taką, że E|X| < ∞ o dystrybuancie FX , Oczekiwana wartość zagrożona-expected shortfall na poziomie ufności α ∈ [0, 1) definiujemy
Z 1
Z 1
1
1
ESα =
qu (FX )du =
V aRu (X)du,
1−α α
1−α α
gdzie qu (FX ) jest kwantylem FX . Z definicji wynika, że
ESα ­ V arα (X).
Lemat 3.1 Niech zmienna losowa X ma ciągła dystrybuantę F = FX . Wówczas
E[X; X ­ V aRα (X)]
,
ESα =
1−α
gdzie
Z
E[X; X ­ V aRα (X)] =
XdP.
{X­V aRα (X)}
Uwaga. Z definicji warunkowej wartości oczekiwanej wynika, że
Z
1
E[X|X ­ V aRα (X)] =
XdP.
1 − α {X­V aRα (X)}
Dowód. Jeśli U ∈ U (0, 1) czyli jeśli zmienna losowa U ma rozkład jednostaj−1
ny na odcinku (0, 1), to uogólniona dystrybuanta odwrotna F −1 = FX
złożona
z U ma rozkład FX , czyli
P (F −1 (U ) ¬ a) = FX (a).
Powyższy fakt wynika z lematu 1.2. Zatem
E(X; X ­ V aRα (X)) = E(F −1 (U ); F −1 (U ) ­ V aRα (X)).
= E(F −1 (U ); F −1 (U ) ­ F −1 (α))
14
Z lematu 2.1 (2)
E(F
−1
(U ); F
−1
(U ) ­ F
−1
(α)) = E(F
−1
Z
1
F −1 (u)du
(U ) : U ­ α) =
α
co kończy dowód.
Podamy teraz twierdzenie Van Zwet, czyli Mocne prawo wielkich liczb dla
statystyk pozycyjnych
Twierdzenie 3.2 Mocne prawo wielkich liczb dla statystyk pozycyjnych Niech X, X1 , X2 , ... ciąg niezależnych zmiennych losowych o rozkladzie
FX oraz niech E|X| < ∞. Wówczas dla 0 ¬ α < 1
1
lim
n→∞ [n(1 − α)]
n
X
Xj,n
j=[nα]+1
1
= ESα =
1−α
Z
1
V aRu (X)du
pr.
na
pewno,
α
gdzie X1,n ¬ X2,n ¬ · · · ¬ Xn,n oznaczają statystyki pozycyjne dla X1 , X2 , . . . , Xn
oraz [n(1 − α)] oznacza najwieszą liczbę całkowitą mniejszą od n(1 − α).
Zauważmy, że biorąc za α = 0 otrzymujemy Mocne Prawo wielkich Liczb
n
n
1X
1X
Xj,n = lim
Xj =
n→∞ n
n→∞ n
j=1
j=1
1
Z
V aRu (X)du = EX
lim
pr.
na
pewno.
0
Zachodzi twierdzenie C. Acerbi, D. Tasche 2002
Twierdzenie 3.3 Oczekiwana wartość zagrożona-expected shortfall na poziomie ufności α ∈ (0, 1) jest koherentną miarą ryzyka.
Dowód. Niech (X1 , X2 ) wektor losowy. Chcemy pokazać, że
ESα (X1 + X2 ) ¬ ESα (X1 ) + ESα (X2 ).
Niech (L1 , L̃1 ), . . . (Ln , L̃n ) ciąg wektorów o rozkładzie łacznym (X1 , X2 ). Wówczas
Yi = Li + L̃i
ciąg niezależnych zmiennych losowych. zauważmy, że
n
X
Yi:n = sup{Yi1 + · · · Yim , 1 ¬ i1 < · · · < im ¬ n} ¬
i=m
sup{Li1 +· · · Lim , 1 ¬ i1 < · · · < im ¬ n}+sup{L̃i1 +· · · L̃im , 1 ¬ i1 < · · · < im ¬ n}.
Przechodząc do granicy dla m = [nα] i n → ∞ i korzystając z Twierdzenia 3.2
otrzymujemy nasze twierdzenie.
15
Rozdział 4
Twierdzenie o reprezentacji
miar koherentnych
Niech X będzie zbiorem zmiennych losowych mierzalnych i ograniczonych. Niech
M zbiór miar skończenie addytywnych, nieujemnych, unormowanych na Ω, czyli
jeśli P ∈ M to P (Ω) = 1. Do definicji całki wzgl. tych miar definiujemy korzystając z tw. Hahna-Banacha. [2]
Twierdzenie 4.1 Funkcjonał ρ : X → IR jest koherentną miarą ryzyka wtedy
i tylko wtedy gdy istnieje podzbiór Q zbioru M miar skończenie addytywnych
unormowanych na Ω taki, że
Z
ρ(X) = sup E P X = sup
XdP, X ∈ X .
P ∈Q
P ∈Q
Ω
Przypadek Ω zbior skończny n elementowy. Wowczas każdą inwestycję X (stopę
straty z inwestycji)
X : Ω → IR
można utożsamić z wektorem tX ∈ IRn . Zatem mamy wzajemną odpowiedniość
zmiennych losowych na Ω oraz wektorów w przestrzeni IRn . Dlatego miarę probabilistyczną P na Ω możemy również z wektorem aP = (a1 , ..., an ) z sympleksu
∆ = ∆n , czyli
n
X
0 ¬ ai ¬ 1,
ai = 1.
i=1
Zauważmy, że
E P X =< lX , aP >= lX ◦ aP .
Z drugiej strony a ∈ ∆ to a wyznacza miarę Pa jak wyżej. W tym przypadku
twierdzenie ma następującą postać
Twierdzenie 4.2 Niech Ω zbior skończny n elementowy. Funkcjonał ρ : X →
IR jest koherentną miarą ryzyka wtedy i tylko wtedy gdy istnieje podzbiór Q
zbioru ∆n taki, że
ρ(X) = sup E Pa X = sup < lX , a >,
a∈Q
a∈Q
16
X ∈ X.
Dowód. Szkic . Jeśli Q jest podzbiorem ∆, to funkcjonał
ρQ : IRn → IR
taki, że
ρQ (X) = sup lX ◦ aP ,
X∈X
a∈Q
w sposób oczywisty spełnia warunki miary koherentnej, gdyż dziedziczy te własności z własności supremum. W drugą stronę załóżmy, że dany jest funkcjonał
ρ : IRn → IR
spełniający warunki Definicji 1.2. Udowodnimy, że dla każdego l ∈ IRn
|ρ(l)| ¬ klk
(4.1)
gdzie

klk = (l ◦ l)1//2 = 
n
X
1/2
lj2 
j=1
oznacza normę euklidesową, co oznacza ciągłość. Po pierwsze z warunku dodatniej jednorodności dla wektora zerowego 0 ∈ IRn i dla dowolnej liczby dodatniej
λ
ρ(0) = ρ(λ0) = λρ(0),
czyli ρ(0) = 0. Zauważmy, że aby pokazać (4.1) wystarczy udowodnić (4.1) dla
x ∈ S n−1 = {x ∈ IRn : kxk = 1}
gdyż (4.1) jest prawdziwa dla x = 0. Jeśli zaś l 6= 0, to x = l/klk ∈ S n−1 .
Wówćzas jeśli (4.1) zachodzi dla x ∈ S n−1 to
l l ρ
¬
klk klk i z didatniej jednorodności ρ otrzymujemy (4.1) dla dowolnego l ∈ IRn .
Ponieważ wektor stały c = (c, . . . , c) oznacza zmienną losową stała zatem z
translacyjnej niezmienniczości i ponieważ ρ(0) = 0 zatem
ρ(c) = ρ(0 + c) = ρ(0) + c = c,
czyli dla wektora stałego 1 = (1, . . . , 1) ∈ IRn
ρ(1) = 1.
Ponieważ dla dowolnego x ∈ S n−1
x+1­0
(porównujemy po wszystkich współrzędnych) zatem z monotoniczności x ­ −1
i z powyższych rezultatów
ρ(x) ­ −1.
17
Analogicznie dla dowolnego x ∈ S n−1
ρ(x) ¬ 1.
Zatem dla dowolego x ∈ S n−1
|ρ(x)| ¬ kxk = 1.
Niech teraz l0 dowolny ustalonty wektor taki, że ρ(l0 ) = 1. Definiujemy zbiór
U = U (l0 ) = {l ∈ IRn : ρ(l) < ρ(l0 )}.
Zbiór U jest otwarty (ρ jest funkcją ciągła) i l0 nie należy do tego zbioru. Korzystając z dodatniej jednorodności ρ oraz z subaddytywności pokazujemy, że
U jest wypukły. Korzystając zaś z twierdzenia Hahna Banacha o oddzielaniu
(Twierdzenie Kreina) istnieje hiperpłaszczyzna (funkcjonał, wektor q) oddzielająca zbiór U od wektora l0 , czyli dla dowolnego l ∈ U
q ◦ l < q ◦ l0 .
Ponieważ 0 ∈ U (bo ρ(0) = 0 < q ◦ l0 ) zatem istnieje q0 = q0 (l0 ) = λq tak, że
q0 ◦ l0 = ρ(l0 ) = 1.
Zatem dla dowolnego l ∈ U
q0 ◦ l < q0 ◦ l0 = 1.
Można pokazać, że q0 ∈ ∆. Wówczas dla
Q = {q0 : ρ(l0 ) = 1}
możemy udowodnić, że
ρ(l) = ρQ (l) = sup l ◦ a.
a∈Q
Rzeczywiście jeśli ρ(l) = b to
ρ(l − b1 + 1) = 1.
Zatem (l0 = l − b1 + 1)
ρQ (l) − b + 1 = ρQ (l − b1 + 1) ­ 1.
Stąd
ρQ (l) ­ ρ(l).
Wystarczy teraz udowonić, że dla dowolnego l i q0 ∈ Q
q0 ◦ l ¬ ρ(l).
Jeśli ρ(l) < b to
ρ(l − b1 + 1) = ρ(l) − b + 1 < 1.
czyli
q0 ◦ (l − b1 + 1) < 1.
Stąd ponieważ q0 ∈ ∆ (q0 ◦ 1 = 1)
q0 ◦ l < b
co dowodzi (4.2) co kończy dowód.
Jaka jest reprezentacja ESα ? [2]
18
(4.2)
Rozdział 5
Alokacja kapitału
Lemat 5.1 Niech U zbiór otwarty w IRp \ {0}. Niech dana jest funkcja różniczkowalna
f : U → IR
dodatnio jednorodna, czyli dla h > 0 oraz t, ht ∈ U zachodzi f (ht) = hf (t).
Wówczas
f (t) =< t, ∇f (t) > .
Dowód. Pochodna kierunkowa w kierunku u ∈ IRp , kuk = 1 dla funkcji
f ∈ C 1 (U ) w punkcie x ∈ Rp
Du f (x) = lim
a→0
f (x + au) − f (x)
= u ◦ ∇f.
a
Stąd jeśli x 6= 0, to wstawiając u = x/kxk otrzymamy
lim
a→0
f (x + ax/kxk) − f (x)
= x ◦ ∇f /kxk
a
czyli
(1 + a/kxk)f (x) − f (x)
= x ◦ ∇f /kxk.
a→0
a
lim
Ostatecznie
f (x)/kxk = x ◦ ∇f /kxk
co kończy dowód.
Dany jest wektor stóp strat X = (X1 , . . . , Xp ). Przez
X(t) =
p
X
tj Xj
j=1
rozumiemy losową wartość inwestycji. Dla ujemnej tj rozumiemy jako pozycje
krótkie. Niech M taki stożek, dla ktorego zbiór inwestycji U ⊂ IRp \ {0}
{X(t) : t ∈ U } ⊂ M.
Niech na M zadana bedzie miara ryzyka ρ. Wówczas definiujemy funkcje na
zbiorze t ∈ U
rρ (t) = ρ(X(t)).
19
Definicja 5.1 Gradientową alokacją kapitału dla funkcji ryzyka ρ nazywamy
∇rρ .
Wyznaczyć gradientową alokację kapitału dla V aR i .ES
Twierdzenie 5.2 (Tasche 2000) Załóżmy, że wektor losowy X = (X1 , . . . , Xp )
ma rozkład łączny. Niech
ρ = V aRα .
Wówczas
ACj = ACj (V aRα ) :=
∂rρ (t)
= E[Xj |X(t) = qα (X(t))].
∂tj
(5.1)
Załóżmy ponadto, że w otoczeniu punktu t istnieje dystrybuanta odwrotna absolutnie ciągła zmiennej losowej X(t) oraz gęstość fX(t) > 0. Jeśli
ρ = ESα
to
∂rρ (t)
= E[Xj |X(t) ­ qα (X(t))].
∂tj
ACj = ACj (ESα ) :=
(5.2)
Problem wyznaczyć rozkłady warunkowe.
Dowód. Pokażemy, że z (5.1) wynika (5.2). Mianowicie z definicji ES
1
∂rESα (t)
=
∂tj
1−α
=
1
1−α
Z
1
α
∂rV aRu (t)
du
∂tj
1
Z
E[Xj |X(t) = qu (X(t))]du
α
−1
Dokonajmy zamiany zmiennych v = qu (X(t)) = FX(t)
(u). Wówczas u = FX(t) (v)
1
∂rESα (t)
=
∂tj
1−α
Z
1
E[Xj |X(t) = v]fX(t) (v)dv
qα (X(t)
co kończy dowód.
(Wniosek 6.27 [5])
Wniosek 5.3 Niech ρ będzie miarą ryzyka dodatnio jednorodną i translacyjnie
niezmiennicza. Przyjmijmy Eulerowską zasadę alokacji.
p
X
p
∂rρ (t) X
rρ (X(t)) =
tj
=
tj ACj
∂tj
j=1
j=1
Wówczas dla rozkładów eliptycznych jeśli µ = 0
X ∼ Ep (µ, Σ, ψ).
to
Pd
Σik tk
ACi
= Pdk=1
.
ACj
k=1 Σjk tk
20
Dowód Niech
X = µ + AY
gdzie Y ma rozkład sferyczny. Z dodatniej jednorodności i translacyjnie niezmienniczości oraz Twierdzenia 2.1(3)
p
X
rρ (t) = ρ(X(t) = ρ(
tj Xj ) = ρ(t ◦ µ + t0 AY) = t ◦ µ + ρ((t0 A)Y)
j=1
= t ◦ µ + ρ(kt0 AkY1 ) = t ◦ µ + kt0 Akρ(Y1 ) = t ◦ µ +
√
t0 Σtρ(Y1 ).
Ponieważ µ = 0 zatem
Σt
∇rρ (t) = √
ρ(Y1 ).
t0 Σt
co kończy dowód.
Problemy. Wyznaczyć gradienotwą alokację kapitału dla V aR i ES rozkładów modelowanych rodzinami kopuł.
H. Cossette, M. P. Côté, E. Marceau, K. Moutanabbir Multivariate distribution defined with Farlie Gumbel Morgenstern copula and mixed Erlang marginals: Aggregation and capital allocation. Insurance: Mathematics and Economics
52 (2013) 560 572.
21
Rozdział 6
Twierdzenie Sklara i kopuły
Definicja funkcji kopuły. Twierdzenie Skalara. W pracach w tym rozdziale. Poniżej elementarne własności.
Kopuły umożliwiają modelowanie wielowymiarowych rozkładów łącznych
przy niewielkiej próbce.
• Dopasowujemy do danych surowych rozkłady brzegowe F1 , F2 (np. normalny, Wiebulla, gamma, chi-kwadrat nie koniecznie z tej samej rodziny).
• Bierzemy rodziny kopuł Cθ : Gumbela, Claytona, Franka i zakładamy, że
rozkład łączny jest postaci
F(L1 ,L2 ) (x1 , x2 ) = P (L1 ¬ x1 , L2 ¬ x2 ) = Cθ (F1 (x1 ), F2 (x2 )).
zakładamy tutaj, że rozkłady brzegowe mniej podlegają ” zmianie” niż
rozkłady łączne.
• Generujemy dane z rozkładu (L1 , L2 ) w następujący sposób, jeśli pary
(ξ1i , ξ2i ) są wygenerowane z rozkładu Cθ (proc copula, simulate statement,
marginals uniform), to pary (l1i , l2i ) sa wygenerowane z rozkładu F(L1 ,L2 ) ,
gdzie
lji = Fj−1 (ξj.i ), j = 1, 2 i = 1, . . . n.
Uzasadnienie tego faktu
P (F1−1 (ξ1 ) ¬ a1 , F2−1 (ξ2 ) ¬ a2 ) = P (ξ1 ¬ F1 (a1 ), ξ2 ¬ F2 (a2 ))
= C(F1 (a1 ), F2 (a2 )) = F(L1 ,L2 ) (a1 , a2 ).
• Mając zatem ”pełną informację” czyli rozkład łączny analizujemy portfele
(zmienne losowe postaci)
P (s) = sL1 + (1 − s)L2 .
Ponadto analizujemy zachowanie V ar[P (s)] oraz E[P (s)] w zależności od
parametru θ, składu portfela czyli 0 ¬ s ¬ 1 orazi w zależności rodziny
kopuł.
22
Twierdzenie 6.1 Niech C będzie funkcją kopuły. Wówczas dla t = (t1 , . . . , tn )
n
X
max{
tj + 1 − n, 0} ¬ C(t) ¬ min{t1 , . . . , tn }.
j=1
Dowód. Niech zmienne losowe Uj mają rozkład jednostajny na odcinku
(0, 1). Wówczas dla każdego i zachodzi
\
{Uj ¬ tj } ⊂ {Ui ¬ ti }.
1¬j¬n
Zatem jeśli C jest dystrybuantą wektora losowego (U1 , . . . , Un ), to dla t =
(t1 , . . . , tn )
C(t) ¬ ti
dla każdego i co kończy dowód prawej nierówności.
Z definicji




\
[
C(t) = P 
{Uj ¬ tj } = 1 − P 
{Uj > tj } .
1¬j¬n
1¬j¬n
Zatem
C(t) ­ 1 −
n
X
P (Uj > tj ) = 1 −
j=1
n
n
X
X
(1 − tj ) = 1 − n +
tj .
j=1
j=1
To kończy dowód.
Korzystając z twierdzenie Sklara dla dowolnej dystrybuanty F wektora losowego X = (X1 , X2 , . . . , Xn ) zachodzi
n
X
Fj (tj ) + 1 − n, 0} ¬ F (t) ¬ min{F1 (t1 ), . . . , Fn (tn )}.
max{
j=1
gdzie Fi oznacza dystrybuantę Xi oraz t = (t1 , . . . , tn ).
Definicja 6.1 (Współczynnik korelacji Kendall’a (tau Kendall’a)) Niech
(X1 , X2 ) dwuwymiarowy wektor losowy zaś (X̃1 , X̃2 ) niezależna kopia.
Wówczas
ρτ (X1 , X2 ) = Esign (X1 − X̃1 )(X2 − X̃2 ) .
Funkcja sign jest funkcją znaku czyli przyjmuje wartości −1, 0, 1.
Definicja 6.2 (Współczynnik korelacji Spearman’a. Niech (X1 , X2 ) dwuwymiarowy wektor losowy zaś F1 i F2 rozkłady brzegowe (dystrybuanty). Wówczas
ρS (X1 , X2 ) = ρ(F1 (X1 ), F2 (X2 )),
gdzie ρ liniowy współczynnik korelacji.
Zauważmy, że ρS jest liniowym współczynnik korelacji dla jedynej funkcji kopuły
C dla wektora losowego (F1 (X1 ), F2 (X2 )) o ile F1 i F2 rozkłady brzegowe są
ciągłe.
23
Twierdzenie 6.2 Niech (X1 , X2 ) dwuwymiarowy wektor losowy zaś F1 i F2
rozkłady brzegowe są ciągłe. Wówczas
Z 1Z 1
C(u1 , u2 )dC(u1 , u2 ) − 1.
ρτ (X1 , X2 ) = 4
Z
0
0
1Z
1
(C(u1 , u2 ) − u1 u2 ) du1 du2 .
ρS (X1 , X2 ) = 4
0
0
Dowód Z definicji
ρτ (X1 , X2 ) = P ((X1 − X̃1 )(X2 − X̃2 ) > 0) − P ((X1 − X̃1 )(X2 − X̃2 ) < 0).
Stąd ponieważ rozkłady brzegowe są ciągłe
P ((X1 − X̃1 )(X2 − X̃2 ) < 0) = 1 − P ((X1 − X̃1 )(X2 − X̃2 ) > 0).
Istotnie
P ((X1 − X̃1 )(X2 − X̃2 ) = 0) ¬ P ((X1 − X̃1 ) = 0) + P ((X2 − X̃2 ) = 0) = 0.
Stąd
ρτ (X1 , X2 ) = 2P ((X1 − X̃1 )(X2 − X̃2 ) > 0) − 1.
Stąd jeśli F oznacza rozkład rozłączny to
ρτ (X1 , X2 ) = 4P (X1 < X̃1 , X2 < X̃2 ) − 1 =
Z ∞Z ∞
h
i
4E P (X1 < X̃1 , X2 < X̃2 |X̃1 , X̃2 ) −1 = 4
P (X1 < x1 , X2 < x2 )dF (x1 , x2 )−1.
−∞
−∞
Z twierdzenia Sklara dostajemy tezę.
W SAS możemy wyznaczyć cztery współczynniki korelacji (empiryczne), lub
inczej mówiąc mamy cztery naturalne estymatory współczynników korelacji.
Niestety SAS oblicza ”trudniejszy parametr” tzw.tau-b Kendalla. Dla danych
cork rozdział 2
ods graphics on;
title ’Measures of Association for a Physical Fitness Study’;
proc corr data=cork pearson spearman kendall hoeffding
plots=matrix(histogram);
var north east south west;
run;
ods graphics off;
Parametr tau Kendalla możemy policzyć ”samodzielnie”. Trzeba obliczyć
ilość par zgodnych znakiem do ilości par niezgodnych znakiem. Mianowicie potrzeba wyznaczyć
ρ
cτ =
2
n(n − 1)
X
sign(xt,1 − xs,1 )(xt,2 − xs,2 ).
1¬t<s¬n
Z drugiej strony dla kopuły Gumbella
1
ρ(CθGu ) = 1 − .
θ
24
dla kopuły Claytona
ρ(CθCl ) =
θ
.
θ+2
Stąd można wyestymować (wykalibrować str 221 [5]) parametry kopuł dla danych.
Opracować z ”heplu SAS” procedurę z opcjami.
The COPULA Procedure
Zobacz w [4] teorię i kopuł.
25
Rozdział 7
Oszacowania dla ryzyka
Niech ρ miara ryzyka. Niech X = (X1 , . . . , Xd ) wektor strat. Niech dana jest
funkcja mierzalna
Ψ : IRp → IR.
Podstawowym problemem w mierzeniu ryzyka jest rozwiązanie nastepującego
problemu. Dla ρ , zadanych rozkładów brzegowych Fi ,i = 1, ..., p oraz funkcji
Ψ znaleźć oszacowania dla
inf{ρ(Ψ(X)) : Xj ∼ Fj , j = 1, ..., p}
oraz
sup{ρ(Ψ(X)) : Xj ∼ Fj , j = 1, ..., p}.
Najczęściej rozważane funkcje Ψ, t ∈ IRp
dla portfela
p
X
Ψ(t) =
tj
(7.1)
j=1
dla reasekuracji ”stop loss” na poziomie k
p
X
Ψ(t) = (
tj − k)+
j=1
dla reasekuracji ”excess of loss” na poziomach kj
Ψ(t) =
p
X
(tj − kj )+
j=1
Problem dla ρ = V arα , zadanych rozkładów brzegowych Fi ,i = 1, ..., p oraz
funkcji Ψ postaci (7.1) znaleźć oszacowania dla
p
X
inf{V aRα (
Xj ) : Xj ∼ Fj , j = 1, ..., p}
j=1
oraz
sup{V aRα (
p
X
Xj ) : Xj ∼ Fj , j = 1, ..., p}.
j=1
26
Można jeszcze bardziej zawęzić problem do sytuacji gdy rozkład łączny jest
modelowany za pomocą rodziny kopuł. Metodami Monte Carlo rozwiązać powyższy problem. W sposób efektywny możemy rozwiązać powyższy problem dla
kowariancji. W tym celu korzystamy z
Lemat 7.1 (Formuła Hofffdinga) Niech dany jest wektor losowy (X1 , X2 ) o
dystrybuancie F oraz rozkładach brzegowych F1 , F2 . Wówczas
Z ∞Z ∞
(F (x1 , x2 ) − F1 (x1 )F (x2 ))dx1 dx2 ,
cov(X1 , X2 ) =
−∞
−∞
Dowód.
Niech ρ(X1 , X2 ) oznacza kowariancję wektora losowego oraz niech
ρmin = inf{ρ(X1 , X2 ) : Xi ∼ Fi }.
ρmax = sup{ρ(X1 , X2 ) : Xi ∼ Fi }.
Definicja 7.1 Zmienne losowe X1 , . . . , Xd o rozkładach brzegowych F1 , . . . , Fd
są wspólniemonotoniczne (komonotoniczne) jeśli rozkład łaczny F
F (x1 , . . . , xd ) = min{F1 (x1 ), . . . , Fd (xd )}.
Twierdzenie 7.2 (Charakteryzacja komonotonicznych zmiennych losowych) Zmienne losowe X1 , . . . , Xd o rozkładach brzegowych F1 , . . . , Fd są wspólniemonotoniczne (komonotoniczne) wtedy i tylko wtedy gdy istnieje zmienna losowa Z oraz
funkcje vj niemalejące j = 1, . . . , d takie , że
L(X1 , . . . , Xd ) = L(v1 (Z), . . . , vd (Z)).
Ponadto
V aRα (X1 + · · · Xd ) = V aRα (X1 ) + · · · + V aRα (Xd ).
(7.2)
Dwód (7.2) wynika z faktu, że dla zmiennych losowych komonotonicznych
jest jedno źródło losowości.
Definicja 7.2 Zmienne losowe X1 , X2 o rozkładach brzegowych F1 , F2 są przeciwmonotoniczne (ang. countermonotonic) jeśli rozkład łaczny F
F (x1 , x2 ) = max{F1 (x1 ) + F2 (x2 ) − 1, 0}.
Twierdzenie 7.3 (Charakteryzacja przeciwmonotonicznych zmiennych losowych)
Zmienne losowe X1 , X2 o rozkładach brzegowych F1 , F2 są przeciwmonotoniczne
wtedy i tylko wtedy gdy istnieje zmienna losowa Z oraz funkcje vj niemalejąca
i nierosnąca j = 1, 2 takie , że
L(X1 , X2 ) = L(v1 (Z), v2 (Z)).
Twierdzenie 7.4 Jeśli zmienne losowe X1 i X2 są przeciwmonotoniczne to
ρmin = ρ(X1 , X2 )
Jeśli zmienne losowe X1 i X2 są wspólniemonotoniczne to
ρmax = ρ(X1 , X2 )
27
Problematyka z tego rozdziału jest analogiczna do problematyki transportu, zob
[7] Tematyka ta związana jest również z kopułami zob. [4] np. dla ustalonych
zmiennych losowych X oraz Y (czyli mamy ustalone rozkłady brzegowe F i G)
znaleźć minimum wyrażenia
min{E|X − Y |α : X ∼ F, Y ∼ G}.
28
Rozdział 8
Centralne twierdzenie
graniczne
świetne wprowadznie do centralnych twierdzeń granicznych w książce [1] strona
70. Do problemtyki następnego rozdziału [1] strona 113.
Definicja 8.1 Zmienna losowa X ma rozkład stabilny jeśli dla ciągu niezależnych kopii X1 , X2 zmiennej X i dowolych c1 , c2 > 0 istnieją b > 0 oraz a ∈ R
takie, że
Fc1 X1 +c2 X2 = FbX+a ,
czyli
L(c1 X1 + c2 X2 ) = L(bX + a).
Rozkłady stabilne są całkowicie scharakteryzowane przez funkcje charakterystyczne. Rozkłady są scharakteryzowane przez cztery parametry γ, α, c oraz
β. Ponieważ głównym parametrem jest α ∈ (0, 2] zatem w skrócie będziemy je
oznaczać Gα . Ważnym przykładem są rozkłady α-stabilne α ∈ (0, 2] których
funkcja characterystyczna jest dana wzorem
α
φ(t) = eiγt−c|t| ,
t ∈ IR
gdzie c > 0 i γ ∈ IR.
Nietrudno pokazać, że jeśli X1 , X2 , ... jest ciągiem niezależnych zmiennych
losowych o rozkładzie stabilnym Gα , to z definicji istnieją dwa ciągi an i bn > 0
tak, że zachodzi
Fξn (y) = Gα (y)
gdzie Fξn jest dystrybuantą zmiennej losowej
ξn =
Sn − an
,
bn
Sn =
n
X
j=1
Z drugiej strony zachodzi twierdzenie
29
Xj .
Twierdzenie 8.1 Jeśli dany jest ciąg niezależnych zmiennych losowych X1 , X2 , ...
o jednakowym rozkładzie oraz ciągi an i bn tak, że
Fξn (y)) → G(y),
n → ∞,
do pewnej dystrybuanty G, to wówczas G = Gα ma rozkład stabilny.
Przykład Jeśli X, X1 , X2 , ... są niezależne o rozkładzie Cauchy, to
φX (t) = e−|t| .
Zatem Sn =
Pn
j=1
Xj otrzymujemy
φSn /n (t) =
n
Y
φXj /n (t) =
j=1
n
Y
e−|t|/n = e−|t| .
j=1
W konsekwencji
FSn /n (t) = FX (t).
Model Craméra Lundberga. Dany jest ciąg {Xj } nieujemnych niezależnych
zmiennych losowych o jednakowym rozkładzie (oznaczający roszczenia). Niech
ponadto µ = EX < ∞ oraz σ 2 = V arX < ∞. Niech N (t) będzie procesem
Poissona o intensywności λ niezależnym od {Xj }. Proces N (t) modeluje proces
ilości roszczeń w czasie [0, t]. Ogólny proces roszczeń modeluje proces
PN (t)
N (t) > 0
j=1 Xj
S(t) =
0
N (t) = 0
Twierdzenie 8.2 W modelu Cramer-Lundberga
N (t)
ES(t) = E
X
Xj = µλt.
j=1
Jesli t → ∞ to
PN (t)
j=1
p
Xj − ES(t)
V arS(t)
gdzie zbieżność jest wg. rozkładu.
Trajektorie procesu Poissona
data poisson;
t=0;
p=0;
lambda=5;
delta=0.01;
output;
do i = 1 to 1000;
t =t+delta;
p = p+ rand(’Poisson’,delta*lambda);
x=lambda*t;
output;
30
→ N (0, 1),
end;
run;
Symbol value=none interpol=sms line=1 width=2;
title"Trajectory Poisson";
proc gplot data=poisson;
plot p*t x*t /overlay ;
run;
Centralne twierdzenie graniczne w modelu Cramera-Lunberga. Proces Poissona ma intensywność λ = 10, rozkłady roszczeń maja rozkład gamma z a = 16.
Przeanalizuj wykresy dla małych n
data central;
lambda=10;
a=16;
n=20000;
do i = 1 to n;
poss=Rand(’Poisson’,lambda);
s=0;
do k=1 to poss;
s = Rand(’gamma’,a)+s;
end;
z=(s-a*poss)/sqrt(poss*a);
output;
end;
title ’Limit distribution ’;
proc univariate data=central;
var z;
histogram / midpoints=-3 to 3 by 0.5
normal
vaxis = axis1
name = ’MyHist’;
inset n mean(5.3) std=’Std Dev’(5.3) skewness(5.3)
/ pos = ne header = ’Summary Statistics’;
axis1 label=(a=90 r=0);
run;
31
Rozdział 9
Obszary przyciągania dla
maksimum
Niech {Xj } ciąg niezależnych zmiennych losowych o jednakowym rozkładzie F .
Niech M1 = X1 zaś
Mn = max{X1 , X2 , ..., Xn }.
Zauważmy, że
P (Mn ¬ x) = P (X1 ¬, ..., Xn ¬ x) = F n (x).
Interesują nas możliwe granice
c−1
n (Mn − dn ) → H.
(9.1)
Analogicznie jak dla CTG ważną rolę pelnią rozkłady stabilne tutaj ważną rolę
pełnią max-stabilne.
Definicja 9.1 Niezdegeneroana zmienna losowa ma rozkład max-stabilny jeśli
dla niezależnych kopii X czyli X1 , X2 , ... istnieją ciągi cn > 0 oraz dn tak, że
L(max{X1 , ...Xn }) = L(cn X + dn ).
Twierdzenie 9.1 Jesli istnieje granica w równaniu (9.1), to H jest
• Fréchet α > 0
Φα (x) =
0
exp(−x−α )
dla x ¬ 0
dla x > 0.
(9.2)
• Weibull α > 0
Ψα (x) =
n
exp(−(−x)α )
1
dla x ¬ 0
dla x > 0.
• Gumbell
Λ(x) = exp(−e−x ),
32
x ∈ IR.
(9.3)
Zwykle rozkład Weibulla podaje się dla ustalonego α > 0 oraz dla x ­ 0
wzorem
α
F (x) = 1 − e−x ,
(9.4)
Stąd wida/c, że jest rozkład Weibulla jest uogólnieniem rozkładu wykładniczego.
W tej wersji mamy twierdzenie jeśli X ma rozkład Fréchet wtedy i tylko
wtedy gdy 1/ ma rozkład Weibulla ze wzoru (9.4). Rzeczywiście
P (1/X ¬ a) = P (X ­ 1/a) = 1 − P (X < 1/a)
i korzystając z powyższych formuł dla rozkładu Frécheta i weibulla otrzymuje
wzór (9.4) odpowiednio (9.2).
Ponadto jeśli X ma rozkład dany wzorem (9.4) wtedy i tylko wtedy gdy −X
ma rozkład (9.3).
W programie SAS 9.3 mamy dostępne wszystkie te rozkłady. Rozkład Gumbella
Λ(x) = exp(−e−(x−µ)/σ ), x ∈ IR,
gdzie µ parametr położenia rozkladu zaś σ parametr skali. Rozkłady Fréchet i
Weibulla są wzajemnie odpowiadające. Dlatego w SAS 9.3 rozkład Weibulla
(
0 dla x ¬ θ
Φα (x) = exp − x−θ −α
dla x > θ.
σ
Przyklad Niech Xj jest ciągiem niezależnych zmiennych losowych o rozkładzie wykładniczym z parametrem λ = 1. Sprawdzić, że
P (Mn − ln n ¬ x) → Λ(x) = exp(−e−x ).
Zaobserwować zmianę parametru p dla testów dopasowania w zależności od
próby, kiepskie dla 50 i świetne 200)
data makaron;
do j=1 to 50(zamienic na 200);
a=0;
do i = 1 to 100;
b=rand(’exponential’);
if b>a then a=b;
c=a;
end;
max=c;
output;
end;
run;
title ’Limit distribution ’;
proc univariate data=makaron;
var max;
histogram / gumbel
midpoints=0 to 40 by 1
;
run;
33
Na koniec zobaczmy, że graniczne rozkłady możemy zapisać w postaci
exp(−(1 + ξx)−1/ξ ) dla ξ 6= 0
Hξ (x) =
exp(−e−x )
dla ξ = 0,
gdzie 1 + ξx > 0. Czyli dla ξ > 0, x > −1/ξ zaś dla ξ < 0 x < −1/ξ. Pokazać,
że funkcja Hξ (x) jest ciągła dla x 6= 0 przy ξ → 0.
Możemy otrzymać rodzinę trzy parametrową
Hξ,µ,σ = Hξ ((x − µ)/σ).
Korzystając z twierdzenia 9.1 otrzymamy wówczas, że F należy do obszaru
przyciągania
F ∈ M DA(Hξ,µ,σ ) = M DA(Hξ ).
34
Rozdział 10
Uogólniony rozkład Paretoanaliza rozkładów ogonów
Dla zmiennej losowej X z dystrybuantą F wprowadzmy
Fu (x) = P (X − u ¬ x|X > u) =
F (x + u) − F (u)
,
1 − F (u)
0 ¬ x ¬ xF − u,
gdzie xF ¬ ∞ jest prawym punktem krańcowym F , czyli
Definicja 10.1 Uogólniony rozkład Pareto jest dany za pomocą dystrybuanty
1 − (1 + ξx/β)−1/ξ dla ξ 6= 0
Gξ,β =
1 − exp(−x/β)
dla ξ = 0.
β > 0 i x ­ 0 gdy ξ ­ 0 zaś dla ξ < 0, 0 ¬ x ¬ −β/ξ.
Sprawdź wzory w SAS support:
Table 4.116 Distributions and Parameters
Twierdzenie 10.1 Pickands-Balkema-de Haan Istnieje mierzalna dodatnia funkcja β taka, że
lim
sup
u→xF 0¬x¬xF −u
|Fu (x) − Gξ,β(u) (x)| = 0.
wtedy i tylko wtedy gdy F ∈ M DA(Hξ ).
35
Rozdział 11
Analiza macierzowa w SASprzypomnienie
proc iml ;
/*tworzenie macierzy*/
A ={
2 1 ,
0 3
}
;
/*transponowanie macierzu */
B=t(A);
/*działania na macierzach*/
E=B*A;
F=E-B+A;
/*odwracanie macierzy*/
C=inv(A);
/*licza wierszy i kolumn*/
wie = nrow(A);
kol= ncol(A);
/*wyznacznik i ślad*/
trace_a = trace(A);
det_a = det(A);
/* pierwiastek macierzy dodatnio okreslonej*/
D=root(E);
/*tworzenie specjalnych macierzy np jedynek*/
J=j(3,3,1);
/*tworzenie macierzy jednostkowej */
K=i(3);
/*drukowanie macierzy*/
print D;
run;
łączenie macierzy. Sprawdź następujące operacje
A||B
oraz A//B.
36
proc iml ;
A ={
2 1 ,
0 3
}
;
B ={
5 -1 ,
2 -3
}
;
C=A||B;
D=A//B;
print C ;
print D ;
run;
Tworzenie pliku SAS z macierzy
proc iml;
ymatrix = {
2 4 8,
3 9 1,
9 4 8,
1 1 1,
2 7 8};
create newdata from ymatrix;
append from ymatrix;
close newdata;
proc print data = newdata;
37
Bibliografia
[1] P. Embrechts, C. Kluppelberg, T. Mikosch Modelling Extremal Events for
Insurance and Finance Springer 2012.
[2] Hans Föllmer, Alexander Schied Stochastic Finance An Introduction in
Discrete Time Second Revised and Extended Edition Walter de Gruyter
Berlin New York 2004.
[3] Ravindra Khattree, Dayanand N. Naik, Applied Multivariate Statistics with
SAS software SAS Institute Inc. and John Wiley & Sons, Second edition
2003.
[4] R.B. Nelsen, An introduction to copulas Springer 2006
[5] A. McNeil, R. Frey, P. Embrechtes Quantitive Risk Management Princeton
University Press 2005
[6] E.M. Stein, G. Weiss Fourier analysis on Euclidean spaces Princeton University Press 1971.
[7] C. Villani Topics in optimal Transportation Graduate Studies in Mathematics vol. 58 AMS 2003
[8] Van Zwet, W.R. (1980) A strong law for linear functions of order statistics.
Ann. Probab. 8, 986–990
38

Podobne dokumenty