VaR - Krzysztof Piontek

Transkrypt

VaR - Krzysztof Piontek
Daniel Papla, Krzysztof Piontek
Akademia Ekonomiczna we Wrocławiu
Katedra Inwestycji Finansowych i Ubezpieczeń
Zastosowanie rozkładów α-stabilnych i funkcji powiązań (copula)
w obliczaniu wartości zagrożonej (VaR)
1. Wstęp
W artykule zaprezentowano przykład zastosowania rozkładów α-stabilnych i funkcji
powiązań (copula) do modelowania rzeczywistych rozkładów stóp zwrotu wybranych spółek
i analizy powiązań pomiędzy nimi. Uzyskane w wyniku estymacji rozkłady dwuwymiarowe
stóp zwrotu wykorzystano do obliczania wartości zagrożonej (Value at Risk – VaR) dla
dwuelementowego portfela.
Celem artykułu jest odpowiedź na pytanie, czy taki sposób pozwala na dokładniejsze
wyznaczenie miary VaR niż przy zastosowaniu bardziej tradycyjnych metod.
Pierwsza część artykułu prezentuje teoretyczne podstawy zastosowanej metodologii.
Omówione zostały zarówno rozkłady α-stabilne, funkcje powiązań, jak i koncepcja wartości
zagrożonej, ze szczególnym uwzględnieniem metody wariancji-kowariancji (wykorzystującej
założenie o normalności wielowymiarowego rozkładu stóp zwrotu), metody symulacji
historycznej oraz metody Monte Carlo opartej na rozkładach α-stabilnych i funkcji powiązań.
Prezentowane dalej badania empiryczne mają charakter jedynie poglądowe. Dane
wykorzystane w obliczeniach obejmują jedynie dwie wybrane w sposób subiektywny spółki
notowane na GPW w Warszawie. Interpretacja otrzymanych wyników i wnioski końcowe
zawarte są w ostatniej części pracy.
2. Rozkłady α-stabilne
Rodzina rozkładów stabilnych wprowadzona została w latach trzydziestych XX wieku
przez Paula Levy’ego, jednak propozycję zastosowania tych rozkładów do modelowania
rozkładów stóp zwrotu wysunął dopiero w 1963 r. Mandelbrot. Przyczyną zainteresowania
rozkładami α-stabilnymi stał się fakt, że są one uogólnieniami rozkładu normalnego i
umożliwiają opis grubych ogonów.
Niestety, poza trzema przypadkami (rozkład normalny, rozkład Cauchy’ego, rozkład
Levy’ego), nie są znane jawne postaci rozkładu funkcji gęstości rozkładów stabilnych, co jest
podstawowym problemem w stosowaniu tej klasy rozkładów statystycznych. Dodatkowym
utrudnieniem związanym z praktycznym wykorzystaniem omawianych rozkładów jest
1
niejednolita parametryzacja stosowana przez różnych autorów, która nie ułatwia porównania
wyników.
Podstawowe cechy rozkładów α-stabilnych oraz sposoby estymacji ich parametrów można
znaleźć w takich pracach jak (Borak, Härdle, Weron (2004); Samorodnitsky, Taqqu (1994);
Weron (1996)). Rozkłady α-stabilne definiowane są w ogólności poprzez funkcję
charakterystyczną następującej postaci:

πα 
α α
 , α ≠ 1,
i µ t − σ t  1− i β sign (t ) tan
2 
log φ (t ) = 


2

α = 1,
i µ t − σ t 1 + i β π sign (t ) ln t  ,

(1)
gdzie: α ∈ (0, 2] – współczynnik stabilności (zwany również współczynnikiem kształtu,
wykładnikiem kształtu lub wykładnikiem charakterystycznym), β ∈ [−1,1] – parametr określający
skośność rozkładu, σ > 0 – parametr skali (rozproszenia), µ ∈ – parametr położenia.
Współczynnik stabilności α określa „szybkość”, z jaką zanikają ogony rozkładu. Dla α = 2
uzyskuj się rozkład normalny. Dla α < 2 wariancja rozkładu jest nieskończona, a rozkłady
posiadają grubsze ogony od rozkładu normalnego. Dla α > 1 określona jest średnia rozkładu,
równa µ. Dodatnia wartość parametr β skutkuje skośnością prawostronną, ujemna –
lewostronną. Dla β = 0 rozkład jest symetryczny. Ważną właściwością jest fakt, iż dla α
zdążającego do 2, wartość β przestaje wpływać na kształt funkcji gęstości i rozkład zbliża się
do rozkładu normalnego, który jest symetryczny niezależnie od wartości parametru β.
Rysunki 1. i 2. prezentują przykładowe rozkłady α-stabilne w zależności od
współczynnika kształtu.
α =1.1
α =1.4
α =1.7
α =2.0
0.3
-1
10
0.25
-2
10
0.2
-3
10
0.15
-4
10
0.1
-5
0.05
0
10
-6
-4
-2
0
2
4
6
Rys. 1. Przykładowe rozkłady α-stabilne
(skala liniowa)
Źródło: obliczenia własne.
α =1.1
α =1.4
α =1.7
α =2.0
-6
-4
-2
0
2
4
6
Rys. 2. Przykładowe rozkłady α-stabilne
(skala logarytmiczna)
Źródło: obliczenia własne.
2
Rozkłady stabilne charakteryzują się jednomodalnością, mogą być skośne i mogą posiadać
„grube ogony”. Biorąc pod uwagę już tylko te cechy, można zaryzykować hipotezę, że
rozkłady stabilne o współczynniku α < 2, i β ≠ 0 będą lepiej dopasowywać się do rozkładów
empirycznych stóp zwrotu niż rozkład normalny (Mittnik, Rachev (2000)).
3. Funkcje copula
Zastosowanie funkcji copula pozwala częściowo rozwiązać najpoważniejszy problem
związany z wykorzystaniem rozkładów wielowymiarowych, a mianowicie nieznajomość
postaci analitycznej empirycznego łącznego rozkładu stóp zwrotu. Funkcja copula (w
przypadku dwuwymiarowym, który łatwo uogólnić na przypadek wielowymiarowy)
definiowana jest w sposób następujący (Nelsen (1999)):
Dwumiarową funkcję C: [0, 1]2 → [0, 1] nazywamy funkcją copula, jeśli spełnia
następujące warunki:
a) C(u, v) jest rosnąca i ze względu na u, i ze względu na v,
b) C(u, 0) = C(0, v) = 0, C(u, 1) = u, C(1, v) = v,
c) ∀ u1, u2, v1, v2 ∈ [0, 1] takich, że u1 < u2 i v1 < v2, mamy C(u2, v2) – C(u2, v1) – C(u1, v2)
+ C(u1, v1) ≥ 0.
Znaczenie funkcji copula w analizie zależności wielowymiarowych wynika z twierdzenia
Sklara:
Niech H będzie dystrybuantą łączną rozkładu dwuwymiarowego, którego rozkłady
brzegowe oznaczone są odpowiednio przez F i G. Wtedy istnieje funkcja copula C taka, że
H(x, y) = C(F(x), G(y)).
Jeśli F i G są ciągłe, wtedy C jest jednoznacznie określona.
(2)
Dowód twierdzenia można znaleźć w pracy Sklara z 1959 r. Nieco prostszą postać tego
dowodu przedstawili Schweizer i Sklar w pracy z 1974 r.
Z twierdzenia tego wynika, że nieznany dwuwymiarowy rozkład łączny można przybliżać
funkcją copula oraz odpowiednimi rozkładami brzegowymi. Problemem jest znalezienie
odpowiednio dobrze dopasowanej funkcji copula. W praktyce rozwiązaniem tego problemu
jest dopasowanie do danych empirycznych kilku wybranych funkcji i wykorzystanie do
dalszej analizy najlepiej dopasowywującej się.
Jeden z pełniejszych przeglądów wybranych funkcji copula znaleźć można w pracy
Nelsena (1999). W niniejszej pracy przedstawione zostaną jedynie funkcje wykorzystane
dalej w badaniach empirycznych. Kryterium wyboru była prostota postaci funkcji copula a
także wynikająca z tego ich popularność w analizie danych z rynków kapitałowych.
3
Szczególnym przypadkiem funkcji copula są funkcje archimedesowskie (Archimedean
copulas), które można przedstawić za pomocą ogólnego wzoru:
C (u1 , u2 ) = ψ −1 (ψ (u1 ) +ψ (u2 )),
ψ :[0;1] →
(3)
[0; ∞ ), ψ (1) = 0.
gdzie ψ to tzw. funkcja generująca (generator function).
W badaniach, których wyniki zamieszczono w empirycznej części artykułu wykorzystano
następujące funkcje z rodziny funkcji archimedesowskich:
1. Copula Gumbela:
θ
ψ (t ) = (− ln t ) ,
θ ≥ 1.
(4)
2. Copula Franka

 exp(− θ t ) − 1


− ln 
; θ ≠ 0

ψ (t ) = 
 exp(− θ ) − 1 


θ= 0

− ln(t );
θ ∈ R.
(5)
3. Copula Ali-Mikhail-Haq:
1− θ (1− t ) 
,

t
ψ (t ) = ln 

θ ∈ [− 1;1] .
(6)
Tak zdefiniowane funkcje powiązań wykorzystane zostaną w dalszej części pracy w
analizie VaR do wyznaczenia łącznego rozkładu prawdopodobieństwa. W omawianym dalej
przykładzie analizie podlega bowiem portfel którego wartość zależy od dwóch czynników
ryzyka – portfel dwuskładnikowy.
4. Wartość zagrożona
Wartość zagrożona (VaR) jest jedną z najsilniej promowanych ostatnio miar ryzyka
rynkowego należącą do grupy miar zagrożenia. Rekomendowana jest między innymi przez
Grupę Trzydziestu oraz Komitet Bazylejski. Jej popularność wynika z faktu, że umożliwia
agregację wpływu różnych czynników ryzyka, na które narażona jest instytucja, pozostając
ponadto miarą dość prostą w idei i łatwą w interpretacji. Jej definicja jest następująca:
Value at Risk jest to taka strata wartości rynkowej (np. instrumentu, portfela, instytucji), że
prawdopodobieństwo osiągnięcia jej lub przekroczenia w zadanym horyzoncie czasu równe
jest pewnemu zadanemu poziomowi tolerancji.
Najczęściej analizowana jest wartość zagrożona dla horyzontu 1 dnia lub 10 dni oraz dla
poziomu tolerancji 5% lub 1% (por. np. Jajuga (2000)).
Powyższą definicję można zapisać w postaci (Jajuga (2000), Jorion (2001)):
P(W ≤ W0 −VaR) = q
(7)
4
gdzie: W0 – obecna wartość instrumentu,
W – wartość instrumentu na końcu okresu, traktowana jako zmienna losowa,
q – poziom tolerancji (istotności) miary VaR,
lub wyrazić poprzez odpowiedni kwantyl rozkładu stóp zwrotu ( Rq ):
VaR = −RqW0 .
(8)
Podstawowe metody wyznaczania wartości VaR sprowadzają się właściwie do wyznaczenia
wartości tego nieznanego kwantyla rozkładu stóp zwrotu. Do podstawowych metod estymacji
VaR zalicza się (por. Jorion (2001)):
•
podejście wariancji – kowariancji,
•
symulacja historyczna,
•
symulacja Monte Carlo,
•
•
•
podejście wyznaczania kwantyla dowolnego rozkładu,
podejście oparte na teorii wartości ekstremalnych,
podejście oparte na wykorzystaniu wartości pochodzących z ogona rozkładu.
W niniejszej pracy porównane zostaną najprostsze podejścia: wariancji-kowariancji
i symulacji historycznej ze znacznie bardziej skomplikowaną metodą wyznaczania kwantyla
pewnego łącznego rozkładu z wykorzystaniem metody Monte Carlo.
Metody te mają na celu oszacowanie wartości VaR dla prostego dwuelementowego
portfela papierów wartościowych z równymi udziałami poszczególnych instrumentów (por.
punkt 6. Badanie empiryczne).
W symulacji historycznej (historical simulation) na podstawie przeszłych realizacji stóp
zwrotu dla poszczególnych instrumentów wyznacza się szereg stóp zwrotu z portfela o
odpowiednich udziałach, a następnie empiryczny (historyczny) rozkład stóp zwrotu dla
takiego portfela. Wyznaczony odpowiedni kwantyl tego rozkładu pozwala na bezpośrednie
określenie VaR (por. wzór (8)).
Podejście wariancji – kowariancji (variance – covariance approach) zakłada, że rozkład
stóp
zwrotu
instrumentu
(lub
instrumentów)
jest
rozkładem
normalnym
(lub
wielowymiarowym rozkładem normalnym). Odpowiedni kwantyl rozkładu stóp zwrotu z
portfela wyznacza się w tym przypadku z zależności:
Rq = µ p − c ( q )σ p ,
(9)
gdzie:
µ p – wartość oczekiwana rozkładu stóp zwrotu z portfela,
5
σ p – odchylenie standardowe rozkładu stóp zwrotu,
c (q ) – stała, zależna od poziomu istotności miary VaR.
W przypadku najczęstszego założenia, że rozkład stóp zwrotu z portfela jest rozkładem
normalnym c ( q ) = 1, 65 dla q=0,05 oraz c ( q ) = 2, 33 dla q=0,01.
Metody najprostsze porównane zostaną z wariantem metody Monte Carlo przedstawionym
w pracy Ranka i Siegla (2002), mającym na celu wyznaczenie nieznanego kwantyla rozkładu
stóp zwrotu za pomocą powiązanych poprzez funkcję copula brzegowych rozkładów
α-stabilnych wyznaczonych dla rozkładów stóp zwrotu dla poszczególnych spółek.
Symulacja Monte Carlo z wykorzystaniem funkcji copula pozwala na zbadanie przypadku,
w którym rozkład łączny stóp zwrotu składników portfela nie ogranicza się do
wielowymiarowego rozkładu normalnego.
Przebieg procedury wyznaczania wartości VaR dla chwili t jest w tym przypadku
następujący:
1. Na podstawie danych historycznych (w naszym przypadku wybrano 5001 ostatnich
notowań, czyli notowania od t – 500 do t) dokonuje się estymacji parametrów dwóch
rozkładów α-stabilnych dla szeregów stóp zwrotu obydwu badanych papierów
wartościowych, stanowiących składniki badanego portfela.
2. Następnie szacuje się metodą największej wiarygodności parametr θ wybranej funkcji
copula; w estymacji wykorzystuje się dystrybuanty rozkładów brzegowych, których
parametry są równe otrzymanym wcześniej estymatorom parametrów rozkładów
α-stabilnych składników portfela.
3. W kolejnym kroku losuje się 10 000 par liczb pseudolosowych, których rozkład łączny jest
określony przez funkcję copula o parametrze θ równym oszacowanemu wcześniej, a
rozkłady brzegowe są zaś określone przez rozkłady α-stabilne o parametrach równych
wcześniej wyestymowanym. Po podstawieniu do wzoru na stopę zwrotu z portfela
uzyskuje się 10 000 symulacji stopy zwrotu z dwuskładnikowego portfela na okres
[t , t +1] .
4. Szacowana wartość VaR otrzymywana jest na podstawie wyznaczanego (zależnego od
poziomu istotności miary VaR) kwantyla wysymulowanego rozkładu tych stóp zwrotu
(por. wzór (8)).
Kroki 1-4 powtarzane są dla następnych obserwacji. Estymacja parametrów rozkładów αstabilnych oraz funkcji copula dokonywana jest co 10 dni sesyjnych (raz na 2 tygodnie
1
Odpowiednie wartości liczbowe w procedurze zostały wybrane przez autorów subiektywnie.
6
kalendarzowe). Rozwiązanie to jest kompromisem pomiędzy dokładnością obliczeń, a
szybkością procedury.
Oszacowaną wartość VaR2 w chwili t porównuje się z rzeczywistą wielkością straty
wartości portfela w okresie [t , t + 1] . Jeśli strata rzeczywista jest większa od VaR otrzymuje
się tzw. przekroczenie. Suma liczby przekroczeń dla całego badanego okresu podzielona
przez długość tego okresu daje względną liczbę przekroczeń. Liczba ta dla poprawnego
modelu powinna być w przybliżeniu równa poziomowi tolerancji VaR.
Weryfikacji jakości modelu VaR dokonuje się poprzez tzw. testowanie wsteczne
(bactesting). W praktyce wykorzystuje się w tym celu testy liczby przekroczeń oraz
niezależności przekroczeń (por. np. Jorion (2001)). Najczęściej wykorzystywanym testem jest
test liczby przekroczeń (failure test), który wykorzystany zostanie również w tej pracy. Dla
danej wielkości próby teoretyczna liczba przekroczeń N ma rozkład dwumianowy.
Odpowiednią statystykę testową zaproponował w 1995 roku Kupiec.
Ma ona postać:
T −N
LRuc = − 2 ln  (1− q )


 
q N  + 2 ln 



 1−  N 
  T 

T −N
 N 
 
 T 
N


  ,

 
(10)
gdzie: N – liczba przekroczeń VaR, T – długość próby testowej, q – poziom tolerancji VaR
przyjęty w modelu. Statystyka LRuc ma rozkład χ 2 z jednym stopniem swobody. Wartość
krytyczna (CV) testu Kupca dla najczęściej rozpatrywanego poziomu istotności 0,05 wynosi
3,8415. Hipotezę zerową o poprawności modelu VaR odrzuca się, jeśli LRuc > CV.
6. Wyniki badań empirycznych
Dane do badań empirycznych obejmują dzienne logarytmiczne stopy zwrotu z okresu od 02-
01-1995 r. do 16-11-2004 r. (2438 obserwacji) dla akcji Krosna i Żywca. Wybór spółek
podyktowany został jedynie długością dostępnych danych, a prezentowane badanie ma jedynie
charakter poglądowy. Próba testowa do badania liczby przekroczeń VaR, a tym samym jakości
modelu, obejmowała okres od 01-01-1997 r. do 16-11-2004 r. – 1938 obserwacji. Jako poziom
istotności miary VaR przyjęto najczęściej rozpatrywaną wartość q = 0,05.
Tabela 1 prezentuje wyniki otrzymane przy zastosowaniu wybranych metod szacowania
wartości zagrożonej.
2
W analogiczny sposób zagadnienie można wyrazić poprzez zrealizowane stopy zwrotu i odpowiedni kwantyl
rozkładu.
7
Tabela 1. Wyniki badań empirycznych
Metoda
Liczba
Względna liczba
Wartość testu
przekroczeń
przekroczeń
Kupca
Symulacja historyczna
126
0,0650
8,4382
Metoda wariancji kowariancji
131
0,0676
11,4332
Monte Carlo: copula Ali-Mikhail-Haq
114
0,0588
3,0136
Monte Carlo: copula Gumbela
107
0,0552
1,0735
Monte Carlo: copula Franka
111
0,0573
2,0671
Źródło: obliczenia własne.
W tabeli wytłuszczonym drukiem zaznaczono przypadki, w których test Kupca odrzuca
rozpatrywany model VaR jako poprawny. Dodatkowo, na podstawie testu Kupca można
stwierdzić, że dla T = 1938, poziomu tolerancji VaR 0,05 oraz poziomu istotności testu
poprawności modelu 0,05, liczba przekroczeń wyznaczająca obszar niekrytyczny (przyjęcia
hipotezy o poprawności modelu) wynosi 78 ≤ N ≤ 116 wobec wartości oczekiwanej liczby
przekroczeń wynoszącej 97.
Jak widać wszystkie badane metody symulacji Monte Carlo z wykorzystaniem funkcji
powiązań dały zbliżone rezultaty, nieco zaniżając wartość VaR, przez co liczba przekroczeń
była większa od oczekiwanej. Wyniki uzyskane za pomocą symulacji historycznej i metody
wariancji-kowariancji znacznie odbiegają od spodziewanej liczby przekroczeń. Obydwie te
metody zaniżyły wartość VaR, przez co liczba przekroczeń była większa od oczekiwanej. W
przypadku metody wariancji-kowariancji uzasadnieniem może być fakt przyjęcia założenia o
normalności rozkładów stóp zwrotu, w sytuacji, kiedy rozkłady rzeczywiste mają grubsze
ogony. Zaobserwowane dla metody symulacji historycznej odstępstwa od wyniku
spodziewanego, można próbować tłumaczyć zmianą parametrów rozkładu służącego do
wyznaczania wartości odpowiedniego kwantyla (Rq) oraz rozkładu szeregu stóp zwrotu dla
którego testowano model VaR. Potwierdzenie tej hipotezy wymagałoby jednak dalszych
badań.
Oczywiście prezentowane wnioski, ze względu na ograniczony zakres badań, nie mają
charakteru ogólnego i stanowią jedynie przykład zastosowania przedstawionej metodologii.
Zdaniem autorów zachęcają one jednak do dalszych badań, które powinny obejmować przede
wszystkim szerszy zestaw danych.
Wskazane byłoby również wykorzystanie innych funkcji powiązań oraz sprawdzenie
wyników dla innych rozkładów brzegowych, np. uskośnionych rozkładów t-Studenta, które
8
cechują się również grubymi ogonami, a są znacznie prostsze w zastosowaniu niż rozkłady αstabilne.
Wykorzystana metoda reprezentuje ponadto tzw. podejście statyczne wykorzystujące
bezwarunkowe rozkłady stóp zwrotu. Poprawę jakości modelu można by uzyskać poprzez
uwzględnienie pewnych dynamicznych własności szeregów stóp zwrotu (np. autokorelacji,
skupiania zmienności), łącząc przedstawione podejście z modelami warunkowej wartości
oczekiwanej oraz warunkowej wariancji (np. ARMA-GARCH) (por. np. Rockinger, Jondeau
(2002)).
Zaprezentowane powyżej kierunki poprawy modelu staną się obszarem dalszych badań
autorów.
Literatura
Borak S., Härdle W., Weron R. (2004): Stable Distributions in Finance. W: P. Cìzek, W.
Härdle, R. Weron (red.): Statistical Tools in Finance and Insurance. Springer.
Jajuga K. (2000): Miary ryzyka rynkowego - część III. Miary zagrożenia. Rynek Terminowy 8.
Jajuga K., Papla D. (2004): Extreme Value Analysis and Copulas. W: P. Cìzek, W. Härdle, R.
Weron (red.): Statistical Tools in Finance and Insurance. Springer.
Jorion P. (2001): Value at Risk. 2nd edition. McGraw-Hill.
Mandelbrot B. (1963): The Variation of Certain Speculative Prices. Journal of Business 36, s.
394-419.
Mittnik S., Rachev S.T. (2000): Stable Paretian Models in Finance. John Wiley & Sons, New
York.
Nelsen R.B. (1999): An Introduction to Copulas. Springer Verlag, New York.
Rank J., Siegl T. (2002): Applications of Copulas for the Calculation of Value-at-Risk. W:
W. Härdle, T. Kleinow, G. Stahl: Applied Quantitave Finance. Springer.
Rockinger M., Jondeau E. (2002): Conditional Dependency of Financial Series: The CopulaGARCH Model. University of Lausanne (http://www.hec.unil.ch/mrockinger/).
Samorodnitsky G., Taqqu M.S. (1994): Stable Non–Gaussian Random Processes. Chapman
& Hall.
Schweizer B., Sklar A. (1974): Operations on Distributions Functions not Derivable from
Operations on Random Variables. Studia Mathematica 52, s. 43-52.
Sklar A. (1959): Fonctions de répartition á n dimensions et leurs marges. Publications de
l’Institut Statistique de l’Université de Paris 8, s. 229-231.
Weron R. (1996): On the Chambers-Mallows-Stuck Method for Simulating Skewed Stable
Random Variables. Statistics and Probability Letters 28, s. 165-171.
9

Podobne dokumenty