VaR - Krzysztof Piontek
Transkrypt
VaR - Krzysztof Piontek
Daniel Papla, Krzysztof Piontek Akademia Ekonomiczna we Wrocławiu Katedra Inwestycji Finansowych i Ubezpieczeń Zastosowanie rozkładów α-stabilnych i funkcji powiązań (copula) w obliczaniu wartości zagrożonej (VaR) 1. Wstęp W artykule zaprezentowano przykład zastosowania rozkładów α-stabilnych i funkcji powiązań (copula) do modelowania rzeczywistych rozkładów stóp zwrotu wybranych spółek i analizy powiązań pomiędzy nimi. Uzyskane w wyniku estymacji rozkłady dwuwymiarowe stóp zwrotu wykorzystano do obliczania wartości zagrożonej (Value at Risk – VaR) dla dwuelementowego portfela. Celem artykułu jest odpowiedź na pytanie, czy taki sposób pozwala na dokładniejsze wyznaczenie miary VaR niż przy zastosowaniu bardziej tradycyjnych metod. Pierwsza część artykułu prezentuje teoretyczne podstawy zastosowanej metodologii. Omówione zostały zarówno rozkłady α-stabilne, funkcje powiązań, jak i koncepcja wartości zagrożonej, ze szczególnym uwzględnieniem metody wariancji-kowariancji (wykorzystującej założenie o normalności wielowymiarowego rozkładu stóp zwrotu), metody symulacji historycznej oraz metody Monte Carlo opartej na rozkładach α-stabilnych i funkcji powiązań. Prezentowane dalej badania empiryczne mają charakter jedynie poglądowe. Dane wykorzystane w obliczeniach obejmują jedynie dwie wybrane w sposób subiektywny spółki notowane na GPW w Warszawie. Interpretacja otrzymanych wyników i wnioski końcowe zawarte są w ostatniej części pracy. 2. Rozkłady α-stabilne Rodzina rozkładów stabilnych wprowadzona została w latach trzydziestych XX wieku przez Paula Levy’ego, jednak propozycję zastosowania tych rozkładów do modelowania rozkładów stóp zwrotu wysunął dopiero w 1963 r. Mandelbrot. Przyczyną zainteresowania rozkładami α-stabilnymi stał się fakt, że są one uogólnieniami rozkładu normalnego i umożliwiają opis grubych ogonów. Niestety, poza trzema przypadkami (rozkład normalny, rozkład Cauchy’ego, rozkład Levy’ego), nie są znane jawne postaci rozkładu funkcji gęstości rozkładów stabilnych, co jest podstawowym problemem w stosowaniu tej klasy rozkładów statystycznych. Dodatkowym utrudnieniem związanym z praktycznym wykorzystaniem omawianych rozkładów jest 1 niejednolita parametryzacja stosowana przez różnych autorów, która nie ułatwia porównania wyników. Podstawowe cechy rozkładów α-stabilnych oraz sposoby estymacji ich parametrów można znaleźć w takich pracach jak (Borak, Härdle, Weron (2004); Samorodnitsky, Taqqu (1994); Weron (1996)). Rozkłady α-stabilne definiowane są w ogólności poprzez funkcję charakterystyczną następującej postaci: πα α α , α ≠ 1, i µ t − σ t 1− i β sign (t ) tan 2 log φ (t ) = 2 α = 1, i µ t − σ t 1 + i β π sign (t ) ln t , (1) gdzie: α ∈ (0, 2] – współczynnik stabilności (zwany również współczynnikiem kształtu, wykładnikiem kształtu lub wykładnikiem charakterystycznym), β ∈ [−1,1] – parametr określający skośność rozkładu, σ > 0 – parametr skali (rozproszenia), µ ∈ – parametr położenia. Współczynnik stabilności α określa „szybkość”, z jaką zanikają ogony rozkładu. Dla α = 2 uzyskuj się rozkład normalny. Dla α < 2 wariancja rozkładu jest nieskończona, a rozkłady posiadają grubsze ogony od rozkładu normalnego. Dla α > 1 określona jest średnia rozkładu, równa µ. Dodatnia wartość parametr β skutkuje skośnością prawostronną, ujemna – lewostronną. Dla β = 0 rozkład jest symetryczny. Ważną właściwością jest fakt, iż dla α zdążającego do 2, wartość β przestaje wpływać na kształt funkcji gęstości i rozkład zbliża się do rozkładu normalnego, który jest symetryczny niezależnie od wartości parametru β. Rysunki 1. i 2. prezentują przykładowe rozkłady α-stabilne w zależności od współczynnika kształtu. α =1.1 α =1.4 α =1.7 α =2.0 0.3 -1 10 0.25 -2 10 0.2 -3 10 0.15 -4 10 0.1 -5 0.05 0 10 -6 -4 -2 0 2 4 6 Rys. 1. Przykładowe rozkłady α-stabilne (skala liniowa) Źródło: obliczenia własne. α =1.1 α =1.4 α =1.7 α =2.0 -6 -4 -2 0 2 4 6 Rys. 2. Przykładowe rozkłady α-stabilne (skala logarytmiczna) Źródło: obliczenia własne. 2 Rozkłady stabilne charakteryzują się jednomodalnością, mogą być skośne i mogą posiadać „grube ogony”. Biorąc pod uwagę już tylko te cechy, można zaryzykować hipotezę, że rozkłady stabilne o współczynniku α < 2, i β ≠ 0 będą lepiej dopasowywać się do rozkładów empirycznych stóp zwrotu niż rozkład normalny (Mittnik, Rachev (2000)). 3. Funkcje copula Zastosowanie funkcji copula pozwala częściowo rozwiązać najpoważniejszy problem związany z wykorzystaniem rozkładów wielowymiarowych, a mianowicie nieznajomość postaci analitycznej empirycznego łącznego rozkładu stóp zwrotu. Funkcja copula (w przypadku dwuwymiarowym, który łatwo uogólnić na przypadek wielowymiarowy) definiowana jest w sposób następujący (Nelsen (1999)): Dwumiarową funkcję C: [0, 1]2 → [0, 1] nazywamy funkcją copula, jeśli spełnia następujące warunki: a) C(u, v) jest rosnąca i ze względu na u, i ze względu na v, b) C(u, 0) = C(0, v) = 0, C(u, 1) = u, C(1, v) = v, c) ∀ u1, u2, v1, v2 ∈ [0, 1] takich, że u1 < u2 i v1 < v2, mamy C(u2, v2) – C(u2, v1) – C(u1, v2) + C(u1, v1) ≥ 0. Znaczenie funkcji copula w analizie zależności wielowymiarowych wynika z twierdzenia Sklara: Niech H będzie dystrybuantą łączną rozkładu dwuwymiarowego, którego rozkłady brzegowe oznaczone są odpowiednio przez F i G. Wtedy istnieje funkcja copula C taka, że H(x, y) = C(F(x), G(y)). Jeśli F i G są ciągłe, wtedy C jest jednoznacznie określona. (2) Dowód twierdzenia można znaleźć w pracy Sklara z 1959 r. Nieco prostszą postać tego dowodu przedstawili Schweizer i Sklar w pracy z 1974 r. Z twierdzenia tego wynika, że nieznany dwuwymiarowy rozkład łączny można przybliżać funkcją copula oraz odpowiednimi rozkładami brzegowymi. Problemem jest znalezienie odpowiednio dobrze dopasowanej funkcji copula. W praktyce rozwiązaniem tego problemu jest dopasowanie do danych empirycznych kilku wybranych funkcji i wykorzystanie do dalszej analizy najlepiej dopasowywującej się. Jeden z pełniejszych przeglądów wybranych funkcji copula znaleźć można w pracy Nelsena (1999). W niniejszej pracy przedstawione zostaną jedynie funkcje wykorzystane dalej w badaniach empirycznych. Kryterium wyboru była prostota postaci funkcji copula a także wynikająca z tego ich popularność w analizie danych z rynków kapitałowych. 3 Szczególnym przypadkiem funkcji copula są funkcje archimedesowskie (Archimedean copulas), które można przedstawić za pomocą ogólnego wzoru: C (u1 , u2 ) = ψ −1 (ψ (u1 ) +ψ (u2 )), ψ :[0;1] → (3) [0; ∞ ), ψ (1) = 0. gdzie ψ to tzw. funkcja generująca (generator function). W badaniach, których wyniki zamieszczono w empirycznej części artykułu wykorzystano następujące funkcje z rodziny funkcji archimedesowskich: 1. Copula Gumbela: θ ψ (t ) = (− ln t ) , θ ≥ 1. (4) 2. Copula Franka exp(− θ t ) − 1 − ln ; θ ≠ 0 ψ (t ) = exp(− θ ) − 1 θ= 0 − ln(t ); θ ∈ R. (5) 3. Copula Ali-Mikhail-Haq: 1− θ (1− t ) , t ψ (t ) = ln θ ∈ [− 1;1] . (6) Tak zdefiniowane funkcje powiązań wykorzystane zostaną w dalszej części pracy w analizie VaR do wyznaczenia łącznego rozkładu prawdopodobieństwa. W omawianym dalej przykładzie analizie podlega bowiem portfel którego wartość zależy od dwóch czynników ryzyka – portfel dwuskładnikowy. 4. Wartość zagrożona Wartość zagrożona (VaR) jest jedną z najsilniej promowanych ostatnio miar ryzyka rynkowego należącą do grupy miar zagrożenia. Rekomendowana jest między innymi przez Grupę Trzydziestu oraz Komitet Bazylejski. Jej popularność wynika z faktu, że umożliwia agregację wpływu różnych czynników ryzyka, na które narażona jest instytucja, pozostając ponadto miarą dość prostą w idei i łatwą w interpretacji. Jej definicja jest następująca: Value at Risk jest to taka strata wartości rynkowej (np. instrumentu, portfela, instytucji), że prawdopodobieństwo osiągnięcia jej lub przekroczenia w zadanym horyzoncie czasu równe jest pewnemu zadanemu poziomowi tolerancji. Najczęściej analizowana jest wartość zagrożona dla horyzontu 1 dnia lub 10 dni oraz dla poziomu tolerancji 5% lub 1% (por. np. Jajuga (2000)). Powyższą definicję można zapisać w postaci (Jajuga (2000), Jorion (2001)): P(W ≤ W0 −VaR) = q (7) 4 gdzie: W0 – obecna wartość instrumentu, W – wartość instrumentu na końcu okresu, traktowana jako zmienna losowa, q – poziom tolerancji (istotności) miary VaR, lub wyrazić poprzez odpowiedni kwantyl rozkładu stóp zwrotu ( Rq ): VaR = −RqW0 . (8) Podstawowe metody wyznaczania wartości VaR sprowadzają się właściwie do wyznaczenia wartości tego nieznanego kwantyla rozkładu stóp zwrotu. Do podstawowych metod estymacji VaR zalicza się (por. Jorion (2001)): • podejście wariancji – kowariancji, • symulacja historyczna, • symulacja Monte Carlo, • • • podejście wyznaczania kwantyla dowolnego rozkładu, podejście oparte na teorii wartości ekstremalnych, podejście oparte na wykorzystaniu wartości pochodzących z ogona rozkładu. W niniejszej pracy porównane zostaną najprostsze podejścia: wariancji-kowariancji i symulacji historycznej ze znacznie bardziej skomplikowaną metodą wyznaczania kwantyla pewnego łącznego rozkładu z wykorzystaniem metody Monte Carlo. Metody te mają na celu oszacowanie wartości VaR dla prostego dwuelementowego portfela papierów wartościowych z równymi udziałami poszczególnych instrumentów (por. punkt 6. Badanie empiryczne). W symulacji historycznej (historical simulation) na podstawie przeszłych realizacji stóp zwrotu dla poszczególnych instrumentów wyznacza się szereg stóp zwrotu z portfela o odpowiednich udziałach, a następnie empiryczny (historyczny) rozkład stóp zwrotu dla takiego portfela. Wyznaczony odpowiedni kwantyl tego rozkładu pozwala na bezpośrednie określenie VaR (por. wzór (8)). Podejście wariancji – kowariancji (variance – covariance approach) zakłada, że rozkład stóp zwrotu instrumentu (lub instrumentów) jest rozkładem normalnym (lub wielowymiarowym rozkładem normalnym). Odpowiedni kwantyl rozkładu stóp zwrotu z portfela wyznacza się w tym przypadku z zależności: Rq = µ p − c ( q )σ p , (9) gdzie: µ p – wartość oczekiwana rozkładu stóp zwrotu z portfela, 5 σ p – odchylenie standardowe rozkładu stóp zwrotu, c (q ) – stała, zależna od poziomu istotności miary VaR. W przypadku najczęstszego założenia, że rozkład stóp zwrotu z portfela jest rozkładem normalnym c ( q ) = 1, 65 dla q=0,05 oraz c ( q ) = 2, 33 dla q=0,01. Metody najprostsze porównane zostaną z wariantem metody Monte Carlo przedstawionym w pracy Ranka i Siegla (2002), mającym na celu wyznaczenie nieznanego kwantyla rozkładu stóp zwrotu za pomocą powiązanych poprzez funkcję copula brzegowych rozkładów α-stabilnych wyznaczonych dla rozkładów stóp zwrotu dla poszczególnych spółek. Symulacja Monte Carlo z wykorzystaniem funkcji copula pozwala na zbadanie przypadku, w którym rozkład łączny stóp zwrotu składników portfela nie ogranicza się do wielowymiarowego rozkładu normalnego. Przebieg procedury wyznaczania wartości VaR dla chwili t jest w tym przypadku następujący: 1. Na podstawie danych historycznych (w naszym przypadku wybrano 5001 ostatnich notowań, czyli notowania od t – 500 do t) dokonuje się estymacji parametrów dwóch rozkładów α-stabilnych dla szeregów stóp zwrotu obydwu badanych papierów wartościowych, stanowiących składniki badanego portfela. 2. Następnie szacuje się metodą największej wiarygodności parametr θ wybranej funkcji copula; w estymacji wykorzystuje się dystrybuanty rozkładów brzegowych, których parametry są równe otrzymanym wcześniej estymatorom parametrów rozkładów α-stabilnych składników portfela. 3. W kolejnym kroku losuje się 10 000 par liczb pseudolosowych, których rozkład łączny jest określony przez funkcję copula o parametrze θ równym oszacowanemu wcześniej, a rozkłady brzegowe są zaś określone przez rozkłady α-stabilne o parametrach równych wcześniej wyestymowanym. Po podstawieniu do wzoru na stopę zwrotu z portfela uzyskuje się 10 000 symulacji stopy zwrotu z dwuskładnikowego portfela na okres [t , t +1] . 4. Szacowana wartość VaR otrzymywana jest na podstawie wyznaczanego (zależnego od poziomu istotności miary VaR) kwantyla wysymulowanego rozkładu tych stóp zwrotu (por. wzór (8)). Kroki 1-4 powtarzane są dla następnych obserwacji. Estymacja parametrów rozkładów αstabilnych oraz funkcji copula dokonywana jest co 10 dni sesyjnych (raz na 2 tygodnie 1 Odpowiednie wartości liczbowe w procedurze zostały wybrane przez autorów subiektywnie. 6 kalendarzowe). Rozwiązanie to jest kompromisem pomiędzy dokładnością obliczeń, a szybkością procedury. Oszacowaną wartość VaR2 w chwili t porównuje się z rzeczywistą wielkością straty wartości portfela w okresie [t , t + 1] . Jeśli strata rzeczywista jest większa od VaR otrzymuje się tzw. przekroczenie. Suma liczby przekroczeń dla całego badanego okresu podzielona przez długość tego okresu daje względną liczbę przekroczeń. Liczba ta dla poprawnego modelu powinna być w przybliżeniu równa poziomowi tolerancji VaR. Weryfikacji jakości modelu VaR dokonuje się poprzez tzw. testowanie wsteczne (bactesting). W praktyce wykorzystuje się w tym celu testy liczby przekroczeń oraz niezależności przekroczeń (por. np. Jorion (2001)). Najczęściej wykorzystywanym testem jest test liczby przekroczeń (failure test), który wykorzystany zostanie również w tej pracy. Dla danej wielkości próby teoretyczna liczba przekroczeń N ma rozkład dwumianowy. Odpowiednią statystykę testową zaproponował w 1995 roku Kupiec. Ma ona postać: T −N LRuc = − 2 ln (1− q ) q N + 2 ln 1− N T T −N N T N , (10) gdzie: N – liczba przekroczeń VaR, T – długość próby testowej, q – poziom tolerancji VaR przyjęty w modelu. Statystyka LRuc ma rozkład χ 2 z jednym stopniem swobody. Wartość krytyczna (CV) testu Kupca dla najczęściej rozpatrywanego poziomu istotności 0,05 wynosi 3,8415. Hipotezę zerową o poprawności modelu VaR odrzuca się, jeśli LRuc > CV. 6. Wyniki badań empirycznych Dane do badań empirycznych obejmują dzienne logarytmiczne stopy zwrotu z okresu od 02- 01-1995 r. do 16-11-2004 r. (2438 obserwacji) dla akcji Krosna i Żywca. Wybór spółek podyktowany został jedynie długością dostępnych danych, a prezentowane badanie ma jedynie charakter poglądowy. Próba testowa do badania liczby przekroczeń VaR, a tym samym jakości modelu, obejmowała okres od 01-01-1997 r. do 16-11-2004 r. – 1938 obserwacji. Jako poziom istotności miary VaR przyjęto najczęściej rozpatrywaną wartość q = 0,05. Tabela 1 prezentuje wyniki otrzymane przy zastosowaniu wybranych metod szacowania wartości zagrożonej. 2 W analogiczny sposób zagadnienie można wyrazić poprzez zrealizowane stopy zwrotu i odpowiedni kwantyl rozkładu. 7 Tabela 1. Wyniki badań empirycznych Metoda Liczba Względna liczba Wartość testu przekroczeń przekroczeń Kupca Symulacja historyczna 126 0,0650 8,4382 Metoda wariancji kowariancji 131 0,0676 11,4332 Monte Carlo: copula Ali-Mikhail-Haq 114 0,0588 3,0136 Monte Carlo: copula Gumbela 107 0,0552 1,0735 Monte Carlo: copula Franka 111 0,0573 2,0671 Źródło: obliczenia własne. W tabeli wytłuszczonym drukiem zaznaczono przypadki, w których test Kupca odrzuca rozpatrywany model VaR jako poprawny. Dodatkowo, na podstawie testu Kupca można stwierdzić, że dla T = 1938, poziomu tolerancji VaR 0,05 oraz poziomu istotności testu poprawności modelu 0,05, liczba przekroczeń wyznaczająca obszar niekrytyczny (przyjęcia hipotezy o poprawności modelu) wynosi 78 ≤ N ≤ 116 wobec wartości oczekiwanej liczby przekroczeń wynoszącej 97. Jak widać wszystkie badane metody symulacji Monte Carlo z wykorzystaniem funkcji powiązań dały zbliżone rezultaty, nieco zaniżając wartość VaR, przez co liczba przekroczeń była większa od oczekiwanej. Wyniki uzyskane za pomocą symulacji historycznej i metody wariancji-kowariancji znacznie odbiegają od spodziewanej liczby przekroczeń. Obydwie te metody zaniżyły wartość VaR, przez co liczba przekroczeń była większa od oczekiwanej. W przypadku metody wariancji-kowariancji uzasadnieniem może być fakt przyjęcia założenia o normalności rozkładów stóp zwrotu, w sytuacji, kiedy rozkłady rzeczywiste mają grubsze ogony. Zaobserwowane dla metody symulacji historycznej odstępstwa od wyniku spodziewanego, można próbować tłumaczyć zmianą parametrów rozkładu służącego do wyznaczania wartości odpowiedniego kwantyla (Rq) oraz rozkładu szeregu stóp zwrotu dla którego testowano model VaR. Potwierdzenie tej hipotezy wymagałoby jednak dalszych badań. Oczywiście prezentowane wnioski, ze względu na ograniczony zakres badań, nie mają charakteru ogólnego i stanowią jedynie przykład zastosowania przedstawionej metodologii. Zdaniem autorów zachęcają one jednak do dalszych badań, które powinny obejmować przede wszystkim szerszy zestaw danych. Wskazane byłoby również wykorzystanie innych funkcji powiązań oraz sprawdzenie wyników dla innych rozkładów brzegowych, np. uskośnionych rozkładów t-Studenta, które 8 cechują się również grubymi ogonami, a są znacznie prostsze w zastosowaniu niż rozkłady αstabilne. Wykorzystana metoda reprezentuje ponadto tzw. podejście statyczne wykorzystujące bezwarunkowe rozkłady stóp zwrotu. Poprawę jakości modelu można by uzyskać poprzez uwzględnienie pewnych dynamicznych własności szeregów stóp zwrotu (np. autokorelacji, skupiania zmienności), łącząc przedstawione podejście z modelami warunkowej wartości oczekiwanej oraz warunkowej wariancji (np. ARMA-GARCH) (por. np. Rockinger, Jondeau (2002)). Zaprezentowane powyżej kierunki poprawy modelu staną się obszarem dalszych badań autorów. Literatura Borak S., Härdle W., Weron R. (2004): Stable Distributions in Finance. W: P. Cìzek, W. Härdle, R. Weron (red.): Statistical Tools in Finance and Insurance. Springer. Jajuga K. (2000): Miary ryzyka rynkowego - część III. Miary zagrożenia. Rynek Terminowy 8. Jajuga K., Papla D. (2004): Extreme Value Analysis and Copulas. W: P. Cìzek, W. Härdle, R. Weron (red.): Statistical Tools in Finance and Insurance. Springer. Jorion P. (2001): Value at Risk. 2nd edition. McGraw-Hill. Mandelbrot B. (1963): The Variation of Certain Speculative Prices. Journal of Business 36, s. 394-419. Mittnik S., Rachev S.T. (2000): Stable Paretian Models in Finance. John Wiley & Sons, New York. Nelsen R.B. (1999): An Introduction to Copulas. Springer Verlag, New York. Rank J., Siegl T. (2002): Applications of Copulas for the Calculation of Value-at-Risk. W: W. Härdle, T. Kleinow, G. Stahl: Applied Quantitave Finance. Springer. Rockinger M., Jondeau E. (2002): Conditional Dependency of Financial Series: The CopulaGARCH Model. University of Lausanne (http://www.hec.unil.ch/mrockinger/). Samorodnitsky G., Taqqu M.S. (1994): Stable Non–Gaussian Random Processes. Chapman & Hall. Schweizer B., Sklar A. (1974): Operations on Distributions Functions not Derivable from Operations on Random Variables. Studia Mathematica 52, s. 43-52. Sklar A. (1959): Fonctions de répartition á n dimensions et leurs marges. Publications de l’Institut Statistique de l’Université de Paris 8, s. 229-231. Weron R. (1996): On the Chambers-Mallows-Stuck Method for Simulating Skewed Stable Random Variables. Statistics and Probability Letters 28, s. 165-171. 9