t - Krzysztof Piontek
Transkrypt
t - Krzysztof Piontek
Krzysztof Piontek Katedra Inwestycji Finansowych i Ubezpieczeń Akademia Ekonomiczna we Wrocławiu Heteroskedastyczność szeregu stóp zwrotu a koncepcja pomiaru ryzyka metodą VaR Wstęp Spośród wielu rodzajów ryzyka na rynkach finansowych [6], szczególną uwagę zwrócono na ryzyko rynkowe. Jedną z grup metod pomiaru ryzyka rynkowego stanowią miary zagrożenia (downside risk measures) [7], z których najpopularniejszą miarą pozostaje Value At Risk (VaR). U podstaw rozważań o miarach zagrożenia znajduje się dyskusja o rozkładach stóp zwrotu oraz o dynamicznych modelach opisujących zmianę ceny instrumentu finansowego. Standardowe modele zakładają, że procesem kształtującym zmiany cen instrumentów bazowych jest geometryczny proces Browna ze stałymi parametrami dryftu oraz zmienności. Model ten zakłada że rozkład stop zwrotu jest rozkładem normalnym, jednak badania empiryczne wykazały występowanie na rynkach finansowych: efektu skupiania danych, grubych ogonów rozkładów, skośności rozkładu, długoterminowej zależności danych, autokorelacji stóp zwrotu. Niezbędne stało się więc poszukiwanie modeli lepiej opisujących rynek, które można by wykorzystać w wyznaczaniu miary VaR. W niniejszej pracy jako potencjalne modele umożliwiające wyznaczenie wartości VaR przyjęte zostały modele zawierające się w klasie AR(1)-GARCH(1,1). Procesy te umożliwiają modelowanie szeregów z autokorelacją oraz zmienną wariancją stóp zwrotu. Dokonano weryfikacji przydatności poszczególnych modeli dla danych z Giełdy Papierów Wartościowych w Warszawie. Analizowanym szeregiem czasowym były dzienne logarytmiczne stopy zwrotu z indeksu WIG. 1. Analizowane modele finansowych szeregów czasowych Rozważania o pomiarze ryzyka rynkowego metodą VaR rozpocząć należy od wyboru i uzasadnienia modeli dynamiki stóp zwrotu. O ile odpowiednie testy wykażą występowanie autokorelacji stóp zwrotu, niezbędne wydaje się zastosowanie procesów autoregresji, a o ile odpowiednie testy potwierdzą występowanie zmiennej w czasie wariancji (heteroskedastyczności), rozwiązaniem może być zastosowanie modeli klasy ARCH lub GARCH wprowadzonych przez Engla [4] i Bollersleva [2]. Próbę do badań stanowiły dzienne stopy zwrotu z indeksu WIG. Indeks WIG wybrany został do badań ze względu na to, że jest to jeden z najdłuższych dostępnych szeregów czasowych dziennych stóp zwrotu na rynku polskim. Próba rozpoczyna się 03-10-1994 (dzień wprowadzenia pięciosesyjnego tygodnia na GPW) a kończy 05-10-2001. Łączna długość szeregu wynosi 1750 obserwacji. Został on podzielony na próbę uczącą o długości 1000 obserwacji, która posłużyła do uzasadnienia wyboru odpowiednich modeli i ich kalibracji oraz na próbę testową o długości 750 obserwacji, na której dokonano weryfikacji przydatności poszczególnych modeli do wyznaczania miary VaR. Na próbie uczącej dokonano uzasadnienia wykorzystania modeli auregresyjnych oraz heteroskedastycznych. Istotność autokorelacji rzędu pierwszego stóp zwrotu zbadano przy pomocy testu istotności współczynnika korelacji [16]. Weryfikacji podlegała hipoteza H0:[ ρ τ = 0 ] wobec hipotezy alternatywnej H1:[ ρ τ ≠ 0 ] dla τ = 1 . Iτ = ρˆ τ n −τ − 2 1 − ρˆ τ2 (1) gdzie n - długość analizowanego szeregu, ρ̂ τ - oszacowanie współczynnika autokorelacji rzędu τ . W przypadku prawdziwości H0, statystyka I τ ma rozkład t-Studenta z ( n − τ − 2 ) stopniami swobody. Dla próbki uczącej o długości n=1000, uzyskano ρˆ 1 = 0,21422 , co daje wartość statystyki I 1 = 6,9249 . Dla poziomu istotności 0,05 wartość krytyczna wyznaczona z rozkładu t-Studenta wynosi 1,9623, hipotezę H0 odrzucamy na rzecz hipotezy alternatywnej H1; współczynnik autokorelacji rzędu pierwszego jest istotny. Istotność pozostałych autokorelacji zbadano łącznie wykorzystując test Q Ljunga-Boxa-Pierce'a [3]. Z szeregu stóp zwrotu usunięto autokorelację rzędu pierwszego i dla tak uzyskanego nowego szeregu zbadano istotność pierwszych 15 autokorelacji. Wartość statystyki Q=14,532, co wobec wartości 2 krytycznej testu odczytanej z rozkładu χ (dla poziomu istotności 0.05 oraz ilości stopni swobody równej 15) wynoszącej 24,996 pozwala stwierdzić, że brak jest podstaw do odrzucenia hipotezy zerowej o nieistotności obserwowanych autokorelacji. Pozwala to skupić nasze rozważania na modelach autoregresyjnych o rzędzie autoregresji nie większym niż 1. Występowanie efektu ARCH można zbadać przy pomocy testu zaproponowanego przez Engle'a [4].Test polega na sprawdzeniu, czy składnik losowy ma stała wariancję wobec alternatywy, że wariancja zmienia się. Sprawdzianem efektu ARCH(p) jest statystyka TR 2 o rozkładzie χ 2 oraz p stopniach swobody (T - liczba obserwacji, R2 - współczynnik determinacji równania autoregresji kwadratów reszt modelu). Test efektu GARCH(p,q) jest równoważny testowi ARCH(p+q). Dla naszej próbki uczącej uzyskano dla testu efektu ARCH(5) TR 2 = 161,92 oraz wartość krytyczną testu dla 5 stopni swobody i poziomu istotności 0,05 równą 11,07. Istnieją więc podstawy do odrzucenia hipotezy zerowej o braku heteroskedastyczności w analizowanym szeregu czasowym. Uzasadnieniem stosowania modeli heteroskedastycznych jest również zaprezentowana na rys. 2. silna autokorelacja kwadratów stóp zwrotu. Dla pierwszych 15 wartości autokorelacji wartość Q testu wynosi 401,6 a wartość krytyczna testu dla poziomu istotności 0,05 wynosi 24,99, co jest również potwierdzeniem efektu ARCH. Rys. 1 przedstawia autokorelację stóp Rys. zwrotu w próbce "uczącej". 2 przedstawia autokorelację kwadratów stop zwrotu w próbce "uczącej" Źródło - obliczenia własne. W związku z wykazanymi właściwościami analizowanego szeregu stóp zwrotu w dalszej części pracy rozpatrywane będą modele zagnieżdżone w modelu AR(1)-GARCH(1,1) danym równaniami: rt = µ + ϕrt −1 + ε t (2) ε t = ht η t (3) ht = ϖ + αε t2−1 + βht −1 (4) η t ~ N (0,1) (5) Tak zdefiniowany model zakłada, że warunkowa wartość oczekiwana stóp zwrotu wynosi m t = µ + ϕrt −1 (6), a warunkowa wariancja zadana jest równaniem (4). Spośród rożnych dostępnych w ramach wzorów (2)-(5) modeli do analiz wybrano następujące modele: Model AR(0)-GARCH(0,0) AR(1)-GARCH(0,0) AR(0)-GARCH(1,1) AR(1)-GARCH(1,1) Restrykcje ϕ =α = β = 0 α =β =0 ϕ =0 Brak Wybór tych modeli, a także ograniczenie się do odpowiednio niskich rzędów modeli podyktowany był zbyt krótkim szeregiem czasowym, by estymować bardziej skomplikowane modele. Dopasowanie modeli do danych zbadano poprzez analizę logarytmu funkcji wiarygodności. Przykład estymacji parametrów modelu GARH(1,1) dla indeksu WIG można znaleźć np. w pracy [15] Model Restrykcje Logarytm funkcji wiarygodności 2474,7983 2498,8841 2603,8038 2636,6637 AR(0)-GARCH(0,0) ϕ =α = β = 0 AR(1)-GARCH(0,0) α =β =0 AR(0)-GARCH(1,1) ϕ =0 AR(1)-GARCH(1,1) Brak Źródło - obliczenia własne. Ze względu na fakt, że rozpatrywane modele zawierają się w sobie, do wyboru modelu, który najlepiej nadaje się do modelowania zadanego szeregu zastosowano test oparty na wartościach funkcji wiarygodności (Likelihood Ratio Test) dany następującą statystyką LRT = 2( LLF1 − LLF0 ) (7), gdzie: LLF1 - wartość logarytmu funkcji największej wiarygodności dla modelu z mniejszą liczbą restrykcji, LLF0 - wartość logarytmu funkcji największej wiarygodności dla modelu z większą liczbą restrykcji. Statystyka LRT ma 2 rozkład χ z ilością stopni swobody równą różnicy w liczbie restrykcji. Model z większą liczbą restrykci Model z mniejszą liczbą restrykcji Statystyka LTR Wartość krytyczna testu AR(0)-GARCH(0,0) AR(1)-GARCH(0,0) 48,171 3,841 AR(0)-GARCH(0,0) AR(0)-GARCH(1,1) 258,01 5,981 AR(0)-GARCH(0,0) AR(1)-GARCH(1,1) 323,73 7,81 AR(1)-GARCH(0,0) AR(1)-GARCH(1,1) 275,599 5,991 AR(0)-GARCH(1,1) AR(1)-GARCH(1,1) 65,720 3,841 Źródło - opracowanie własne We wszystkich zestawieniach test wykazał, że model z większą ilością parametrów w lepszy sposób modeluje zrealizowane stopy zwrotu. Ponieważ modele AR(1)-GARCH(0,0) oraz AR(0)-GARCH(1,1) nie zawierają się w sobie do ich oceny wykorzystano kryterium Akaike'a (AIC) [3]. Model AR(1)-GARCH(0,0) AR(0)-GARCH(1,1) Źródło - obliczenia własne. Wartość AIC -4991,76819 -5199,6076 Kryterium Akaike'a preferuje model AR(0)-GARCH(1,1). Na podstawie powyższych analiz można powiedzieć, że najlepszym spośród analizowanych modeli (pod względem dopasowania do danych) jest model AR(1)-GARCH(1,1), a najgorszym model AR(0)-GARCH(0,0) odpowiadający klasycznemu ruchowi Browna dla czasu dyskretnego. W dalszej części pracy przedstawiona zostanie metoda wykorzystania zdefiniowanych modeli do pomiaru VaR oraz weryfikacja uzyskanych na tej podstawie wyników. 2. Pomiar ryzyka metodą VaR Wartość narażona na ryzyko (wartość zagrożona, Value at Risk - VaR) to maksymalna kwota, jaką można stracić w wyniku inwestycji w portfel o określonym horyzoncie czasowym i przy założonym poziomie tolerancji [1][10]. Powyższą definicję można zapisać w postaci: P(W ≤ W0 − VaR ) = α (8) gdzie: W0 - obecna wartość instrumentu, W - wartość instrumentu na końcu okresu, α - poziom tolerancji. Nie znając wartości portfela W0, nie zmniejszając ogólności rozważań, powyższą zależność można zapisać wykorzystując pojęcie stopy zwrotu: ( ) P rt ≤ F −1 (α ) = α (9), co oznacza, że prawdopodobieństwo, że stopa zwrotu w danym horyzoncie czasu nie przekroczy wartości równej odpowiedniemu kwantylowi rozkładu stóp zwrotu F −1 (α ) , wynosi α . Podejście to wywodzi się ze statycznego zarządzania ryzykiem (static risk management), w którym analizujemy jedynie bezwarunkowy rozkład stóp zwrotu. Z takim podejściem kontrastuje dynamiczne zarządzanie ryzykiem (dynamic risk management), pozwalające uchwycić takie zależności jak autokorelacje stóp zwrotu i gromadzenie zmienności. Dla wersji dynamicznej zależność (9) przyjmuje postać: ( ) P rt ≤ mt + ht Fη−1 (α ) = α (10) gdzie: mt -warunkowa oczekiwana stopa zwrotu dla horyzontu w którym liczymy VaR, ht - warunkowa oczekiwana wariancja dla horyzontu, w którym liczymy VaR, Fη−1 (α ) - kwantyl odpowiadający prawdopodobieństwu α dla warunkowego rozkładu zdefiniowanego wzorem (5). Ponieważ w analizowanym przypadku rozkład warunkowy zadany wzorem (5) jest rozkładem N(0,1), wiec dla standardowych poziomów tolerancji 0,05 oraz 0,01 uzyskujemy następujące 1 1 wartości kwantyli: Fη− (0,05) = −1,65 oraz Fη− (0,01) = −2,33 . Poniżej, na rys. 3., przedstawiono liczbę oraz rozmieszczenie w czasie przekroczeń dziennej wartości VaR dla poszczególnych modeli dla poziomu tolerancji 0,05. Badanie przeprowadzono na próbce testowej o długości 750 stóp zwrotu. Każdorazowo dokonywano ponownej estymacji modelu na podstawie ostatnich 1000 obserwacji, wyznaczano warunkową wariancję oraz warunkową ( ) oczekiwaną stopę zwrotu, a następnie sprawdzano, czy rt ≤ m t − 1.65 ht . Jeśli tak, to w danym dniu strata przekraczała VaR. Jedynie dla modelu AR(0)- GARCH(0,0) prognoza stopy zwrotu w kolejnym dniu oraz prognoza odchylenia standardowego dokonywana była na podstawie ostatnich 150 obserwacji1. Przekroczenie przez stratę wartości VaR przedstawione zostało na poniższych rysunkach przez pionowy prążek. Rys. 3. Przekroczenia VaR. Źródło - obliczenia własne. 3 Testowanie wsteczne modelu Testowanie wsteczne modelu (backtesting) [10][6][1] jest niezbędną procedurą, aby stwierdzić, czy można stosować dany model. Testu dokonuje jednostka, która wdraża dany model. Od wyniku testu zależy również odpowiedni mnożnik przy obliczaniu minimalnych wymogów kapitałowych dla banków 1 zgodnie z rozporządzeniami Komitetu Bazylejskiego. Instytucja Okno o szerokości 150 obserwacji dobrane zostało eksperymentalnie, aby dla próbki uczącej otrzymać jak najlepsze oszacowanie VaR. wdrażająca swój wewnętrzny system VaR zainteresowana powinna więc być takim wyborem modelu, aby sprawdzał się jak najlepiej. Odpowiedzi na pytania, czy dany model w sposób wystarczająco dobrze mierzy ryzyko udzielają odpowiednie testy. Najprostszym testem jest test ilości przekroczeń (failure test) [5]. Dla danej wielkości próby teoretyczna liczba przekroczeń N ma rozkład dwumianowy. Odpowiednią statystykę testową zaproponował w 1995 roku Kupiec. Ma ona postać: [ LRuc = −2 ln (1 − p ) T −N p N ] N T − N N N + 2 ln 1 − T T (11) gdzie: N - ilość przekroczeń VaR, T- długość próby testowej, p - poziom tolerancji VaR przyjęty w modelu. 2 Statystyka LRuc ma rozkład χ z jednym stopniem swobody. Dla T=750, poziomu tolerancji VaR 0,05 oraz poziomu istotności testu 0.05, ilość przekroczeń wyznaczająca obszar niekrytyczny (przyjęcia hipotezy o poprawności modelu) wynosi 27 ≤ N ≤ 49 wobec wartości oczekiwanej ilości przekroczeń wynoszącej 37,5. Test ilości przekroczeń nie jest jedynym testem, któremu należy poddać weryfikowany model. Trudno zgodzić się, że model jest poprawny jeśli rzeczywiście w ciągu 750 testowanych dni, liczba przekroczeń wynosi 37, ale 15 przekroczeń wystąpiło w ciągu ostatniego miesiąca. Do testu na ilość przekroczeń należy dołączyć test, czy przekroczenia są niezależne w czasie. Opracowano różne takie testy, ale największą popularność zdobył test niezależności przekroczeń Kupca LRind [5] oparty na dwóch testach - teście do pierwszego przekroczenia (Time until First Failure Test) [5] oraz teście czasu pomiędzy kolejnymi przekroczeniami (Time between Failures Test) [5] dany wzorem (12): p(1 − p)ν i −1 p(1 − p)ν 1 −1 N LRind = −2 ln 2 ln + − ν 1 −1 ∑ pˆ (1 − pˆ )ν i −1 i pˆ1 (1 − pˆ1 ) i =2 i (12), gdzie: ν 1 - czas w dniach do pierwszego przekroczenia, ν i - czas pomiędzy (i-1)-ym i i-tym przekroczeniem, pˆ i = 1 νi (13) Statystyka LRind ma rozkład χ 2 z N stopniami swobody. Ponieważ statystyki LRuc oraz LRind są niezależne, zaproponowano test mieszany LR mix uwzględniający zarówno ilość przekroczeń oraz czas pomiędzy przekroczeniami: LR mix = LRuc + LRind ~ χ N2 +1 (14) Poniżej przedstawiono wyniki testów dla poszczególnych modeli przy założeniu, że hipotezy testowana są dla poziomu istotności 0,05. AR(0)-GARCH(0,0) LR CV AR(1)-GARCH(0,0) LR CV AR(0)-GARCH(1,1) LR CV AR(1)-GARCH(1,1) LR CV LRuc 0,1792 3,8415 3,4148 3,8415 0,0639 3,8415 0,0070 3,8415 LRind 59,684 49,802 52,226 40,113 28,199 50,998 33,609 53,384 LRmix 59,864 50,998 55,641 41,337 28,263 52,192 33,616 54,384 źródło - obliczenia własne gdzie: LR - uzyskana wartość statystyki testowej dla danego modelu, CV - wartość krytyczna testu dla poziomu istotności 0,05. Zaznaczone zostały testy, stanowiące podstawę do odrzucenia hipotezy o poprawności modelu. Podsumowanie Na podstawie uzyskanych wyników można stwierdzić, że dla żadnego modelu nie ma podstaw do odrzucenia go ze względu na ilość przekroczeń, jednak testy niezależności nakazują odrzucenie modeli nie uwzględniających efektu GARCH. Analogiczne badania można przeprowadzić dla poziomu tolerancji przy wyznaczaniu miary VaR na poziomie 0,01. Także w tym przypadku testy niezależności przekroczeń odrzucają modele bez heteroskedastyczności, lecz ze względu na niewielką długość szeregu testowego i niewielka liczbę przekroczeń należy formułować wnioski bardziej ostrożnie. W wielu przypadkach szczególnie dla poziomu tolerancji 0,01 miara VaR niedoszacowuje w sposób systematyczny ryzyka i liczba pojawiających się przekroczeń jest większa od oczekiwanej. Dobre efekty uzyskuje się wtedy stosując rozkład warunkowy o grubszych ogonach aniżeli rozkład normalny. Najczęściej stosuje się rozkłady warunkowe t-Studenta, General Error Distribution, α-stabilne lub rozkłady zdarzeń ekstremalnych [14]. Poprawę uzyskiwanych wyników uzyskuje się również stosując modele heteroskedastyczne uwzględniające (w przeciwieństwie do modelu GARCH) asymetrię informacji, czyli fakt, że realizowane jednego dnia dodatnie lub ujemne stopy zwrotu w różny sposób wpływają na zmiany wariancji w dniu kolejnym [11]. Wyniki badań nad skutecznością stosowania metody VaR dla polskich szeregów czasowych znaleźć można również w pracach [8][9][12][13]. Literatura [1] P. Best, Wartość narażona na ryzyko, Oficyna Ekonomiczna, Kraków, 2000 [2] T. Bollerslev, Generalized autoregressive conditional heteroskedasticity, Journal of Econometrics, 31, 1986 [3] G. Box, J. Jenkins, Analiza szeregów czasowych. Prognozowanie i sterowanie, Państwowe Wydawnictwo Naukowe, Warszawa, 1983 [4] R. Engle, Autoregressive conditional heteroskedasticity with estimates of the variance of UK inflation, Econometrica, 50, 1982 [5] M. Haas, New Methods in Backtesting, Financial Engineering Research center, Bonn, February 2001 [6] K. Jajuga, Nowe tendencje w zarządzaniu ryzykiem finansowym, Rynek Terminowy 3, 5/1999 [7] K. Jajuga, Miary ryzyka rynkowego - część III. Miary zagrożenia., Rynek Terminowy 8, 2/2000 [8] K. Jajuga, K. Kuziak, D. Papla, Ryzyko wybranych instrumentow polskiego rynku finansowego - cz. I, Rynek Terminowy 10, 4/2000 [9] K. Jajuga, K. Kuziak, D. Papla, P. Rokita, Ryzyko wybranych instrumentow polskiego rynku finansowego - cz. II, Rynek Terminowy 11, 1/2001 [10] P. Jorion, Value at Risk, 2nd edition, McGraw-Hill, 2001 [11] J. Knight, S. Satchell, Forecasting volatility in the financial markets, Butterworth-Heinemann, 1998 [12] J. Leśkow, S. Iwański, Obliczanie wartości narażonej na ryzyko z wykorzystaniem algorytmu genetycznego, Rynek Terminowy 12, 2/2001 [13] M. Łach, A. Weron, Skuteczność wybranych metod VaR dla danych finansowych z polskiego rynku, Rynek Terminowy 9, 3/2000 [14] A. McNeil, R. Frey, Esimation of Tail-Related Risk Measures for Heteroskedastic Financial Time Series: an Extreme Value Approach, Department Mathematik, ETH Zentrum, Zurich, April 2000 [15] K. Piontek, Modelowanie finansowych szeregów czasowych z warunkową wariancją, "Inwestycje finansowe i Ubezpieczenia - tendencje światowe a rynek polski”, październik 2000, Szklarska Poręba [16] A. Welfe, Ekonometria, Państwowe Wydawnictwo Ekonomiczne, Warszawa, 1995