t - Krzysztof Piontek

Transkrypt

t - Krzysztof Piontek
Krzysztof Piontek
Katedra Inwestycji Finansowych i Ubezpieczeń
Akademia Ekonomiczna we Wrocławiu
Heteroskedastyczność szeregu stóp zwrotu a koncepcja
pomiaru ryzyka metodą VaR
Wstęp
Spośród wielu rodzajów ryzyka na rynkach finansowych [6], szczególną
uwagę zwrócono na ryzyko rynkowe. Jedną z grup metod pomiaru ryzyka
rynkowego stanowią miary zagrożenia (downside risk measures) [7], z których
najpopularniejszą miarą pozostaje Value At Risk (VaR). U podstaw rozważań
o miarach zagrożenia znajduje się dyskusja o rozkładach stóp zwrotu oraz
o dynamicznych modelach opisujących zmianę ceny instrumentu finansowego.
Standardowe modele zakładają, że procesem kształtującym zmiany cen
instrumentów bazowych jest geometryczny proces Browna ze stałymi
parametrami dryftu oraz zmienności. Model ten zakłada że rozkład stop zwrotu
jest rozkładem normalnym, jednak badania empiryczne wykazały występowanie
na rynkach finansowych: efektu skupiania danych, grubych ogonów rozkładów,
skośności rozkładu, długoterminowej zależności danych, autokorelacji stóp
zwrotu. Niezbędne stało się więc poszukiwanie modeli lepiej opisujących rynek,
które można by wykorzystać w wyznaczaniu miary VaR. W niniejszej pracy
jako potencjalne modele umożliwiające wyznaczenie wartości VaR przyjęte
zostały modele zawierające się w klasie AR(1)-GARCH(1,1). Procesy te
umożliwiają modelowanie szeregów z autokorelacją oraz zmienną wariancją
stóp zwrotu. Dokonano weryfikacji przydatności poszczególnych modeli dla
danych z Giełdy Papierów Wartościowych w Warszawie. Analizowanym
szeregiem czasowym były dzienne logarytmiczne stopy zwrotu z indeksu WIG.
1. Analizowane modele finansowych szeregów czasowych
Rozważania o pomiarze ryzyka rynkowego metodą VaR rozpocząć
należy od wyboru i uzasadnienia modeli dynamiki stóp zwrotu.
O ile odpowiednie testy wykażą występowanie autokorelacji stóp zwrotu,
niezbędne wydaje się zastosowanie procesów autoregresji, a o ile odpowiednie
testy potwierdzą występowanie zmiennej w czasie wariancji (heteroskedastyczności), rozwiązaniem może być zastosowanie modeli klasy ARCH
lub GARCH wprowadzonych przez Engla [4] i Bollersleva [2].
Próbę do badań stanowiły dzienne stopy zwrotu z indeksu WIG. Indeks
WIG wybrany został do badań ze względu na to, że jest to jeden z najdłuższych
dostępnych szeregów czasowych dziennych stóp zwrotu na rynku polskim.
Próba rozpoczyna się 03-10-1994 (dzień wprowadzenia pięciosesyjnego
tygodnia na GPW) a kończy 05-10-2001. Łączna długość szeregu wynosi 1750
obserwacji. Został on podzielony na próbę uczącą o długości 1000 obserwacji,
która posłużyła do uzasadnienia wyboru odpowiednich modeli i ich kalibracji
oraz na próbę testową o długości 750 obserwacji, na której dokonano
weryfikacji przydatności poszczególnych modeli do wyznaczania miary VaR.
Na próbie uczącej dokonano uzasadnienia wykorzystania modeli
auregresyjnych oraz heteroskedastycznych.
Istotność autokorelacji rzędu pierwszego stóp zwrotu zbadano przy pomocy
testu istotności współczynnika korelacji [16]. Weryfikacji podlegała hipoteza
H0:[ ρ τ = 0 ] wobec hipotezy alternatywnej H1:[ ρ τ ≠ 0 ] dla τ = 1 .
Iτ =
ρˆ τ
n −τ − 2
1 − ρˆ τ2
(1)
gdzie n - długość analizowanego szeregu, ρ̂ τ - oszacowanie współczynnika
autokorelacji rzędu τ . W przypadku prawdziwości H0, statystyka I τ ma
rozkład t-Studenta z ( n − τ − 2 ) stopniami swobody.
Dla próbki uczącej o długości
n=1000, uzyskano ρˆ 1 = 0,21422 , co daje
wartość statystyki I 1 = 6,9249 . Dla poziomu istotności 0,05 wartość krytyczna
wyznaczona z rozkładu t-Studenta wynosi 1,9623, hipotezę H0 odrzucamy na
rzecz hipotezy alternatywnej H1; współczynnik autokorelacji rzędu pierwszego
jest istotny. Istotność pozostałych autokorelacji zbadano łącznie wykorzystując
test Q Ljunga-Boxa-Pierce'a [3]. Z szeregu stóp zwrotu usunięto autokorelację
rzędu pierwszego i dla tak uzyskanego nowego szeregu zbadano istotność
pierwszych 15 autokorelacji. Wartość statystyki Q=14,532, co wobec wartości
2
krytycznej testu odczytanej z rozkładu χ (dla poziomu istotności 0.05 oraz
ilości stopni swobody równej 15) wynoszącej 24,996 pozwala stwierdzić, że
brak
jest
podstaw
do
odrzucenia
hipotezy
zerowej
o
nieistotności
obserwowanych autokorelacji. Pozwala to skupić nasze rozważania na modelach
autoregresyjnych o rzędzie autoregresji nie większym niż 1.
Występowanie
efektu
ARCH
można
zbadać
przy
pomocy
testu
zaproponowanego przez Engle'a [4].Test polega na sprawdzeniu, czy składnik
losowy ma stała wariancję wobec alternatywy, że wariancja zmienia się.
Sprawdzianem efektu ARCH(p) jest statystyka TR 2 o rozkładzie χ 2 oraz p
stopniach swobody (T - liczba obserwacji, R2 - współczynnik determinacji
równania autoregresji kwadratów reszt modelu). Test efektu GARCH(p,q) jest
równoważny testowi ARCH(p+q). Dla naszej próbki uczącej uzyskano dla testu
efektu ARCH(5) TR 2 = 161,92 oraz wartość krytyczną testu dla 5 stopni
swobody i poziomu istotności 0,05 równą 11,07. Istnieją więc podstawy do
odrzucenia hipotezy zerowej o braku heteroskedastyczności w analizowanym
szeregu czasowym. Uzasadnieniem stosowania modeli heteroskedastycznych
jest również zaprezentowana na rys. 2. silna autokorelacja kwadratów stóp
zwrotu. Dla pierwszych 15 wartości autokorelacji wartość Q testu wynosi 401,6
a wartość krytyczna testu dla poziomu istotności 0,05 wynosi 24,99, co jest
również potwierdzeniem efektu ARCH.
Rys. 1 przedstawia autokorelację stóp Rys.
zwrotu w próbce "uczącej".
2
przedstawia
autokorelację
kwadratów stop zwrotu w próbce "uczącej"
Źródło - obliczenia własne.
W związku z wykazanymi właściwościami analizowanego szeregu stóp
zwrotu w dalszej części pracy rozpatrywane będą modele zagnieżdżone w
modelu AR(1)-GARCH(1,1) danym równaniami:
rt = µ + ϕrt −1 + ε t
(2)
ε t = ht η t
(3)
ht = ϖ + αε t2−1 + βht −1
(4)
η t ~ N (0,1)
(5)
Tak zdefiniowany model zakłada, że warunkowa wartość oczekiwana stóp
zwrotu wynosi m t = µ + ϕrt −1
(6),
a warunkowa wariancja zadana jest równaniem (4).
Spośród rożnych dostępnych w ramach wzorów (2)-(5) modeli do analiz
wybrano następujące modele:
Model
AR(0)-GARCH(0,0)
AR(1)-GARCH(0,0)
AR(0)-GARCH(1,1)
AR(1)-GARCH(1,1)
Restrykcje
ϕ =α = β = 0
α =β =0
ϕ =0
Brak
Wybór tych modeli, a także ograniczenie się do odpowiednio niskich rzędów
modeli podyktowany był zbyt krótkim szeregiem czasowym, by estymować
bardziej skomplikowane modele.
Dopasowanie modeli do danych zbadano poprzez analizę logarytmu funkcji
wiarygodności. Przykład estymacji parametrów modelu GARH(1,1) dla indeksu
WIG można znaleźć np. w pracy [15]
Model
Restrykcje
Logarytm funkcji
wiarygodności
2474,7983
2498,8841
2603,8038
2636,6637
AR(0)-GARCH(0,0)
ϕ =α = β = 0
AR(1)-GARCH(0,0)
α =β =0
AR(0)-GARCH(1,1)
ϕ =0
AR(1)-GARCH(1,1)
Brak
Źródło - obliczenia własne.
Ze względu na fakt, że rozpatrywane modele zawierają się w sobie, do
wyboru modelu, który najlepiej nadaje się do modelowania zadanego szeregu
zastosowano test oparty na wartościach funkcji wiarygodności (Likelihood Ratio
Test) dany następującą statystyką LRT = 2( LLF1 − LLF0 )
(7),
gdzie: LLF1 - wartość logarytmu funkcji największej wiarygodności dla modelu
z mniejszą liczbą restrykcji, LLF0 - wartość logarytmu funkcji największej
wiarygodności dla modelu z większą liczbą restrykcji. Statystyka LRT ma
2
rozkład χ z ilością stopni swobody równą różnicy w liczbie restrykcji.
Model z większą
liczbą restrykci
Model z mniejszą
liczbą restrykcji
Statystyka LTR
Wartość krytyczna
testu
AR(0)-GARCH(0,0) AR(1)-GARCH(0,0)
48,171
3,841
AR(0)-GARCH(0,0) AR(0)-GARCH(1,1)
258,01
5,981
AR(0)-GARCH(0,0) AR(1)-GARCH(1,1)
323,73
7,81
AR(1)-GARCH(0,0) AR(1)-GARCH(1,1)
275,599
5,991
AR(0)-GARCH(1,1) AR(1)-GARCH(1,1)
65,720
3,841
Źródło - opracowanie własne
We wszystkich zestawieniach test wykazał, że model z większą ilością
parametrów w lepszy sposób modeluje zrealizowane stopy zwrotu.
Ponieważ modele AR(1)-GARCH(0,0) oraz AR(0)-GARCH(1,1) nie zawierają
się w sobie do ich oceny wykorzystano kryterium Akaike'a (AIC) [3].
Model
AR(1)-GARCH(0,0)
AR(0)-GARCH(1,1)
Źródło - obliczenia własne.
Wartość AIC
-4991,76819
-5199,6076
Kryterium Akaike'a preferuje model AR(0)-GARCH(1,1).
Na podstawie powyższych analiz można powiedzieć, że najlepszym
spośród analizowanych modeli (pod względem dopasowania do danych) jest
model
AR(1)-GARCH(1,1),
a
najgorszym
model
AR(0)-GARCH(0,0)
odpowiadający klasycznemu ruchowi Browna dla czasu dyskretnego. W dalszej
części pracy przedstawiona zostanie metoda wykorzystania zdefiniowanych
modeli do pomiaru VaR oraz weryfikacja uzyskanych na tej podstawie
wyników.
2. Pomiar ryzyka metodą VaR
Wartość narażona na ryzyko (wartość zagrożona, Value at Risk - VaR) to
maksymalna kwota, jaką można stracić w wyniku inwestycji w portfel o określonym horyzoncie czasowym i przy założonym poziomie tolerancji [1][10].
Powyższą definicję można zapisać w postaci:
P(W ≤ W0 − VaR ) = α
(8)
gdzie: W0 - obecna wartość instrumentu, W - wartość instrumentu na końcu
okresu, α - poziom tolerancji.
Nie znając wartości portfela W0, nie zmniejszając ogólności rozważań,
powyższą zależność można zapisać wykorzystując pojęcie stopy zwrotu:
(
)
P rt ≤ F −1 (α ) = α
(9),
co oznacza, że prawdopodobieństwo, że stopa zwrotu w danym horyzoncie
czasu nie przekroczy wartości równej odpowiedniemu kwantylowi rozkładu stóp
zwrotu F −1 (α ) , wynosi α . Podejście to wywodzi się ze statycznego
zarządzania ryzykiem (static risk management), w którym analizujemy jedynie
bezwarunkowy rozkład stóp zwrotu. Z takim podejściem kontrastuje
dynamiczne zarządzanie ryzykiem (dynamic risk management), pozwalające
uchwycić takie zależności jak autokorelacje stóp zwrotu i gromadzenie
zmienności.
Dla wersji dynamicznej zależność (9) przyjmuje postać:
(
)
P rt ≤ mt + ht Fη−1 (α ) = α
(10)
gdzie:
mt -warunkowa oczekiwana stopa zwrotu dla horyzontu w którym liczymy VaR,
ht - warunkowa oczekiwana wariancja dla horyzontu, w którym liczymy VaR,
Fη−1 (α ) - kwantyl odpowiadający prawdopodobieństwu α dla warunkowego
rozkładu zdefiniowanego wzorem (5). Ponieważ w analizowanym przypadku
rozkład warunkowy zadany wzorem (5) jest rozkładem N(0,1), wiec dla
standardowych poziomów tolerancji 0,05 oraz 0,01 uzyskujemy następujące
1
1
wartości kwantyli: Fη− (0,05) = −1,65 oraz Fη− (0,01) = −2,33 .
Poniżej, na rys. 3., przedstawiono liczbę oraz rozmieszczenie w czasie
przekroczeń dziennej wartości VaR dla poszczególnych modeli dla poziomu
tolerancji 0,05. Badanie przeprowadzono na próbce testowej o długości 750 stóp
zwrotu. Każdorazowo dokonywano ponownej estymacji modelu na podstawie
ostatnich 1000 obserwacji, wyznaczano warunkową wariancję oraz warunkową
(
)
oczekiwaną stopę zwrotu, a następnie sprawdzano, czy rt ≤ m t − 1.65 ht .
Jeśli tak, to w danym dniu strata przekraczała VaR. Jedynie dla modelu AR(0)-
GARCH(0,0) prognoza stopy zwrotu w kolejnym dniu oraz prognoza odchylenia
standardowego dokonywana była na podstawie ostatnich 150 obserwacji1.
Przekroczenie przez stratę wartości VaR przedstawione zostało na poniższych
rysunkach przez pionowy prążek.
Rys. 3. Przekroczenia VaR. Źródło - obliczenia własne.
3 Testowanie wsteczne modelu
Testowanie wsteczne modelu (backtesting) [10][6][1] jest niezbędną
procedurą, aby stwierdzić, czy można stosować dany model. Testu dokonuje
jednostka, która wdraża dany model. Od wyniku testu zależy również
odpowiedni mnożnik przy obliczaniu minimalnych wymogów kapitałowych dla
banków
1
zgodnie z rozporządzeniami Komitetu Bazylejskiego. Instytucja
Okno o szerokości 150 obserwacji dobrane zostało eksperymentalnie, aby dla próbki
uczącej otrzymać jak najlepsze oszacowanie VaR.
wdrażająca swój wewnętrzny system VaR zainteresowana powinna więc być
takim wyborem modelu, aby sprawdzał się jak najlepiej. Odpowiedzi na pytania,
czy dany model w sposób wystarczająco dobrze mierzy ryzyko udzielają
odpowiednie testy.
Najprostszym testem jest test ilości przekroczeń (failure test) [5]. Dla danej
wielkości próby teoretyczna liczba przekroczeń N ma rozkład dwumianowy.
Odpowiednią statystykę testową zaproponował w 1995 roku Kupiec.
Ma ona postać:
[
LRuc = −2 ln (1 − p )
T −N
p
N
]
  N T − N  N  N  
+ 2 ln 1 −  
  
 T   
  T 
(11)
gdzie: N - ilość przekroczeń VaR, T- długość próby testowej, p - poziom
tolerancji VaR przyjęty w modelu.
2
Statystyka LRuc ma rozkład χ z jednym stopniem swobody.
Dla T=750, poziomu tolerancji VaR 0,05 oraz poziomu istotności testu 0.05,
ilość przekroczeń wyznaczająca obszar niekrytyczny (przyjęcia hipotezy o
poprawności modelu) wynosi 27 ≤ N ≤ 49 wobec wartości oczekiwanej ilości
przekroczeń wynoszącej 37,5.
Test ilości przekroczeń nie jest jedynym testem, któremu należy poddać
weryfikowany model. Trudno zgodzić się, że model jest poprawny jeśli
rzeczywiście w ciągu 750 testowanych dni, liczba przekroczeń wynosi 37, ale 15
przekroczeń wystąpiło w ciągu ostatniego miesiąca. Do testu na ilość
przekroczeń należy dołączyć test, czy przekroczenia są niezależne w czasie.
Opracowano różne takie testy, ale największą popularność zdobył test
niezależności przekroczeń Kupca LRind [5] oparty na dwóch testach - teście do
pierwszego przekroczenia (Time until First Failure Test) [5] oraz teście czasu
pomiędzy kolejnymi przekroczeniami (Time between Failures Test) [5] dany
wzorem (12):
 p(1 − p)ν i −1  
 p(1 − p)ν 1 −1  N 




LRind = −2 ln
2
ln
+
−
ν 1 −1  ∑ 
 pˆ (1 − pˆ )ν i −1  
i
 pˆ1 (1 − pˆ1 )
 i =2 
 i

(12),
gdzie:
ν 1 - czas w dniach do pierwszego przekroczenia,
ν i - czas pomiędzy (i-1)-ym i i-tym przekroczeniem,
pˆ i =
1
νi
(13)
Statystyka LRind ma rozkład χ 2 z N stopniami swobody.
Ponieważ statystyki LRuc oraz LRind są niezależne, zaproponowano test
mieszany LR mix uwzględniający zarówno ilość przekroczeń oraz czas pomiędzy
przekroczeniami:
LR mix = LRuc + LRind ~ χ N2 +1
(14)
Poniżej przedstawiono wyniki testów dla poszczególnych modeli przy założeniu,
że hipotezy testowana są dla poziomu istotności 0,05.
AR(0)-GARCH(0,0)
LR
CV
AR(1)-GARCH(0,0)
LR
CV
AR(0)-GARCH(1,1)
LR
CV
AR(1)-GARCH(1,1)
LR
CV
LRuc
0,1792 3,8415 3,4148 3,8415 0,0639 3,8415 0,0070 3,8415
LRind
59,684 49,802 52,226 40,113 28,199 50,998 33,609 53,384
LRmix
59,864 50,998 55,641 41,337 28,263 52,192 33,616 54,384
źródło - obliczenia własne
gdzie:
LR - uzyskana wartość statystyki testowej dla danego modelu,
CV - wartość krytyczna testu dla poziomu istotności 0,05.
Zaznaczone zostały testy, stanowiące podstawę do odrzucenia hipotezy
o poprawności modelu.
Podsumowanie
Na podstawie uzyskanych wyników można stwierdzić, że dla żadnego
modelu nie ma podstaw do odrzucenia go ze względu na ilość przekroczeń,
jednak testy niezależności nakazują odrzucenie modeli nie uwzględniających
efektu GARCH.
Analogiczne badania można przeprowadzić dla poziomu tolerancji przy
wyznaczaniu miary VaR na poziomie 0,01. Także w tym przypadku testy
niezależności przekroczeń odrzucają modele bez heteroskedastyczności, lecz ze
względu na niewielką długość szeregu testowego i niewielka liczbę przekroczeń
należy formułować wnioski bardziej ostrożnie.
W wielu przypadkach szczególnie dla poziomu tolerancji 0,01 miara
VaR niedoszacowuje w sposób systematyczny ryzyka i liczba pojawiających się
przekroczeń jest większa od oczekiwanej. Dobre efekty uzyskuje się wtedy
stosując rozkład warunkowy o grubszych ogonach aniżeli rozkład normalny.
Najczęściej stosuje się rozkłady warunkowe t-Studenta, General Error
Distribution, α-stabilne lub rozkłady zdarzeń ekstremalnych [14].
Poprawę uzyskiwanych wyników uzyskuje się również stosując modele
heteroskedastyczne uwzględniające (w przeciwieństwie do modelu GARCH)
asymetrię informacji, czyli fakt, że realizowane jednego dnia dodatnie lub
ujemne stopy zwrotu w różny sposób wpływają na zmiany wariancji w dniu
kolejnym [11].
Wyniki badań nad skutecznością stosowania metody VaR dla polskich szeregów
czasowych znaleźć można również w pracach [8][9][12][13].
Literatura
[1] P. Best, Wartość narażona na ryzyko, Oficyna Ekonomiczna, Kraków, 2000
[2] T. Bollerslev, Generalized autoregressive conditional heteroskedasticity,
Journal of Econometrics, 31, 1986
[3] G. Box, J. Jenkins, Analiza szeregów czasowych. Prognozowanie
i sterowanie, Państwowe Wydawnictwo Naukowe, Warszawa, 1983
[4] R. Engle, Autoregressive conditional heteroskedasticity with estimates of the
variance of UK inflation, Econometrica, 50, 1982
[5] M. Haas, New Methods in Backtesting, Financial Engineering Research
center, Bonn, February 2001
[6] K. Jajuga, Nowe tendencje w zarządzaniu ryzykiem finansowym, Rynek
Terminowy 3, 5/1999
[7] K. Jajuga, Miary ryzyka rynkowego - część III. Miary zagrożenia., Rynek
Terminowy 8, 2/2000
[8] K. Jajuga, K. Kuziak, D. Papla, Ryzyko wybranych instrumentow polskiego
rynku finansowego - cz. I, Rynek Terminowy 10, 4/2000
[9] K. Jajuga, K. Kuziak, D. Papla, P. Rokita, Ryzyko wybranych instrumentow
polskiego rynku finansowego - cz. II, Rynek Terminowy 11, 1/2001
[10] P. Jorion, Value at Risk, 2nd edition, McGraw-Hill, 2001
[11] J. Knight, S. Satchell, Forecasting volatility in the financial markets,
Butterworth-Heinemann, 1998
[12] J. Leśkow, S. Iwański, Obliczanie wartości narażonej na ryzyko
z wykorzystaniem algorytmu genetycznego, Rynek Terminowy 12, 2/2001
[13] M. Łach, A. Weron, Skuteczność wybranych metod VaR dla danych
finansowych z polskiego rynku, Rynek Terminowy 9, 3/2000
[14] A. McNeil, R. Frey, Esimation of Tail-Related Risk Measures for
Heteroskedastic Financial Time Series: an Extreme Value Approach,
Department Mathematik, ETH Zentrum, Zurich, April 2000
[15] K. Piontek, Modelowanie finansowych szeregów czasowych z warunkową
wariancją, "Inwestycje finansowe i Ubezpieczenia - tendencje światowe
a rynek polski”, październik 2000, Szklarska Poręba
[16] A. Welfe, Ekonometria, Państwowe Wydawnictwo Ekonomiczne,
Warszawa, 1995

Podobne dokumenty