Estymacja parametrów dynamicznych modeli Copula

Transkrypt

Estymacja parametrów dynamicznych modeli Copula
Politechnika
Warszawska
Wydział Matematyki i Nauk
Informacyjnych
PRACA DYPLOMOWA MAGISTERSKA
MATEMATYKA
Estymacja parametrów
dynamicznych modeli Copula-GARCH
sterowanych procesem Markowa
Autor:
Paweł Jamer
Promotor:
dr Anna Czapkiewicz
Warszawa, 15 październik 2013 r.
...............................................
podpis promotora
...............................................
podpis autora
Spis tre±ci
1 Wst¦p
3
2 Kopule
6
2.1
Podstawowe denicje . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
2.2
Twierdzenie Sklara i inne u»yteczne wyniki . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
2.3
Miary zale»no±ci . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.4
2.5
2.3.1
Wspóªczynnik korelacji liniowej . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3.2
Wspóªczynnik ρ Spearmana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
Estymacja parametrów . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4.1
Metoda najwi¦kszej wiarogodno±ci . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.4.2
Metoda rozkªadów brzegowych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
Kopule gaussowskie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3 Model AR-GARCH
19
3.1
Denicja modelu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.2
Rozkªad sko±ny t-Studenta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3
Estymacja parametrów . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4 Ukryte modele Markowa w kontek±cie szeregów czasowych
4.1
27
Ša«cuch Markowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.1.1
Podstawowe denicje i poj¦cia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.1.2
Pozyskiwanie u»ytecznych informacji . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.1.3
Reprezentacja autoregresyjna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.2
Denicja modelu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.3
Filtr Hamiltona . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.4
Wygªadzanie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.5
Prognoza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.6
Estymacja parametrów . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5 Przeª¡cznikowy model Copula-AR-GARCH
45
5.1
Denicja modelu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.2
Estymacja parametrów . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
6 Grupowanie obserwacji
51
6.1
Miara niepodobie«stwa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
6.2
Algorytm aglomeracyjny Warda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
6.3
Niepodobie«stwo w kontek±cie przeª¡cznikowego modelu Copula-AR-GARCH . . . . . . . . . . . 53
1
7 Analiza mi¦dzynarodowych zale»no±ci gospodarczych
55
7.1
Estymacja parametrów modelu AR-GARCH
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
7.2
Estymacja parametrów kopuli w kontek±cie przeª¡cznikowego modelu Copula-AR-GARCH . . . . 57
7.3
Grupowanie pa«stw wzgl¦dem siªy ª¡cz¡cych je zale»no±ci gospodarczych
. . . . . . . . . . . . . 60
8 Podsumowanie
65
9 Kody ¹ródªowe
67
9.1
Filtr Hamiltona . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
9.2
Wygªadzanie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
9.3
Algorytm EM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2
Rozdziaª 1
Wst¦p
Szybki rozwój nowych technologii jakim charakteryzuj¡ si¦ obecne czasy doprowadziª do ogromnej rewolucji
w obrazie wspóªczesnego ±wiata. Nowoczesne ±rodki masowego przekazu takie jak telewizja czy Internet dostarczaj¡ nam naj±wie»szych informacji dotycz¡cych najwa»niejszych wydarze« z minimalnym opó¹nieniem w
stosunku do faktycznej chwili ich wyst¡pienia. Ostatnie osi¡gni¦cia w dziedzinie komunikacji do których zaliczy¢
mo»emy mi¦dzy innymi telefoni¦ komórkow¡, usªugi VoIP czy wszelkiego rodzaju komunikatory internetowe uªatwiaj¡ dokonywanie szybkich transakcji handlowych z partnerami znajduj¡cymi si¦ w dowolnym punkcie globu.
Wreszcie rozwój coraz efektywniejszych sposobów transportu zarówno towarów jak i osób umo»liwia przemieszczanie si¦ lub przesyªanie dóbr materialnych z jednego zak¡tka ±wiata w drugi w ekstremalnie krótkim czasie.
Wszystkie wymienione fakty pozostaj¡ nie bez znaczenia dla bie»¡cej ±wiatowej sytuacji gospodarczej. Prowadz¡ one do pojawiania si¦ nowych zale»no±ci pomi¦dzy rynkami oraz ró»nego rodzaju instrumentami nansowymi, jak równie» zachodzenia dynamicznych zmian w strukturach tych zale»no±ci. Oznacza to dla nas, »e
w celu dokªadnego badania ryzyka zwi¡zanego z dywersykacj¡ du»ych, mi¦dzynarodowych portfeli inwestycyjnych niezb¦dnym staje si¦ posiadanie modeli oraz procedur umo»liwiaj¡cych uwzgl¦dnienie caªej zªo»ono±ci
zachodz¡cych na wspóªczesnych rynkach procesów maj¡cych wpªyw na ksztaªtowanie si¦ ich struktur zale»no±ciowych. Wspóªczesna ekonometria wydaje si¦ oferowa¢ zestaw narz¦dzi umo»liwiaj¡cy projektowanie tego
typu rozwi¡za«. Zaliczy¢ do nich mo»emy w szczególno±ci modele klasy GARCH, funkcje kopuli oraz ukryte
modele Markowa, które przez dªugi czas egzystowaªy w ±wiecie nauki w sposób niezale»ny, ostatnio natomiast
obserwowane jest ich ª¡czenie w bardziej zªo»one konstrukcje, w celu uzyskania efektu synergii.
Zaproponowane w 1986 roku przez Bollerslev'a w pracy [2] modele klasy GARCH stanowi¡ naturalne rozszerzenie
wynalezionych kilka lat wcze±niej przez Engle'a i opisanych w pracy [11] modeli klasy ARCH. Zyskaªy one w
in»ynierii nansowej du»¡, nie sªabn¡c¡ po dzie« dzisiejszy popularno±¢ jako dobre narz¦dzia do modelowania
stóp zwrotów z ró»nego typu instrumentów nansowych. Z racji swoich statystycznych wªasno±ci natomiast
s¡ cz¦sto traktowane jako specyczne reszty losowe, stanowi¡ce podstaw¦ bardziej zªo»onych modeli. Cechy te
czyni¡ z nich wspóªcze±nie naturalne narz¦dzie od którego modelowanie stóp zwrotów jest rozpoczynane.
Funkcje kopuli stanowi¡ obecnie jedno z popularniejszych narz¦dzi sªu»¡cych do modelowania zale»no±ci wyst¦puj¡cych pomi¦dzy zwrotami z instrumentów nansowych. Funkcje te znajdowaªy si¦ w kr¦gu zainteresowa«
statystyków ju» w pierwszej poªowie XX wieku, jednak swoj¡ obecn¡ nazw¦ oraz du»¡ popularno±¢ zyskaªy dopiero na skutek pojawienia si¦ w 1959 roku napisanej przez Sklara pracy [40]. Niekwestionowane znaczenie tej
pracy dla rozwoju teorii kopul jest konsekwencj¡ zawarcia w niej najistotniejszego i najcz¦±ciej cytowanego jej
twierdzenia, przedstawiaj¡cego kopule jako obiekty ª¡cz¡ce jednowymiarowe rozkªady brzegowe z ich rozkªadem
ª¡cznym i przechowuj¡ce caª¡ dost¦pn¡ informacj¦ na temat ª¡cz¡cych rozkªady te zale»no±ci.
Ciekaw¡ oraz wyj¡tkowo u»yteczn¡ wªasno±ci¡ wielowymiarowych modeli statystycznych wykorzystuj¡cych funkcje kopuli jest mo»liwo±¢ rozdzielenia procesu estymacji parametrów takiego modelu na osobne zadanie estymacji parametrów modeli brzegowych oraz zadanie estymacji parametrów tej funkcji. Proces ten opisany po raz
pierwszy w pracy [22] otworzyª drog¦ do wykorzystania rozwa»anej przez nas funkcji w modelach statystycznych cechuj¡cych si¦ skomplikowanymi, wieloparametrowymi modelami brzegowymi, takimi jak modele klasy
GARCH.
Temat wykorzystania ukrytych modeli Markowa w in»ynierii nansowej wi¡»e si¦ ±ci±le z zagadnieniem zmienno±ci nastrojów na rynkach nansowych, których konsekwencj¡ s¡ zmiany zachodz¡ce w sposobie zachowania
instrumentów nansowych. Modele te umo»liwiaj¡ przewidywanie panuj¡cych w danej chwili nastrojów rynkowych oraz wykrywanie momentów w których nast¦puj¡ ich zmiany, a co za tym idzie daj¡ mo»liwo±¢ dostosowania do nich parametrów modelu wykorzystywanego do opisu rynku. Najbardziej zauwa»alny oraz istotny
3
wkªad w spopularyzowanie i rozwój teorii ukrytych modeli Markowa na gruncie ekonomicznym przypisa¢ nale»y
Hamiltonowi. Autor ten w swoich pracach [15] oraz [16] zaproponowaª iteracyjne metody wyznaczania bie»¡cego stanu w jakim znajduje si¦ model w kolejnych chwilach czasu oraz wyznaczania najbardziej optymalnego
zestawu parametrów modelu przy uwzgl¦dnieniu ich zmienno±ci spowodowanej istnieniem stanów.
Wspóªczesne prace ekonometryczne, takie jak na przykªad [25], w celu badania zale»no±ci wyst¦puj¡cych pomi¦dzy instrumentami nansowymi zaczynaj¡ wykorzystywa¢ coraz powszechniej modele ª¡cz¡ce w sobie funkcje
kopuli z modelami klasy GARCH okre±lane wspólnym mianem modeli Copula-GARCH. Zdarzaj¡ si¦ równie»
sytuacje dodawania do modeli tych dynamiki opisywanej ukrytymi modelami Markowa, jak na przykªad w
pracy [6]. Mnogo±¢ istniej¡cych typów kopul posiadaj¡cych zró»nicowane wªa±ciwo±ci statystyczne, mo»liwo±¢
ró»norodnego rozszerzania i modykowania modelu GARCH, a tak»e uwzgl¦dniania w nim na wiele sposobów
dynamiki sprawia, »e model Copula-GARCH jest narz¦dziem wyj¡tkowo elastycznym, którego dostosowanie do
wªasnych potrzeb nie przysparza wi¦kszych trudno±ci.
Przez wi¦ksz¡ cz¦±¢ niniejszej pracy b¦dziemy d¡»yli do wyczerpuj¡cego oraz dokªadnego opisania przeª¡cznikowego modelu Copula-AR-GARCH, a zatem modelu typu Copula-GARCH z dynamik¡ sterowan¡ ªa«cuchem
Markowa, w którym rol¦ peªnion¡ przez model GARCH przejmie nieco bardziej zªo»ony model AR-GARCH.
Dokonuj¡c wspomnianego opisu szczególn¡ uwag¦ po±wi¦cimy zagadnieniu estymacji parametrów modelu przy
uwzgl¦dnieniu zastosowania w nim kopuli gaussowskiej oraz wykorzystaniu sko±nego rozkªadu t-Studenta do
opisu bª¦dów losowych modelu AR-GARCH. W kontek±cie tym w szczególno±ci przedstawimy iteracyjne wzory
przybli»aj¡ce coraz dokªadniej w kolejnych krokach estymatory metody najwi¦kszej wiarogodno±ci poszukiwanych przez nas parametrów oraz zaprezentujemy jawn¡ posta¢ próbkowej macierzy Fishera dla estymatorów
parametrów kopuli. Zaprogramujemy równie» w j¦zykach C oraz R procedury pozwalaj¡ce na faktyczne przeprowadzenie procesu estymacji dla dowolnej liczy instrumentów nansowych oraz rozwa»anych stanów rynkowych.
Dysponuj¡c dobrze zdeniowanym i opisanym modelem Copula-AR-GARCH zaproponujemy sposób wykorzystania uzyskanych w procesie estymacji parametrów kopuli do pomiaru siªy zale»no±ci ª¡cz¡cych poszczególne
instrumenty nansowe oraz grupowania tych instrumentów w klastry instrumentów najsilniej na siebie wpªywaj¡cych. W tym celu wykorzystamy klasyczny algorytm grupowania Warda w poª¡czeniu z zestawem opracowanych specjalnie na nasze potrzeby miar niepodobie«stwa szeregów czasowych sterowanych ªa«cuchem Markowa.
Wszystkie przedstawione wyniki zastosujemy do przeanalizowania zale»no±ci gospodarczych ª¡cz¡cych 35 krajów
pochodz¡cych z Europy, Azji oraz obu Ameryk. Otrzymane w efekcie grupy posªu»¡ nam do potwierdzenia
ogólnie panuj¡cych przekona« co do spodziewanego charakteru ±wiatowych zale»no±ci gospodarczych. Dadz¡
nam one równie» mo»liwo±¢ wyci¡gni¦cia wªasnych wniosków i sformuªowania przypuszcze« co do ich przyszªo±ci.
Materiaª zawarty w tej pracy podzielony zostaª na 9 rozdziaªów, z których ka»dy po±wi¦cony jest innemu
istotnemu dla caªo±ci i kompletno±ci wywodu zagadnieniu.
• Niniejszy rozdziaª pierwszy skupia si¦ na pobie»nym scharakteryzowaniu poruszanej w pracy tematyki,
podaniu najistotniejszych pozycji literaturowych w niej wykorzystywanych oraz zarysowaniu ogólnego jej
schematu.
• W rozdziale drugim nast¡pi zdeniowanie poj¦cia kopuli, a nast¦pnie przedstawienie fragmentów teorii
kopul niezb¦dnych do pó¹niejszego wprowadzenia modelu Copula-AR-GARCH. Zapoznamy si¦ tutaj w
szczególno±ci z podstawowym dla caªej teorii twierdzeniem Sklara, opiszemy relacje ª¡cz¡ce funkcje kopuli
z wybranymi miarami zale»no±ci oraz przedstawimy sposób efektywnej estymacji parametrów modeli wykorzystuj¡cych funkcje kopuli. Na zako«czenie za± przedstawimy i dokªadnie opiszemy szczególnie dla nas
interesuj¡cy typ kopuli gaussowskiej.
• Rozdziaª trzeci w caªo±ci po±wi¦cimy omówieniu modelu AR-GARCH. Na wst¦pie skupimy si¦ na jego
formalnym zdeniowaniu. Nast¦pnie zajmiemy si¦ przedstawieniem rozkªadu sko±nego t-Studenta, za
pomoc¡ którego b¦dziemy chcieli modelowa¢ jego bª¦dy losowe. Na zako«czenie za± omówimy sposób w
jaki estymowa¢ mo»emy charakteryzuj¡ce model ten parametry.
• Zagadnieniom zwi¡zanym ze stosowaniem ªa«cuchów Markowa do modelowania okresowych zmian zachodz¡cych w sposobie zachowania szeregów czasowych po±wi¦cimy caªy rozdziaª czwarty. Wprowadzimy
tam formalnie poj¦cie ªa«cucha Markowa oraz opieraj¡ce si¦ na nim poj¦cie ukrytego modelu Markowa.
W dalszej kolejno±ci skupimy si¦ na omówieniu zagadnienia dopasowania najlepszego ci¡gu kolejno nast¦puj¡cych po sobie stanów ªa«cucha Markowa do trajektorii szeregu czasowego. Po±wi¦cimy w dalszej
kolejno±ci kilka stron na wprowadzenie tematyki dokonywania predykcji w modelach z przeª¡czeniami, aby
na koniec zaj¡¢ si¦ zagadnieniem estymacji parametrów tego typu modeli.
• W rozdziale pi¡tym wykorzystuj¡c wszystkie przedstawione dotychczas w ramach pracy informacje wprowadzimy model Copula-AR-GARCH. Przedstawimy tu w sposób opisowy jego denicj¦, a nast¦pnie skupimy si¦ na omówieniu zªo»onego zagadnienia estymacji jego parametrów w kontek±cie wykorzystania
4
funkcji kopuli gaussowskiej oraz standaryzowanego rozkªadu sko±nego t-Studenta, jako rozkªadu bª¦dów
losowych brzegowych modeli AR-GARCH.
• Szósty rozdziaª w peªni po±wi¦cony zostanie tematyce grupowania obserwacji. Rozpoczniemy go od wprowadzenia denicji wykorzystywanej w wielu algorytmach grupowania miary niepodobie«stwa. Zaprezentujemy daj¡cy dobre rezultaty grupowania algorytm aglomeracyjny Warda. Na zako«czenie za± zaproponujemy efektywne sposoby dokonywania pomiaru niepodobie«stwa w kontek±cie szeregów czasowych.
• Wykorzystuj¡c wszystkie zaproponowane w pracy narz¦dzia oraz procedury w rozdziale siódmym dokonamy analizy zale»no±ci ª¡cz¡cych gospodarki 35 ró»nych pa«stw ±wiata. W tym celu do stóp zwrotu z
indeksów gieªdowych tych pa«stw dopasujemy omawiany w pracy model Copula-AR-GARCH, a nast¦pnie przeprowadzimy proces grupowania wzgl¦dem siªy ª¡cz¡cych je zale»no±ci oraz wyci¡gniemy wnioski
z uzyskanych wyników.
• Rozdziaª ósmy po±wi¦cimy podsumowaniu caªej pracy. Przypomnimy tam wszystkie uzyskane w niej
wyniki oraz nakre±limy kierunki w jakich mo»na by rozwija¢ zawart¡ w niej teori¦ w przyszªo±ci.
• W ostatnim ju», dziewi¡tym rozdziale pracy, zamie±cimy wszystkie najwa»niejsze kody ¹ródªowe procedur
zaimplementowanych na jej potrzeby.
5
Rozdziaª 2
Kopule
W niniejszym rozdziale zajmiemy si¦ przedstawieniem denicji funkcji kopuli oraz zaprezentowaniem wybranych
jej wªasno±ci. Intuicyjnie, funkcj¦ t¡ interpretowa¢ b¦dziemy jako pomost ª¡cz¡cy rozkªady wielowymiarowe z ich
rozkªadami brzegowymi. Kopule, stanowi¡c element spajaj¡cy ±wiaty jednowymiarowe w ±wiat wielowymiarowy,
opisuj¡ w peªni struktur¦ zale»no±ci wyst¦puj¡c¡ mi¦dzy tymi pierwszymi. Wªa±nie ta ich cecha b¦dzie szczególnie istotna w pó¹niejszych rozdziaªach pracy, w których wprowadza¢ b¦dziemy model Copula-AR-GARCH
oraz analizowa¢ siª¦ z jak¡ wpªywaj¡ na siebie indeksy gieªdowe.
W rozdziale tym skupimy nasz¡ uwag¦ na najcz¦±ciej poruszanych zagadnieniach zwi¡zanych z kopulami. Przedstawimy kolejno
• formaln¡ denicj¦ funkcji kopuli,
• centralne twierdzenie caªej teorii, jakie stanowi twierdzenie Sklara,
• cz¦sto stosowane w kontek±cie kopul miary zale»no±ci.
Na zako«czenie przyjrzymy si¦ bli»ej szczególnie interesuj¡cemu dla nas typowi kopul jakie stanowi¡ nale»¡ce
do rodziny kopul eliptycznych kopule gaussowskie. Kopule te wykorzystywa¢ b¦dziemy w dalszych cz¦±ciach
pracy do budowania modelu Copula-AR-GARCH.
Kopule odgrywaj¡ niew¡tpliwie wa»n¡ rol¦ w tej pracy, nie stanowi¡ one jednak jej gªównej tre±ci. Z tego
te» powodu, przedstawiaj¡c ró»ne wªasno±ci tych funkcji, cz¦sto pomija¢ b¦dziemy ich dowody. Podej±cie
takie pozwoli nam unikn¡¢ wprowadzania licznych wªasno±ci o charakterze pomocniczym, daj¡c w konsekwencji
mo»liwo±¢ lepszego skupienia uwagi na denicjach oraz twierdzeniach najbardziej istotnych.
2.1 Podstawowe denicje
Gªównym celem niniejszej sekcji b¦dzie przedstawienie formalnej denicji funkcji kopuli. Zauwa»my na wst¦pie,
»e do zagadnienia tego podej±¢ daje si¦ na dwa sposoby.
1. Wprowadzaj¡c kopule z wykorzystaniem licznych obiektów pomocniczych, takich jak funkcja uziemiona
czy subkopula.
2. Przedstawiaj¡c funkcj¦ kopuli w postaci jednej spójnej denicji, bez wyodr¦bniania wspomnianych obiektów.
U»yteczno±¢ pierwszego z wymienionych tu podej±¢ przejawia si¦ w uªatwieniu prowadzenia toku dowodowego
dla twierdze« dotycz¡cych kopul i jako takie jest typowym podej±ciem ksi¡»kowym, z jakim spotka¢ mo»emy
si¦ mi¦dzy innymi w [5] oraz [34]. Drugie z nich jest charakterystycznym podej±ciem dla artykuªów naukowych
wykorzystuj¡cych funkcje kopuli w zastosowaniach, u»ytym mi¦dzy innymi w [6]. Jako, »e w rozdziale tym
skupimy si¦ gªównie na prezentowaniu, a nie dowodzeniu twierdze«, dlatego te» funkcj¦ kopuli wprowadzimy
w drugi z wymienionych sposobów, po±wi¦caj¡c pozostaª¡ cz¦±¢ sekcji na zaprezentowanie przykªadu tego typu
funkcji.
6
Przyjmijmy wi¦c na wst¦pie standardowo stosowane oznaczenie R dla zbioru liczb rzeczywistych (−∞, ∞) ,
k
oznaczmy przez R rozszerzony zbiór liczb rzeczywistych [−∞, ∞] . Ponadto prostok¡tem w R nazwijmy
dowolny iloczyn kartezja«ski k przedziaªów domkni¦tych postaci
B = [u, u + t] = [u1 , u1 + t1 ] × [u2 , u2 + t2 ] × · · · × [uk , uk + tk ] ,
natomiast wierzchoªkami tego prostok¡ta punkty
(c1 , c2 , . . . , ck ) ,
takie, »e dla i = 1, 2, . . . , k zachodzi
• ci = ui lub ci = ui + ti ,
• ti ≥ 0 (w rozdziale tym zmienne rzeczywiste nieujemne powszechnie oznacza¢ b¦dziemy liter¡ t).
Ostatecznie zbiór wszystkich wierzchoªków prostok¡ta B oznaczmy jako vert (B) , natomiast szczególnie interesuj¡cy dla nas w przypadku kopul przedziaª jednostkowy [0, 1] symbolem I.
Denicja 1. k-wymiarow¡ kopul¡ nazwiemy funkcj¦ C : Ik → I, speªniaj¡c¡ nast¦puj¡ce warunki:
1. dla dowolnego u = (u1 , u2 , . . . , uk ) ∈ Ik zachodzi
• C (u) = 0 je»eli (∃i ∈ {1, 2, . . . , k}) ui = 0,
• C (u) = uj je»eli (∀i ∈ {1, . . . , j − 1, j + 1, . . . , k}) ui = 1.
2. dla dowolnych u, u + t ∈ Ik zachodzi
X
sgn (c) C (c) ≥ 0,
c∈vert([u,u+t])
gdzie
(
1,
gdy cj = uj dla parzystej liczby j,
sgn (c) =
−1, gdy cj = uj dla nieparzystej liczby j.
Cz¦sto k-wymiarow¡ kopul¦ nazywa¢ b¦dziemy zamiennie k-kopul¡ lub je±li nie b¦dzie to prowadzi¢ do niejasno±ci, po prostu kopul¡.
Pierwszy z wymienionych w powy»szej denicji warunków w peªni deniuje nam zachowanie funkcji kopuli na
brzegu dziedziny. Zobrazowany on zostaª dla przypadku kopuli 2-wymiarowej na rysunku 2.1. Drugi natomiast
jest rozpisanym do postaci elementarnej warunkiem bycia funkcj¡ k-rosn¡c¡ o której przeczyta¢ mo»na w ksi¡»ce
[34]. Wartym odnotowania jest tutaj równie» fakt, »e denicja powy»sza pozwala nam spojrze¢ na kopule jako
na dystrybuanty ª¡czne, których dystrybuanty brzegowe pochodz¡ z rozkªadu jednostajnego na przedziale I.
Rysunek 2.1: Zachowanie funkcji kopuli na brzegu dziedziny.
7
Przykªad. Funkcja rzeczywista 2-zmiennych
C (u1 , u2 ) = max (u1 + u2 − 1, 0)
okre±lona na dziedzinie I2 jest dobrym przykªadem prostej kopuli. Prawdziwo±¢ warunku 1 denicji 1 mo»emy
dla niej ªatwo sprawdzi¢ podstawiaj¡c warto±¢ 0 lub 1 w miejsce kolejnych argumentów funkcji. Prawdziwo±¢
warunku 2 wymaga natomiast nieco »mudnego, ale obliczeniowo prostego, sprawdzenia czterech mo»liwych
sposobów rozmieszczenia punktów (u1 , u2 ) , (u1 , u2 + t2 ) , (u1 + t1 , u2 ) oraz (u1 + t1 , u2 + t2 ) na kwadracie jednostkowym I2 :
1. rozmieszczenia w którym wspóªrz¦dne ka»dego z punktów sumuj¡ si¦ do warto±ci mniejszej ni» jeden,
2. rozmieszczenia w którym tylko wspóªrz¦dne punktu (u1 + t1 , u2 + t2 ) sumuj¡ si¦ do warto±ci nie mniejszej
ni» jeden,
3. rozmieszczenia w którym tylko wspóªrz¦dne punktu (u1 , u2 ) sumuj¡ si¦ do warto±ci mniejszej ni» jeden,
4. rozmieszczenia w którym wspóªrz¦dne ka»dego z punktów sumuj¡ si¦ do warto±ci nie mniejszej ni» jeden.
W sposób graczny kopul¦ t¡ zaprezentowano na poni»szym rysunku.
Rysunek 2.2: Wykres kopuli C (u1 , u2 ) = max (u1 + u2 − 1, 0) .
2.2 Twierdzenie Sklara i inne u»yteczne wyniki
W sekcji tej przybli»one zostan¡ ogólnie znane wªa±ciwo±ci kopul, które b¦d¡ dla nas u»yteczne w dalszej cz¦±ci
pracy. Wprowadzimy tu kolejno
• najwa»niejsze dla caªej teorii kopul twierdzenie Sklara, które w gªównej mierze zadecydowaªo o du»ej
popularno±ci tych funkcji,
• podstawowe poj¦cia zwi¡zane z ró»niczkowalno±ci¡ funkcji kopuli, pozwalaj¡ce nam wyznacza¢ ich g¦sto±ci,
• istotn¡ z punktu widzenia miar zale»no±ci wªasno±¢ niezmienniczo±ci kopul wzgl¦dem przeksztaªce« ±ci±le
rosn¡cych.
8
W kolejnych rozdziaªach pracy najsilniej oraz w sposób najbardziej wyra¹ny korzysta¢ b¦dziemy z twierdzenia Sklara. Dlatego te», na wprowadzenie tego twierdzenia poªo»ony zostanie najwi¦kszy nacisk. Pozostaªe
przedstawiane twierdzenia wykorzystywa¢ b¦dziemy raczej sporadycznie i cz¦sto w sposób niezauwa»alny. Zaprezentujemy je tutaj gªównie w celu peªniejszego scharakteryzowania funkcji kopuli.
Zacznijmy od przypomnienia sobie, »e dystrybuant¡ (1-wymiarow¡) nazywamy niemalej¡c¡ oraz prawostronnie ci¡gª¡ funkcj¦ F : R → I, speªniaj¡c¡ warunki
F (−∞)
=
0,
F (∞)
=
1.
Poj¦cie to uogólni¢ mo»emy na przypadek k-wymiarowy, nazywaj¡c dystrybuant¡ k-wymiarow¡ (lub mniej
k
±ci±le dystrybuant¡ wielowymiarow¡ albo dystrybuant¡ ª¡czn¡) tak¡ funkcj¦ F : R → I, która
1. jest k-rosn¡c¡, tzn. speªnia warunek 2 z denicji funkcji kopuli,
2. speªnia nast¦puj¡ce warunki
k
(a) F (x) = 0 dla x = (x1 , x2 , . . . , xk ) ∈ R takich, »e xi = −∞ przynajmniej dla jednego i,
(b) F (∞, ∞, . . . , ∞) = 1.
Niech F b¦dzie dystrybuant¡ k-wymiarow¡. Wówczas udowodni¢ mo»na, »e funkcje 1-wymiarowe postaci
Fi (xi )
= F (∞, . . . , ∞, xi , ∞, . . . , ∞)
s¡ dystrybuantami. Dystrybuanty te nazywa¢ b¦dziemy dystrybuantami brzegowymi dystrybuanty F.
Kopule, jak zostaªo to zauwa»one we wst¦pie do niniejszego rozdziaªu, stanowi¡ element ª¡cz¡cy dystrybuanty
wielowymiarowe z ich dystrybuantami brzegowymi. Wªasno±¢ ta sformuªowana zostaªa w 1959 roku przez
Sklara, w twierdzeniu nosz¡cym obecnie jego imi¦.
Twierdzenie 2. (Sklara) Niech F b¦dzie dystrybuant¡ ª¡czn¡ k-wymiarow¡, której dystrybuantami brzegowymi
k
s¡ funkcje F1 , F2 , . . . , Fk . Wówczas istnieje kopula C taka, »e dla dowolnego punktu x = (x1 , x2 , . . . , xk ) ∈ R
zachodzi
F (x) = C (F1 (x1 ) , F2 (x2 ) , . . . , Fk (xk )) .
(2.2.1)
Je±li F1 , F2 , . . . , Fk s¡ ci¡gªe, wówczas C jest wyznaczona jednoznacznie. W przeciwnym wypadku C jest
wyznaczona jednoznacznie na produkcie przeciwdziedzin F1 , F2 , . . . , Fk . Odwrotnie, je±li funkcja C jest kopul¡
oraz funkcje F1 , F2 , . . . , Fk s¡ dystrybuantami, wówczas funkcja F zdeniowana przez 2.2.1 jest dystrybuant¡
ª¡czn¡ o dystrybuantach brzegowych F1 , F2 , . . . , Fk .
Równanie 2.2.1 pozwala nam bezpo±rednio wyrazi¢ dystrybuant¦ ª¡czn¡ poprzez funkcj¦ kopuli oraz dystrybuanty brzegowe. Z punktu widzenia dalszych rozwa»a«, u»yteczne byªoby dla nas posiadanie równie» mo»liwo±ci
wyra»enia funkcji kopuli poprzez dystrybuant¦ ª¡czn¡ oraz dystrybuanty brzegowe. Oczywi±cie równanie 2.2.1
pokrywa równie» ten przypadek. Wystarczy zauwa»y¢, »e mo»emy je przeksztaªci¢ do postaci
C (u) = F F1−1 (u1 ) , F2−1 (u2 ) , . . . , Fk−1 (uk ) ,
poprzez zastosowanie podstawienia u = (u1 , u2 , . . . , uk ) = (F1 (x1 ) , F2 (x2 ) , . . . , Fk (xk )) . Wartym odnotowania
jest tutaj pojawienie si¦ odwrotno±ci dystrybuant brzegowych, ograniczaj¡ce stosowalno±¢ powy»szego wzoru
do przypadku w którym dystrybuanty te s¡ ±ci±le rosn¡ce. Ograniczenie to mo»na ªatwo obej±¢ wprowadzaj¡c
poj¦cie quasi-odwrotno±ci. My jednak nie b¦dziemy tego robi¢, poniewa» w caªej pracy operowa¢ chcemy tylko
na dystrybuantach ±ci±le rosn¡cych.
9
Pozostaj¡c przy oznaczeniach przyj¦tych w twierdzeniu Sklara zauwa»my natomiast, »e z poj¦ciem dystrybuanty
nieodzownie zwi¡zane jest oczywi±cie równie» poj¦cie zmiennej losowej. Niech zatem X1 , X2 , . . . , Xk oznaczaj¡
zmienne losowe o dystrybuantach odpowiednio F1 , F2 , . . . , Fk oraz dystrybuancie ª¡cznej F. Wówczas, w
terminach zmiennych losowych, kopul¦ C b¦dziemy mogli oznaczy¢ symbolem CX1 X2 ···Xk oraz nazwa¢ j¡ kopul¡
zmiennych losowych X1 , X2 , . . . , Xk .
Zwró¢my uwag¦ równie» na to, »e czasami bardziej ni» na dystrybuantach b¦dziemy chcieli operowa¢ na g¦sto±ciach rozkªadów prawdopodobie«stwa. Przyjmijmy, »e symbolem f oznaczymy g¦sto±¢ zwi¡zan¡ z dystrybuant¡ F, natomiast symbolami f1 , f2 , . . . , fk g¦sto±ci zwi¡zane z dystrybuantami F1 , F2 , . . . , Fk . Wówczas
ró»niczkuj¡c wzór 2.2.1 otrzymamy
∂k
F (x1 , x2 , . . . , xk )
∂x1 ∂x2 · · · ∂xk
f (x1 , x2 , . . . , xk )
∂k
C (F1 (x1 ) , F2 (x2 ) , . . . , Fk (xk )) ,
∂x1 ∂x2 · · · ∂xk
k
Y
= c (F1 (x1 ) , F2 (x2 ) , . . . , Fk (xk ))
fi (xi ) ,
=
(2.2.2)
i=1
gdzie
• c (u1 , u2 , . . . , uk ) =
∂k
∂u1 ∂u2 ···∂uk C
(u1 , u2 , . . . , uk ) .
Funkcj¦ c okre±la¢ b¦dziemy mianem g¦sto±ci kopuli C. O g¦sto±ci tej sformuªowa¢ mo»emy poni»sze twierdzenie.
Twierdzenie 3. G¦sto±¢ k-kopuli istnieje prawie wsz¦dzie we wn¦trzu zbioru Ik oraz jest nieujemna.
W modelowaniu zagadnie« ekonometrycznych cz¦sto wykorzystywane s¡ rozkªady warunkowe warunkowane na
przykªad zachowaniem modelowanego procesu w przeszªo±ci. Stwierdzenie to jest w szczególno±ci prawdziwe w
odniesieniu do zagadnie« omawianych w kolejnych rozdziaªach niniejszej pracy. Dlatego te» wartym zauwa»enia
jest dla nas fakt, »e wzór 2.2.1 daje si¦ rozszerzy¢ na przypadek warunkowy. Rozszerzenie takie znale¹¢ mo»emy
w szczególno±ci w pracy Pattona [35] w postaci wzoru
F (x1 , x2 , . . . , xk | F ) = C (F1 (x1 | F ) , F2 (x2 | F ) , . . . , Fk (xk | F ) | F ) ,
(2.2.3)
gdzie F jest pewnym zbiorem warunków. Funkcje warunkowych dystrybuant 1-wymiarowych F1 , F2 , . . . , Fk ,
jak równie» warunkowej dystrybuanty k-wymiarowej oraz warunkowej kopuli C deniuje si¦ tu w analogiczny
sposób jak ich bezwarunkowe odpowiedniki. Na przypadek ten przenosz¡ si¦ równie» bez problemu wszystkie
przedstawione dotychczas wnioski z twierdzenia Sklara.
Ostatni¡ wart¡ naszej uwagi wªa±ciwo±ci¡ kopul jest ich niezmienniczo±¢ wzgl¦dem przeksztaªce« ±ci±le rosn¡cych. Wi¡»e si¦ ona w szczególno±ci z mo»liwo±ci¡ wyra»ania miar zale»no±ci zmiennych losowych w terminach
funkcji kopuli, a formalnie jej tre±¢ przedstawi¢ mo»na w postaci poni»szego twierdzenia.
Twierdzenie 4. Niech X1 , X2 , . . . , Xk b¦d¡ ci¡gªymi zmiennymi losowymi o funkcji kopuli CX1 X2 ···Xk , natomiast α1 , α2 , . . . , αk funkcjami ±ci±le rosn¡cymi. Wówczas
Cα1 (X1 )α2 (X2 )···αk (Xk ) = CX1 X2 ···Xk .
Innymi sªowy kopula CX1 X2 ···Xk jest niezmiennicza wzgl¦dem ±ci±le rosn¡cych przeksztaªce« zmiennych losowych
X1 , X2 , . . . , Xk .
10
2.3 Miary zale»no±ci
W modelu reprezentowanym wzorem 2.2.1 oraz w jego wersji warunkowej 2.2.3 funkcja kopuli peªni rol¦ elementu odzwierciedlaj¡cego struktur¦ zale»no±ci wyst¦puj¡cych mi¦dzy zmiennymi losowymi. Zale»no±ci te, w
sposób syntetyczny opisa¢ mo»emy równie» za pomoc¡ miar (wspóªczynników) zale»no±ci, które przedstawimy
w niniejszej sekcji. Naturalnym wydaje si¦, »e pomi¦dzy obiektami peªni¡cymi podobn¡ rol¦, jak kopule oraz
miary zale»no±ci, wyst¦powa¢ powinny pewne zwi¡zki. W istocie zwi¡zki takie istniej¡ i pozwalaj¡ nam wyrazi¢
miary zale»no±ci w terminach funkcji kopuli. Omówienie ich b¦dzie jednym z istotniejszych zagadnie« tutaj
poruszanych.
W sekcji tej przedstawimy dwa klasyczne oraz dobrze znane wspóªczynniki zale»no±ci zmiennych losowych,
którymi niew¡tpliwie s¡
• wspóªczynnik korelacji liniowej oraz
• wspóªczynnik ρ Spearmana.
Wspóªczynniki te wyrazimy w uj¦ciu probabilistycznym oraz przedstawimy zwi¡zki ª¡cz¡ce je z funkcjami kopuli.
2.3.1 Wspóªczynnik korelacji liniowej
Niech dany b¦dzie wektor losowy (X1 , X2 ) niezdegenerowanych zmiennych losowych o sko«czonych wariancjach.
Wówczas wspóªczynnikiem korelacji liniowej lub wspóªczynnikiem korelacji Pearsona tego wektora
nazwiemy
Cov (X1 , X2 )
p
.
ρ (X1 , X2 ) = p
Var (X1 ) Var (X2 )
(2.3.1)
Korelacja liniowa jak wynika z samej jej nazwy jest miar¡ zale»no±ci liniowej mi¦dzy zmiennymi losowymi.
Przyjmuje ona warto±ci z przedziaªu [−1, 1] , których interpretacja jest nast¦puj¡ca:
• ρ (X1 , X2 ) = 1 oznacza peªn¡ zale»no±¢ liniow¡ o dodatnim wspóªczynniku kierunkowym zmiennych losowych X1 i X2 ,
• ρ (X1 , X2 ) ∈ (0, 1) oznacza przybli»on¡ zale»no±¢ liniow¡ o dodatnim wspóªczynniku kierunkowym zmiennych losowych X1 i X2 , tym silniejsz¡, im ρ (X1 , X2 ) bli»sze jest 1,
• ρ (X1 , X2 ) = 0 oznacza peªn¡ niezale»no±¢ liniow¡ zmiennych losowych,
• ρ (X1 , X2 ) ∈ (−1, 0) oznacza przybli»on¡ zale»no±¢ liniow¡ o ujemnym wspóªczynniku kierunkowym zmiennych losowych X1 i X2 , tym silniejsz¡, im ρ (X1 , X2 ) bli»sze jest −1,
• ρ (X1 , X2 ) = −1 oznacza peªn¡ zale»no±¢ liniow¡ o ujemnym wspóªczynniku kierunkowym zmiennych
losowych X1 i X2 .
Nale»y tutaj zauwa»y¢, »e niezale»no±¢ zmiennych losowych gwarantuje nam w szczególno±ci ich niezale»no±¢
liniow¡, jednak niezale»no±¢ liniowa nie gwarantuje oczywi±cie niezale»no±ci jako takiej. Poj¦cia te s¡ sobie
równowa»ne tylko w pewnym specycznym przypadku, o którym mówi poni»sze stwierdzenie.
Stwierdzenie 5. Niech (X1 , X2 ) b¦dzie wektorem losowym o gaussowskim rozkªadzie ª¡cznym. Wówczas zmienne
losowe X1 oraz X2 s¡ niezale»ne wtedy i tylko wtedy, gdy ρ (X1 , X2 ) = 0.
Wartym odnotowania jest, »e stwierdzenie powy»sze przestaje by¢ prawdziwe, je±li gaussowskie s¡ tylko dystrybuanty brzegowe, natomiast dystrybuanta ª¡czna ju» nie. Podobnie nie jest ono prawdziwe dla »adnego
innego rozkªadu pochodz¡cego z rodziny rozkªadów eliptycznych, z której to pochodzi w szczególno±ci rozkªad
gaussowski.
Przytoczmy jeszcze jeden dobrze znany fakt, zwi¡zany ze wspóªczynnikiem korelacji liniowej.
11
Stwierdzenie 6. Niech (X1 , X2 ) b¦dzie wektorem losowym niezdegenerowanych zmiennych losowych o sko«czonych wariancjach, natomiast α1 i α2 ±ci±le rosn¡cymi przeksztaªceniami liniowymi. Wówczas
ρ (α1 (X1 ) , α2 (X2 )) = ρ (X1 , X2 ) ,
tzn. wspóªczynnik korelacji liniowej jest niezmienniczy wzgl¦dem ±ci±le rosn¡cych przeksztaªce« liniowych.
Opisuj¡c wspóªczynnik korelacji liniowej nie sposób nie wspomnie¢ o pewnych problemach z nim zwi¡zanych,
istotnych zarówno z ogólnego jak i ekonometrycznego punku widzenia. Krytyk¦ tego wspóªczynnika znale¹¢
mo»na mi¦dzy innymi w pracach [9], [14] oraz [29], jak równie» nie wprost w ksi¡»ce [5]. Poni»ej przytoczone
zostaªy najistotniejsze problemy o których mo»na w nich przeczyta¢.
• Jak zostaªo ju» zauwa»one, zerowa warto±¢ wspóªczynnika korelacji liniowej nie gwarantuje, »e jedna
ze zmiennych losowych nie mo»e by¢ funkcj¡ drugiej. Innymi sªowy, poza przypadkiem gaussowskim,
zmienne losowe mog¡ by¢ zale»ne mimo zerowej warto±ci korelacji liniowej. Prowadzi¢ to mo»e do bª¦dów
w interpretacji wspóªczynnika.
• Wspóªczynnik korelacji liniowej jest niezmienniczy tylko wzgl¦dem ±ci±le rosn¡cych przeksztaªce« liniowych, nie za± wzgl¦dem dowolnych przeksztaªce« ±ci±le rosn¡cych. Przykªadowo zatem, wspóªczynnik
nasz mo»e mie¢ inn¡ warto±¢ dla zmiennych losowych po zastosowaniu na nich przeksztaªcenia logarytmicznego i przed zastosowaniem tego przeksztaªcenia.
• Zaªo»enie sko«czonej wariancji zmiennych losowych mo»e prowadzi¢ do problemów, przy próbie zastosowania wspóªczynnika korelacji liniowej do rozkªadów o ci¦»kich ogonach. Jest to oczywi±cie konsekwencj¡
tego, »e wariancja w rozkªadach tych d¡»y do niesko«czono±ci.
Pomimo wymienionych niedoci¡gni¦¢ przedstawianego wspóªczynnika, jest on nadal cz¦sto i powszechnie wykorzystywan¡ miar¡ zale»no±ci zmiennych losowych, którego siªa ujawnia si¦ przy analizowaniu danych o rozkªadzie
gaussowskim. Danymi wªa±nie tego typu b¦dziemy w du»ej mierze zajmowali si¦ w kolejnych rozdziaªach pracy.
2.3.2 Wspóªczynnik ρ Spearmana
Rozwa»my wektor losowy (X1 , X2 ) , którego wspóªrz¦dnymi s¡ zmienne losowe pochodz¡ce z rozkªadów ci¡gªych
o dystrybuantach odpowiednio F1 i F2 . Wspóªczynnikiem ρ Spearmana tego wektora nazwiemy
ρS (X1 , X2 ) = ρ (F1 (X1 ) , F2 (X2 )) ,
(2.3.2)
gdzie
• ρ (·, ·) jest wspóªczynnikiem korelacji Pearsona.
Wspóªczynnik ρ Spearmana z funkcj¡ kopuli wi¡»e zale»no±¢, która sprecyzowana zostaªa w postaci poni»szego
twierdzenia.
Twierdzenie 7. Niech X1 i X2 b¦d¡ ci¡gªymi zmiennymi losowymi o funkcji kopuli C. Wówczas wspóªczynnik
ρ Spearmana zmiennych losowych X1 i X2 wyrazi¢ mo»na wzorem
ˆ
1
ˆ
1
ρS (X1 , X2 ) = 12
0
C (u, v) dudv − 3
(2.3.3)
uvdC (u, v) − 3.
(2.3.4)
0
lub równowa»nie
ˆ
1
ˆ
ρS (X1 , X2 ) = 12
0
1
0
12
Natychmiastowym wnioskiem z powy»szego twierdzenia, wynikaj¡cym z równania 2.3.3, jest równanie
ρS (X1 , X2 ) = 12E (C (U1 , U2 )) − 3,
w którym U1 i U2 to niezale»ne zmienne losowe o rozkªadzie U (0, 1) .
Drugi wniosek uzyska¢ mo»emy przypominaj¡c sobie, »e kopula mo»e by¢ interpretowana jako dystrybuanta
ª¡czna, której dystrybuanty brzegowe pochodz¡ z rozkªadu U (0, 1) . Stosuj¡c równanie 2.3.4 dostajemy wówczas
oczywi±cie
ρS (X1 , X2 ) = 12E (U1 U2 ) − 3,
gdzie
• U1 i U2 to zmienne losowe o rozkªadzie U (0, 1) , których dystrybuant¡ ª¡czn¡ jest C.
Ciekaw¡ interpretacj¦ wspóªczynnika ρ Spearmana daje nam przeksztaªcenie wzoru 2.3.3 do postaci
ˆ
1
ˆ
1
(C (u, v) − Π (u, v)) dudv,
ρS (X1 , X2 ) = 12
0
0
gdzie
• Π (u, v) = uv jest kopul¡ dla której udowodni¢ mo»na, »e charakteryzuje ona zmienne niezale»ne.
Posta¢ powy»sza pozwala spojrze¢ na ten wspóªczynnik jako na ±redni¡ odlegªo±¢ zale»no±ci ª¡cz¡cych zmienne
losowe X1 i X2 reprezentowanych przez kopul¦ C, od niezale»no±ci reprezentowanej za pomoc¡ kopuli Π.
Ko«cz¡c omawianie wspóªczynnika ρ Spearmana warto zwróci¢ uwag¦ na to, »e wspóªczynnik ten zalicza si¦
do rodziny miar zgodno±ci, czyli miar posiadaj¡cych wszystkie wªasno±ci, jakich oczekuje si¦ od dobrej miary
zale»no±ci. Jest to jedna z zalet wspóªczynnika ρ Spearmana, której pozbawiony jest wspóªczynnik korelacji
liniowej nie nale»¡cy do wspomnianej rodziny.
2.4 Estymacja parametrów
Znaj¡c ju» dobrze i rozumiej¡c poj¦cie kopuli, zajmiemy si¦ teraz kluczowym dla dalszej cz¦±ci pracy zagadnieniem jej estymacji. Opis tego zagadnienia podzielimy na dwie zasadnicze cz¦±ci. W pierwszej z nich opiszemy
klasyczn¡ metod¦ najwi¦kszej wiarogodno±ci (NW, ang. ML). W naszym przypadku praktyczne zastosowanie
tej metody, z racji zbyt du»ego obci¡»enia obliczeniowego, jest nierealne. Stanowi ona jednak dogodny teoretyczny punkt wyj±cia do wprowadzenia bazuj¡cej na niej oraz powszechnie stosowanej w praktyce metody
rozkªadów brzegowych (RB, ang. IFM), b¦d¡cej tematem drugiej cz¦±ci tej sekcji.
Obie wspomniane tu metody nale»¡ do rodziny parametrycznych metod estymacji. W zwi¡zku z tym, na ich
potrzeby zaªo»ymy, »e estymowana funkcja kopuli ma pewn¡ odgórnie narzucon¡ posta¢, charakteryzowan¡
przez nieznany parametr θ (mog¡cy w szczególno±ci by¢ parametrem wielowymiarowym). W procesie estymacji
b¦dziemy zainteresowani dobraniem tego parametru w sposób mo»liwie optymalny.
Parametr θ b¦dziemy zazwyczaj umieszczali w indeksie dolnym kopuli lub w nawiasach okr¡gªych zaraz po argumentach kopuli, oddzielony od tych argumentów ±rednikiem, tzn. Cθ (u1 , u2 , . . . , uk ) lub C (u1 , u2 , . . . , uk ; θ) .
Zbiór {Cθ : θ ∈ Θ} , gdzie Θ jest zbiorem wszystkich dopuszczalnych warto±ci parametru θ, b¦dziemy nazywali rodzin¡ kopul parametryzowan¡ parametrem θ. Cz¦sto mówi¡c o rodzinie kopul b¦dziemy pisali
Cθ (u1 , u2 , . . . , uk ) lub C (u1 , u2 , . . . , uk ; θ) zamiast {Cθ : θ ∈ Θ} w celu skrócenia zapisu.
13
2.4.1 Metoda najwi¦kszej wiarogodno±ci
n
Niech dana b¦dzie pewna rodzina kopul C (u1 , u2 , . . . , uk ; θ c ) oraz próba losowa {(x1,i , x2,i , . . . , xk,i )}i=1 niezale»nych obserwacji pochodz¡ca z rozkªadu o g¦sto±ci ª¡cznej f (x1 , x2 , . . . , xk ; θ) i g¦sto±ciach brzegowych
fj (xj ; θ j ) , j = 1, 2, . . . , k. Przypominaj¡c sobie wprowadzony w sekcji 2.2 wzór 2.2.2 wszystkie wymienione
obiekty poª¡czy¢ mo»emy relacj¡
f (x1 , x2 , . . . , xk ; θ) = c (F1 (x1 ; θ 1 ) , F2 (x2 ; θ 2 ) , . . . , Fk (xk ; θ k ) ; θ c ) ·
k
Y
fj (xj ; θ j ) ,
(2.4.1)
j=1
gdzie
• c (u1 , u2 , . . . , uk ; θ c ) =
∂ n C(u1 ,u2 ,...,uk ;θ c )
∂u1 ∂u2 ...∂uk
oraz θ = (θ 1 , θ 2 , . . . , θ k , θ c ) .
Zdeniujmy funkcj¦ wiarogodno±ci jako
L (θ) =
n
Y
f (x1,i , x2,i , . . . , xk,i ; θ)
i=1
oraz odpowiadaj¡c¡ jej funkcj¦ log-wiarogodno±ci jako
(2.4.2)
` (θ) = log L (θ) .
Estymatorem najwi¦kszej wiarogodno±ci parametru θ nazwiemy taki estymator θ̂N W tego parametru,
którego pojawienie si¦ jest najbardziej prawdopodobne w kontek±cie posiadanej próby. Innymi sªowy jest to
estymator speªniaj¡cy
(2.4.3)
θ̂ N W = arg max L (θ) = arg max ` (θ) .
θ
θ
Podstawiaj¡c do 2.4.2 równanie 2.4.1 oraz wykonuj¡c kilka prostych przeksztaªce« mo»emy wyrazi¢ funkcj¦
log-wiarogodno±ci jako
` (θ) =
n
X
log (c (F1 (x1,i ; θ 1 ) , F2 (x2,i ; θ 2 ) , . . . , Fk (xk,i ; θ k ) ; θ c )) +
i=1
k X
n
X
log (fj (xj,i ; θ j )) .
(2.4.4)
j=1 i=1
Zatem estymatorem najwi¦kszej wiarogodno±ci dla modelu kopuli jest taki estymator θ̂ N W , »e

θ̂ N W = arg max 
θ
n
X
log (c (F1 (x1,i ; θ 1 ) , F2 (x2,i ; θ 2 ) , . . . , Fk (xk,i ; θ k ) ; θ c )) +
i=1
n
k X
X

log (fj (xj,i ; θ j )) .
j=1 i=1
Estymator ten, pod warunkiem speªniania przez g¦sto±¢ pewnych czysto technicznych warunków regularno±ci zebranych mi¦dzy innymi w pracy [39], posiada szereg wygodnych wªasno±ci statystycznych. Jest on estymatorem
zgodnym oraz asymptotycznie efektywnym. Speªnia równie» warunek asymptotycznej normalno±ci
√ d
n θ̂ N W − θ −→ Np 0, F −1 (θ) ,
gdzie
• F (θ) jest macierz¡ informacyjn¡ Fishera.
Nale»y zauwa»y¢, »e pomimo licznych zalet jakie posiada klasyczny estymator najwi¦kszej wiarogodno±ci, ma on
pewn¡ niezwykle istotn¡ z naszego punktu widzenia wad¦. Mianowicie w jego przypadku estymacja wszystkich
parametrów modelu (zarówno zwi¡zanych z funkcj¡ kopuli, jak równie» z rozkªadami brzegowymi) odbywa si¦
w jednym kroku. W przypadku modeli, których rozkªady brzegowe opisuje liczny zbiór parametrów, podej±cie
takie staje si¦ nazbyt obci¡»aj¡ce obliczeniowo, aby mogªo zosta¢ zastosowane w praktyce. Dlatego te» w
kolejnej podsekcji pacy przedstawimy modykacj¦ opisanej tu metody, która przy pewnym osªabieniu jako±ci
uzyskanego estymatora pozwala na rozwi¡zanie wspomnianego problemu.
14
2.4.2 Metoda rozkªadów brzegowych
Zwró¢my uwag¦, i» funkcja log-wiarogodno±ci 2.4.4 w wyra¹ny sposób dzieli si¦ na dwie zasadnicze cz¦±ci:
` (θ) =
n
X
log (c (F1 (x1,i ; θ 1 ) , F2 (x2,i ; θ 2 ) , . . . , Fk (xk,i ; θ k ) ; θ c )) +
i=1
n X
k
X
log (fj (xj,i ; θ j )).
i=1 j=1
|
{z
1
}
|
{z
2
}
1 Cz¦±¢ zwi¡zan¡ z estymacj¡ parametrów kopuli i parametrów brzegowych.
2 Cz¦±¢ skupiaj¡c¡ si¦ wyª¡cznie na estymacji parametrów rozkªadów brzegowych.
Podziaª taki w naturalny sposób sugeruje mo»liwo±¢ rozdzielenia procesu estymacji na dwa etapy, bezpo±rednio powi¡zane z powy»szymi cz¦±ciami. Pierwszy z nich polegaªby na osobnej estymacji parametrów ka»dego
z rozkªadów brzegowych. Drugi natomiast, wykorzystuj¡c wyniki pierwszego, miaªby na celu estymacj¦ parametrów kopuli. Takie wªa±nie dwuetapowe podej±cie do zagadnienia estymacji okre±la¢ b¦dziemy mianem
metody rozkªadów brzegowych. Metoda ta po raz pierwszy zaprezentowana zostaªa w pracy [22], z której
w szczególno±ci zaczerpni¦ty zostaª jej poni»szy formalny opis.
1. Estymujemy metod¡ najwi¦kszej wiarogodno±ci parametry θ j , j = 1, 2, . . . , k, ka»dego z rozkªadów brzegowych
n
X
θ̂ j = arg max `j (θ j ) = arg max
log (fj (xj,i ; θ j )) , j = 1, 2, . . . , k.
θj
θj
i=1
2. Wykorzystuj¡c θ̂ 1 , θ̂ 2 , . . . , θ̂ k estymujemy metod¡ najwi¦kszej wiarogodno±ci parametry kopuli
n
X
θ̂ c = arg max `c (θ c ) = arg max
log c F1 x1,i ; θ̂ 1 , F2 x2,i ; θ̂ 2 , . . . , Fk xk,i ; θ̂ k ; θ c .
θc
θc
i=1
Otrzymany w efekcie zastosowania metody rozkªadów brzegowych estymator
θ̂ RB = θ̂ 1 , θ̂ 2 , . . . , θ̂ k , θ̂ c
nazywa¢ b¦dziemy estymatorem metody rozkªadów brzegowych. Zauwa»my, »e estymator ten mo»emy
przedstawi¢ analitycznie jako rozwi¡zanie ukªadu równa«
∂`k ∂`c
∂`1 ∂`2
,
,...,
,
= 0,
∂θ 1 ∂θ 2
∂θ k ∂θ c
kiedy tymczasem estymator metody najwi¦kszej wiarogodno±ci stanowi rozwi¡zanie ukªadu równa«
∂` ∂`
∂` ∂`
,
,...,
,
= 0.
∂θ 1 ∂θ 2
∂θ k ∂θ c
W ogólno±ci zatem estymator θ̂ RB nie musi by¢ równy estymatorowi θ̂ N W . Mimo tej rozbie»no±ci, cechuje si¦
on jednak zbli»onymi do estymatora tego wªasno±ciami statystycznymi. Mianowicie, przy zaªo»eniu speªnienia
wspomnianych ju» wcze±niej warunków regularno±ci przez kopul¦ oraz rozkªady brzegowe, estymator θ̂ RB jest
estymatorem spójnym. Estymator ten speªnia równie» warunek asymptotycznej normalno±ci
√ n θ̂ RB − θ → N 0, G −1 (θ) ,
gdzie G (θ) jest macierz¡ informacyjn¡ Godamble'a deniowan¡ jako
0
G (θ) = D −1 V D −1 ,
(2.4.5)
przy
• D=E
h
∂s(θ)
∂θ
i
,
0
• V = E s (θ) (s (θ)) ,
∂`k ∂`c
∂`1 ∂`2
,
,
.
.
.
,
,
• s (θ) = ∂θ
∂θ k ∂θ c .
1 ∂θ 2
Jak pokazaªy badania symulacyjne (ksi¡»ka [23]), równie» efektywno±¢ estymatora metody rozkªadów brzegowych w porównaniu z efektywno±ci¡ estymatora najwi¦kszej wiarogodno±ci cz¦sto wypada bardzo korzystnie.
15
2.5 Kopule gaussowskie
Zajmiemy si¦ teraz przybli»eniem szczególnie dla nas interesuj¡cej, bo wykorzystywanej w dalszej cz¦±ci pracy,
rodziny kopul gaussowskich (normalnych). Wprowadzimy denicje tego typu kopul oraz zbadamy podstawowe
ich wªasno±ci. Przedstawimy równie» ciekaw¡ zale»no±¢, która w ich przypadku ª¡czy wspóªczynnik korelacji
liniowej ze wspóªczynnikiem ρ Spearmana.
Przyjmijmy na wst¦pie oznaczenie Φ (x) na dystrybuant¦ standardowego rozkªadu normalnego N (0, 1) oraz
zdeniujmy zα = Φ−1 (α) . Oznaczmy równie» symbolem ΦR (x1 , x2 , . . . , xk ) dystrybuant¦ k-wymiarowego standardowego rozkªadu normalnego o macierzy korelacji liniowych R.
g
Denicja 8. Kopul¡ gaussowsk¡ (normaln¡) o macierzy korelacji liniowych R nazwiemy tak¡ kopul¦ CR
,
»e
g
CR
(u1 , u2 , . . . , uk ) = ΦR (zu1 , zu2 , . . . , zuk ) .
(2.5.1)
Wprowadzony w denicji wzór 2.5.1 rozwin¡¢ mo»na do cz¦sto spotykanej w literaturze postaci
g
CR
(u1 , u2 , . . . , uk ) =
ˆ
1
k/2
(2π)
ˆ
zu1
···
1/2
|R|
−∞
zuk
1
0
e− 2 s R
−1
s
ds1 · · · dsk ,
−∞
gdzie
• s = (s1 , s2 , . . . , sk ) .
W szczególno±ci dla k = 2 wzór ten sprowadza si¦ do postaci
Cρg (u1 , u2 ) =
1
2π
p
1 − ρ2
ˆ
zu1
ˆ
zu2
e
−∞
2
2ρs1 s2 −s2
1 −s2
2(1−ρ2 )
ds1 ds2 ,
−∞
gdzie
• ρ jest wspóªczynnikiem korelacji liniowej.
Przypadek ρ = 0.4 powy»szego wzoru zobrazowany zostaª na rysunku 2.3.
Rysunek 2.3: Kopula gaussowska o wspóªczynniku korelacji liniowej ρ = 0.4.
16
(2.5.2)
Przypominaj¡c sobie wprowadzony wcze±niej wzór 2.2.2, g¦sto±¢ k-wymiarowej kopuli gaussowskiej wyznaczy¢
mo»emy w oparciu o równo±¢
1
1
0
e− 2 x R
k/2
1/2
(2π) |R|
−1
x
= cgR (Φ (x1 ) , . . . , Φ (xk ))
k
Y
i=1
1
(2π)
1
1/2
2
e− 2 xi ,
która w efekcie prostych przeksztaªce« pozwala nam uzyska¢ wzór
cgR (u1 , . . . , uk ) =
1
1/2
|R|
−1
1 0
e− 2 ς (R −I )ς ,
gdzie
0
• ς = (zu1 , zu2 , . . . , zuk ) .
Oczywi±cie dla przypadku k = 2 wzór ten upraszcza si¦ do postaci
ρ
1
(2zu1 zu2 −ρzu2 1 −ρzu2 2 )
cgρ (u1 , u2 ) = p
e 2(1−ρ2 )
.
1 − ρ2
Przykªadow¡ 2-wymiarow¡ g¦sto±¢ kopuli gaussowskiej o wspóªczynniku korelacji ρ = 0.4 przedstawia rysunek
2.4.
Rysunek 2.4: G¦sto±¢ kopuli gaussowskiej o wspóªczynniku korelacji liniowej ρ = 0.4.
W oparciu o funkcj¦ g¦sto±ci cgρ mo»emy w szczególno±ci wysnu¢ kilka wniosków co do zachowania si¦ obserwacji
pochodz¡cych z rozkªadu kopuli gaussowskiej. Wnioski te sformuªowane zostaªy w postaci poni»szych stwierdze«.
• Je»eli ρ > 0, to obserwacje maj¡ tendencj¦ do skupiania si¦ wokóª przek¡tnej y = x, x ∈ I kwadratu
jednostkowego I2 natomiast je»eli ρ < 0, to wokóª przek¡tnej y = 1 − x, x ∈ I kwadratu jednostkowego I2 .
• Obserwacje tym silniej skupiaj¡ si¦ wokóª odpowiedniej przek¡tnej, im ρ bli»sze jest 1 co do warto±ci
bezwzgl¦dnej. W szczególno±ci
dla |ρ| = 1 wszystkie obserwacje le»¡ na przek¡tnej,
dla ρ = 0 nie istnieje »aden zwi¡zek pomi¦dzy obserwacjami oraz przek¡tn¡, obserwacje rozkªadaj¡
si¦ równomiernie na caªym kwadracie jednostkowym I2 .
17
• Wraz ze zbli»aniem si¦ do ko«ców przek¡tnej wzrasta zag¦szczenie obserwacji oraz maleje ich ±rednia
odlegªo±¢ od niej.
Na rysunku 2.5 przedstawione zostaªy próby losowe wygenerowane z rozkªadów kopul gaussowskich o ró»nych
warto±ciach wspóªczynnika korelacji liniowej ρ. Pozwalaj¡ nam one zobaczy¢, jak wymienione powy»ej stwierdzenia przekªadaj¡ si¦ na przykªadowe dane.
Rysunek 2.5: Próby losowe pochodz¡ce z rozkªadu kopul normalnych dla ró»nych warto±ci wspóªczynnika korelacji liniowej ρ.
Przedstawione dotychczas wzory na kopule gaussowsk¡ oraz jej g¦sto±¢ pokazuj¡, »e naturalnym parametrem
opisuj¡cym kopule tego typu jest wspóªczynnik korelacji liniowej ρ. Z uwagi jednak na wymienione ju» wcze±niej
jego wady, warto zastanowi¢ si¦ nad tym, jak ewentualnie mógªby on zosta¢ zast¡piony przez inn¡ zaproponowan¡ przez nas w pracy miar¦ zale»no±ci, jak¡ jest wspóªczynnik ρ Spearmana. Prost¡ odpowied¹ na to
pytanie daje nam publikacja [32], jak równie» ksi¡»ka [10]. Wykazano tam w szczególno±ci, »e ρ Spearmana, w
kontek±cie kopul normalnych daje si¦ wyrazi¢ jako funkcja korelacji liniowej ρ postaci
ρS (X1 , X2 ) =
ρ (X1 , X2 )
6
arcsin
.
π
2
18
(2.5.3)
Rozdziaª 3
Model AR-GARCH
Zastosowanie w modelowaniu statystycznym funkcji kopuli, jak ju» byªo to kilkukrotnie podkre±lane, umo»liwia
rozdzielenie wielowymiarowego modelu statystycznego na jednowymiarowe modele brzegowe oraz spajaj¡c¡ je
i opisuj¡c¡ zale»no±ci mi¦dzy nimi t¡ wªa±nie funkcj¦. Funkcje kopuli w interesuj¡cym nas zakresie opisali±my
ju» dokªadnie w rozdziale 2 pracy i nie b¦dziemy po±wi¦ca¢ jej wi¦cej uwagi. Skupimy si¦ teraz natomiast nad
wprowadzeniem modelu jednowymiarowego, który planujemy w poª¡czeniu z ni¡ zastosowa¢, czyli dokªadniej
mówi¡c modelu AR (1) − GARCH (1, 1) o bª¦dach pochodz¡cych z rozkªadu sko±nego t-Studenta.
W pierwszej kolejno±ci zajmiemy si¦ zagadnieniem formalnego zdeniowania modelu AR (1) − GARCH (1, 1) .
Nast¦pnie szczegóªowo wprowadzimy standaryzowany rozkªad sko±ny t-Studenta, który wykorzysta¢ b¦dziemy
chcieli do opisu bª¦dów naszego modelu. Na zako«czenie za± zgª¦bimy zagadnienie estymacji parametrów modelu
z wykorzystaniem metody quasi-najwi¦kszej wiarogodno±ci.
W trakcie omawiania tematyki zawartej w niniejszym rozdziale kilkukrotnie korzysta¢ b¦dziemy z tak zwanej
delty Kroneckera. Obiekt ten, to dwuargumentowa funkcja oznaczana zazwyczaj symbolem δi,j , przyjmuj¡ca
warto±¢ 1 w przypadku, gdy i = j oraz 0 w przeciwnym przypadku, tzn.
(
δs,t =
0, s 6= t,
1, s = t.
3.1 Denicja modelu
W przypadku analizy nansowych szeregów czasowych, cz¦sto zauwa»y¢ mo»na tendencj¦ do grupowania si¦
danych w okresy o wysokiej oraz okresy o niskiej uktuacji. Ekonometryczna oraz nansowa rzeczywisto±¢
nakazuje uzna¢, i» podczas analizy typowych dla tych dziedzin danych, takich jak chocia»by zwroty z indeksów
gieªdowych, cz¦±ciej b¦dziemy mieli do czynienia z wariancj¡ ulegaj¡c¡ ci¡gªym zmianom w czasie, ni» wariancj¡
staª¡. Dlatego te» w ogólnie rozumianej in»ynierii nansowej istnieje silna potrzeba skutecznego modelowania
wariancji zmieniaj¡cej si¦ w czasie.
Odpowiedzi¡ na to zapotrzebowanie byª zaproponowany w 1982 roku przez ameryka«skiego ekonomist¦ Roberta
Engle'a model ARCH ([11]). Uogólniony cztery lata pó¹niej przez du«skiego ekonomist¦ Tima Bollerslev'a do
postaci nazwanej modelem GARCH ([2]). Modele te zyskaªy w ekonometrii i nansach du»¡ popularno±¢ oraz
doczekaªy si¦ licznych dalszych modykacji oraz uogólnie« czynionych na potrzeby konkretnych zastosowa«,
których bogate zestawienie o encyklopedycznym charakterze znale¹¢ mo»na w szczególno±ci w publikacji [4].
W niniejszej pracy do opisu ekonometrycznych szeregów czasowych wybrano model AR (1) − GARCH (1, 1) .
Model ten, jako model klasy GARCH, zapewni nam wygodny sposób modelowania zmieniaj¡cej si¦ w czasie
wariancji. Dodatkowy czªon autoregresyjny natomiast, pozwoli uwzgl¦dni¢ ewentualne zale»no±ci wyst¦puj¡ce
mi¦dzy kolejnymi jego obserwacjami.
Ponadto w modelu naszym zast¡pimy klasycznie wykorzystywany do modelowania bª¦dów w modelach klasy
ARCH rozkªad standardowy normalny rozkªadem sko±nym t-Studenta. Pozwoli nam to uczyni¢ model bardziej
elastycznym, zapewniaj¡c w szczególno±ci narz¦dzie do modelowania sko±no±ci danych. Zagwarantuje równie»
lepsze dopasowanie modelu do ekonometrycznej rzeczywisto±ci, gdy» empiryczne wyniki sugeruj¡, i» rozkªad
bª¦dów w modelach GARCH zasadniczo nie jest rozkªadem normalnym.
19
Denicja 9. Szereg czasowy t dla którego
E (t )
=
0,
Cov (s , t )
=
σ 2 δs,t ,
nazywa¢ b¦dziemy sªabym biaªym szumem.
Denicja 10. Szereg czasowy t niezale»nych zmiennych losowych o tym samym rozkªadzie dla którego zachodzi
E (t )
Var (t )
= 0,
= σ2 ,
nazywa¢ b¦dziemy silnym biaªym szumem.
Zarówno silny jak i sªaby biaªy szum oznacza¢ b¦dziemy w dalszej cz¦±ci pracy symbolem WN 0, σ 2 , który
w pierwszej kolejno±ci, o ile nie zostanie powiedziane inaczej, interpretowa¢ nale»y jako sªaby biaªy szum. W
analogiczny sposób interpretowa¢ nale»y poj¦cie biaªy szum, stanowi¡ce w niniejszej pracy skrót terminu sªaby
biaªy szum. W celu rozró»nienia silnego oraz sªabego biaªego szumu pisa¢ b¦dziemy
• t ∼ WN 0, σ 2 , gdy szereg t jest sªabym biaªym szumem,
• t iid WN 0, σ 2 , gdy szereg t jest silnym biaªym szumem.
Te dwa bardzo proste procesy stochastyczne stanowi¡ podstaw¦ wi¦kszo±ci dobrze znanych i powszechnie stosowanych modeli szeregów czasowych, do których w szczególno±ci zaliczy¢ mo»emy równie» modele typu ARCH.
Denicja 11. Powiemy, »e szereg czasowy εt jest typu GARCH (1, 1), je»eli speªnia on równanie
εt = σt t ,
(3.1.1)
gdzie
• σt =
q
2 , α > 0, α , β ≥ 0,
α0 + α1 ε2t−1 + β1 σt−1
0
1
1
• t iid WN (0, 1) .
Wartym odnotowania jest tutaj fakt, »e model GARCH (1, 1) przy zaªo»eniu stacjonarno±ci mo»e by¢ rozpatrywany jako biaªy szum. Istnieje zatem mo»liwo±¢ traktowania tego procesu jako pewnego specycznego rodzaju
bª¦du losowego, co pozwala ªatwo budowa¢ na jego podstawie bardziej skomplikowane modele.
Denicja 12. Powiemy, »e szereg czasowy rt jest typu AR (1) − GARCH (1, 1) je±li speªnia on równanie
rt = µ + ϕrt−1 + εt ,
(3.1.2)
gdzie
• εt ∼ GARCH (1, 1) .
20
Rysunek 3.1: Biaªy szum typu skew-t (3, 1.2) (skrót obja±niony w sekcji 3.2).
Rysunek 3.2: Szereg czasowy typu GARCH (1, 1) .
21
Przyjmijmy oznacza¢ zbiór informacji dotycz¡cych procesu rt do chwili czasu t symbolem Rt . Dokonuj¡c prostych, acz »mudnych oblicze« mo»emy wykaza¢, »e pierwsze dwa momenty procesu rt warunkowane jego przeszªo±ci¡ Rt−1 wyra»aj¡ si¦ wzorami
E (rt | Rt−1 ) = µ + ϕrt−1 ,
2
E rt2 | Rt−1
= µ2 + 2µϕrt−1 + ϕ2 rt−1
+ σt2 .
Wzory te pozwalaj¡ nam w szczególno±ci wyznaczy¢ warunkow¡ wariancj¦ rt warunkowan¡ przeszªo±ci¡ procesu
Rt−1 jako
Var (rt | Rt−1 ) = σt2 .
Rezultat powy»szy jest typowym wynikiem uzyskiwanym dla procesów klasy ARCH. Pokazuje on naturaln¡
interpretacj¦ σt2 jako warunkowej wariancji procesu rt pod warunkiem przeszªo±ci Rt−1 .
Rysunek 3.3: Szereg czasowy typu AR (1) − GARCH (1, 1) .
3.2 Rozkªad sko±ny t-Studenta
Bazuj¡c na publikacji [12] wprowad¹my jednomodaln¡ oraz symetryczn¡ wzgl¦dem zera funkcj¦ g¦sto±ci f (x) .
Zauwa»my, »e opieraj¡c si¦ na takiej wªa±nie funkcji, jeste±my w stanie wygenerowa¢ klas¦ rozkªadów sko±nych
postaci
2
fγ (x) = f (x; γ) =
γ+
1
γ
x
f (γx) I(−∞,0) (x) + f
I[0,∞) (x) ,
γ
gdzie
• γ > 0 jest parametrem sko±no±ci.
22
(3.2.1)
Przyjmuj¡c oznaczenie Y na zmienn¡ losow¡ maj¡c¡ rozkªad o g¦sto±ci fγ (x) , mo»emy wprowadzi¢ naturaln¡
interpretacj¦ parametru sko±no±ci γ w postaci równo±ci
P (Y ≥ γ)
= γ2.
P (Y < γ)
Oznacza ona dla nas w szczególno±ci, »e je±li
• γ < 1, to rozkªad fγ (x) jest rozkªadem lewostronnie sko±nym,
• γ = 1, to rozkªad fγ (x) jest rozkªadem symetrycznym,
• γ > 1, to rozkªad fγ (x) jest rozkªadem prawostronnie sko±nym.
Jednym z naturalnych przykªadów g¦sto±ci typu f (x) , który b¦dzie dla nas szczególnie interesuj¡cy w dalszej
cz¦±ci pracy, jest g¦sto±¢ standaryzowanego rozkªadu t-Studenta tη (x) postaci
− η+1
2
x2
.
tη (x) = p
1+
η
η−2
π (η − 2)γ 2
Γ
η+1
2
(3.2.2)
Zastosowanie g¦sto±ci tej we wzorze 3.2.1 prowadzi nas do wprowadzenia nast¦puj¡cej denicji.
Denicja 13. Niech X oznacza zmienn¡ losow¡ o rozkªadzie opisanym g¦sto±ci¡ fη,γ (x) . Powiemy, »e zmienna
losowa X ma rozkªad sko±ny t-Studenta, je»eli
fη,γ (x) = f (x; η, γ) =
2
γ+
tη (γx) I(−∞,0) (x) + tη
1
γ
x
I[0,∞) (x) .
γ
(3.2.3)
Odnosz¡c si¦ do wyników zawartych w pracy [30], o zmiennej losowej X z powy»szej denicji powiedzie¢ mo»emy,
»e jej warto±¢ oczekiwana wyra»a si¦ wzorem
m = E (X) =
η−1
2
Γ
√
√
πΓ
η−2
η
2
1
γ−
γ
,
wariancja natomiast jest postaci
s = Var (X) =
2
1
γ + 2 − 1 − m2 .
γ
2
Poniewa» celem naszym jest zaproponowanie rozkªadu modeluj¡cego bª¦dy losowe szeregów czasowych typu
GARCH (1, 1) , chcieliby±my tak przeksztaªci¢ g¦sto±¢ 3.2.3, aby speªniaªa ona warunki
m
=
0,
2
=
1.
s
Cel ten osi¡gn¡¢ mo»emy oczywi±cie dokonuj¡c standaryzacji zmiennej losowej X, czyli innymi sªowy przeksztaªcaj¡c j¡ do postaci
=
X −m
.
s
Efektem przeprowadzenia tej»e standaryzacji jest powstanie g¦sto±ci opisanej w poni»szej denicji.
23
Denicja 14. Niech oznacza zmienn¡ losow¡ o rozkªadzie opisanym g¦sto±ci¡ fη,γ (x) . Powiemy, »e zmienna
losowa ma standaryzowany rozkªad sko±ny t-Studenta, je»eli
fη,γ (x) = f (x; η, γ) =
2s −1
t
(γ
(sx
+
m))
I
(x)
+
t
(x)
.
γ
(sx
+
m)
I
m
m
η
η
(−∞,− s )
[− s ,∞)
γ + γ1
(3.2.4)
Standaryzowany rozkªad sko±ny t-Studenta o η stopniach swobody i wspóªczynniku sko±no±ci γ oznacza¢ b¦dziemy w skrócie symbolem skew-t (η, γ) . Przykªadowe g¦sto±ci rozkªadów tego typu przedstawia rysunek 3.4.
Rysunek 3.4: G¦sto±ci przykªadowych standaryzowanych rozkªadów sko±nych t-Studenta.
Rozkªad ten jest jedn¡ z mo»liwych odpowiedzi na potrzeb¦ generalizacji rozkªadu standardowego normalnego do
postaci umo»liwiaj¡cej modelowanie cz¦stych w in»ynierii nansowej zjawisk, takich jak chocia»by wyst¦powanie
w danych sko±no±ci. Z uwagi na swoje probabilistyczne wªasno±ci ª¡czy si¦ on w wygodny sposób z modelami
klasy ARCH. Jego analityczna posta¢ z kolei pozwala nam wzgl¦dnie ªatwo stosowa¢ go podczas estymacji
metod¡ najwi¦kszej wiarogodno±ci.
Zauwa»my, »e standaryzowany rozkªad sko±ny t-Studenta o η stopniach swobody i parametrze sko±no±ci γ w
pewnych specycznych przypadkach sprowadza si¦ do postaci odpowiadaj¡cej prostszym rodzinom rozkªadów.
• W sytuacji, gdy parametr sko±no±ci γ = 1, standaryzowany rozkªad sko±ny t-Studenta staje si¦ standaryzowanym rozkªadem t-Studenta.
• W sytuacji, gdy parametr sko±no±ci γ = 1 oraz liczba stopni swobody η = ∞, standaryzowany rozkªad
sko±ny t-Studenta odpowiada standardowemu rozkªadowi normalnemu.
3.3 Estymacja parametrów
Zajmiemy si¦ teraz szybkim przybli»eniem zagadnienia estymacji metod¡ quasi-najwi¦kszej wiarogodno±ci parametrów modelu AR (1) − GARCH (1, 1) z bª¦dami opisanymi standaryzowanym rozkªadem sko±nym t-Studenta.
24
W tym celu, wykorzystuj¡c oznaczenia wprowadzone w podsekcji 3.1, zdeniujmy na wst¦pie wektor wszystkich
parametrów przeznaczonych do estymacji
θ = (µ, ϕ, α0 , α1 , β1 , η, γ) ,
gdzie
• µ, ϕ, to parametry zwi¡zane z cz¦±ci¡ AR (1) modelu AR (1) − GARCH (1, 1) ,
• α0 , α1 , β1 , to parametry zwi¡zane z cz¦±ci¡ GARCH (1, 1) modelu AR (1) − GARCH(1, 1) ,
• η, γ, to parametry zwi¡zane ze standaryzowanym rozkªadem sko±nym t-Studenta wykorzystywanym jako
rozkªad bª¦dów losowych.
Zauwa»my, »e model AR (1) − GARCH (1, 1) wprowadzony przez nas w denicji 12 za pomoc¡ równania 3.1.2
równowa»nie wyrazi¢ mo»emy jako
εt = rt − µ − ϕrt−1 .
W celu estymacji jego parametrów b¦dziemy zatem zainteresowani sformuªowaniem funkcji log-wiarogodno±ci
bazuj¡cej na rozkªadzie zmiennych losowych wchodz¡cych w skªad szeregu czasowego εt ∼ GARCH (1, 1) .
Oczywi±cie zgodnie z denicj¡ 11 zmienne te s¡ zmiennymi postaci
(3.3.1)
ε t = σ t t
dla których przyj¦li±my
t iid skew-t (η, γ) .
Zatem w szczególno±ci, warunkuj¡c εt przeszªo±ci¡ procesu Rt−1 , dostajemy
εt | Rt−1 iid skew-tσt2 (η, γ) ,
gdzie przez skew-tσt2 (η, γ) oznacza¢ b¦dziemy rozkªad sko±ny t-Studenta o warto±ci oczekiwanej równej zero i
wariancji σt2 . Korzystaj¡c ze znajomo±ci rozkªadu zmiennych losowych wchodz¡cych w skªad szeregu czasowego
t oraz ze wzoru 3.3.1, rozkªad ten opisa¢ mo»emy za pomoc¡ g¦sto±ci
1
fεt |Rt−1 (x) = ft
σt
x
σt
.
Wykorzystuj¡c z kolei wzór 3.2.4 na g¦sto±¢ standaryzowanego rozkªadu sko±nego t-Studenta oraz wzór 3.2.2 na
g¦sto±¢ standaryzowanego rozkªadu t-Studenta, a nast¦pnie dokonuj¡c pewnych prostych przeksztaªce« dostajemy
Γ
η+1
2
2s 1
fεt |Rt−1 (x) = p
π (η − 2)Γ η2 γ + γ1 σt
gdzie
• zt =
x
σt ,
• Izt = I(−∞,− m ) (zt ) − I[− m ,∞) (zt ) .
s
s
25
2
(szt + m) 2Izt
1+
γ
η−2
!− η+1
2
,
(3.3.2)
Ostatecznie mo»emy wi¦c sformuªowa¢ wzór na warunkow¡ log-wiarogodno±¢ dla modelu AR (1)− GARCH (1, 1)
postaci
` (θ) =
T
X
log fεt |Rt−1 (xt ) ,
t=1
a nast¦pnie, w efekcie dokonania ci¡gu standardowych przeksztaªce«, zapisa¢ j¡ jako
η T
η+1
` (θ) = T log Γ
− log (π (η − 2)) + T log
− T log Γ
2
2
2
!!
T
2
1X
(szt + m) 2Izt
2
.
−
log σt + (η + 1) log 1 +
γ
2 t=1
η−2
2
γ+
!
1
γ
+ T log (s)
Maksymalizacja powy»szej funkcji wzgl¦dem parametru wektorowego θ prowadzi nas do uzyskania estymatora
quasi-najwi¦kszej wiarogodno±ci θ̂ QN W parametrów rozwa»anego przez nas modelu. Estymatory tego typu w
kontek±cie szeregów czasowych klasy ARCH, których rozkªad bª¦dów nie jest rozkªadem normalnym, szeroko i w
sposób ogólny omówiono w pracy [3], natomiast w kontek±cie nieliniowych modeli AR − GARCH, stanowi¡cych
swego rodzaju uogólnienie naszego modelu, w pracy [31]. W szczególno±ci przy speªnieniu zebranych w pracach
tych czysto technicznych warunków regularno±ci wykazano, »e estymator quasi-najwi¦kszej wiarogodno±¢ θ̂ QN W
jest estymatorem zgodnym oraz asymptotycznie normalnym.
26
Rozdziaª 4
Ukryte modele Markowa w kontek±cie
szeregów czasowych
Przygl¡daj¡c si¦ przez chwil¦ trajektorii szeregu czasowego, któr¡ przedstawia rysunek 4.1 natychmiast spostrze»emy, i» jej zachowanie charakteryzuje wyra¹na zmienno±¢ w czasie. W szczególno±ci wyró»ni¢ na niej
mo»na
• trzy obszary niewielkiej zmienno±ci,
• obszar którego zmienno±¢ jest wyra¹nie wi¦ksza w porównaniu z pozostaªymi,
• obszar charakteryzuj¡cy si¦ siln¡ autokorelacj¡ mi¦dzy obserwacjami.
Zachowanie szeregu czasowego z rysunku 4.1 wydaje si¦ zatem w naturalny sposób sugerowa¢, i» zostaª on
otrzymany nie z jednego, lecz z trzech ró»nych modeli, które generowaªy obserwacje naprzemiennie w sposób
nam nieznany. W rzeczy samej szereg ten wygenerowano w efekcie zmiksowania trzech ró»nych modeli klasy
AR (1) − GARCH (1, 1) , które na rysunku 4.2 zostaªy oznaczone ró»nymi kolorami.
W praktyce modelowania statystycznego problem analizy danych stanowi¡cych ci¡g obserwacji wygenerowanych
przez kilka stosowanych naprzemiennie modeli jest dobrze znany oraz opisany. Spotka¢ si¦ z nim mo»emy
mi¦dzy innymi podczas badania zjawisk natury biologicznej, w zagadnieniach dotycz¡cych analizy obrazu, czy
szczególnie dla nas interesuj¡cych problemach ekonometrycznych. W niniejszym rozdziale przedstawimy sposoby
modelowania oraz wnioskowania wykorzystywane do analizy takich wªa±nie danych. Zapoznamy si¦ najpierw z
poj¦ciem ªa«cucha Markowa, le»¡cym u podstaw caªej omawianej tu teorii. Przedstawimy nast¦pnie powszechnie
stosowany do opisu tego typu zagadnie« ukryty model Markowa. W dalszej kolejno±ci zaznajomimy si¦ ze
sposobem w jaki przewidywa¢ mo»na aktualny stan tego modelu stosuj¡c ltr Hamiltona oraz jak poprawi¢
otrzymane przewidywania. Na zako«czenie za± powiemy jak dokonywa¢ z wykorzystaniem modeli tych prognozy
na przyszªo±¢ oraz jak iteracyjnie estymowa¢ ich parametry.
4.1 Ša«cuch Markowa
4.1.1 Podstawowe denicje i poj¦cia
Zajmiemy si¦ teraz wprowadzeniem jednego z najprostszych, a zarazem najbardziej u»ytecznych procesów stochastycznych, jakim niew¡tpliwie jest ªa«cuch Markowa. Ogólnie rzecz ujmuj¡c proces ten skªada si¦ z pewnego
sko«czonego lub przeliczalnego zbioru stanów S, w których system znajduje si¦ w kolejnych chwilach czasu t
oraz prawdopodobie«stw przemieszczania si¦ pomi¦dzy tymi stanami. Czas t w przypadku ªa«cucha Markowa
traktowa¢ b¦dziemy w sposób dyskretny, zakªadaj¡c »e przyjmuje on warto±ci ze zbioru liczb naturalnych N.
Stany procesu w naszym przypadku wykorzystywane b¦d¡ do opisu zmian w panuj¡cych na rynku warunkach
ekonomicznych i cz¦sto nazywa¢ b¦dziemy je zamiennie re»imami.
27
Rysunek 4.1: Szereg czasowy typu AR (1) − GARCH (1, 1) o zmieniaj¡cych si¦ w czasie parametrach.
Rysunek 4.2: Szereg czasowy typu AR (1) − GARCH (1, 1) o zmieniaj¡cych si¦ w czasie parametrach z wyszczególnionymi re»imami.
28
Denicja 15. Proces stochastyczny St o warto±ciach w zbiorze stanów S nazwiemy ªa«cuchem Markowa,
je±li dla dowolnego t oraz dowolnego wyboru stanów s0 , s1 , . . . , st ∈ S speªnia on warunek
P (St = st | St−1 = st−1 , . . . , S0 = s0 ) = P (St = st | St−1 = st−1 ) .
(4.1.1)
Warunek 4.1.1 z powy»szej denicji nazywa¢ b¦dziemy warunkiem Markowa lub wªasno±ci¡ braku pami¦ci. Intuicyjnie warunek ten mówi nam, »e prawdopodobie«stwo znalezienia si¦ w kolejnej chwili czasu w
pewnym konkretnym stanie procesu zale»y od stanu w którym proces znajduje si¦ obecnie oraz od obecnej
chwili czasu. Mamy tutaj zatem do czynienia z zapominaniem przez proces caªej wcze±niejszej drogi, któr¡
pokonaª.
Wnikliwie analizuj¡c konsekwencje denicji 15 mo»na doj±¢ do wniosku, sk¡din¡d sªusznego, »e wygodnym z
obliczeniowego punktu widzenia byªoby uniezale»nienie w niej prawdopodobie«stw przej±cia mi¦dzy stanami od
obecnej chwili czasu. Podej±cie takie jest powszechnie stosowane w literaturze ekonometrycznej poruszaj¡cej
tematyk¦ modeli przeª¡cznikowych, takiej jak chocia»by klasyczne pozycje Hamiltona [15], [16] oraz [18] i
zostanie ono zastosowane równie» w niniejszej pracy.
Denicja 16. Niech St oznacza pewien ªa«cuch Markowa o warto±ciach w zbiorze stanów S. Ša«cuch St
nazwiemy jednorodnym, je»eli dla dowolnej chwili czasu t oraz dowolnych stanów s0 , s1 ∈ S zachodzi równo±¢
P (St = s1 | St−1 = s0 ) = P (S1 = s1 | S0 = s0 ) .
(4.1.2)
W dalszej cz¦±ci pracy skupimy nasz¡ uwag¦ wyª¡cznie na jednorodnych ªa«cuchach Markowa. Dlatego te»,
o ile nie zostanie powiedziane inaczej, b¦dziemy od teraz u»ywa¢ terminu ªa«cuch Markowa, maj¡c zawsze
na my±li jednorodny ªa«cuch Markowa. Zauwa»my ponadto, »e zbiór stanów S, jako zbiór sko«czony lub
przeliczalny, mo»emy zawsze uto»sami¢ z pewnym podzbiorem lub caªym zbiorem liczb naturalnych N, co dla
wygody b¦dziemy od teraz cz¦sto czyni¢.
W ±wiecie jednorodnych ªa«cuchów Markowa prawdopodobie«stwo 4.1.2 oznacza¢ b¦dziemy jako
pij = P (S1 = j | S0 = i)
oraz nazywa¢ prawdopodobie«stwem przej±cia w jednym kroku ze stanu i do stanu j lub krócej prawdopodobie«stwem przej±cia. Oczywi±cie dla prawdopodobie«stw tych zachodzi
X
pij = 1.
(4.1.3)
j∈S
Wszystkie prawdopodobie«stwa przej±cia w jednym kroku dla ªa«cucha Markowa o l stanach zebra¢ mo»emy
razem w macierzy przej±cia w jednym kroku lub krócej macierzy przej±cia postaci


p11 p12 · · · p1l
p21 p22 · · · p2l 


P = .
..
..  .
..
 ..
.
.
. 
pl1
pl2
···
pll
Oczywi±cie w przypadku niesko«czonej, przeliczalnej liczby stanów macierz ta byªaby macierz¡ niesko«czon¡.
Wygodn¡ reprezentacj¡ ªa«cucha Markowa, z której czasami korzysta¢ b¦dziemy w dalszej cz¦±ci pracy, jest
przedstawienie go w postaci grafu skierowanego takiego, »e
• zbiór jego wierzchoªków odpowiada zbiorowi stanów S,
• kraw¦d¹ prowadz¡ca z wierzchoªka i do wierzchoªka j istnieje wtedy i tylko wtedy, gdy pij > 0,
• kraw¦d¹ prowadz¡ca z wierzchoªka i do wierzchoªka j jest etykietowana warto±ci¡ pij .
29
Graf taki nazywa¢ b¦dziemy grafem prawdopodobie«stw przej±cia w jednym kroku lub krócej grafem
prawdopodobie«stw przej±cia.
Przykªad 17. Rozwa»my ªa«cuch Markowa o zbiorze stanów S = {1, 2, 3} oraz macierzy prawdopodobie«stw
przej±cia w jednym kroku postaci


0.5 0.4 0.1
P = 0.15 0.8 0.05 .
0
0.6 0.4
Oczywi±cie warto±ci zawarte w ka»dym z wierszy macierzy P sumuj¡ si¦ do jedynki zgodnie z wzorem 4.1.3. Graf
prawdopodobie«stw przej±cia w jednym kroku odpowiadaj¡cy tej macierzy prezentuje si¦ natomiast nast¦puj¡co
Rysunek 4.3: Graf prawdopodobie«stw przej±cia w jednym kroku.
W naszych dotychczasowych rozwa»aniach na temat ªa«cuchów Markowa skupiali±my si¦ gªównie na tym, aby
opisa¢ jak zmieniaj¡ si¦ stany procesu podczas mijania kolejnych jednostek czasu. Zauwa»y¢ nale»y, »e z
informacji tych skorzysta¢ mo»emy w peªni tylko wtedy, gdy wiemy jak prawdopodobne jest przebywanie procesu
w danym stanie w pewnej konkretnej chwili czasu t. Dlatego te» w celu kompletnego opisu modelu przyjmiemy,
»e informacja ta jest nam znana dla chwili czasu t = 0 i nazwiemy j¡ stanem pocz¡tkowym procesu oraz
oznaczymy jako
pi = P (S0 = i) .
Oprócz badania zachowania ªa«cucha Markowa po upªyni¦ciu pojedynczej jednostki czasu w stosunku do chwili
obecnej, mo»emy by¢ zainteresowani badaniem jego zachowania po upªyni¦ciu wi¦kszej liczby tych jednostek.
W tym celu przydatna mo»e okaza¢ si¦ dla nas znajomo±¢ prawdopodobie«stwa przej±cia w t krokach,
które deniujemy jako
pij (t) = P (St = j | S0 = i)
oraz macierzy przej±cia w t krokach postaci

p11 (t) p12 (t) · · ·
p21 (t) p22 (t) · · ·

P (t) =  .
..
..
 ..
.
.
pl1 (t) pl2 (t) · · ·

p1l (t)
p2l (t)

..  .
. 
pll (t)
U»yteczna mo»e okaza¢ si¦ równie» znajomo±¢ prawdopodobie«stwa bezwarunkowego ªa«cucha Markowa w chwili t, które oznacza¢ b¦dziemy jako
pj (t) = P (St = j) .
30
4.1.2 Pozyskiwanie u»ytecznych informacji
Dysponuj¡c ju» odpowiednim aparatem poj¦ciowym, sªu»¡cym do wygodnego opisu ªa«cucha Markowa, zajmiemy si¦ teraz wyznaczeniem kilku powi¡zanych z nim warto±ci oczekiwanych. B¦d¡ to warto±ci oczekiwane
nios¡ce w sobie informacje istotne z ekonometrycznego punktu widzenia, zaczerpni¦te w szczególno±ci z prac
[20], [36] oraz ksi¡»ki [21].
Przyjmijmy standardowe oznaczenie St na ªa«cuch Markowa o zbiorze re»imów S. Wyobra¹my sobie, »e ka»dy z
re»imów zbioru S reprezentuje odmienny stan gospodarki, poci¡gaj¡c za sob¡ konieczno±¢ odmiennego podej±cia
do zagadnienia optymalnego inwestowania. Opªacalne w czasie trwania jednego z re»imów inwestycje mog¡ okaza¢ si¦ nierentowne w innym. Inwestor, wykorzystuj¡cy ªa«cuchy Markowa w planowaniu horyzontu czasowego
swoich inwestycji, mo»e zatem by¢ zainteresowany poznaniem ±redniego czasu nieprzerwanego trwania danego
re»imu.
Z racji jednorodno±ci procesu St , bez straty ogólno±ci przyj¡¢ mo»emy, »e zaczynamy jego obserwacj¦ w chwili
czasu t = 0. Niech w chwili tej proces znajduje si¦ w pewnym re»imie i ∈ S. Zastanówmy si¦, jak prawdopodobne jest, »e b¦dzie on nieprzerwanie pozostawaª w tym re»imie przez kolejne d jednostek czasu, czyli jak
prawdopodobne jest zaj±cie ci¡gu zdarze«
Sd 6= i, Sd−1 = i, . . . , S2 = i, S1 = i
pod warunkiem S0 = i. Na wst¦pie prawdopodobie«stwo nasze zamieni¢ mo»emy na sum¦ prawdopodobie«stw
postaci
P (Sd 6= i, Sd−1 = i, . . . , S1 = i | S0 = i) =
X
P (Sd = j, Sd−1 = i, . . . , S1 = i | S0 = i) ,
j6=i
któr¡, wykorzystuj¡c wzór na prawdopodobie«stwo ªa«cuchowe, daje si¦ wyrazi¢ jako
P (Sd 6= i, Sd−1 = i, . . . , S1 = i | S0 = i)
=
X
P (Sd = j | Sd−1 = i, . . . , S1 = i, S0 = i) · · · P (S1 = i | S0 = i) ,
j6=i
co z kolei po zastosowaniu wzoru 4.1.1 daje nam równo±¢
X
P (Sd 6= i, Sd−1 = i, . . . , S1 = i | S0 = i) =
P (Sd = j | Sd−1 = i) · · · P (S1 = i | S0 = i) .
j6=i
Na mocy 4.1.2 równo±¢ t¡ mo»emy ostatecznie zapisa¢ zwi¦¹le w formie
P (Sd 6= i, Sd−1 = i, . . . , S1 = i | S0 = i)
= pd−1
(1 − pii ) .
ii
Šatwo zauwa»y¢, »e uzyskane przez nas prawdopodobie«stwa s¡ typowymi prawdopodobie«stwami pochodz¡cymi z rozkªadu geometrycznego
P (X = d) = (1 − q)
d−1
q, d = 1, 2, . . .
o parametrze q = 1 − pii . Przyjmuj¡c oznaczenie Di na zmienn¡ losow¡ opisuj¡c¡ czas pozostawania w re»imie
i, dostajemy wreszcie interesuj¡c¡ naszego inwestora warto±¢ oczekiwan¡ w postaci
di = E (Di ) =
1
.
1 − pii
(4.1.4)
Id¡c dalej w naszych rozwa»aniach, wyobra¹my sobie sytuacj¦, w której inwestor planuje zainwestowa¢ pewien kapitaª na dªu»szy, z góry okre±lony okres czasu, w trakcie którego nast¦powa¢ mog¡ zmiany w kondycji
gospodarki odzwierciedlane przez zmiany re»imów. Niech ponadto dana b¦dzie zmienna losowa
Ct =
l
X
ρi Ii (Si ) ,
i=1
gdzie ρi ∈ R, i = 1, 2, . . . , l, odzwierciedlaj¡ca warto±¢ pewnego istotnego z inwestycyjnego punktu widzenia
czynnika w chwili czasu t. Zauwa»my, »e Ct jest niczym innym, jak tylko ªa«cuchem Markowa charakteryzowanym przez te same prawdopodobie«stwa co ªa«cuch St , ró»ni¡cym si¦ natomiast zbiorem re»imów, którym w
przypadku Ct jest zbiór C = {ρ1 , ρ2 , . . . , ρl } .
31
W celu dobrania optymalnego typu inwestycji, inwestor mo»e by¢ zainteresowany zdobyciem wiedzy na temat
tego, jak¡ oczekiwan¡ warto±¢ czynnik reprezentowany przez Ct przyjmuje w kolejnych chwilach czasu t, tzn.
wyznaczeniem warto±ci
ct = E (Ct ) =
l
X
(4.1.5)
ρi pi (t) .
i=1
Mo»e ciekawi¢ go równie» ±rednia warto±¢ tego czynnika dla dªu»szego okresu czasu od chwili t1 do chwili t2 ,
gdzie oczywi±cie t1 ≤ t2 , czyli
ct1 ,t2 = E
t2
X
1
Ct
t2 − t1 + 1 t=t
1
!
=
t2
X
1
ct .
t2 − t1 + 1 t=t
(4.1.6)
1
Zauwa»my, »e do policzenia tych warto±ci potrzebna jest nam znajomo±¢ prawdopodobie«stw bezwarunkowych
ªa«cucha Markowa w chwili czasu t, których nie potramy na obecn¡ chwil¦ uzyska¢. Otrzymamy je jednak w
przyszªo±ci jako efekt zastosowania ltru Hamiltona.
4.1.3 Reprezentacja autoregresyjna
W tej krótkiej podsekcji wyka»emy, »e dla dowolnego ªa«cucha Markowa jeste±my w stanie skonstruowa¢ taki
jego wielowymiarowy odpowiednik, który daje si¦ przedstawi¢ w postaci autoregresyjnej. Przy czym przez wielowymiarowy odpowiednik rozumie¢ b¦dziemy ªa«cuch Markowa posiadaj¡cy te same wªasno±ci probabilistyczne
co ªa«cuch wyj±ciowy, ale charakteryzuj¡cy si¦ innym ni» on zbiorem stanów, w tym wypadku zawieraj¡cym
wektory. Przedstawienie autoregresyjne rozumiemy tutaj z kolei jako wyra»enie kolejnej obserwacji ªa«cucha w
postaci sumy przeskalowanej odpowiednio dobranym parametrem obserwacji poprzedniej i pewnego dodatkowego skªadnika losowego o zerowej warto±ci oczekiwanej.
Przyjmijmy na wst¦pie, »e symbolem St oznacza¢ b¦dziemy standardowo ªa«cuch Markowa, którego zbiór
l
stanów to S = {1, 2, . . . , l} , natomiast macierz prawdopodobie«stw przej±cia w jednym kroku P = [pij ]i,j=1 .
Zdeniujmy nast¦pnie pewien pomocniczy obiekt postaci

0

e1 = (1, 0, 0, . . . , 0) , dla St = 1,


e2 = (0, 1, 0, . . . , 0)0 , dla St = 2,
ξt =
..


.



0
el = (0, 0, 0, . . . , 1) , dla St = l.
Zauwa»my, »e ξ t jest z denicji niczym innym, jak tylko ªa«cuchem Markowa o tych samych wªasno±ciach
probabilistycznych co ªa«cuch St , posiadaj¡cym jednak inny ni» ªa«cuch ten zbiór stanów. Z obserwacji tej
natychmiast otrzymujemy, »e
P ξ t+1 = ej | ξ t = ei = P (St+1 = j | St = i) = pij ,
a co za tym idzie równie»
E ξ t+1 | ξ t , ξ t−1 , . . . = E ξ t+1 | ξ t = P ξ t .
(4.1.7)
Konsekwencj¡ powy»szej równo±ci jest naturalnie mo»liwo±¢ zapisania ªa«cucha Markowa ξ t+1 w postaci
ξ t+1 = P ξt + v t+1 ,
(4.1.8)
gdzie
• v t+1 = ξ t+1 − E ξ t+1 | ξ t , ξ t−1 , . . . .
Posta¢ ta jest oczywi±cie poszukiwanym przez nas autoregresyjnym odpowiednikiem ªa«cucha St . Taka wªa±nie
autoregresyjna posta¢ ªa«cucha Markowa b¦dzie przez nas powszechnie wykorzystywana podczas omawiania
ltru Hamiltona.
32
4.2 Denicja modelu
Denicja 18. Niech funkcje f1 (r) , f2 (r) , . . . , fl (r) b¦d¡ dowolnymi g¦sto±ciami prawdopodobie«stwa zdeniowanymi na zbiorze R. Wówczas o parze procesów stochastycznych
∞
(St , Rt )t=1
powiemy, »e tworz¡ ukryty model Markowa je»eli
• proces St jest ªa«cuchem Markowa o zbiorze stanów S = {1, 2, . . . , l} ,
• proces Rt jest ci¡giem zmiennych losowych przyjmuj¡cych warto±ci ze zbioru R takich, »e
Rt | St = j ∼ fj (r) ,
(4.2.1)
• statystycznie obserwowalne s¡ tylko realizacje procesu Rt (realizacje procesu St s¡ niewidoczne dla obserwatora).
Mechanika dziaªania ukrytego modelu Markowa opiera si¦ zatem na naprzemiennym wykonywaniu dwóch czynno±ci
1. okre±laniu przez pewien ªa«cuch Markowa z jakiego rozkªadu wygenerowana zostanie kolejna zmienna
losowa,
2. generowaniu zmiennej losowej z rozkªadu okre±lonego w kroku pierwszym.
Rysunek 4.4: Ukryty model Markowa o trzech stanach.
Z punktu widzenia obserwatora proces ten jest ci¡giem obserwacji r1 , r2 , r3 , . . . co do których postuluje si¦, »e
pochodz¡ one z kilku ró»nych rozkªadów, którymi zarz¡dza ªa«cuch Markowa. Nie istnieje jednak mo»liwo±¢ zaobserwowania realizacji tego ªa«cucha. Dlatego te» wszelkie wnioskowanie na jego temat mo»emy przeprowadza¢
jedynie na podstawie r1 , r2 , r3 , . . . .
Wreszcie z punktu widzenia wnioskowania statystycznego analiza ukrytych modeli Markowa sprowadza si¦ do
udzielenia odpowiedzi na trzy zasadnicze pytania.
1. Jak bardzo prawdopodobne jest wyst¡pienie ci¡gu obserwacji r1 , r2 , r3 , . . . przy znanych parametrach
modelu?
2. Jaki ci¡g re»imów ªa«cucha St najlepiej odpowiada zaobserwowanemu ci¡gowi obserwacji r1 , r2 , r3 , . . .
przy znanych parametrach modelu?
3. Jakie parametry modelu s¡ najbardziej adekwatne dla danego ci¡gu obserwacji r1 , r2 , r3 , . . .?
Odpowiedzi na wszystkie te pytania udzielone zostan¡ w kolejnych cz¦±ciach pracy, a wi¦kszo±¢ z owych odpowiedzi znajdzie si¦ ju» w kolejnej jej sekcji.
33
4.3 Filtr Hamiltona
Bazuj¡c na poj¦ciach wprowadzonych w poprzedniej sekcji zajmiemy si¦ aktualnie przedstawieniem algorytmu,
który stanowi¢ b¦dzie bezpo±redni¡ odpowied¹ na drugie z postawionych w sekcji tej pyta«. Poka»emy równie»,
»e produktem ubocznym stosowania wspomnianego algorytmu b¦d¡ w szczególno±ci warto±ci, w oparciu o które
mo»liwe jest ªatwe udzielenie odpowiedzi równie» na pierwsze z nich. Wartym odnotowania jest tak»e fakt,
»e posiadaj¡c odpowied¹ na pierwsze z poruszanych aktualnie pyta«, jeste±my w stanie sformuªowa¢ prost¡
z punktu widzenia teorii odpowied¹ równie» na pytanie trzecie. Wi¦cej na temat tego zagadnienia powiemy
jednak dopiero pod koniec rozdziaªu.
Rozumowania prowadz¡ce do wyprowadzenia wzorów dla wspomnianego przed chwil¡ algorytmu nazywanego
ltrem Hamiltona, które zostan¡ przeprowadzone w niniejszej podsekcji, w gªównej mierze oparte b¦d¡ na
opublikowanej przez Hamiltona w 1989 roku pracy [15] oraz na napisanej przez tego» samego autora ksi¡»ce
[18]. Przeprowadzimy je dla pewnego szczególnego przypadku ukrytego modelu Markowa postaci
(st , r t ) ,
gdzie
• st jest ªa«cuchem Markowa charakteryzuj¡cym si¦ zbiorem stanów S = {1, 2, . . . , l} , wektorem prawdol
l
podobie«stw pocz¡tkowych ρ = [ρi ]i=1 oraz macierz¡ przej±cia w jednym kroku P = [pij ]i,j=1 ,
• r t jest wielowymiarowym autoregresyjnym szeregiem czasowym charakteryzuj¡cym si¦ wektorem parametrów α, którego warto±ci zale»¡ od re»imu st .
Wiedz¦ o procesie r t do chwili czasu t przyjmijmy oznacza¢ symbolem Rt = {r t , r t−1 , . . . , r 1 , r 0 , r −1 , . . . , r −p } ,
gdzie p jest maksymalnym opó¹nieniem z jakim obecna warto±¢ r t zale»y od warto±ci przeszªych. Przyjmijmy
równie», »e proces st nie zale»y od przeszªej wiedzy o procesie r t , tzn.
P (st+1 = j | st = i, Rt ) = P (st+1 = j | st = i) = pij .
Ostatecznie warunkow¡ g¦sto±¢ szeregu r t pod warunkiem re»imu st wyra¹my wzorem
r t | st = j ∼ f (r t | st = j, Rt−1 ; θ) ,
(4.3.1)
gdzie przez θ rozumie¢ nale»y wektor wszystkich parametrów charakteryzuj¡cych model, a zatem parametrów
θ f funkcji warunkowej g¦sto±ci f oraz parametrów ªa«cucha Markowa st , którymi s¡ parametry zebrane w
wektorze prawdopodobie«stw pocz¡tkowych ρ oraz macierzy prawdopodobie«stw przej±cia w jednym kroku P .
W dalszych zapisach b¦dziemy cz¦sto dla wygody pomijali jawne okre±lanie parametrów θ.
W celu uczynienia dalszych zapisów bardziej zwi¦zªymi zdeniujmy ponadto dwa dodatkowe wektory pomocnicze. Wektor g¦sto±ci f przy znanej warto±ci re»imu st postaci


f (r t | st = 1, Rt−1 ; θ)
f (r t | st = 2, Rt−1 ; θ)


ηt = 

..


.
f (r t | st = l, Rt−1 ; θ)
oraz wektor prawdopodobie«stw przebywania w ustalonym re»imie w chwili czasu t pod warunkiem posiadania
wiedzy o procesie r t do chwili czasu τ postaci


P (st = 1 | Rτ ; θ)
P (st = 2 | Rτ ; θ)


ξ̂ t|τ = E (ξ t | Rτ ; θ) = 
(4.3.2)
.
..


.
P (st = l | Rτ ; θ)
Dysponuj¡c wszystkimi powy»szymi oznaczeniami, b¦dziemy aktualnie zainteresowani znalezieniem sposobu obliczenia prawdopodobie«stw ξ̂ t+1|t+1 , je±li znane nam s¡ prawdopodobie«stwa ξ̂ t|t oraz parametry modelu θ.
Innymi sªowy, dysponuj¡c caª¡ wiedz¡ o procesie r t na chwil¦ czasu t oraz wiedz¡c jak rozkªadaªo si¦ prawdopodobie«stwo przebywania przez model w re»imach w tej»e chwili t, b¦dziemy chcieli ustali¢, jak prawdopodobie«stwo to rozkªada si¦ w chwili obecnej. Zauwa»my, »e w efekcie udzielenia odpowiedzi na to pytanie,
dysponuj¡c wiedz¡ o rozkªadzie prawdopodobie«stwa przebywania w re»imach w chwili pocz¡tkowej, b¦dziemy
w stanie obliczy¢ iteracyjnie rozkªady te dla dowolnej chwili kolejnej.
34
Zauwa»my na wst¦pie, »e skorzystanie ze wzoru 4.1.8 pozwala nam warto±¢ oczekiwan¡ ξ t+1 warunkowan¡
przeszªo±ci¡ wyrazi¢ jako
E ξ t+1 | Rt = P E (ξ t | Rt ) + E (v t | Rt ) = P E (ξ t | Rt ) ,
co po podstawieniu 4.3.2 w miejsce warto±ci oczekiwanych daje równanie na rozkªad prawdopodobie«stwa
re»imów dla kolejnej chwili czasu postaci
ξ̂ t+1|t = P ξ̂ t|t .
(4.3.3)
W ±wietle powy»szej równo±ci nasz problem sprowadza si¦ zatem do znalezienia sposobu uzyskania ξ̂ t+1|t+1 z
ξ̂ t+1|t , czyli de facto zaktualizowania uwzgl¦dnianej w obliczeniach wiedzy o procesie z Rt do Rt+1 . W tym
celu zauwa»my, »e przemna»aj¡c j − ty element wektora ξ̂ t+1|t przez j − ty element wektora η t+1 i korzystaj¡c
ze wzoru na prawdopodobie«stwa ªa«cuchowe dostajemy
P (st+1 = j | Rt ) · f (r t+1 | st+1 = j, Rt ) = p (r t+1 , st+1 = j | Rt ) , j = 1, 2, . . . , l.
(4.3.4)
Sumuj¡c z kolei powy»sze prawdopodobie«stwa po wszystkich j uzyskujemy g¦sto±¢ szeregu r t warunkowanego
przeszªo±ci¡ Rt , co w zapisie wektorowym wyrazi¢ mo»emy jako
f (r t+1 | Rt ) = 10 ξ̂ t+1|t η t+1 ,
(4.3.5)
gdzie
• 1 jest wektorem jedynek dªugo±ci l,
• jest mno»eniem wektorów zdeniowanym nast¦puj¡co
    

a1
b1
a1 b1
a2  b2  a2 b2 
    

 ..   ..  =  ..  .
. .  . 
al
bl
al bl
Wykorzystuj¡c nast¦pnie wzór na prawdopodobie«stwo warunkowe, rozkªad warunkowy st+1 warunkowany przeszªo±ci¡ Rt+1 uzyska¢ mo»emy dziel¡c 4.3.4 przez 4.3.5, tzn.
p (r t+1 , st+1 = j | Rt )
= P (st+1 = j | r t+1 , Rt ) = P (st+1 = j | Rt+1 ) , j = 1, 2 . . . , l.
f (r t+1 | Rt )
Podstawiaj¡c z kolei do wzoru wªa±nie wyprowadzonego wzór 4.3.5 dostajemy
P (st+1 = j | Rt+1 ) =
p (r t+1 , st+1 = j | Rt )
, j = 1, 2, . . . l.
10 ξ̂ t+1|t η t+1
Zgodnie z 4.3.4 licznik prawej strony powy»szego równania jest j -tym elementem wektora ξ̂ t+1|t η t+1 , natomiast
lewa jego strona to nic innego, jak tylko j − ty element wektora ξ̂ t+1|t+1 . Mo»emy zatem równanie powy»sze
zapisa¢ w zwi¦zªej, wektorowej postaci
ξ̂ t+1|t+1 =
ξ̂
η t+1
t+1|t
.
1 ξ̂ t+1|t η t+1
0
(4.3.6)
Ostatecznie wi¦c, iteracyjne stosowanie wyprowadzonych wªa±nie wzorów 4.3.3 oraz 4.3.6, a zatem
1. ξ̂ t+1|t = P ξ̂ t|t ,
2. ξ̂ t+1|t+1 =
ξ̂t+1|t η t+1
10 (ξ̂t+1|t η t+1 )
,
stanowi peªn¡ odpowied¹ na postawione prze nas na pocz¡tku pytanie. Wzory te, zaproponowane po raz pierwszy
w omawianym tu kontek±cie przez Jamesa Hamiltona we wspomnianej ju» wcze±niej pracy [15] okre±lane s¡
mianem ltru Hamiltona.
35
Wartym odnotowania jest, »e w trakcie dokonywania oblicze« z wykorzystaniem wspomnianego ltru musimy
w szczególno±ci wyznaczy¢ warto±¢ 4.3.5, tzn.
f (r t+1 | Rt ) = 10 ξ̂ t+1|t η t+1 .
Sumuj¡c wszystkie te warto±ci uzyska¢ mo»emy funkcj¦ log-wiarogodno±¢ ` (θ) dla caªej dost¦pnej nam wiedzy
o procesie RT , gdzie T jest oczywi±cie ostatni¡ chwil¡ czasu z której posiadamy dane, tzn.
` (θ) =
T
X
log f (r t+1 | Rt ) .
t=1
Naturalnie dysponuj¡c funkcj¡ log-wiarogodno±ci ` (θ) jeste±my w stanie dobra¢ optymalne warto±ci parametrów
θ wykorzystuj¡c metod¦ najwi¦kszej wiarogodno±ci. Wi¦cej na ten temat mówi¢ b¦dziemy jednak dopiero pod
koniec tego rozdziaªu pracy.
Aktualnie zwró¢my natomiast uwag¦ na to, »e aby w peªni poprawnie zdeniowa¢ ltr Hamiltona dookre±li¢
powinni±my jeszcze jego startowy rozkªad prawdopodobie«stwa przebywania w danym re»imie ξ̂ 1|0 = ρ. Powszechnie zalecan¡ metod¡ wyboru owego rozkªadu w sposób autorytatywny jest przyj¦cie, i» jest on rozkªadem
ergodycznym, czyli innymi sªowy rozkªadem speªniaj¡cym zale»no±¢
P ξ̂ 1|0 = ξ̂ 1|0 .
Alternatywnie przyj¡¢ mo»emy równie», »e w chwili pocz¡tkowej równie prawdopodobne jest znajdowanie si¦
procesu w dowolnym z re»imów i w zwi¡zku z tym rozkªad ξ̂ 1|0 powinien by¢ jednostajny, tzn.
ξ̂ 1|0 =
1
· 1.
l
Najbardziej uzasadnionym wydaje si¦ jednak wybranie parametrów ξ̂ 1|0 wraz z pozostaªymi parametrami modelu w procesie estymacji. Wªa±nie do takiego podej±cia przychyla¢ si¦ b¦dziemy w dalszej cz¦±ci pracy.
4.4 Wygªadzanie
Wyznaczaj¡c w poprzedniej sekcji pracy prawdopodobie«stwa znajdowania si¦ w danym re»imie w kolejnych
chwilach czasu czasu t opierali±my si¦ wyª¡cznie na wiedzy o procesie do danej chwili czasu t, czyli na Rt .
Jest to oczywi±cie naturalnie nasuwaj¡ce si¦ podej±cie, w którym bie»¡c¡ warto±¢ prawdopodobie«stw na dan¡
chwil¦ okre±lamy na podstawie rzeczywi±cie posiadanej przez nas do chwili tej wiedzy. Niestety statystycznie
oznacza to, »e pocz¡tkowe prawdopodobie«stwa przebywania w danym re»imie okre±lamy na niewielkich zbiorach
obserwacji, nara»aj¡c si¦ tym samym na ewentualne du»e bª¦dy estymacji.
Zauwa»my jednak, i» w chwili wyznaczania prawdopodobie«stw przebywania w danym re»imie w dowolnej chwili
czasu t dysponujemy ju» de facto peªn¡ wiedz¡ o procesie rt w postaci RT . Nasuwa si¦ zatem naturalne pytanie,
czy wyznaczanych w efekcie stosowania ltru Hamiltona prawdopodobie«stw nie mogliby±my uzupeªni¢ o te
dodatkowo posiadane przez nas informacje. Faktycznie okazuje si¦, »e dokonanie wspomnianego uzupeªnienia
jest mo»liwe poprzez zastosowanie opracowanego przez Kima i opisanego w pracy [27] algorytmu wygªadzania.
Przedstawienie tego algorytmu b¦dzie gªównym tematem niniejszej sekcji.
Reasumuj¡c, b¦dziemy aktualnie zainteresowani znalezieniem rozkªadu prawdopodobie«stwa ξ̂ t|T dla ka»dego t,
dysponuj¡c uzyskanymi w efekcie zastosowania ltru Hamiltona rozkªadami ξ̂ t|t oraz ξ̂ t+1|t przy uwzgl¦dnieniu
caªej dost¦pnej historii procesu RT . W tym celu przypomnijmy sobie na wst¦pie, »e przy poczynionych przez
nas w poprzedniej sekcji zaªo»eniach co do postaci modelu, re»im st zale»y od przeszªo±ci procesu wyª¡cznie
przez st−1 , tzn.
P (st = j | st−1 = i, Rt−1 ) = P (st = j | st−1 = i) = pij .
(4.4.1)
B¦dziemy aktualnie zainteresowani wykazaniem, »e podobna zale»no±¢ zachodzi równie» dla przyszªo±ci. Czyli
dokªadniej mówi¡c, »e re»im st zale»y od przyszªo±ci procesu wyª¡cznie przez st+1 , tzn.
P (st = j | st+1 = i, RT ) = P (st = j | st+1 = i, Rt ) .
36
(4.4.2)
W tym celu zauwa»my najpierw, »e wykorzystuj¡c wzór na prawdopodobie«stwo warunkowe dostajemy
P (st = j | st+1 = i, Rt+1 )
= P (st = j | st+1 = i, r t+1 , Rt )
p (r t+1 , st = j | st+1 = i, Rt )
=
f (r t+1 | st+1 = i, Rt )
f (r t+1 | st = j, st+1 = i, Rt ) · P (st = j | st+1 = i, Rt )
=
.
f (r t+1 | st+1 = i, Rt )
Przypomnijmy sobie nast¦pnie, i» z poczynionych zaªo»e« co do modelu wiemy, »e r t+1 od {st+1 , st , . . .} zale»y
wyª¡cznie przez st+1 , zatem
f (r t+1 | st = j, st+1 = i, Rt ) = f (r t+1 | st+1 = i, Rt ) ,
co po zastosowaniu do wcze±niejszych przeksztaªce« daje
P (st = j | st+1 = i, Rt+1 ) = P (st = j | st+1 = i, Rt ) .
(4.4.3)
Argumentuj¡c w podobny sposób pokaza¢ mo»emy, »e
P (st = j | st+1 = i, Rt+2 )
= P (st = j | st+1 = i, r t+2 , Rt+1 )
p (r t+2 , st = j | st+1 = i, Rt+1 )
=
f (r t+2 | st+1 = i, Rt+1 )
f (r t+2 | st = j, st+1 = i, Rt+1 ) · P (st = j | st+1 = i, Rt+1 )
=
,
f (r t+2 | st+1 = i, Rt+1 )
co w efekcie zastosowania
f (r t+2 | st = j, st+1 = i, Rt+1 ) = f (r t+2 | st+1 = i, Rt+1 )
(4.4.4)
umo»liwia sprowadzenie wy»ej uzyskanego wyniku do postaci
P (st = j | st+1 = i, Rt+2 ) = P (st = j | st+1 = i, Rt+1 ) .
(4.4.5)
W tym wypadku równo±¢ 4.4.4 otrzyma¢ mo»emy stosuj¡c dwukrotnie wzór na prawdopodobie«stwa ªa«cuchowe
oraz wykorzystuj¡c podstawowe zaªo»enia modelu w ramach nast¦puj¡cych przeksztaªce«
f (r t+2 | st = j, st+1 = i, Rt+1 )
=
l
X
p (r t+2 , st+2 = k | st = j, st+1 = i, Rt+1 )
k=1
=
l
X
f (r t+2 | st+2 = k, st = j, st+1 = i, Rt+1 ) P (st+2 = k | st = j, st+1 = i, Rt+1 )
k=1
=
l
X
f (r t+2 | st+2 = k, st+1 = i, Rt+1 ) P (st+2 = k | st+1 = i, Rt+1 )
k=1
=
l
X
f (r t+2 , st+2 = k | st+1 = i, Rt+1 )
k=1
= f (r t+2 | st+1 = i, Rt+1 ) .
Równo±¢ 4.4.5 korzystaj¡c ze wzoru 4.4.3 zapisa¢ mo»emy nalnie w formie
P (st = j | st+1 = i, Rt+2 ) = P (st = j | st+1 = i, Rt ) .
37
Post¦puj¡c indukcyjnie, w ten sam sposób wykaza¢ mo»emy równie», »e
P (st = j | st+1 = i, Rt+p ) = P (st = j | st+1 = i, Rt )
dla dowolnego p = 1, 2, 3, . . . . W szczególno±ci zatem przyjmuj¡c p = T − t wykazali±my, »e prawdziwa jest
zale»no±¢ 4.4.2.
Korzystaj¡c teraz z wªa±nie udowodnionej zale»no±ci 4.4.2 oraz z zale»no±ci 4.4.1 dostajemy
P (st = j | st+1 = i, Rt )
=
=
=
P (st = j, st+1 = i | Rt )
P (st+1 = i | Rt )
P (st = j | Rt ) · P (st+1 = i | st = j)
,
P (st+1 = i | Rt )
pji · P (st = j | Rt )
.
P (st+1 = i | Rt )
Wykorzystuj¡c z kolei wynik powy»szy wraz z zale»no±ci¡ 4.4.2 wykaza¢ mo»emy, »e
P (st = j, st+1 = i | RT )
= P (st+1 = i | RT ) · P (st = j | st+1 = i, RT )
= P (st+1 = i | RT ) · P (st = j | st+1 = i, Rt )
pji · P (st = j | Rt )
.
= P (st+1 = i | RT ) ·
P (st+1 = i | Rt )
Finalnie, równo±¢ powy»sza pozwala nam zapisa¢ poszukiwane prawdopodobie«stwo przebywania w re»imie
warunkowane caª¡ wiedz¡ o procesie RT w postaci
P (st = j | RT )
=
l
X
P (st = j, st+1 = i | RT )
i=1
=
l
X
P (st+1 = i | RT ) ·
i=1
= P (st = j | Rt )
l
X
i=1
pji
pji · P (st = j | Rt )
P (st+1 = i | Rt )
P (st+1 = i | RT )
,
P (st+1 = i | Rt )
co wektorowo wyrazi¢ daje si¦ jako
P (st = j | RT ) = P (st = j | Rt ) p0j ξ̂ t+1|T (÷) ξ̂ t+1|t ,
gdzie
• pj jest j − tym wierszem macierzy P ,
• (÷) jest dzieleniem wektorów zdeniowanym nast¦puj¡co
 
   a1 
a1
b1
b1
a2 
b2   a2 
 
   b2 
 ..  (÷)  ..  =  .  .
.
 .   .. 
al
al
bl
bl
Ostatecznie zbieraj¡c wszystkie prawdopodobie«stwa P (st = j | RT ) dla j = 1, 2, . . . , l w postaci ξ̂ t|T otrzymujemy
ξ̂ t|T = ξ̂ t|t P 0 ξ̂ t+1|T (÷) ξ̂ t+1|t .
38
(4.4.6)
Wygªadzaniem nazywa¢ b¦dziemy algorytm iteracyjny polegaj¡cy na stosowaniu wzoru 4.4.6 kolejno dla
wszystkich t = T − 1, T − 2, . . . , 1. Warto±ci, z których algorytm ten startuje uzyskane mog¡ zosta¢ w efekcie
wykorzystania ltru Hamiltona. Dlatego te» wygªadzanie stanowi naturalne tego ltru uzupeªnienie, pozwalaj¡ce ze statystycznego punktu widzenia poprawi¢ jako±¢ estymowanych warto±ci prawdopodobie«stw, poprzez
wykorzystanie na etapie estymacji caªej dost¦pnej wiedzy o procesie zebranej w RT .
4.5 Prognoza
Jednym z podstawowych celów budowania modeli statystycznych jest prognozowanie ich przyszªego zachowania,
w oparciu o obecnie dost¦pne informacje. W analizowanym przez nas kontek±cie szeregów czasowych sterowanych
nieobserwowalnym ªa«cuchem Markowa szczególnie interesuj¡ce jest prognozowanie dwojakiego rodzaju.
1. Prognozowanie rozkªadu prawdopodobie«stwa przebywania w re»imie za p okresów od obecnej chwili czasu
t, czyli ξ̂ t+p|t .
2. Prognozowanie niezale»nej od re»imu oczekiwanej warto±ci r t+1 w oparciu o informacje dost¦pne w chwili
czasu t, czyli r̂ t+1 = E (r t+1 | Rt ; θ) .
Pierwsz¡ z wymienionych tu prognoz mo»emy w prosty sposób wyprowadzi¢ ze wzoru 4.1.8 zauwa»aj¡c, »e wzór
ten rozpisa¢ daje si¦ do postaci
ξ t+p = P p ξ t +
p−1
X
P k v t+p−k ,
k=0
a nast¦pnie obliczaj¡c jego warto±¢ oczekiwan¡
ξ̂ t+p|t = E ξ t+p | Rt ; θ = P p E (ξ t | Rt ; θ) = P p ξ̂ t|t .
W celu sformuªowania wzoru na prognoz¦ drugiego typu zaªó»my chwilowo, »e znana jest nam warto±¢ re»imu
st+1 . Jest to sytuacja w której zadanie dokonania prognozy staje si¦ zasadniczo zadaniem prostym, natomiast
sama prognoza przy wykorzystaniu warunkowej g¦sto±ci 4.3.1 wyra»a si¦ z denicji warunkowej warto±ci oczekiwanej wzorem
ˆ
E (r t+1 | st+1 = j, Rt ; θ) =
r t+1 f (r t+1 | st+1 = j, Rt ; θ) dr t+1 , j = 1, 2, . . . , l.
Poka»emy teraz, »e prognoza dokonana przy braku znajomo±ci st+1 zale»y w prosty sposób od wy»ej przedstawionej prognozy. W tym celu wyra¹my najpierw interesuj¡c¡ nas warunkow¡ warto±¢ oczekiwan¡ bezpo±rednio
z jej denicji jako
ˆ
E (r t+1 | Rt ; θ) =
r t+1 f (r t+1 | Rt ; θ) dr t+1 .
Nast¦pnie uwzgl¦dnijmy we wzorze re»im st+1 pisz¡c
ˆ
E (r t+1 | Rt ; θ) =


l
X
r t+1 
p (r t+1 , st+1 = j | Rt ; θ) dr t+1 .
j=1
Zastosowanie wzoru na prawdopodobie«stwo ªa«cuchowe pozwala nam przeksztaªci¢ powy»szy wzór do postaci


ˆ
l
X
E (r t+1 | Rt ; θ) = r t+1 
f (r t+1 | st+1 = j, Rt ; θ) P (st+1 = j | Rt ; θ) dr t+1 ,
j=1
która w efekcie wyci¡gni¦cia sumy przed caªk¦ prezentuje si¦ nast¦puj¡co
E (r t+1 | Rt ; θ) =
l
X
ˆ
P (st+1 = j | Rt ; θ)
j=1
39
r t+1 f (r t+1 | st+1 = j, Rt ; θ) dr t+1 .
Zauwa»my, »e wyra»enie podcaªkowe jest niczym innym, jak tylko predykcj¡ dokonan¡ przy znanej warto±ci
re»imu st+1 , a zatem
r̂ t+1 = E (r t+1 | Rt ; θ) =
l
X
P (st+1 = j | Rt ; θ) E (r t+1 | st+1 = j, Rt ; θ) .
j=1
Zbieraj¡c wszystkie predykcje dokonane przy znanej warto±ci re»imu st+1 w postaci wektora


E (r t+1 | st+1 = 1, Rt ; θ)
E (r t+1 | st+1 = 2, Rt ; θ)


ht = 

..


.
E (r t+1 | st+1 = l, Rt ; θ)
równanie na r̂ t+1 wyrazi¢ mo»emy nalnie w zwi¦zªej, wektorowej postaci
r̂ t+1 = h0t ξ̂ t+1|t .
4.6 Estymacja parametrów
Zajmiemy si¦ aktualnie przedstawieniem odpowiedzi na ostatnie z zagadnie« dotycz¡cych wnioskowania na
temat ukrytych modeli Markowa, które we wcze±niejszych rozwa»aniach byªo pomijane. Chodzi tutaj oczywi±cie
o zagadnienie estymacji parametrów θ modelu. W kr¦gu naszego zainteresowania znajdzie si¦ wyznaczenie
estymatorów najwi¦kszej wiarogodno±ci θ̂ N W wspomnianych parametrów, a wi¦c estymatorów uzyskiwanych
w efekcie maksymalizacji funkcji wiarogodno±ci. Nie b¦dziemy jednak szuka¢ ich w sposób bezpo±redni, lecz
poprzez zastosowanie opisanego w publikacji [16] i szeroko stosowanego w kontek±cie szeregów czasowych o
dynamice sterowanej ªa«cuchem Markowa algorytmu EM.
Na wst¦pie pozwólmy sobie przyj¡¢ kilka upraszczaj¡cych dalsze zapisy oznacze«. Zacznijmy od zdeniowania
wektora wszystkich obserwacji szeregu r t jako
r = (r 01 , r 02 , . . . , r 0T )
oraz wektora wszystkich powi¡zanych z obserwacjami tymi re»imów jako
s = (s1 , s2 , . . . , sT ) .
Oznaczmy ponadto wszystkie mo»liwe realizacje s za pomoc¡ symbolu
S = ST ,
gdzie S = {1, 2, . . . , l} jest oczywi±cie zbiorem dopuszczalnych re»imów ªa«cucha st .
Wykorzystuj¡c wprowadzone wªa±nie oznaczenie zdeniujmy operator
ˆ
f (s) =
S
l
l
X
X
s1 =1 s2 =1
···
l
X
f (s1 , s2 , . . . , sT ) .
sT =1
Przyjmijmy tak»e, »e na potrzeby niniejszej podsekcji warunkow¡ g¦sto±¢ (wiarogodno±¢) r oznacza¢ b¦dziemy
jako
p (r; θ) = f (r 1 , r 2 , . . . , r T | R0 ; θ) ,
natomiast ª¡czn¡ warunkow¡ g¦sto±¢ (wiarogodno±¢) r i s jako
p (r, s; θ) = p (r 1 , r 2 , . . . , r T , s1 , s2 , . . . , sT | R0 ; θ) .
40
Wreszcie wprowadzi¢ mo»emy newralgiczne dla caªej podsekcji oznaczenie na warto±¢ oczekiwan¡ log-wiarogodno±ci
r i s parametryzowanej przez θ m+1 wzgl¦dem rozkªadu ª¡cznego r i s parametryzowanego przez θ m postaci
ˆ
log p (r, s; θ m+1 ) · p (r, s; θ m ) .
Q (θ m+1 ; θ m , r) =
(4.6.1)
S
Ide¦ algorytmu EM mo»emy w tym momencie zamkn¡¢ w postaci poni»szej listy kroków.
1. W sposób arbitralny wybieramy pierwsze przybli»enie θ̂ 0 warto±ci parametrów θ.
2. Przyjmujemy m = 0 i dopóki nie zostanie uzyskana po»¡dana dokªadno±¢ powtarzamy poni»sze kroki.
(a) Znajdujemy warto±ci θ̂ m+1 przybli»aj¡ce rzeczywiste warto±ci parametrów θ maksymalizuj¡c
Q θ m+1 ; θ̂ m , r
po θ m+1 .
(b) Zwi¦kszamy m o 1.
n o∞
B¦dziemy aktualnie zainteresowani wykazaniem, »e uzyskany w ten sposób ci¡g estymatorów θ̂ m
zbiega
m=0
do lokalnego maksimum funkcji wiarogodno±ci r, tzn.
logm→∞ θ̂ m = θ̂ N W .
Zagadnienie to sprowadzimy do wykazania prawdziwo±ci dwóch stwierdze«. Pierwszego mówi¡cego o tym, »e
kolejne estymatory θ̂ m d¡»¡c do maksymalizacji warto±ci funkcji Q (θ m+1 ; θ m , r) maksymalizuj¡ równie» warto±¢
wiarogodno±ci p (r; θ) oraz drugiego pokazuj¡cego, »e osi¡gni¦cie lokalnego maksimum funkcji Q (θ m+1 ; θ m , r)
jest równoznaczne z osi¡gni¦ciem takiego maksimum równie» przez p (r; θ) .
Stwierdzenie 19. Parametry θ̂m+1 generuj¡ wi¦ksz¡ warto±¢ funkcji wiarogodno±ci ni» parametry θ̂m , tzn.
p r; θ̂ m+1 ≥ p r; θ̂ m ,
przy czym równo±¢ zachodzi wtedy i tylko wtedy, gdy θ̂ m = θ̂ m+1 .
Dowód. Zauwa»my, »e skoro θ̂m+1 maksymalizuje Q θm+1 ; θ̂m , r , to w szczególno±ci
Q θ̂ m+1 ; θ̂ m , r ≥ Q θ̂ m ; θ̂ m , r ,
przy czym równo±¢ w powy»szej nierówno±ci uzyskujemy tylko wtedy, gdy θ̂ m+1 = θ̂ m .
Przypomnijmy sobie teraz z elementarnej analizy, »e dla x > 0 zachodzi log (x) ≤ x − 1, przy czym równo±¢ w
powy»szej nierówno±ci osi¡gana jest, gdy x = 1. Korzystaj¡c z tej prostej nierówno±ci napisa¢ mo»emy, »e
Q θ̂ m+1 ; θ̂ m , r − Q θ̂ m ; θ̂ m , r
ˆ

 p r, s; θ̂ m+1
 p r, s; θ̂ m
=
log  S
p r, s; θ̂ m
 
ˆ
p r, s; θ̂ m+1
 − 1 p r, s; θ̂ m
≤
S
p r, s; θ̂ m
ˆ =
p r, s; θ̂ m+1 − p r, s; θ̂ m
S
= p r; θ̂ m+1 − p r; θ̂ m .
W konsekwencji zatem z nierówno±ci Q θ̂ m+1 ; θ̂ m , r > Q θ̂ m ; θ̂ m , r dostajemy postulowan¡ nierówno±¢
p r; θ̂ m+1 > p r; θ̂ m .
41
Stwierdzenie 20. Je±li
∂Q θ m+1 ; θ̂ m , r ∂θ m+1
= 0,
θ m+1 =θ̂ m
to równie»
∂p (r; θ) = 0.
∂θ θ=θ̂m
Dowód. W celu wykazania prawdziwo±ci tego stwierdzenia wystarczy zauwa»y¢, »e
∂Q θ m+1 ; θ̂ m , r ∂θ m+1
ˆ
=
S
θ m+1 =θ̂ m
∂ log p (r, s; θ m+1 )
· p r, s; θ̂ m ∂θ m+1
θ m+1 =θ̂ m
ˆ ∂p (r, s; θ m+1 )
1
=
·
p
r,
s;
θ̂
·
m
∂θ m+1
p (r, s; θ m+1 ) θm+1 =θ̂m
S
ˆ
∂p (r, s; θ m+1 ) =
∂θ m+1
S
θ m+1 =θ̂ m
∂p (r; θ m+1 ) =
.
∂θ m+1 θm+1 =θ̂m
Widzimy st¡d, »e pochodne z zaªo»enia i tezy stwierdzenia s¡ sobie równe, a zatem w szczególno±ci je±li jedna
z nich przyjmuje warto±¢ 0, to równie» druga musi przyjmowa¢ t¡ warto±¢.
Pokazali±my zatem, »e wykorzystanie algorytmu EM pozwala nam uzyska¢ analogiczne wyniki z tymi, jakie
dostaliby±my w efekcie bezpo±redniej maksymalizacji funkcji najwi¦kszej wiarogodno±ci. Nie przedstawili±my
natomiast dotychczas bezpo±rednich wzorów, pozwalaj¡cych na maksymalizacj¦ wykorzystywanej w algorytmie
tym funkcji Q (θ m+1 ; θ m , r) . Poni»sze twierdzenie wraz z dowodem uzupeªni ten brak.
Twierdzenie 21. W przypadku ukrytego modelu Markowa zdeniowanego w podsekcji 4.3, przy ustalonych
warto±ciach θm , wyra»enie 4.6.1 jest maksymalizowane poprzez wybranie parametrów θm+1 w taki sposób, aby
speªniaªy
(m+1)
pij
0
T X
∂ log η
t
t=1
∂αm+1
ξ̂ t|T
ρ(m+1)
PT
=
p (st = j, st−1 = i | RT ; θ m )
, i, j =, 1, 2, . . . , l,
PT
t=2 p (st−1 = i | RT ; θ m )
t=2
(4.6.2)
= 0,
(4.6.3)
= ξ̂ 1|T .
(4.6.4)
Dowód. Zauwa»my na wst¦pie, »e wykorzystuj¡c wzór na prawdopodobie«stwo ªa«cuchowe napisa¢ mo»emy
u»yteczny dla caªego dowodu wzór
p (r, s; θ)
= p (r T | sT , RT −1 ; α) · p (sT | sT −1 ; p) · p (r T −1 | sT −1 , RT −2 ; α) ·
·p (sT −1 | sT −2 ; p) · . . . · p (r 1 | s1 , R0 ; α) · ρs1 ,
gdzie ρs1 = p (s1 ; ρ) .
Korzystaj¡c z tego wzoru, dowód równo±ci 4.6.2 zacznijmy od zauwa»enia, »e
T
T
∂ log p (r, s; θ) X ∂ log p (st | st−1 ; p)
1 X
=
=
I{s =j,st−1 =i} (st , st−1 ) .
∂pij
∂pij
pij t=2 t
t=2
42
(4.6.5)
Wykorzystanie powy»szego wyniku pozwala nam dla funkcji Q (θ m+1 ; θ m , r) napisa¢
ˆ
∂Q (θ m+1 ; θ m , r)
∂ log p (r, s; θ m+1 )
=
· p (r, s; θ m )
(m+1)
(m+1)
S
∂pij
∂pij
T ˆ
1 X
=
I{st =j,st−1 =i} (st , st−1 ) · p (r, s; θ m )
(m+1)
pij
t=2 S
=
T
X
1
(m+1)
pij
p (st = j, st−1 = i | RT ; θ m ) · p (r; θ m ) .
t=2
(m+1)
Chc¡c okre±li¢ warto±ci pij
dla j = 1, 2, . . . , l maksymalizuj¡ce Q (θ m+1 ; θ m , r) , musimy uwzgl¦dni¢ ograniczaj¡cy warto±ci te warunek
l
X
(m+1)
pij
= 1.
j=1
Dlatego te» sformuªujemy nasz problem optymalizacji w terminach metody mno»ników Lagrange'a deniuj¡c
funkcj¦


l
X
(m+1)
Q (θ m+1 ; θ m , r) − λi 
pij
− 1 ,
j=1
gdzie λi jest mno»nikiem Lagrange'a, a nast¦pnie ró»niczkuj¡c j¡ i przyrównuj¡c do zera, co w efekcie daje nam
∂Q (θ m+1 ; θ m , r)
(m+1)
=
λi ,
=
λi ,
=
λi pij
.
p (r; θ m )
∂pij
1
T
X
(m+1)
pij
p (st = j, st−1 = i | RT ; θ m ) · p (r; θ m )
t=2
T
X
(m+1)
p (st = j, st−1 = i | RT ; θ m )
t=2
Sumuj¡c powy»sze wyra»enie po j mo»emy zobaczy¢, »e
T
X
p (st−1 = i | RT ; θ m ) =
t=2
λi
.
p (r; θ m )
Ostatecznie ª¡cz¡c i przeksztaªcaj¡c dwa ostatnie wyra»enia dostajemy postulowan¡ równo±¢ 4.6.2.
Wykorzystuj¡c ponownie wzór 4.6.5, dowód równo±ci 4.6.3 zacznijmy od zauwa»enia, »e
T
∂ log p (r, s; θ) X ∂ log p (r t | st , Rt−1 ; α)
=
.
∂α
∂α
t=1
Zastosowanie wzoru na prawdopodobie«stwo ªa«cuchowe wraz z wykorzystaniem powy»szego wzoru pozwala
nam wyrazi¢ pochodn¡ Q (θ m+1 ; θ m , r) jako
ˆ
∂Q (θ m+1 ; θ m , r)
∂ log p (r, s; θ m+1 )
=
· p (r, s; θ m )
∂αm+1
∂αm+1
S
T ˆ
X
∂ log p (r t | st , Rt−1 ; α)
=
· p (r, s; θ m )
∂αm+1
t=1 S
T ˆ
X
∂ log p (r t | st , Rt−1 ; α)
=
· p (s | RT ; θ m ) · p (r; θ m )
∂αm+1
t=1 S
=
p (r; θ m )
T X
l
X
∂ log p (r t | st , Rt−1 ; α)
· p (st | RT ; θ m )
∂αm+1
t=1 s =1
t
= p (r; θ m )
0
T X
∂ log η
t
t=1
∂αm+1
43
· ξ̂ t|T .
Przyrównuj¡c powy»sz¡ pochodn¡ do zera i wykonuj¡c oczywiste przeksztaªcenia otrzymujemy 4.6.3.
Do przeprowadzenia pozostaª nam wi¦c ju» tylko dowód równo±ci 4.6.4. Równie» tutaj skorzystamy ze wzoru
4.6.5, pozwalaj¡cego nam uzyska¢
∂ log p (r, s; θ)
1
= I (s1 = i) ,
∂ρi
ρi
co po wstawieniu do pochodnej wzgl¦dem ρ funkcji Q (θ m+1 ; θ m , r) daje nam
∂Q (θ m+1 ; θ m , r)
(m+1)
∂ρi
ˆ
∂ log p (r, s; θ m+1 )
=
ˆ
=
· p (r, s; θ m )
(m+1)
∂ρi
S
1
(m+1)
S ρi
I (s1 = i) · p (r, s; θ m ) .
Uwzgl¦dniaj¡c warunek
l
X
(m+1)
ρi
= 1,
i=1
(m+1)
dokona¢ mo»emy maksymalizacji parametrów ρi
poprzez zdeniowanie funkcji
dla i = 1, 2, . . . , l stosuj¡c metod¦ mno»ników Lagrange'a
Q (θ m+1 ; θ m , r) − λ
l
X
!
(m+1)
ρi
−1 ,
i=1
gdzie λ jest mno»nikiem Lagrange'a, a nast¦pnie zró»niczkowanie jej i przyrównanie do zera, w efekcie czego
otrzymujemy
∂Q (θ m+1 ; θ m , r)
(m+1)
ˆ
= λ,
∂ρi
1
(m+1)
S ρi
I (s1 = i) · p (r, s; θ m )
p (s1 = i | RT ; θ m ) · p (r; θ m )
= λ,
(m+1)
= λρi
.
Dokonanie sumowania po i pozwala nam przeksztaªci¢ powy»sz¡ równo±¢ do postaci
p (r; θ m ) = λ.
Poª¡czenie natomiast dwóch ostatnich równo±ci oraz dokonanie prostych przeksztaªce« daje nam
(m+1)
ρi
= p (s1 = i | RT ; θ m ) ,
co po zapisaniu w postaci wektorowej przyjmuje posta¢ 4.6.4.
Zauwa»my w tym miejscu, »e zawarte we wªa±nie udowodnionym twierdzeniu wzory 4.6.2, 4.6.3 oraz 4.6.4
wykorzystuj¡ prawdopodobie«stwa przebywania w re»imie, które uzyska¢ mo»emy stosuj¡c ltr Hamiltona wraz
z wygªadzaniem. Filtr ten wkomponowuje si¦ zatem w naturalny sposób mi¦dzy kolejne iteracje algorytmu EM.
Zwró¢my uwag¦ równie» na to, »e nie okre±lili±my dotychczas explicite momentu, w którym uzasadnione jest
zaprzestanie wykonywania kolejnych iteracji algorytmu EM. Zgodnie z sugestiami Hamiltona za moment ten
uznamy chwil¦ w której maksymalna co do warto±ci bezwzgl¦dnej ró»nica mi¦dzy obecnymi warto±ciami estymatorów oraz warto±ciami poprzednimi nie przekracza pewnej staªej, niewielkiej warto±ci granicznej, np. 10−8 .
Reguªa taka jest prosta oraz jak pokazuje empiryczne do±wiadczenie skuteczna. W ramach uzupeªnienia wywodu warto jednak zwróci¢ uwag¦ na to, »e istniej¡ tak»e obliczeniowo bardziej skomplikowane, lecz silniej
matematycznie uzasadnione warunki stopu algorytmu EM, które znale¹¢ mo»na np. w publikacji [38].
44
Rozdziaª 5
Przeª¡cznikowy model
Copula-AR-GARCH
Zajmiemy si¦ teraz omówieniem modelu, do którego wprowadzenia d¡»yli±my przedstawiaj¡c wszystkie wcze±niej
opisywane w pracy zagadnienia. Modelem tym b¦dzie przeª¡cznikowy model Copula − AR − GARCH, w którym
• wykorzystamy modele typu AR (1) − GARCH (1, 1) do opisu jednowymiarowych nansowych szeregów
czasowych,
• zastosujemy kopule w celu badania zale»no±ci wyst¦puj¡cych mi¦dzy tymi szeregami,
• u»yjemy ukrytych modeli Markowa, aby wyrazi¢ okresow¡ zmienno±¢ w zachowaniu wspomnianych zale»no±ci.
Na pocz¡tku rozdziaªu tego przedstawimy denicj¦ przeª¡cznikowego modelu Copula − AR (1) − GARCH (1, 1)
o bª¦dach pochodz¡cych ze standaryzowanego rozkªadu sko±nego t-Studenta. Nast¦pnie natomiast skupimy
si¦ na zagadnieniu estymacji jego parametrów, wykorzystuj¡c w tym celu wiedz¦ zgromadzon¡ we wszystkich
wcze±niejszych rozdziaªach pracy.
5.1 Denicja modelu
W sekcji tej zdeniujemy przeª¡cznikowy model Copula − AR (1) − GARCH (1, 1) . Z racji jego du»ego rozbudowania, wielopoziomowo±ci oraz mo»liwo±ci zastosowania koncepcji przeª¡cze« w ró»noraki sposób, model ten
przedstawimy nie w postaci pojedynczej spójnej denicji, lecz w sposób bardziej opisowy.
Tak wi¦c zaczynaj¡c powiemy, »e przeª¡cznikowym modelem Copula − AR (1) − GARCH (1, 1) nazwiemy
wielowymiarowy szereg czasowy
r t = (r1,t , r2,t , . . . , rk,t ) ,
którego dystrybuant¦ F wyrazi¢ mo»emy za pomoc¡ warunkowej funkcji kopuli C jako
F (r t | st , Rt−1 ; θ) = C (F t | st , Rt−1 ; θ c ) ,
(5.1.1)
gdzie symbolem F t oznaczono wektor dystrybuant jednowymiarowych
F t = (F1 (r1,t | Rt−1 ; θ 1 ) , F2 (r2,t | Rt−1 ; θ 2 ) , . . . , Fk (rk,t | Rt−1 ; θ k )) ,
(5.1.2)
symbolami
• θ 1 , θ 2 , . . . , θ k parametry opisuj¡ce odpowiednio jednowymiarowe szeregi czasowe r1,t , r2,t , . . . , rk,t ,
• θ c parametry kopuli C,
45
• θ wszystkie parametry opisuj¡ce wielowymiarowy szereg r t , a zatem
θ = (θ 1 , θ 2 , . . . , θ k , θ c ) ,
natomiast symbolem st nieobserwowalny ªa«cuch Markowa o l stanach, rozkªadzie pocz¡tkowym ρ oraz macierzy przej±cia P , okre±laj¡cy re»imy w jakich proces znajduje si¦ w kolejnych chwilach czasu t. Zwró¢my w
tym miejscu uwag¦, »e zgodnie ze wzorami 5.1.1 oraz 5.1.2, ªa«cuch Markowa st steruje wyª¡cznie postaci¡
wykorzystywanej w modelu funkcji kopuli. Jest zatem stosowany do okre±lania zmian w strukturze zale»no±ci
wyst¦puj¡cych mi¦dzy jednowymiarowymi szeregami czasowymi r1,t , r2,t , . . . , rk,t , nie ma natomiast wpªywu
na sam¡ posta¢ tych szeregów.
Wspomniane jednowymiarowe szeregi czasowe b¦d¡ modelowane jako szeregi typu AR (1) − GARCH (1, 1) , a
zatem b¦d¡ one miaªy struktur¦
ri,t = µi + ϕi ri,t−1 + σi,t i,t ,
gdzie
• σi,t =
q
2
,
αi,0 + αi,1 2i,t−1 + βi,1 σi,t−1
• i,t ∼ skew-t (ηi , γi ) .
W szczególno±ci wynika st¡d, »e ich parametry θ 1 , θ 2 , . . . , θ k s¡ wektorami postaci
θ i = (µi , ϕi , αi,0 , αi,1 , βi,1 , ηi , γi ) .
Ostatecznie wykorzystywanymi przez nas w modelowaniu funkcjami kopuli b¦d¡ kopule gaussowskie. Jak zostaªo
pokazane w sekcji 2.5, kopule te parametryzuje macierz korelacji liniowych mi¦dzy zmiennymi R, a zatem w ich
przypadku
θ c = (ρ, P , R1 , R2 , . . . , Rl ) .
Z powy»szej postaci θ c w szczególno±ci mo»na wydedukowa¢, »e zainteresowani b¦dziemy wykorzystaniem ªa«cucha Markowa st do kontrolowania parametrów wybranej przez nas kopuli przy zachowaniu jej staªej ogólnej
struktury.
5.2 Estymacja parametrów
Opieraj¡c si¦ na modelu wprowadzonym w sekcji poprzedniej, opiszemy teraz sposób estymacji parametrów
θ bazuj¡cy na maksymalizacji funkcji najwi¦kszej wiarogodno±ci. W gªównej mierze korzysta¢ tu b¦dziemy z
wprowadzonych wcze±niej metod estymacji poszczególnych skªadowych modelu Copula−AR (1)−GARCH (1, 1) ,
które opisywali±my w du»ym stopniu z my±l¡ o wykorzystaniu ich w niniejszej sekcji.
Zauwa»my na wst¦pie, »e wzór 2.2.2 dostarcza nam gotowy przepis na przeksztaªcenie warunkowej dystrybuanty
naszego modelu, opisanej równaniem 5.1.1, w warunkow¡ g¦sto±¢ postaci
f (r t | st , Rt−1 ; θ) = c (F t | st , Rt−1 ; θ c )
k
Y
fi (ri,t | Rt−1 ; θ i ) .
i=1
Korzystaj¡c z tej g¦sto±ci, g¦sto±¢ r t niezale»n¡ od re»imu st wyrazi¢ mo»emy jako
f (r t | Rt−1 ; θ)
=
l
X
f (r t , st = j | Rt−1 ; θ)
j=1
=
l
X
f (r t | st = j, Rt−1 ; θ) P (st = j | Rt−1 ; θ)
j=1


l
k
X
Y
= 
c (F t | st = j, Rt−1 ; θ c ) P (st = j | Rt−1 ; θ)
fi (ri,t | Rt−1 ; θ i ) .
j=1
i=1
46
Daje nam to mo»liwo±¢ zapisania funkcji log-wiarogodno±ci w znanej nam ju» z podsekcji 2.4.2 postaci


T
l
k X
T
X
X
X
` (θ) =
log 
c (F t | st = j, Rt−1 ; θ c ) P (st = j | Rt−1 ; θ) +
log (fi (ri,t | Rt−1 ; θ i )).
t=1
i=1 t=1
j=1
{z
|
|
}
`c (θ)
{z
`i (θ i )
}
Z wspomnianej podsekcji wiemy, »e bez znacz¡cej straty na jako±ci uzyskanych estymatorów mo»emy cz¦±¢ `c (θ)
Pk
Pk
oraz cz¦±¢ i=1 `i (θ i ) funkcji log-wiarogodno±ci estymowa¢ osobno. Zauwa»my ponadto, »e cz¦±¢ i=1 `i (θ i )
reprezentuje w tym wypadku ª¡czn¡ wiarogodno±¢ brzegowych modeli AR (1) − GARCH (1, 1) , których sposób
estymacji opisali±my ju» w podsekcji 3.3. Pozostaªo nam zatem skupi¢ si¦ na opisaniu sposobu estymacji cz¦±ci
`c (θ) , któr¡ w efekcie wstawienia estymatorów θ̂ 1 , θ̂ 2 , . . . , θ̂ k sprowadzi¢ mo»emy do postaci


T
l
X
X
`c (θ c ) =
log 
c F̂ t | st = j, Rt−1 ; θ c P (st = j | Rt−1 ; θ) ,
t=1
j=1
gdzie
• F̂ t = F1 r1,t | Rt−1 ; θ̂ 1 , F2 r2,t | Rt−1 ; θ̂ 2 , . . . , Fk rk,t | Rt−1 ; θ̂ k .
Zadanie to, z racji wyst¦powania w modelu re»imów, zrealizujemy stosuj¡c metod¦ opisan¡ w sekcji 4.2, a zatem
wykonuj¡c a» do momentu uzyskania estymatorów po»¡danej jako±ci
1. ltr Hamiltona z wygªadzaniem w celu obliczenia prawdopodobie«stw przebywania w danym re»imie w
danej chwili czasu t,
2. algorytm EM w celu uzyskania lepszych estymatorów parametrów θ c modelu.
Filtr Hamiltona oraz wygªadzanie, w stopniu wystarczaj¡cym do przeprowadzenia oblicze« dla obecnie rozpatrywanego zagadnienia, opisane zostaªy ju» w podsekcjach 4.3 oraz 4.4. W tym miejscu dodajmy zatem tylko,
»e jedyny element algorytmu zmieniaj¡cy si¦ w zale»no±ci od rozpatrywanego problemu, a zatem wektor g¦sto±ci
η t , w naszym przypadku przyjmuje posta¢

 c F̂ t | st = 1, Rt−1 ; θ c
 


c F̂ t | st = 2, Rt−1 ; θ c 
,
ηt = 


..


.
 
c F̂ t | st = l, Rt−1 ; θ c
któr¡ po uwzgl¦dnieniu tego, »e re»im st steruje wyª¡cznie parametrami g¦sto±ci kopuli zapisa¢ mo»emy w
przypadku kopuli gaussowskiej jako

 c F̂ t | Rt−1 ; R1
 


c F̂ t | Rt−1 ; R2 
.
ηt = 


..


.
 
c F̂ t | Rt−1 ; Rl
W celu zamkni¦cia opisu procesu estymacji pozostaªo nam zatem tylko omówienie zagadnienia wykorzystania
w nim algorytmu EM. Twierdzenie 21 oferuje w tym kontek±cie jawne wzory na iteracyjne wyznaczanie coraz
lepszych estymatorów parametrów ρ oraz P ªa«cucha Markowa st . Proponowany przez to twierdzenie wzór 4.6.3,
sªu»¡cy w naszym przypadku do wyznaczenia parametrów kopuli wymaga jednak przeprowadzenia pewnych
dalszych oblicze«. Zajmiemy si¦ teraz zatem zrealizowaniem tych oblicze«.
W podsekcji 2.5 zaprezentowali±my wzór na g¦sto±¢ wielowymiarowej kopuli gaussowskiej postaci
cg (ut | st ) =
1
|Rst |
0
−1
e− 2 ς t (Rst
1
1/2
−I )ς t
,
który poprzez zlogarytmowanie przeksztaªci¢ mo»emy do formy
1
1
1 0
log cg (ut | st ) = − log |Rst | − ς 0t R−1
st ς t + ς t ς t .
2
2
2
47
B¦dziemy aktualnie zainteresowani wykorzystaniem powy»szej g¦sto±ci do estymacji parametrów funkcji kopuli
R1 , R2 , . . . , Rl . Zacznijmy wi¦c od jej zró»niczkowania, przy czym dla wygody ró»niczkowanie to przeprowad¹my przez odwrotno±ci parametrów. W efekcie uzyskamy
∂ log cg (ut | st )
=
∂R−1
j
(
1
2 Rj
0,
− 12 ς t ς 0t , gdy st = j,
gdy st =
6 j,
co po wstawieniu do wzoru 4.6.3 i przeksztaªceniu daje nam estymatory postaci
(m+1)
R̃j
PT
=
t=1
PT
ς t ς 0t P (st = j | RT ; θ m )
t=1
P (st = j | RT ; θ m )
, j = 1, 2, . . . , l.
Z racji statystycznego, opartego o niedoskonaª¡ prób¦, charakteru oblicze« zwi¡zanych z wyznaczaniem powy»szych warto±ci oraz specyki funkcji kopuli gaussowskiej, w przypadku której macierz kowariancji oraz korelacji
mog¡ by¢ stosowane zast¦pczo, nale»y zauwa»y¢, »e powy»sze estymatory s¡ dobrymi estymatorami macierzy
kowariancji kopuli gaussowskiej, natomiast nie koniecznie b¦d¡ one dobrze estymowa¢ macierz korelacji. Jest
to konsekwencj¡ wspomnianej ju» niedoskonaªo±ci próby, w przypadku której wariancje rozkªadów brzegowych
mog¡ odbiega¢ od teoretycznie oczekiwanej wariancji jednostkowej. W celu poprawienia naszych estymatorów
mo»emy zatem w oparciu o uzyskane z próby wariancje dokona¢ ich normalizacji stosuj¡c wzory
∆
(m+1)
R̃j
(m+1)
R̂j
(m+1)
r̃11
1/2 1/2
1/2 (m+1)
(m+1)
, r̃22
, . . . , r̃ll
,
=
diag
=
(m+1) −1 (m+1) (m+1) −1
,
R̃j
∆ R̃j
∆ R̃j
gdzie
(m+1)
• r̃11
(m+1)
, r̃22
(m+1)
, . . . , r̃ll
(m+1)
to elementy le»¡ce na diagonali macierzy R̃j
.
Jakkolwiek mo»liwym jest ju» dokonanie w oparciu o przedstawione dotychczas wzory bezpo±redniej estymacji
wszystkich parametrów modelu. Zauwa»my, »e estymuj¡c k − wymiarow¡ kopul¦ normaln¡ estymujemy de facto
wiele korelacji liniowych ª¡cz¡cych poszczególne pary analizowanych szeregów czasowych. Nie wykorzystujemy
zatem w tym kontek±cie w »aden sposób faktycznej wymiarowo±ci obserwacji. Zwró¢my ponadto uwag¦, »e estymacja kopuli k − wymiarowej narzuca na nas jednocze±nie konieczno±¢ równoczesnego przeª¡czania re»imów,
a zatem równie» parametrów korelacji, dla wszystkich analizowanych par szeregów czasowych. Zatem w kontek±cie instrumentów nansowych wydaje si¦ intuicyjnie, »e zmiany re»imów pokrywa¢ b¦d¡ wyª¡cznie zjawiska o
charakterze globalnym, maj¡cym wpªyw na wszystkie instrumenty równocze±nie, kiedy parametry kopuli skupia¢ si¦ b¦d¡ na analizie zale»no±ci lokalnych, wyst¦puj¡cych wyª¡cznie mi¦dzy poszczególnymi instrumentami
badanymi w parach.
Sensownym wydaje si¦ zatem zast¡pienie estymacji jednej kopuli k − wymiarowej dokonaniem szeregu estymacji kopul 2 − wymiarowych. Podej±cie takie umo»liwi pokrycie przez zmiany re»imów zarówno zjawisk natury
globalnej, jak i lokalnej oraz pozwoli na zachowanie wi¦kszej spójno±ci pomi¦dzy zmianami re»imów oraz warto±ciami parametru korelacji. W przypadku du»ych warto±ci k wydatnie zmniejszy równie» liczb¦ jednocze±nie
estymowanych parametrów modelu, zwi¦kszaj¡c tym samym jako±¢ samej estymacji.
Maj¡c na wzgl¦dnie wszystkie powy»sze uwagi przeanalizujmy jeszcze sposób estymacji parametrów korelacji
liniowych ρj , j = 1, 2, . . . , l, w przypadku 2 − wymiarowej kopuli gaussowskiej. G¦sto±¢ tego typu kopuli
zaprezentowali±my ju» w sekcji 2.5 w postaci wzoru
ρst
g
c (u1,t , u2,t
1
2
| st ) = p
e 2(1−ρst )
2
1 − ρst
2
2zu1,t zu2,t −zu
1,t
2
ρst −zu
2,t
ρst
,
który to po zlogarytmowaniu przyjmuje posta¢
1
ρst
2zu1,t zu2,t − zu2 1,t ρst − zu2 2,t ρst .
log cg (u1,t , u2,t | st ) = − log 1 − ρ2st +
2
2 1 − ρ2st
48
Ró»niczkuj¡c powy»sze wyra»enie po estymowanych parametrach ρj , j = 1, 2, . . . , l, uzyskujemy
g
∂ log c (u1,t , u2,t
∂ρj
 3
2
2
−ρj +zu1,t zu2,t ρ2j + 1−zu
−zu
ρj +zu1,t zu2,t

1,t
2,t
| st )
, dla st = j,
2
=
(1−ρ2j )

0,
dla st 6= j,
co po wstawieniu do 4.6.3 i odpowiednim przeksztaªceniu sprowadza problem znalezienia estymatora wspóªczynnika korelacji do zagadnienia znalezienia miejsc zerowych wielomianu 3-go stopnia postaci
3
2
(m+1)
(m+1)
(m+1)
α ρ̂j
+ β ρ̂j
+ γ ρ̂j
+ β = 0,
gdzie
PT
• α = − t=1 P (st = j | RT ; θ m ) ,
PT
• β = t=1 zu1,t zu2,t P (st = j | RT ; θ m ) ,
PT • γ = t=1 1 − zu2 1,t − zu2 2,t P (st = j | RT ; θ m ) .
Macierz kowariancji tak uzyskanych estymatorów parametrów kopuli w sposób ±ci±le formalny wyrazi¢ nale»y
za pomoc¡ odwrotno±ci macierzy informacyjnej Godamble'a opisanej wzorem 2.4.5. Model nasz, z racji wyst¦puj¡cych w nim re»imów, jest jednak zbyt skomplikowany aby pozwoli¢ sobie na analityczne wyznaczenie wzoru
tej macierzy. Z uwagi na obliczeniow¡ czasochªonno±¢ procesu estymacji parametrów kopuli niemo»liwym jest
równie» przybli»enie macierzy tej za pomoc¡ metod typu bootstrap lub jack-knife. W zwi¡zku z powy»szym,
zastosujemy powszechnie wykorzystywany przez ekonomistów w tego typu sytuacjach zabieg, polegaj¡cy na
przybli»eniu macierzy kowariancji parametrów kopuli poprzez odwrotno±¢ próbkowej macierzy Fishera
 ∂ 2 `c (θc )
∂ρ21
 ∂ 2 `c (θ
c)

 ∂ρ2 ∂ρ1
∂ 2 `c (θ c )
∂ρ1 ∂ρ2
∂ 2 `c (θ c )
∂ρ22
∂ 2 `c (θ c )
∂ρl ∂ρ1
∂ 2 `c (θ c )
∂ρl ∂ρ2
F̂ (θ c ) = − 


..
.
..
.
···
···
..
.
···
∂ 2 `c (θ c )
∂ρ1 ∂ρl
∂ 2 `c (θ c ) 

∂ρ2 ∂ρl 

..
.
∂ 2 `c (θ c )
∂ρ2l
.


Teoretyczn¡ podstaw¡ pozwalaj¡c¡ na zastosowanie tego zabiegu jest chwilowe pomini¦cie w naszym rozumowaniu etapu estymacji parametrów rozkªadów brzegowy i uznaniu, i» caªe stoj¡ce przed nami zadanie sprowadza
si¦ do wyestymowania parametrów funkcji kopuli, którego dokonamy wykorzystuj¡c metod¦ najwi¦kszej wiarogodno±ci. W przypadku tak postawionego problemu odwrotno±¢ macierzy informacyjnej Fishera jest oczywi±cie
naturalnym sposobem wyra»enia kowariancji parametrów kopuli. Z kolei silne skorelowanie przedstawionego
wªa±nie problemu uproszczonego, z naszym problemem rzeczywistym sugeruje, »e macierz ta b¦dzie dobrze
przybli»aªa macierz kowariancji równie» w jego przypadku.
Bezpo±rednie analityczne wzory na pochodne potrzebne do wyliczenia elementów macierzy F̂ (θ c ) po »mudnych,
lecz obliczeniowo prostych rachunkach wyrazi¢ mo»na jako


 
ρj

ρk
w2,t (ρj )
w2,t (ρk )

st =k|Rt−1 ) 2(1−ρ2 )
st =j|Rt−1 ) 2(1−ρ2 )

 P (r
 P (r
j
k

e
w3,t (ρj )
e
w3,t (ρk ) 

 
5
5




(1−ρ2j )
(1−ρ2k )
P

T

 , dla j 6= k,

!2

ρi
 t=1 −

w2,t (ρi )
P

2
P
s
=i|R
( t
t−1 ) 2(1−ρi )
l



√
e

i=1

2
1−ρ

i
∂ 2 `c (θ c )

=
2 

ρj
ρj
w2,t (ρj )
w2,t (ρj )

∂ρj ∂ρk

P (st =j|Rt−1 ) 2(1−ρ2 )
P (st =j|Rt−1 ) 2(1−ρ2 )

j
j

 r
e
w1,t (ρj )
w3,t (ρj )  
 r 1−ρ2 5 e

9

PT 
(1−ρ2j )
( j)


 


−
ρi
ρi

  , dla j = k,
 t=1 
w
ρ
w
ρ

2,t ( i )  
Pl
P (st =i|Rt−1 ) 2(1−ρ2 ) 2,t ( i )

 Pl P (s√
t =i|Rt−1 ) 2(1−ρ2 )



i
i
√
e
e

i=1
i=1

1−ρ2
1−ρ2

i
i
gdzie
• w1,t (ρ) = 2ρ6 + β5 ρ5 + β4 ρ4 + β3 ρ3 + β2 ρ2 + β1 ρ + β0 ,
β5 = −4zu1,t zu2,t ,
49
β4 = 5zu21,t + 5zu22,t + zu21,t zu22,t − 3,
β3 = −2zu1,t zu2,t zu21,t + zu22,t + 2 ,
β2 = −4zu21,t − 4zu22,t + zu41,t + zu42,t + 4zu21,t zu22,t ,
β1 = −2zu1,t zu2,t zu21,t + zu22,t − 4 ,
β0 = −zu21,t − zu22,t + zu21,t zu22,t + 1,
• w2,t (ρ) = 2zu1,t zu2,t − zu2 1,t + zu2 2,t ρ,
• w3,t (ρ) = −ρ3 + zu1,t zu2,t ρ2 + 1 − zu2 1,t − zu2 2,t ρ + zu1,t zu2,t .
50
Rozdziaª 6
Grupowanie obserwacji
W niniejszej sekcji b¦dziemy zainteresowani wykorzystaniem parametrów charakteryzuj¡cych funkcj¦ kopuli,
a zatem opisuj¡cych zale»no±ci wyst¦puj¡ce pomi¦dzy modelami brzegowymi, do okre±lenia miary niepodobie«stwa obserwacji opisanych tymi modelami oraz dokonania w oparciu o miar¦ t¡ ich grupowania. W tym
celu zdeniujemy najpierw formalnie poj¦cie miary niepodobie«stwa dla obserwacji. Nast¦pnie wykorzystuj¡c
poj¦cie to przedstawimy jedno z mo»liwych podej±¢ do zagadnienia mierzenia niepodobie«stwa pomi¦dzy grupami (klastrami) obserwacji. W dalszej kolejno±ci oba te poj¦cia wykorzystane zostan¡ przez nas do opisania
stosowanego w kolejnym rozdziale pracy algorytmu grupowania (klasteryzacji) obserwacji. Na zako«czenie za±
zaproponujemy ró»ne sposoby pomiaru niepodobie«stwa mi¦dzy pojedynczymi obserwacjami, uwzgl¦dniaj¡ce
specyczne cechy rozwa»anego przez nas przeª¡cznikowego modelu Copula − AR (1) − GARCH (1, 1) .
6.1 Miara niepodobie«stwa
Oznaczmy na wst¦pie symbolem X niepusty zbiór z którego pochodzi¢ b¦d¡ grupowane przez nas obserwacje.
Denicja 22. Funkcj¦ d : X 2 → R nazwiemy miar¡ niepodobie«stwa je»eli dla dowolnych x1 , x2 ∈ X
zachodzi
1. d (x1 , x2 ) ≥ 0,
2. d (x1 , x2 ) = 0 wtedy i tylko wtedy, gdy x1 oraz x2 s¡ nierozró»nialne,
3. d (x1 , x2 ) = d (x2 , x1 ) .
Wyªania si¦ st¡d intuicyjny obraz miary niepodobie«stwa jako funkcji, która przyjmowa¢ b¦dzie warto±ci tym
wi¦ksze, im podobie«stwo mi¦dzy obserwacjami b¦dzie mniejsze. Miary tego typu le»¡ u podstaw wi¦kszo±ci
algorytmów grupowania obserwacji, w tym równie» tego, którego zastosowaniem w niniejszej pracy b¦dziemy
zainteresowani. Algorytmy te jednak cz¦sto oprócz mo»liwo±ci mierzenia niepodobie«stwa pomi¦dzy pojedynczymi obserwacjami wymagaj¡ równie» okre±lenia miary pozwalaj¡cej na dokonanie pomiaru niepodobie«stwa
pomi¦dzy klastrami obserwacji.
W literaturze spotka¢ mo»na si¦ z co najmniej kilkoma powszechnie stosowanymi miarami tego typu, których
opisy znajduj¡ si¦ mi¦dzy innymi w ksi¡»ce [28]. My do naszych celów wykorzystamy tylko jedn¡ z nich.
B¦dzie ni¡ wprowadzona przez Warda w pracy [41] oraz obszernie omówiona w ksi¡»ce [33] miara bazuj¡ca
na analizie wariancji, której ciekawe podªo»e teoretyczne stwarza podstawy do przypuszczania, i» da nam ona
najbardziej adekwatne wyniki klasteryzacji. Miar¦ t¡ nazywa¢ b¦dziemy miar¡ Warda i w celu uªatwienia
aktualizacji odlegªo±ci mi¦dzy klastrami po dokonaniu scalenia dowolnych dwóch z nich wprowadzimy j¡ w
sposób rekurencyjny, za pomoc¡ wzoru
(P
3
n1
n1 +ni
i=2 n1 +n2 +n3 d (A1 , Ai ) − n1 +n2 +n3 d (A2 , A3 ) , gdy (∃i) ni > 1,
(6.1.1)
d (A1 , A2 ∪ A3 ) = 2 P
3
1
gdy (∀i) ni = 1.
i=2 d (a1 , ai ) − 3 d (a2 , a3 )
3
gdzie ni = #Ai , i = 1, 2, 3 oraz ai to jedyny element singletonu Ai przy i = 1, 2, 3.
51
Zauwa»my, »e w denicji powy»szej symbolu d (·, ·) u»ywamy zamiennie do reprezentowania operuj¡cej na klastrach miary Warda oraz stosowanej z ni¡ w parze i operuj¡cej na pojedynczych obserwacjach miary niepodobie«stwa. Niejednoznaczno±¢ t¡ usprawiedliwi¢ mo»na ªatwo wiedz¡c, »e miar¦ Warda interpretowa¢ nale»y
jako t¡ cz¦±¢ zmienno±ci klastra A2 ∪ A3 , której nie wyja±nia ª¡czna zmienno±¢ klastrów A2 i A3 . Miara ta jest
zatem naturalnym rozszerzeniem miary niepodobie«stwa na przypadek grup obserwacji.
6.2 Algorytm aglomeracyjny Warda
Zauwa»my, »e wprowadzaj¡c miar¦ Warda w sposób rekurencyjny niejawnie zasugerowali±my, i» sposobem klasteryzacji jaki zaproponujemy do wykorzystania w pracy b¦dzie klasteryzacja oparta na krokowym ª¡czeniu
mniejszych grup obserwacji w grupy coraz wi¦ksze. W rzeczy samej, zainteresowani b¦dziemy wykorzystaniem
algorytmu aglomeracyjnego klasteryzacji, który rozpoczyna swoje dziaªanie od utworzenia klastrów zawieraj¡cych po jednej obserwacji i w ka»dym kroku dziaªania ª¡czy te dwa z nich, których niepodobie«stwo jest
najmniejsze. Do pomiaru niepodobie«stwa pomi¦dzy klastrami wykorzystamy oczywi±cie miar¦ Warda, dlatego
te» algorytm nasz w peªnym brzmieniu nazywa¢ si¦ b¦dzie algorytmem aglomeracyjnym Warda.
W celu dokªadnego opisania tego algorytmu przyjmijmy, »e dysponujemy ci¡giem obserwacji x1 , x2 , . . . , xn ∈ X ,
który podda¢ b¦dziemy chcieli procesowi klasteryzacji. Algorytmem aglomeracyjnym Warda nazwiemy
wówczas algorytm realizuj¡cy poni»sz¡ list¦ kroków.
1. Inicjalizacja. Tworzymy wst¦pny podziaª obserwacji na klastry jednoelementowe
C n = {{x1 } , {x2 } , . . . , {xn }} .
2. Dla k = n, n − 1, 2 wykonujemy nast¦puj¡ce kroki.
(a) Aktualizacja klastrów. Wybieramy z obecnego podziaªu na klastry C k te dwa z nich, których
niepodobie«stwo wzgl¦dem miary Warda jest najmniejsze, tzn.
Ã1 , Ã2 =
arg min
d (A1 , A2 ) ,
A1 ,A2 ∈C k ,A1 6=A2
a nast¦pnie tworzymy nowy podziaª na klastry C k−1 , b¦d¡cy kopi¡ podziaªu C k z wyeliminowanymi
klastrami Ã1 i Ã2 oraz dodanym klastrem Ã1 ∪ Ã2 , tzn.
n
o n
o
C k−1 = C k − Ã1 , Ã2
∪ Ã1 ∪ Ã2 .
(b) Aktualizacja niepodobie«stwa. Wykorzystuj¡c wzór rekurencyjny 6.1.1 obliczamy niepodobie«stwa pomi¦dzy nowym klasterem Ã1 ∪ Ã2 , a pozostaªymi klastrami podziaªu C k−1 .
Przy tak zdeniowanym algorytmie grupowania, do gracznego zaprezentowania wyniku jego dziaªania posªu»y¢
mo»na si¦ drzewem, którego w¦zªy odpowiadaj¡ klastrom C 1 ∪C 2 ∪. . .∪C n , kraw¦dzie natomiast odzwierciedlaj¡
sposób w jaki klastry te byªy kolejno ª¡czone. W tak okre±lonym drzewie jedyny klaster podziaªu C 1 odpowiada
oczywi±cie korzeniowi drzewa, natomiast jednoelementowe klastry podziaªu C n odpowiadaj¡ jego li±ciom. Znaczenie odgrywa tutaj równie» poziom, na jakim narysowany zostanie dany w¦zeª. Zasadniczo przyjmuje si¦, »e
li±cie rysowane s¡ na poziomie zerowym, natomiast pozostaªe w¦zªy na wysoko±ci odpowiadaj¡cej mierze niepodobie«stwa mi¦dzy klastrami reprezentowanymi przez ich w¦zªy potomki. Tak zdeniowane drzewo okre±la¢
b¦dziemy dalej mianem dendrogramu. Przykªadowy dendrogram przedstawia rysunek 6.1.
Wartym zauwa»enia jest, »e w dendrogramie dystans mi¦dzy kolejnymi poziomami w¦zªów zaczyna od pewnego
momentu drastycznie wzrasta¢, co jest zasadniczo efektem ª¡czenia ze sob¡ coraz bardziej niepodobnych do siebie
grup obserwacji. Zjawisko to sugeruje, »e w celu uzyskania mo»liwie maªej liczby jak najbardziej spójnych grup
obserwacji, mo»emy przyj¡¢ heurystyczn¡ reguª¦ doboru liczby klastrów poprzez obcinanie dendrogramu na
poziomie, przy którym odlegªo±¢ mi¦dzy kolejnymi w¦zªami jest wci¡» niewielka. Przykªadowo dla dendrogramu
zamieszczonego na rysunku 6.1 za poziom ten uzna¢ mo»emy warto±¢ 50, uzyskuj¡c w ten sposób 4 klastry
postaci {6, 10, 3, 4, 7} , {15, 20, 5, 14} , {16, 12, 18, 17, 2, 19} i {1, 8, 11, 9, 13} .
Reguª¦ powy»sz¡ w sposób mniej subiektywny, umo»liwiaj¡cy automatyzacj¦ caªej procedury, wyrazi¢ mo»emy
równie» stosuj¡c staªy procentowy próg caªkowitej wysoko±ci dendrogramu, przy którym nast¦powa¢ b¦dzie
odci¦cie. W przypadku za± specycznych problemów dla których znane s¡ przypuszczalne grupy na jakie
powinny podzieli¢ si¦ obserwacje, mo»liwe jest równie» przyj¦cie strategii polegaj¡cej na odgórnym ustaleniu
docelowej ich liczby i konfrontacja uzyskanych wyników z wynikami oczekiwanymi.
52
Rysunek 6.1: Dendrogram.
6.3 Niepodobie«stwo w kontek±cie przeª¡cznikowego modelu CopulaAR-GARCH
Wszystkie nasze dotychczasowe rozwa»ania na temat procesu klasteryzacji przeprowadzane byªy przy zaªo»eniu
istnienia pewnej bli»ej nie sprecyzowanej miary badaj¡cej niepodobie«stwo pomi¦dzy obserwacjami. Aktualnie
skupimy si¦ na zagadnieniu skonkretyzowania tej miary w kontek±cie stosowanego przez nas przeª¡cznikowego
modelu Copula − AR (1) − GARCH (1, 1) dokªadnie opisanego w sekcji 5.1.
W szczególno±ci zainteresowani b¦dziemy wykorzystaniem informacji dwojakiego rodzaju oferowanych nam przez
ten model. B¦d¡ nimi mianowicie
1. wspóªczynniki korelacji liniowej ρ1 , ρ2 , . . . , ρl , estymowane jako parametry kopul gaussowskich,
2. prawdopodobie«stwa P (st = 1 | RT ) , P (st = 2 | RT ) , . . . , P (st = l | RT ) przebywania przez model w
danym re»imie w danej chwili czasu t.
Wspomniane wspóªczynniki korelacji, z uwagi na ich sªabo±ci wyªuszczone w podsekcji 2.3.1 zast¡pmy ju» na
wst¦pie przez odpowiadaj¡ce im wspóªczynniki ρ Spearmana, które jak pami¦tamy w przypadku kopuli gaussowskiej mo»emy wyznaczy¢ w prosty sposób na bazie wzoru 2.5.3. Wspóªczynniki te, aby nie wprowadza¢ nowych,
zb¦dnych oznacze«, w dalszej cz¦±ci sekcji oznacza¢ b¦dziemy tymi samymi symbolami, którymi dotychczas
oznaczali±my wspóªczynniki korelacji.
Wspóªczynnik ρ Spearmana, jak zostaªo to wyczerpuj¡co opisane w podsekcji 2.3.2, przyjmuj¡c warto±ci z przedziaªu [−1, 1] okre±la nam siª¦ oraz natur¦ zale»no±ci wyst¦puj¡cych pomi¦dzy zmiennymi losowymi. W szczególno±ci dla zmiennych zachowuj¡cych si¦ idealnie zgodnie przyjmuje on warto±¢ 1, natomiast dla zmiennych,
których zachowanie jest idealnie niezgodne −1. Sugeruje to mo»liwo±¢ utworzenia w oparciu o wspóªczynnik ten
miary niezgodno±ci zdeniowanej jako
d (x1 , x2 ) = 1 − ρ (x1 , x2 ) .
53
(6.3.1)
W miejscu tym zauwa»y¢ nale»y, »e dla ka»dej pary obserwacji r1,t i r2,t , któr¡ modelujemy za pomoc¡ modelu
Copula − AR (1) − GARCH (1, 1) uzyskujemy kilka wspóªczynników ρ Spearmana ρ1 , ρ2 , . . . , ρl , powi¡zanych
odpowiednio z prawdopodobie«stwami P (st = 1 | RT ) , P (st = 2 | RT ) , . . . , P (st = l | RT ) ich stosowalno±ci.
W celu skorzystania ze wzoru 6.3.1 musimy zatem w tym przypadku zagregowa¢ powy»sze wspóªczynniki do postaci pojedynczej warto±ci ρ (r1,t , r2,t ) w taki sposób, aby zachowaªa ona wªasno±ci wspóªczynnika ρ Spearmana.
W celu rozwi¡zania tego problemu skorzystamy z zawartego w podsekcji 4.1.2 wzoru 4.1.5, przyjmuj¡c
ρavg (r1,t , r2,t ) =
l
X
ρj P (st = j | RT ) .
j=1
Wstawiaj¡c powy»szy wspóªczynnik do wzoru 6.3.1 otrzymujemy miar¦ niepodobie«stwa postaci
davg (r1,t , r2,t ) = 1 −
l
X
ρj P (st = j | RT ) ,
(6.3.2)
j=1
która pozwala nam dokona¢ grupowania zestawu obserwowanych szeregów czasowych r1,t , r2,t , . . . , rk,t dla
dowolnej ustalonej chwili czasu t. Grupowanie takie daje nam mo»liwo±¢ dalszej analizy danych na ró»ne sposoby.
1. Bada¢ mo»emy w jaki sposób w czasie zmieniaj¡ si¦ grupy tworzone przez nasze szeregi.
2. Oznaczaj¡c symbolem C (ri,t ) klaster do którego nale»y w chwili czasu t szereg czasowy ri,t oraz deniuj¡c
macierz cz¦sto±ci przebywania pary szeregów w tym samym klastrze jako
# {t = 1, 2, . . . , T : C (ri,t ) = C (rj,t )}
,
(6.3.3)
F =
T
i,j=1,2,...,k
dostajemy mo»liwo±¢ ±ledzenia siªy z jak¡ poszczególne szeregi czasowe zale»¡ od siebie caªo±ciowo.
3. Wprowadzaj¡c miar¦ niepodobie«stwa dla caªych szeregów czasowych, bazuj¡c¡ na tej samej idei co macierz F , postaci
# {t = 1, 2, . . . , T : C (ri,t ) = C (rj,t )}
T
T
d {ri,t }t=1 , {rj,t }t=1 = 1 −
,
(6.3.4)
T
a nast¦pnie dokonuj¡c w oparciu o ni¡ kolejnego grupowania, mo»emy utworzy¢ klastry agreguj¡ce caªe
szeregi czasowe, a nie tylko poszczególne ich obserwacje.
Zauwa»y¢ tutaj nale»y, »e pewn¡ wad¡ wzoru 6.3.2 mo»e okaza¢ si¦ jego wra»liwo±¢ na chwilowe zmiany w strukturze odlegªo±ci pomi¦dzy obserwacjami pochodz¡cymi z poszczególnych szeregów czasowych wynikaj¡cymi z
ich czasowego nietypowego zachowania. W celu unikni¦cia tego typu zmian wykorzystajmy koncepcj¦ u±rednienia wspóªczynników ρavg (r1,t , r2,t ) dla kilku nast¦puj¡cych po sobie chwil czasowych, zgodnie z wprowadzonym
w podsekcji 4.1.2 wzorem4.1.6, przyjmuj¡c
t2
t2
ρavg {r1,t }t=t
,
{r
}
2,t
t=t1 =
1
t2
X
1
ρavg (r1,t , r2,t ) ,
t2 − t1 + 1 t=t
1
gdzie t1 < t2 oraz t2 − t1 = const, a nast¦pnie deniuj¡c miar¦ niepodobie«stwa zgodn¡ z ogólnym wzorem 6.3.1
jako
t2
t2
davg {r1,t }t=t
,
{r
}
2,t
t=t1 = 1 −
1
t2
X
1
ρavg (r1,t , r2,t ) .
t2 − t1 + 1 t=t
(6.3.5)
1
Wartym zauwa»enia jest, »e przyj¦cie w powy»szym wzorze t1 = 1 oraz t2 = T prowadzi nas do zdeniowania
specjalnego przypadku powy»szej miary niepodobie«stwa postaci
T
1X
T
T
davg {r1,t }t=1 , {r2,t }t=1 = 1 −
ρavg (r1,t , r2,t ) .
T t=1
(6.3.6)
Daje nam ona oczywi±cie mo»liwo±¢ grupowania szeregów czasowych jako caªo±ci stanowi¡c drugi przykªad tego
typu miary przedstawiony przez nas w tej sekcji.
54
Rozdziaª 7
Analiza mi¦dzynarodowych zale»no±ci
gospodarczych
W rozdziale tym wykorzystamy metody wypracowane we wcze±niejszych rozdziaªach pracy w celu zbadania wzajemnego wpªywu jaki wywieraj¡ na siebie gospodarki 35 pa«stw ±wiata. Analizowa¢ b¦dziemy kraje europejskie,
azjatyckie oraz pochodz¡ce z obu Ameryk na przestrzeni lat 2002-2012. Jako wykªadnik stanu gospodarki panuj¡cego w danym kraju przyjmiemy warto±¢ charakterystycznego dla niego indeksu gieªdowego. Peªen spis
analizowanych przez nas pa«stw wraz z powi¡zanymi indeksami gieªdowymi przedstawia tabela 7.1.
Kraj
Argentyna
Australia
Austria
Belgia
Brazylia
Chile
Chiny
Czechy
Filipiny
Finlandia
Francja
Grecja
Hiszpania
Holandia
Hongkong
Indie
Indonezja
Japonia
Skrót
ARG
AUS
AUT
BEL
BRA
CHL
CHN
CZE
PHL
FIN
FRA
GRC
ESP
NLD
HKG
IND
IDN
JPN
Indeks
MERVAL
AS30
ATX
BEL20
BOVESPA
IPSA
SHBS
PX50
PSE
HEX
CAC40
ATGI
IBEX
AEX
HSI
BSE
JCI
NIKKEI
Kraj
Kanada
Korea Poªudniowa
Malezja
Meksyk
Niemcy
Norwegia
Polska
Rosja
Singapur
Stany Zjednoczone
Stany Zjednoczone
Szwajcaria
Tajlandia
Tajwan
Turcja
W¦gry
Wielka Brytania
Wªochy
Skrót
CAN
KOR
MYS
MEX
DEU
NOR
POL
RUS
SGP
USA (DJIA)
USA (NASDAQ)
CHE
THA
TWN
TUR
HUN
GBR
ITA
Indeks
TSE300
KOSPI
KLCI
IPC
DAX
OSEA
WIG
RTS
STI
DJIA
NASDAQ
SMISwiss
SET
TWSE
XU100
BUX
FTSE
FTSE MIB
Tablica 7.1: Spis pa«stw analizowanych w ramach badania.
Warto zauwa»y¢, »e Stany Zjednoczone zamie±cili±my w tabeli tej dwukrotnie, za ka»dym razem przypisuj¡c im
inny indeks gieªdowy. Jest to dziaªanie zamierzone maj¡ce na celu proste empiryczne sprawdzenie rzetelno±ci
uzyskiwanych przez nas wyników, poprzez sprawdzenie czy oraz jak szybko indeksy ameryka«skie znajd¡ si¦
we wspólnym klastrze. Teoretycznie oczekiwa¢ nale»y oczywi±cie, »e zanim zaczn¡ si¦ one ª¡czy¢ z indeksami
innych krajów, utworz¡ najpierw mi¦dzy sob¡ klaster dwuelementowy.
Przeprowadzane badanie przebiega¢ b¦dzie w kilku etapach odpowiadaj¡cych w skrócie etapom estymacji parametrów modelu Copula − AR (1) − GARCH (1, 1) oraz etapowi wnioskowania opartego na uzyskanych w efekcie
tej estymacji parametrach funkcji kopuli. Ka»demu z etapów badania odpowiada¢ b¦dzie oddzielna sekcja niniejszego rozdziaªu. W pierwszej z nich skupimy si¦ na zadaniu dopasowania do ka»dego z analizowanych rynków
modelu AR (1) − GARCH (1, 1) oraz krótkim ocenieniu uzyskanych estymatorów parametrów. Kolejn¡ po±wi¦cimy estymacji parametrów modelu Copula − AR (1) − GARCH (1, 1) dla ka»dej pary analizowanych rynków
oraz ocenie u»yteczno±ci uzyskanych w efekcie tego procesu estymatorów do celów dalszych analiz. Ostatecznie
dokonamy grupowania rynków opartego o uzyskane parametry funkcji kopuli wykorzystuj¡c do tego celu metody
opisane w rozdziale 6 oraz przeanalizujemy otrzymane wyniki.
55
7.1 Estymacja parametrów modelu AR-GARCH
Niniejsz¡ sekcj¦ po±wi¦cimy opisowi zagadnienia dopasowania modelu AR (1)−GARCH (1, 1) (wprowadzonego w
denicji 12) o bª¦dach losowych pochodz¡cych ze standaryzowanego rozkªadu sko±nego t-Studenta dla indeksów
gieªdowych wymienionych w tabeli 7.1. W kontek±cie caªego przeprowadzanego w niniejszym rozdziale badania
model ten stanowi¢ b¦dzie model brzegowy w analizowanym dalej modelu Copula − AR (1) − GARCH (1, 1) .
Wynika st¡d w szczególno±ci, »e proces dopasowania modelu, którego podejmiemy si¦ za moment rozpatrywa¢
nale»y w kategoriach wykonania pierwszego kroku metody estymacji okre±lonej przez nas mianem metody
rozkªadów brzegowych (IFM) opisanej w sposób ogólny w podsekcji 2.4.2, natomiast w kontek±cie interesuj¡cego
nas wªa±nie modelu Copula − AR (1) − GARCH (1, 1) w sekcji 5.2.
Z punktu widzenia samego modelu AR (1) − GARCH (1, 1) estymacja jego parametrów dokonana zostanie za
pomoc¡ metody quasi-najwi¦kszej wiarogodno±ci opisanej w podsekcji 3.3 z wykorzystaniem funkcji garchFit
zaimplementowanej w pakiecie fGarch programu R. Pod¡»aj¡c za ogólnie przyj¦t¡ praktyk¡, która nakazuje
oczekiwa¢, »e zgodnie z zaproponowanym przez nas modelem zachowywa¢ b¦d¡ si¦ nie same indeksy xt , lecz
stopy zwrotu rt z tych indeksów, jako wej±cie do wspomnianej funkcji zaproponujemy logarytmiczne stopy
zwrotu postaci
rt = log
xt
xt−1
.
Wyniki procesu estymacji parametrów modelu dla tych»e wªa±nie stóp zwrotu przedstawia tabela 7.3. Z racji
du»ej liczby analizowanych w badaniu indeksów, aby nie wprowadza¢ zb¦dnego szumu informacyjnego zaprezentowano w niej tylko wybrane z nich, wydaj¡ce si¦ dobrze reprezentowa¢ caªo±ciowy obraz uzyskanych wyników.
W nawiasach okr¡gªych pod ka»dym z wyestymowanych parametrów przedstawiony zostaª powi¡zany z nim
bª¡d standardowy. Kolorem czerwonym w przypadku wspóªczynnika ϕ oznaczono te warto±ci, które w sposób statystycznie nieistotny ró»ni¡ si¦ od zera, a zatem sugeruj¡ brak wyst¦powania zale»no±ci autoregresyjnej
pomi¦dzy kolejnymi warto±ciami stóp zwrotu z indeksu. W przypadku wspóªczynnika γ z kolei, kolorem tym
oznaczono te warto±ci, które w sposób statystycznie nieistotny ró»ni¡ si¦ od jedynki, a zatem sugeruj¡, »e bª¦dy
losowe modelu nie maj¡ sko±nej natury.
AUT
CZE
GRC
HUN
NOR
POL
RUS
TUR
µ
ϕ
α0
α1
β1
η
γ
0,001060
0,030258
0,000002
0,102794
0,888496
9,060299
0,899521
(0,000212)
(0,000211)
(0,000236)
(0,000264)
(0,000230)
(0,000217)
(0,000313)
(0,000331)
0,000920
0,000611
0,000743
(0,020881)
(0,021078)
(0,020490)
(0,020979)
(0,020813)
(0,020081)
(0,020253)
(0,020794)
0,011786
0,065026
0,014527
0,001222
-0,018854
0,000731
0,043900
0,001422
0,001176
0,061216
0,022330
(0,000001)
(0,000001)
(0,000001)
(0,000001)
(0,000001)
(0,000001)
(0,000002)
(0,000004)
0,000005
0,000002
0,000005
0,000004
0,000002
0,000007
0,000013
(0,015082)
(0,016985)
(0,013448)
(0,013767)
(0,014480)
(0,009261)
(0,015852)
(0,016829)
0,125575
0,095877
0,092656
0,102048
0,061442
0,109282
0,093879
(0,015224)
(0,017731)
(0,012894)
(0,015779)
(0,016246)
(0,009926)
(0,015393)
(0,023591)
0,852115
0,899179
(1,579498)
(0,828869)
(1,181148)
(1,789911)
(1,649609)
(1,128721)
(0,573591)
(0,864372)
6,626569
7,690381
0,888784
10,000000
0,878742
10,000000
0,930101
7,299726
0,877869
0,868652
5,192612
6,756807
(0,026252)
(0,027953)
(0,026526)
(0,028192)
(0,025418)
(0,026367)
(0,024970)
(0,027178)
0,933089
0,993975
1,012519
0,841101
0,970275
0,904806
0,949837
Tablica 7.3: Estymatory parametrów modelu AR (1) − GARCH (1, 1) dla logarytmicznych stóp zwrotu indeksów
wybranych krajów.
Analiza wyników zawartych w tabeli 7.3 sugeruje dobre dopasowanie parametrów modelu AR (1)− GARCH (1, 1)
do badanych stóp zwrotów z indeksów gieªdowych i pozwala tym samym przypuszcza¢, »e dokonany przez nas
wybór modelu okazaª si¦ sªuszny. Szczególnie korzystnie prezentuj¡ si¦ parametry zwi¡zane z cz¦±ci¡ GARCH
(α0 , α1 , β1 ), których niekwestionowan¡ istotno±¢ zaobserwowa¢ mo»emy w przypadku ka»dego z analizowanych
szeregów czasowych (w tym tak»e nie zaprezentowanych w tabeli 7.3). Równie» parametry rozkªadu bª¦dów
losowych (η, γ ) okazaªy si¦ istotne w przewa»aj¡cej wi¦kszo±ci przypadków, sugeruj¡c w szczególno±ci cz¦ste
wyst¦powanie sko±no±ci w analizowanych danych i potwierdzaj¡c sensowno±¢ jej modelowania. Najmniej istotn¡
56
wydaje si¦ by¢ cz¦±¢ autoregresyjna, której parametr ϕ odbiega od zera w sposób statystycznie nieistotny w
przypadku blisko poªowy analizowanych szeregów czasowych. Mo»emy zatem równie cz¦sto spotka¢ si¦ z sytuacj¡
w której kolejna stopa zwrotu zale»y od stopy zwrotu poprzedniej, jak z tak¡, w której rzeczonej zale»no±ci tej
nie ma. Cz¦sto±¢ z jak¡ parametr ϕ peªni w modelu istotn¡ rol¦ wydaje si¦ jednak na tyle du»a, by skªania¢ si¦
raczej ku jego zachowaniu, ni» caªkowitym wyeliminowaniu.
Ko«cz¡c zajmowanie si¦ modelem AR (1) − GARCH (1, 1) przyjrzyjmy si¦ jeszcze przez moment zbiorczemu
podsumowaniu warto±ci przyjmowanych przez uzyskane estymatory jego parametrów dokonanemu w tabeli 7.4.
Przygl¡daj¡c si¦ zamieszczonym w tabeli tej wynikom, mo»emy stosunkowo ªatwo zauwa»y¢ wyra¹n¡ dominacj¦
parametru β1 nad pozostaªymi parametrami cz¦±ci GARCH modelu. Oznacza to, »e na ksztaªtowanie si¦ kolejnej
warto±ci warunkowej wariancji σt , a zatem równie» kolejnej warto±ci cz¦±ci GARCH modelu i w konsekwencji
równie» samej analizowanej przez nas stopy zwrotu z indeksu gieªdowego, najwi¦kszy wpªyw ma poprzednia
warto±¢ warunkowej wariancji σt−1 . Przygl¡daj¡c si¦ bli»ej statystykom parametru sko±no±ci γ mo»emy ªatwo
zauwa»y¢, i» bª¦dy losowe modelu maj¡ wyra¹n¡ tendencj¦ do sko±no±ci lewostronnej, a zatem do sporadycznego
przyjmowania warto±ci silnie ujemnych. Odlegªe od siebie warto±ci statystyk parametru ksztaªtu η sugeruj¡ z
kolei du»e zró»niczkowanie zakresu typowych warto±ci przyjmowanych przez bª¦dy losowe na ró»nych rynkach,
a zatem niepewno±ci inwestowania na nich. Ostatecznie skªaniaj¡cy si¦ ku warto±ciom dodatnim parametr ϕ
sugeruje, »e na rynkach, na których wyst¦puj¡ zale»no±ci pomi¦dzy kolejnymi obserwacjami zale»no±ci te maj¡
cz¦±ciej charakter dodatni, wzmacniaj¡cy aktualny trend, ni» ujemny, wymuszaj¡cy zmian¦ trendu.
MINIMUM
DOLNY KWARTYL
MEDIANA
‘REDNIA
GÓRNY KWARTYL
MAKSIMUM
µ
ϕ
α0
α1
β1
η
γ
0,000062
-0,068262
0,000000
0,054954
0,798277
4,300810
0,829349
0,000543
-0,021105
0,000001
0,079278
0,884235
6,481113
0,899297
0,000703
0,005335
0,000002
0,091910
0,895960
7,597426
0,918582
0,000737
0,012464
0,000003
0,091751
0,893769
7,700238
0,921194
0,000950
0,043661
0,000005
0,106780
0,913186
9,402908
0,950349
0,001424
0,158566
0,000013
0,140979
0,940997
10,000000
1,012519
Tablica 7.4: Statystyki opisuj¡ce uzyskane estymatory parametrów modelu AR (1) − GARCH (1, 1) .
7.2 Estymacja parametrów kopuli w kontek±cie przeª¡cznikowego modelu Copula-AR-GARCH
Dysponuj¡c ju» wyestymowanymi parametrami modeli AR (1) − GARCH (1, 1) , a zatem parametrami modeli
brzegowych modelu Copula − AR (1)− GARCH (1, 1) , przyst¡pi¢ mo»emy do realizacji drugiego etapu procedury
estymacyjnej opisanej w sekcji 5.2, a zatem do estymacji parametrów funkcji kopuli. Parametrami tymi w
przypadku stosowanej przez nas kopuli gaussowskiej b¦d¡ oczywi±cie wspóªczynniki korelacji liniowej, które z
racji przeª¡cznikowego charakteru modelu wspóªwyst¦puj¡ z parametrami powi¡zanego z modelem ªa«cucha
Markowa, którymi s¡ naturalnie rozkªad pocz¡tkowy oraz macierz prawdopodobie«stw przej±cia.
Zgodnie z najlepsz¡ dost¦pn¡ autorowi pracy wiedz¡, na obecn¡ chwil¦ nie istniej¡ pakiety j¦zyka R umo»liwiaj¡ce
bezpo±redni¡ realizacj¦ aktualnie stoj¡cego przed nami zadania. W zwi¡zku z tym w oparciu o wcze±niejsze
rozwa»ania teoretyczne na temat ltrów Hamiltona, wygªadzania oraz estymacji metod¡ EM napisane zostaªy
odpowiednie funkcje j¦zyka C oraz R umo»liwiaj¡ce dogodn¡ estymacj¦ parametrów naszego modelu w kontek±cie
zastosowania w nim kopuli gaussowskiej. Kody ¹ródªowe wspomnianych funkcji znale¹¢ mo»na w rozdziale 9.
Zaimplementowane i zaprezentowane w rozdziale 9 rozwi¡zanie skupia si¦ na estymacji wszystkich interesuj¡cych
nas parametrów modelu (w kontra±cie do metod przyjmuj¡cych odgórnie ustalony rozkªad pocz¡tkowy dla
ªa«cucha Markowa). Warunkiem stopu dla zaimplementowanego algorytmu EM jest reguªa
(m+1)
(m) max θi
− θi < ∨ m ≥ M.
i
gdzie
• m, to numer wªa±nie zako«czonej iteracji algorytmu EM,
(m)
• θi
(m+1)
, θi
, to dwa nast¦puj¡ce po sobie estymatory tego samego parametru θi ,
• , to maªa liczba dodatnia okre±laj¡ca precyzj¦ wyniku, jaki chcemy uzyska¢,
• M, to stosunkowo du»a liczba caªkowita ograniczaj¡ca z góry czas wykonania algorytmu, na wypadek
niemo»no±ci osi¡gni¦cia po»¡danej precyzji estymatorów w rozs¡dnym czasie.
57
Na potrzeby przeprowadzanych oblicze« jako warto±¢ precyzji przyj¦to = 10−8 , natomiast maksymaln¡ liczb¦
iteracji okre±lono na L = 1000. Ponadto, maj¡c na uwadze zbie»no±¢ algorytmu EM do lokalnego nie za± globalnego maksimum funkcji log-wiarogodno±ci, dla ka»dego z analizowanych szeregów czasowych zadanie estymacji
przeprowadzono 20-krotnie, startuj¡c za ka»dym razem z innego, losowo dobranego zestawu parametrów startowych.
Proces estymacji przeprowadzony zostaª przy zaªo»eniu wyst¦powania w danych trzech re»imów maj¡cych z
zaªo»enia odzwierciedla¢ panuj¡c¡ na rynku bess¦, rynek spokojny oraz panuj¡c¡ na rynku hoss¦. Praktyka
nakazuje oczekiwa¢, »e z ka»dym z wymienionych tu stanów zwi¡zana powinna by¢ inna siªa zale»no±ci ª¡cz¡cych
±wiatowe gospodarki, przy czym im negatywnej prezentuje si¦ sytuacja rynkowa, tym siªa ta powinna by¢ wi¦ksza
i bardziej wyra¹na.
Warto±ci korelacji liniowych, uzyskane w efekcie przeprowadzonego procesu estymacji prezentuje tabela 7.5.
W tabeli tej pod warto±ci¡ ka»dego z parametrów podano odpowiadaj¡cy jej bª¡d standardowy obliczony w
oparciu o macierz kowariancji wektora korelacji, która uzyskana zostaªa na skutek obliczenia próbkowej macierzy
Fishera, wedªug wzorów podanych pod koniec sekcji 5.2.
Kolorem czerwonym oznaczono w tabeli te warto±ci korelacji liniowych, dla których obliczenie bª¦du standardowego okazaªo si¦ niemo»liwe. Sytuacja taka zdarza si¦ wtedy, gdy prawdopodobie«stwa przebywania w
poszczególnych re»imach w kolejnych chwilach czasu rozkªadaj¡ si¦ w taki sposób, i» jeden z re»imów jest
reprezentowany przez zaledwie kilka obserwacji. Sugeruje to oczywi±cie nieistotno±¢ tak sªabo reprezentowanego re»imu oraz nakazuje przypuszcza¢, »e par¦ szeregów czasowych w przypadku której re»im taki wyst¡piª
korzystniej byªoby opisa¢ za pomoc¡ dwóch re»imów.
Kolor pomara«czowy posªu»yª nam tutaj do oznaczenia tych par re»imów, których oddalenie od siebie oraz
warto±ci bª¦dów standardowych nakazuj¡ przypuszcza¢, i» wyst¦puj¡ca mi¦dzy nimi ró»nica jest nieistotna
statystycznie. Podziaª na re»imy te zostaª uzyskany w sposób sztuczny w konsekwencji estymacji modelu z
trzema re»imami, nie za± z racji faktycznego wyst¦powania tych re»imów w danych. Równie» w tym wypadku
do pary szeregów czasowych opisanych tak¡ par¡ re»imów nale»aªoby dopasowa¢ model nie z trzema, lecz z
dwoma re»imami.
Maj¡c na uwadze dwa wymienione wªa±nie, typowe dla naszego modelu problemy, koniecznym jest zastanowienie
si¦ na tym, jak du»y b¦dzie ich wpªyw na wyniki grupowania, którego b¦dziemy chcieli podj¡¢ si¦ ju» w kolejnej
sekcji tego rozdziaªu pracy, bazuj¡c na miarach niepodobie«stwa wprowadzonych w sekcji 6.3.
W przypadku problemu nieistotnego re»imu, niewielka liczba nale»¡cych do niego obserwacji pozwala przypuszcza¢, i» estymatory korelacji liniowych zwi¡zanych z re»imami pozostaªymi (estymowane praktycznie w oparciu
o caª¡ dost¦pn¡ prób¦) s¡ zbli»one do tych, jakie uzyskaliby±my estymuj¡c parametry modelu zawieraj¡cego
tylko dwa re»imy. Na potrzeby grupowania dysponujemy zatem dwoma dobrze okre±lonymi wspóªczynnikami
korelacji, trzeci natomiast wyst¦puje tak rzadko, »e w przypadku miar niepodobie«stwa okre±lonych wzorami
6.3.4, 6.3.5 oraz 6.3.6 jego znaczenie ulegnie rozmyciu na skutek u±redniania. Korelacja zwi¡zana z nieistotnym re»imem mogªaby powodowa¢ chwilowe pojawianie si¦ problematycznych wyników grupowania jedynie w
przypadku miary niepodobie«stwa opisanej wzorem 6.3.2, wzoru tego nie b¦dziemy jednak wykorzystywa¢ w
kolejnej sekcji pracy.
Równie» problem wyst¦powania dwóch wspóªczynników korelacji ró»ni¡cych si¦ od siebie w sposób nieistotny
mo»emy uzna¢ za marginalny z punktu widzenia grupowania obserwacji. Wystarczy w tym celu uzmysªowi¢
sobie, »e obserwacje zaklasykowane do dwóch re»imów charakteryzuj¡cych si¦ bliskimi wspóªczynnikami korelacji, w przypadku estymacji modelu z dwoma re»imami powinny znale¹¢ si¦ w jednym wspólnym re»imie. Re»im
ten natomiast ª¡cz¡c obserwacje z dwóch wspomnianych re»imów zachowa w szczególno±ci charakteryzuj¡cy je
wspóªczynnik korelacji. Wspóªczynniki korelacji dla modelu z dwoma oraz dla modelu z trzema re»imami nie
powinny zatem wykazywa¢ wi¦kszych ró»nic poza t¡, »e model z trzema re»imami rozdziela jeden ze wspóªczynników korelacji na dwa ró»ne stany. Ró»nica ta z punktu widzenia wzorów 6.3.4, 6.3.5 oraz 6.3.6 nie ma jednak
wi¦kszego znaczenia.
Przygl¡daj¡c si¦ tabeli 7.5 warto odnotowa¢ równie», »e w przypadku wi¦kszo±ci przedstawionych w niej par
analizowanych stóp zwrotów z indeksów gieªdowych obserwujemy wyra¹ne wyst¦powanie trzech dobrze okre±lonych re»imów. Taki wªa±nie stan rzeczy daje nam potwierdzenie przypuszczenia, i» rozpatrywanie nansowych
szeregów czasowych w kontek±cie wªa±nie tej liczby re»imów przynosi z reguªy dobre rezultaty.
58
CZE
GRC
HUN
AUT
NOR
POL
RUS
TUR
GRC
HUN
CZE
NOR
POL
RUS
TUR
GRC
HUN
ρ1
ρ2
ρ3
0,405526
0,544395
0,828371
NOR
0,678613
POL
(0,029432)
(0,036333)
(0,047459)
(0,042193)
(0,035005)
(0,039137)
(0,030973)
(0,027981)
(0,036015)
(0,058046)
(0,033101)
(0,042186)
(0,040086)
(0,038597)
0,163980
0,181672
0,422362
0,313592
0,140679
0,161766
0,288572
0,327014
0,184895
0,348058
0,203067
0,085031
0,248036
(0,020436)
(0,018248)
(0,034184)
(0,025254)
(0,023257)
(0,032562)
(0,030443)
(0,031731)
(0,020108)
(0,015966)
(0,018274)
(0,039634)
(0,025377)
(0,029436)
0,672705
0,312456
0,434295
0,455041
0,300870
0,554797
0,438336
0,503483
0,511072
0,559452
0,222381
0,429195
0,255429
(0,024956)
(0,032521)
(0,019479)
(0,011385)
(0,022874)
(0,018392)
(0,031738)
(0,025662)
(0,085313)
(0,053991)
(0,018599)
(0,021626)
(0,033246)
GRC
0,670111
RUS
0,825606
TUR
0,813930
NOR
0,768327
HUN
POL
0,680152
RUS
0,795730
TUR
0,896262
POL
NOR
0,949405
RUS
TUR
0,852536
0,699465
POL
0,648201
RUS
0,656638
RUS
TUR
TUR
ρ1
ρ2
ρ3
0,208118
0,495221
0,890766
(0,033420)
(0,034843)
(0,034264)
(0,022316)
(0,032563)
(0,035853)
(0,043110)
(0,040420)
(0,023093)
(0,033631)
(0,042632)
(0,038097)
(0,039213)
(0,039610)
0,127828
0,177458
0,267311
0,323707
0,318438
0,135947
0,122499
0,395356
0,311005
0,114743
0,263010
0,148156
0,109940
(0,020236)
(0,020166)
(0,031920)
(0,041920)
(0,032115)
(0,014681)
(0,022216)
(0,021640)
(0,016954)
(0,022946)
(0,023644)
(0,038549)
(0,021638)
(0,020686)
0,665755
0,315242
0,427542
0,346204
0,637881
0,389622
0,423953
0,603290
0,476761
0,377663
0,275677
0,449212
0,409031
(0,033970)
(0,025388)
(0,023380)
(0,028793)
(0,001248)
(0,032081)
(0,073187)
(0,009306)
(0,020640)
(0,021878)
(0,016819)
(0,024852)
(0,033910)
0,669447
0,737414
0,823240
0,689272
0,993541
0,734453
0,778178
0,973286
0,804474
0,691084
0,709324
0,724371
0,841727
Tablica 7.5: Estymatory korelacji liniowych uzyskane w efekcie dopasowania do danych kopuli gaussowskiej
wyst¦puj¡cej w trzech re»imach.
W sposób zbiorczy parametry korelacji liniowej opisane zostaªy za pomoc¡ zestawu statystyk zebranych razem
w tabeli 7.7. Pierwsza kolumna tej»e tabeli prezentuje statystyki charakteryzuj¡ce korelacje najmniejsze co
do warto±ci w ramach modelu, druga korelacje ±redniej wielko±ci, trzecia za± korelacje najwi¦ksze. Analizuj¡c
przedstawione w tabeli tej wyniki ªatwo zauwa»y¢ mo»emy wyra¹n¡ tendencj¦ do cz¦stszego przyjmowania
przez wspóªczynniki korelacji warto±ci dodatnich, ni» ujemnych. Zjawisko to sugeruje silniejsz¡ tendencj¦ do
zachowywania si¦ przez wspóªczesne rynki nansowe w sposób zgodny, ni» antagonistyczny.
Chc¡c dokona¢ peªnej analizy wyestymowanych z wykorzystaniem ltru Hamiltona oraz algorytmu EM parametrów naszego modelu, powinni±my skupi¢ si¦ jeszcze na omówieniu wspomnianych na pocz¡tku niniejszej sekcji
parametrów powi¡zanego z modelem ªa«cucha Markowa. Dokªadna analiza tych parametrów stanowiªaby jednak zadanie zbyt zªo»one i wielopoziomowe, aby zrealizowa¢ je w ramach jednej sekcji pracy, natomiast analiza
pobie»na doprowadziªaby z grubsza do podobnych wniosków, jakie przedstawili±my ju» omawiaj¡c parametry
korelacji liniowej. W zwi¡zku z tym omawianie tych parametrów w niniejszej pracy pominiemy.
MINIMUM
DOLNY KWARTYL
MEDIANA
‘REDNIA
GÓRNY KWARTYL
MAKSIMUM
ρ1
ρ2
ρ3
-0,999772
-0,579355
0,118982
-0,224842
0,247832
0,701730
0,138266
0,386892
0,845182
-0,040924
0,399541
0,810882
0,262672
0,552280
0,981134
0,896645
0,970341
0,999999
Tablica 7.7: Statystyki opisuj¡ce uªo»one w porz¡dku rosn¡cym estymatory parametrów korelacji liniowych.
59
7.3 Grupowanie pa«stw wzgl¦dem siªy ª¡cz¡cych je zale»no±ci gospodarczych
Opieraj¡c si¦ na uzyskanych dotychczas w niniejszym rozdziale wynikach oraz bazuj¡c na teorii wprowadzonej
w rozdziale 6, dokonamy obecnie grupowania krajów zebranych w tabeli 7.1 wzgl¦dem siªy z jak¡ ich gospodarki wpªywaj¡ na siebie wzajemnie oraz przeanalizujemy uzyskane rezultaty. Zadanie grupowania realizowa¢
b¦dziemy z wykorzystaniem omówionego w sekcji 6.2 algorytmu aglomeracyjnego Warda, wykorzystuj¡c w tym
celu zaimplementowan¡ w pakiecie stats programu R funkcj¦ hclust oraz operuj¡c na warto±ciach wspóªczynnika ρ Spearmana, uzyskanych w efekcie przeksztaªcenia wyestymowanych w sekcji poprzedniej wspóªczynników
korelacji liniowej zgodnie z wzorem 2.5.3.
W celu dokonania analizy dynamiki zmian w liczbie oraz skªadzie grup tworzonych przez pa«stwa pozostaj¡ce
pod silnym, wzajemnym wpªywem gospodarczym wykorzystamy miar¦ niepodobie«stwa zdeniowan¡ wzorem
6.3.5, przyjmuj¡c dla niej t2 = t1 + 29, a zatem dokonuj¡c u±redniania wspóªczynnika ρ Spearmana z okresu
30-tu nast¦puj¡cych po sobie dni. Przy tak dobranej mierze niepodobie«stwa grupy tworzy¢ b¦dziemy poprzez
odcinanie dendrogramu na wysoko±ci 1.2, która to wybrana zostaªa w sposób arbitralny, poprzez analiz¦ stu
dendrogramów wylosowanych z caªego rozpatrywanego w badaniu okresu czasowego.
Dynamice zmian w liczbie tworzonych grup przyjrze¢ mo»emy si¦ na rysunku 7.1, prezentuj¡cym dwie wersje
tego samego wykresu z naniesionymi ró»nego typu spostrze»eniami.
Wykres zamieszczony po lewej stronie wspomnianego rysunku zwraca uwag¦ na trzy wyra¹nie widoczne, utrzymuj¡ce si¦ przez dªugi okres czasu, spadki w liczbie tworzonych grup oraz wi¡»e je z istotnymi wydarzeniami,
które miaªy miejsce w czasie ich trwania. Pierwszy ze spadków, zapocz¡tkowany w okolicach maja 2004 roku, pokrywa si¦ czasowo z historycznie najwi¦kszym rozszerzeniem Unii Europejskiej. Wspólnota przyj¦ªa wówczas a»
dziesi¦¢ nowych pa«stw, którymi byªy Cypr, Czechy, Estonia, Litwa, Šotwa, Malta, Polska, Sªowacja, Sªowenia
i W¦gry. Drugi, trwaj¡cy wyra¹nie najdªu»ej, odpowiada czasowo pocz¡tkowej fazie ogólno±wiatowego kryzysu
gospodarczego rynków nansowych i bankowych, którego pierwszych oznak dopatrywa¢ mo»emy si¦ w roku 2006
w post¦puj¡cym spadku cen nieruchomo±ci, a faktycznego pocz¡tku w zapa±ci na rynku po»yczek hipotecznych
wysokiego ryzyka w Stanach Zjednoczonych jaka nast¡piªa w roku 2007. Spadek trzeci natomiast skojarzy¢
daje si¦ z drug¡ fal¡ kryzysu, kiedy to na skutek dokapitalizowania systemu nansowego przez pa«stwa zapocz¡tkowany zostaª problem szybko wzrastaj¡cego zadªu»enia sektora nansów publicznych. Powi¡zanie dwóch
z trzech obserwowanych spadków liczby grup z wydarzeniami natury stricte negatywnej pozwala przypuszcza¢,
»e chwilowemu zacie±nianiu si¦ relacji gospodarczych mi¦dzy pa«stwami sprzyja zªa koniunktura na rynku.
Rysunek 7.1: Zmiana liczby grup tworzonych przez pa«stwa pozostaj¡ce pod swoim wzajemnym wpªywem
gospodarczym w czasie.
Wykres widoczny po stronie prawej rysunku 7.1 zwraca uwag¦ na wyra¹ny spadek liczby tworzonych przez analizowane pa«stwa grup w okolicach roku 2007. Przed rokiem tym wspomniane pa«stwa dzieliªy si¦ zazwyczaj
na cztery lub pi¦¢ stref wzajemnego wpªywu gospodarczego, natomiast po nim zaobserwowa¢ mo»emy zasadniczo trzy lub cztery takie strefy. Spadek ten rozpatrywa¢ mo»emy w sposób dwojaki. Z jednej strony, daje
60
si¦ w nim dopatrywa¢ efektu wspomnianego ju» kryzysu nansowego zapocz¡tkowanego w roku 2007, którego
dªugoterminowym, jednak tymczasowym skutkiem jest zacie±nienie si¦ wi¦zi gospodarczych mi¦dzy krajami. Z
drugiej strony na spadek ten spojrze¢ mo»na jako na efekt post¦puj¡cej globalizacji oraz informatyzacji handlu
gieªdowego, uªatwiaj¡cych dost¦p do rynków krajowych inwestorom zagranicznym, jak równie» zacie±niania si¦
wspóªpracy zarówno politycznej jak i gospodarczej mi¦dzy narodami. W kontek±cie takiego wªa±nie podej±cia
kryzys nansowy z roku 2007 rozpatrywa¢ nale»aªoby w kategoriach czynnika przyspieszaj¡cego integracj¦ gospodarcz¡ przejawiaj¡c¡ si¦ w zmniejszaniu liczby obserwowanych przez nas grup, nie za± jako gªówn¡ przyczyn¦
tej integracji. Zdaniem autora pracy, to wªa±nie takie postrzeganie obserwowanego przez nas zjawiska wydaje
si¦ bardziej adekwatne.
W celu dokonania oceny dynamiki zmian w skªadzie grup pa«stw poª¡czonych wspólnymi zale»no±ciami gospodarczymi, z klastrów jakie analizowane pa«stwa tworzyªy do roku 2007 oraz oddzielnie z klastrów jakie pa«stwa
te tworzyªy od roku 2007, utworzone zostaªy macierze cz¦sto±ci postaci 6.3.3. Rozkªady cz¦sto±ci uzyskane
w efekcie utworzenia wspomnianych macierzy zaprezentowano na rysunku 7.2 w postaci stosownych histogramów, dziel¡cych je na odgórnie ustalon¡ liczb¦ pi¦ciu przedziaªów równej dªugo±ci. W szczególno±ci rysunek
ten stanowi potwierdzenie zauwa»onego i omówionego ju» przez nas zagadnienia stopniowego zacie±niania si¦
wi¦zi gospodarczych mi¦dzy narodami, przejawiaj¡cego si¦ w tym przypadku wyra¹nym wzrostem w latach
2007-2012 wzgl¦dem lat 2002-2007 liczby wysokich cz¦sto±ci wspóªwyst¦powania zale»no±ci kosztem cz¦sto±ci
niskich. Sugeruje on równie» systematyczn¡ redukcj¦ liczby zmian w skªadzie grup wzajemnego wpªywu gospodarczego na rzecz wi¦kszej ich stabilizacji, wynikaj¡c¡ ze wzrostu cz¦sto±ci wysokich w stosunku do cz¦sto±ci
umiarkowanych.
Rysunek 7.2: Histogramy prezentuj¡ce rozkªady cz¦sto±ci wspóªwyst¦powania zale»no±ci gospodarczych mi¦dzy
parami narodów w czasie.
Chc¡c zapozna¢ si¦ z typowym podziaªem analizowanych przez nas pa«stw na strefy wzajemnego wpªywu
gospodarczego wyst¦puj¡ce w okresie do roku 2007 oraz od roku 2007 dokonali±my ponownej ich klasteryzacji
opartej o miar¦ niepodobie«stwa zdeniowan¡ wzorem 6.3.4 oraz bazuj¡c¡ na cz¦sto±ciach opisanych w poprzednim akapicie pracy. W efekcie podj¦cia tych czynno±ci uzyskali±my dendrogramy zaprezentowane na rysunku
7.3. Uwzgl¦dniaj¡c nasze wcze±niejsze wnioski na temat typowej liczby grup, na które analizowane przez nas
obserwacje dzieliªy si¦ w kolejnych chwilach czasowych do roku 2007 dokonali±my podziaªu pa«stw w okresie
poprzedzaj¡cym rok ten na z góry ustalon¡ liczb¦ pi¦ciu, a nast¦pnie czterech klastrów. W sposób analogiczny
post¡pili±my w przypadku okresu zapocz¡tkowanego rokiem 2007, dziel¡c tym razem pa«stwa na cztery, a nast¦pnie trzy klastry. Wizualnie wspomniane podziaªy zaprezentowano kolejno na rysunkach 7.4, 7.5, 7.6 oraz
7.7.
61
Rysunek 7.3: Dendrogramy oparte o cz¦sto±¢ wspóªwyst¦powania poszczególnych narodów we wspólnym klastrze.
Przygl¡daj¡c si¦ czterem wymienionym rysunkom natychmiast zauwa»ymy wyra¹ny zwi¡zek pomi¦dzy tworzonymi przez pa«stwa strefami wpªywu gospodarczego oraz naturalnymi strefami geogracznymi, jakimi w
szczególno±ci s¡ kontynenty. Sytuacja taka nie zaskakuje z uwagi na powszechnie obserwowane utrzymywanie
si¦ bliskich relacji gospodarczych oraz politycznych mi¦dzy krajami geogracznie sobie bliskimi. Pa«stwa takie
stanowi¡ naturalny kierunek ekspansji dynamicznie rozwijaj¡cych si¦ rm krajowych, jak równie» kierunek eksportu oraz importu towarów i usªug. Cz¦sto s¡ sobie one kulturowo bliskie, co uªatwia wzajemne porozumienie
oraz poª¡czone wspóln¡ histori¡, czego cz¦st¡ konsekwencj¡ jest podobny poziom rozwoju gospodarczego.
Najwi¦ksz¡ zmienno±ci¡ z punktu widzenia istniej¡cych zale»no±ci gospodarczych charakteryzuje si¦ kontynent
europejski. W latach 2002-2006 zaobserwowa¢ na nim mogli±my 3 strefy wzajemnych wpªywów gospodarczych,
które z grubsza obejmowaªy pa«stwa Europy Zachodniej, pa«stwa Europy Centralnej oraz Rosj¦, Turcj¦ i Chiny.
Wyniki dokonanej klasteryzacji sugeruj¡, »e najbardziej bliskie sobie spo±ród wymienionych grup stanowi¡
pa«stwa Europy Centralnej oraz Rosja, Turcja i Chiny, które to w chwilach zacie±niania si¦ wi¦zi mi¦dzy
pa«stwami ulegaªy najcz¦±ciej poª¡czeniu w jedn¡ wspóln¡ stref¦ wzajemnych wpªywów gospodarczych. Tak
utworzona grupa w du»ym stopniu odpowiadaªa stree wpªywów byªego Zwi¡zku Socjalistycznych Republik
Radzieckich, a zatem na jej formowanie si¦ spojrze¢ mo»na jako na powrót do historycznie wyst¦puj¡cych mi¦dzy
tworz¡cymi j¡ narodami zale»no±ci. W latach 2007-2012 zaobserwowa¢ daje si¦ wyra¹n¡ stabilizacj¦ tej strefy
wpªywów oraz dalsz¡ integracj¦ gospodarcz¡ Europy przejawiaj¡c¡ si¦ w ª¡czeniu analizowanej wªa±nie strefy ze
stref¡ obejmuj¡c¡ pa«stwa Europy Zachodniej w momentach wyst¦powania kolejnych fal kryzysu. Zakªadaj¡c
zachowanie si¦ bie»¡cych tendencji do zacie±niania zale»no±ci gospodarczych mi¦dzy narodami europejskimi
mo»emy zatem w ci¡gu kilku najbli»szych lat oczekiwa¢ osi¡gni¦cia peªnej integracji gospodarczej Europy.
62
Rysunek 7.4: Podziaª analizowanych pa«stw na pi¦¢ stref wzajemnych wpªywów gospodarczych wyst¦puj¡cych
w latach 2002-2006.
Rysunek 7.5: Podziaª analizowanych pa«stw na cztery strefy wzajemnych wpªywów gospodarczych wyst¦puj¡cych w latach 2002-2006.
63
Rysunek 7.6: Podziaª analizowanych pa«stw na cztery strefy wzajemnych wpªywów gospodarczych wyst¦puj¡cych w latach 2007-2012.
Rysunek 7.7: Podziaª analizowanych pa«stw na trzy strefy wzajemnych wpªywów gospodarczych wyst¦puj¡cych
w latach 2007-2012.
64
Rozdziaª 8
Podsumowanie
W niniejszej pracy zaj¦li±my si¦ dokªadnym przedstawieniem modelu Copula-AR-GARCH w kontek±cie zastosowania w nim kopuli gaussowskiej oraz modelu AR-GARCH z bª¦dami opisanymi standaryzowanym rozkªadem
sko±nym t-Studenta do opisu jednowymiarowych szeregów czasowych. W±ród wspóªczesnych ekonometrycznych
publikacji naukowych spotka¢ mo»emy si¦ z pracami skupionymi na opisie tego typu modeli. Charakteryzuj¡ca
je du»a elastyczno±¢ sprawia jednak, »e ci¦»kim jest znalezienie takiej publikacji, która w sposób wyczerpuj¡ opisywaªaby dokªadnie ten typ modelu, jakim faktycznie jeste±my zainteresowani. W konsekwencji zatem w peªni
±wiadome zaprojektowanie modelu klasy Copula-GARCH dostosowanego do indywidualnych potrzeb wymaga
zapoznania si¦ z pracami ¹ródªowymi dotycz¡cymi teorii kopul, modeli GARCH oraz ukrytych modeli Markowa
i zastosowania pozyskanej w ten sposób wiedzy do zaproponowania jednego spójnego i funkcjonalnego modelu,
czym wªa±nie w ramach pracy si¦ zaj¦li±my.
W szczególno±ci wybrali±my oraz opisali±my metod¦ estymacji parametrów modelu Copula-AR-GARCH pozwalaj¡c¡ przy charakteryzuj¡cej model nasz du»ej liczbie parametrów uzyska¢ najlepsze wyniki. W tym celu
poª¡czyli±my metod¦ rozkªadów brzegowych (IFM), ltr Hamiltona oraz iteracyjny algorytm EM w ramach
jednej, spójnej procedury estymacji. Wyznaczyli±my wzory iteracyjne algorytmu EM pozwalaj¡ce uzyska¢ estymatory parametrów kopuli przy uwzgl¦dnieniu wyst¦powania w modelu re»imów oraz uzyskali±my analityczn¡
posta¢ próbkowej macierzy Fishera, stanowi¡cej podstaw¦ do obliczenia bª¦dów standardowych tych estymatorów. Na zako«czenie za± napisali±my odpowiednie procedury w j¦zyku C oraz R pozwalaj¡ce wykorzysta¢
uzyskane wyniki do analizy rzeczywistych danych.
Zauwa»aj¡c u»yteczno±¢ uzyskiwanych z modelu Copula-AR-GARCH parametrów charakteryzuj¡cych kopul¦
gaussowsk¡ do celu grupowania szeregów czasowych zaj¦li±my si¦ opisaniem tego zagadnienia w sposób teoretyczny. W szczególno±ci zaproponowali±my bazuj¡ce na parametrach kopuli gaussowskiej miary niepodobie«stwa
charakteryzuj¡ce caªe szeregi czasowe oraz takie, które same zmieniaj¡c si¦ w czasie charakteryzowaªy wybrane
szeregów tych fragmenty. Zaoferowali±my w ten sposób narz¦dzia daj¡ce szerokie spektrum mo»liwo±ci badania
zale»no±ci wyst¦puj¡cych pomi¦dzy analizowanymi przez nas obiektami.
Pewn¡ cz¦±¢ wspomnianego spektrum zaprezentowali±my w ostatniej cz¦±ci pracy dokonuj¡c analizy zale»no±ci
gospodarczych 35 pa«stw ±wiata na bazie opisuj¡cych pa«stwa te indeksów gieªdowych. Uzyskane w efekcie
realizacji tego zadania wyniki pozwoliªy nam mi¦dzy innymi potwierdzi¢ powszechnie znane zjawiska ekonomiczne do jakich zaliczamy wyst¦powanie silniejszych zale»no±ci mi¦dzy pa«stwami geogracznie sobie bliskimi
oraz zacie±nianie si¦ ª¡cz¡cych pa«stwa zale»no±ci w momentach zªej sytuacji rynkowej. Spostrzegli±my równie»
zacie±nianie si¦ wi¦zi gospodarczych pomi¦dzy krajami Europy oraz wysun¦li±my przypuszczenie o stopniowym
zanikaniu obserwowalnego na tym kontynencie podziaªu i docelowym utworzeniu przez wchodz¡ce w jego skªad
kraje jednej grupy wzajemnych relacji, jak¡ tworz¡ ju» pomi¦dzy sob¡ kraje Azji czy kraje obu Ameryk.
Z punktu widzenia in»ynierii nansowej istotn¡ wad¡ stosowanej w naszej pracy funkcji kopuli gaussowskiej
jest brak mo»liwo±ci badania zale»no±ci ogonów, tzn. analizowania zale»no±ci wspóªwyst¦powania zjawisk ekstremalnych. Mo»liwo±¢ tak¡ daje nam mi¦dzy innymi cz¦sto spotykana w pracach ekonometrycznych kopula
t-Studenta. Chc¡c kontynuowa¢ zajmowanie si¦ zawart¡ w pracy tematyk¡ mo»na by zatem skupi¢ si¦ na
zagadnieniu zbudowania modelu analogicznego do omówionego w pracy, w którym jednak kopul¦ gaussowsk¡
zast¡piono by kopul¡ t-Studenta, a nast¦pnie porównaniu obu modeli.
Interesuj¡cym zagadnieniem, które nie byªo poruszane w niniejszej pracy, wydaje si¦ równie» dobranie dla
danych optymalnego modelu klasy Copula-GARCH. W szczególno±ci wartym uwagi byªoby zaproponowanie
metod statystycznych sªu»¡cych badaniu adekwatno±ci naszego modelu dla danych, ustaleniu optymalnej liczby
re»imów czy wybraniu optymalnej funkcji kopuli.
65
Ciekawym z punktu widzenia analizy danych mogªoby okaza¢ si¦ równie» skupienie wi¦kszej uwagi na samym
ªa«cuchu Markowa stanowi¡cym cz¦±¢ rozwa»anego modelu. W szczególno±ci sprawdzi¢ mo»na by byªo jego
re»imy pod k¡tem ich powracalno±ci w celu ustalenia periodycznego lub jednorazowego charakteru powi¡zanych
z nimi wydarze«. Próbowa¢ mo»na równie» narzucenia na ªa«cuch ustalonej struktury, wynikaj¡cej z charakteru
analizowanego problemu, poprzez nadawanie ustalonych warto±ci elementom macierzy przej±cia w jednym kroku.
66
Rozdziaª 9
Kody ¹ródªowe
9.1 Filtr Hamiltona
Algorytm 9.1 Filtr Hamiltona.
#include <R. h>
void f i l t e r (
int ∗ pS , int ∗ pT , double ∗ rho , double ∗ P ,
double ∗ f , double ∗ S0 , double ∗ S1 , double ∗ l i k
) {
const int s = ∗ pS , T = ∗pT , TPlus1 = T + 1 ;
int i , j , t , t P l u s 1 ;
for ( i = 0 ; i < s ; i ++) {
}
S1 [ i ∗ TPlus1 ] = rho [ i ] ;
for ( t = 0 , t P l u s 1 = 1 ; t < T ; t++, t P l u s 1++) {
for ( i = 0 ; i < s ; i ++) {
}
l i k [ t ] += S0 [ i ∗ T + t ] = S1 [ i ∗ TPlus1 + t ] ∗ f [ i ∗ T + t ] ;
for ( i = 0 ; i < s ; i ++) {
}
}
}
S0 [ i ∗ T + t ] /= l i k [ t ] ;
for ( j = 0 ; j < s ; j ++) {
S1 [ j ∗ TPlus1 + t P l u s 1 ] += P [ i ∗ s + j ] ∗ S0 [ i ∗ T + t ] ;
}
67
Algorytm 9.2 Funkcja opakowuj¡ca ltr Hamiltona.
f i l t e r <− function ( f , rho , P) {
length ( rho ) −> s
nrow ( f ) −> T
. C(
"filter",
s=as . integer ( s ) ,
T=as . integer (T) ,
rho=as . double ( rho ) ,
P=as . double (P) ,
f=as . double ( f ) ,
S0=as . double ( rep ( 0 , s ∗ T) ) ,
S1=as . double ( rep ( 0 , s ∗ (T + 1 ) ) ) ,
l i k=as . double ( rep ( 0 , T) )
) −> f t r
matrix ( f t r $P , s , s ) −> f t r $P
matrix ( f t r $ f , T, s ) −> f t r $ f
matrix ( f t r $ S0 , T, s ) −> f t r $ S0
matrix ( f t r $ S1 , T + 1 , s ) −> f t r $ S1
1 e −32 −> e p s
e p s −> f t r $ S0 [ f t r $ S0==0]
e p s −> f t r $ S1 [ f t r $ S1==0]
}
return ( f t r )
68
9.2 Wygªadzanie
Algorytm 9.3 Wygªadzanie.
#include <R. h>
void smoothing (
int ∗ pS , int ∗ pT , double ∗ P ,
double ∗ S0 , double ∗ S1 , double ∗ ST01 , double ∗ ST
) {
const int s = ∗ pS , T = ∗pT ;
const int TMinus1 = T − 1 , TPlus1 = T + 1 , sTMinus1 = s ∗ TMinus1 ;
int i , j , t , t P l u s 1 ;
for ( i = 0 ; i < s ; i ++) {
}
ST [ i ∗ T + TMinus1 ] = S1 [ i ∗ TPlus1 + TMinus1 ] ;
for ( t = T − 2 , t P l u s 1 = T − 1 ; t >= 0 ; t −−, t P l u s 1 −−) {
for ( j = 0 ; j < s ; j ++) {
for ( i = 0 ; i < s ; i ++) {
}
}
}
}
ST [ j ∗ T + t ] += ST01 [ i ∗ sTMinus1 + j ∗ TMinus1 + t ] =
S0 [ j ∗ T + t ] ∗ P [ j ∗ s + i ] ∗ ST [ i ∗ T + t P l u s 1 ] /
S1 [ i ∗ TPlus1 + t P l u s 1 ] ;
Algorytm 9.4 Funkcja opakowuj¡ca algorytm wygªadzaj¡cy.
smoothing <− function ( f t r ) {
f t r $ s −> s
f t r $T −> T
. C(
" smoothing " ,
s=as . integer ( s ) , T=as . integer (T) , P=as . double ( f t r $P) ,
S0=as . double ( f t r $ S0 ) , S1=as . double ( f t r $ S1 ) ,
ST01=as . double ( rep ( 0 , s ∗ s ∗ (T − 1 ) ) ) , ST=as . double ( rep ( 0 , s ∗ T) )
) −> e x t F t r
array ( e x t F t r $ST01 , c (T − 1 , s , s ) ) −> f t r $ ST01
matrix ( e x t F t r $ST , T, s ) −> f t r $ST
1 e −32 −> e p s
e p s −> f t r $ ST01 [ f t r $ ST01==0]
e p s −> f t r $ST [ f t r $ST==0]
}
return ( f t r )
69
9.3 Algorytm EM
Algorytm 9.5 Algorytm EM.
nemalgorithm <− function ( data , e s t , i t e r =1e3 , e p s=1e − 8) {
### GAIN DATA ###
e s t −> newEst
ncol ( data ) −> k
nrow ( data ) −> T
length ( e s t $ rho ) −> s
### FIRST HAMILTON FILTER WITH SMOOTHING ITERATION ###
newEst $ a l p h a −> a l p h a
matrix ( 0 , T, s ) −> f
for ( i i n 1 : s )
dCopula ( data , normalCopula ( a l p h a [ [ i ] ] , k ) ) −> f [ , i ]
smoothing ( f i l t e r ( f , newEst $ rho , newEst $P ) ) −> newEst
a l p h a −> newEst $ a l p h a
### MAIN ITER ###
for ( step i n 1 : i t e r ) {
### EST SWITCH ###
newEst −> o l d E s t
### EM ALGORITHM ###
o l d E s t $ST [ 1 , ] / sum ( o l d E s t $ST [ 1 , ] ) −> rho
matrix ( 0 , s , s ) −> P
for ( i i n 1 : s )
for ( j i n 1 : s )
sum ( o l d E s t $ ST01 [ , j , i ] ) / sum ( o l d E s t $ST[ −T, j ] ) −> P [ i , j ]
qnorm ( data ) −> Z
t ( apply ( Z , 1 , function ( x ) { x %∗% t ( x ) } ) ) −> ZZ
apply ( o l d E s t $ST , 2 , sum ) −> sumST
for ( i i n 1 : s ) {
matrix ( apply (ZZ ∗ o l d E s t $ST [ , i ] , 2 , sum ) / sumST [ i ] , k , k ) −> a l p h a [ [ i ] ]
i n v ( diag ( sqrt ( diag ( a l p h a [ [ i ] ] ) ) ) ) −> D
D %∗% a l p h a [ [ i ] ] %∗% D −> a l p h a [ [ i ] ]
a l p h a [ [ i ] ] [ lower . t r i ( a l p h a [ [ i ] ] ) ] −> a l p h a [ [ i ] ]
}
### HAMILTON FILTER WITH SMOOTHING ###
matrix ( 0 , T, s ) −> f
for ( i i n 1 : s )
dCopula ( data , normalCopula ( a l p h a [ [ i ] ] , k ) , d i s p r="un" ) −> f [ , i ]
smoothing ( f i l t e r ( f , rho , P ) ) −> newEst
a l p h a −> newEst $ a l p h a
}
}
### STOP COND ###
max( abs ( newEst $ rho − o l d E s t $ rho ) , abs ( newEst $P − o l d E s t $P ) ) −> e r r
for ( i i n 1 : o l d E s t $ s )
max( abs ( newEst $ a l p h a [ [ i ] ] − o l d E s t $ a l p h a [ [ i ] ] ) , e r r ) −> e r r
i f ( e r r < eps )
break ;
return ( newEst )
70
Indeks
ªa«cuch Markowa, 29
stan pocz¡tkowy, 30
standaryzowany rozkªad sko±ny t-Studenta, 24
algorytm aglomeracyjny, 52
algorytm aglomeracyjny Warda, 52
algorytm EM, 41
twierdzenie Sklara, 9
ukryty model Markowa, 33
delta Kroneckera, 19
dendrogram, 52
dystrybuanta, 9
dystrybuanta ª¡czna, 9
dystrybuanta brzegowa, 9
dystrybuanta k-wymiarowa, 9
dystrybuanta wielowymiarowa, 9
wªasno±¢ braku pami¦ci, 29
warunek Markowa, 29
wierzchoªek, 7
wspóªczynnik korelacji liniowej, 11
wspóªczynnik korelacji Pearsona, 11
wspóªczynnik ρ Spearmana, 12
wygªadzanie, 39
estymator metody rozkªadów brzegowych, 15
estymator najwi¦kszej wiarogodno±ci, 14
zbiór liczb rzeczywistych, 7
zbiór stanów, 27
ltr Hamiltona, 35
funkcja log-wiarogodno±ci, 14
funkcja wiarogodno±ci, 14
g¦sto±¢ kopuli, 10
graf prawdopodobie«stw przej±cia, 30
graf prawdopodobie«stw przej±cia w jednym kroku, 30
jednorodny ªa«cuch Markowa, 29
kopula, 7
kopula gaussowska, 16
kopula normalna, 16
macierz przej±cia, 29
macierz przej±cia w jednym kroku, 29
macierz przej±cia w t krokach, 30
GARCH (1, 1), 20
metoda rozkªadów brzegowych, 15
miara niepodobie«stwa, 51
miara Warda, 51
prawdopodobie«stwo bezwarunkowe ªa«cucha Markowa
w chwili t, 30
prawdopodobie«stwo przej±cia, 29
prawdopodobie«stwo przej±cia w jednym kroku, 29
prawdopodobie«stwo przej±cia w t krokach, 30
k
prostok¡t w R , 7
przedziaª jednostkowy, 7
re»imy, 27
rodzina kopul, 13
rozkªad sko±ny t-Studenta, 23
rozszerzony zbiór liczb rzeczywistych, 7
sªaby biaªy szum, 20
silny biaªy szum, 20
71
Bibliograa
[1] Aas K., Modelling the dependence structure of nancial assets: A survey of four copulas, SAMBA/22/04, 2004.
[2] Bollerslev T., Generalized Autoregressive Conditional Heteroskedasticity, Journal of Econometrics, 1986.
[3] Bollerslev T., Wooldridge J. M., Quasi-maximum likelihood estimation and inference in dynamic
models with time-varying covariances, Econometric Reviews, 1992.
[4] Bollerslev T., Glossary to ARCH (GARCH), School of Economics and Management, University
of Aarhus, 2008.
[5] Cherubini U., Luciano E., Vecchiato W., Copula methods in nance, John Wiley & Sons, 2004.
[6] Czapkiewicz A. Majdosz P., Grouping Stock Markets with Time Varying Copula-GARCH Model,
AGH University of Science and Technology, 2011.
[7] Doman R., Zastosowania kopuli w modelowaniu dynamiki zale»no±ci na rynkach nansowych,
Wydawnictwo Uniwersytetu Ekonomicznego w Poznaniu, 2011.
[8] Embrechts P., Lindskog F., McNeil A., Modelling Dependence with Copulas and Applications to
Risk Management, Handbook of Heavy Tailed Distributions in Finance, 2003.
[9] Embrechts P., McNeil A., Straumann D., Correlation and Dependency in Risk Management:
Properties and Pitfalls, Risk management: Value at Risk and Beyond, 2002.
[10] Embrechts P., Frey R., McNeil A., Quantitative Risk Management: Concepts, Techniques and
Tools, Princeton University Press, 2005.
[11] Engle R. F., Autoregressive Conditional Heteroscedasticity with Estimates of the Variance of
United Kingdom Ination, Econometrica, 1982.
[12] Fernandez C., Steel M. F. J., On Bayesian Modellling of Fat Tails and Skewness, Tilburg University, Center for Economic Research, 1998.
[13] Francq C., Zakoian J. M., Maximum likelihood estimation of pure GARCH and ARMA-GARCH
processes, Universite Lille, 2004.
[14] Habiboellah F., Copulas: modeling dependencies in Financial Risk Management, Vrije Universiteit in Amsterdam, 2007.
[15] Hamilton J. D., A New Approach to the Economic Analysis of Nonstationary Time Series and
the Business Cycle, Econometrica, 1989.
[16] Hamilton, J. D., Analysis of Time Series Subject to Changes in Regime, Journal of Econometrics,
1990.
[17] Hamilton J. D., Susmel R., Autoregressive conditional heteroskedasticity and changes in regime,
Journal of Econometrics, 1993.
[18] Hamilton, J. D., Time Series Analysis, Princeton University Press, 1994.
[19] Hansen B. E., Autoregressive conditional density estimation., International Economic Review,
1994.
72
[20] Hardy M. R., A Regime-Switching Model of Long-Term Stock Returns, University of Waterloo,
2001.
[21] Iwanik A., Misiewicz J. K., Wykªady z procesów stochastycznych z zadaniami. Cz¦±¢ pierwsza:
Procesy Markowa, SCRIPT, 2010.
[22] Joe H., Xu J. J., The Estimation Method of Inference Functions for Margins for Multivariate
Models, University of British Columbia, Department of Statistics, 1996.
[23] Joe H., Multivariate Models and Dependence Concepts, Chapman & Hall, 1997.
[24] Jondeau E., Rockinger M., Conditional volatility, skewness, and kurtosis: existence, persistence,
and comovements, Journal of Economic Dynamics and Control, 2003.
[25] Jondeau E., Rockinger M., The Copula-GARCH model of conditional dependencies: An international stock market application, Journal of International Money and Finance, 2006.
[26] Kelker D., Distribution Theory of Spherical Distributions and a Location-Scale Parameter Generalization, Sankhy
a: The Indian Journal of Statistics, 1970.
[27] Kim C., Dynamic Linear odels with Markov-Switching, Journal of Econometrics, 1993.
[28] Krzy±ko M., Woªy«ski W., Górecki T., Skorzybut M., Systemy ucz¡ce si¦: rozpoznawanie wzorców, analiza skupie« i redukcja wymiarowo±ci, Wydawnictwo Naukowo-Techniczne, 2008.
[29] Klaus M., Multivariate Dependence Modeling using Copulas, Charles University in Prague, 2012.
[30] Lambert P., Laurent S., Modelling Financial Time Series Using GARCH-Type Models with a
Skewed Student Distribution for the Innovations, Universite Catholique de Louvain, Institut de
Statistique, 2001.
[31] Meitz M., Saikkonen P., Parameter estimation in nonlinear AR-GARCH models, Econometric
Theory, 2008.
[32] Meyer C., The Bivariate Normal Copula, DZ Bank AG, 2009.
[33] Mirkin B., Data Mining: A Data Recovery Approach, Chapman & Hall, 2005.
[34] Nelsen, R. B., An Introduction to Copulas, Springer, 2006.
[35] Patton, A. J., Modelling Time-Varying Exchange Rate Dependence Using the Conditional Copula, University of California at San Diego, Department of Economics, 2001.
[36] Rabiner L. R., A Tutorial on Hidden Markov Models and Selected Applications in Speech Recognition, Proceedings of the IEEE, 1989.
[37] Roncalli T., Gestion des Risques Multiples, Credit Lyonnais, Groupe de Recherche Operationnelle, 2002.
[38] Ruud P., Extension of Estimation Methods Using the EM Algorithm, University of California,
1988.
[39] Sering R. J., Approximation Theorems of Mathematical Statistics, John Wiley & Sons, 1980.
[40] Sklar, A., Fonctions de repartition a n dimensions et leurs marges, Publications de l'Institut de
Statistique de l'Université de Paris, 1959.
[41] Ward J. H. Jr., Hierarchical Grouping to Optimize an Objective Function, Jounral of the American Statistical Association, 1963.
[42] Welch L. R., Hidden Markov Models and the Baum-Welch Algorithm, IEEE Information Theory
Society Newsletter, 2003.
[43] Zezula I., On multivariate Gaussian copulas, Journal of Statistical Planning and Inference, 2009.
73
Warszawa, dnia 15.10.2013 r.
Oświadczenie
Oświadczam, że pracę magisterską pod tytułem; „Estymacja parametrów dynamicznych
modeli Copula-GARCH sterowanych procesem Markowa”, której promotorem jest dr Anna
Czapkiewicz wykonałem samodzielnie, co poświadczam własnoręcznym podpisem.
...............................................

Podobne dokumenty