Kamila Migdał Najman, Krzysztof Najman
Transkrypt
Kamila Migdał Najman, Krzysztof Najman
ZASTOSOWANIE SIECI NEURONOWEJ TYPU SOM DO WYBORU NAJATRAKCYJNIEJSZYCH SPÓŁEK NA WGPW W OPARCIU O WSKAŹNIKI ANALIZY TECHNICZNEJ Dr Kamila Migdał Najman Dr Krzysztof Najman Katedra Statystyki Wydział Zarządzania Uniwersytet Gdański [email protected] [email protected] SOPOT 2000 WSTĘP W analizach rynków kapitałowych typowym problemem jest ogromna liczba walorów, które należałoby analizować, aby efektywnie inwestować. W wielu zaawansowanych typach analiz nawet na małej giełdzie, jak WGPW, nie ma możliwości sprawdzenia kondycji wszystkich spółek z sesji na sesję. Istnieje, więc potrzeba wyboru walorów, które ze względu na pewne kryteria wydają się najbardziej atrakcyjne1. Zawężenie liczby analizowanych walorów dałoby szansę na wnikliwe analizy prowadzone na bieżąco, co powinno przekładać się na bardziej udane inwestycje. Oczywiście sprawą dyskusyjną i subiektywną jest pojęcie „najatrakcyjniejszych spółek”. W tej pracy przyjęto uważać za atrakcyjną taką spółkę, która w ocenie analizy technicznej posiada potencjał wzrostowy na najbliższej sesji2. Jako metodę wyboru spółek zastosowano sieć neuronową typu Self Organizing Map ( SOM ). Sieć pełni tu rolę „niezależnego eksperta”, który nie kierując się żadnymi sugestiami, czy dodatkowymi informacjami, a jedynie na podstawie prezentowanych danych będzie poszukiwał optymalnej klasyfikacji na spółki potencjalnie wzrostowe i inne. 1 Na konferencji naukowej „Inwest 2001” w Szklarskie Porębie w październiku 2001, wygłoszony został referat przedstawiający możliwości wykorzystania wskaźników analizy fundamentalnej do wyboru najatrakcyjniejszych spółek. Powinien ukazać się w publikacjach Akademii Ekonomicznej we Wrocławiu w październiku 2002. Prezentowane tu badanie jest jego rozwinięciem i uzupełnieniem o wskaźniki analizy technicznej. 2 Potencjał wzrostowy jest tu utożsamiany z osiągnięciem przez analizowane wskaźniki poziomu powszechnie uważanego za korzystny dla danego waloru. 1. METODA BADAWCZA Zasadniczym problemem stojącym przed każdym analitykiem jest wybór danych jakimi należałoby się posłużyć i metody, która potrafiłaby z tych danych wydobyć interesujące go informacje. Istnieje wiele źródeł danych, którymi posługują się inwestorzy w podejmowaniu decyzji. Jednym z nich jest analiza techniczna. Wskaźniki konstruowane w jej ramach mają na podstawie danych historycznych pomóc ocenić bieżącą sytuację rynkową i wskazać prawdopodobne jej zmiany w najbliższej przyszłości. Zaletą tego typu analiz jest aktualność i wiarygodność danych. Wskaźniki wyznacza się bowiem na podstawie codziennych notowań. Są to konkretne dane ilościowe, a nie „szacunki”. Wadą analizy technicznej jest jednak to, że interpretacja uzyskiwanych wyników jest czysto subiektywna. Wskaźniki jedynie „sugerują” co potencjalnie może się zdarzyć. Niektórzy te sugestie zauważą i uwzględnią przy podejmowaniu decyzji, a inni nie. Przeglądając liczne prasowe i internetowe serwisy giełdowe często można się spotkać z bardzo różnymi ocenami rynku dokonywanymi przez analityków technicznych na bazie identycznych danych i metod ... Jest to wewnętrzną cechą analizy technicznej i powodem, dla którego trudno nazwać ją nauką. Jeżeli tak jest, to niezależny ekspert, nie posiadający żadnych informacji o analizowanych walorach prócz bieżących wartości wskaźników powinien w dłuższym okresie czasu osiągnąć prawdopodobieństwo wytypowania atrakcyjnych spółek na poziomie 0.5. Pomijając kwestię „szczęśliwego lub nieszczęśliwego trafu” skumulowany zysk z inwestycji powinien dążyć do wartości indeksu rynkowego. Niemniej jest to technika powszechnie stosowana3 przez maklerów i inwestorów. Jest to jedyna przyczyna ( poza naukową ciekawością ) dla której postanowiono użyć tych danych. Inną, kłopotliwą sprawą jest wybór wskaźników, którymi należałoby się posłużyć. Nie ma także jasnych reguł jak dobrać wartości parametrów tych wskaźników. Kłopot polega na tym, że wskaźników jest bardzo wiele – bardziej znanych kilkadziesiąt, dostępnych w specjalistycznych programach komputerowych kilkaset. Aby nieco zawęzić obszar badania wybrano wskaźniki najpopularniejsze, szeroko opisane w literaturze, z klasycznymi parametrami proponowanymi przez ich twórców lub doświadczonych analityków. Autorzy zdają sobie sprawę, że wybór taki jest subiektywny jednak żadne naukowe metody wyboru najlepszych czy najskuteczniejszych wskaźników nie są im znane. Każdy z nich ma swoich 3 Znajomość analizy technicznej jest wymagana na egzaminach maklerskich i na doradców inwestycyjnych. zwolenników i krytyków. Parametry wskaźników zwykle optymalizuje się pod względem uzyskiwanych efektów inwestowania. A więc dobiera się je tak aby łączny zysk z inwestycji, które byłyby podjęte z wykorzystaniem tego wskaźnika był jak największy. Jednak dla każdej spółki inny wskaźnik generuje najwyższy zysk a dla spółek dla których ma tą samą wartość jego parametry się bardzo różnią ... Ostatecznie wybrano do analizy następujące wskaźniki z odpowiednimi parametrami4 : 1. prosta średnia ruchoma o długości 5,9,15,21,29 sesji 2. wykładnicza średnia ruchoma o długości 5,9,15,21,29 sesji 3. trójkątna średnia ruchoma o długości 5,9,15,21,29 sesji 4. ważona średnia ruchoma o długości 5,9,15,21,29 sesji 5. zmodyfikowana średnia ruchoma o długości 5,9,15,21,29 sesji 6. oscylator Chaikina 7. Chaikin's Volatility 8. Accumulation/Distribution (A/D) Oscillator 9. Fast PercentK (F%K) and Fast PercentD (F%D) 10. MACD 11. On-Balance Volume 12. Price Rate-of-Change, 9,12,19,25 sesji 13. Price and Volume Trend 14. RSI 15. Stochastic Oscillator ( 10, 3) ,(15, 5), (19, 7) ważony średnią wykładniczą 16. Stochastic Oscillator ( 10, 3) ,(15, 5), (19, 7) ważony średnią trójkątną (triangular) 17. Volume Oscilator, 9,12,19,25 sesji 18. William's Accumulation/Distribution Line. 19. William's PercentR (%R), 9,14,19,25 sesji Wskaźniki różniące się jedynie parametrami były traktowane jak osobne wskaźniki. Wskaźnik zbudowany z kilku linii był dzielony tak, aby każda linia stanowiła oddzielny wskaźnik. Łącznie analizie poddano 64 wskaźniki. Drugim istotnym problemem jest wybór metody, którą należałoby klasyfikować spółki na bazie powyższych danych. Ponieważ sama analiza techniczna jest techniką subiektywną 4 Wyboru dokonano na podstawie rozmów z maklerami i klasycznej literatury : John J. Murphy, „Analiza Techniczna”, WIG Press, W-wa 1995. Przyjęto nazwy wskaźników w oryginalnym zapisie ze względu na brak polskich odpowiedników dla wielu z nich. postanowiono wykorzystać metodę, która potrafiłaby się uczyć na danych i samodzielnie wciągnąć wnioski bez żadnej wiedzy a priori. Aby poradzić sobie z tak postawionym problemem badacz może posłużyć się siecią neuronową typu SOM. Mapa Samoorganizująca (SOM – Self Organizing Map), rozwinięta przez fińskiego profesora Teuvo Kohonena, jest jednym z najbardziej zaawansowanych modeli sieci neuronowych. Oparta jest na nie nadzorowanym uczeniu, co oznacza, że nie jest potrzebna żadna interwencja podczas jej uczenia. SOM służy do uformowania odwzorowania z przestrzeni wielowymiarowej ℜn do przestrzeni jednowymiarowej lub dwuwymiarowej. Mapa neuronów zazwyczaj uformowana jest jako dwuwymiarowa siatka i dlatego jest odwzorowaniem z przestrzeni wielowymiarowej na płaszczyznę. 5 Może być zastosowana w tym samym czasie do wizualizacji skupisk w zbiorze danych i do wizualizacji zbioru wielowymiarowych danych na płaszczyźnie, zachowując nieliniowe relacje między jednostkami i lokując bliskie sobie jednostki bliżej siebie na mapie. Poza tym, jeżeli nawet nie istnieją wyraźne skupiska w zbiorze danych, sieć SOM ujawnia „pasma gór” i „wąwozów”. Pierwsze są często strefą nieregularnie ukształtowaną z wysoką tendencją do tworzenia skupisk, podczas gdy drugie rozdzielają zbiór danych na obszary, które mają odmienne właściwości. Graficzną prezentacją znalezionego odwzorowania jest tzw. macierz U. SOM ma również zdolności uogólniania. Zdolność uogólniania oznacza, że sieć rozpoznaje dane wejściowe, z którymi wcześniej nie miała do czynienia. Głównym powodem stosowania SOM w analizie danych jest to, że: jest metodą nieparametryczną, nie wymaga a priori żadnych założeń, co do rozkładów analizowanych zmiennych. W sieci Kohonena mamy do czynienia z tak zwanym uczeniem konkurencyjnym (competitive learning), w której po prezentacji wzorca wejściowego następuje określenie neuronu wygrywającego (winner) i tylko ten neuron, ewentualnie grupa sąsiadujących z nim neuronów, aktualizuje swoje wagi, tak by zbliżyć się do aktualnego wzorca. Przy uczeniu konkurencyjnym neurony rywalizują o przywilej uczenia się. Tylko jeden, lub najwyżej kilka neuronów, ma możliwość modyfikacji swoich wag w odpowiedzi na prezentację na wejściu.6 O liczbie i intensywności uczenia się neuronów będących sąsiadami wygrywającego decyduje przyjęta funkcja sąsiedztwa. Najczęściej stosowanymi są funkcje: gaussowska, ucięta 5 Kohonen Teuvo, Self-Organizing Map, Second Edition, Springer, 1997, p. 86 Hertz John, Krogh Anders, Palmer Richard G., Wstęp do teorii obliczeń neuronowych, Wydawnictwa Naukowo-Techniczne, W-wa 1995, s. 268-270. Deboeck Guido, Kohonen Teuvo, Visual Explorations in Finance with Self-Organizing Maps, Springer, 1998, p. 6 XXXiV-XXXV gaussowska, bubble i ep7. Neurony na mapie połączone są z sąsiadującymi neuronami przez relacje sąsiedztwa dyktując w ten sposób strukturę (topologię) sieci. Zazwyczaj definiowana topologia sieci to prostokątna bądź heksagonalna (sześciokątna) siatka. Rysunek 1. Różne topologie sieci SOM: prostokątna, heksagonalna. Prostokątna Heksagonalna Źródło: Opracowanie własne Każdy neuron posiada komplet sąsiadów i sam z kolei jest sąsiadem dla innych neuronów.8 Ocena jakości mapy wykonywana jest najczęściej na podstawie 4 typów błędów. Jest to błąd kwantyzacji, błąd topograficzny, błąd dystorsji i liczba martwych neuronów. Błąd kwantyzacji określa poziom specjalizacji neuronów. Błąd topograficzny ocenia jakość „rozciągnięcia” mapy na obiekty wejściowe.9 Błąd dystorsji mierzy zagęszczenie obiektów przy pojedynczych neuronach. Liczba martwych neuronów to stosunek liczby neuronów aktywnych do nieaktywnych. Optymalnie skonstruowana sieć SOM powinna mieć neurony wysoce wyspecjalizowane ( a więc mały błąd kwantyzacji ). Siatka powinna być prawidłowo rozciągnięta na badane obiekty tak aby w ich przestrzeni zajmować ten sam obszar. Gdy obiekty zajmują przestrzeń na bazie trójkąta to sieć powinna być rozciągnięta w taki właśnie trójkąt ( mały błąd topograficzny ). Neurony powinny być w miarę równomiernie „przydzielone” poszczególnym obiektom. Niski błąd dystorsji będzie świadczył o tym, że 7 Więcej o roli sąsiedztwa i własnościach poszczególnych funkcji można znaleźć w : J. Vesanto, „Data Mining Techniques Based on the Self Organizing Map”, Thesis for the degree of Master of Science in Engineering, Helsinki University of Technology, 1997, p.6. 8 Nałęcz Maciej (red.), Sieci Neuronowe, Biocybernetyka i Inżynieria Biomedyczna 2000, tom 6, PAN, Akadeick Oficyna Wydawnicza EXIT, 2000, s. 182-183 9 Vesanto Juha, „Data Mining Techniques Based on the Self Organizing Map”, Thesis for the degree of Master of Science in Engineering, Helsinki University of Technology, 1997, p. 17-18. wszystkie obiekty mają w przybliżeniu tę samą liczbę neuronów wyspecjalizowanych do ich rozpoznawania. Sieć nie powinna być również zbyt „nadmiarowa”. Siatka neuronów powinna zawierać ich tyle ile potrzeba do rozpoznawania wszystkich obiektów, ale nie więcej. Każdy dodatkowy - „martwy” neuron to jedynie dodatkowy czas analiz nie zrekompensowany żadną dodatkową wiedzą. 2. PRZEBIEG EKSPERYMENTU Jako podstawowy cel stawiamy tu zweryfikowanie hipotezy, że posługując się migawkowymi danymi pochodzącymi z analizy technicznej możliwe jest efektywne inwestowanie w wybrane walory. Zakładamy ponadto, że właściwą metodą badawczą będzie sieć neuronowa typu SOM. Eksperyment przebiegał w następujący sposób: 1. Analizie poddano wszystkie spółki notowane na WGPW w maju 2002 przynajmniej od 100 sesji w systemie notowań ciągłych ( spełnia to założenie 216 spółek ). 2. Dla kolejnych 59 sesji10 od 26 lutego 2002 do 26 maja 2002 zostały wyliczone macierze danych: a. w każdej kolumnie kolejna spółka, b. w każdym wierszu kolejny wskaźnik. Macierze te stanowiły dane wejściowe dla sieci neuronowej. 3. Dla każdej macierzy wejściowej ( każdej sesji ) budowana była sieć neuronowa SOM o następującej topologii : a. neurony rozpięte na siatce heksagonalnej b. rozmiar siatki 13x13 neuronów ( eksperymentalnie dobrany ) c. liczba iteracji uczących 2000 d. zastosowane funkcje sąsiedztwa: i. gaussowska, ii. ucięta gaussowska, iii. bubble, iv. ep. 4. Dla każdej sieci wyznaczono 4 typy błędów: 10 a. błąd kwantyzacji Q b. błąd topograficzny T Ze względu na dość długi czas uczenia pojedynczej sieci (zwykle kilka - kilkanaście godzin), aby ograniczyć łączny czas analiz arbitralnie ustalono taki zakres czasowy uwzględniony w badaniu. c. błąd dystorsii D d. liczbę „martwych” neuronów N 5. Ponieważ znaczenie praktyczne poszczególnych błędów jest różne, zbudowano syntetyczny wskaźnik (błąd całkowity), który był minimalizowany. Błąd całkowity został wyznaczony następująco : BC=0.4Q+0.4T+0.1D+0.1N. 6. Wykonano po 5 prób uczenia sieci dla każdej z 4 funkcji sąsiedztwa i szacowano dla nich błąd całkowity. Sieć o najmniejszym błędzie całkowitym spośród 20 testowanych sieci została uznana za optymalną11. 7. Na bazie optymalnej sieci w sensie błędu całkowitego metodą k-średnich dokonano podziału spółek na względnie jednorodne grupy. 8. Spółki, które znalazły się w grupie tych, których reprezentujące je neurony osiągnęły najwyższą aktywację zostały uznane na „najatrakcyjniejsze” według sieci. 9. Szacowano zmianę wartości zaproponowanego przez sieć portfela i porównywano ze zmianami wartości indeksu WIG. 10. Jeżeli zmiana wartości portfela była wyższa niż WIG’u oznaczało to sukces. Jeżeli nie to porażkę. 11. Oszacowano liczę sukcesów i porażek w kolejnych 59 analizowanych sesjach. 3. WYNIKI ANALIZ Ze względu na ogromną liczbę informacji przetwarzanych przez sieć jak i dostarczanych przez nią informacji, trudno zaprezentować dokładne wyniki analiz dla wszystkich 59 sesji. Aby jednak analiza była zrozumiała, przedstawimy szczegóły dla pierwszej analizowanej sesji i syntetyczne wyniki dla 58 kolejnych. Rozpatrujemy dane techniczne z 26.02.2002. Po 2000 iteracji uczących sieć z gaussowską funkcją sąsiedztwa osiąga minimalny poziom błędu całkowitego BC = 0.15 w tym błąd kwantyzacji = 0.17, błąd topograficzny = 0.13, błąd dystorsji = 0.05 i procent martwych neuronów = 23.08%. Możemy zobaczyć jaki jest wpływ poszczególnych wskaźników na odwzorowanie SOM (rysunek 2). Zmienne od 1 do 25 to średnie ruchome. Jak widzimy sieć nie rozróżnia ich zbyt wyraźnie. Wszystkie odpowiadające im wykresy są prawie identyczne. Pozostałe zmienne oddziałują w różny sposób a więc niosą jakościowo różną informację. 11 Na tym etapie sieć „nie wie” czy wybrała spółki ponad przeciętne. Nie ma więc możliwości manipulacji. Wynik łączny dla wszystkich zmiennych możemy zobaczyć na rysunku 3. Barwy ciemne wskazują na duże odległości między spółkami, barwy jasne małe. Pasy ciemnych „gór” oddzielają obszary o względnie podobnych własnościach. Podobieństwa te łatwiej zauważyć na rysunku 4, gdzie stopniom podobieństwa odpowiadają barwy. Podobne odcienie symbolizują podobne własności obiektów znajdujących się w danym rejonie sieci. Na bazie macierzy U metodą k-średnich dokonano klasyfikacji spółek. Podział macierzy U jest zaprezentowany na rysunku 5. Wyodrębniono 3 klasy spółek jednorodnych z punktu widzenia wszystkich wskaźników łącznie. Spółki, których neurony je reprezentujące charakteryzowały się największą aktywacją zaliczono do grupy 1. Jedynie ta grupa jest poddawana dalszej analizie. Walory, które znalazły się w tej grupie to : 02NFI ESPEBEPE MASTERS 04PRO EXBUD MCI 05VICT FARMACOL MIESZKO 06MAGNA FASING MITEX 07NFI FERRUM MORLINY 08OCTAVA FORTESA MOSTALEP 09KWIAT FORTISPL MOSTALGD 13FORTUA GANT MOSTALSL 14ZACH GARBARNA MOSTALWR 15HETMAN HOWELL MOSTALZB AMPLI HUTMEN MPECWRO BCZ HYDROTOR MUZA BEDZIN IBSYSTEM NETIA BEEFSAN IGROUP OCEAN BICK IRENA OKOCIM BIELBAW JUTRZENA OLAWA BIG KGHM ONETGRUP BORYSZEW KOMPAP OPTIMUS CENTROZP KRAKBROK ORFE COMPENSA KRUSZWIA PEKABEX CSS LDASA PEKPOL DELIA LENTEX PEMUG EFEKT LETA PEPEES ELEKTROX LTL PERMEDIA ELZAB MACROSOT PGF PKNORLEN ROLIMPEX SUWARY POLIFARC ROPCZYCE TALEX PONARFEH SANOK TIM POZMEAT SKOTAN TUEUROPA PPLHOLD SOFTBANK VISCO PROCHEM SOKOLOW WILBO PROJPRZM STALEXP WISTIL PUE STALPROD WOLCZANA RELPOL STALPROI ZEG REMAK STOMIL ZREW Rysunek 2. Wpływ poszczególnych wskaźników na wynik odwzorowania SOM. U-matrix Variable1 Variable2 Variable3 Variable4 Variable5 Variable6 Variable7 Variable8 Variable9 Variable10 Variable11 Variable12 Variable13 Variable14 Variable15 Variable16 Variable17 Variable18 Variable19 Variable20 Variable21 Variable22 Variable23 Variable24 Variable25 Variable26 Variable27 Variable28 Variable29 Variable30 Variable31 Variable32 Variable33 Variable34 Variable35 Variable36 Variable37 Variable38 Variable39 Variable40 Variable41 Variable42 Variable43 Variable44 Variable45 Variable46 Variable47 Variable48 Variable49 Variable50 Variable51 Variable52 Variable53 Variable54 Variable55 Variable56 Variable57 Variable58 Variable59 Variable60 Variable61 Variable62 Variable63 Variable64 Źródło: Opracowanie własne. Rysunek 3. Macierz U, łączny wpływ poszczególnych wskaźników na wynik odwzorowania SOM. 12 153 167 193 1.8 81 111 178 46 55 60 179 32 161 186 87 143 51 71 134 25 82 33 154 73 150 170 3 75 126 72 85 184 26 6 214 130 31 188 145 93 100 131 158 74 144 181 156 168 37 207 54 151 21 165 128 107 122 41 195 56 52 163 190 84 129 208 Źródło: Opracowanie własne. Rysunek 4. Podobieństwo obiektów na mapie SOM. Źródło: Opracowanie własne. 135 176 16 97 1.2 1 29 148 159 213 0.8 42 69 0.6 141 61 199 117 57 103 137 138 65 23 90 22 162 95 194 63 157 58 50 203 38 45 14 66 17 89 101 146 20 15 94 114 1.4 106 40 124 202 64 88 28 196 13 49 174 205 171 182 9 169 183 53 92 175 80 36 160 119 139 1.6 98 83 8 24 212 116 192 149 91 59 200 123 136 140 86 105 115 19 102 113 79 99 35 216 1 2 30 172 209 155 215 108 211 47 173 132 166 27 43 67 121 180 78 34 109 133 48 112 185 210 70 191 18 44 127 4 5 68 76 125 147 7 118 142 198 187 120 96 177 204 62 189 152 201 10 11 197 39 77 164 206 104 110 0.4 0.2 Rysunek 5. Klasyfikacja obiektów.12 12 153 167 193 3 81 111 178 46 55 60 179 32 161 186 25 82 51 33 154 71 134 73 150 170 3 75 85 126 72 184 26 6 214 130 31 188 145 93 100 131 158 201 74 144 18 44 34 168 48 112 156 181 108 78 209 37 207 54 151 107 122 215 15 94 64 88 17 114 89 101 146 20 41 192 8 195 38 45 56 14 66 157 162 163 190 83 52 84 129 208 2.4 57 103 137 138 95 42 69 23 141 90 29 148 159 213 1.8 65 194 135 176 2.2 2 106 63 16 97 171 182 9 169 183 22 58 50 203 116 40 124 202 13 49 174 205 98 53 92 28 196 2.6 200 149 119 139 212 21 165 128 80 36 160 91 24 19 102 113 155 79 99 35 216 136 140 86 105 115 2.8 59 123 172 175 180 211 47 173 67 121 132 166 1 2 30 4 5 68 127 76 125 147 7 118 27 43 120 185 210 70 191 109 133 142 198 187 62 189 152 96 177 204 10 11 197 87 143 61 199 117 39 77 164 206 1.6 1.4 104 110 1.2 1 Źródło: Opracowanie własne. Badamy następnie zmianę wartości wybranych spółek na następnej sesji giełdowej i porównujemy ze zmianą WIG. Zmiana wartości tego portfela wyniosła 0.2577% gdy na tej samej sesji WIG zmienił się o -0.5125%. Taką sytuację nazwiemy sukcesem – klasyfikacja dokonana przez sieć SOM na bazie danych analizy technicznej pozwoliła wyodrębnić spółki wzrostowe. Identycznej analizy dokonujemy dla kolejnych 58 sesji. Otrzymano następujące wyniki: 12 Numery na rysunkach 3 i 5 odpowiadają numerom spółek w bazie danych. Tabl. 1. Syntetyczne wyniki analizy dla badanych 59 sesji. ZMIANA PORTFELA 0.2577 0.211002311 -0.058422892 0.22985678 -0.278363106 0.019574294 0.001981082 -1.009173571 -1.491534027 0.5 0.426290499 -0.404914087 -1.064090738 -2.106766905 0.45050248 -0.593852684 0.865511896 -0.63516118 -0.319515948 0.736551321 0.293159289 -0.767331466 -0.962145612 -0.822016374 1.237821928 -0.096835231 0.071123821 0.030190629 -0.465174762 -0.897655956 0.232971021 -1.018929651 0.089890663 -0.084264343 0.100524686 -1.294753976 -0.337652356 -0.056998831 -0.100296565 0.743147523 -0.453354105 0.667120878 0.438483078 -0.836100901 0.027887413 -0.35057269 0.217687913 0.006986872 1.287308365 0.482648409 0.143921171 3.101023837 -0.418478386 0.255435836 -0.071888633 -0.652743197 0.457177965 0.287697192 0.446451796 Źródło: Opracowanie własne. ZMIANA WIG -0.512460206 0.869910116 0.357914544 -0.346034632 -0.684675543 0.908698353 0.278959079 -1.258247363 -1.58144218 0.394339475 0.871603282 -0.071568672 -1.095371357 -1.217151091 0.463349 0.168740984 1.735511586 -1.980367617 0.169464062 0.63319526 -0.192157477 -1.272757401 -0.385367754 -0.095547371 1.527307505 -0.253112537 1.713212908 0.140193154 -0.227593439 -0.951478355 0.928591173 0.353996167 -0.756927679 -0.482091934 -1.091339757 0.224369887 0.341597427 -0.374691652 0.687585588 0.940322006 0.370514486 -0.635657815 -0.899806509 0.098224551 -0.840089089 0.411905529 0.000870378 -0.029190884 -0.075275536 0.381084637 0.110299297 3.213296029 1.209634428 -0.485093804 0.72855725 -0.66927677 0.182873851 0.170251223 0.248617143 1 - sukces 0 – porażka 1 0 0 1 1 0 0 1 1 1 0 0 1 0 0 0 0 1 0 1 1 1 0 0 0 1 0 0 0 1 0 0 1 1 1 0 0 1 0 0 0 1 1 0 1 0 1 1 1 1 1 0 0 1 0 1 1 1 1 Na 59 eksperymentów uzyskano 30 sukcesów a więc 50.85%. Sukcesy i porażki pojawiały się w sposób losowy (rysunek 6). W jednakowym stopniu dotyczy to sesji spadkowych jak i wzrostowych. „Nieszczęśliwym trafem” spadki były nieco głębsze niż wzrosty stąd skumulowana zmiana i portfela jest znacznie niższa niż WIG’u, odpowiednio -3.6211 2.3702 (rysunek 7). Ta dysproporcja została wywołana głównie na sesjach od 6 do 11 i strat z tego okresu nie udało się już odrobić. Rozkłady zmian portfela i WIG’u są bardzo podobne (rysunek 8). Rysunek 6. Zmiany wartości portfela i WIG’u. 4 ZMIANY WIG ZMIANY PORTFELA 3 2 1 0 -1 -2 -3 0 10 Źródło: Opracowanie własne. 20 30 40 50 60 Rysunek 7. Skumulowane zmiany wartości portfela i WIG’u. 4 skumulowane zmiany portfela skumulowane zmiany WIG 2 ZMIANY PROCENTOWE 0 -2 -4 -6 -8 -10 0 10 20 30 SESJE 40 50 60 Źródło: Opracowanie własne. Rysunek 8. Rozkłady zmian portfela i WIG’u. R OZKŁAD ZMIAN PORTFELA 25 20 15 10 5 0 -3 -2 -1 0 1 2 3 4 ROZKŁAD ZM IAN WIG 20 15 10 5 0 -2 -1 Źródło: Opracowanie własne. 0 1 2 3 4 W rozkładzie zmian WIG’u jest nieco więcej zmian dodatnich niż w rozkładzie zmian portfela i znajduje to odzwierciedlenie w skośności i spłaszczeniu obu rozkładów odpowiednio : skośność 0.7666, 0.5926 , spłaszczenie 6.8478, 4.6215. WNIOSKI W zależności od punktu widzenia można powiedzieć, że uzyskanych wyników należało się spodziewać lub „machnąć na nie ręką”. Zwolennicy analizy technicznej powiedzą, że należało wziąć pod uwagę także inne wskaźniki. Dobrali by inne wartości parametrów wskaźników użytych. Zażądaliby znacznego wydłużenia okresu analizy. Analitycy sceptycznie nastawieni do analizy technicznej odpowiedzą, że zawsze można tak dobrać narzędzia badawcze aby „udowodnić” swoje tezy. Można bowiem dla każdego zespołu spółek znaleźć pewien wskaźnik o odpowiednio dobranych parametrach, który wskaże rzeczywistą zmianę tendencji rynkowej na kolejnej sesji. Aby odizolować się od emocji i stronniczej oceny postanowiono odwołać się do niezależnego eksperta. Jego rolę pełniła tu sieć neuronowa13. Z natury rzeczy nie miała ona zdania na temat analizy technicznej w momencie rozpoczęcia jej uczenia i miała sobie to zdanie dopiero „wyrobić”. Sieci przedstawiono 59 razy 64 wskaźniki dotyczące 216 walorów. Na tej podstawie próbowała ona pogrupować te walory we względnie jednorodne grupy. Najlepsza grupa poddana była dalszej analizie. Niestety nie udało się znaleźć żadnej ogólnej zasady, która pozwoliłaby wykryć optymalny zestaw wskaźników dla dowolnie wybranego momentu inwestycyjnego. Przedstawione tu wnioskowanie ma charakter empiryczny, gdyż ze względu na ograniczenia merytoryczne samej analizy technicznej nie można przeprowadzić wnioskowania teoretycznego. Jak w każdym badaniu empirycznym uzyskane wnioski nie mają charakteru ostatecznego ani pewnego. Niewątpliwie można by jeszcze rozszerzyć zakres analiz i wzmocnić zastosowaną metodologię. Na tym jednak etapie badań nie udało się wykryć żadnych istotnych informacji wśród analizowanych danych pochodzących z analizy technicznej. 13 Oczywiście zakłada się, że sieć jest w stanie wykryć informacje w prezentowanych jej danych. Z doświadczeń autorów wynika, że jeżeli w danych „coś” jest to sieć najczęściej to wykryje. Nie zawsze jednak potrafimy tą informację zinterpretować...