Kamila Migdał Najman, Krzysztof Najman

Transkrypt

Kamila Migdał Najman, Krzysztof Najman
ZASTOSOWANIE SIECI NEURONOWEJ TYPU SOM
DO WYBORU NAJATRAKCYJNIEJSZYCH SPÓŁEK NA WGPW
W OPARCIU O WSKAŹNIKI ANALIZY TECHNICZNEJ
Dr Kamila Migdał Najman
Dr Krzysztof Najman
Katedra Statystyki
Wydział Zarządzania
Uniwersytet Gdański
[email protected]
[email protected]
SOPOT
2000
WSTĘP
W analizach rynków kapitałowych typowym problemem jest ogromna liczba walorów,
które należałoby analizować, aby efektywnie inwestować. W wielu zaawansowanych typach
analiz nawet na małej giełdzie, jak WGPW, nie ma możliwości sprawdzenia kondycji
wszystkich spółek z sesji na sesję. Istnieje, więc potrzeba wyboru walorów, które ze względu
na pewne kryteria wydają się najbardziej atrakcyjne1. Zawężenie liczby analizowanych
walorów dałoby szansę na wnikliwe analizy prowadzone na bieżąco, co powinno przekładać
się na bardziej udane inwestycje. Oczywiście sprawą dyskusyjną i subiektywną jest pojęcie
„najatrakcyjniejszych spółek”. W tej pracy przyjęto uważać za atrakcyjną taką spółkę, która w
ocenie analizy technicznej posiada potencjał wzrostowy na najbliższej sesji2. Jako metodę
wyboru spółek zastosowano sieć neuronową typu Self Organizing Map ( SOM ). Sieć pełni tu
rolę „niezależnego eksperta”, który nie kierując się żadnymi sugestiami, czy dodatkowymi
informacjami, a jedynie na podstawie prezentowanych danych będzie poszukiwał optymalnej
klasyfikacji na spółki potencjalnie wzrostowe i inne.
1
Na konferencji naukowej „Inwest 2001” w Szklarskie Porębie w październiku 2001, wygłoszony został referat
przedstawiający możliwości wykorzystania wskaźników analizy fundamentalnej do wyboru najatrakcyjniejszych
spółek. Powinien ukazać się w publikacjach Akademii Ekonomicznej we Wrocławiu w październiku 2002.
Prezentowane tu badanie jest jego rozwinięciem i uzupełnieniem o wskaźniki analizy technicznej.
2
Potencjał wzrostowy jest tu utożsamiany z osiągnięciem przez analizowane wskaźniki poziomu powszechnie
uważanego za korzystny dla danego waloru.
1. METODA BADAWCZA
Zasadniczym problemem stojącym przed każdym analitykiem jest wybór danych jakimi
należałoby się posłużyć i metody, która potrafiłaby z tych danych wydobyć interesujące go
informacje. Istnieje wiele źródeł danych, którymi posługują się inwestorzy w podejmowaniu
decyzji. Jednym z nich jest analiza techniczna. Wskaźniki konstruowane w jej ramach mają
na podstawie danych historycznych pomóc ocenić bieżącą sytuację rynkową i wskazać
prawdopodobne jej zmiany w najbliższej przyszłości. Zaletą tego typu analiz jest aktualność
i wiarygodność danych. Wskaźniki wyznacza się bowiem na podstawie codziennych
notowań. Są to konkretne dane ilościowe, a nie „szacunki”. Wadą analizy technicznej jest
jednak to, że interpretacja uzyskiwanych wyników jest czysto subiektywna. Wskaźniki
jedynie „sugerują” co potencjalnie może się zdarzyć. Niektórzy te sugestie zauważą i
uwzględnią przy podejmowaniu decyzji, a inni nie. Przeglądając liczne prasowe
i internetowe serwisy giełdowe często można się spotkać z bardzo różnymi ocenami rynku
dokonywanymi przez analityków technicznych na bazie identycznych danych i metod ... Jest
to wewnętrzną cechą analizy technicznej i powodem, dla którego trudno nazwać ją nauką.
Jeżeli tak jest, to niezależny ekspert, nie posiadający żadnych informacji o analizowanych
walorach prócz bieżących wartości wskaźników powinien w dłuższym okresie czasu osiągnąć
prawdopodobieństwo wytypowania atrakcyjnych spółek na poziomie 0.5. Pomijając kwestię
„szczęśliwego lub nieszczęśliwego trafu” skumulowany zysk z inwestycji powinien dążyć do
wartości indeksu rynkowego. Niemniej jest to technika powszechnie stosowana3 przez
maklerów i inwestorów. Jest to jedyna przyczyna ( poza naukową ciekawością ) dla której
postanowiono użyć tych danych.
Inną, kłopotliwą sprawą jest wybór wskaźników, którymi należałoby się posłużyć.
Nie ma także jasnych reguł jak dobrać wartości parametrów tych wskaźników. Kłopot polega
na tym, że wskaźników jest bardzo wiele – bardziej znanych kilkadziesiąt, dostępnych w
specjalistycznych programach komputerowych kilkaset. Aby nieco zawęzić obszar badania
wybrano wskaźniki najpopularniejsze, szeroko opisane w literaturze, z klasycznymi
parametrami proponowanymi przez ich twórców lub doświadczonych analityków. Autorzy
zdają sobie sprawę, że wybór taki jest subiektywny jednak żadne naukowe metody wyboru
najlepszych czy najskuteczniejszych wskaźników nie są im znane. Każdy z nich ma swoich
3
Znajomość analizy technicznej jest wymagana na egzaminach maklerskich i na doradców inwestycyjnych.
zwolenników i krytyków. Parametry wskaźników zwykle optymalizuje się pod względem
uzyskiwanych efektów inwestowania. A więc dobiera się je tak aby łączny zysk z inwestycji,
które byłyby podjęte z wykorzystaniem tego wskaźnika był jak największy. Jednak dla każdej
spółki inny wskaźnik generuje najwyższy zysk a dla spółek dla których ma tą samą wartość jego parametry się bardzo różnią ... Ostatecznie wybrano do analizy następujące wskaźniki z
odpowiednimi parametrami4 :
1. prosta średnia ruchoma o długości 5,9,15,21,29 sesji
2. wykładnicza średnia ruchoma o długości 5,9,15,21,29 sesji
3. trójkątna średnia ruchoma o długości 5,9,15,21,29 sesji
4. ważona średnia ruchoma o długości 5,9,15,21,29 sesji
5. zmodyfikowana średnia ruchoma o długości 5,9,15,21,29 sesji
6. oscylator Chaikina
7. Chaikin's Volatility
8. Accumulation/Distribution (A/D) Oscillator
9. Fast PercentK (F%K) and Fast PercentD (F%D)
10. MACD
11. On-Balance Volume
12. Price Rate-of-Change, 9,12,19,25 sesji
13. Price and Volume Trend
14. RSI
15. Stochastic Oscillator ( 10, 3) ,(15, 5), (19, 7) ważony średnią wykładniczą
16. Stochastic Oscillator ( 10, 3) ,(15, 5), (19, 7) ważony średnią trójkątną (triangular)
17. Volume Oscilator, 9,12,19,25 sesji
18. William's Accumulation/Distribution Line.
19. William's PercentR (%R), 9,14,19,25 sesji
Wskaźniki różniące się jedynie parametrami były traktowane jak osobne wskaźniki.
Wskaźnik zbudowany z kilku linii był dzielony tak, aby każda linia stanowiła oddzielny
wskaźnik. Łącznie analizie poddano 64 wskaźniki.
Drugim istotnym problemem jest wybór metody, którą należałoby klasyfikować spółki
na bazie powyższych danych. Ponieważ sama analiza techniczna jest techniką subiektywną
4
Wyboru dokonano na podstawie rozmów z maklerami i klasycznej literatury : John J. Murphy, „Analiza
Techniczna”, WIG Press, W-wa 1995. Przyjęto nazwy wskaźników w oryginalnym zapisie ze względu na brak
polskich odpowiedników dla wielu z nich.
postanowiono wykorzystać metodę, która potrafiłaby się uczyć na danych i samodzielnie
wciągnąć wnioski bez żadnej wiedzy a priori. Aby poradzić sobie z tak postawionym
problemem badacz może posłużyć się siecią neuronową typu SOM.
Mapa Samoorganizująca (SOM – Self Organizing Map), rozwinięta przez fińskiego
profesora Teuvo Kohonena, jest jednym z najbardziej zaawansowanych modeli sieci
neuronowych. Oparta jest na nie nadzorowanym uczeniu, co oznacza, że nie jest potrzebna
żadna interwencja podczas jej uczenia. SOM służy do uformowania odwzorowania z
przestrzeni wielowymiarowej
ℜn do
przestrzeni jednowymiarowej lub dwuwymiarowej.
Mapa neuronów zazwyczaj uformowana jest jako dwuwymiarowa siatka i dlatego jest
odwzorowaniem z przestrzeni wielowymiarowej na płaszczyznę. 5 Może być zastosowana w
tym samym czasie do wizualizacji skupisk w zbiorze danych i do wizualizacji zbioru
wielowymiarowych danych na płaszczyźnie, zachowując nieliniowe relacje między
jednostkami i lokując bliskie sobie jednostki bliżej siebie na mapie. Poza tym, jeżeli nawet nie
istnieją wyraźne skupiska w zbiorze danych, sieć SOM ujawnia „pasma gór” i „wąwozów”.
Pierwsze są często strefą nieregularnie ukształtowaną z wysoką tendencją do tworzenia
skupisk, podczas gdy drugie rozdzielają zbiór danych na obszary, które mają odmienne
właściwości. Graficzną prezentacją znalezionego odwzorowania jest tzw. macierz U. SOM
ma również zdolności uogólniania. Zdolność uogólniania oznacza, że sieć rozpoznaje dane
wejściowe, z którymi wcześniej nie miała do czynienia.
Głównym powodem stosowania SOM w analizie danych jest to, że: jest metodą
nieparametryczną, nie wymaga a priori żadnych założeń, co do rozkładów analizowanych
zmiennych. W sieci Kohonena mamy do czynienia z tak zwanym uczeniem konkurencyjnym
(competitive learning), w której po prezentacji wzorca wejściowego następuje określenie
neuronu wygrywającego (winner) i tylko ten neuron, ewentualnie grupa sąsiadujących z nim
neuronów, aktualizuje swoje wagi, tak by zbliżyć się do aktualnego wzorca. Przy uczeniu
konkurencyjnym neurony rywalizują o przywilej uczenia się. Tylko jeden, lub najwyżej kilka
neuronów, ma możliwość modyfikacji swoich wag w odpowiedzi na prezentację na wejściu.6
O liczbie i intensywności uczenia się neuronów będących sąsiadami wygrywającego decyduje
przyjęta funkcja sąsiedztwa. Najczęściej stosowanymi są funkcje: gaussowska, ucięta
5
Kohonen Teuvo, Self-Organizing Map, Second Edition, Springer, 1997, p. 86
Hertz John, Krogh Anders, Palmer Richard G., Wstęp do teorii obliczeń neuronowych, Wydawnictwa
Naukowo-Techniczne, W-wa 1995, s. 268-270.
Deboeck Guido, Kohonen Teuvo, Visual Explorations in Finance with Self-Organizing Maps, Springer, 1998, p.
6
XXXiV-XXXV
gaussowska, bubble i ep7. Neurony na mapie połączone są z sąsiadującymi neuronami przez
relacje sąsiedztwa dyktując w ten sposób strukturę (topologię) sieci. Zazwyczaj definiowana
topologia sieci to prostokątna bądź heksagonalna (sześciokątna) siatka.
Rysunek 1.
Różne topologie sieci SOM: prostokątna, heksagonalna.
Prostokątna
Heksagonalna
Źródło: Opracowanie własne
Każdy neuron posiada komplet sąsiadów i sam z kolei jest sąsiadem dla innych neuronów.8
Ocena jakości mapy wykonywana jest najczęściej na podstawie 4 typów błędów. Jest to błąd
kwantyzacji, błąd topograficzny, błąd dystorsji i liczba martwych neuronów. Błąd
kwantyzacji określa poziom specjalizacji neuronów. Błąd topograficzny ocenia jakość
„rozciągnięcia” mapy na obiekty wejściowe.9 Błąd dystorsji mierzy zagęszczenie obiektów
przy pojedynczych neuronach. Liczba martwych neuronów to stosunek liczby neuronów
aktywnych do nieaktywnych. Optymalnie skonstruowana sieć SOM powinna mieć neurony
wysoce wyspecjalizowane ( a więc mały błąd kwantyzacji ). Siatka powinna być prawidłowo
rozciągnięta na badane obiekty tak aby w ich przestrzeni zajmować ten sam obszar. Gdy
obiekty zajmują przestrzeń na bazie trójkąta to sieć powinna być rozciągnięta w taki właśnie
trójkąt ( mały błąd topograficzny ). Neurony powinny być w miarę równomiernie
„przydzielone” poszczególnym obiektom. Niski błąd dystorsji będzie świadczył o tym, że
7
Więcej o roli sąsiedztwa i własnościach poszczególnych funkcji można znaleźć w : J. Vesanto, „Data Mining
Techniques Based on the Self Organizing Map”, Thesis for the degree of Master of Science in Engineering,
Helsinki University of Technology, 1997, p.6.
8
Nałęcz Maciej (red.), Sieci Neuronowe, Biocybernetyka i Inżynieria Biomedyczna 2000, tom 6, PAN,
Akadeick Oficyna Wydawnicza EXIT, 2000, s. 182-183
9
Vesanto Juha, „Data Mining Techniques Based on the Self Organizing Map”, Thesis for the degree of Master
of Science in Engineering, Helsinki University of Technology, 1997, p. 17-18.
wszystkie obiekty mają w przybliżeniu tę samą liczbę neuronów wyspecjalizowanych do ich
rozpoznawania. Sieć nie powinna być również zbyt „nadmiarowa”. Siatka neuronów powinna
zawierać ich tyle ile potrzeba do rozpoznawania wszystkich obiektów, ale nie więcej. Każdy
dodatkowy - „martwy” neuron to jedynie dodatkowy czas analiz nie zrekompensowany żadną
dodatkową wiedzą.
2. PRZEBIEG EKSPERYMENTU
Jako podstawowy cel stawiamy tu zweryfikowanie hipotezy, że posługując się
migawkowymi danymi pochodzącymi z analizy technicznej możliwe jest efektywne
inwestowanie w wybrane walory. Zakładamy ponadto, że właściwą metodą badawczą będzie
sieć neuronowa typu SOM. Eksperyment przebiegał w następujący sposób:
1. Analizie poddano wszystkie spółki notowane na WGPW w maju 2002 przynajmniej
od 100 sesji w systemie notowań ciągłych ( spełnia to założenie 216 spółek ).
2. Dla kolejnych 59 sesji10 od 26 lutego 2002 do 26 maja 2002 zostały wyliczone
macierze danych:
a. w każdej kolumnie kolejna spółka,
b. w każdym wierszu kolejny wskaźnik.
Macierze te stanowiły dane wejściowe dla sieci neuronowej.
3. Dla każdej macierzy wejściowej ( każdej sesji ) budowana była sieć neuronowa SOM
o następującej topologii :
a. neurony rozpięte na siatce heksagonalnej
b. rozmiar siatki 13x13 neuronów ( eksperymentalnie dobrany )
c. liczba iteracji uczących 2000
d. zastosowane funkcje sąsiedztwa:
i. gaussowska,
ii. ucięta gaussowska,
iii. bubble,
iv. ep.
4. Dla każdej sieci wyznaczono 4 typy błędów:
10
a. błąd kwantyzacji
Q
b. błąd topograficzny
T
Ze względu na dość długi czas uczenia pojedynczej sieci (zwykle kilka - kilkanaście godzin), aby ograniczyć
łączny czas analiz arbitralnie ustalono taki zakres czasowy uwzględniony w badaniu.
c. błąd dystorsii
D
d. liczbę „martwych” neuronów
N
5. Ponieważ znaczenie praktyczne poszczególnych błędów jest różne, zbudowano
syntetyczny
wskaźnik
(błąd
całkowity),
który
był
minimalizowany.
Błąd całkowity został wyznaczony następująco : BC=0.4Q+0.4T+0.1D+0.1N.
6. Wykonano po 5 prób uczenia sieci dla każdej z 4 funkcji sąsiedztwa i szacowano dla
nich błąd całkowity. Sieć o najmniejszym błędzie całkowitym spośród 20 testowanych
sieci została uznana za optymalną11.
7. Na bazie optymalnej sieci w sensie błędu całkowitego metodą k-średnich dokonano
podziału spółek na względnie jednorodne grupy.
8. Spółki, które znalazły się w grupie tych, których reprezentujące je neurony osiągnęły
najwyższą aktywację zostały uznane na „najatrakcyjniejsze” według sieci.
9. Szacowano zmianę wartości zaproponowanego przez sieć portfela i porównywano ze
zmianami wartości indeksu WIG.
10. Jeżeli zmiana wartości portfela była wyższa niż WIG’u oznaczało to sukces. Jeżeli nie
to porażkę.
11. Oszacowano liczę sukcesów i porażek w kolejnych 59 analizowanych sesjach.
3. WYNIKI ANALIZ
Ze względu na ogromną liczbę informacji przetwarzanych przez sieć jak i dostarczanych
przez nią informacji, trudno zaprezentować dokładne wyniki analiz dla wszystkich 59 sesji.
Aby jednak analiza była zrozumiała, przedstawimy szczegóły dla pierwszej analizowanej sesji
i syntetyczne wyniki dla 58 kolejnych.
Rozpatrujemy dane techniczne z 26.02.2002. Po 2000 iteracji uczących sieć z gaussowską
funkcją sąsiedztwa osiąga minimalny poziom błędu całkowitego BC = 0.15 w tym błąd
kwantyzacji = 0.17, błąd topograficzny = 0.13, błąd dystorsji = 0.05 i procent martwych
neuronów = 23.08%. Możemy zobaczyć jaki jest wpływ poszczególnych wskaźników na
odwzorowanie SOM (rysunek 2). Zmienne od 1 do 25 to średnie ruchome. Jak widzimy sieć
nie rozróżnia ich zbyt wyraźnie. Wszystkie odpowiadające im wykresy są prawie identyczne.
Pozostałe zmienne oddziałują w różny sposób a więc niosą jakościowo różną informację.
11
Na tym etapie sieć „nie wie” czy wybrała spółki ponad przeciętne. Nie ma więc możliwości manipulacji.
Wynik łączny dla wszystkich zmiennych możemy zobaczyć na rysunku 3. Barwy ciemne
wskazują na duże odległości między spółkami, barwy jasne małe. Pasy ciemnych „gór”
oddzielają obszary o względnie podobnych własnościach. Podobieństwa te łatwiej zauważyć
na rysunku 4, gdzie stopniom podobieństwa odpowiadają barwy. Podobne odcienie
symbolizują podobne własności obiektów znajdujących się w danym rejonie sieci. Na bazie
macierzy U metodą k-średnich dokonano klasyfikacji spółek. Podział macierzy U jest
zaprezentowany na rysunku 5. Wyodrębniono 3 klasy spółek jednorodnych z punktu widzenia
wszystkich wskaźników łącznie. Spółki, których neurony je reprezentujące charakteryzowały
się największą aktywacją zaliczono do grupy 1. Jedynie ta grupa jest poddawana dalszej
analizie.
Walory, które znalazły się w tej grupie to :
02NFI
ESPEBEPE
MASTERS
04PRO
EXBUD
MCI
05VICT
FARMACOL
MIESZKO
06MAGNA
FASING
MITEX
07NFI
FERRUM
MORLINY
08OCTAVA
FORTESA
MOSTALEP
09KWIAT
FORTISPL
MOSTALGD
13FORTUA
GANT
MOSTALSL
14ZACH
GARBARNA
MOSTALWR
15HETMAN
HOWELL
MOSTALZB
AMPLI
HUTMEN
MPECWRO
BCZ
HYDROTOR
MUZA
BEDZIN
IBSYSTEM
NETIA
BEEFSAN
IGROUP
OCEAN
BICK
IRENA
OKOCIM
BIELBAW
JUTRZENA
OLAWA
BIG
KGHM
ONETGRUP
BORYSZEW
KOMPAP
OPTIMUS
CENTROZP
KRAKBROK
ORFE
COMPENSA
KRUSZWIA
PEKABEX
CSS
LDASA
PEKPOL
DELIA
LENTEX
PEMUG
EFEKT
LETA
PEPEES
ELEKTROX
LTL
PERMEDIA
ELZAB
MACROSOT
PGF
PKNORLEN
ROLIMPEX
SUWARY
POLIFARC
ROPCZYCE
TALEX
PONARFEH
SANOK
TIM
POZMEAT
SKOTAN
TUEUROPA
PPLHOLD
SOFTBANK
VISCO
PROCHEM
SOKOLOW
WILBO
PROJPRZM
STALEXP
WISTIL
PUE
STALPROD
WOLCZANA
RELPOL
STALPROI
ZEG
REMAK
STOMIL
ZREW
Rysunek 2.
Wpływ poszczególnych wskaźników na wynik odwzorowania SOM.
U-matrix
Variable1
Variable2
Variable3
Variable4
Variable5
Variable6
Variable7
Variable8
Variable9 Variable10 Variable11 Variable12 Variable13 Variable14 Variable15 Variable16 Variable17
Variable18 Variable19 Variable20 Variable21 Variable22 Variable23 Variable24 Variable25 Variable26
Variable27 Variable28 Variable29 Variable30 Variable31 Variable32 Variable33 Variable34 Variable35
Variable36 Variable37 Variable38 Variable39 Variable40 Variable41 Variable42 Variable43 Variable44
Variable45 Variable46 Variable47 Variable48 Variable49 Variable50 Variable51 Variable52 Variable53
Variable54 Variable55 Variable56 Variable57 Variable58 Variable59 Variable60 Variable61 Variable62
Variable63 Variable64
Źródło: Opracowanie własne.
Rysunek 3. Macierz U, łączny wpływ poszczególnych wskaźników na wynik odwzorowania SOM.
12
153
167
193
1.8
81
111
178
46
55
60
179
32
161
186
87
143
51
71
134
25
82
33
154
73
150
170 3
75
126
72
85
184
26
6 214
130
31
188
145
93
100
131
158
74
144
181
156
168
37
207
54
151
21
165
128
107
122
41
195
56
52
163
190
84
129
208
Źródło: Opracowanie własne.
Rysunek 4.
Podobieństwo obiektów na mapie SOM.
Źródło: Opracowanie własne.
135
176
16
97
1.2
1
29
148
159
213
0.8
42
69
0.6
141
61
199
117
57
103
137
138
65
23
90
22
162
95
194
63
157
58
50
203
38
45
14
66
17
89
101
146
20
15
94
114
1.4
106
40
124
202
64
88
28
196
13
49
174
205
171
182
9
169
183
53
92
175
80
36
160
119
139
1.6
98
83
8
24
212
116
192
149
91
59
200
123
136
140
86
105
115
19
102
113
79
99
35
216
1
2
30
172
209
155
215
108
211
47
173
132
166
27
43
67
121
180
78
34
109
133
48
112
185
210
70
191
18
44
127
4
5
68
76
125
147
7
118
142
198
187
120
96
177
204
62
189
152
201
10
11
197
39
77
164
206
104
110
0.4
0.2
Rysunek 5.
Klasyfikacja obiektów.12
12
153
167
193
3
81
111
178
46
55
60
179
32
161
186
25
82
51
33
154
71
134
73
150
170 3
75
85
126
72
184
26
6 214
130
31
188
145
93
100
131
158
201
74
144
18
44
34
168
48
112
156
181
108
78
209
37
207
54
151
107
122
215
15
94
64
88
17
114
89
101
146
20
41
192
8
195
38
45
56
14
66
157
162
163
190
83
52
84
129
208
2.4
57
103
137
138
95
42
69
23
141
90
29
148
159
213
1.8
65
194
135
176
2.2
2
106
63
16
97
171
182
9
169
183
22
58
50
203
116
40
124
202
13
49
174
205
98
53
92
28
196
2.6
200
149
119
139
212
21
165
128
80
36
160
91
24
19
102
113
155
79
99
35
216
136
140
86
105
115
2.8
59
123
172
175
180
211
47
173
67
121
132
166
1
2
30
4
5
68
127
76
125
147
7
118
27
43
120
185
210
70
191
109
133
142
198
187
62
189
152
96
177
204
10
11
197
87
143
61
199
117
39
77
164
206
1.6
1.4
104
110
1.2
1
Źródło: Opracowanie własne.
Badamy
następnie
zmianę
wartości
wybranych
spółek
na
następnej
sesji
giełdowej
i porównujemy ze zmianą WIG. Zmiana wartości tego portfela wyniosła 0.2577% gdy na tej samej
sesji WIG zmienił się o -0.5125%. Taką sytuację nazwiemy sukcesem – klasyfikacja dokonana
przez sieć SOM na bazie danych analizy technicznej pozwoliła wyodrębnić spółki wzrostowe.
Identycznej analizy dokonujemy dla kolejnych 58 sesji. Otrzymano następujące wyniki:
12
Numery na rysunkach 3 i 5 odpowiadają numerom spółek w bazie danych.
Tabl. 1.
Syntetyczne wyniki analizy dla badanych 59 sesji.
ZMIANA
PORTFELA
0.2577
0.211002311
-0.058422892
0.22985678
-0.278363106
0.019574294
0.001981082
-1.009173571
-1.491534027
0.5
0.426290499
-0.404914087
-1.064090738
-2.106766905
0.45050248
-0.593852684
0.865511896
-0.63516118
-0.319515948
0.736551321
0.293159289
-0.767331466
-0.962145612
-0.822016374
1.237821928
-0.096835231
0.071123821
0.030190629
-0.465174762
-0.897655956
0.232971021
-1.018929651
0.089890663
-0.084264343
0.100524686
-1.294753976
-0.337652356
-0.056998831
-0.100296565
0.743147523
-0.453354105
0.667120878
0.438483078
-0.836100901
0.027887413
-0.35057269
0.217687913
0.006986872
1.287308365
0.482648409
0.143921171
3.101023837
-0.418478386
0.255435836
-0.071888633
-0.652743197
0.457177965
0.287697192
0.446451796
Źródło: Opracowanie własne.
ZMIANA WIG
-0.512460206
0.869910116
0.357914544
-0.346034632
-0.684675543
0.908698353
0.278959079
-1.258247363
-1.58144218
0.394339475
0.871603282
-0.071568672
-1.095371357
-1.217151091
0.463349
0.168740984
1.735511586
-1.980367617
0.169464062
0.63319526
-0.192157477
-1.272757401
-0.385367754
-0.095547371
1.527307505
-0.253112537
1.713212908
0.140193154
-0.227593439
-0.951478355
0.928591173
0.353996167
-0.756927679
-0.482091934
-1.091339757
0.224369887
0.341597427
-0.374691652
0.687585588
0.940322006
0.370514486
-0.635657815
-0.899806509
0.098224551
-0.840089089
0.411905529
0.000870378
-0.029190884
-0.075275536
0.381084637
0.110299297
3.213296029
1.209634428
-0.485093804
0.72855725
-0.66927677
0.182873851
0.170251223
0.248617143
1 - sukces
0 – porażka
1
0
0
1
1
0
0
1
1
1
0
0
1
0
0
0
0
1
0
1
1
1
0
0
0
1
0
0
0
1
0
0
1
1
1
0
0
1
0
0
0
1
1
0
1
0
1
1
1
1
1
0
0
1
0
1
1
1
1
Na 59 eksperymentów uzyskano 30 sukcesów a więc 50.85%. Sukcesy i porażki pojawiały
się w sposób losowy (rysunek 6). W jednakowym stopniu dotyczy to sesji spadkowych jak
i wzrostowych. „Nieszczęśliwym trafem” spadki były nieco głębsze niż wzrosty stąd skumulowana
zmiana
i
portfela
jest
znacznie
niższa
niż
WIG’u,
odpowiednio
-3.6211
2.3702 (rysunek 7). Ta dysproporcja została wywołana głównie na sesjach od 6 do 11 i strat z
tego okresu nie udało się już odrobić. Rozkłady zmian portfela i WIG’u są bardzo podobne
(rysunek 8).
Rysunek 6.
Zmiany wartości portfela i WIG’u.
4
ZMIANY WIG
ZMIANY PORTFELA
3
2
1
0
-1
-2
-3
0
10
Źródło: Opracowanie własne.
20
30
40
50
60
Rysunek 7.
Skumulowane zmiany wartości portfela i WIG’u.
4
skumulowane zmiany portfela
skumulowane zmiany WIG
2
ZMIANY PROCENTOWE
0
-2
-4
-6
-8
-10
0
10
20
30
SESJE
40
50
60
Źródło: Opracowanie własne.
Rysunek 8.
Rozkłady zmian portfela i WIG’u.
R OZKŁAD ZMIAN PORTFELA
25
20
15
10
5
0
-3
-2
-1
0
1
2
3
4
ROZKŁAD ZM IAN WIG
20
15
10
5
0
-2
-1
Źródło: Opracowanie własne.
0
1
2
3
4
W rozkładzie zmian WIG’u jest nieco więcej zmian dodatnich niż w rozkładzie zmian portfela i
znajduje to odzwierciedlenie w skośności i spłaszczeniu obu rozkładów odpowiednio : skośność
0.7666, 0.5926 , spłaszczenie 6.8478, 4.6215.
WNIOSKI
W zależności od punktu widzenia można powiedzieć, że uzyskanych wyników należało się
spodziewać lub „machnąć na nie ręką”. Zwolennicy analizy technicznej powiedzą, że należało
wziąć pod uwagę także inne wskaźniki. Dobrali by inne wartości parametrów wskaźników użytych.
Zażądaliby znacznego wydłużenia okresu analizy. Analitycy sceptycznie nastawieni do analizy
technicznej odpowiedzą, że zawsze można tak dobrać narzędzia badawcze aby „udowodnić” swoje
tezy. Można bowiem dla każdego zespołu spółek znaleźć pewien wskaźnik o odpowiednio
dobranych parametrach, który wskaże rzeczywistą zmianę tendencji rynkowej na kolejnej sesji.
Aby odizolować się od emocji i stronniczej oceny postanowiono odwołać się do niezależnego
eksperta. Jego rolę pełniła tu sieć neuronowa13. Z natury rzeczy nie miała ona zdania na temat
analizy technicznej w momencie rozpoczęcia jej uczenia i miała sobie to zdanie dopiero „wyrobić”.
Sieci przedstawiono 59 razy 64 wskaźniki dotyczące 216 walorów. Na tej podstawie próbowała ona
pogrupować te walory we względnie jednorodne grupy. Najlepsza grupa poddana była dalszej
analizie. Niestety nie udało się znaleźć żadnej ogólnej zasady, która pozwoliłaby wykryć optymalny
zestaw wskaźników dla dowolnie wybranego momentu inwestycyjnego.
Przedstawione tu wnioskowanie ma charakter empiryczny, gdyż ze względu na ograniczenia
merytoryczne samej analizy technicznej nie można przeprowadzić wnioskowania teoretycznego.
Jak w każdym badaniu empirycznym uzyskane wnioski nie mają charakteru ostatecznego ani
pewnego. Niewątpliwie można by jeszcze rozszerzyć zakres analiz i wzmocnić zastosowaną
metodologię. Na tym jednak etapie badań nie udało się wykryć żadnych istotnych informacji wśród
analizowanych danych pochodzących z analizy technicznej.
13
Oczywiście zakłada się, że sieć jest w stanie wykryć informacje w prezentowanych jej danych. Z doświadczeń
autorów wynika, że jeżeli w danych „coś” jest to sieć najczęściej to wykryje. Nie zawsze jednak potrafimy tą
informację zinterpretować...